JP6909669B2 - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP6909669B2
JP6909669B2 JP2017150607A JP2017150607A JP6909669B2 JP 6909669 B2 JP6909669 B2 JP 6909669B2 JP 2017150607 A JP2017150607 A JP 2017150607A JP 2017150607 A JP2017150607 A JP 2017150607A JP 6909669 B2 JP6909669 B2 JP 6909669B2
Authority
JP
Japan
Prior art keywords
image
image data
metadata
unit
composition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017150607A
Other languages
Japanese (ja)
Other versions
JP2019029954A (en
Inventor
豊田 哲也
哲也 豊田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2017150607A priority Critical patent/JP6909669B2/en
Priority to PCT/JP2018/028709 priority patent/WO2019026923A1/en
Publication of JP2019029954A publication Critical patent/JP2019029954A/en
Application granted granted Critical
Publication of JP6909669B2 publication Critical patent/JP6909669B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮影の際に複数コマの画像データを取得し、この取得した画像データに合成処理を施し、この合成処理を施した画像データを記録することが可能な画像処理装置および画像処理方法に関する。 The present invention is an image processing apparatus and an image processing method capable of acquiring image data of a plurality of frames at the time of shooting, subjecting the acquired image data to a compositing process, and recording the image data subjected to the compositing process. Regarding.

撮影の際に複数コマの画像データを取得し、この取得した複数の画像データに合成処理を施し記録することは従来より種々提案されている、例えば、特許文献1には、撮像方向を変位させながら複数のフレー画像データを取得し、この取得した画像データにパノラマ画像処理を施し、パノラマ画像データを生成する画像処理装置が記載されている。この画像処理装置では、全周パノラマ画像と判断される場合に、パノラマ画像データと全周パノラマ画像であることを示す情報を関連付けて記録されている。 Various conventional proposals have been made for acquiring image data of a plurality of frames at the time of shooting, and subjecting the acquired plurality of image data to a compositing process for recording. For example, in Patent Document 1, the imaging direction is deviated. However, there is described an image processing apparatus that acquires a plurality of frame image data, performs panoramic image processing on the acquired image data, and generates panoramic image data. In this image processing device, when it is determined that the panoramic image is an all-around panorama image, the panoramic image data and the information indicating that the panorama image is an all-around panorama image are recorded in association with each other.

また、写真用のメタデータを含む画像ファイルフォーマットとしてエクスチェンジャブル・イメージ・ファイル・フォーマット(Exif)が使用されている。このExif情報として、シャッタ速度、絞り値(F値)、ISO感度等の情報が画像データと共に記録される。 In addition, an exchangeable image file format (Exif) is used as an image file format containing metadata for photographs. As this Exif information, information such as shutter speed, aperture value (F value), and ISO sensitivity is recorded together with image data.

特開2015−156523号公報JP-A-2015-156523

複数コマの画像データに対する合成処理は、パノラマ合成処理以外にも、深度合成処理、超高解像合成処理、ハイダイナミックレンジ合成処理(HDR)等、種々の処理がある。これらの合成処理の際に使用される撮影コマの画像データの露出条件は同じ場合もあれば、異なる場合もある。前述の特許文献1には、露出条件の記録については何ら記載されていない。これらの露出条件等の撮影条件の記録の仕方によっては、不適切な記録となってしまう。 In addition to the panoramic composition process, the composition process for the image data of a plurality of frames includes various processes such as a depth composition process, an ultra-high resolution composition process, and a high dynamic range composition process (HDR). The exposure conditions of the image data of the shooting frames used in these compositing processes may be the same or different. The above-mentioned Patent Document 1 does not describe any record of exposure conditions. Depending on how the shooting conditions such as these exposure conditions are recorded, the recording may be inappropriate.

本発明は、このような事情を鑑みてなされたものであり、画像合成処理に応じて適切な情報を作成し、画像データに関連付けを行うようにした画像処理装置および画像処理方法を提供することを目的とする。 The present invention has been made in view of such circumstances, and provides an image processing apparatus and an image processing method that create appropriate information according to image composition processing and associate it with image data. With the goal.

上記目的を達成するため第1の発明に係る画像処理装置は、同一の対象物に対し、撮影条件を切り換えて複数の撮影画像データを取得可能な画像データ取得部と、上記画像データ取得部によって、異なる露出条件で複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行う第1画像合成部と、上記画像データ取得部によって、同一の露出条件、かつ露出以外の条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行う第2画像合成部と、上記第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成するメタデータ作成部と、を有し、上記メタデータ作成部は、上記第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる露出条件を示す単一のメタデータを作成する。 In order to achieve the above object, the image processing apparatus according to the first invention uses an image data acquisition unit capable of acquiring a plurality of captured image data by switching shooting conditions for the same object, and the image data acquisition unit. , The same exposure condition is obtained by the first image synthesizing unit that acquires a plurality of captured image data under different exposure conditions and performs the first image composition using the acquired plurality of captured image data, and the image data acquisition unit. A second image synthesizing unit that acquires a plurality of captured image data under different conditions other than exposure and performs a second image synthesizing using the acquired plurality of captured image data, and the first image synthesizing unit. Alternatively, it has a metadata creation unit that creates metadata representing the composite image data synthesized by the second image composition unit, and the metadata creation unit performs the first image composition and the first image composition. When performing image composition of 2, create a single metadata showing different exposure conditions.

第2の発明に係る画像処理装置は、上記第1の発明において、上記メタデータ作成部は、上記第1の画像合成と上記第2の画像合成を区別する情報を作成する。
第3の発明に係る画像処理装置は、上記第2の発明において、上記メタデータ作成部は、上記第1の画像合成を行った場合には上記画像データ取得部における露出条件に基づいて参考メタデータを作成し、上記第2の画像合成を行った場合には上記画像データ取得部における実際の露出条件を実施メタデータとする。
In the image processing apparatus according to the second invention, in the first invention, the metadata creation unit creates information for distinguishing between the first image composition and the second image composition.
In the second invention, the image processing apparatus according to the third invention is a reference metadata based on the exposure conditions in the image data acquisition unit when the metadata creation unit performs the first image composition. When the data is created and the second image composition is performed, the actual exposure condition in the image data acquisition unit is used as the implementation metadata.

第4の発明に係る画像処理装置は、上記第1の発明において、上記メタデータ作成部は、上記第1の画像合成部によって第1の画像合成を行った場合には、上記第1の画像合成によって生成された合成画像の露出効果に相当するメタデータを作成する。 In the image processing apparatus according to the fourth invention, in the first invention, when the metadata creation unit performs the first image composition by the first image composition unit, the first image Create metadata that corresponds to the exposure effect of the composite image generated by the composite.

第5の発明に係る画像処理装置は、上記第1の発明において、上記メタデータ作成部は、上記第2の画像合成部によって第2の画像合成を行った場合には、上記画像データ取得部で1コマの画像データを取得する際の露出条件に基づいてメタデータを作成する。 In the image processing apparatus according to the fifth invention, in the first invention, when the metadata creation unit performs the second image composition by the second image composition unit, the image data acquisition unit Create metadata based on the exposure conditions when acquiring the image data of one frame in.

の発明に係る画像処理方法は、同一の対象物に対し、撮影条件を切り換えて複数の撮影画像データを取得し、異なる露出条件で取得した複数の撮影画像データを用いて第1の画像合成を行い、同一の露出条件、かつ露出以外の条件を異ならせて取得した複数の撮影画像データを用いて第2の画像合成を行い、上記第1画像合成または第2画像合成によって合成された合成画像データを表すメタデータを作成する際に、上記第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる露出条件を示す単一のメタデータを作成する。
In the image processing method according to the sixth invention, for the same object, a plurality of captured image data are acquired by switching the imaging conditions, and the first image is used by using the plurality of captured image data acquired under different exposure conditions. The composition was performed, and the second image composition was performed using a plurality of captured image data acquired under the same exposure conditions and different conditions other than the exposure, and the composition was performed by the first image composition or the second image composition. When creating the metadata representing the composite image data, a single metadata showing different exposure conditions is created in the case of performing the first image composition and the case of performing the second image composition.

本発明によれば、画像合成処理に応じて適切な情報を作成し、画像データに関連付けを行うようにした画像処理装置および画像処理方法を提供することができる。 According to the present invention, it is possible to provide an image processing apparatus and an image processing method that create appropriate information according to an image composition process and associate it with image data.

本発明の一実施形態に係るカメラの主として電気的構成を示すブロック図である。It is a block diagram which mainly shows the electrical structure of the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラにおける深度合成処理を説明する図である。It is a figure explaining the depth synthesis processing in the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラにおける超高解像合成処理を説明する図である。It is a figure explaining the ultra-high resolution synthesis processing in the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラにおけるハイダイナミックレンジ合成処理(HDR)を説明する図である。It is a figure explaining the high dynamic range composition processing (HDR) in the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラにおけるノイズリダクション(NR)合成処理を説明する図である。It is a figure explaining the noise reduction (NR) synthesis processing in the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラにおける電子手振れ防止処理を説明する図である。It is a figure explaining the electronic camera shake prevention processing in the camera which concerns on one Embodiment of this invention. 本発明の一実施形態におけるカメラのカメラ制御動作を示すフローチャートである。It is a flowchart which shows the camera control operation of the camera in one Embodiment of this invention. 本発明の一実施形態におけるカメラのカメラ制御動作を示すフローチャートである。It is a flowchart which shows the camera control operation of the camera in one Embodiment of this invention. 本発明の一実施形態におけるカメラにおいて、メタデータの表示の例を示す図である。It is a figure which shows the example of the display of metadata in the camera in one Embodiment of this invention.

以下、本発明の一実施形態としてデジタルカメラ(以下、「カメラ」と称す)に適用した例について説明する。このカメラは、撮像部を有し、この撮像部によって被写体像を画像データに変換し、この変換された画像データに基づいて、被写体像を本体の背面に配置した表示部にスルー画表示する。撮影者はスルー画表示を観察することにより、構図やシャッタタイミングを決定する。レリーズ操作時には、画像データが記録媒体に記録される。記録媒体に記録された画像データは、再生モードを選択すると、表示部に再生表示することができる。 Hereinafter, an example applied to a digital camera (hereinafter referred to as a “camera”) as an embodiment of the present invention will be described. This camera has an imaging unit, the subject image is converted into image data by the imaging unit, and the subject image is displayed as a through image on a display unit arranged on the back surface of the main body based on the converted image data. The photographer determines the composition and shutter timing by observing the through image display. During the release operation, the image data is recorded on the recording medium. The image data recorded on the recording medium can be reproduced and displayed on the display unit when the reproduction mode is selected.

また、本実施形態に係るカメラは、複数コマの画像データを取得し、この複数コマの画像データを用いて行う合成処理を行うことができる。この場合、複数の異なる露出条件で画像データを得て行う第1の画像合成処理と、同じ露出条件で複数の画像データを得て行う第2の画像合成処理とで、異なる露出条件(撮影条件)を示す単一のメタデータを生成し、画像データに関連付けて記録するようにしている。 Further, the camera according to the present embodiment can acquire image data of a plurality of frames and perform a compositing process using the image data of the plurality of frames. In this case, different exposure conditions (shooting conditions) are used in the first image composition process for obtaining image data under a plurality of different exposure conditions and the second image composition process for obtaining a plurality of image data under the same exposure conditions. ) Is generated and recorded in association with the image data.

図1は、本実施形態に係るカメラの主として電気的構成を示すブロック図である。このカメラは、制御部101、撮像部102、記録部105、表示部106、操作部107、通信部108を有する。 FIG. 1 is a block diagram showing a mainly electrical configuration of the camera according to the present embodiment. This camera has a control unit 101, an imaging unit 102, a recording unit 105, a display unit 106, an operation unit 107, and a communication unit 108.

撮像部102は、光学系102a、撮像素子102b、ピント変更部102c、露出変更部102d、および撮像位置変更部102dを有する。なお、ピント変更部102c、露出変更部102dおよび撮像位置変更部102dは、設定可能なモードに応じて、適宜、省略してもよい。 The imaging unit 102 includes an optical system 102a, an image sensor 102b, a focus changing unit 102c, an exposure changing unit 102d, and an imaging position changing unit 102d. The focus changing unit 102c, the exposure changing unit 102d, and the imaging position changing unit 102d may be omitted as appropriate depending on the mode that can be set.

光学系102aは、フォーカスレンズ等の光学レンズを有し、被写体像を形成することができる。光学102aのピント位置は、後述するピント変更部102cによって移動制御される。 The optical system 102a has an optical lens such as a focus lens and can form a subject image. The focus position of the optical 102a is moved and controlled by the focus changing unit 102c described later.

撮像素子102bは、CCDイメージセンサ、CMOSイメーセンサ等のイメージセンサを有する。この撮像素子102bは、光学系102aによって被写体像が形成される位置付近に配置され、撮像制御部103bからの制御に従って、被写体像を画像データに変換し出力する。撮像素子102bは、同一の対象物に対し、撮影条件(第1の撮影条件)を切り換えて複数の撮影画像データを取得可能な画像データ取得部として機能する。 The image sensor 102b has an image sensor such as a CCD image sensor or a CMOS image sensor. The image pickup device 102b is arranged near a position where the subject image is formed by the optical system 102a, and converts the subject image into image data and outputs the subject image according to the control from the image pickup control unit 103b. The image sensor 102b functions as an image data acquisition unit capable of acquiring a plurality of captured image data by switching the imaging conditions (first imaging conditions) for the same object.

ピント変更部102cは、光学系102aの内のフォーカスレンズを光軸方向に移動する駆動機構および駆動回路を有する。ピント変更部102cは、制御部103からのピント合わせ信号に基づいてフォーカスレンズを合焦位置に移動させる。また、ピント変更部102cは、深度合成モードが設定された場合に、フォーカスレンズを所定の異なるピント位置に順次移動させ、それぞれのピント位置で画像データが取得される。 The focus changing unit 102c has a drive mechanism and a drive circuit for moving the focus lens in the optical system 102a in the optical axis direction. The focus changing unit 102c moves the focus lens to the focusing position based on the focusing signal from the control unit 103. Further, when the depth of field synthesis mode is set, the focus changing unit 102c sequentially moves the focus lens to a predetermined different focus position, and image data is acquired at each focus position.

露出変更部102dは、撮影時の露出条件を変更させる。露出変更部102dは、絞りおよび絞り制御回路、シャッタおよびシャッタ制御回路、ISO感度変更回路等の内の少なくとも1つを有する。すなわち、露出変更部102dは、絞り値、シャッタ速度値、およびISO感度の内の少なくとも1つを変更することにより、露出条件を変更する。また、露出変更部102dは、ハイダイナミックレンジ合成(HDR)モードが設定された場合に、所定の異なる露出条件で順次撮影が行われ、それぞれの露出条件で画像データが取得される。 The exposure changing unit 102d changes the exposure conditions at the time of shooting. The exposure change unit 102d has at least one of an aperture and aperture control circuit, a shutter and a shutter control circuit, an ISO sensitivity change circuit, and the like. That is, the exposure changing unit 102d changes the exposure condition by changing at least one of the aperture value, the shutter speed value, and the ISO sensitivity. Further, when the high dynamic range composition (HDR) mode is set, the exposure changing unit 102d sequentially shoots under predetermined different exposure conditions, and image data is acquired under each exposure condition.

撮像位置変更部102eは、撮像素子102bを光軸と直交する面内で移動させる移動機構および移動回路を有する。撮像位置変更部102eは、超高解像合成モードが設定された場合に、撮像素子102bを光軸と直交する面内で所定の異なる撮像位置に撮像素子102bを順次移動させ、それぞれの撮像位置で画像データが取得される。 The image pickup position changing unit 102e has a moving mechanism and a moving circuit for moving the image pickup element 102b in a plane orthogonal to the optical axis. When the ultra-high resolution synthesis mode is set, the image pickup position changing unit 102e sequentially moves the image sensor 102b to a predetermined different image pickup position in a plane orthogonal to the optical axis, and each image pickup position Image data is acquired with.

制御部101は、CPU(Central Processing Unit)とその周辺回路およびメモリ等を有したASIC(Application Specific Integrated Circuit)で構成される。CPUはメモリに記憶されたプログラムに従って、カメラ100内の各部を制御することによってカメラの全体を実行する。制御部101は、モード制御部101b、表示制御部101c、通信制御部101d、および画像処理部103を有する。これらの各部の一部の機能は、CPUとプログラムによって実現され、また他の一部の機能は周辺回路によって実現される。 The control unit 101 is composed of an ASIC (Application Specific Integrated Circuit) having a CPU (Central Processing Unit), peripheral circuits thereof, a memory, and the like. The CPU executes the entire camera by controlling each part in the camera 100 according to a program stored in the memory. The control unit 101 includes a mode control unit 101b, a display control unit 101c, a communication control unit 101d, and an image processing unit 103. Some functions of each of these parts are realized by a CPU and a program, and some other functions are realized by peripheral circuits.

モード制御部101bは、ユーザによって設定されたモード等に応じて、撮像制御部103b、撮影制御変更部103c、画像合成部103d等による制御を実行させる。 The mode control unit 101b causes the image control unit 103b, the shooting control change unit 103c, the image composition unit 103d, and the like to execute control according to the mode set by the user.

表示制御部101cは、表示部106における表示の制御を行う。表示としては、撮像素子102bによって取得された画像データに基づくスルー画表示、記録部105に記録された画像の再生画像表示、メニュー画面表示等、種々の表示がある。また、記録部105に記録された際の画像表示の際には、画像データに関連して記録されているメタデータの表示を行うようにしてもよい(後述する図9参照)。 The display control unit 101c controls the display on the display unit 106. The display includes various displays such as a through image display based on the image data acquired by the image sensor 102b, a reproduced image display of the image recorded in the recording unit 105, and a menu screen display. Further, when displaying the image when it is recorded in the recording unit 105, the metadata recorded in relation to the image data may be displayed (see FIG. 9 described later).

通信制御部101dは、通信部108を介して行う外部との無線(赤外線等を含む)通信、または有線通信の制御を行う。本実施形態においては、後述するように、記録部105に記録された画像データ等は外部装置に通信可能である(図8のS45、S47参照)。 The communication control unit 101d controls wireless (including infrared rays) communication or wired communication with the outside via the communication unit 108. In the present embodiment, as will be described later, the image data or the like recorded in the recording unit 105 can communicate with the external device (see S45 and S47 in FIG. 8).

画像処理部103は、撮像制御部103b、撮影制御変更部103c、画像合成部103d、記録制御部103e、メタデータ作成部104を有する。 The image processing unit 103 includes an image pickup control unit 103b, a shooting control change unit 103c, an image composition unit 103d, a recording control unit 103e, and a metadata creation unit 104.

撮像制御部103bは、撮像素子102bから画像データの取得の制御を行う。すなわち、撮像制御部103bは、撮像素子102bの光電変換時間や画像データの読出しを制御し、読み出した画像データを制御部101に出力させる。 The image pickup control unit 103b controls the acquisition of image data from the image pickup element 102b. That is, the image pickup control unit 103b controls the photoelectric conversion time of the image pickup element 102b and the reading of the image data, and outputs the read image data to the control unit 101.

撮影制御変更部103cは、深度合成処理モード、ハイダイナミックレンジ合成処理(HDR)モード、超高解像合成処理モード等の設定されたモードに応じて、ピント変更部102b、露出変更部102c、撮像位置変更部102dを制御し、設定されたモードに応じた撮影制御を実行する。 The shooting control changing unit 103c has the focus changing unit 102b, the exposure changing unit 102c, and the imaging according to the set modes such as the depth composition processing mode, the high dynamic range composition processing (HDR) mode, and the ultra-high resolution composition processing mode. The position changing unit 102d is controlled, and shooting control according to the set mode is executed.

画像合成部103dは、画像処理回路等を有し、深度合成処理モード、ハイダイナミックレンジ合成処理(HDR)モード、超高解像合成処理モード、ノイズリダクションモード、電子手振れ防止モード等に応じて、取得した複数コマの画像データに対して、画像処理を施す。深度合成処理モード、ハイダイナミックレンジ合成処理(HDR)モード、超高解像合成処理モードにおける画像処理については、図2ないし図4を用いて後述する。 The image compositing unit 103d has an image processing circuit and the like, and corresponds to a depth compositing processing mode, a high dynamic range compositing processing (HDR) mode, an ultra-high resolution compositing processing mode, a noise reduction mode, an electronic camera shake prevention mode, and the like. Image processing is performed on the acquired image data of a plurality of frames. Image processing in the depth composition processing mode, the high dynamic range composition processing (HDR) mode, and the ultra-high resolution composition processing mode will be described later with reference to FIGS. 2 to 4.

画像合成部103dは、画像データ取得部によって、異なる露出条件で複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行う第1画像合成部として機能する。画像合成部103dは、画像データ取得部によって、同一の露出条件、かつ露出以外の条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行う第2画像合成部として機能する。 The image composition unit 103d functions as a first image composition unit that acquires a plurality of captured image data under different exposure conditions by the image data acquisition unit and performs the first image composition using the acquired plurality of captured image data. do. The image synthesizing unit 103d acquires a plurality of captured image data with the same exposure conditions and different conditions other than exposure by the image data acquisition unit, and uses the acquired plurality of captured image data to obtain a second image. It functions as a second image compositing unit for compositing.

記録制御部103eは、画像処理部103によって画像処理が施された画像データを、記録部105に記録する際の記録制御を行う。後述するように、画像データは、メタデータ作成部104によって生成されたメタデータと関連付けられ、記録部105に記録される。画像合成モードに応じて、実施データまたは参考データのいずれかが関連付けられる(図7のS13、S19、S25参照)。 The recording control unit 103e controls recording when the image data processed by the image processing unit 103 is recorded in the recording unit 105. As will be described later, the image data is associated with the metadata generated by the metadata creation unit 104 and recorded in the recording unit 105. Depending on the image composition mode, either implementation data or reference data is associated (see S13, S19, S25 in FIG. 7).

メタデータ作成部104は、画像データに付随した情報を生成する。本実施形態においては、メタデータ作成部104は実施データ作成部104aと参考データ作成部104bを有する。実施データ作成部104aは、複数コマの画像データを取得した際の実際の露出条件に基づいてメタデータを生成する。参考データ作成部104bは、複数コマの画像データを取得した際の実際の複数の露出条件から参考となる露出条件を算出し、この露出条件に基づいてメタデータを生成する。 The metadata creation unit 104 generates information associated with the image data. In the present embodiment, the metadata creation unit 104 has an implementation data creation unit 104a and a reference data creation unit 104b. The implementation data creation unit 104a generates metadata based on the actual exposure conditions when the image data of a plurality of frames is acquired. The reference data creation unit 104b calculates a reference exposure condition from the actual plurality of exposure conditions when the image data of a plurality of frames is acquired, and generates metadata based on the exposure condition.

メタデータ作成部104は、第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成するメタデータ作成部として機能する。また、このメタデータ作成部は、第1の画像合成を行う場合と、第2の画像合成を行う場合で、異なる露出条件(撮影条件)を示す単一のメタデータを作成する(例えば、図2(d)、図3(d)、図4(d)、図7のS19、S25参照)。 The metadata creation unit 104 functions as a metadata creation unit that creates metadata representing composite image data synthesized by the first image synthesis unit or the second image synthesis unit. In addition, this metadata creation unit creates a single metadata showing different exposure conditions (shooting conditions) in the case of performing the first image composition and the case of performing the second image composition (for example, the figure). 2 (d), FIG. 3 (d), FIG. 4 (d), and S19 and S25 of FIG. 7).

メタデータ作成部は、第1の画像合成と上記第2の画像合成を区別する情報を作成する(例えば、図9(c)参照)。また、メタデータ作成部は、第1の画像合成を行った場合には画像データ取得部における露出条件に基づいて参考メタデータを作成し(例えば、図7のS19参照)、第2の画像合成を行った場合には画像データ取得部における実際の露出条件を実施メタデータとする(例えば、図7のS25参照)。 The metadata creation unit creates information that distinguishes the first image composition from the second image composition (see, for example, FIG. 9C). Further, when the first image composition is performed, the metadata creation unit creates reference metadata based on the exposure conditions in the image data acquisition unit (see, for example, S19 in FIG. 7), and the second image composition. When the above is performed, the actual exposure condition in the image data acquisition unit is used as the implementation metadata (see, for example, S25 in FIG. 7).

メタデータ作成部は、第1の画像合成部によって第1の画像合成を行った場合には、第1の画像合成によって生成された合成画像の露出効果に相当するメタデータを作成する(例えば、図4、図7のS19参照)。メタデータ作成部は、第2の画像合成部によって第2の画像合成を行った場合には、画像データ取得部で1コマの画像データを取得する際の露出条件に基づいてメタデータを作成する(例えば、図2、図3、図7のS25参照)。 When the first image composition is performed by the first image composition unit, the metadata creation unit creates metadata corresponding to the exposure effect of the composite image generated by the first image composition (for example,). See S19 in FIGS. 4 and 7). When the second image composition is performed by the second image composition unit, the metadata creation unit creates metadata based on the exposure conditions when the image data acquisition unit acquires one frame of image data. (See, for example, S25 in FIGS. 2, 3, and 7).

記録部105は、電気的に書き換え可能な不揮発性メモリを有する記録媒体である。記録部105には、画像データ105bと、この画像データ105bに関連付けられたメタデータ105cが記録可能である。記録部105に記録される画像データやメタデータ等は、例えば、Exif等の規格に従って記録される。 The recording unit 105 is a recording medium having an electrically rewritable non-volatile memory. The image data 105b and the metadata 105c associated with the image data 105b can be recorded in the recording unit 105. The image data, metadata, and the like recorded in the recording unit 105 are recorded according to a standard such as Exif, for example.

表示部106は、カメラの背面等に配置された表示ディスプレイを有し、表示ディスプレイには、スルー画表示、再生表示、メニュー画面等、種々の画像が表示される。 The display unit 106 has a display display arranged on the back surface of the camera or the like, and various images such as a through image display, a playback display, and a menu screen are displayed on the display display.

操作部107は、電源釦、レリーズ釦、再生釦、OK釦、タッチパネル等の種々の操作部材を有する。電源釦、レリーズ釦、再生釦、OK釦等の操作に応じてオンとなるスイッチを有し、操作部107は、スイッチの操作状態を検出し、制御部101に出力する。 The operation unit 107 has various operation members such as a power button, a release button, a play button, an OK button, and a touch panel. It has a switch that turns on according to the operation of the power button, release button, play button, OK button, etc., and the operation unit 107 detects the operation state of the switch and outputs it to the control unit 101.

通信部108は、外部機器やインターネット等と通信を行うための通信回路を有する。通信部108を介して、撮像素子102bによって取得され、記録部105に記録されたメタデータ付き画像データが外部に送信される。 The communication unit 108 has a communication circuit for communicating with an external device, the Internet, or the like. The image data with metadata acquired by the image sensor 102b and recorded in the recording unit 105 is transmitted to the outside via the communication unit 108.

次に、図2を用いて、深度合成モードが設定された場合の撮影方法と画像合成方法について説明する。図2(a)は、ユーザ10がカメラ20を用いて被写体30を、深度合成モードで撮影する様子を示す。被写体30の上部30aと下部30bは、カメラ20からの距離が異なるため、上部30aと下部30bの両方にピントを合わせるのは困難な場合がある。このような状況で、深度合成モードが設定されると、ピントの位置を変えながら複数コマを撮影し、撮影された画像内の部分を比較し、ピントの合った部分を合成してピントの合った画像を作成する。 Next, with reference to FIG. 2, a shooting method and an image composition method when the depth composition mode is set will be described. FIG. 2A shows how the user 10 uses the camera 20 to shoot the subject 30 in the depth composition mode. Since the upper part 30a and the lower part 30b of the subject 30 have different distances from the camera 20, it may be difficult to focus on both the upper part 30a and the lower part 30b. In such a situation, when the depth-of-field composition mode is set, multiple frames are shot while changing the focus position, the parts in the shot image are compared, and the in-focus parts are combined to focus. Create an image.

図2(b)は、撮影タイミングとピントの合っている部分を示す。時刻t0において、レリーズ釦が操作され撮影が開始すると時刻t1〜t2の間に1回目の撮影がなされる。この時のシャッタ速度SSは1/100秒であり、また撮影画像の内、黒塗りの部分F1(上部30aに相当)にピント合っている。撮影が終わると、時刻t2〜t3の間に、ピント変更部102cによって光学系102aのピント位置を移動させる。 FIG. 2B shows a portion that is in focus with the shooting timing. When the release button is operated at time t0 and shooting starts, the first shooting is performed between times t1 and t2. The shutter speed SS at this time is 1/100 second, and the black-painted portion F1 (corresponding to the upper portion 30a) of the captured image is in focus. When the shooting is finished, the focus position of the optical system 102a is moved by the focus changing unit 102c between the times t2 to t3.

続いて、時刻t4〜t4の間に2回目の撮影がなされる。この時のシャッタ速度SSも1/100秒であり、また撮影画像の内、黒塗りの部分F2(下部30bに相当)にピント合っている。1回目および2回目に撮影された2つの撮影画像に深度合成処理を施すと、黒塗りの部分F1およびF2(上部30aおよび下部30b)にピントが合った画像を得ることができる。 Subsequently, a second shooting is performed between the times t4 and t4. The shutter speed SS at this time is also 1/100 second, and the black-painted portion F2 (corresponding to the lower portion 30b) of the captured image is in focus. When the depth composition processing is performed on the two captured images taken the first time and the second time, it is possible to obtain an image in which the black-painted portions F1 and F2 (upper part 30a and lower part 30b) are in focus.

図2(c)において、画像41は1枚目の撮影画像を示し、この撮影により被写体30の上部30a(図2(b)のF1参照)にピントを合わせた画像データを取得する。次に、画像42は2枚目の撮影画像を示し、この撮影により被写体30の下部30b(図2(b)のF2参照)にピントを合わせた画像データを取得する。 In FIG. 2C, the image 41 shows the first captured image, and the image data focused on the upper portion 30a of the subject 30 (see F1 in FIG. 2B) is acquired by this imaging. Next, the image 42 shows a second captured image, and the image data focused on the lower portion 30b of the subject 30 (see F2 in FIG. 2B) is acquired by this imaging.

画像41および画像42の画像データを取得すると、次に、画像合成部103dは、両画像データを深度合成する。この深度合成処理は、画像ごとに、画像の先鋭度(コントラスト)の高い領域を抽出し、先鋭度が高い領域の画像データを合成する。これにより、上部30aおよび下部30bの両方にピントがあった画像43の画像データを生成する。深度合成処理は、単写よりも深い被写界深度の画像データを生成することができる。 After acquiring the image data of the image 41 and the image 42, the image synthesizing unit 103d next performs depth synthesizing of both image data. In this depth composition process, a region having a high sharpness (contrast) of the image is extracted for each image, and image data in the region having a high sharpness is synthesized. As a result, the image data of the image 43 in which both the upper portion 30a and the lower portion 30b are in focus is generated. The depth composition process can generate image data having a depth of field deeper than that of a single shot.

また、画像合成部103dが深度合成処理によって画像データを生成すると、メタデータ生成部104は、メタデータも生成する。深度合成を行うための1回目の撮影と、2回目の撮影と、露出は2回行われている。1回目と2回目の露出条件はいずれもシャッタ速度SSが1/100秒であり、絞りはFNo.16で同一であるので、露出データは、実施データとなる。そこで、メタデータ44としては、図2(d)に示すように、この共通の露出条件である実施データを記録し、参考データは記録しない。他のユーザは、この実施データを使用することにより、深度合成画像と同様の明るさの画像を得ることができる。 Further, when the image synthesizing unit 103d generates the image data by the depth synthesizing process, the metadata generation unit 104 also generates the metadata. The first shooting, the second shooting, and the exposure for performing depth composition are performed twice. In both the first and second exposure conditions, the shutter speed SS was 1/100 second, and the aperture was FNo. Since it is the same at 16, the exposure data becomes the implementation data. Therefore, as the metadata 44, as shown in FIG. 2D, the implementation data which is the common exposure condition is recorded, and the reference data is not recorded. By using this execution data, other users can obtain an image having the same brightness as the depth composite image.

次に、図3を用いて、超解像合成モードが設定された場合の撮影方法と画像合成方法について説明する。図3(a)は、ユーザ10がカメラ20を用いて被写体31を、超解像合成モードで撮影する様子を示す。被写体31は、遠方にあり、通常の焦点距離で撮影しても被写体31は小さく写り、拡大表示(拡大プリント)しても十分な解像度の表示とはならない。 Next, with reference to FIG. 3, a shooting method and an image composition method when the super-resolution composition mode is set will be described. FIG. 3A shows how the user 10 uses the camera 20 to shoot the subject 31 in the super-resolution synthesis mode. The subject 31 is located far away, and even if the subject 31 is photographed at a normal focal length, the subject 31 appears small, and even if it is enlarged and displayed (enlarged print), the display does not have a sufficient resolution.

このような図3(a)に示す状況で、超解像合成モードが設定されると、撮像位置変更部102eは、撮像素子102bの位置を変えながら複数コマを撮影する。そして、1回目の撮影で取得した画像における画素と画素の中間位置を、2回目から4回目の撮影において撮像素子102bの位置を変えて撮影した画像を用いて、補間することにより、解像度の高い画像を合成する。超解像合成で画像45が生成されると、図3(b)に示すように、拡大画像46の解像度は高く、拡大鑑賞が可能となる。 In such a situation shown in FIG. 3A, when the super-resolution synthesis mode is set, the image pickup position changing unit 102e takes a plurality of frames while changing the position of the image pickup element 102b. Then, by interpolating the intermediate position between the pixels in the image acquired in the first shooting by using the image taken by changing the position of the image sensor 102b in the second to fourth shootings, the resolution is high. Combine images. When the image 45 is generated by the super-resolution composition, as shown in FIG. 3 (b), the resolution of the enlarged image 46 is high, and the enlarged viewing is possible.

図3(c)は、超解像撮影時のタイミングチャートと撮像素子102bの移動を示す。時刻t0において、レリーズ釦が操作され撮影が開始すると時刻t11〜t12の間に1回目の撮影がなされる。この時のシャッタ速度SSは1/100秒であり、また撮像素子102bは位置P1にある。時刻t12において撮影が終わると、撮像位置変更部102eは、時刻t13までの間に撮像素子102bを位置P2まで移動させる。 FIG. 3C shows the timing chart and the movement of the image sensor 102b at the time of super-resolution shooting. When the release button is operated at time t0 and shooting starts, the first shooting is performed between times t11 to t12. The shutter speed SS at this time is 1/100 second, and the image sensor 102b is at the position P1. When the photographing is completed at the time t12, the image pickup position changing unit 102e moves the image pickup element 102b to the position P2 by the time t13.

次に、時刻t13〜t14の間に2回目の撮影がなされる。この時のシャッタ速度SSは1/100秒であり、また撮像素子102bは位置P2にある。このタイミングにおいて位置P1は破線で示しており、撮像素子102bの位置P2は図3(c)に示すように、右下に所定量だけ移動している。この所定量は、画素間隔(画素ピッチ)よりも小さな値(例えば、画素ピッチの1/2)である。時刻t14において撮影が終わると、撮像位置変更部102eは、時刻t15までの間に撮像素子102bを位置P3まで移動させる。 Next, a second shooting is performed between the times t13 and t14. The shutter speed SS at this time is 1/100 second, and the image sensor 102b is at the position P2. At this timing, the position P1 is indicated by a broken line, and the position P2 of the image sensor 102b is moved to the lower right by a predetermined amount as shown in FIG. 3C. This predetermined amount is a value smaller than the pixel spacing (pixel pitch) (for example, 1/2 of the pixel pitch). When the photographing is completed at the time t14, the image pickup position changing unit 102e moves the image pickup element 102b to the position P3 by the time t15.

次に、時刻t15〜t16の間に3回目の撮影がなされる。この時のシャッタ速度SSは1/100秒であり、また撮像素子102bは位置P3にある。このタイミングにおいて位置P1は破線で示しており、撮像素子102bの位置P3は図3(c)に示すように、右上に所定量だけ移動している。 Next, a third shooting is performed between the times t15 and t16. The shutter speed SS at this time is 1/100 second, and the image sensor 102b is at the position P3. At this timing, the position P1 is indicated by a broken line, and the position P3 of the image sensor 102b is moved to the upper right by a predetermined amount as shown in FIG. 3C.

以後、時刻t17〜t18において4回目の撮影がなされ、時刻t19〜t20において5回目の撮影がなされる。これらタイミングでもシャッタ速度SSは1/100秒であり、また撮像素子102bは位置P4、P5と、位置P1よりも左下、左上に所定量だけ移動している。 After that, the fourth shooting is performed at times t17 to t18, and the fifth shooting is performed at times t19 to t20. Even at these timings, the shutter speed SS is 1/100 second, and the image sensor 102b moves to positions P4 and P5 by a predetermined amount to the lower left and upper left of the position P1.

複数の画像データを取得すると、画像合成部103dは超解像合成処理を施す。すなわち、撮像素子102bの位置P1を基準として、画素が所定量移動した際の画像データを用いて、画素間の画素値を補間する。例えば、撮像素子102bの移動量が画素ピッチの1/2であれば、画素の前後左右1/2ピッチずれた位置の画素値を補間することができ、画素数が4倍相当の高解像の画像データとなる。 When a plurality of image data are acquired, the image synthesizing unit 103d performs a super-resolution synthesizing process. That is, the pixel values between the pixels are interpolated using the image data when the pixels move by a predetermined amount with reference to the position P1 of the image sensor 102b. For example, if the amount of movement of the image sensor 102b is 1/2 of the pixel pitch, the pixel values at positions shifted by 1/2 pitch from the front, back, left, and right of the pixel can be interpolated, and the number of pixels is equivalent to 4 times higher resolution. It becomes the image data of.

画像合成部103dが超解像合成処理によって画像データを生成すると、メタデータ生成部104は、メタデータも生成する。超解像合成を行うために、露出は5回行われている。1回目から5回目の露出条件はいずれもシャッタ速度SSが1/100秒であり、絞りはFNo.16で同一であるので、露出データは、実施データとなる。そこで、メタデータ47としては、図3(d)に示すように、この共通の露出条件である実施データを記録し、参考データは記録しない。 When the image synthesizing unit 103d generates the image data by the super-resolution synthesizing process, the metadata generation unit 104 also generates the metadata. In order to perform super-resolution synthesis, the exposure is performed 5 times. Under the first to fifth exposure conditions, the shutter speed SS was 1/100 second, and the aperture was FNo. Since it is the same at 16, the exposure data becomes the implementation data. Therefore, as the metadata 47, as shown in FIG. 3D, the implementation data which is the common exposure condition is recorded, and the reference data is not recorded.

すなわち、複数枚の画像データが生成されると、画像合成部103dは、超解像合成処理を施し、超解像成画像データを生成する。メタデータ作成部104は、実施データ104aとして、図3に示した例では、1回の撮影の際の露出条件であるシャッタ速度SS=1/100秒、また絞り値FNo.16を生成する。ここで生成されたメタデータ(実施データ104a)は、記録部105内にメタデータ105cとして画像データに関連付けて記録される。他のユーザは、この実施データを使用することにより、超解像合成画像と同様の明るさの画像を得ることができる。 That is, when a plurality of image data are generated, the image synthesizing unit 103d performs a super-resolution synthesizing process to generate super-resolution image data. In the example shown in FIG. 3, the metadata creation unit 104 uses the shutter speed SS = 1/100 second, which is the exposure condition for one shooting, and the aperture value FNo. 16 is generated. The metadata (execution data 104a) generated here is recorded in the recording unit 105 as metadata 105c in association with the image data. By using this implementation data, other users can obtain an image having the same brightness as the super-resolution composite image.

次に、図4を用いて、ハイダイナミックレンジ合成処理(HDR)モードが設定された場合の撮影方法と画像合成方法について説明する。図4(a)は、ユーザ10がカメラ20を用いて、被写体である人物32および桜の木33を撮影する様子を示す。これらの被写体は晴天の下にあり、桜の木33は非常に明るく、一方人物は逆光のため非常に暗くなっている。すなわち、撮像素子102bが明暗を再現できる範囲が非常に広くないと、両方の被写体の明暗を適正に表現することができない。このような場合に、HDRモードに設定して撮影を行う。 Next, with reference to FIG. 4, a shooting method and an image composition method when the high dynamic range composition processing (HDR) mode is set will be described. FIG. 4A shows a user 10 using the camera 20 to photograph a person 32 and a cherry tree 33 as subjects. These subjects are under clear skies, the cherry tree 33 is very bright, while the person is very dark due to backlight. That is, unless the range in which the image sensor 102b can reproduce light and darkness is very wide, the light and darkness of both subjects cannot be properly expressed. In such a case, the HDR mode is set for shooting.

図4(c)は、HDRモードに設定されたときの撮像のタイミングチャートである。図4(a)の状態で撮影する際の標準露出(適正露出)、すなわち、被写体32、33の両方を考慮した標準露出は、シャッタ速度1/100秒、絞り値FNo.16とする。HDRモードが設定されると、この標準露出よりオーバ露光となる露出条件で1回目の撮影を行い、続いて、アンダ露光となる露出条件で2回目の撮影を行う。 FIG. 4C is a timing chart of imaging when the HDR mode is set. The standard exposure (appropriate exposure) when shooting in the state of FIG. 4A, that is, the standard exposure considering both the subjects 32 and 33, has a shutter speed of 1/100 second and an aperture value of FNo. It is set to 16. When the HDR mode is set, the first shooting is performed under an exposure condition that is overexposed from this standard exposure, and then the second shooting is performed under an exposure condition that is an underexposure.

本実施形態においては、図4(c)に示すように、時刻t0において、レリーズ釦が操作され撮影が開始すると時刻t21〜t23の間に1回目の撮影がなされる。この時のシャッタ速度SSは1/100秒の2倍の露出時間(SSは2/100秒)である。続いて、時刻t24〜t25の間に2回目の撮影がなされる。このときのシャッタ速度SSは1/100の1/2倍の露出時間(SSは1/200秒)である。なお、光学系102aのピント位置は1回目と2回目の撮影において同じである。 In the present embodiment, as shown in FIG. 4C, when the release button is operated at time t0 and shooting starts, the first shooting is performed between times t21 to t23. The shutter speed SS at this time is twice the exposure time of 1/100 second (SS is 2/100 second). Subsequently, a second shooting is performed between the times t24 and t25. The shutter speed SS at this time is 1/2 times the exposure time of 1/100 (SS is 1/200 second). The focus position of the optical system 102a is the same in the first and second shootings.

1回目の撮影で取得した露出オーバの画像データと、2回目の撮影で取得した露出アンダの画像データを用いて、画像合成部103dはHDR合成を行い、暗部から明部までの明暗の再現に優れた画像データを生成する。このHDR合成にあたっては、それぞれの画像(被写体)で適正露出となっている部分を繋ぎ合わせることによって、画面全体で白飛びや黒つぶれがない画像データを合成する。 Using the overexposed image data acquired in the first shooting and the exposure under image data acquired in the second shooting, the image compositing unit 103d performs HDR compositing to reproduce the light and dark from the dark part to the bright part. Generate excellent image data. In this HDR composition, image data without overexposure or underexposure is combined over the entire screen by joining the parts of each image (subject) that are properly exposed.

図4(b)は、HDR合成処理を施さない画像48と、HDR合成処理を施した画像49を示す。HDR合成処理を施していない画像48は、桜の木33は白飛びとなっており、一方人物32は黒つぶれとなっている。これに対して、HDR合成処理を施した画像49は、桜の木33および人物32は適正に明暗が表現されている。 FIG. 4B shows an image 48 that has not been subjected to the HDR composition processing and an image 49 that has been subjected to the HDR composition processing. In the image 48 that has not been subjected to the HDR composition processing, the cherry tree 33 is overexposed, while the person 32 is underexposed. On the other hand, in the image 49 subjected to the HDR composition processing, the light and darkness of the cherry tree 33 and the person 32 is properly expressed.

HDR合成処理を施した画像49のメタデータ50は、図4(b)に示すように、シャッタ速度SS=1/100秒、絞りFNo.=16である。前述したように、HDR合成モードでは、露出は2回行われているが、各々異なる露出量であることから、実施データ(SS:1/50、1/200)104aを記録せず、参考データ(SS:1/100)104bを記録する(図4(d)参照)。 As shown in FIG. 4B, the metadata 50 of the image 49 subjected to the HDR composition processing has a shutter speed SS = 1/100 second and an aperture FNo. = 16. As described above, in the HDR composition mode, the exposure is performed twice, but since the exposure amounts are different for each, the implementation data (SS: 1/50, 1/200) 104a is not recorded, and the reference data. (SS: 1/100) 104b is recorded (see FIG. 4D).

すなわち、複数枚の画像データが生成されると、画像合成部103dは、HDR合成処理を施し、HDR合成画像データを生成する。メタデータ作成部104は、参考データ104bとして、図4に示した例では、HDR合成によって生成された画像の露出条件に相当するシャッタ速度SS=1/100秒、また絞り値FNo.16を生成する。ここで生成されたメタデータ(参考データ104b)は、記録部105内にメタデータ105cとして画像データに関連付けて記録される。この参考データで撮影すれば、色表現などを除けば、同様の明るさの画像を得ることができる。 That is, when a plurality of image data are generated, the image synthesizing unit 103d performs the HDR synthesizing process to generate the HDR synthesizing image data. As reference data 104b, the metadata creation unit 104 has a shutter speed SS = 1/100 second, which corresponds to the exposure condition of the image generated by HDR composition, and an aperture value FNo. 16 is generated. The metadata (reference data 104b) generated here is recorded in the recording unit 105 as metadata 105c in association with the image data. If you take a picture with this reference data, you can get an image with the same brightness except for the color expression.

次に、図5を用いて、ノイズリダクションモード(NRモード)が設定された場合の撮影タイミングについて説明する。ISO感度を高感度に設定すると、画像にノイズが増加し、見苦しくなる。そこで、同一の露出条件で複数コマの撮影を行い、各画像の対応する画素の出力値を平均化することにより、ノイズを低減させた画像を合成することができる。 Next, the shooting timing when the noise reduction mode (NR mode) is set will be described with reference to FIG. When the ISO sensitivity is set to high sensitivity, noise increases in the image and it becomes unsightly. Therefore, it is possible to synthesize an image with reduced noise by shooting a plurality of frames under the same exposure condition and averaging the output values of the corresponding pixels of each image.

NRモードが設定された状態で、レリーズ釦が操作され撮影が開始すると、時刻t31〜t32、t33〜t34、t35〜t36、t37〜t38、t39〜t40の間で、撮影が行われる。このときの露出条件は、いずれもシャッタ速度SSは1/100秒であり、ISO感度は6400である。なお、NRモードの際の撮影回数は、適宜、最適な回数を選択すればよい。 When the release button is operated and shooting starts with the NR mode set, shooting is performed between the times t31 to t32, t33 to t34, t35 to t36, t37 to t38, and t39 to t40. The exposure conditions at this time are that the shutter speed SS is 1/100 second and the ISO sensitivity is 6400. As for the number of times of shooting in the NR mode, the optimum number of times may be appropriately selected.

複数枚の画像データが生成されると、画像合成部103dは、対応する画素の画素値の平均値を算出し、NR合成画像データを生成する。メタデータ作成部104は、実施データ104aとして、図5に示した例では、各撮影の際の露出条件、すなわちシャッタ速度SSとして1/100秒、ISO感度6400を生成する。ここで生成されたメタデータ(実施データ104a)は、記録部105内にメタデータ105cとして画像データに関連付けて記録される。 When a plurality of image data are generated, the image synthesizing unit 103d calculates the average value of the pixel values of the corresponding pixels and generates the NR composite image data. In the example shown in FIG. 5, the metadata creation unit 104 generates the ISO sensitivity 6400 as the execution data 104a, that is, the exposure condition at the time of each shooting, that is, the shutter speed SS is 1/100 second. The metadata (execution data 104a) generated here is recorded in the recording unit 105 as metadata 105c in association with the image data.

次に、図6を用いて、電子手振れ防止モードが設定された場合の撮影タイミングについて説明する。カメラを保持するユーザの手が振れていると、画像がぶれてしまい、見苦しい画像となってしまう。そこで、同一の露出条件で複数コマの撮影を行い、各画像の画素位置を手振れ量に応じてずらし、対応する画素の出力値を平均化することにより、手振れを軽減させた画像データを得ることができる。 Next, with reference to FIG. 6, the shooting timing when the electronic camera shake prevention mode is set will be described. If the user holding the camera is shaking, the image will be blurred, resulting in an unsightly image. Therefore, by shooting a plurality of frames under the same exposure conditions, shifting the pixel positions of each image according to the amount of camera shake, and averaging the output values of the corresponding pixels, image data with reduced camera shake can be obtained. Can be done.

電子手振れ防止モードが設定された状態で、レリーズ釦が操作され撮影が開始すると、時刻t41〜t42、t43〜t44、t45〜t46、t47〜t48、t49〜t50の間で、撮影が行われる。このときの露出条件は、いずれもシャッタ速度SSは1/100秒であり、ISO感度は6400である。なお、手振れ量が所定量以上の場合には(図6の時刻t43〜t44の撮影参照)、手振れ補正が困難な場合が多いので、手振れ防止合成処理の対象画像から除外する。電子手振れ防止モードの際の撮影回数は、適宜、最適な回数を選択すればよい。 When the release button is operated and shooting starts with the electronic camera shake prevention mode set, shooting is performed between the times t41 to t42, t43 to t44, t45 to t46, t47 to t48, and t49 to t50. The exposure conditions at this time are that the shutter speed SS is 1/100 second and the ISO sensitivity is 6400. When the amount of camera shake is equal to or more than a predetermined amount (see the shooting at times t43 to t44 in FIG. 6), it is often difficult to correct the camera shake, so the image is excluded from the target image of the camera shake prevention composition process. As for the number of times of shooting in the electronic camera shake prevention mode, the optimum number of times may be appropriately selected.

複数枚の画像データが生成されると、画像合成部103dは、手振れ量を検出し、この手振れ量に応じて、画素の位置をずらして、対応する画素の画素値の平均値を算出し、電子手振れ防止画像データを生成する。手振れ量は、ジャイロ等のセンサ出力を利用してもよく、また2つの画像データの相関演算により手振れ量を算出してもよい。 When a plurality of image data are generated, the image synthesizing unit 103d detects the amount of camera shake, shifts the pixel positions according to the amount of camera shake, and calculates the average value of the pixel values of the corresponding pixels. Generates electronic camera shake prevention image data. As the camera shake amount, a sensor output such as a gyro may be used, or the camera shake amount may be calculated by a correlation calculation of two image data.

メタデータ作成部104は、実施データ104aとして、図6に示した例では、各撮影の際の露出条件、すなわちシャッタ速度SSとして1/100秒、ISO感度6400を生成する。ここで生成されたメタデータ(実施データ104a)は、記録部105内にメタデータ105cとして画像データに関連付けて記録される。 In the example shown in FIG. 6, the metadata creation unit 104 generates the ISO sensitivity 6400 as the execution data 104a, that is, the exposure condition at the time of each shooting, that is, the shutter speed SS is 1/100 second. The metadata (execution data 104a) generated here is recorded in the recording unit 105 as metadata 105c in association with the image data.

図2ないし図6を用いて説明したように、本実施形態においては、複数コマの露出を行い、この露出によって取得した画像データを用いて画像合成部103dが画像合成を行っている。メタデータ生成部104は、画像合成の種類に応じて、実施データ104aまたは参考データ104dのいずれかを作成し、記録部105内にメタデータ105cを記録するようにしている。 As described with reference to FIGS. 2 to 6, in the present embodiment, a plurality of frames are exposed, and the image synthesizing unit 103d performs image synthesizing using the image data acquired by the exposure. The metadata generation unit 104 creates either the execution data 104a or the reference data 104d according to the type of image composition, and records the metadata 105c in the recording unit 105.

メタデータの作成にあたっては、複数コマのそれぞれのコマでの露出条件が同じ場合には、実際に制御した露出条件を実施データ104aとして作成している。一方、複数コマのそれぞれのコマでの露出条件が異なる場合には、合成処理によって生成された画像に相当する露出条件を算出して、この露出条件を参考データ104bとして作成している。 In creating the metadata, when the exposure conditions in each of the plurality of frames are the same, the actually controlled exposure conditions are created as the implementation data 104a. On the other hand, when the exposure conditions in each of the plurality of frames are different, the exposure conditions corresponding to the images generated by the compositing process are calculated, and these exposure conditions are created as reference data 104b.

また、メタデータとして、メタデータ作成部104は、合成処理を区別するための情報も作成し、この合成処理を区別するための情報を記録部105に記録するようにしてもよい。この場合、メタデータ作成部104で作成したデータが、実施データであるか、参考データであるかを区別できるような情報であってもよい。 Further, as the metadata, the metadata creation unit 104 may also create information for distinguishing the synthesis processing, and record the information for distinguishing the synthesis processing in the recording unit 105. In this case, the data created by the metadata creation unit 104 may be information that can distinguish whether it is implementation data or reference data.

なお、画像合成処理としては、上述した深度合成処理、超解像合成処理、HDR合成処理、NR合成処理、電子手振れ防止合成処理に限らず、例えば、比較明合成処理、比較暗合成処理、平均加算合成処理、ライブバルブ合成処理等、複数コマの画像データを用いて合成処理を行うものであればよい。この場合、例えば、比較明合成処理の場合には、トータルの露出時間を実施データとしてメタデータとして記録すればよい。 The image composition processing is not limited to the above-mentioned depth composition processing, super-resolution composition processing, HDR composition processing, NR composition processing, and electronic camera shake prevention composition processing, and is not limited to, for example, comparative bright composition processing, comparative dark composition processing, and averaging. Anything that performs compositing processing using image data of a plurality of frames, such as additive compositing processing and live bulb compositing processing, may be used. In this case, for example, in the case of comparative bright composition processing, the total exposure time may be recorded as implementation data as metadata.

次に、図7および図8に示すフローチャートを用いて、本実施形態におけるカメラ制御について説明する。このフローチャートは、制御部101内のCPUがメモリに記憶されたプログラムに従って、カメラ内の各部を制御することにより、実行する。 Next, the camera control in the present embodiment will be described with reference to the flowcharts shown in FIGS. 7 and 8. This flowchart is executed by the CPU in the control unit 101 controlling each unit in the camera according to a program stored in the memory.

カメラ制御のフローに入ると、まず、撮影モードか否かを判定する(S1)。カメラのモードは、ユーザが再生モード等他のモードに設定しなければ、デフォルトとして撮影モードに設定されている。このステップでは、モードの設定状態を検出し、その検出結果に基づいて判定する。 When entering the camera control flow, first, it is determined whether or not the shooting mode is set (S1). The camera mode is set to the shooting mode as the default unless the user sets it to another mode such as the playback mode. In this step, the mode setting state is detected, and the determination is made based on the detection result.

ステップS1における判定の結果、撮影モードであれば、次に、スルー画用撮像を行う(S3)。ここでは、撮像素子102bによって取得された画像データを取得する。この画像データは所定のフレームレートで繰り返し取得される。 If the result of the determination in step S1 is the shooting mode, then the through image imaging is performed (S3). Here, the image data acquired by the image sensor 102b is acquired. This image data is repeatedly acquired at a predetermined frame rate.

スルー画用撮像を行うと、次に、スルー画表示、ピント合わせ、標準露出を設定する(S5)。ステップS3において取得した画像データに対して、画像処理部103においてスルー画表示用の画像処理を施し、この処理された画像データに基づいて、表示部106にスルー画表示を行う。スルー画表示は所定のフレームレートで更新される。また、取得した画像データのコントラスト値を算出し、このコントラスト値がピークとなるように、光学系102aのフォーカスレンズの位置を調整する。なお、ピント合わせは、前述のコントラストAF以外にも位相差AF等、他の方法によって行ってもよい。また、画像データから輝度情報等を算出し、この輝度情報に基づいて、シャッタ速度、絞り値、ISO感度等の標準露出を設定する。 After imaging for a through image, the through image display, focusing, and standard exposure are set (S5). The image processing unit 103 performs image processing for displaying a through image on the image data acquired in step S3, and based on the processed image data, the display unit 106 displays a through image. The through image display is updated at a predetermined frame rate. Further, the contrast value of the acquired image data is calculated, and the position of the focus lens of the optical system 102a is adjusted so that the contrast value becomes a peak. In addition to the contrast AF described above, focusing may be performed by other methods such as phase difference AF. In addition, brightness information and the like are calculated from the image data, and standard exposures such as shutter speed, aperture value, and ISO sensitivity are set based on the brightness information.

続いて、モード切換があったか否かを判定する(S7)。操作部107の操作部材によってモードの切換を行うことができる。ここでのモードは、前述した撮影モード、再生モードの他、深度合成モード、超解像合成モード、HDR合成モード等、複数コマの露出を行い、合成処理を行うモードを含む。 Subsequently, it is determined whether or not the mode has been switched (S7). The mode can be switched by the operation member of the operation unit 107. The mode here includes a mode in which a plurality of frames are exposed and a compositing process is performed, such as a depth compositing mode, a super-resolution compositing mode, and an HDR compositing mode, in addition to the above-mentioned shooting mode and playback mode.

ステップS7における判定の結果、モード切換があった場合には、モード設定を行う(S9)。ここでは、操作部107によるモードに切換に応じて、モード制御部101bにおけるモードを設定する。 If the mode is switched as a result of the determination in step S7, the mode is set (S9). Here, the mode in the mode control unit 101b is set according to the mode switching by the operation unit 107.

ステップS9においてモード設定を行うと、またはステップS7における判定の結果、モード切換がなかった場合には、次に、レリーズスイッチが操作されたか否かを判定する(S11)。レリーズ釦が操作されると、レリーズスイッチの状態が変化する。ここでは、レリーズスイッチの状態変化に基づいて判定する。この判定の結果、レリーズスイッチが操作されていない場合には、ステップS1に戻る。 If the mode is set in step S9, or if there is no mode switching as a result of the determination in step S7, then it is determined whether or not the release switch has been operated (S11). When the release button is operated, the state of the release switch changes. Here, the determination is made based on the state change of the release switch. As a result of this determination, if the release switch is not operated, the process returns to step S1.

ステップS11における判定の結果、レリーズスイッチが操作された場合には、次に、露出変更を伴うモードか否かを判定する(S13)。ここでは、最初に設定されているモード、またはステップS9において設定されたモードに基づいて判定する。露出変更を伴うモードとしては、例えば、HDR合成モードがある。また、露出変更を伴わないモードとしては、例えば、深度合成モード、超解像合成モード、ノイズリダクション(NR)モード、電子手ブレ防止モード等がある。 If the release switch is operated as a result of the determination in step S11, then it is determined whether or not the mode involves an exposure change (S13). Here, the determination is made based on the mode set first or the mode set in step S9. As a mode that involves changing the exposure, for example, there is an HDR composition mode. Further, as a mode that does not involve an exposure change, for example, there are a depth composition mode, a super-resolution composition mode, a noise reduction (NR) mode, an electronic camera shake prevention mode, and the like.

ステップS13における判定の結果、露出変更を伴うモードの場合には、標準露出から長秒時、短秒時に変更して複数枚の撮影を行う(S15)。この場合は、複数コマの撮影を行う際に、それぞれのコマで露出条件が異なる場合である。例えば、図4を用いて説明したHDR合成モードでは、1コマ目では標準露出(ステップS5において設定)よりも露出オーバとなるように、シャッタ速度を長秒時に設定し、2コマ目では標準露出よりも露出アンダとなるようにシャッタ速度を短秒時に設定し、撮影している。 As a result of the determination in step S13, in the case of the mode accompanied by the exposure change, the standard exposure is changed to the long time and the short time, and a plurality of shots are taken (S15). In this case, when shooting a plurality of frames, the exposure conditions are different for each frame. For example, in the HDR composition mode described with reference to FIG. 4, the shutter speed is set to a long time so that the exposure is overexposed in the first frame (set in step S5), and the standard exposure is set in the second frame. The shutter speed is set to a short time so that the exposure is underexposed.

続いて、画像合成を行う(S17)。ここでは、ステップS15において取得した複数の画像データに対して、画像合成部103dが設定されているモードに従って、画像合成処理を施す。 Subsequently, image composition is performed (S17). Here, the image compositing process is performed on the plurality of image data acquired in step S15 according to the mode in which the image compositing unit 103d is set.

画像合成を行うと、次に、画像データとメタデータ(参考露出)を記録する(S19)。ここでは、メタデータ作成部104が参考データ104bを作成する。参考データ104bは、前述したように、画像合成によって生成された画像の効果に相当する露出条件を示すデータである。この作成された参考データ104bは、ステップS17において合成された画像データに関連付けられて記録部105の画像データ105bおよびメタデータ105cとして記録される。データの記録を行うと、ステップS1に戻る。 After image composition, image data and metadata (reference exposure) are then recorded (S19). Here, the metadata creation unit 104 creates the reference data 104b. As described above, the reference data 104b is data indicating exposure conditions corresponding to the effect of the image generated by the image composition. The created reference data 104b is associated with the image data synthesized in step S17 and recorded as image data 105b and metadata 105c of the recording unit 105. When the data is recorded, the process returns to step S1.

ステップS13に戻り、このステップでの判定の結果、露出変更を伴うモードでない場合には、標準露出でピントや撮像素子位置を変更して複数枚の撮影を行う(S21)。ここでは、設定されているモードに応じた処理を行う。例えば、深度合成モードが設定されている場合には、ピント位置を変更し、変更した複数のピント位置でそれぞれ撮影を行う。また、超解像合成モードが設定されている場合には、撮像素子102bの位置を変更し、変更した複数の位置でそれぞれ撮影を行う。このときの露出条件は、ステップS5において算出された標準露出である。 Returning to step S13, as a result of the determination in this step, if the mode does not involve an exposure change, the focus and the position of the image sensor are changed with the standard exposure to take a plurality of images (S21). Here, processing is performed according to the set mode. For example, when the depth-of-field composition mode is set, the focus position is changed, and shooting is performed at each of the changed plurality of focus positions. When the super-resolution synthesis mode is set, the position of the image sensor 102b is changed, and shooting is performed at each of the changed positions. The exposure condition at this time is the standard exposure calculated in step S5.

続いて、画像合成を行う(S23)。ここでは、ステップS21において取得した複数の画像データに対して、画像合成部103dが設定されているモードに従って、画像合成処理を施す。 Subsequently, image composition is performed (S23). Here, the image compositing process is performed on the plurality of image data acquired in step S21 according to the mode in which the image compositing unit 103d is set.

画像合成を行うと、次に、画像データとメタデータ(実施露出)を記録する(S25)。ここでは、メタデータ作成部104が実施データ104aを作成する。実施データ104aは、前述したように、複数コマの撮影を行った際の各コマにおいて実際に露出制御された露出条件を示すデータである。この作成された実施データ104aは、ステップS23において合成された画像データに関連付けられて記録部105の画像データ105bおよびメタデータ105cとして記録される。データの記録を行うと、ステップS1に戻る。 After image composition, image data and metadata (implemented exposure) are recorded (S25). Here, the metadata creation unit 104 creates the implementation data 104a. As described above, the implementation data 104a is data indicating exposure conditions in which exposure is actually controlled in each frame when a plurality of frames are photographed. The created execution data 104a is associated with the image data synthesized in step S23 and recorded as image data 105b and metadata 105c of the recording unit 105. When the data is recorded, the process returns to step S1.

ステップS1に戻り、この判定の結果、撮影モードでない場合には、再生モードか否かを判定する(S31)。ユーザが操作部107の再生釦等の操作部材を操作することにより、再生モードを設定することができる。このステップにおける判定の結果、再生モードでない場合には、その他のモードに移行する。 Returning to step S1, if the result of this determination is not the shooting mode, it is determined whether or not the mode is the reproduction mode (S31). The playback mode can be set by the user operating an operation member such as a play button of the operation unit 107. As a result of the determination in this step, if the mode is not the playback mode, the mode shifts to another mode.

ステップS31における判定の結果、再生モードの場合には、次に、アイコン一覧を表示する(S33)。ここでは、記録部105に記録されている画像データのサムネイルデータに基づいて、記録画像のアイコンを表示部106に表示する。 As a result of the determination in step S31, in the case of the playback mode, the icon list is displayed next (S33). Here, the icon of the recorded image is displayed on the display unit 106 based on the thumbnail data of the image data recorded in the recording unit 105.

次に、画像が選択されたか否かについて判定する(S35)。ユーザは表示部106に表示された一覧表示されたアイコンの中から拡大表示したいアイコンをタッチ、または十字釦等によって選択する。このステップでは、ユーザによってアイコンが選択されたか否かを判定する。 Next, it is determined whether or not the image is selected (S35). The user selects an icon to be enlarged and displayed from the icons displayed in the list displayed on the display unit 106 by touching the icon or by using a cross button or the like. In this step, it is determined whether or not the icon has been selected by the user.

ステップS35における判定の結果、画像が選択されていない場合には、戻るか否かを判定する(S37)。ユーザが再生モードを終了したい場合には、操作部107の内の戻る釦を操作するか、戻るアイコンをクリックする(総称して戻る操作)。ここでは、戻る操作がなされたか否かに基づいて判定する。この判定の結果、戻る操作がなされていない場合には、ステップS33に戻る。一方、戻る操作がなされた場合には、ステップS1に戻る。 If the image is not selected as a result of the determination in step S35, it is determined whether or not to return (S37). When the user wants to exit the playback mode, he / she operates the back button in the operation unit 107 or clicks the back icon (collectively, the back operation). Here, the determination is made based on whether or not the return operation has been performed. As a result of this determination, if the return operation has not been performed, the process returns to step S33. On the other hand, when the return operation is performed, the process returns to step S1.

ステップS35における判定の結果、画像が選択された場合には、拡大表示を行う(S39)。ここでは、選択されたアイコンの画像データを読出し、表示部106に拡大表示を行う。 If an image is selected as a result of the determination in step S35, an enlarged display is performed (S39). Here, the image data of the selected icon is read and enlarged and displayed on the display unit 106.

拡大表示を行うと、次に、詳細表示を行うか否かの判定を行う(S41)。ユーザが選択した画像に関連付けて記録されているメタデータを表示させたい場合には、操作部107の内の詳細釦を操作するか又は詳細アイコンをクリックする(総称して詳細表示操作)。ここでは、詳細表示操作がなされたか否かに基づいて判定する。 When the enlarged display is performed, it is next determined whether or not the detailed display is performed (S41). When it is desired to display the metadata recorded in association with the image selected by the user, the detail button in the operation unit 107 is operated or the detail icon is clicked (collectively, the detail display operation). Here, the determination is made based on whether or not the detailed display operation has been performed.

ステップS41における判定の結果、詳細表示操作がなされていた場合には、メタデータを表示する(S43)。ここでは、画像データに関連付けて記録されたメタデータ105cを記録部105から読み出し、表示部106に表示する。表示例については図9を用いて後述する。 As a result of the determination in step S41, if the detailed display operation has been performed, the metadata is displayed (S43). Here, the metadata 105c recorded in association with the image data is read from the recording unit 105 and displayed on the display unit 106. A display example will be described later with reference to FIG.

ステップS43においてメタデータを表示すると、またはステップS41における判定の結果、詳細表示操作がなされていない場合には、外部送信か否かを判定する(S45)。ユーザが記録部105に記録された画像データを、インターネット等を介して、無線また有線通信等によって送信した場合には、操作部107の送信釦を操作し、または送信アイコンをタッチ操作する(総称して外部送信操作)。このステップでは、外部送信操作がなされたか否かに基づいて判定する。 When the metadata is displayed in step S43, or as a result of the determination in step S41, if the detailed display operation has not been performed, it is determined whether or not the transmission is external (S45). When the user transmits the image data recorded in the recording unit 105 via the Internet or the like by wireless or wired communication, the transmission button of the operation unit 107 is operated or the transmission icon is touch-operated (generic name). And external transmission operation). In this step, a determination is made based on whether or not an external transmission operation has been performed.

ステップS45における判定の結果、外部送信操作がなされた場合には、設定先に送信する(S47)。ここでは、設定された送信先に、ステップS35において選択された画像の画像データおよび関連付けされたメタデータを送信する。送信先では、受信した画像データに基づく画像およびメタデータを表示させることができる。この時の表示例については図9を用いて後述する。 If an external transmission operation is performed as a result of the determination in step S45, the transmission is performed to the setting destination (S47). Here, the image data of the image selected in step S35 and the associated metadata are transmitted to the set destination. At the destination, an image and metadata based on the received image data can be displayed. A display example at this time will be described later with reference to FIG.

ステップS47において設定先に送信すると、またはステップS45における判定の結果、外部送信操作がされていない場合には、戻るか否かを判定する(S49)。ユーザが再生モードを終了したい場合には、戻る操作を行う。ここでは、この戻る操作がなされたか否かに基づいて判定する。この判定の結果、戻る操作がなされていない場合には、ステップS39に戻る。一方、戻る操作がなされた場合には、ステップS1に戻る。 If the transmission is performed to the setting destination in step S47, or as a result of the determination in step S45, if the external transmission operation has not been performed, it is determined whether or not to return (S49). If the user wants to exit the playback mode, perform a return operation. Here, the determination is made based on whether or not this return operation has been performed. As a result of this determination, if the return operation has not been performed, the process returns to step S39. On the other hand, when the return operation is performed, the process returns to step S1.

このように、本実施形態におけるカメラ制御のフローにおいては、レリーズ操作がなされた際に、露出変更を伴うモードが設定されている場合には(S13Yes)、メタデータとして、参考データを作成し記録している(S19)。一方、露出変更を伴わないモードが設定されている場合には(S13No)、メタデータとして実施データを作成し記録している(S25)。すなわち、露出変更を伴わない場合には実際に露出制御された制御値が記録され、一方、露出変更を伴う場合には合成画像の効果に応じた露出制御値が記録されることから、ユーザがメタデータを見た際に、どのような制御がなされたかが分かり易いという効果がある。 As described above, in the camera control flow in the present embodiment, when the release operation is performed and the mode accompanied by the exposure change is set (S13Yes), reference data is created and recorded as metadata. (S19). On the other hand, when the mode not accompanied by the exposure change is set (S13No), the execution data is created and recorded as metadata (S25). That is, when the exposure is not changed, the actual exposure-controlled control value is recorded, while when the exposure is changed, the exposure control value according to the effect of the composite image is recorded. There is an effect that it is easy to understand what kind of control was made when looking at the metadata.

なお、ステップS19およびS25においては、メタデータとしては、参考データおよび実施データのいずれか一方のみを作成し、記録するようにしていた。いずれか一方のみを記録することにより、メタデータ105cの容量を小さくすることができ、また単純化することにより、処理が容易となる。しかし、ステップS19およびS25において、参考データおよび実施データの両方を作成し、これをメタデータ105cとして記録するようにしてもよい。この場合には、例えば、メタデータの記録領域の内、Exif規格のメーカノートのように、製造元が記録可能としている領域を利用してもよい。 In steps S19 and S25, only one of the reference data and the implementation data was created and recorded as the metadata. By recording only one of them, the capacity of the metadata 105c can be reduced, and by simplifying the processing, the processing becomes easy. However, in steps S19 and S25, both reference data and implementation data may be created and recorded as metadata 105c. In this case, for example, among the metadata recording areas, an area that can be recorded by the manufacturer, such as an Exif standard maker notebook, may be used.

次に、図9を用いて、メタデータの表示について説明する。この表示は、図8のステップS43、およびステップS47で送信された送信先で行われる。 Next, the display of metadata will be described with reference to FIG. This display is performed at the destinations transmitted in steps S43 and S47 of FIG.

図9(a)は、図2で示したような深度合成モードが設定された場合の表示例である。この場合には、深度合成された画像43と、実施データとして記録されたシャッタ速度および絞り値を示すメタデータが表示される。図9(b)は、図3で示したような超解像合成モードが設定された場合の表示例である。この場合には、深度合成された画像46と、実施データとして記録されたシャッタ速度および絞り値を示すメタデータが表示される。 FIG. 9A is a display example when the depth synthesis mode as shown in FIG. 2 is set. In this case, the depth-combined image 43 and the metadata showing the shutter speed and the aperture value recorded as the execution data are displayed. FIG. 9B is a display example when the super-resolution synthesis mode as shown in FIG. 3 is set. In this case, the depth-combined image 46 and the metadata showing the shutter speed and the aperture value recorded as the execution data are displayed.

図9(c)は、図4で示したようなHDR合成モードが設定された場合の表示例である。この場合には、HDR合成された画像49と、参考データとして記録されたシャッタ速度および絞り値を示すメタデータが表示される。なお、図9(c)においては、参考データであることを明示するために、「参考」が表示される。このために、メタデータ105cに、参考データであることを示す情報も併せて記録しておく。 FIG. 9C is a display example when the HDR composition mode as shown in FIG. 4 is set. In this case, the HDR-combined image 49 and the metadata showing the shutter speed and the aperture value recorded as reference data are displayed. In FIG. 9C, "reference" is displayed to clearly indicate that the data is reference data. For this purpose, information indicating that the data is reference data is also recorded in the metadata 105c.

このように、記録された画像に加えて、メタデータを表示することにより、撮影画像の露出条件を確認することが簡単にできる。また、この表示の際に、露出変更を伴わない場合には各コマを撮影した際の実際の露出値が表示され、露出変更を伴う場合には、合成画像の効果に相当する露出値が表示されるようしたので、分かり易い表示となる。撮影者以外の他のユーザは、このメタデータに基づく露出値を参考にすることにより、類似の写真を撮影することが容易となる。 In this way, by displaying the metadata in addition to the recorded image, it is possible to easily confirm the exposure condition of the captured image. In addition, in this display, the actual exposure value at the time of shooting each frame is displayed when the exposure is not changed, and the exposure value corresponding to the effect of the composite image is displayed when the exposure is changed. Because it is done, the display will be easy to understand. Users other than the photographer can easily take a similar photograph by referring to the exposure value based on this metadata.

なお、図9においては、参考データの場合のみ、「参考」と表示したが、この表示を消去しておいてもよい。また、実施データの場合にも、実施データであることを明示するような表示を付加してもよい。また、図9においては、メタデータを画像の外側で表示していたが、画像に重畳して表示するようにしてもよい。 In FIG. 9, "reference" is displayed only in the case of reference data, but this display may be deleted. Further, in the case of the implementation data, a display that clearly indicates that the implementation data may be added. Further, in FIG. 9, although the metadata is displayed outside the image, it may be superimposed on the image and displayed.

以上説明したように、本発明の一実施形態においては、同一の対象物に対し、撮影条件を切り換えて複数の撮影画像データを取得し(例えば、図7のS3参照)、異なる露出条件で取得した複数の撮影画像データを用いて第1の画像合成を行い(例えば、図7のS17参照)、同一の露出条件、かつ露出以外の条件を異ならせて取得した複数の撮影画像データを用いて第2の画像合成を行い(例えば、図7のS23参照)、第1画像合成または第2画像合成によって合成された合成画像データを表すメタデータを作成する際に、第1の画像合成を行う場合と、第2の画像合成を行う場合で、異なる露出条件を示す単一のメタデータを作成する(例えば、図2(d)、図3(d)、図4(d)、図7のS19、S25参照)。このため、画像合成処理に応じて適切な情報を作成し、画像データに関連付けを行うことができる。すなわち、複数の撮影画像データを取得する際に、露出変更を行っている場合と露出変更を行わない場合で、異なる露出条件を示すようにしており、画像合成処理に応じた情報の表示が可能となる。 As described above, in one embodiment of the present invention, a plurality of captured image data are acquired by switching the imaging conditions for the same object (see, for example, S3 in FIG. 7), and acquired under different exposure conditions. The first image composition was performed using the plurality of captured image data obtained (see, for example, S17 in FIG. 7), and the plurality of captured image data acquired under the same exposure conditions and different conditions other than exposure were used. The second image composition is performed (for example, see S23 in FIG. 7), and the first image composition is performed when creating metadata representing the composite image data synthesized by the first image composition or the second image composition. In the case and in the case of performing the second image composition, a single metadata showing different exposure conditions is created (for example, FIGS. 2 (d), 3 (d), 4 (d), and 7). See S19 and S25). Therefore, appropriate information can be created according to the image composition process and associated with the image data. That is, when acquiring a plurality of captured image data, different exposure conditions are shown depending on whether the exposure is changed or not, and information can be displayed according to the image composition process. It becomes.

なお、本発明の一実施形態においては、モードが露出変更を伴うか否かを判定し(図7のS13参照)、この結果に応じて、メタデータとして参考データまたは実施データを記録するようにしている。しかし、モードが露出変更を伴うか否かに限らず、例えば、撮影距離の変更を伴うか否か等、撮影条件に応じて、メタデータの種類を適宜決定するようにしてもよい。この場合には、画像データ取得部は、同一の対象物に対し、第1の撮影条件を切り換えて複数の撮影画像データを取得可能であり、第1画像合成部は画像データ取得部によって、第2の撮影条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行い、第2画像合成部は画像データ取得部によって、第2の撮影条件を変えず、第3の撮影条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行い、メタデータ作成部は、第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成する際に、第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる撮影条件を示す単一のメタデータを作成すればよい。 In one embodiment of the present invention, it is determined whether or not the mode is accompanied by an exposure change (see S13 in FIG. 7), and reference data or implementation data is recorded as metadata according to this result. ing. However, the mode is not limited to whether or not the exposure is changed, and the type of metadata may be appropriately determined according to the shooting conditions such as whether or not the shooting distance is changed. In this case, the image data acquisition unit can acquire a plurality of captured image data by switching the first shooting conditions for the same object, and the first image synthesizing unit can acquire a plurality of captured image data by the image data acquisition unit. A plurality of captured image data are acquired with different shooting conditions of 2, the first image composition is performed using the acquired plurality of captured image data, and the second image composition unit is second by the image data acquisition unit. A plurality of captured image data are acquired with different shooting conditions of the third image without changing the photographing conditions of the above, and the second image composition is performed using the acquired plurality of photographed image data. When creating the metadata representing the composite image data synthesized by the first image synthesizing unit or the second image synthesizing unit, the case where the first image synthesizing is performed and the case where the second image synthesizing is performed are different. A single metadata showing the shooting conditions may be created.

また、本発明の一実施形態においては、ピント変更部102c、露出変更部102d、撮像位置変更部102e等は、CPUおよびメモリに記憶したプログラムによってソフトウエアでその機能を実現してもよく、また制御部101内のCPUとメモリに記憶したプログラムでその機能を実現するようにしても勿論かまわない。 Further, in one embodiment of the present invention, the focus changing unit 102c, the exposure changing unit 102d, the imaging position changing unit 102e, etc. may realize their functions by software by a program stored in the CPU and the memory. Of course, the function may be realized by the program stored in the CPU and the memory in the control unit 101.

また、本発明の一実施形態においては、撮像制御部103b、撮影制御変更部103c等の各部の機能の全部または一部をCPU(Central Processing Unit)と周辺回路およびプログラムによって実現していたが、DSP(Digital Signal Processor)等のプログラムコードで実行される回路で実現するようにしてもよく、ヴェリログ(Verilog)によって記述されたプログラム言語に基づいて生成されたゲート回路等のハードウエア構成でもよく、またハードウエア回路によって実行するようにしても勿論かまわない。 Further, in one embodiment of the present invention, all or part of the functions of the imaging control unit 103b, the imaging control changing unit 103c, and the like are realized by a CPU (Central Processing Unit), peripheral circuits, and a program. It may be realized by a circuit executed by a program code such as a DSP (Digital Signal Processor), or may be a hardware configuration such as a gate circuit generated based on a programming language described by Verilog. Of course, it does not matter if it is executed by a hardware circuit.

また、本発明の一実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもミラーレスカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話、スマートフォン、携帯情報端末、パーソナルコンピュータ(PC)、タブレット型コンピュータ、ゲーム機器等に内蔵されるカメラ、医療用カメラ、顕微鏡等の科学機器用のカメラ、自動車搭載用カメラ、監視用カメラでも構わない。いずれにしても、画像データと共にメタデータを記録する撮影のための機器であれば、本発明を適用することができる。 Further, in one embodiment of the present invention, a digital camera has been described as a device for photographing, but the camera may be a digital single-lens reflex camera, a mirrorless camera, a compact digital camera, a video camera, or a movie. It may be a video camera such as a camera, and further, a camera built into a mobile phone, a smartphone, a mobile information terminal, a personal computer (PC), a tablet computer, a game device, etc., a medical camera, a scientific device such as a microscope, etc. It may be a camera for a vehicle, a camera mounted on a car, or a surveillance camera. In any case, the present invention can be applied to any device for photographing that records metadata together with image data.

また、本明細書において説明した技術のうち、主にフローチャートで説明した制御に関しては、プログラムで設定可能であることが多く、記録媒体や記録部に収められる場合もある。この記録媒体、記録部への記録の仕方は、製品出荷時に記録してもよく、配布された記録媒体を利用してもよく、インターネットを介してダウンロードしたものでもよい。 Further, among the techniques described in the present specification, the controls mainly described in the flowchart can be set by a program, and may be stored in a recording medium or a recording unit. The recording method to the recording medium and the recording unit may be recorded at the time of product shipment, the distributed recording medium may be used, or may be downloaded via the Internet.

また、本発明の一実施形態においては、フローチャートを用いて、本実施形態における動作を説明したが、処理手順は、順番を変えてもよく、また、いずれかのステップを省略してもよく、ステップを追加してもよく、さらに各ステップ内における具体的な処理内容を変更してもよい。 Further, in one embodiment of the present invention, the operation in the present embodiment has been described using a flowchart, but the order of the processing procedures may be changed, or any step may be omitted. Steps may be added, and specific processing contents in each step may be changed.

また、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず」、「次に」等の順番を表現する言葉を用いて説明したとしても、特に説明していない箇所では、この順で実施することが必須であることを意味するものではない。 In addition, even if the scope of claims, the specification, and the operation flow in the drawings are explained using words expressing the order such as "first" and "next" for convenience, in the parts not particularly explained, It does not mean that it is essential to carry out in this order.

本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 The present invention is not limited to the above embodiment as it is, and at the implementation stage, the components can be modified and embodied within a range that does not deviate from the gist thereof. In addition, various inventions can be formed by an appropriate combination of the plurality of components disclosed in the above-described embodiment. For example, some components of all the components shown in the embodiment may be deleted. In addition, components across different embodiments may be combined as appropriate.

10・・・ユーザ、20・・・カメラ、101・・・制御部、101b・・・モード制御部、101c・・・表示制御部、101d・・・通信制御部、102・・・撮像部、102a・・・光学系、102b・・・撮像素子、102c・・・ピント変更部、102d・・・露出変更部、102e・・・撮像位置変更部、103・・・画像処理部、103b・・・撮像制御部、103c・・・撮影制御変更部、103d・・・画像合成部、103e・・・記録制御部、104・・・メタデータ作成部、104a・・・実施データ、104b・・・参考データ、105・・・記録部、105a・・・画像データ、105b・・・メタデータ、106・・・表示部、107・・・操作部、108・・・通信部 10 ... User, 20 ... Camera, 101 ... Control unit, 101b ... Mode control unit, 101c ... Display control unit, 101d ... Communication control unit, 102 ... Imaging unit, 102a ... Optical system, 102b ... Imaging element, 102c ... Focus changing unit, 102d ... Exposure changing unit, 102e ... Imaging position changing unit, 103 ... Image processing unit, 103b ...・ Imaging control unit, 103c ・ ・ ・ Shooting control change unit, 103d ・ ・ ・ Image composition unit, 103e ・ ・ ・ Recording control unit, 104 ・ ・ ・ Metadata creation unit, 104a ・ ・ ・ Implementation data, 104b ... Reference data, 105 ... Recording unit, 105a ... Image data, 105b ... Metadata, 106 ... Display unit, 107 ... Operation unit, 108 ... Communication unit

Claims (6)

同一の対象物に対し、撮影条件を切り換えて複数の撮影画像データを取得可能な画像データ取得部と、
上記画像データ取得部によって、異なる露出条件で複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行う第1画像合成部と、
上記画像データ取得部によって、同一の露出条件、かつ露出以外の条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行う第2画像合成部と、
上記第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成するメタデータ作成部と、
を有し、
上記メタデータ作成部は、上記第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる露出条件を示す単一のメタデータを作成することを特徴とする画像処理装置。
An image data acquisition unit that can acquire multiple captured image data by switching the shooting conditions for the same object,
A first image synthesizing unit that acquires a plurality of captured image data under different exposure conditions by the image data acquiring unit and performs a first image synthesizing using the acquired plurality of captured image data.
A second image data acquisition unit acquires a plurality of captured image data under the same exposure conditions and different conditions other than exposure, and performs a second image composition using the acquired plurality of captured image data. Image composition part and
A metadata creation unit that creates metadata representing composite image data synthesized by the first image composition unit or the second image composition unit, and a metadata creation unit.
Have,
The metadata creation unit is an image processing apparatus characterized in that it creates a single metadata showing different exposure conditions in the case of performing the first image composition and the case of performing the second image composition. ..
上記メタデータ作成部は、上記第1の画像合成と上記第2の画像合成を区別する情報を作成することを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the metadata creation unit creates information that distinguishes the first image composition from the second image composition. 上記メタデータ作成部は、上記第1の画像合成を行った場合には上記画像データ取得部における露出条件に基づいて参考メタデータを作成し、上記第2の画像合成を行った場合には上記画像データ取得部における実際の露出条件を実施メタデータとすることを特徴とする請求項2に記載の画像処理装置。 The metadata creation unit creates reference metadata based on the exposure conditions in the image data acquisition unit when the first image composition is performed, and the metadata creation unit creates the reference metadata when the second image composition is performed. The image processing apparatus according to claim 2, wherein the actual exposure condition in the image data acquisition unit is used as the implementation metadata. 上記メタデータ作成部は、上記第1の画像合成部によって第1の画像合成を行った場合には、上記第1の画像合成によって生成された合成画像の露出効果に相当するメタデータを作成することを特徴とする請求項1に記載の画像処理装置。 When the first image composition is performed by the first image composition unit, the metadata creation unit creates metadata corresponding to the exposure effect of the composite image generated by the first image composition. The image processing apparatus according to claim 1, wherein the image processing apparatus is characterized by the above. 上記メタデータ作成部は、上記第2の画像合成部によって第2の画像合成を行った場合には、上記画像データ取得部で1コマの画像データを取得する際の露出条件に基づいてメタデータを作成することを特徴とする請求項1に記載の画像処理装置。 When the second image composition is performed by the second image composition unit, the metadata creation unit performs metadata based on the exposure conditions when the image data acquisition unit acquires one frame of image data. The image processing apparatus according to claim 1, wherein the image processing apparatus is created. 同一の対象物に対し、撮影条件を切り換えて複数の撮影画像データを取得し、
異なる露出条件で取得した複数の撮影画像データを用いて第1の画像合成を行い、
同一の露出条件、かつ露出以外の条件を異ならせて取得した複数の撮影画像データを用いて第2の画像合成を行い、
上記第1画像合成または第2画像合成によって合成された合成画像データを表すメタデータを作成する際に、上記第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる露出条件を示す単一のメタデータを作成する、
ことを特徴とする画像処理方法。
For the same object, switch the shooting conditions to acquire multiple shot image data,
The first image composition is performed using a plurality of captured image data acquired under different exposure conditions.
A second image composition is performed using a plurality of captured image data acquired under the same exposure conditions and different conditions other than exposure.
When creating the metadata representing the composite image data synthesized by the first image composition or the second image composition, the case where the first image composition is performed and the case where the second image composition is performed are different. Create a single metadata showing the exposure conditions,
An image processing method characterized by that.
JP2017150607A 2017-08-03 2017-08-03 Image processing device and image processing method Active JP6909669B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017150607A JP6909669B2 (en) 2017-08-03 2017-08-03 Image processing device and image processing method
PCT/JP2018/028709 WO2019026923A1 (en) 2017-08-03 2018-07-31 Image processing device, image processing method, image processing program, and image capture device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017150607A JP6909669B2 (en) 2017-08-03 2017-08-03 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2019029954A JP2019029954A (en) 2019-02-21
JP6909669B2 true JP6909669B2 (en) 2021-07-28

Family

ID=65476729

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017150607A Active JP6909669B2 (en) 2017-08-03 2017-08-03 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP6909669B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7395259B2 (en) * 2019-03-15 2023-12-11 キヤノン株式会社 Image processing device, image processing method, computer program and storage medium
WO2020189510A1 (en) * 2019-03-15 2020-09-24 キヤノン株式会社 Image processing device, image processing method, computer program, and storage medium
JP7395258B2 (en) * 2019-03-15 2023-12-11 キヤノン株式会社 Image processing device, image processing method, computer program and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5077003B2 (en) * 2008-03-25 2012-11-21 ソニー株式会社 Image processing apparatus, image processing method, and program
JP2014103630A (en) * 2012-11-22 2014-06-05 Olympus Imaging Corp Imaging apparatus and image communication method
JP6242244B2 (en) * 2014-02-28 2017-12-06 オリンパス株式会社 Imaging apparatus, imaging method, and program
JP2017011676A (en) * 2015-06-25 2017-01-12 キヤノン株式会社 Image-processing apparatus and image-processing method

Also Published As

Publication number Publication date
JP2019029954A (en) 2019-02-21

Similar Documents

Publication Publication Date Title
JP2020162139A (en) Imaging apparatus and setting screen of the same
JP6034740B2 (en) Imaging apparatus and imaging method
JP2017220892A (en) Image processing device and image processing method
US9277125B2 (en) Imaging device and imaging method
JP2019054461A (en) Imaging apparatus and imaging method
WO2016072101A1 (en) Image pickup device and image pickup device control method
JP5806623B2 (en) Imaging apparatus, imaging method, and program
JP6325841B2 (en) Imaging apparatus, imaging method, and program
JP5400486B2 (en) Imaging apparatus and imaging method
JP4533252B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP6909669B2 (en) Image processing device and image processing method
JP6717690B2 (en) Imaging device, imaging method, and program
JP6706167B2 (en) Imaging device, image synthesizing method, and program
JP2013251724A (en) Photographing instrument
JP2019036885A (en) Image processing apparatus and image processing method
JP5402242B2 (en) Image reproduction apparatus, imaging apparatus, image reproduction method, and image reproduction program
JP5931393B2 (en) Imaging device
JP2015219817A (en) Display device, display method, and program
JP6329812B2 (en) Display device, display method, and program
JP2016131378A (en) Imaging apparatus
JP2019047436A (en) Image processing device, image processing method, image processing program, and imaging device
JP2012239078A (en) Photographing device
JP6284604B2 (en) Image processing apparatus, image processing method, and program
JP2016054447A (en) Imaging apparatus, image processing apparatus, image processing method and image processing program
JP6013574B2 (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210705

R151 Written notification of patent or utility model registration

Ref document number: 6909669

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151