JP2019029954A - Image processing system and image processing method - Google Patents

Image processing system and image processing method Download PDF

Info

Publication number
JP2019029954A
JP2019029954A JP2017150607A JP2017150607A JP2019029954A JP 2019029954 A JP2019029954 A JP 2019029954A JP 2017150607 A JP2017150607 A JP 2017150607A JP 2017150607 A JP2017150607 A JP 2017150607A JP 2019029954 A JP2019029954 A JP 2019029954A
Authority
JP
Japan
Prior art keywords
image
image data
unit
metadata
composition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017150607A
Other languages
Japanese (ja)
Other versions
JP6909669B2 (en
Inventor
豊田 哲也
Tetsuya Toyoda
哲也 豊田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2017150607A priority Critical patent/JP6909669B2/en
Priority to PCT/JP2018/028709 priority patent/WO2019026923A1/en
Publication of JP2019029954A publication Critical patent/JP2019029954A/en
Application granted granted Critical
Publication of JP6909669B2 publication Critical patent/JP6909669B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an image processing systems and an image processing method associating the image data, by creating appropriate information according to the image composition processing.SOLUTION: For the same object, multiple captured image data are acquired by switching the photography conditions (S3), first image composition is performed by using multiple captured image data acquired under different exposure conditions (S17), second image composition is performed under the same exposure conditions, while differentiating the conditions other than exposure (S23), and when creating metadata representative of the composite image data composited by first image composition or second image composition, single metadata indicating different exposure conditions, when first image composition is performed and when second image composition is performed, is created (S19, S25).SELECTED DRAWING: Figure 7

Description

本発明は、撮影の際に複数コマの画像データを取得し、この取得した画像データに合成処理を施し、この合成処理を施した画像データを記録することが可能な画像処理装置および画像処理方法に関する。   The present invention provides an image processing apparatus and an image processing method capable of acquiring image data of a plurality of frames at the time of shooting, performing a synthesis process on the acquired image data, and recording the image data subjected to the synthesis process About.

撮影の際に複数コマの画像データを取得し、この取得した複数の画像データに合成処理を施し記録することは従来より種々提案されている、例えば、特許文献1には、撮像方向を変位させながら複数のフレー画像データを取得し、この取得した画像データにパノラマ画像処理を施し、パノラマ画像データを生成する画像処理装置が記載されている。この画像処理装置では、全周パノラマ画像と判断される場合に、パノラマ画像データと全周パノラマ画像であることを示す情報を関連付けて記録されている。   Various proposals have been made in the past to acquire image data of a plurality of frames at the time of shooting, and to perform synthesis processing on the acquired plurality of image data. For example, Patent Document 1 displaces the imaging direction. However, there is described an image processing apparatus that acquires a plurality of frame image data, performs panorama image processing on the acquired image data, and generates panorama image data. In this image processing apparatus, when it is determined that the image is an all-round panorama image, the panorama image data is recorded in association with information indicating that the image is an all-round panorama image.

また、写真用のメタデータを含む画像ファイルフォーマットとしてエクスチェンジャブル・イメージ・ファイル・フォーマット(Exif)が使用されている。このExif情報として、シャッタ速度、絞り値(F値)、ISO感度等の情報が画像データと共に記録される。   Further, the exchangeable image file format (Exif) is used as an image file format including metadata for photographs. As this Exif information, information such as shutter speed, aperture value (F value), ISO sensitivity and the like is recorded together with the image data.

特開2015−156523号公報JP-A-2015-156523

複数コマの画像データに対する合成処理は、パノラマ合成処理以外にも、深度合成処理、超高解像合成処理、ハイダイナミックレンジ合成処理(HDR)等、種々の処理がある。これらの合成処理の際に使用される撮影コマの画像データの露出条件は同じ場合もあれば、異なる場合もある。前述の特許文献1には、露出条件の記録については何ら記載されていない。これらの露出条件等の撮影条件の記録の仕方によっては、不適切な記録となってしまう。   In addition to panorama synthesis processing, there are various types of processing such as depth synthesis processing, ultra-high resolution synthesis processing, and high dynamic range synthesis processing (HDR) in addition to panorama synthesis processing. The exposure conditions of the image data of the shooting frames used in these combining processes may be the same or different. Patent Document 1 described above does not describe any recording of exposure conditions. Depending on how the shooting conditions such as the exposure conditions are recorded, the recording is inappropriate.

本発明は、このような事情を鑑みてなされたものであり、画像合成処理に応じて適切な情報を作成し、画像データに関連付けを行うようにした画像処理装置および画像処理方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and provides an image processing apparatus and an image processing method that create appropriate information in accordance with image composition processing and associate it with image data. With the goal.

上記目的を達成するため第1の発明に係る画像処理装置は、同一の対象物に対し、撮影条件を切り換えて複数の撮影画像データを取得可能な画像データ取得部と、上記画像データ取得部によって、異なる露出条件で複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行う第1画像合成部と、上記画像データ取得部によって、同一の露出条件、かつ露出以外の条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行う第2画像合成部と、上記第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成するメタデータ作成部と、を有し、上記メタデータ作成部は、上記第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる露出条件を示す単一のメタデータを作成する。   In order to achieve the above object, an image processing apparatus according to a first aspect of the present invention includes an image data acquisition unit capable of acquiring a plurality of captured image data by switching shooting conditions for the same object, and the image data acquisition unit. A first image composition unit that acquires a plurality of captured image data under different exposure conditions and performs a first image composition using the acquired plurality of captured image data, and the same exposure condition by the image data acquisition unit. A second image composition unit that obtains a plurality of captured image data under different conditions other than exposure, and performs a second image composition using the obtained plurality of photographed image data; and the first image composition unit Or a metadata creating unit that creates metadata representing the synthesized image data synthesized by the second image synthesizing unit, wherein the metadata creating unit performs the first image synthesis, In the case of performing the second image synthesis, to create a single metadata indicating the different exposure conditions.

第2の発明に係る画像処理装置は、上記第1の発明において、上記メタデータ作成部は、上記第1の画像合成と上記第2の画像合成を区別する情報を作成する。
第3の発明に係る画像処理装置は、上記第2の発明において、上記メタデータ作成部は、上記第1の画像合成を行った場合には上記画像データ取得部における露出条件に基づいて参考メタデータを作成し、上記第2の画像合成を行った場合には上記画像データ取得部における実際の露出条件を実施メタデータとする。
In the image processing apparatus according to a second invention, in the first invention, the metadata creating unit creates information for distinguishing the first image composition from the second image composition.
An image processing apparatus according to a third invention is the image processing apparatus according to the second invention, wherein, when the first image composition is performed, the metadata generation unit performs a reference meta-data based on an exposure condition in the image data acquisition unit. When data is created and the second image composition is performed, actual exposure conditions in the image data acquisition unit are set as execution metadata.

第4の発明に係る画像処理装置は、上記第1の発明において、上記メタデータ作成部は、上記第1の画像合成部によって第1の画像合成を行った場合には、上記第1の画像合成によって生成された合成画像の露出効果に相当するメタデータを作成する。   An image processing apparatus according to a fourth invention is the image processing apparatus according to the first invention, wherein the metadata creation unit performs the first image composition when the first image composition unit performs the first image composition. Metadata corresponding to the exposure effect of the composite image generated by the composition is created.

第5の発明に係る画像処理装置は、上記第1の発明において、上記メタデータ作成部は、上記第2の画像合成部によって第2の画像合成を行った場合には、上記画像データ取得部で1コマの画像データを取得する際の露出条件に基づいてメタデータを作成する。   The image processing apparatus according to a fifth aspect of the present invention is the image processing apparatus according to the first aspect, wherein the metadata generation unit performs the second image composition by the second image composition unit. The metadata is created based on the exposure condition when acquiring the image data of one frame.

第6の発明に係る画像処理装置は、同一の対象物に対し、第1の撮影条件を切り換えて複数の撮影画像データを取得可能な画像データ取得部と、上記画像データ取得部によって、第2の撮影条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行う第1画像合成部と、上記画像データ取得部によって、第2の撮影条件を変えず、第3の撮影条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行う第2画像合成部と、上記第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成するメタデータ作成部と、を有し、上記メタデータ作成部は、上記第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる撮影条件を示す単一のメタデータを作成する。   An image processing apparatus according to a sixth aspect of the present invention includes an image data acquisition unit capable of acquiring a plurality of captured image data by switching the first imaging condition for the same object, and the second image data acquisition unit. A plurality of captured image data is acquired under different imaging conditions, and a first image composition unit that performs first image composition using the acquired plurality of captured image data, and the image data acquisition unit A second image composition unit that obtains a plurality of photographed image data by changing the third photography condition without changing the photographing conditions, and performs a second image composition using the obtained plurality of photographed image data; A metadata creating unit that creates metadata representing the synthesized image data synthesized by the first image synthesizing unit or the second image synthesizing unit, and the metadata creating unit performs the first image synthesis. If you do and above In case of the second image synthesis, to create a single metadata indicating the different imaging conditions.

第7の発明に係る画像処理方法は、同一の対象物に対し、撮影条件を切り換えて複数の撮影画像データを取得し、異なる露出条件で取得した複数の撮影画像データを用いて第1の画像合成を行い、同一の露出条件、かつ露出以外の条件を異ならせて取得した複数の撮影画像データを用いて第2の画像合成を行い、上記第1画像合成または第2画像合成によって合成された合成画像データを表すメタデータを作成する際に、上記第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる露出条件を示す単一のメタデータを作成する。   In the image processing method according to the seventh aspect of the present invention, a plurality of photographed image data is acquired by switching photographing conditions for the same object, and the first image is obtained using the plurality of photographed image data obtained under different exposure conditions. The second image composition is performed using a plurality of photographed image data obtained by combining and obtaining the same exposure condition and different conditions other than the exposure, and the first image composition or the second image composition is performed. When creating metadata representing composite image data, single metadata indicating different exposure conditions is created when the first image composition is performed and when the second image composition is performed.

本発明によれば、画像合成処理に応じて適切な情報を作成し、画像データに関連付けを行うようにした画像処理装置および画像処理方法を提供することができる。   According to the present invention, it is possible to provide an image processing apparatus and an image processing method in which appropriate information is created in accordance with image synthesis processing and associated with image data.

本発明の一実施形態に係るカメラの主として電気的構成を示すブロック図である。1 is a block diagram mainly showing an electrical configuration of a camera according to an embodiment of the present invention. 本発明の一実施形態に係るカメラにおける深度合成処理を説明する図である。It is a figure explaining the depth synthetic | combination process in the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラにおける超高解像合成処理を説明する図である。It is a figure explaining the super high resolution synthetic | combination process in the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラにおけるハイダイナミックレンジ合成処理(HDR)を説明する図である。It is a figure explaining the high dynamic range synthetic | combination process (HDR) in the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラにおけるノイズリダクション(NR)合成処理を説明する図である。It is a figure explaining the noise reduction (NR) synthetic | combination process in the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラにおける電子手振れ防止処理を説明する図である。It is a figure explaining the electronic camera-shake prevention process in the camera which concerns on one Embodiment of this invention. 本発明の一実施形態におけるカメラのカメラ制御動作を示すフローチャートである。It is a flowchart which shows the camera control operation | movement of the camera in one Embodiment of this invention. 本発明の一実施形態におけるカメラのカメラ制御動作を示すフローチャートである。It is a flowchart which shows the camera control operation | movement of the camera in one Embodiment of this invention. 本発明の一実施形態におけるカメラにおいて、メタデータの表示の例を示す図である。It is a figure which shows the example of a metadata display in the camera in one Embodiment of this invention.

以下、本発明の一実施形態としてデジタルカメラ(以下、「カメラ」と称す)に適用した例について説明する。このカメラは、撮像部を有し、この撮像部によって被写体像を画像データに変換し、この変換された画像データに基づいて、被写体像を本体の背面に配置した表示部にスルー画表示する。撮影者はスルー画表示を観察することにより、構図やシャッタタイミングを決定する。レリーズ操作時には、画像データが記録媒体に記録される。記録媒体に記録された画像データは、再生モードを選択すると、表示部に再生表示することができる。   Hereinafter, an example applied to a digital camera (hereinafter referred to as “camera”) as an embodiment of the present invention will be described. This camera has an imaging unit, and the subject image is converted into image data by the imaging unit, and based on the converted image data, the subject image is displayed as a through image on a display unit disposed on the back of the main body. The photographer determines the composition and shutter timing by observing the through image display. During the release operation, image data is recorded on the recording medium. The image data recorded on the recording medium can be reproduced and displayed on the display unit when the reproduction mode is selected.

また、本実施形態に係るカメラは、複数コマの画像データを取得し、この複数コマの画像データを用いて行う合成処理を行うことができる。この場合、複数の異なる露出条件で画像データを得て行う第1の画像合成処理と、同じ露出条件で複数の画像データを得て行う第2の画像合成処理とで、異なる露出条件(撮影条件)を示す単一のメタデータを生成し、画像データに関連付けて記録するようにしている。   In addition, the camera according to the present embodiment can acquire image data of a plurality of frames and perform a synthesis process performed using the image data of the plurality of frames. In this case, different exposure conditions (imaging conditions) are used in the first image composition processing performed by obtaining image data under a plurality of different exposure conditions and the second image composition processing performed by obtaining a plurality of image data under the same exposure conditions. ) Is generated and recorded in association with the image data.

図1は、本実施形態に係るカメラの主として電気的構成を示すブロック図である。このカメラは、制御部101、撮像部102、記録部105、表示部106、操作部107、通信部108を有する。   FIG. 1 is a block diagram mainly showing an electrical configuration of the camera according to the present embodiment. This camera includes a control unit 101, an imaging unit 102, a recording unit 105, a display unit 106, an operation unit 107, and a communication unit 108.

撮像部102は、光学系102a、撮像素子102b、ピント変更部102c、露出変更部102d、および撮像位置変更部102dを有する。なお、ピント変更部102c、露出変更部102dおよび撮像位置変更部102dは、設定可能なモードに応じて、適宜、省略してもよい。   The imaging unit 102 includes an optical system 102a, an imaging element 102b, a focus changing unit 102c, an exposure changing unit 102d, and an imaging position changing unit 102d. Note that the focus change unit 102c, the exposure change unit 102d, and the imaging position change unit 102d may be omitted as appropriate according to a settable mode.

光学系102aは、フォーカスレンズ等の光学レンズを有し、被写体像を形成することができる。光学102aのピント位置は、後述するピント変更部102cによって移動制御される。   The optical system 102a has an optical lens such as a focus lens, and can form a subject image. The movement of the focus position of the optical 102a is controlled by a focus changing unit 102c described later.

撮像素子102bは、CCDイメージセンサ、CMOSイメーセンサ等のイメージセンサを有する。この撮像素子102bは、光学系102aによって被写体像が形成される位置付近に配置され、撮像制御部103bからの制御に従って、被写体像を画像データに変換し出力する。撮像素子102bは、同一の対象物に対し、撮影条件(第1の撮影条件)を切り換えて複数の撮影画像データを取得可能な画像データ取得部として機能する。   The image sensor 102b includes an image sensor such as a CCD image sensor or a CMOS image sensor. The image sensor 102b is disposed in the vicinity of a position where a subject image is formed by the optical system 102a, and converts the subject image into image data and outputs it according to control from the imaging control unit 103b. The imaging element 102b functions as an image data acquisition unit that can acquire a plurality of captured image data by switching the imaging condition (first imaging condition) for the same object.

ピント変更部102cは、光学系102aの内のフォーカスレンズを光軸方向に移動する駆動機構および駆動回路を有する。ピント変更部102cは、制御部103からのピント合わせ信号に基づいてフォーカスレンズを合焦位置に移動させる。また、ピント変更部102cは、深度合成モードが設定された場合に、フォーカスレンズを所定の異なるピント位置に順次移動させ、それぞれのピント位置で画像データが取得される。   The focus changing unit 102c includes a drive mechanism and a drive circuit that move the focus lens in the optical system 102a in the optical axis direction. The focus changing unit 102 c moves the focus lens to the in-focus position based on the focus signal from the control unit 103. In addition, when the depth synthesis mode is set, the focus changing unit 102c sequentially moves the focus lens to a predetermined different focus position, and image data is acquired at each focus position.

露出変更部102dは、撮影時の露出条件を変更させる。露出変更部102dは、絞りおよび絞り制御回路、シャッタおよびシャッタ制御回路、ISO感度変更回路等の内の少なくとも1つを有する。すなわち、露出変更部102dは、絞り値、シャッタ速度値、およびISO感度の内の少なくとも1つを変更することにより、露出条件を変更する。また、露出変更部102dは、ハイダイナミックレンジ合成(HDR)モードが設定された場合に、所定の異なる露出条件で順次撮影が行われ、それぞれの露出条件で画像データが取得される。   The exposure changing unit 102d changes the exposure condition at the time of shooting. The exposure changing unit 102d has at least one of an aperture and aperture control circuit, a shutter and shutter control circuit, an ISO sensitivity change circuit, and the like. That is, the exposure changing unit 102d changes the exposure condition by changing at least one of the aperture value, the shutter speed value, and the ISO sensitivity. In addition, when the high dynamic range composition (HDR) mode is set, the exposure changing unit 102d sequentially performs shooting under different exposure conditions, and acquires image data under each exposure condition.

撮像位置変更部102eは、撮像素子102bを光軸と直交する面内で移動させる移動機構および移動回路を有する。撮像位置変更部102eは、超高解像合成モードが設定された場合に、撮像素子102bを光軸と直交する面内で所定の異なる撮像位置に撮像素子102bを順次移動させ、それぞれの撮像位置で画像データが取得される。   The imaging position changing unit 102e includes a moving mechanism and a moving circuit that move the imaging element 102b in a plane orthogonal to the optical axis. The imaging position changing unit 102e sequentially moves the imaging element 102b to a predetermined different imaging position in a plane orthogonal to the optical axis when the super-high resolution synthesis mode is set, and each imaging position In this way, image data is acquired.

制御部101は、CPU(Central Processing Unit)とその周辺回路およびメモリ等を有したASIC(Application Specific Integrated Circuit)で構成される。CPUはメモリに記憶されたプログラムに従って、カメラ100内の各部を制御することによってカメラの全体を実行する。制御部101は、モード制御部101b、表示制御部101c、通信制御部101d、および画像処理部103を有する。これらの各部の一部の機能は、CPUとプログラムによって実現され、また他の一部の機能は周辺回路によって実現される。   The control unit 101 is configured by an ASIC (Application Specific Integrated Circuit) having a CPU (Central Processing Unit), its peripheral circuits, a memory, and the like. The CPU executes the entire camera by controlling each part in the camera 100 according to a program stored in the memory. The control unit 101 includes a mode control unit 101b, a display control unit 101c, a communication control unit 101d, and an image processing unit 103. Some functions of these units are realized by a CPU and a program, and some other functions are realized by a peripheral circuit.

モード制御部101bは、ユーザによって設定されたモード等に応じて、撮像制御部103b、撮影制御変更部103c、画像合成部103d等による制御を実行させる。   The mode control unit 101b executes control by the imaging control unit 103b, the imaging control change unit 103c, the image composition unit 103d, and the like according to the mode set by the user.

表示制御部101cは、表示部106における表示の制御を行う。表示としては、撮像素子102bによって取得された画像データに基づくスルー画表示、記録部105に記録された画像の再生画像表示、メニュー画面表示等、種々の表示がある。また、記録部105に記録された際の画像表示の際には、画像データに関連して記録されているメタデータの表示を行うようにしてもよい(後述する図9参照)。   The display control unit 101 c controls display on the display unit 106. The display includes various displays such as a through image display based on image data acquired by the image sensor 102b, a reproduced image display of an image recorded in the recording unit 105, and a menu screen display. Further, when displaying an image when recorded in the recording unit 105, metadata recorded in association with the image data may be displayed (see FIG. 9 described later).

通信制御部101dは、通信部108を介して行う外部との無線(赤外線等を含む)通信、または有線通信の制御を行う。本実施形態においては、後述するように、記録部105に記録された画像データ等は外部装置に通信可能である(図8のS45、S47参照)。   The communication control unit 101d controls wireless (including infrared rays) communication or wired communication with the outside through the communication unit 108. In this embodiment, as will be described later, image data and the like recorded in the recording unit 105 can communicate with an external device (see S45 and S47 in FIG. 8).

画像処理部103は、撮像制御部103b、撮影制御変更部103c、画像合成部103d、記録制御部103e、メタデータ作成部104を有する。   The image processing unit 103 includes an imaging control unit 103b, a shooting control change unit 103c, an image composition unit 103d, a recording control unit 103e, and a metadata creation unit 104.

撮像制御部103bは、撮像素子102bから画像データの取得の制御を行う。すなわち、撮像制御部103bは、撮像素子102bの光電変換時間や画像データの読出しを制御し、読み出した画像データを制御部101に出力させる。   The imaging control unit 103b controls acquisition of image data from the imaging element 102b. That is, the imaging control unit 103b controls the photoelectric conversion time of the imaging element 102b and reading of image data, and causes the control unit 101 to output the read image data.

撮影制御変更部103cは、深度合成処理モード、ハイダイナミックレンジ合成処理(HDR)モード、超高解像合成処理モード等の設定されたモードに応じて、ピント変更部102b、露出変更部102c、撮像位置変更部102dを制御し、設定されたモードに応じた撮影制御を実行する。   The imaging control changing unit 103c is configured to change the focus changing unit 102b, the exposure changing unit 102c, and the imaging according to a set mode such as a depth synthesis processing mode, a high dynamic range synthesis processing (HDR) mode, and an ultra-high resolution synthesis processing mode. The position changing unit 102d is controlled to perform shooting control according to the set mode.

画像合成部103dは、画像処理回路等を有し、深度合成処理モード、ハイダイナミックレンジ合成処理(HDR)モード、超高解像合成処理モード、ノイズリダクションモード、電子手振れ防止モード等に応じて、取得した複数コマの画像データに対して、画像処理を施す。深度合成処理モード、ハイダイナミックレンジ合成処理(HDR)モード、超高解像合成処理モードにおける画像処理については、図2ないし図4を用いて後述する。   The image composition unit 103d has an image processing circuit and the like, and according to a depth composition processing mode, a high dynamic range composition processing (HDR) mode, an ultra-high resolution composition processing mode, a noise reduction mode, an electronic camera shake prevention mode, and the like. Image processing is performed on the acquired image data of a plurality of frames. Image processing in the depth synthesis processing mode, high dynamic range synthesis processing (HDR) mode, and ultra-high resolution synthesis processing mode will be described later with reference to FIGS.

画像合成部103dは、画像データ取得部によって、異なる露出条件で複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行う第1画像合成部として機能する。画像合成部103dは、画像データ取得部によって、同一の露出条件、かつ露出以外の条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行う第2画像合成部として機能する。   The image composition unit 103d functions as a first image composition unit that acquires a plurality of captured image data under different exposure conditions by the image data acquisition unit and performs a first image composition using the acquired plurality of captured image data. To do. The image composition unit 103d uses the image data acquisition unit to acquire a plurality of captured image data under different conditions other than the same exposure condition and exposure, and uses the acquired plurality of captured image data to generate the second image. It functions as a second image composition unit that performs composition.

記録制御部103eは、画像処理部103によって画像処理が施された画像データを、記録部105に記録する際の記録制御を行う。後述するように、画像データは、メタデータ作成部104によって生成されたメタデータと関連付けられ、記録部105に記録される。画像合成モードに応じて、実施データまたは参考データのいずれかが関連付けられる(図7のS13、S19、S25参照)。   The recording control unit 103 e performs recording control when image data subjected to image processing by the image processing unit 103 is recorded in the recording unit 105. As will be described later, the image data is associated with the metadata generated by the metadata creation unit 104 and recorded in the recording unit 105. Depending on the image composition mode, either execution data or reference data is associated (see S13, S19, and S25 in FIG. 7).

メタデータ作成部104は、画像データに付随した情報を生成する。本実施形態においては、メタデータ作成部104は実施データ作成部104aと参考データ作成部104bを有する。実施データ作成部104aは、複数コマの画像データを取得した際の実際の露出条件に基づいてメタデータを生成する。参考データ作成部104bは、複数コマの画像データを取得した際の実際の複数の露出条件から参考となる露出条件を算出し、この露出条件に基づいてメタデータを生成する。   The metadata creation unit 104 generates information attached to the image data. In the present embodiment, the metadata creation unit 104 includes an implementation data creation unit 104a and a reference data creation unit 104b. The execution data creation unit 104a generates metadata based on actual exposure conditions when multiple frames of image data are acquired. The reference data creation unit 104b calculates a reference exposure condition from a plurality of actual exposure conditions when acquiring image data of a plurality of frames, and generates metadata based on the exposure conditions.

メタデータ作成部104は、第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成するメタデータ作成部として機能する。また、このメタデータ作成部は、第1の画像合成を行う場合と、第2の画像合成を行う場合で、異なる露出条件(撮影条件)を示す単一のメタデータを作成する(例えば、図2(d)、図3(d)、図4(d)、図7のS19、S25参照)。   The metadata creation unit 104 functions as a metadata creation unit that creates metadata representing the composite image data synthesized by the first image synthesis unit or the second image synthesis unit. Further, the metadata creation unit creates single metadata indicating different exposure conditions (imaging conditions) when the first image composition is performed and when the second image composition is performed (for example, FIG. 2 (d), FIG. 3 (d), FIG. 4 (d), and S19 and S25 in FIG. 7).

メタデータ作成部は、第1の画像合成と上記第2の画像合成を区別する情報を作成する(例えば、図9(c)参照)。また、メタデータ作成部は、第1の画像合成を行った場合には画像データ取得部における露出条件に基づいて参考メタデータを作成し(例えば、図7のS19参照)、第2の画像合成を行った場合には画像データ取得部における実際の露出条件を実施メタデータとする(例えば、図7のS25参照)。   The metadata creation unit creates information for distinguishing between the first image composition and the second image composition (see, for example, FIG. 9C). Further, when the first image composition is performed, the metadata creation unit creates reference metadata based on the exposure condition in the image data acquisition unit (see, for example, S19 in FIG. 7), and the second image composition. When performing the above, the actual exposure condition in the image data acquisition unit is set as the implementation metadata (see, for example, S25 in FIG. 7).

メタデータ作成部は、第1の画像合成部によって第1の画像合成を行った場合には、第1の画像合成によって生成された合成画像の露出効果に相当するメタデータを作成する(例えば、図4、図7のS19参照)。メタデータ作成部は、第2の画像合成部によって第2の画像合成を行った場合には、画像データ取得部で1コマの画像データを取得する際の露出条件に基づいてメタデータを作成する(例えば、図2、図3、図7のS25参照)。   When the first image composition unit performs the first image composition, the metadata creation unit creates metadata corresponding to the exposure effect of the composite image generated by the first image composition (for example, (See S19 in FIGS. 4 and 7). When the second image composition unit performs the second image composition, the metadata creation unit creates the metadata based on the exposure condition when the image data acquisition unit obtains one frame of image data. (For example, see S25 in FIGS. 2, 3, and 7).

記録部105は、電気的に書き換え可能な不揮発性メモリを有する記録媒体である。記録部105には、画像データ105bと、この画像データ105bに関連付けられたメタデータ105cが記録可能である。記録部105に記録される画像データやメタデータ等は、例えば、Exif等の規格に従って記録される。   The recording unit 105 is a recording medium having an electrically rewritable nonvolatile memory. The recording unit 105 can record image data 105b and metadata 105c associated with the image data 105b. Image data, metadata, and the like recorded in the recording unit 105 are recorded in accordance with a standard such as Exif, for example.

表示部106は、カメラの背面等に配置された表示ディスプレイを有し、表示ディスプレイには、スルー画表示、再生表示、メニュー画面等、種々の画像が表示される。   The display unit 106 has a display display disposed on the back surface of the camera, and various images such as a through image display, a reproduction display, and a menu screen are displayed on the display display.

操作部107は、電源釦、レリーズ釦、再生釦、OK釦、タッチパネル等の種々の操作部材を有する。電源釦、レリーズ釦、再生釦、OK釦等の操作に応じてオンとなるスイッチを有し、操作部107は、スイッチの操作状態を検出し、制御部101に出力する。   The operation unit 107 includes various operation members such as a power button, a release button, a playback button, an OK button, and a touch panel. A switch that is turned on in response to an operation of a power button, a release button, a playback button, an OK button, or the like is provided. The operation unit 107 detects an operation state of the switch and outputs the detected switch state to the control unit 101.

通信部108は、外部機器やインターネット等と通信を行うための通信回路を有する。通信部108を介して、撮像素子102bによって取得され、記録部105に記録されたメタデータ付き画像データが外部に送信される。   The communication unit 108 includes a communication circuit for communicating with an external device, the Internet, or the like. The image data with metadata acquired by the image sensor 102 b and recorded in the recording unit 105 is transmitted to the outside via the communication unit 108.

次に、図2を用いて、深度合成モードが設定された場合の撮影方法と画像合成方法について説明する。図2(a)は、ユーザ10がカメラ20を用いて被写体30を、深度合成モードで撮影する様子を示す。被写体30の上部30aと下部30bは、カメラ20からの距離が異なるため、上部30aと下部30bの両方にピントを合わせるのは困難な場合がある。このような状況で、深度合成モードが設定されると、ピントの位置を変えながら複数コマを撮影し、撮影された画像内の部分を比較し、ピントの合った部分を合成してピントの合った画像を作成する。   Next, a photographing method and an image composition method when the depth composition mode is set will be described with reference to FIG. FIG. 2A shows a state in which the user 10 uses the camera 20 to photograph the subject 30 in the depth synthesis mode. Since the upper portion 30a and the lower portion 30b of the subject 30 have different distances from the camera 20, it may be difficult to focus on both the upper portion 30a and the lower portion 30b. In this situation, when the depth compositing mode is set, multiple frames are shot while changing the focus position, the parts in the shot image are compared, and the in-focus parts are combined to focus. Create an image.

図2(b)は、撮影タイミングとピントの合っている部分を示す。時刻t0において、レリーズ釦が操作され撮影が開始すると時刻t1〜t2の間に1回目の撮影がなされる。この時のシャッタ速度SSは1/100秒であり、また撮影画像の内、黒塗りの部分F1(上部30aに相当)にピント合っている。撮影が終わると、時刻t2〜t3の間に、ピント変更部102cによって光学系102aのピント位置を移動させる。   FIG. 2B shows a portion where the shooting timing is in focus. At time t0, when the release button is operated and shooting is started, the first shooting is performed between times t1 and t2. The shutter speed SS at this time is 1/100 second, and it is focused on the black portion F1 (corresponding to the upper portion 30a) in the photographed image. When shooting is completed, the focus position of the optical system 102a is moved by the focus changing unit 102c between times t2 and t3.

続いて、時刻t4〜t4の間に2回目の撮影がなされる。この時のシャッタ速度SSも1/100秒であり、また撮影画像の内、黒塗りの部分F2(下部30bに相当)にピント合っている。1回目および2回目に撮影された2つの撮影画像に深度合成処理を施すと、黒塗りの部分F1およびF2(上部30aおよび下部30b)にピントが合った画像を得ることができる。   Subsequently, the second shooting is performed between times t4 and t4. The shutter speed SS at this time is also 1/100 second, and is focused on a black portion F2 (corresponding to the lower portion 30b) in the photographed image. When depth synthesis processing is performed on the two captured images captured for the first time and the second time, it is possible to obtain images in which the black portions F1 and F2 (the upper portion 30a and the lower portion 30b) are in focus.

図2(c)において、画像41は1枚目の撮影画像を示し、この撮影により被写体30の上部30a(図2(b)のF1参照)にピントを合わせた画像データを取得する。次に、画像42は2枚目の撮影画像を示し、この撮影により被写体30の下部30b(図2(b)のF2参照)にピントを合わせた画像データを取得する。   In FIG. 2C, an image 41 indicates the first photographed image, and image data obtained by focusing on the upper portion 30a of the subject 30 (see F1 in FIG. 2B) is obtained. Next, the image 42 shows a second photographed image, and image data obtained by focusing on the lower portion 30b of the subject 30 (see F2 in FIG. 2B) is obtained.

画像41および画像42の画像データを取得すると、次に、画像合成部103dは、両画像データを深度合成する。この深度合成処理は、画像ごとに、画像の先鋭度(コントラスト)の高い領域を抽出し、先鋭度が高い領域の画像データを合成する。これにより、上部30aおよび下部30bの両方にピントがあった画像43の画像データを生成する。深度合成処理は、単写よりも深い被写界深度の画像データを生成することができる。   When the image data of the image 41 and the image 42 are acquired, the image composition unit 103d then performs depth composition on both image data. In this depth synthesis process, for each image, a region having a high sharpness (contrast) of the image is extracted, and image data of the region having a high sharpness is synthesized. Thereby, the image data of the image 43 in which both the upper part 30a and the lower part 30b are in focus are generated. The depth synthesis process can generate image data having a depth of field deeper than that of a single shot.

また、画像合成部103dが深度合成処理によって画像データを生成すると、メタデータ生成部104は、メタデータも生成する。深度合成を行うための1回目の撮影と、2回目の撮影と、露出は2回行われている。1回目と2回目の露出条件はいずれもシャッタ速度SSが1/100秒であり、絞りはFNo.16で同一であるので、露出データは、実施データとなる。そこで、メタデータ44としては、図2(d)に示すように、この共通の露出条件である実施データを記録し、参考データは記録しない。他のユーザは、この実施データを使用することにより、深度合成画像と同様の明るさの画像を得ることができる。   Further, when the image composition unit 103d generates image data by depth composition processing, the metadata generation unit 104 also generates metadata. The first shooting for depth synthesis, the second shooting, and the exposure are performed twice. In both the first and second exposure conditions, the shutter speed SS is 1/100 second, and the aperture is FNo. 16 is the same, the exposure data is the execution data. Therefore, as the metadata 44, as shown in FIG. 2D, the execution data as the common exposure condition is recorded, and the reference data is not recorded. Other users can obtain an image having the same brightness as the depth composite image by using this implementation data.

次に、図3を用いて、超解像合成モードが設定された場合の撮影方法と画像合成方法について説明する。図3(a)は、ユーザ10がカメラ20を用いて被写体31を、超解像合成モードで撮影する様子を示す。被写体31は、遠方にあり、通常の焦点距離で撮影しても被写体31は小さく写り、拡大表示(拡大プリント)しても十分な解像度の表示とはならない。   Next, with reference to FIG. 3, a photographing method and an image composition method when the super-resolution composition mode is set will be described. FIG. 3A shows a state in which the user 10 photographs the subject 31 using the camera 20 in the super-resolution synthesis mode. The subject 31 is far away, and even if the subject 31 is photographed at a normal focal length, the subject 31 appears small, and even if enlarged display (enlarged print) is performed, a display with sufficient resolution is not obtained.

このような図3(a)に示す状況で、超解像合成モードが設定されると、撮像位置変更部102eは、撮像素子102bの位置を変えながら複数コマを撮影する。そして、1回目の撮影で取得した画像における画素と画素の中間位置を、2回目から4回目の撮影において撮像素子102bの位置を変えて撮影した画像を用いて、補間することにより、解像度の高い画像を合成する。超解像合成で画像45が生成されると、図3(b)に示すように、拡大画像46の解像度は高く、拡大鑑賞が可能となる。   In the situation shown in FIG. 3A, when the super-resolution synthesis mode is set, the imaging position changing unit 102e captures a plurality of frames while changing the position of the imaging element 102b. Then, by interpolating the pixel-to-pixel intermediate position in the image acquired by the first shooting using the image shot by changing the position of the image sensor 102b in the second to fourth shooting, the resolution is high. Composite the images. When the image 45 is generated by super-resolution composition, as shown in FIG. 3B, the resolution of the enlarged image 46 is high and enlargement viewing is possible.

図3(c)は、超解像撮影時のタイミングチャートと撮像素子102bの移動を示す。時刻t0において、レリーズ釦が操作され撮影が開始すると時刻t11〜t12の間に1回目の撮影がなされる。この時のシャッタ速度SSは1/100秒であり、また撮像素子102bは位置P1にある。時刻t12において撮影が終わると、撮像位置変更部102eは、時刻t13までの間に撮像素子102bを位置P2まで移動させる。   FIG. 3C shows a timing chart at the time of super-resolution imaging and movement of the image sensor 102b. At time t0, when the release button is operated and shooting is started, the first shooting is performed between times t11 and t12. The shutter speed SS at this time is 1/100 second, and the image sensor 102b is at the position P1. When shooting is completed at time t12, the imaging position changing unit 102e moves the imaging element 102b to the position P2 until time t13.

次に、時刻t13〜t14の間に2回目の撮影がなされる。この時のシャッタ速度SSは1/100秒であり、また撮像素子102bは位置P2にある。このタイミングにおいて位置P1は破線で示しており、撮像素子102bの位置P2は図3(c)に示すように、右下に所定量だけ移動している。この所定量は、画素間隔(画素ピッチ)よりも小さな値(例えば、画素ピッチの1/2)である。時刻t14において撮影が終わると、撮像位置変更部102eは、時刻t15までの間に撮像素子102bを位置P3まで移動させる。   Next, the second shooting is performed between times t13 and t14. The shutter speed SS at this time is 1/100 second, and the image sensor 102b is at the position P2. At this timing, the position P1 is indicated by a broken line, and the position P2 of the image sensor 102b is moved to the lower right by a predetermined amount as shown in FIG. This predetermined amount is a value (for example, 1/2 of the pixel pitch) smaller than the pixel interval (pixel pitch). When shooting is completed at time t14, the imaging position changing unit 102e moves the imaging element 102b to the position P3 until time t15.

次に、時刻t15〜t16の間に3回目の撮影がなされる。この時のシャッタ速度SSは1/100秒であり、また撮像素子102bは位置P3にある。このタイミングにおいて位置P1は破線で示しており、撮像素子102bの位置P3は図3(c)に示すように、右上に所定量だけ移動している。   Next, the third shooting is performed between times t15 and t16. The shutter speed SS at this time is 1/100 second, and the image sensor 102b is at the position P3. At this timing, the position P1 is indicated by a broken line, and the position P3 of the image sensor 102b is moved to the upper right by a predetermined amount as shown in FIG.

以後、時刻t17〜t18において4回目の撮影がなされ、時刻t19〜t20において5回目の撮影がなされる。これらタイミングでもシャッタ速度SSは1/100秒であり、また撮像素子102bは位置P4、P5と、位置P1よりも左下、左上に所定量だけ移動している。   Thereafter, the fourth shooting is performed from time t17 to t18, and the fifth shooting is performed from time t19 to t20. Even at these timings, the shutter speed SS is 1/100 second, and the image sensor 102b is moved to positions P4 and P5 by a predetermined amount from the position P1 to the lower left and the upper left.

複数の画像データを取得すると、画像合成部103dは超解像合成処理を施す。すなわち、撮像素子102bの位置P1を基準として、画素が所定量移動した際の画像データを用いて、画素間の画素値を補間する。例えば、撮像素子102bの移動量が画素ピッチの1/2であれば、画素の前後左右1/2ピッチずれた位置の画素値を補間することができ、画素数が4倍相当の高解像の画像データとなる。   When a plurality of image data are acquired, the image composition unit 103d performs super-resolution composition processing. That is, the pixel value between the pixels is interpolated using the image data when the pixel moves by a predetermined amount with reference to the position P1 of the image sensor 102b. For example, if the moving amount of the image sensor 102b is ½ of the pixel pitch, the pixel value at a position shifted by ½ pitch of the front, back, left, and right of the pixel can be interpolated, and the number of pixels is four times as high. Image data.

画像合成部103dが超解像合成処理によって画像データを生成すると、メタデータ生成部104は、メタデータも生成する。超解像合成を行うために、露出は5回行われている。1回目から5回目の露出条件はいずれもシャッタ速度SSが1/100秒であり、絞りはFNo.16で同一であるので、露出データは、実施データとなる。そこで、メタデータ47としては、図3(d)に示すように、この共通の露出条件である実施データを記録し、参考データは記録しない。   When the image composition unit 103d generates image data by super-resolution composition processing, the metadata generation unit 104 also generates metadata. In order to perform super-resolution synthesis, exposure is performed five times. In the first to fifth exposure conditions, the shutter speed SS is 1/100 second, and the aperture is FNo. 16 is the same, the exposure data is the execution data. Therefore, as the metadata 47, as shown in FIG. 3D, the execution data which is the common exposure condition is recorded, and the reference data is not recorded.

すなわち、複数枚の画像データが生成されると、画像合成部103dは、超解像合成処理を施し、超解像成画像データを生成する。メタデータ作成部104は、実施データ104aとして、図3に示した例では、1回の撮影の際の露出条件であるシャッタ速度SS=1/100秒、また絞り値FNo.16を生成する。ここで生成されたメタデータ(実施データ104a)は、記録部105内にメタデータ105cとして画像データに関連付けて記録される。他のユーザは、この実施データを使用することにより、超解像合成画像と同様の明るさの画像を得ることができる。   That is, when a plurality of pieces of image data are generated, the image composition unit 103d performs super-resolution composition processing to generate super-resolution image data. In the example shown in FIG. 3, the metadata creation unit 104 uses the shutter speed SS = 1/100 seconds, which is the exposure condition for one shooting, and the aperture value FNo. 16 is generated. The metadata (execution data 104a) generated here is recorded in the recording unit 105 as metadata 105c in association with the image data. Other users can obtain an image having the same brightness as the super-resolution composite image by using this implementation data.

次に、図4を用いて、ハイダイナミックレンジ合成処理(HDR)モードが設定された場合の撮影方法と画像合成方法について説明する。図4(a)は、ユーザ10がカメラ20を用いて、被写体である人物32および桜の木33を撮影する様子を示す。これらの被写体は晴天の下にあり、桜の木33は非常に明るく、一方人物は逆光のため非常に暗くなっている。すなわち、撮像素子102bが明暗を再現できる範囲が非常に広くないと、両方の被写体の明暗を適正に表現することができない。このような場合に、HDRモードに設定して撮影を行う。   Next, a shooting method and an image composition method when the high dynamic range composition processing (HDR) mode is set will be described with reference to FIG. FIG. 4A shows a situation where the user 10 uses the camera 20 to photograph a person 32 and a cherry tree 33 that are subjects. These subjects are under clear sky, the cherry tree 33 is very bright, while the person is very dark due to backlight. That is, unless the range in which the image sensor 102b can reproduce light and dark is very wide, the light and dark of both subjects cannot be expressed properly. In such a case, shooting is performed in the HDR mode.

図4(c)は、HDRモードに設定されたときの撮像のタイミングチャートである。図4(a)の状態で撮影する際の標準露出(適正露出)、すなわち、被写体32、33の両方を考慮した標準露出は、シャッタ速度1/100秒、絞り値FNo.16とする。HDRモードが設定されると、この標準露出よりオーバ露光となる露出条件で1回目の撮影を行い、続いて、アンダ露光となる露出条件で2回目の撮影を行う。   FIG. 4C is a timing chart of imaging when the HDR mode is set. The standard exposure (appropriate exposure) at the time of shooting in the state of FIG. 4A, that is, the standard exposure considering both the subjects 32 and 33, the shutter speed is 1/100 second, the aperture value FNo. 16 When the HDR mode is set, the first shooting is performed under an exposure condition that is overexposed from the standard exposure, and then the second shooting is performed under an exposure condition that is underexposure.

本実施形態においては、図4(c)に示すように、時刻t0において、レリーズ釦が操作され撮影が開始すると時刻t21〜t23の間に1回目の撮影がなされる。この時のシャッタ速度SSは1/100秒の2倍の露出時間(SSは2/100秒)である。続いて、時刻t24〜t25の間に2回目の撮影がなされる。このときのシャッタ速度SSは1/100の1/2倍の露出時間(SSは1/200秒)である。なお、光学系102aのピント位置は1回目と2回目の撮影において同じである。   In the present embodiment, as shown in FIG. 4C, when the release button is operated and shooting starts at time t0, the first shooting is performed between times t21 and t23. The shutter speed SS at this time is an exposure time twice as long as 1/100 second (SS is 2/100 second). Subsequently, the second shooting is performed between times t24 and t25. The shutter speed SS at this time is an exposure time (SS is 1/200 second) that is ½ times 1/100. The focus position of the optical system 102a is the same in the first and second shooting.

1回目の撮影で取得した露出オーバの画像データと、2回目の撮影で取得した露出アンダの画像データを用いて、画像合成部103dはHDR合成を行い、暗部から明部までの明暗の再現に優れた画像データを生成する。このHDR合成にあたっては、それぞれの画像(被写体)で適正露出となっている部分を繋ぎ合わせることによって、画面全体で白飛びや黒つぶれがない画像データを合成する。   Using the overexposure image data acquired in the first shooting and the underexposure image data acquired in the second shooting, the image composition unit 103d performs HDR composition to reproduce the light and darkness from the dark part to the bright part. Generate superior image data. In this HDR composition, image data that does not have overexposure or underexposure over the entire screen is composed by connecting portions that are properly exposed in each image (subject).

図4(b)は、HDR合成処理を施さない画像48と、HDR合成処理を施した画像49を示す。HDR合成処理を施していない画像48は、桜の木33は白飛びとなっており、一方人物32は黒つぶれとなっている。これに対して、HDR合成処理を施した画像49は、桜の木33および人物32は適正に明暗が表現されている。   FIG. 4B shows an image 48 that is not subjected to HDR synthesis processing and an image 49 that is subjected to HDR synthesis processing. In the image 48 that has not been subjected to the HDR synthesizing process, the cherry tree 33 is overexposure while the person 32 is underexposure. On the other hand, in the image 49 that has been subjected to the HDR synthesizing process, the cherry tree 33 and the person 32 appropriately express light and dark.

HDR合成処理を施した画像49のメタデータ50は、図4(b)に示すように、シャッタ速度SS=1/100秒、絞りFNo.=16である。前述したように、HDR合成モードでは、露出は2回行われているが、各々異なる露出量であることから、実施データ(SS:1/50、1/200)104aを記録せず、参考データ(SS:1/100)104bを記録する(図4(d)参照)。   As shown in FIG. 4B, the metadata 50 of the image 49 that has been subjected to the HDR synthesizing process includes a shutter speed SS = 1/100 second and an aperture FNo. = 16. As described above, in the HDR synthesis mode, the exposure is performed twice, but since the exposure amounts are different from each other, the execution data (SS: 1/50, 1/200) 104a is not recorded, and the reference data (SS: 1/100) 104b is recorded (see FIG. 4D).

すなわち、複数枚の画像データが生成されると、画像合成部103dは、HDR合成処理を施し、HDR合成画像データを生成する。メタデータ作成部104は、参考データ104bとして、図4に示した例では、HDR合成によって生成された画像の露出条件に相当するシャッタ速度SS=1/100秒、また絞り値FNo.16を生成する。ここで生成されたメタデータ(参考データ104b)は、記録部105内にメタデータ105cとして画像データに関連付けて記録される。この参考データで撮影すれば、色表現などを除けば、同様の明るさの画像を得ることができる。   That is, when a plurality of pieces of image data are generated, the image composition unit 103d performs HDR composition processing to generate HDR composite image data. In the example shown in FIG. 4, the metadata creation unit 104 uses the shutter speed SS = 1/100 seconds corresponding to the exposure condition of the image generated by the HDR composition, and the aperture value FNo. 16 is generated. The metadata (reference data 104b) generated here is recorded in the recording unit 105 as metadata 105c in association with the image data. By photographing with this reference data, an image with the same brightness can be obtained except for color expression.

次に、図5を用いて、ノイズリダクションモード(NRモード)が設定された場合の撮影タイミングについて説明する。ISO感度を高感度に設定すると、画像にノイズが増加し、見苦しくなる。そこで、同一の露出条件で複数コマの撮影を行い、各画像の対応する画素の出力値を平均化することにより、ノイズを低減させた画像を合成することができる。   Next, the imaging timing when the noise reduction mode (NR mode) is set will be described with reference to FIG. When the ISO sensitivity is set to a high sensitivity, noise increases in the image and it becomes difficult to see. Therefore, by shooting a plurality of frames under the same exposure condition and averaging the output values of the corresponding pixels of each image, it is possible to synthesize an image with reduced noise.

NRモードが設定された状態で、レリーズ釦が操作され撮影が開始すると、時刻t31〜t32、t33〜t34、t35〜t36、t37〜t38、t39〜t40の間で、撮影が行われる。このときの露出条件は、いずれもシャッタ速度SSは1/100秒であり、ISO感度は6400である。なお、NRモードの際の撮影回数は、適宜、最適な回数を選択すればよい。   When the release button is operated and shooting is started in the state where the NR mode is set, shooting is performed between times t31 to t32, t33 to t34, t35 to t36, t37 to t38, and t39 to t40. As for the exposure conditions at this time, the shutter speed SS is 1/100 second and the ISO sensitivity is 6400. It should be noted that the optimum number of times of photographing in the NR mode may be selected as appropriate.

複数枚の画像データが生成されると、画像合成部103dは、対応する画素の画素値の平均値を算出し、NR合成画像データを生成する。メタデータ作成部104は、実施データ104aとして、図5に示した例では、各撮影の際の露出条件、すなわちシャッタ速度SSとして1/100秒、ISO感度6400を生成する。ここで生成されたメタデータ(実施データ104a)は、記録部105内にメタデータ105cとして画像データに関連付けて記録される。   When a plurality of pieces of image data are generated, the image composition unit 103d calculates an average value of the pixel values of the corresponding pixels, and generates NR composite image data. In the example shown in FIG. 5, the metadata creation unit 104 generates the ISO condition 6400 as the execution data 104a in the example shown in FIG. The metadata (execution data 104a) generated here is recorded in the recording unit 105 as metadata 105c in association with the image data.

次に、図6を用いて、電子手振れ防止モードが設定された場合の撮影タイミングについて説明する。カメラを保持するユーザの手が振れていると、画像がぶれてしまい、見苦しい画像となってしまう。そこで、同一の露出条件で複数コマの撮影を行い、各画像の画素位置を手振れ量に応じてずらし、対応する画素の出力値を平均化することにより、手振れを軽減させた画像データを得ることができる。   Next, with reference to FIG. 6, the shooting timing when the electronic camera shake prevention mode is set will be described. If the hand of the user holding the camera is shaking, the image will be blurred, resulting in an unsightly image. Therefore, by taking multiple frames under the same exposure conditions, shifting the pixel position of each image according to the amount of camera shake, and averaging the output values of the corresponding pixels to obtain image data with reduced camera shake Can do.

電子手振れ防止モードが設定された状態で、レリーズ釦が操作され撮影が開始すると、時刻t41〜t42、t43〜t44、t45〜t46、t47〜t48、t49〜t50の間で、撮影が行われる。このときの露出条件は、いずれもシャッタ速度SSは1/100秒であり、ISO感度は6400である。なお、手振れ量が所定量以上の場合には(図6の時刻t43〜t44の撮影参照)、手振れ補正が困難な場合が多いので、手振れ防止合成処理の対象画像から除外する。電子手振れ防止モードの際の撮影回数は、適宜、最適な回数を選択すればよい。   When the release button is operated and shooting is started in a state where the electronic camera shake prevention mode is set, shooting is performed between times t41 to t42, t43 to t44, t45 to t46, t47 to t48, and t49 to t50. As for the exposure conditions at this time, the shutter speed SS is 1/100 second and the ISO sensitivity is 6400. If the amount of camera shake is equal to or greater than the predetermined amount (see the shooting at times t43 to t44 in FIG. 6), camera shake correction is often difficult, and is excluded from the target image for camera shake prevention synthesis processing. What is necessary is just to select the optimal frequency | count suitably as the frequency | count of imaging | photography in the electronic camera shake prevention mode.

複数枚の画像データが生成されると、画像合成部103dは、手振れ量を検出し、この手振れ量に応じて、画素の位置をずらして、対応する画素の画素値の平均値を算出し、電子手振れ防止画像データを生成する。手振れ量は、ジャイロ等のセンサ出力を利用してもよく、また2つの画像データの相関演算により手振れ量を算出してもよい。   When a plurality of pieces of image data are generated, the image composition unit 103d detects the amount of camera shake, shifts the pixel position according to the amount of camera shake, calculates the average value of the pixel values of the corresponding pixels, Electronic image stabilization image data is generated. As the camera shake amount, the output of a sensor such as a gyro may be used, or the camera shake amount may be calculated by a correlation calculation of two image data.

メタデータ作成部104は、実施データ104aとして、図6に示した例では、各撮影の際の露出条件、すなわちシャッタ速度SSとして1/100秒、ISO感度6400を生成する。ここで生成されたメタデータ(実施データ104a)は、記録部105内にメタデータ105cとして画像データに関連付けて記録される。   In the example shown in FIG. 6, the metadata creation unit 104 generates an ISO sensitivity 6400 of 1/100 seconds as an exposure condition for each photographing, that is, a shutter speed SS in the example illustrated in FIG. 6. The metadata (execution data 104a) generated here is recorded in the recording unit 105 as metadata 105c in association with the image data.

図2ないし図6を用いて説明したように、本実施形態においては、複数コマの露出を行い、この露出によって取得した画像データを用いて画像合成部103dが画像合成を行っている。メタデータ生成部104は、画像合成の種類に応じて、実施データ104aまたは参考データ104dのいずれかを作成し、記録部105内にメタデータ105cを記録するようにしている。   As described with reference to FIGS. 2 to 6, in this embodiment, a plurality of frames are exposed, and the image composition unit 103d performs image composition using image data acquired by the exposure. The metadata generation unit 104 creates either the execution data 104 a or the reference data 104 d according to the type of image composition, and records the metadata 105 c in the recording unit 105.

メタデータの作成にあたっては、複数コマのそれぞれのコマでの露出条件が同じ場合には、実際に制御した露出条件を実施データ104aとして作成している。一方、複数コマのそれぞれのコマでの露出条件が異なる場合には、合成処理によって生成された画像に相当する露出条件を算出して、この露出条件を参考データ104bとして作成している。   When the metadata is created, if the exposure conditions in each of the plurality of frames are the same, the actually controlled exposure condition is created as the execution data 104a. On the other hand, when the exposure conditions of each frame of the plurality of frames are different, an exposure condition corresponding to the image generated by the composition process is calculated, and this exposure condition is created as reference data 104b.

また、メタデータとして、メタデータ作成部104は、合成処理を区別するための情報も作成し、この合成処理を区別するための情報を記録部105に記録するようにしてもよい。この場合、メタデータ作成部104で作成したデータが、実施データであるか、参考データであるかを区別できるような情報であってもよい。   As metadata, the metadata creation unit 104 may also create information for distinguishing the composition processing, and record the information for distinguishing the composition processing in the recording unit 105. In this case, the data created by the metadata creation unit 104 may be information that can distinguish whether the data is implementation data or reference data.

なお、画像合成処理としては、上述した深度合成処理、超解像合成処理、HDR合成処理、NR合成処理、電子手振れ防止合成処理に限らず、例えば、比較明合成処理、比較暗合成処理、平均加算合成処理、ライブバルブ合成処理等、複数コマの画像データを用いて合成処理を行うものであればよい。この場合、例えば、比較明合成処理の場合には、トータルの露出時間を実施データとしてメタデータとして記録すればよい。   The image composition process is not limited to the above-described depth composition process, super-resolution composition process, HDR composition process, NR composition process, and electronic image stabilization composition process. For example, the comparative light composition process, the comparative dark composition process, the average What is necessary is just to perform composition processing using image data of a plurality of frames, such as addition composition processing and live valve composition processing. In this case, for example, in the case of comparatively bright combination processing, the total exposure time may be recorded as metadata as implementation data.

次に、図7および図8に示すフローチャートを用いて、本実施形態におけるカメラ制御について説明する。このフローチャートは、制御部101内のCPUがメモリに記憶されたプログラムに従って、カメラ内の各部を制御することにより、実行する。   Next, camera control in the present embodiment will be described using the flowcharts shown in FIGS. This flowchart is executed by the CPU in the control unit 101 controlling each unit in the camera according to a program stored in the memory.

カメラ制御のフローに入ると、まず、撮影モードか否かを判定する(S1)。カメラのモードは、ユーザが再生モード等他のモードに設定しなければ、デフォルトとして撮影モードに設定されている。このステップでは、モードの設定状態を検出し、その検出結果に基づいて判定する。   If the camera control flow is entered, it is first determined whether or not the camera is in shooting mode (S1). The camera mode is set to the shooting mode as a default unless the user sets another mode such as a playback mode. In this step, the mode setting state is detected and a determination is made based on the detection result.

ステップS1における判定の結果、撮影モードであれば、次に、スルー画用撮像を行う(S3)。ここでは、撮像素子102bによって取得された画像データを取得する。この画像データは所定のフレームレートで繰り返し取得される。   If the result of determination in step S <b> 1 is shooting mode, next, through-image imaging is performed (S <b> 3). Here, the image data acquired by the image sensor 102b is acquired. This image data is repeatedly acquired at a predetermined frame rate.

スルー画用撮像を行うと、次に、スルー画表示、ピント合わせ、標準露出を設定する(S5)。ステップS3において取得した画像データに対して、画像処理部103においてスルー画表示用の画像処理を施し、この処理された画像データに基づいて、表示部106にスルー画表示を行う。スルー画表示は所定のフレームレートで更新される。また、取得した画像データのコントラスト値を算出し、このコントラスト値がピークとなるように、光学系102aのフォーカスレンズの位置を調整する。なお、ピント合わせは、前述のコントラストAF以外にも位相差AF等、他の方法によって行ってもよい。また、画像データから輝度情報等を算出し、この輝度情報に基づいて、シャッタ速度、絞り値、ISO感度等の標準露出を設定する。   Once the through image has been picked up, next, through image display, focusing, and standard exposure are set (S5). The image processing unit 103 performs image processing for through image display on the image data acquired in step S3, and displays the through image on the display unit 106 based on the processed image data. The through image display is updated at a predetermined frame rate. Further, the contrast value of the acquired image data is calculated, and the position of the focus lens of the optical system 102a is adjusted so that the contrast value reaches a peak. The focusing may be performed by other methods such as phase difference AF in addition to the above-described contrast AF. Also, luminance information and the like are calculated from the image data, and standard exposures such as a shutter speed, an aperture value, and ISO sensitivity are set based on the luminance information.

続いて、モード切換があったか否かを判定する(S7)。操作部107の操作部材によってモードの切換を行うことができる。ここでのモードは、前述した撮影モード、再生モードの他、深度合成モード、超解像合成モード、HDR合成モード等、複数コマの露出を行い、合成処理を行うモードを含む。   Subsequently, it is determined whether or not the mode has been switched (S7). The mode can be switched by the operation member of the operation unit 107. The modes here include modes in which a plurality of frames are exposed and combined, such as a depth combining mode, a super-resolution combining mode, and an HDR combining mode, in addition to the above-described shooting mode and playback mode.

ステップS7における判定の結果、モード切換があった場合には、モード設定を行う(S9)。ここでは、操作部107によるモードに切換に応じて、モード制御部101bにおけるモードを設定する。   If the result of determination in step S7 is that there is mode switching, mode setting is performed (S9). Here, the mode in the mode control unit 101b is set according to switching to the mode by the operation unit 107.

ステップS9においてモード設定を行うと、またはステップS7における判定の結果、モード切換がなかった場合には、次に、レリーズスイッチが操作されたか否かを判定する(S11)。レリーズ釦が操作されると、レリーズスイッチの状態が変化する。ここでは、レリーズスイッチの状態変化に基づいて判定する。この判定の結果、レリーズスイッチが操作されていない場合には、ステップS1に戻る。   If mode setting is performed in step S9 or if the result of determination in step S7 is that there is no mode switching, it is next determined whether or not the release switch has been operated (S11). When the release button is operated, the state of the release switch changes. Here, the determination is made based on the state change of the release switch. If the result of this determination is that the release switch has not been operated, processing returns to step S1.

ステップS11における判定の結果、レリーズスイッチが操作された場合には、次に、露出変更を伴うモードか否かを判定する(S13)。ここでは、最初に設定されているモード、またはステップS9において設定されたモードに基づいて判定する。露出変更を伴うモードとしては、例えば、HDR合成モードがある。また、露出変更を伴わないモードとしては、例えば、深度合成モード、超解像合成モード、ノイズリダクション(NR)モード、電子手ブレ防止モード等がある。   If the result of determination in step S11 is that the release switch has been operated, it is next determined whether or not the mode involves exposure change (S13). Here, the determination is made based on the first set mode or the mode set in step S9. As a mode involving exposure change, for example, there is an HDR synthesis mode. Examples of modes that do not involve exposure change include a depth synthesis mode, a super-resolution synthesis mode, a noise reduction (NR) mode, and an electronic camera shake prevention mode.

ステップS13における判定の結果、露出変更を伴うモードの場合には、標準露出から長秒時、短秒時に変更して複数枚の撮影を行う(S15)。この場合は、複数コマの撮影を行う際に、それぞれのコマで露出条件が異なる場合である。例えば、図4を用いて説明したHDR合成モードでは、1コマ目では標準露出(ステップS5において設定)よりも露出オーバとなるように、シャッタ速度を長秒時に設定し、2コマ目では標準露出よりも露出アンダとなるようにシャッタ速度を短秒時に設定し、撮影している。   As a result of the determination in step S13, in the case of a mode involving exposure change, a plurality of images are taken after changing from standard exposure to long time and short time (S15). In this case, when shooting a plurality of frames, the exposure conditions are different for each frame. For example, in the HDR composition mode described with reference to FIG. 4, the shutter speed is set to a long time so that the first frame is overexposed than the standard exposure (set in step S5), and the standard exposure is set for the second frame. In this case, the shutter speed is set to a short time so that the exposure undershoots.

続いて、画像合成を行う(S17)。ここでは、ステップS15において取得した複数の画像データに対して、画像合成部103dが設定されているモードに従って、画像合成処理を施す。   Subsequently, image composition is performed (S17). Here, image composition processing is performed on the plurality of image data acquired in step S15 according to the mode in which the image composition unit 103d is set.

画像合成を行うと、次に、画像データとメタデータ(参考露出)を記録する(S19)。ここでは、メタデータ作成部104が参考データ104bを作成する。参考データ104bは、前述したように、画像合成によって生成された画像の効果に相当する露出条件を示すデータである。この作成された参考データ104bは、ステップS17において合成された画像データに関連付けられて記録部105の画像データ105bおよびメタデータ105cとして記録される。データの記録を行うと、ステップS1に戻る。   Once image composition has been carried out, next, image data and metadata (reference exposure) are recorded (S19). Here, the metadata creation unit 104 creates the reference data 104b. As described above, the reference data 104b is data indicating an exposure condition corresponding to the effect of an image generated by image synthesis. The created reference data 104b is recorded as image data 105b and metadata 105c of the recording unit 105 in association with the image data synthesized in step S17. When data is recorded, the process returns to step S1.

ステップS13に戻り、このステップでの判定の結果、露出変更を伴うモードでない場合には、標準露出でピントや撮像素子位置を変更して複数枚の撮影を行う(S21)。ここでは、設定されているモードに応じた処理を行う。例えば、深度合成モードが設定されている場合には、ピント位置を変更し、変更した複数のピント位置でそれぞれ撮影を行う。また、超解像合成モードが設定されている場合には、撮像素子102bの位置を変更し、変更した複数の位置でそれぞれ撮影を行う。このときの露出条件は、ステップS5において算出された標準露出である。   Returning to step S13, if the result of determination in this step is that the mode is not accompanied by exposure change, a plurality of images are taken with the standard exposure changed in focus and image sensor position (S21). Here, processing according to the set mode is performed. For example, when the depth synthesis mode is set, the focus position is changed, and shooting is performed at each of the changed focus positions. Further, when the super-resolution synthesis mode is set, the position of the image sensor 102b is changed, and shooting is performed at each of the changed positions. The exposure condition at this time is the standard exposure calculated in step S5.

続いて、画像合成を行う(S23)。ここでは、ステップS21において取得した複数の画像データに対して、画像合成部103dが設定されているモードに従って、画像合成処理を施す。   Subsequently, image composition is performed (S23). Here, the image composition processing is performed on the plurality of image data acquired in step S21 according to the mode in which the image composition unit 103d is set.

画像合成を行うと、次に、画像データとメタデータ(実施露出)を記録する(S25)。ここでは、メタデータ作成部104が実施データ104aを作成する。実施データ104aは、前述したように、複数コマの撮影を行った際の各コマにおいて実際に露出制御された露出条件を示すデータである。この作成された実施データ104aは、ステップS23において合成された画像データに関連付けられて記録部105の画像データ105bおよびメタデータ105cとして記録される。データの記録を行うと、ステップS1に戻る。   Once image composition has been performed, image data and metadata (implemented exposure) are recorded (S25). Here, the metadata creation unit 104 creates the implementation data 104a. As described above, the execution data 104a is data indicating an exposure condition in which exposure control is actually performed in each frame when shooting a plurality of frames. The created implementation data 104a is recorded as image data 105b and metadata 105c of the recording unit 105 in association with the image data synthesized in step S23. When data is recorded, the process returns to step S1.

ステップS1に戻り、この判定の結果、撮影モードでない場合には、再生モードか否かを判定する(S31)。ユーザが操作部107の再生釦等の操作部材を操作することにより、再生モードを設定することができる。このステップにおける判定の結果、再生モードでない場合には、その他のモードに移行する。   Returning to step S1, if the result of this determination is that it is not in shooting mode, it is determined whether or not it is in playback mode (S31). When the user operates an operation member such as a playback button of the operation unit 107, the playback mode can be set. If the result of determination in this step is not playback mode, transition to other modes is made.

ステップS31における判定の結果、再生モードの場合には、次に、アイコン一覧を表示する(S33)。ここでは、記録部105に記録されている画像データのサムネイルデータに基づいて、記録画像のアイコンを表示部106に表示する。   If the result of determination in step S31 is playback mode, an icon list is then displayed (S33). Here, based on the thumbnail data of the image data recorded in the recording unit 105, the icon of the recorded image is displayed on the display unit 106.

次に、画像が選択されたか否かについて判定する(S35)。ユーザは表示部106に表示された一覧表示されたアイコンの中から拡大表示したいアイコンをタッチ、または十字釦等によって選択する。このステップでは、ユーザによってアイコンが選択されたか否かを判定する。   Next, it is determined whether an image has been selected (S35). The user touches an icon desired to be enlarged from the icons displayed in the list displayed on the display unit 106, or selects the icon with a cross button or the like. In this step, it is determined whether or not an icon has been selected by the user.

ステップS35における判定の結果、画像が選択されていない場合には、戻るか否かを判定する(S37)。ユーザが再生モードを終了したい場合には、操作部107の内の戻る釦を操作するか、戻るアイコンをクリックする(総称して戻る操作)。ここでは、戻る操作がなされたか否かに基づいて判定する。この判定の結果、戻る操作がなされていない場合には、ステップS33に戻る。一方、戻る操作がなされた場合には、ステップS1に戻る。   If the result of determination in step S35 is that no image has been selected, it is determined whether or not to return (S37). When the user wants to end the reproduction mode, the user operates the return button in the operation unit 107 or clicks the return icon (collectively returning operation). Here, the determination is made based on whether or not a return operation has been performed. If the result of this determination is that no return operation has been performed, processing returns to step S33. On the other hand, if a return operation has been performed, the process returns to step S1.

ステップS35における判定の結果、画像が選択された場合には、拡大表示を行う(S39)。ここでは、選択されたアイコンの画像データを読出し、表示部106に拡大表示を行う。   If the result of determination in step S35 is that an image has been selected, enlargement display is performed (S39). Here, the image data of the selected icon is read out and enlarged on the display unit 106.

拡大表示を行うと、次に、詳細表示を行うか否かの判定を行う(S41)。ユーザが選択した画像に関連付けて記録されているメタデータを表示させたい場合には、操作部107の内の詳細釦を操作するか又は詳細アイコンをクリックする(総称して詳細表示操作)。ここでは、詳細表示操作がなされたか否かに基づいて判定する。   Once the enlarged display is performed, it is next determined whether or not the detailed display is performed (S41). When it is desired to display metadata recorded in association with the image selected by the user, a detail button in the operation unit 107 is operated or a detail icon is clicked (collectively, a detailed display operation). Here, the determination is made based on whether or not a detailed display operation has been performed.

ステップS41における判定の結果、詳細表示操作がなされていた場合には、メタデータを表示する(S43)。ここでは、画像データに関連付けて記録されたメタデータ105cを記録部105から読み出し、表示部106に表示する。表示例については図9を用いて後述する。   If the result of determination in step S41 is that a detail display operation has been performed, metadata is displayed (S43). Here, the metadata 105 c recorded in association with the image data is read from the recording unit 105 and displayed on the display unit 106. A display example will be described later with reference to FIG.

ステップS43においてメタデータを表示すると、またはステップS41における判定の結果、詳細表示操作がなされていない場合には、外部送信か否かを判定する(S45)。ユーザが記録部105に記録された画像データを、インターネット等を介して、無線また有線通信等によって送信した場合には、操作部107の送信釦を操作し、または送信アイコンをタッチ操作する(総称して外部送信操作)。このステップでは、外部送信操作がなされたか否かに基づいて判定する。   If metadata is displayed in step S43 or if the result of determination in step S41 is that a detailed display operation has not been performed, it is determined whether or not external transmission is performed (S45). When the user transmits the image data recorded in the recording unit 105 via the Internet or the like by wireless or wired communication, the user operates the transmission button of the operation unit 107 or touches the transmission icon (generic name). And external send operation). In this step, the determination is made based on whether or not an external transmission operation has been performed.

ステップS45における判定の結果、外部送信操作がなされた場合には、設定先に送信する(S47)。ここでは、設定された送信先に、ステップS35において選択された画像の画像データおよび関連付けされたメタデータを送信する。送信先では、受信した画像データに基づく画像およびメタデータを表示させることができる。この時の表示例については図9を用いて後述する。   If the result of determination in step S45 is that an external transmission operation has been made, transmission is made to the setting destination (S47). Here, the image data of the image selected in step S35 and the associated metadata are transmitted to the set transmission destination. At the transmission destination, an image and metadata based on the received image data can be displayed. A display example at this time will be described later with reference to FIG.

ステップS47において設定先に送信すると、またはステップS45における判定の結果、外部送信操作がされていない場合には、戻るか否かを判定する(S49)。ユーザが再生モードを終了したい場合には、戻る操作を行う。ここでは、この戻る操作がなされたか否かに基づいて判定する。この判定の結果、戻る操作がなされていない場合には、ステップS39に戻る。一方、戻る操作がなされた場合には、ステップS1に戻る。   If transmission is made to the setting destination in step S47, or if the result of determination in step S45 is that there is no external transmission operation, it is determined whether or not to return (S49). When the user wants to end the playback mode, a return operation is performed. Here, the determination is made based on whether or not this return operation has been performed. If the result of this determination is that no return operation has been performed, processing returns to step S39. On the other hand, if a return operation has been performed, the process returns to step S1.

このように、本実施形態におけるカメラ制御のフローにおいては、レリーズ操作がなされた際に、露出変更を伴うモードが設定されている場合には(S13Yes)、メタデータとして、参考データを作成し記録している(S19)。一方、露出変更を伴わないモードが設定されている場合には(S13No)、メタデータとして実施データを作成し記録している(S25)。すなわち、露出変更を伴わない場合には実際に露出制御された制御値が記録され、一方、露出変更を伴う場合には合成画像の効果に応じた露出制御値が記録されることから、ユーザがメタデータを見た際に、どのような制御がなされたかが分かり易いという効果がある。   As described above, in the camera control flow in the present embodiment, when a mode involving exposure change is set when a release operation is performed (Yes in S13), reference data is created and recorded as metadata. (S19). On the other hand, when a mode without exposure change is set (No in S13), the execution data is created and recorded as metadata (S25). That is, when the exposure change is not accompanied, the control value that is actually controlled for exposure is recorded, whereas when the exposure change is accompanied, the exposure control value according to the effect of the composite image is recorded. When the metadata is viewed, there is an effect that it is easy to understand what control is performed.

なお、ステップS19およびS25においては、メタデータとしては、参考データおよび実施データのいずれか一方のみを作成し、記録するようにしていた。いずれか一方のみを記録することにより、メタデータ105cの容量を小さくすることができ、また単純化することにより、処理が容易となる。しかし、ステップS19およびS25において、参考データおよび実施データの両方を作成し、これをメタデータ105cとして記録するようにしてもよい。この場合には、例えば、メタデータの記録領域の内、Exif規格のメーカノートのように、製造元が記録可能としている領域を利用してもよい。   In steps S19 and S25, only one of reference data and implementation data is created and recorded as metadata. By recording only one of them, the capacity of the metadata 105c can be reduced, and simplification simplifies the processing. However, in steps S19 and S25, both reference data and implementation data may be created and recorded as metadata 105c. In this case, for example, an area that can be recorded by the manufacturer, such as an Exif standard manufacturer note, may be used in the metadata recording area.

次に、図9を用いて、メタデータの表示について説明する。この表示は、図8のステップS43、およびステップS47で送信された送信先で行われる。   Next, display of metadata will be described with reference to FIG. This display is performed at the transmission destination transmitted in step S43 and step S47 of FIG.

図9(a)は、図2で示したような深度合成モードが設定された場合の表示例である。この場合には、深度合成された画像43と、実施データとして記録されたシャッタ速度および絞り値を示すメタデータが表示される。図9(b)は、図3で示したような超解像合成モードが設定された場合の表示例である。この場合には、深度合成された画像46と、実施データとして記録されたシャッタ速度および絞り値を示すメタデータが表示される。   FIG. 9A shows a display example when the depth synthesis mode as shown in FIG. 2 is set. In this case, the depth-combined image 43 and metadata indicating the shutter speed and aperture value recorded as the execution data are displayed. FIG. 9B is a display example when the super-resolution synthesis mode as shown in FIG. 3 is set. In this case, the depth-combined image 46 and metadata indicating the shutter speed and aperture value recorded as the execution data are displayed.

図9(c)は、図4で示したようなHDR合成モードが設定された場合の表示例である。この場合には、HDR合成された画像49と、参考データとして記録されたシャッタ速度および絞り値を示すメタデータが表示される。なお、図9(c)においては、参考データであることを明示するために、「参考」が表示される。このために、メタデータ105cに、参考データであることを示す情報も併せて記録しておく。   FIG. 9C is a display example when the HDR synthesis mode as shown in FIG. 4 is set. In this case, HDR combined image 49 and metadata indicating shutter speed and aperture value recorded as reference data are displayed. In FIG. 9C, “reference” is displayed to clearly indicate that the data is reference data. For this purpose, information indicating reference data is also recorded in the metadata 105c.

このように、記録された画像に加えて、メタデータを表示することにより、撮影画像の露出条件を確認することが簡単にできる。また、この表示の際に、露出変更を伴わない場合には各コマを撮影した際の実際の露出値が表示され、露出変更を伴う場合には、合成画像の効果に相当する露出値が表示されるようしたので、分かり易い表示となる。撮影者以外の他のユーザは、このメタデータに基づく露出値を参考にすることにより、類似の写真を撮影することが容易となる。   Thus, by displaying metadata in addition to the recorded image, it is possible to easily check the exposure condition of the captured image. In this display, if there is no exposure change, the actual exposure value when each frame was shot is displayed. If there is an exposure change, an exposure value corresponding to the effect of the composite image is displayed. As a result, the display is easy to understand. Other users other than the photographer can easily take a similar picture by referring to the exposure value based on the metadata.

なお、図9においては、参考データの場合のみ、「参考」と表示したが、この表示を消去しておいてもよい。また、実施データの場合にも、実施データであることを明示するような表示を付加してもよい。また、図9においては、メタデータを画像の外側で表示していたが、画像に重畳して表示するようにしてもよい。   In FIG. 9, “reference” is displayed only in the case of reference data, but this display may be deleted. Also, in the case of implementation data, a display that clearly indicates the implementation data may be added. In FIG. 9, the metadata is displayed outside the image, but may be displayed superimposed on the image.

以上説明したように、本発明の一実施形態においては、同一の対象物に対し、撮影条件を切り換えて複数の撮影画像データを取得し(例えば、図7のS3参照)、異なる露出条件で取得した複数の撮影画像データを用いて第1の画像合成を行い(例えば、図7のS17参照)、同一の露出条件、かつ露出以外の条件を異ならせて取得した複数の撮影画像データを用いて第2の画像合成を行い(例えば、図7のS23参照)、第1画像合成または第2画像合成によって合成された合成画像データを表すメタデータを作成する際に、第1の画像合成を行う場合と、第2の画像合成を行う場合で、異なる露出条件を示す単一のメタデータを作成する(例えば、図2(d)、図3(d)、図4(d)、図7のS19、S25参照)。このため、画像合成処理に応じて適切な情報を作成し、画像データに関連付けを行うことができる。すなわち、複数の撮影画像データを取得する際に、露出変更を行っている場合と露出変更を行わない場合で、異なる露出条件を示すようにしており、画像合成処理に応じた情報の表示が可能となる。   As described above, in one embodiment of the present invention, a plurality of captured image data are acquired by switching the imaging conditions for the same object (for example, see S3 in FIG. 7) and acquired under different exposure conditions. The first image composition is performed using the plurality of photographed image data (see, for example, S17 in FIG. 7), and the plurality of photographed image data acquired by changing the same exposure conditions and conditions other than the exposure are used. The second image composition is performed (see, for example, S23 in FIG. 7), and the first image composition is performed when creating the metadata representing the first image composition or the composite image data synthesized by the second image composition. And a case where the second image composition is performed and single metadata indicating different exposure conditions is created (for example, FIG. 2D, FIG. 3D, FIG. 4D, and FIG. 7). (See S19 and S25). For this reason, it is possible to create appropriate information according to the image composition processing and associate it with the image data. In other words, when acquiring multiple shot image data, different exposure conditions are shown depending on whether exposure is changed or not, and information can be displayed according to the image composition process. It becomes.

なお、本発明の一実施形態においては、モードが露出変更を伴うか否かを判定し(図7のS13参照)、この結果に応じて、メタデータとして参考データまたは実施データを記録するようにしている。しかし、モードが露出変更を伴うか否かに限らず、例えば、撮影距離の変更を伴うか否か等、撮影条件に応じて、メタデータの種類を適宜決定するようにしてもよい。この場合には、画像データ取得部は、同一の対象物に対し、第1の撮影条件を切り換えて複数の撮影画像データを取得可能であり、第1画像合成部は画像データ取得部によって、第2の撮影条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行い、第2画像合成部は画像データ取得部によって、第2の撮影条件を変えず、第3の撮影条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行い、メタデータ作成部は、第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成する際に、第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる撮影条件を示す単一のメタデータを作成すればよい。   In one embodiment of the present invention, it is determined whether or not the mode involves exposure change (see S13 in FIG. 7), and reference data or implementation data is recorded as metadata according to the result. ing. However, the type of metadata may be appropriately determined according to the shooting conditions, for example, whether or not the mode involves exposure change, for example, whether or not the shooting distance is changed. In this case, the image data acquisition unit can acquire a plurality of captured image data by switching the first imaging condition with respect to the same object, and the first image composition unit can be obtained by the image data acquisition unit. A plurality of photographed image data is obtained by changing the photographing conditions of 2 and the first image composition is performed using the obtained plurality of photographed image data. Without changing the shooting conditions, the third shooting conditions are changed to obtain a plurality of shot image data, and the second image composition is performed using the acquired shot image data. When creating metadata representing the synthesized image data synthesized by the first image synthesizing unit or the second image synthesizing unit, the case where the first image synthesis is performed is different from the case where the second image synthesis is performed. Single showing shooting conditions Metadata can be created.

また、本発明の一実施形態においては、ピント変更部102c、露出変更部102d、撮像位置変更部102e等は、CPUおよびメモリに記憶したプログラムによってソフトウエアでその機能を実現してもよく、また制御部101内のCPUとメモリに記憶したプログラムでその機能を実現するようにしても勿論かまわない。   In one embodiment of the present invention, the focus changing unit 102c, the exposure changing unit 102d, the imaging position changing unit 102e, and the like may realize their functions by software using programs stored in the CPU and the memory. Of course, the function may be realized by the CPU stored in the control unit 101 and the program stored in the memory.

また、本発明の一実施形態においては、撮像制御部103b、撮影制御変更部103c等の各部の機能の全部または一部をCPU(Central Processing Unit)と周辺回路およびプログラムによって実現していたが、DSP(Digital Signal Processor)等のプログラムコードで実行される回路で実現するようにしてもよく、ヴェリログ(Verilog)によって記述されたプログラム言語に基づいて生成されたゲート回路等のハードウエア構成でもよく、またハードウエア回路によって実行するようにしても勿論かまわない。   In one embodiment of the present invention, all or part of the functions of the respective units such as the imaging control unit 103b and the imaging control change unit 103c are realized by a CPU (Central Processing Unit), a peripheral circuit, and a program. It may be realized by a circuit executed by a program code such as a DSP (Digital Signal Processor), or may be a hardware configuration such as a gate circuit generated based on a program language described by Verilog, Of course, it may be executed by a hardware circuit.

また、本発明の一実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもミラーレスカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話、スマートフォン、携帯情報端末、パーソナルコンピュータ(PC)、タブレット型コンピュータ、ゲーム機器等に内蔵されるカメラ、医療用カメラ、顕微鏡等の科学機器用のカメラ、自動車搭載用カメラ、監視用カメラでも構わない。いずれにしても、画像データと共にメタデータを記録する撮影のための機器であれば、本発明を適用することができる。   In the embodiment of the present invention, the digital camera is used as the photographing device. However, the camera may be a digital single lens reflex camera, a mirrorless camera, a compact digital camera, a video camera, a movie A camera for moving images such as a camera may be used, and a scientific device such as a mobile phone, a smartphone, a personal digital assistant (PC), a personal computer (PC), a tablet computer, a game machine, etc., a medical camera, a microscope, etc. It may be a camera for a car, a camera mounted on a car or a camera for monitoring. In any case, the present invention can be applied to any device for photographing that records metadata together with image data.

また、本明細書において説明した技術のうち、主にフローチャートで説明した制御に関しては、プログラムで設定可能であることが多く、記録媒体や記録部に収められる場合もある。この記録媒体、記録部への記録の仕方は、製品出荷時に記録してもよく、配布された記録媒体を利用してもよく、インターネットを介してダウンロードしたものでもよい。   Of the techniques described in this specification, the control mainly described in the flowchart is often settable by a program and may be stored in a recording medium or a recording unit. The recording method for the recording medium and the recording unit may be recorded at the time of product shipment, may be a distributed recording medium, or may be downloaded via the Internet.

また、本発明の一実施形態においては、フローチャートを用いて、本実施形態における動作を説明したが、処理手順は、順番を変えてもよく、また、いずれかのステップを省略してもよく、ステップを追加してもよく、さらに各ステップ内における具体的な処理内容を変更してもよい。   Further, in one embodiment of the present invention, the operation in the present embodiment has been described using a flowchart. However, the processing procedure may be changed in order, or any step may be omitted. Steps may be added, and specific processing contents in each step may be changed.

また、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず」、「次に」等の順番を表現する言葉を用いて説明したとしても、特に説明していない箇所では、この順で実施することが必須であることを意味するものではない。   In addition, regarding the operation flow in the claims, the specification, and the drawings, even if it is described using words expressing the order such as “first”, “next”, etc. It does not mean that it is essential to implement in this order.

本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

10・・・ユーザ、20・・・カメラ、101・・・制御部、101b・・・モード制御部、101c・・・表示制御部、101d・・・通信制御部、102・・・撮像部、102a・・・光学系、102b・・・撮像素子、102c・・・ピント変更部、102d・・・露出変更部、102e・・・撮像位置変更部、103・・・画像処理部、103b・・・撮像制御部、103c・・・撮影制御変更部、103d・・・画像合成部、103e・・・記録制御部、104・・・メタデータ作成部、104a・・・実施データ、104b・・・参考データ、105・・・記録部、105a・・・画像データ、105b・・・メタデータ、106・・・表示部、107・・・操作部、108・・・通信部 DESCRIPTION OF SYMBOLS 10 ... User, 20 ... Camera, 101 ... Control part, 101b ... Mode control part, 101c ... Display control part, 101d ... Communication control part, 102 ... Imaging part, 102a ... Optical system, 102b ... Image sensor, 102c ... Focus change unit, 102d ... Exposure change unit, 102e ... Imaging position change unit, 103 ... Image processing unit, 103b ... Image capturing control unit, 103c ... Shooting control changing unit, 103d ... Image composition unit, 103e ... Recording control unit, 104 ... Metadata creation unit, 104a ... Execution data, 104b ... Reference data, 105 ... recording unit, 105a ... image data, 105b ... metadata, 106 ... display unit, 107 ... operation unit, 108 ... communication unit

Claims (7)

同一の対象物に対し、撮影条件を切り換えて複数の撮影画像データを取得可能な画像データ取得部と、
上記画像データ取得部によって、異なる露出条件で複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行う第1画像合成部と、
上記画像データ取得部によって、同一の露出条件、かつ露出以外の条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行う第2画像合成部と、
上記第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成するメタデータ作成部と、
を有し、
上記メタデータ作成部は、上記第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる露出条件を示す単一のメタデータを作成することを特徴とする画像処理装置。
An image data acquisition unit capable of acquiring a plurality of captured image data by switching the imaging conditions for the same object;
A first image composition unit that obtains a plurality of captured image data under different exposure conditions by the image data acquisition unit, and performs a first image composition using the obtained plurality of captured image data;
The image data obtaining unit obtains a plurality of photographed image data by changing the same exposure condition and a condition other than the exposure, and performs a second image composition using the obtained plurality of photographed image data. An image composition unit;
A metadata creating unit that creates metadata representing the synthesized image data synthesized by the first image synthesizing unit or the second image synthesizing unit;
Have
The metadata creation unit creates single metadata indicating different exposure conditions when performing the first image composition and when performing the second image composition. .
上記メタデータ作成部は、上記第1の画像合成と上記第2の画像合成を区別する情報を作成することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the metadata creating unit creates information for distinguishing the first image composition from the second image composition. 上記メタデータ作成部は、上記第1の画像合成を行った場合には上記画像データ取得部における露出条件に基づいて参考メタデータを作成し、上記第2の画像合成を行った場合には上記画像データ取得部における実際の露出条件を実施メタデータとすることを特徴とする請求項2に記載の画像処理装置。   The metadata creation unit creates reference metadata based on the exposure condition in the image data acquisition unit when the first image composition is performed, and the metadata creation unit when the second image composition is performed. The image processing apparatus according to claim 2, wherein actual exposure conditions in the image data acquisition unit are set as implementation metadata. 上記メタデータ作成部は、上記第1の画像合成部によって第1の画像合成を行った場合には、上記第1の画像合成によって生成された合成画像の露出効果に相当するメタデータを作成することを特徴とする請求項1に記載の画像処理装置。   The metadata creation unit creates metadata corresponding to the exposure effect of the composite image generated by the first image composition when the first image composition unit performs the first image composition. The image processing apparatus according to claim 1. 上記メタデータ作成部は、上記第2の画像合成部によって第2の画像合成を行った場合には、上記画像データ取得部で1コマの画像データを取得する際の露出条件に基づいてメタデータを作成することを特徴とする請求項1に記載の画像処理装置。   In the case where the second image composition unit performs the second image composition, the metadata generation unit performs metadata based on an exposure condition when the image data acquisition unit obtains one frame of image data. The image processing apparatus according to claim 1, wherein: 同一の対象物に対し、第1の撮影条件を切り換えて複数の撮影画像データを取得可能な画像データ取得部と、
上記画像データ取得部によって、第2の撮影条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行う第1画像合成部と、
上記画像データ取得部によって、第2の撮影条件を変えず、第3の撮影条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行う第2画像合成部と、
上記第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成するメタデータ作成部と、
を有し、
上記メタデータ作成部は、上記第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる撮影条件を示す単一のメタデータを作成することを特徴とする画像処理装置。
An image data acquisition unit capable of acquiring a plurality of captured image data by switching the first imaging condition for the same object;
A first image composition unit that obtains a plurality of photographed image data by changing the second photographing condition by the image data obtaining unit, and performs a first image composition using the obtained plurality of photographed image data;
The image data acquisition unit acquires a plurality of captured image data by changing the third imaging condition without changing the second imaging condition, and uses the acquired plurality of captured image data to generate a second image composition. A second image composition unit for performing
A metadata creating unit that creates metadata representing the synthesized image data synthesized by the first image synthesizing unit or the second image synthesizing unit;
Have
The metadata creation unit creates single metadata indicating different shooting conditions when performing the first image composition and when performing the second image composition. .
同一の対象物に対し、撮影条件を切り換えて複数の撮影画像データを取得し、
異なる露出条件で取得した複数の撮影画像データを用いて第1の画像合成を行い、
同一の露出条件、かつ露出以外の条件を異ならせて取得した複数の撮影画像データを用いて第2の画像合成を行い、
上記第1画像合成または第2画像合成によって合成された合成画像データを表すメタデータを作成する際に、上記第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる露出条件を示す単一のメタデータを作成する、
ことを特徴とする画像処理方法。
For the same object, switch the shooting conditions to obtain multiple shot image data,
A first image composition is performed using a plurality of photographed image data acquired under different exposure conditions,
A second image composition is performed using a plurality of photographed image data acquired with the same exposure condition and different conditions other than exposure,
When creating metadata representing the synthesized image data synthesized by the first image synthesis or the second image synthesis, there is a difference between the case of performing the first image synthesis and the case of performing the second image synthesis. Create a single piece of metadata describing exposure conditions,
An image processing method.
JP2017150607A 2017-08-03 2017-08-03 Image processing device and image processing method Active JP6909669B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017150607A JP6909669B2 (en) 2017-08-03 2017-08-03 Image processing device and image processing method
PCT/JP2018/028709 WO2019026923A1 (en) 2017-08-03 2018-07-31 Image processing device, image processing method, image processing program, and image capture device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017150607A JP6909669B2 (en) 2017-08-03 2017-08-03 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2019029954A true JP2019029954A (en) 2019-02-21
JP6909669B2 JP6909669B2 (en) 2021-07-28

Family

ID=65476729

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017150607A Active JP6909669B2 (en) 2017-08-03 2017-08-03 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP6909669B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020150527A (en) * 2019-03-15 2020-09-17 キヤノン株式会社 Image processing apparatus, image processing method, computer program and storage medium
JP2020150517A (en) * 2019-03-15 2020-09-17 キヤノン株式会社 Image processing apparatus, image processing method, computer program and storage medium
WO2020189510A1 (en) * 2019-03-15 2020-09-24 キヤノン株式会社 Image processing device, image processing method, computer program, and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009232385A (en) * 2008-03-25 2009-10-08 Sony Corp Image processing apparatus, image processing method, and program
JP2014103630A (en) * 2012-11-22 2014-06-05 Olympus Imaging Corp Imaging apparatus and image communication method
JP2015162851A (en) * 2014-02-28 2015-09-07 オリンパス株式会社 imaging device, imaging method, and program
JP2017011676A (en) * 2015-06-25 2017-01-12 キヤノン株式会社 Image-processing apparatus and image-processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009232385A (en) * 2008-03-25 2009-10-08 Sony Corp Image processing apparatus, image processing method, and program
JP2014103630A (en) * 2012-11-22 2014-06-05 Olympus Imaging Corp Imaging apparatus and image communication method
JP2015162851A (en) * 2014-02-28 2015-09-07 オリンパス株式会社 imaging device, imaging method, and program
JP2017011676A (en) * 2015-06-25 2017-01-12 キヤノン株式会社 Image-processing apparatus and image-processing method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020150527A (en) * 2019-03-15 2020-09-17 キヤノン株式会社 Image processing apparatus, image processing method, computer program and storage medium
JP2020150517A (en) * 2019-03-15 2020-09-17 キヤノン株式会社 Image processing apparatus, image processing method, computer program and storage medium
WO2020189510A1 (en) * 2019-03-15 2020-09-24 キヤノン株式会社 Image processing device, image processing method, computer program, and storage medium
CN113615156A (en) * 2019-03-15 2021-11-05 佳能株式会社 Image processing apparatus, image processing method, computer program, and storage medium
JP7395258B2 (en) 2019-03-15 2023-12-11 キヤノン株式会社 Image processing device, image processing method, computer program and storage medium
JP7395259B2 (en) 2019-03-15 2023-12-11 キヤノン株式会社 Image processing device, image processing method, computer program and storage medium

Also Published As

Publication number Publication date
JP6909669B2 (en) 2021-07-28

Similar Documents

Publication Publication Date Title
JP6325885B2 (en) Imaging apparatus, imaging method, and program
JP2020162139A (en) Imaging apparatus and setting screen of the same
US9049363B2 (en) Digital photographing apparatus, method of controlling the same, and computer-readable storage medium
US9807293B2 (en) Imaging device capable of combing a plurality of image data, and control method for imaging device
JP4513903B2 (en) Image processing apparatus and image processing method
JP2017220892A (en) Image processing device and image processing method
JP6325841B2 (en) Imaging apparatus, imaging method, and program
JP2016092609A (en) Imaging device and control method of imaging device
JP5400486B2 (en) Imaging apparatus and imaging method
JP6717690B2 (en) Imaging device, imaging method, and program
KR20120002834A (en) Image pickup apparatus for providing reference image and method for providing reference image thereof
JP6909669B2 (en) Image processing device and image processing method
JP2018157479A (en) Image pickup apparatus, control method of the same, and program
JP6300076B2 (en) Imaging apparatus, imaging method, and program
JP2015012481A (en) Image processing device
US8547454B2 (en) Digital image photographing apparatuses and methods of controlling the same to provide location information
JP6706167B2 (en) Imaging device, image synthesizing method, and program
JP2019036885A (en) Image processing apparatus and image processing method
JP2015231192A (en) Imaging device and exposure control method of imaging device
JP2015162851A (en) imaging device, imaging method, and program
JP2006128754A (en) Imaging apparatus and imaging method
JP2019047436A (en) Image processing device, image processing method, image processing program, and imaging device
JP2012239078A (en) Photographing device
JP2011197090A (en) Photographing support program and imaging apparatus
JP2012204952A (en) Exposure control apparatus, and camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210705

R151 Written notification of patent or utility model registration

Ref document number: 6909669

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151