JP2019029954A - Image processing system and image processing method - Google Patents
Image processing system and image processing method Download PDFInfo
- Publication number
- JP2019029954A JP2019029954A JP2017150607A JP2017150607A JP2019029954A JP 2019029954 A JP2019029954 A JP 2019029954A JP 2017150607 A JP2017150607 A JP 2017150607A JP 2017150607 A JP2017150607 A JP 2017150607A JP 2019029954 A JP2019029954 A JP 2019029954A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- unit
- metadata
- composition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、撮影の際に複数コマの画像データを取得し、この取得した画像データに合成処理を施し、この合成処理を施した画像データを記録することが可能な画像処理装置および画像処理方法に関する。 The present invention provides an image processing apparatus and an image processing method capable of acquiring image data of a plurality of frames at the time of shooting, performing a synthesis process on the acquired image data, and recording the image data subjected to the synthesis process About.
撮影の際に複数コマの画像データを取得し、この取得した複数の画像データに合成処理を施し記録することは従来より種々提案されている、例えば、特許文献1には、撮像方向を変位させながら複数のフレー画像データを取得し、この取得した画像データにパノラマ画像処理を施し、パノラマ画像データを生成する画像処理装置が記載されている。この画像処理装置では、全周パノラマ画像と判断される場合に、パノラマ画像データと全周パノラマ画像であることを示す情報を関連付けて記録されている。
Various proposals have been made in the past to acquire image data of a plurality of frames at the time of shooting, and to perform synthesis processing on the acquired plurality of image data. For example,
また、写真用のメタデータを含む画像ファイルフォーマットとしてエクスチェンジャブル・イメージ・ファイル・フォーマット(Exif)が使用されている。このExif情報として、シャッタ速度、絞り値(F値)、ISO感度等の情報が画像データと共に記録される。 Further, the exchangeable image file format (Exif) is used as an image file format including metadata for photographs. As this Exif information, information such as shutter speed, aperture value (F value), ISO sensitivity and the like is recorded together with the image data.
複数コマの画像データに対する合成処理は、パノラマ合成処理以外にも、深度合成処理、超高解像合成処理、ハイダイナミックレンジ合成処理(HDR)等、種々の処理がある。これらの合成処理の際に使用される撮影コマの画像データの露出条件は同じ場合もあれば、異なる場合もある。前述の特許文献1には、露出条件の記録については何ら記載されていない。これらの露出条件等の撮影条件の記録の仕方によっては、不適切な記録となってしまう。
In addition to panorama synthesis processing, there are various types of processing such as depth synthesis processing, ultra-high resolution synthesis processing, and high dynamic range synthesis processing (HDR) in addition to panorama synthesis processing. The exposure conditions of the image data of the shooting frames used in these combining processes may be the same or different.
本発明は、このような事情を鑑みてなされたものであり、画像合成処理に応じて適切な情報を作成し、画像データに関連付けを行うようにした画像処理装置および画像処理方法を提供することを目的とする。 The present invention has been made in view of such circumstances, and provides an image processing apparatus and an image processing method that create appropriate information in accordance with image composition processing and associate it with image data. With the goal.
上記目的を達成するため第1の発明に係る画像処理装置は、同一の対象物に対し、撮影条件を切り換えて複数の撮影画像データを取得可能な画像データ取得部と、上記画像データ取得部によって、異なる露出条件で複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行う第1画像合成部と、上記画像データ取得部によって、同一の露出条件、かつ露出以外の条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行う第2画像合成部と、上記第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成するメタデータ作成部と、を有し、上記メタデータ作成部は、上記第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる露出条件を示す単一のメタデータを作成する。 In order to achieve the above object, an image processing apparatus according to a first aspect of the present invention includes an image data acquisition unit capable of acquiring a plurality of captured image data by switching shooting conditions for the same object, and the image data acquisition unit. A first image composition unit that acquires a plurality of captured image data under different exposure conditions and performs a first image composition using the acquired plurality of captured image data, and the same exposure condition by the image data acquisition unit. A second image composition unit that obtains a plurality of captured image data under different conditions other than exposure, and performs a second image composition using the obtained plurality of photographed image data; and the first image composition unit Or a metadata creating unit that creates metadata representing the synthesized image data synthesized by the second image synthesizing unit, wherein the metadata creating unit performs the first image synthesis, In the case of performing the second image synthesis, to create a single metadata indicating the different exposure conditions.
第2の発明に係る画像処理装置は、上記第1の発明において、上記メタデータ作成部は、上記第1の画像合成と上記第2の画像合成を区別する情報を作成する。
第3の発明に係る画像処理装置は、上記第2の発明において、上記メタデータ作成部は、上記第1の画像合成を行った場合には上記画像データ取得部における露出条件に基づいて参考メタデータを作成し、上記第2の画像合成を行った場合には上記画像データ取得部における実際の露出条件を実施メタデータとする。
In the image processing apparatus according to a second invention, in the first invention, the metadata creating unit creates information for distinguishing the first image composition from the second image composition.
An image processing apparatus according to a third invention is the image processing apparatus according to the second invention, wherein, when the first image composition is performed, the metadata generation unit performs a reference meta-data based on an exposure condition in the image data acquisition unit. When data is created and the second image composition is performed, actual exposure conditions in the image data acquisition unit are set as execution metadata.
第4の発明に係る画像処理装置は、上記第1の発明において、上記メタデータ作成部は、上記第1の画像合成部によって第1の画像合成を行った場合には、上記第1の画像合成によって生成された合成画像の露出効果に相当するメタデータを作成する。 An image processing apparatus according to a fourth invention is the image processing apparatus according to the first invention, wherein the metadata creation unit performs the first image composition when the first image composition unit performs the first image composition. Metadata corresponding to the exposure effect of the composite image generated by the composition is created.
第5の発明に係る画像処理装置は、上記第1の発明において、上記メタデータ作成部は、上記第2の画像合成部によって第2の画像合成を行った場合には、上記画像データ取得部で1コマの画像データを取得する際の露出条件に基づいてメタデータを作成する。 The image processing apparatus according to a fifth aspect of the present invention is the image processing apparatus according to the first aspect, wherein the metadata generation unit performs the second image composition by the second image composition unit. The metadata is created based on the exposure condition when acquiring the image data of one frame.
第6の発明に係る画像処理装置は、同一の対象物に対し、第1の撮影条件を切り換えて複数の撮影画像データを取得可能な画像データ取得部と、上記画像データ取得部によって、第2の撮影条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行う第1画像合成部と、上記画像データ取得部によって、第2の撮影条件を変えず、第3の撮影条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行う第2画像合成部と、上記第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成するメタデータ作成部と、を有し、上記メタデータ作成部は、上記第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる撮影条件を示す単一のメタデータを作成する。 An image processing apparatus according to a sixth aspect of the present invention includes an image data acquisition unit capable of acquiring a plurality of captured image data by switching the first imaging condition for the same object, and the second image data acquisition unit. A plurality of captured image data is acquired under different imaging conditions, and a first image composition unit that performs first image composition using the acquired plurality of captured image data, and the image data acquisition unit A second image composition unit that obtains a plurality of photographed image data by changing the third photography condition without changing the photographing conditions, and performs a second image composition using the obtained plurality of photographed image data; A metadata creating unit that creates metadata representing the synthesized image data synthesized by the first image synthesizing unit or the second image synthesizing unit, and the metadata creating unit performs the first image synthesis. If you do and above In case of the second image synthesis, to create a single metadata indicating the different imaging conditions.
第7の発明に係る画像処理方法は、同一の対象物に対し、撮影条件を切り換えて複数の撮影画像データを取得し、異なる露出条件で取得した複数の撮影画像データを用いて第1の画像合成を行い、同一の露出条件、かつ露出以外の条件を異ならせて取得した複数の撮影画像データを用いて第2の画像合成を行い、上記第1画像合成または第2画像合成によって合成された合成画像データを表すメタデータを作成する際に、上記第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる露出条件を示す単一のメタデータを作成する。 In the image processing method according to the seventh aspect of the present invention, a plurality of photographed image data is acquired by switching photographing conditions for the same object, and the first image is obtained using the plurality of photographed image data obtained under different exposure conditions. The second image composition is performed using a plurality of photographed image data obtained by combining and obtaining the same exposure condition and different conditions other than the exposure, and the first image composition or the second image composition is performed. When creating metadata representing composite image data, single metadata indicating different exposure conditions is created when the first image composition is performed and when the second image composition is performed.
本発明によれば、画像合成処理に応じて適切な情報を作成し、画像データに関連付けを行うようにした画像処理装置および画像処理方法を提供することができる。 According to the present invention, it is possible to provide an image processing apparatus and an image processing method in which appropriate information is created in accordance with image synthesis processing and associated with image data.
以下、本発明の一実施形態としてデジタルカメラ(以下、「カメラ」と称す)に適用した例について説明する。このカメラは、撮像部を有し、この撮像部によって被写体像を画像データに変換し、この変換された画像データに基づいて、被写体像を本体の背面に配置した表示部にスルー画表示する。撮影者はスルー画表示を観察することにより、構図やシャッタタイミングを決定する。レリーズ操作時には、画像データが記録媒体に記録される。記録媒体に記録された画像データは、再生モードを選択すると、表示部に再生表示することができる。 Hereinafter, an example applied to a digital camera (hereinafter referred to as “camera”) as an embodiment of the present invention will be described. This camera has an imaging unit, and the subject image is converted into image data by the imaging unit, and based on the converted image data, the subject image is displayed as a through image on a display unit disposed on the back of the main body. The photographer determines the composition and shutter timing by observing the through image display. During the release operation, image data is recorded on the recording medium. The image data recorded on the recording medium can be reproduced and displayed on the display unit when the reproduction mode is selected.
また、本実施形態に係るカメラは、複数コマの画像データを取得し、この複数コマの画像データを用いて行う合成処理を行うことができる。この場合、複数の異なる露出条件で画像データを得て行う第1の画像合成処理と、同じ露出条件で複数の画像データを得て行う第2の画像合成処理とで、異なる露出条件(撮影条件)を示す単一のメタデータを生成し、画像データに関連付けて記録するようにしている。 In addition, the camera according to the present embodiment can acquire image data of a plurality of frames and perform a synthesis process performed using the image data of the plurality of frames. In this case, different exposure conditions (imaging conditions) are used in the first image composition processing performed by obtaining image data under a plurality of different exposure conditions and the second image composition processing performed by obtaining a plurality of image data under the same exposure conditions. ) Is generated and recorded in association with the image data.
図1は、本実施形態に係るカメラの主として電気的構成を示すブロック図である。このカメラは、制御部101、撮像部102、記録部105、表示部106、操作部107、通信部108を有する。
FIG. 1 is a block diagram mainly showing an electrical configuration of the camera according to the present embodiment. This camera includes a
撮像部102は、光学系102a、撮像素子102b、ピント変更部102c、露出変更部102d、および撮像位置変更部102dを有する。なお、ピント変更部102c、露出変更部102dおよび撮像位置変更部102dは、設定可能なモードに応じて、適宜、省略してもよい。
The
光学系102aは、フォーカスレンズ等の光学レンズを有し、被写体像を形成することができる。光学102aのピント位置は、後述するピント変更部102cによって移動制御される。
The
撮像素子102bは、CCDイメージセンサ、CMOSイメーセンサ等のイメージセンサを有する。この撮像素子102bは、光学系102aによって被写体像が形成される位置付近に配置され、撮像制御部103bからの制御に従って、被写体像を画像データに変換し出力する。撮像素子102bは、同一の対象物に対し、撮影条件(第1の撮影条件)を切り換えて複数の撮影画像データを取得可能な画像データ取得部として機能する。
The
ピント変更部102cは、光学系102aの内のフォーカスレンズを光軸方向に移動する駆動機構および駆動回路を有する。ピント変更部102cは、制御部103からのピント合わせ信号に基づいてフォーカスレンズを合焦位置に移動させる。また、ピント変更部102cは、深度合成モードが設定された場合に、フォーカスレンズを所定の異なるピント位置に順次移動させ、それぞれのピント位置で画像データが取得される。
The
露出変更部102dは、撮影時の露出条件を変更させる。露出変更部102dは、絞りおよび絞り制御回路、シャッタおよびシャッタ制御回路、ISO感度変更回路等の内の少なくとも1つを有する。すなわち、露出変更部102dは、絞り値、シャッタ速度値、およびISO感度の内の少なくとも1つを変更することにより、露出条件を変更する。また、露出変更部102dは、ハイダイナミックレンジ合成(HDR)モードが設定された場合に、所定の異なる露出条件で順次撮影が行われ、それぞれの露出条件で画像データが取得される。
The
撮像位置変更部102eは、撮像素子102bを光軸と直交する面内で移動させる移動機構および移動回路を有する。撮像位置変更部102eは、超高解像合成モードが設定された場合に、撮像素子102bを光軸と直交する面内で所定の異なる撮像位置に撮像素子102bを順次移動させ、それぞれの撮像位置で画像データが取得される。
The imaging
制御部101は、CPU(Central Processing Unit)とその周辺回路およびメモリ等を有したASIC(Application Specific Integrated Circuit)で構成される。CPUはメモリに記憶されたプログラムに従って、カメラ100内の各部を制御することによってカメラの全体を実行する。制御部101は、モード制御部101b、表示制御部101c、通信制御部101d、および画像処理部103を有する。これらの各部の一部の機能は、CPUとプログラムによって実現され、また他の一部の機能は周辺回路によって実現される。
The
モード制御部101bは、ユーザによって設定されたモード等に応じて、撮像制御部103b、撮影制御変更部103c、画像合成部103d等による制御を実行させる。
The
表示制御部101cは、表示部106における表示の制御を行う。表示としては、撮像素子102bによって取得された画像データに基づくスルー画表示、記録部105に記録された画像の再生画像表示、メニュー画面表示等、種々の表示がある。また、記録部105に記録された際の画像表示の際には、画像データに関連して記録されているメタデータの表示を行うようにしてもよい(後述する図9参照)。
The
通信制御部101dは、通信部108を介して行う外部との無線(赤外線等を含む)通信、または有線通信の制御を行う。本実施形態においては、後述するように、記録部105に記録された画像データ等は外部装置に通信可能である(図8のS45、S47参照)。
The
画像処理部103は、撮像制御部103b、撮影制御変更部103c、画像合成部103d、記録制御部103e、メタデータ作成部104を有する。
The
撮像制御部103bは、撮像素子102bから画像データの取得の制御を行う。すなわち、撮像制御部103bは、撮像素子102bの光電変換時間や画像データの読出しを制御し、読み出した画像データを制御部101に出力させる。
The
撮影制御変更部103cは、深度合成処理モード、ハイダイナミックレンジ合成処理(HDR)モード、超高解像合成処理モード等の設定されたモードに応じて、ピント変更部102b、露出変更部102c、撮像位置変更部102dを制御し、設定されたモードに応じた撮影制御を実行する。
The imaging control changing unit 103c is configured to change the
画像合成部103dは、画像処理回路等を有し、深度合成処理モード、ハイダイナミックレンジ合成処理(HDR)モード、超高解像合成処理モード、ノイズリダクションモード、電子手振れ防止モード等に応じて、取得した複数コマの画像データに対して、画像処理を施す。深度合成処理モード、ハイダイナミックレンジ合成処理(HDR)モード、超高解像合成処理モードにおける画像処理については、図2ないし図4を用いて後述する。
The
画像合成部103dは、画像データ取得部によって、異なる露出条件で複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行う第1画像合成部として機能する。画像合成部103dは、画像データ取得部によって、同一の露出条件、かつ露出以外の条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行う第2画像合成部として機能する。
The
記録制御部103eは、画像処理部103によって画像処理が施された画像データを、記録部105に記録する際の記録制御を行う。後述するように、画像データは、メタデータ作成部104によって生成されたメタデータと関連付けられ、記録部105に記録される。画像合成モードに応じて、実施データまたは参考データのいずれかが関連付けられる(図7のS13、S19、S25参照)。
The
メタデータ作成部104は、画像データに付随した情報を生成する。本実施形態においては、メタデータ作成部104は実施データ作成部104aと参考データ作成部104bを有する。実施データ作成部104aは、複数コマの画像データを取得した際の実際の露出条件に基づいてメタデータを生成する。参考データ作成部104bは、複数コマの画像データを取得した際の実際の複数の露出条件から参考となる露出条件を算出し、この露出条件に基づいてメタデータを生成する。
The
メタデータ作成部104は、第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成するメタデータ作成部として機能する。また、このメタデータ作成部は、第1の画像合成を行う場合と、第2の画像合成を行う場合で、異なる露出条件(撮影条件)を示す単一のメタデータを作成する(例えば、図2(d)、図3(d)、図4(d)、図7のS19、S25参照)。
The
メタデータ作成部は、第1の画像合成と上記第2の画像合成を区別する情報を作成する(例えば、図9(c)参照)。また、メタデータ作成部は、第1の画像合成を行った場合には画像データ取得部における露出条件に基づいて参考メタデータを作成し(例えば、図7のS19参照)、第2の画像合成を行った場合には画像データ取得部における実際の露出条件を実施メタデータとする(例えば、図7のS25参照)。 The metadata creation unit creates information for distinguishing between the first image composition and the second image composition (see, for example, FIG. 9C). Further, when the first image composition is performed, the metadata creation unit creates reference metadata based on the exposure condition in the image data acquisition unit (see, for example, S19 in FIG. 7), and the second image composition. When performing the above, the actual exposure condition in the image data acquisition unit is set as the implementation metadata (see, for example, S25 in FIG. 7).
メタデータ作成部は、第1の画像合成部によって第1の画像合成を行った場合には、第1の画像合成によって生成された合成画像の露出効果に相当するメタデータを作成する(例えば、図4、図7のS19参照)。メタデータ作成部は、第2の画像合成部によって第2の画像合成を行った場合には、画像データ取得部で1コマの画像データを取得する際の露出条件に基づいてメタデータを作成する(例えば、図2、図3、図7のS25参照)。 When the first image composition unit performs the first image composition, the metadata creation unit creates metadata corresponding to the exposure effect of the composite image generated by the first image composition (for example, (See S19 in FIGS. 4 and 7). When the second image composition unit performs the second image composition, the metadata creation unit creates the metadata based on the exposure condition when the image data acquisition unit obtains one frame of image data. (For example, see S25 in FIGS. 2, 3, and 7).
記録部105は、電気的に書き換え可能な不揮発性メモリを有する記録媒体である。記録部105には、画像データ105bと、この画像データ105bに関連付けられたメタデータ105cが記録可能である。記録部105に記録される画像データやメタデータ等は、例えば、Exif等の規格に従って記録される。
The
表示部106は、カメラの背面等に配置された表示ディスプレイを有し、表示ディスプレイには、スルー画表示、再生表示、メニュー画面等、種々の画像が表示される。
The
操作部107は、電源釦、レリーズ釦、再生釦、OK釦、タッチパネル等の種々の操作部材を有する。電源釦、レリーズ釦、再生釦、OK釦等の操作に応じてオンとなるスイッチを有し、操作部107は、スイッチの操作状態を検出し、制御部101に出力する。
The
通信部108は、外部機器やインターネット等と通信を行うための通信回路を有する。通信部108を介して、撮像素子102bによって取得され、記録部105に記録されたメタデータ付き画像データが外部に送信される。
The
次に、図2を用いて、深度合成モードが設定された場合の撮影方法と画像合成方法について説明する。図2(a)は、ユーザ10がカメラ20を用いて被写体30を、深度合成モードで撮影する様子を示す。被写体30の上部30aと下部30bは、カメラ20からの距離が異なるため、上部30aと下部30bの両方にピントを合わせるのは困難な場合がある。このような状況で、深度合成モードが設定されると、ピントの位置を変えながら複数コマを撮影し、撮影された画像内の部分を比較し、ピントの合った部分を合成してピントの合った画像を作成する。
Next, a photographing method and an image composition method when the depth composition mode is set will be described with reference to FIG. FIG. 2A shows a state in which the
図2(b)は、撮影タイミングとピントの合っている部分を示す。時刻t0において、レリーズ釦が操作され撮影が開始すると時刻t1〜t2の間に1回目の撮影がなされる。この時のシャッタ速度SSは1/100秒であり、また撮影画像の内、黒塗りの部分F1(上部30aに相当)にピント合っている。撮影が終わると、時刻t2〜t3の間に、ピント変更部102cによって光学系102aのピント位置を移動させる。
FIG. 2B shows a portion where the shooting timing is in focus. At time t0, when the release button is operated and shooting is started, the first shooting is performed between times t1 and t2. The shutter speed SS at this time is 1/100 second, and it is focused on the black portion F1 (corresponding to the
続いて、時刻t4〜t4の間に2回目の撮影がなされる。この時のシャッタ速度SSも1/100秒であり、また撮影画像の内、黒塗りの部分F2(下部30bに相当)にピント合っている。1回目および2回目に撮影された2つの撮影画像に深度合成処理を施すと、黒塗りの部分F1およびF2(上部30aおよび下部30b)にピントが合った画像を得ることができる。
Subsequently, the second shooting is performed between times t4 and t4. The shutter speed SS at this time is also 1/100 second, and is focused on a black portion F2 (corresponding to the
図2(c)において、画像41は1枚目の撮影画像を示し、この撮影により被写体30の上部30a(図2(b)のF1参照)にピントを合わせた画像データを取得する。次に、画像42は2枚目の撮影画像を示し、この撮影により被写体30の下部30b(図2(b)のF2参照)にピントを合わせた画像データを取得する。
In FIG. 2C, an image 41 indicates the first photographed image, and image data obtained by focusing on the
画像41および画像42の画像データを取得すると、次に、画像合成部103dは、両画像データを深度合成する。この深度合成処理は、画像ごとに、画像の先鋭度(コントラスト)の高い領域を抽出し、先鋭度が高い領域の画像データを合成する。これにより、上部30aおよび下部30bの両方にピントがあった画像43の画像データを生成する。深度合成処理は、単写よりも深い被写界深度の画像データを生成することができる。
When the image data of the image 41 and the image 42 are acquired, the
また、画像合成部103dが深度合成処理によって画像データを生成すると、メタデータ生成部104は、メタデータも生成する。深度合成を行うための1回目の撮影と、2回目の撮影と、露出は2回行われている。1回目と2回目の露出条件はいずれもシャッタ速度SSが1/100秒であり、絞りはFNo.16で同一であるので、露出データは、実施データとなる。そこで、メタデータ44としては、図2(d)に示すように、この共通の露出条件である実施データを記録し、参考データは記録しない。他のユーザは、この実施データを使用することにより、深度合成画像と同様の明るさの画像を得ることができる。
Further, when the
次に、図3を用いて、超解像合成モードが設定された場合の撮影方法と画像合成方法について説明する。図3(a)は、ユーザ10がカメラ20を用いて被写体31を、超解像合成モードで撮影する様子を示す。被写体31は、遠方にあり、通常の焦点距離で撮影しても被写体31は小さく写り、拡大表示(拡大プリント)しても十分な解像度の表示とはならない。
Next, with reference to FIG. 3, a photographing method and an image composition method when the super-resolution composition mode is set will be described. FIG. 3A shows a state in which the
このような図3(a)に示す状況で、超解像合成モードが設定されると、撮像位置変更部102eは、撮像素子102bの位置を変えながら複数コマを撮影する。そして、1回目の撮影で取得した画像における画素と画素の中間位置を、2回目から4回目の撮影において撮像素子102bの位置を変えて撮影した画像を用いて、補間することにより、解像度の高い画像を合成する。超解像合成で画像45が生成されると、図3(b)に示すように、拡大画像46の解像度は高く、拡大鑑賞が可能となる。
In the situation shown in FIG. 3A, when the super-resolution synthesis mode is set, the imaging
図3(c)は、超解像撮影時のタイミングチャートと撮像素子102bの移動を示す。時刻t0において、レリーズ釦が操作され撮影が開始すると時刻t11〜t12の間に1回目の撮影がなされる。この時のシャッタ速度SSは1/100秒であり、また撮像素子102bは位置P1にある。時刻t12において撮影が終わると、撮像位置変更部102eは、時刻t13までの間に撮像素子102bを位置P2まで移動させる。
FIG. 3C shows a timing chart at the time of super-resolution imaging and movement of the
次に、時刻t13〜t14の間に2回目の撮影がなされる。この時のシャッタ速度SSは1/100秒であり、また撮像素子102bは位置P2にある。このタイミングにおいて位置P1は破線で示しており、撮像素子102bの位置P2は図3(c)に示すように、右下に所定量だけ移動している。この所定量は、画素間隔(画素ピッチ)よりも小さな値(例えば、画素ピッチの1/2)である。時刻t14において撮影が終わると、撮像位置変更部102eは、時刻t15までの間に撮像素子102bを位置P3まで移動させる。
Next, the second shooting is performed between times t13 and t14. The shutter speed SS at this time is 1/100 second, and the
次に、時刻t15〜t16の間に3回目の撮影がなされる。この時のシャッタ速度SSは1/100秒であり、また撮像素子102bは位置P3にある。このタイミングにおいて位置P1は破線で示しており、撮像素子102bの位置P3は図3(c)に示すように、右上に所定量だけ移動している。
Next, the third shooting is performed between times t15 and t16. The shutter speed SS at this time is 1/100 second, and the
以後、時刻t17〜t18において4回目の撮影がなされ、時刻t19〜t20において5回目の撮影がなされる。これらタイミングでもシャッタ速度SSは1/100秒であり、また撮像素子102bは位置P4、P5と、位置P1よりも左下、左上に所定量だけ移動している。
Thereafter, the fourth shooting is performed from time t17 to t18, and the fifth shooting is performed from time t19 to t20. Even at these timings, the shutter speed SS is 1/100 second, and the
複数の画像データを取得すると、画像合成部103dは超解像合成処理を施す。すなわち、撮像素子102bの位置P1を基準として、画素が所定量移動した際の画像データを用いて、画素間の画素値を補間する。例えば、撮像素子102bの移動量が画素ピッチの1/2であれば、画素の前後左右1/2ピッチずれた位置の画素値を補間することができ、画素数が4倍相当の高解像の画像データとなる。
When a plurality of image data are acquired, the
画像合成部103dが超解像合成処理によって画像データを生成すると、メタデータ生成部104は、メタデータも生成する。超解像合成を行うために、露出は5回行われている。1回目から5回目の露出条件はいずれもシャッタ速度SSが1/100秒であり、絞りはFNo.16で同一であるので、露出データは、実施データとなる。そこで、メタデータ47としては、図3(d)に示すように、この共通の露出条件である実施データを記録し、参考データは記録しない。
When the
すなわち、複数枚の画像データが生成されると、画像合成部103dは、超解像合成処理を施し、超解像成画像データを生成する。メタデータ作成部104は、実施データ104aとして、図3に示した例では、1回の撮影の際の露出条件であるシャッタ速度SS=1/100秒、また絞り値FNo.16を生成する。ここで生成されたメタデータ(実施データ104a)は、記録部105内にメタデータ105cとして画像データに関連付けて記録される。他のユーザは、この実施データを使用することにより、超解像合成画像と同様の明るさの画像を得ることができる。
That is, when a plurality of pieces of image data are generated, the
次に、図4を用いて、ハイダイナミックレンジ合成処理(HDR)モードが設定された場合の撮影方法と画像合成方法について説明する。図4(a)は、ユーザ10がカメラ20を用いて、被写体である人物32および桜の木33を撮影する様子を示す。これらの被写体は晴天の下にあり、桜の木33は非常に明るく、一方人物は逆光のため非常に暗くなっている。すなわち、撮像素子102bが明暗を再現できる範囲が非常に広くないと、両方の被写体の明暗を適正に表現することができない。このような場合に、HDRモードに設定して撮影を行う。
Next, a shooting method and an image composition method when the high dynamic range composition processing (HDR) mode is set will be described with reference to FIG. FIG. 4A shows a situation where the
図4(c)は、HDRモードに設定されたときの撮像のタイミングチャートである。図4(a)の状態で撮影する際の標準露出(適正露出)、すなわち、被写体32、33の両方を考慮した標準露出は、シャッタ速度1/100秒、絞り値FNo.16とする。HDRモードが設定されると、この標準露出よりオーバ露光となる露出条件で1回目の撮影を行い、続いて、アンダ露光となる露出条件で2回目の撮影を行う。
FIG. 4C is a timing chart of imaging when the HDR mode is set. The standard exposure (appropriate exposure) at the time of shooting in the state of FIG. 4A, that is, the standard exposure considering both the
本実施形態においては、図4(c)に示すように、時刻t0において、レリーズ釦が操作され撮影が開始すると時刻t21〜t23の間に1回目の撮影がなされる。この時のシャッタ速度SSは1/100秒の2倍の露出時間(SSは2/100秒)である。続いて、時刻t24〜t25の間に2回目の撮影がなされる。このときのシャッタ速度SSは1/100の1/2倍の露出時間(SSは1/200秒)である。なお、光学系102aのピント位置は1回目と2回目の撮影において同じである。
In the present embodiment, as shown in FIG. 4C, when the release button is operated and shooting starts at time t0, the first shooting is performed between times t21 and t23. The shutter speed SS at this time is an exposure time twice as long as 1/100 second (SS is 2/100 second). Subsequently, the second shooting is performed between times t24 and t25. The shutter speed SS at this time is an exposure time (SS is 1/200 second) that is ½
1回目の撮影で取得した露出オーバの画像データと、2回目の撮影で取得した露出アンダの画像データを用いて、画像合成部103dはHDR合成を行い、暗部から明部までの明暗の再現に優れた画像データを生成する。このHDR合成にあたっては、それぞれの画像(被写体)で適正露出となっている部分を繋ぎ合わせることによって、画面全体で白飛びや黒つぶれがない画像データを合成する。
Using the overexposure image data acquired in the first shooting and the underexposure image data acquired in the second shooting, the
図4(b)は、HDR合成処理を施さない画像48と、HDR合成処理を施した画像49を示す。HDR合成処理を施していない画像48は、桜の木33は白飛びとなっており、一方人物32は黒つぶれとなっている。これに対して、HDR合成処理を施した画像49は、桜の木33および人物32は適正に明暗が表現されている。
FIG. 4B shows an
HDR合成処理を施した画像49のメタデータ50は、図4(b)に示すように、シャッタ速度SS=1/100秒、絞りFNo.=16である。前述したように、HDR合成モードでは、露出は2回行われているが、各々異なる露出量であることから、実施データ(SS:1/50、1/200)104aを記録せず、参考データ(SS:1/100)104bを記録する(図4(d)参照)。
As shown in FIG. 4B, the
すなわち、複数枚の画像データが生成されると、画像合成部103dは、HDR合成処理を施し、HDR合成画像データを生成する。メタデータ作成部104は、参考データ104bとして、図4に示した例では、HDR合成によって生成された画像の露出条件に相当するシャッタ速度SS=1/100秒、また絞り値FNo.16を生成する。ここで生成されたメタデータ(参考データ104b)は、記録部105内にメタデータ105cとして画像データに関連付けて記録される。この参考データで撮影すれば、色表現などを除けば、同様の明るさの画像を得ることができる。
That is, when a plurality of pieces of image data are generated, the
次に、図5を用いて、ノイズリダクションモード(NRモード)が設定された場合の撮影タイミングについて説明する。ISO感度を高感度に設定すると、画像にノイズが増加し、見苦しくなる。そこで、同一の露出条件で複数コマの撮影を行い、各画像の対応する画素の出力値を平均化することにより、ノイズを低減させた画像を合成することができる。 Next, the imaging timing when the noise reduction mode (NR mode) is set will be described with reference to FIG. When the ISO sensitivity is set to a high sensitivity, noise increases in the image and it becomes difficult to see. Therefore, by shooting a plurality of frames under the same exposure condition and averaging the output values of the corresponding pixels of each image, it is possible to synthesize an image with reduced noise.
NRモードが設定された状態で、レリーズ釦が操作され撮影が開始すると、時刻t31〜t32、t33〜t34、t35〜t36、t37〜t38、t39〜t40の間で、撮影が行われる。このときの露出条件は、いずれもシャッタ速度SSは1/100秒であり、ISO感度は6400である。なお、NRモードの際の撮影回数は、適宜、最適な回数を選択すればよい。 When the release button is operated and shooting is started in the state where the NR mode is set, shooting is performed between times t31 to t32, t33 to t34, t35 to t36, t37 to t38, and t39 to t40. As for the exposure conditions at this time, the shutter speed SS is 1/100 second and the ISO sensitivity is 6400. It should be noted that the optimum number of times of photographing in the NR mode may be selected as appropriate.
複数枚の画像データが生成されると、画像合成部103dは、対応する画素の画素値の平均値を算出し、NR合成画像データを生成する。メタデータ作成部104は、実施データ104aとして、図5に示した例では、各撮影の際の露出条件、すなわちシャッタ速度SSとして1/100秒、ISO感度6400を生成する。ここで生成されたメタデータ(実施データ104a)は、記録部105内にメタデータ105cとして画像データに関連付けて記録される。
When a plurality of pieces of image data are generated, the
次に、図6を用いて、電子手振れ防止モードが設定された場合の撮影タイミングについて説明する。カメラを保持するユーザの手が振れていると、画像がぶれてしまい、見苦しい画像となってしまう。そこで、同一の露出条件で複数コマの撮影を行い、各画像の画素位置を手振れ量に応じてずらし、対応する画素の出力値を平均化することにより、手振れを軽減させた画像データを得ることができる。 Next, with reference to FIG. 6, the shooting timing when the electronic camera shake prevention mode is set will be described. If the hand of the user holding the camera is shaking, the image will be blurred, resulting in an unsightly image. Therefore, by taking multiple frames under the same exposure conditions, shifting the pixel position of each image according to the amount of camera shake, and averaging the output values of the corresponding pixels to obtain image data with reduced camera shake Can do.
電子手振れ防止モードが設定された状態で、レリーズ釦が操作され撮影が開始すると、時刻t41〜t42、t43〜t44、t45〜t46、t47〜t48、t49〜t50の間で、撮影が行われる。このときの露出条件は、いずれもシャッタ速度SSは1/100秒であり、ISO感度は6400である。なお、手振れ量が所定量以上の場合には(図6の時刻t43〜t44の撮影参照)、手振れ補正が困難な場合が多いので、手振れ防止合成処理の対象画像から除外する。電子手振れ防止モードの際の撮影回数は、適宜、最適な回数を選択すればよい。 When the release button is operated and shooting is started in a state where the electronic camera shake prevention mode is set, shooting is performed between times t41 to t42, t43 to t44, t45 to t46, t47 to t48, and t49 to t50. As for the exposure conditions at this time, the shutter speed SS is 1/100 second and the ISO sensitivity is 6400. If the amount of camera shake is equal to or greater than the predetermined amount (see the shooting at times t43 to t44 in FIG. 6), camera shake correction is often difficult, and is excluded from the target image for camera shake prevention synthesis processing. What is necessary is just to select the optimal frequency | count suitably as the frequency | count of imaging | photography in the electronic camera shake prevention mode.
複数枚の画像データが生成されると、画像合成部103dは、手振れ量を検出し、この手振れ量に応じて、画素の位置をずらして、対応する画素の画素値の平均値を算出し、電子手振れ防止画像データを生成する。手振れ量は、ジャイロ等のセンサ出力を利用してもよく、また2つの画像データの相関演算により手振れ量を算出してもよい。
When a plurality of pieces of image data are generated, the
メタデータ作成部104は、実施データ104aとして、図6に示した例では、各撮影の際の露出条件、すなわちシャッタ速度SSとして1/100秒、ISO感度6400を生成する。ここで生成されたメタデータ(実施データ104a)は、記録部105内にメタデータ105cとして画像データに関連付けて記録される。
In the example shown in FIG. 6, the
図2ないし図6を用いて説明したように、本実施形態においては、複数コマの露出を行い、この露出によって取得した画像データを用いて画像合成部103dが画像合成を行っている。メタデータ生成部104は、画像合成の種類に応じて、実施データ104aまたは参考データ104dのいずれかを作成し、記録部105内にメタデータ105cを記録するようにしている。
As described with reference to FIGS. 2 to 6, in this embodiment, a plurality of frames are exposed, and the
メタデータの作成にあたっては、複数コマのそれぞれのコマでの露出条件が同じ場合には、実際に制御した露出条件を実施データ104aとして作成している。一方、複数コマのそれぞれのコマでの露出条件が異なる場合には、合成処理によって生成された画像に相当する露出条件を算出して、この露出条件を参考データ104bとして作成している。
When the metadata is created, if the exposure conditions in each of the plurality of frames are the same, the actually controlled exposure condition is created as the
また、メタデータとして、メタデータ作成部104は、合成処理を区別するための情報も作成し、この合成処理を区別するための情報を記録部105に記録するようにしてもよい。この場合、メタデータ作成部104で作成したデータが、実施データであるか、参考データであるかを区別できるような情報であってもよい。
As metadata, the
なお、画像合成処理としては、上述した深度合成処理、超解像合成処理、HDR合成処理、NR合成処理、電子手振れ防止合成処理に限らず、例えば、比較明合成処理、比較暗合成処理、平均加算合成処理、ライブバルブ合成処理等、複数コマの画像データを用いて合成処理を行うものであればよい。この場合、例えば、比較明合成処理の場合には、トータルの露出時間を実施データとしてメタデータとして記録すればよい。 The image composition process is not limited to the above-described depth composition process, super-resolution composition process, HDR composition process, NR composition process, and electronic image stabilization composition process. For example, the comparative light composition process, the comparative dark composition process, the average What is necessary is just to perform composition processing using image data of a plurality of frames, such as addition composition processing and live valve composition processing. In this case, for example, in the case of comparatively bright combination processing, the total exposure time may be recorded as metadata as implementation data.
次に、図7および図8に示すフローチャートを用いて、本実施形態におけるカメラ制御について説明する。このフローチャートは、制御部101内のCPUがメモリに記憶されたプログラムに従って、カメラ内の各部を制御することにより、実行する。
Next, camera control in the present embodiment will be described using the flowcharts shown in FIGS. This flowchart is executed by the CPU in the
カメラ制御のフローに入ると、まず、撮影モードか否かを判定する(S1)。カメラのモードは、ユーザが再生モード等他のモードに設定しなければ、デフォルトとして撮影モードに設定されている。このステップでは、モードの設定状態を検出し、その検出結果に基づいて判定する。 If the camera control flow is entered, it is first determined whether or not the camera is in shooting mode (S1). The camera mode is set to the shooting mode as a default unless the user sets another mode such as a playback mode. In this step, the mode setting state is detected and a determination is made based on the detection result.
ステップS1における判定の結果、撮影モードであれば、次に、スルー画用撮像を行う(S3)。ここでは、撮像素子102bによって取得された画像データを取得する。この画像データは所定のフレームレートで繰り返し取得される。
If the result of determination in step S <b> 1 is shooting mode, next, through-image imaging is performed (S <b> 3). Here, the image data acquired by the
スルー画用撮像を行うと、次に、スルー画表示、ピント合わせ、標準露出を設定する(S5)。ステップS3において取得した画像データに対して、画像処理部103においてスルー画表示用の画像処理を施し、この処理された画像データに基づいて、表示部106にスルー画表示を行う。スルー画表示は所定のフレームレートで更新される。また、取得した画像データのコントラスト値を算出し、このコントラスト値がピークとなるように、光学系102aのフォーカスレンズの位置を調整する。なお、ピント合わせは、前述のコントラストAF以外にも位相差AF等、他の方法によって行ってもよい。また、画像データから輝度情報等を算出し、この輝度情報に基づいて、シャッタ速度、絞り値、ISO感度等の標準露出を設定する。
Once the through image has been picked up, next, through image display, focusing, and standard exposure are set (S5). The
続いて、モード切換があったか否かを判定する(S7)。操作部107の操作部材によってモードの切換を行うことができる。ここでのモードは、前述した撮影モード、再生モードの他、深度合成モード、超解像合成モード、HDR合成モード等、複数コマの露出を行い、合成処理を行うモードを含む。
Subsequently, it is determined whether or not the mode has been switched (S7). The mode can be switched by the operation member of the
ステップS7における判定の結果、モード切換があった場合には、モード設定を行う(S9)。ここでは、操作部107によるモードに切換に応じて、モード制御部101bにおけるモードを設定する。
If the result of determination in step S7 is that there is mode switching, mode setting is performed (S9). Here, the mode in the
ステップS9においてモード設定を行うと、またはステップS7における判定の結果、モード切換がなかった場合には、次に、レリーズスイッチが操作されたか否かを判定する(S11)。レリーズ釦が操作されると、レリーズスイッチの状態が変化する。ここでは、レリーズスイッチの状態変化に基づいて判定する。この判定の結果、レリーズスイッチが操作されていない場合には、ステップS1に戻る。 If mode setting is performed in step S9 or if the result of determination in step S7 is that there is no mode switching, it is next determined whether or not the release switch has been operated (S11). When the release button is operated, the state of the release switch changes. Here, the determination is made based on the state change of the release switch. If the result of this determination is that the release switch has not been operated, processing returns to step S1.
ステップS11における判定の結果、レリーズスイッチが操作された場合には、次に、露出変更を伴うモードか否かを判定する(S13)。ここでは、最初に設定されているモード、またはステップS9において設定されたモードに基づいて判定する。露出変更を伴うモードとしては、例えば、HDR合成モードがある。また、露出変更を伴わないモードとしては、例えば、深度合成モード、超解像合成モード、ノイズリダクション(NR)モード、電子手ブレ防止モード等がある。 If the result of determination in step S11 is that the release switch has been operated, it is next determined whether or not the mode involves exposure change (S13). Here, the determination is made based on the first set mode or the mode set in step S9. As a mode involving exposure change, for example, there is an HDR synthesis mode. Examples of modes that do not involve exposure change include a depth synthesis mode, a super-resolution synthesis mode, a noise reduction (NR) mode, and an electronic camera shake prevention mode.
ステップS13における判定の結果、露出変更を伴うモードの場合には、標準露出から長秒時、短秒時に変更して複数枚の撮影を行う(S15)。この場合は、複数コマの撮影を行う際に、それぞれのコマで露出条件が異なる場合である。例えば、図4を用いて説明したHDR合成モードでは、1コマ目では標準露出(ステップS5において設定)よりも露出オーバとなるように、シャッタ速度を長秒時に設定し、2コマ目では標準露出よりも露出アンダとなるようにシャッタ速度を短秒時に設定し、撮影している。 As a result of the determination in step S13, in the case of a mode involving exposure change, a plurality of images are taken after changing from standard exposure to long time and short time (S15). In this case, when shooting a plurality of frames, the exposure conditions are different for each frame. For example, in the HDR composition mode described with reference to FIG. 4, the shutter speed is set to a long time so that the first frame is overexposed than the standard exposure (set in step S5), and the standard exposure is set for the second frame. In this case, the shutter speed is set to a short time so that the exposure undershoots.
続いて、画像合成を行う(S17)。ここでは、ステップS15において取得した複数の画像データに対して、画像合成部103dが設定されているモードに従って、画像合成処理を施す。
Subsequently, image composition is performed (S17). Here, image composition processing is performed on the plurality of image data acquired in step S15 according to the mode in which the
画像合成を行うと、次に、画像データとメタデータ(参考露出)を記録する(S19)。ここでは、メタデータ作成部104が参考データ104bを作成する。参考データ104bは、前述したように、画像合成によって生成された画像の効果に相当する露出条件を示すデータである。この作成された参考データ104bは、ステップS17において合成された画像データに関連付けられて記録部105の画像データ105bおよびメタデータ105cとして記録される。データの記録を行うと、ステップS1に戻る。
Once image composition has been carried out, next, image data and metadata (reference exposure) are recorded (S19). Here, the
ステップS13に戻り、このステップでの判定の結果、露出変更を伴うモードでない場合には、標準露出でピントや撮像素子位置を変更して複数枚の撮影を行う(S21)。ここでは、設定されているモードに応じた処理を行う。例えば、深度合成モードが設定されている場合には、ピント位置を変更し、変更した複数のピント位置でそれぞれ撮影を行う。また、超解像合成モードが設定されている場合には、撮像素子102bの位置を変更し、変更した複数の位置でそれぞれ撮影を行う。このときの露出条件は、ステップS5において算出された標準露出である。
Returning to step S13, if the result of determination in this step is that the mode is not accompanied by exposure change, a plurality of images are taken with the standard exposure changed in focus and image sensor position (S21). Here, processing according to the set mode is performed. For example, when the depth synthesis mode is set, the focus position is changed, and shooting is performed at each of the changed focus positions. Further, when the super-resolution synthesis mode is set, the position of the
続いて、画像合成を行う(S23)。ここでは、ステップS21において取得した複数の画像データに対して、画像合成部103dが設定されているモードに従って、画像合成処理を施す。
Subsequently, image composition is performed (S23). Here, the image composition processing is performed on the plurality of image data acquired in step S21 according to the mode in which the
画像合成を行うと、次に、画像データとメタデータ(実施露出)を記録する(S25)。ここでは、メタデータ作成部104が実施データ104aを作成する。実施データ104aは、前述したように、複数コマの撮影を行った際の各コマにおいて実際に露出制御された露出条件を示すデータである。この作成された実施データ104aは、ステップS23において合成された画像データに関連付けられて記録部105の画像データ105bおよびメタデータ105cとして記録される。データの記録を行うと、ステップS1に戻る。
Once image composition has been performed, image data and metadata (implemented exposure) are recorded (S25). Here, the
ステップS1に戻り、この判定の結果、撮影モードでない場合には、再生モードか否かを判定する(S31)。ユーザが操作部107の再生釦等の操作部材を操作することにより、再生モードを設定することができる。このステップにおける判定の結果、再生モードでない場合には、その他のモードに移行する。
Returning to step S1, if the result of this determination is that it is not in shooting mode, it is determined whether or not it is in playback mode (S31). When the user operates an operation member such as a playback button of the
ステップS31における判定の結果、再生モードの場合には、次に、アイコン一覧を表示する(S33)。ここでは、記録部105に記録されている画像データのサムネイルデータに基づいて、記録画像のアイコンを表示部106に表示する。
If the result of determination in step S31 is playback mode, an icon list is then displayed (S33). Here, based on the thumbnail data of the image data recorded in the
次に、画像が選択されたか否かについて判定する(S35)。ユーザは表示部106に表示された一覧表示されたアイコンの中から拡大表示したいアイコンをタッチ、または十字釦等によって選択する。このステップでは、ユーザによってアイコンが選択されたか否かを判定する。
Next, it is determined whether an image has been selected (S35). The user touches an icon desired to be enlarged from the icons displayed in the list displayed on the
ステップS35における判定の結果、画像が選択されていない場合には、戻るか否かを判定する(S37)。ユーザが再生モードを終了したい場合には、操作部107の内の戻る釦を操作するか、戻るアイコンをクリックする(総称して戻る操作)。ここでは、戻る操作がなされたか否かに基づいて判定する。この判定の結果、戻る操作がなされていない場合には、ステップS33に戻る。一方、戻る操作がなされた場合には、ステップS1に戻る。
If the result of determination in step S35 is that no image has been selected, it is determined whether or not to return (S37). When the user wants to end the reproduction mode, the user operates the return button in the
ステップS35における判定の結果、画像が選択された場合には、拡大表示を行う(S39)。ここでは、選択されたアイコンの画像データを読出し、表示部106に拡大表示を行う。
If the result of determination in step S35 is that an image has been selected, enlargement display is performed (S39). Here, the image data of the selected icon is read out and enlarged on the
拡大表示を行うと、次に、詳細表示を行うか否かの判定を行う(S41)。ユーザが選択した画像に関連付けて記録されているメタデータを表示させたい場合には、操作部107の内の詳細釦を操作するか又は詳細アイコンをクリックする(総称して詳細表示操作)。ここでは、詳細表示操作がなされたか否かに基づいて判定する。
Once the enlarged display is performed, it is next determined whether or not the detailed display is performed (S41). When it is desired to display metadata recorded in association with the image selected by the user, a detail button in the
ステップS41における判定の結果、詳細表示操作がなされていた場合には、メタデータを表示する(S43)。ここでは、画像データに関連付けて記録されたメタデータ105cを記録部105から読み出し、表示部106に表示する。表示例については図9を用いて後述する。
If the result of determination in step S41 is that a detail display operation has been performed, metadata is displayed (S43). Here, the metadata 105 c recorded in association with the image data is read from the
ステップS43においてメタデータを表示すると、またはステップS41における判定の結果、詳細表示操作がなされていない場合には、外部送信か否かを判定する(S45)。ユーザが記録部105に記録された画像データを、インターネット等を介して、無線また有線通信等によって送信した場合には、操作部107の送信釦を操作し、または送信アイコンをタッチ操作する(総称して外部送信操作)。このステップでは、外部送信操作がなされたか否かに基づいて判定する。
If metadata is displayed in step S43 or if the result of determination in step S41 is that a detailed display operation has not been performed, it is determined whether or not external transmission is performed (S45). When the user transmits the image data recorded in the
ステップS45における判定の結果、外部送信操作がなされた場合には、設定先に送信する(S47)。ここでは、設定された送信先に、ステップS35において選択された画像の画像データおよび関連付けされたメタデータを送信する。送信先では、受信した画像データに基づく画像およびメタデータを表示させることができる。この時の表示例については図9を用いて後述する。 If the result of determination in step S45 is that an external transmission operation has been made, transmission is made to the setting destination (S47). Here, the image data of the image selected in step S35 and the associated metadata are transmitted to the set transmission destination. At the transmission destination, an image and metadata based on the received image data can be displayed. A display example at this time will be described later with reference to FIG.
ステップS47において設定先に送信すると、またはステップS45における判定の結果、外部送信操作がされていない場合には、戻るか否かを判定する(S49)。ユーザが再生モードを終了したい場合には、戻る操作を行う。ここでは、この戻る操作がなされたか否かに基づいて判定する。この判定の結果、戻る操作がなされていない場合には、ステップS39に戻る。一方、戻る操作がなされた場合には、ステップS1に戻る。 If transmission is made to the setting destination in step S47, or if the result of determination in step S45 is that there is no external transmission operation, it is determined whether or not to return (S49). When the user wants to end the playback mode, a return operation is performed. Here, the determination is made based on whether or not this return operation has been performed. If the result of this determination is that no return operation has been performed, processing returns to step S39. On the other hand, if a return operation has been performed, the process returns to step S1.
このように、本実施形態におけるカメラ制御のフローにおいては、レリーズ操作がなされた際に、露出変更を伴うモードが設定されている場合には(S13Yes)、メタデータとして、参考データを作成し記録している(S19)。一方、露出変更を伴わないモードが設定されている場合には(S13No)、メタデータとして実施データを作成し記録している(S25)。すなわち、露出変更を伴わない場合には実際に露出制御された制御値が記録され、一方、露出変更を伴う場合には合成画像の効果に応じた露出制御値が記録されることから、ユーザがメタデータを見た際に、どのような制御がなされたかが分かり易いという効果がある。 As described above, in the camera control flow in the present embodiment, when a mode involving exposure change is set when a release operation is performed (Yes in S13), reference data is created and recorded as metadata. (S19). On the other hand, when a mode without exposure change is set (No in S13), the execution data is created and recorded as metadata (S25). That is, when the exposure change is not accompanied, the control value that is actually controlled for exposure is recorded, whereas when the exposure change is accompanied, the exposure control value according to the effect of the composite image is recorded. When the metadata is viewed, there is an effect that it is easy to understand what control is performed.
なお、ステップS19およびS25においては、メタデータとしては、参考データおよび実施データのいずれか一方のみを作成し、記録するようにしていた。いずれか一方のみを記録することにより、メタデータ105cの容量を小さくすることができ、また単純化することにより、処理が容易となる。しかし、ステップS19およびS25において、参考データおよび実施データの両方を作成し、これをメタデータ105cとして記録するようにしてもよい。この場合には、例えば、メタデータの記録領域の内、Exif規格のメーカノートのように、製造元が記録可能としている領域を利用してもよい。 In steps S19 and S25, only one of reference data and implementation data is created and recorded as metadata. By recording only one of them, the capacity of the metadata 105c can be reduced, and simplification simplifies the processing. However, in steps S19 and S25, both reference data and implementation data may be created and recorded as metadata 105c. In this case, for example, an area that can be recorded by the manufacturer, such as an Exif standard manufacturer note, may be used in the metadata recording area.
次に、図9を用いて、メタデータの表示について説明する。この表示は、図8のステップS43、およびステップS47で送信された送信先で行われる。 Next, display of metadata will be described with reference to FIG. This display is performed at the transmission destination transmitted in step S43 and step S47 of FIG.
図9(a)は、図2で示したような深度合成モードが設定された場合の表示例である。この場合には、深度合成された画像43と、実施データとして記録されたシャッタ速度および絞り値を示すメタデータが表示される。図9(b)は、図3で示したような超解像合成モードが設定された場合の表示例である。この場合には、深度合成された画像46と、実施データとして記録されたシャッタ速度および絞り値を示すメタデータが表示される。
FIG. 9A shows a display example when the depth synthesis mode as shown in FIG. 2 is set. In this case, the depth-combined
図9(c)は、図4で示したようなHDR合成モードが設定された場合の表示例である。この場合には、HDR合成された画像49と、参考データとして記録されたシャッタ速度および絞り値を示すメタデータが表示される。なお、図9(c)においては、参考データであることを明示するために、「参考」が表示される。このために、メタデータ105cに、参考データであることを示す情報も併せて記録しておく。
FIG. 9C is a display example when the HDR synthesis mode as shown in FIG. 4 is set. In this case, HDR combined
このように、記録された画像に加えて、メタデータを表示することにより、撮影画像の露出条件を確認することが簡単にできる。また、この表示の際に、露出変更を伴わない場合には各コマを撮影した際の実際の露出値が表示され、露出変更を伴う場合には、合成画像の効果に相当する露出値が表示されるようしたので、分かり易い表示となる。撮影者以外の他のユーザは、このメタデータに基づく露出値を参考にすることにより、類似の写真を撮影することが容易となる。 Thus, by displaying metadata in addition to the recorded image, it is possible to easily check the exposure condition of the captured image. In this display, if there is no exposure change, the actual exposure value when each frame was shot is displayed. If there is an exposure change, an exposure value corresponding to the effect of the composite image is displayed. As a result, the display is easy to understand. Other users other than the photographer can easily take a similar picture by referring to the exposure value based on the metadata.
なお、図9においては、参考データの場合のみ、「参考」と表示したが、この表示を消去しておいてもよい。また、実施データの場合にも、実施データであることを明示するような表示を付加してもよい。また、図9においては、メタデータを画像の外側で表示していたが、画像に重畳して表示するようにしてもよい。 In FIG. 9, “reference” is displayed only in the case of reference data, but this display may be deleted. Also, in the case of implementation data, a display that clearly indicates the implementation data may be added. In FIG. 9, the metadata is displayed outside the image, but may be displayed superimposed on the image.
以上説明したように、本発明の一実施形態においては、同一の対象物に対し、撮影条件を切り換えて複数の撮影画像データを取得し(例えば、図7のS3参照)、異なる露出条件で取得した複数の撮影画像データを用いて第1の画像合成を行い(例えば、図7のS17参照)、同一の露出条件、かつ露出以外の条件を異ならせて取得した複数の撮影画像データを用いて第2の画像合成を行い(例えば、図7のS23参照)、第1画像合成または第2画像合成によって合成された合成画像データを表すメタデータを作成する際に、第1の画像合成を行う場合と、第2の画像合成を行う場合で、異なる露出条件を示す単一のメタデータを作成する(例えば、図2(d)、図3(d)、図4(d)、図7のS19、S25参照)。このため、画像合成処理に応じて適切な情報を作成し、画像データに関連付けを行うことができる。すなわち、複数の撮影画像データを取得する際に、露出変更を行っている場合と露出変更を行わない場合で、異なる露出条件を示すようにしており、画像合成処理に応じた情報の表示が可能となる。 As described above, in one embodiment of the present invention, a plurality of captured image data are acquired by switching the imaging conditions for the same object (for example, see S3 in FIG. 7) and acquired under different exposure conditions. The first image composition is performed using the plurality of photographed image data (see, for example, S17 in FIG. 7), and the plurality of photographed image data acquired by changing the same exposure conditions and conditions other than the exposure are used. The second image composition is performed (see, for example, S23 in FIG. 7), and the first image composition is performed when creating the metadata representing the first image composition or the composite image data synthesized by the second image composition. And a case where the second image composition is performed and single metadata indicating different exposure conditions is created (for example, FIG. 2D, FIG. 3D, FIG. 4D, and FIG. 7). (See S19 and S25). For this reason, it is possible to create appropriate information according to the image composition processing and associate it with the image data. In other words, when acquiring multiple shot image data, different exposure conditions are shown depending on whether exposure is changed or not, and information can be displayed according to the image composition process. It becomes.
なお、本発明の一実施形態においては、モードが露出変更を伴うか否かを判定し(図7のS13参照)、この結果に応じて、メタデータとして参考データまたは実施データを記録するようにしている。しかし、モードが露出変更を伴うか否かに限らず、例えば、撮影距離の変更を伴うか否か等、撮影条件に応じて、メタデータの種類を適宜決定するようにしてもよい。この場合には、画像データ取得部は、同一の対象物に対し、第1の撮影条件を切り換えて複数の撮影画像データを取得可能であり、第1画像合成部は画像データ取得部によって、第2の撮影条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行い、第2画像合成部は画像データ取得部によって、第2の撮影条件を変えず、第3の撮影条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行い、メタデータ作成部は、第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成する際に、第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる撮影条件を示す単一のメタデータを作成すればよい。 In one embodiment of the present invention, it is determined whether or not the mode involves exposure change (see S13 in FIG. 7), and reference data or implementation data is recorded as metadata according to the result. ing. However, the type of metadata may be appropriately determined according to the shooting conditions, for example, whether or not the mode involves exposure change, for example, whether or not the shooting distance is changed. In this case, the image data acquisition unit can acquire a plurality of captured image data by switching the first imaging condition with respect to the same object, and the first image composition unit can be obtained by the image data acquisition unit. A plurality of photographed image data is obtained by changing the photographing conditions of 2 and the first image composition is performed using the obtained plurality of photographed image data. Without changing the shooting conditions, the third shooting conditions are changed to obtain a plurality of shot image data, and the second image composition is performed using the acquired shot image data. When creating metadata representing the synthesized image data synthesized by the first image synthesizing unit or the second image synthesizing unit, the case where the first image synthesis is performed is different from the case where the second image synthesis is performed. Single showing shooting conditions Metadata can be created.
また、本発明の一実施形態においては、ピント変更部102c、露出変更部102d、撮像位置変更部102e等は、CPUおよびメモリに記憶したプログラムによってソフトウエアでその機能を実現してもよく、また制御部101内のCPUとメモリに記憶したプログラムでその機能を実現するようにしても勿論かまわない。
In one embodiment of the present invention, the
また、本発明の一実施形態においては、撮像制御部103b、撮影制御変更部103c等の各部の機能の全部または一部をCPU(Central Processing Unit)と周辺回路およびプログラムによって実現していたが、DSP(Digital Signal Processor)等のプログラムコードで実行される回路で実現するようにしてもよく、ヴェリログ(Verilog)によって記述されたプログラム言語に基づいて生成されたゲート回路等のハードウエア構成でもよく、またハードウエア回路によって実行するようにしても勿論かまわない。
In one embodiment of the present invention, all or part of the functions of the respective units such as the
また、本発明の一実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもミラーレスカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話、スマートフォン、携帯情報端末、パーソナルコンピュータ(PC)、タブレット型コンピュータ、ゲーム機器等に内蔵されるカメラ、医療用カメラ、顕微鏡等の科学機器用のカメラ、自動車搭載用カメラ、監視用カメラでも構わない。いずれにしても、画像データと共にメタデータを記録する撮影のための機器であれば、本発明を適用することができる。 In the embodiment of the present invention, the digital camera is used as the photographing device. However, the camera may be a digital single lens reflex camera, a mirrorless camera, a compact digital camera, a video camera, a movie A camera for moving images such as a camera may be used, and a scientific device such as a mobile phone, a smartphone, a personal digital assistant (PC), a personal computer (PC), a tablet computer, a game machine, etc., a medical camera, a microscope, etc. It may be a camera for a car, a camera mounted on a car or a camera for monitoring. In any case, the present invention can be applied to any device for photographing that records metadata together with image data.
また、本明細書において説明した技術のうち、主にフローチャートで説明した制御に関しては、プログラムで設定可能であることが多く、記録媒体や記録部に収められる場合もある。この記録媒体、記録部への記録の仕方は、製品出荷時に記録してもよく、配布された記録媒体を利用してもよく、インターネットを介してダウンロードしたものでもよい。 Of the techniques described in this specification, the control mainly described in the flowchart is often settable by a program and may be stored in a recording medium or a recording unit. The recording method for the recording medium and the recording unit may be recorded at the time of product shipment, may be a distributed recording medium, or may be downloaded via the Internet.
また、本発明の一実施形態においては、フローチャートを用いて、本実施形態における動作を説明したが、処理手順は、順番を変えてもよく、また、いずれかのステップを省略してもよく、ステップを追加してもよく、さらに各ステップ内における具体的な処理内容を変更してもよい。 Further, in one embodiment of the present invention, the operation in the present embodiment has been described using a flowchart. However, the processing procedure may be changed in order, or any step may be omitted. Steps may be added, and specific processing contents in each step may be changed.
また、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず」、「次に」等の順番を表現する言葉を用いて説明したとしても、特に説明していない箇所では、この順で実施することが必須であることを意味するものではない。 In addition, regarding the operation flow in the claims, the specification, and the drawings, even if it is described using words expressing the order such as “first”, “next”, etc. It does not mean that it is essential to implement in this order.
本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
10・・・ユーザ、20・・・カメラ、101・・・制御部、101b・・・モード制御部、101c・・・表示制御部、101d・・・通信制御部、102・・・撮像部、102a・・・光学系、102b・・・撮像素子、102c・・・ピント変更部、102d・・・露出変更部、102e・・・撮像位置変更部、103・・・画像処理部、103b・・・撮像制御部、103c・・・撮影制御変更部、103d・・・画像合成部、103e・・・記録制御部、104・・・メタデータ作成部、104a・・・実施データ、104b・・・参考データ、105・・・記録部、105a・・・画像データ、105b・・・メタデータ、106・・・表示部、107・・・操作部、108・・・通信部
DESCRIPTION OF
Claims (7)
上記画像データ取得部によって、異なる露出条件で複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行う第1画像合成部と、
上記画像データ取得部によって、同一の露出条件、かつ露出以外の条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行う第2画像合成部と、
上記第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成するメタデータ作成部と、
を有し、
上記メタデータ作成部は、上記第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる露出条件を示す単一のメタデータを作成することを特徴とする画像処理装置。 An image data acquisition unit capable of acquiring a plurality of captured image data by switching the imaging conditions for the same object;
A first image composition unit that obtains a plurality of captured image data under different exposure conditions by the image data acquisition unit, and performs a first image composition using the obtained plurality of captured image data;
The image data obtaining unit obtains a plurality of photographed image data by changing the same exposure condition and a condition other than the exposure, and performs a second image composition using the obtained plurality of photographed image data. An image composition unit;
A metadata creating unit that creates metadata representing the synthesized image data synthesized by the first image synthesizing unit or the second image synthesizing unit;
Have
The metadata creation unit creates single metadata indicating different exposure conditions when performing the first image composition and when performing the second image composition. .
上記画像データ取得部によって、第2の撮影条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行う第1画像合成部と、
上記画像データ取得部によって、第2の撮影条件を変えず、第3の撮影条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行う第2画像合成部と、
上記第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成するメタデータ作成部と、
を有し、
上記メタデータ作成部は、上記第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる撮影条件を示す単一のメタデータを作成することを特徴とする画像処理装置。 An image data acquisition unit capable of acquiring a plurality of captured image data by switching the first imaging condition for the same object;
A first image composition unit that obtains a plurality of photographed image data by changing the second photographing condition by the image data obtaining unit, and performs a first image composition using the obtained plurality of photographed image data;
The image data acquisition unit acquires a plurality of captured image data by changing the third imaging condition without changing the second imaging condition, and uses the acquired plurality of captured image data to generate a second image composition. A second image composition unit for performing
A metadata creating unit that creates metadata representing the synthesized image data synthesized by the first image synthesizing unit or the second image synthesizing unit;
Have
The metadata creation unit creates single metadata indicating different shooting conditions when performing the first image composition and when performing the second image composition. .
異なる露出条件で取得した複数の撮影画像データを用いて第1の画像合成を行い、
同一の露出条件、かつ露出以外の条件を異ならせて取得した複数の撮影画像データを用いて第2の画像合成を行い、
上記第1画像合成または第2画像合成によって合成された合成画像データを表すメタデータを作成する際に、上記第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる露出条件を示す単一のメタデータを作成する、
ことを特徴とする画像処理方法。 For the same object, switch the shooting conditions to obtain multiple shot image data,
A first image composition is performed using a plurality of photographed image data acquired under different exposure conditions,
A second image composition is performed using a plurality of photographed image data acquired with the same exposure condition and different conditions other than exposure,
When creating metadata representing the synthesized image data synthesized by the first image synthesis or the second image synthesis, there is a difference between the case of performing the first image synthesis and the case of performing the second image synthesis. Create a single piece of metadata describing exposure conditions,
An image processing method.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017150607A JP6909669B2 (en) | 2017-08-03 | 2017-08-03 | Image processing device and image processing method |
PCT/JP2018/028709 WO2019026923A1 (en) | 2017-08-03 | 2018-07-31 | Image processing device, image processing method, image processing program, and image capture device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017150607A JP6909669B2 (en) | 2017-08-03 | 2017-08-03 | Image processing device and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019029954A true JP2019029954A (en) | 2019-02-21 |
JP6909669B2 JP6909669B2 (en) | 2021-07-28 |
Family
ID=65476729
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017150607A Active JP6909669B2 (en) | 2017-08-03 | 2017-08-03 | Image processing device and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6909669B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020150527A (en) * | 2019-03-15 | 2020-09-17 | キヤノン株式会社 | Image processing apparatus, image processing method, computer program and storage medium |
JP2020150517A (en) * | 2019-03-15 | 2020-09-17 | キヤノン株式会社 | Image processing apparatus, image processing method, computer program and storage medium |
WO2020189510A1 (en) * | 2019-03-15 | 2020-09-24 | キヤノン株式会社 | Image processing device, image processing method, computer program, and storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009232385A (en) * | 2008-03-25 | 2009-10-08 | Sony Corp | Image processing apparatus, image processing method, and program |
JP2014103630A (en) * | 2012-11-22 | 2014-06-05 | Olympus Imaging Corp | Imaging apparatus and image communication method |
JP2015162851A (en) * | 2014-02-28 | 2015-09-07 | オリンパス株式会社 | imaging device, imaging method, and program |
JP2017011676A (en) * | 2015-06-25 | 2017-01-12 | キヤノン株式会社 | Image-processing apparatus and image-processing method |
-
2017
- 2017-08-03 JP JP2017150607A patent/JP6909669B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009232385A (en) * | 2008-03-25 | 2009-10-08 | Sony Corp | Image processing apparatus, image processing method, and program |
JP2014103630A (en) * | 2012-11-22 | 2014-06-05 | Olympus Imaging Corp | Imaging apparatus and image communication method |
JP2015162851A (en) * | 2014-02-28 | 2015-09-07 | オリンパス株式会社 | imaging device, imaging method, and program |
JP2017011676A (en) * | 2015-06-25 | 2017-01-12 | キヤノン株式会社 | Image-processing apparatus and image-processing method |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020150527A (en) * | 2019-03-15 | 2020-09-17 | キヤノン株式会社 | Image processing apparatus, image processing method, computer program and storage medium |
JP2020150517A (en) * | 2019-03-15 | 2020-09-17 | キヤノン株式会社 | Image processing apparatus, image processing method, computer program and storage medium |
WO2020189510A1 (en) * | 2019-03-15 | 2020-09-24 | キヤノン株式会社 | Image processing device, image processing method, computer program, and storage medium |
CN113615156A (en) * | 2019-03-15 | 2021-11-05 | 佳能株式会社 | Image processing apparatus, image processing method, computer program, and storage medium |
JP7395258B2 (en) | 2019-03-15 | 2023-12-11 | キヤノン株式会社 | Image processing device, image processing method, computer program and storage medium |
JP7395259B2 (en) | 2019-03-15 | 2023-12-11 | キヤノン株式会社 | Image processing device, image processing method, computer program and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP6909669B2 (en) | 2021-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6325885B2 (en) | Imaging apparatus, imaging method, and program | |
JP2020162139A (en) | Imaging apparatus and setting screen of the same | |
US9049363B2 (en) | Digital photographing apparatus, method of controlling the same, and computer-readable storage medium | |
US9807293B2 (en) | Imaging device capable of combing a plurality of image data, and control method for imaging device | |
JP4513903B2 (en) | Image processing apparatus and image processing method | |
JP2017220892A (en) | Image processing device and image processing method | |
JP6325841B2 (en) | Imaging apparatus, imaging method, and program | |
JP2016092609A (en) | Imaging device and control method of imaging device | |
JP5400486B2 (en) | Imaging apparatus and imaging method | |
JP6717690B2 (en) | Imaging device, imaging method, and program | |
KR20120002834A (en) | Image pickup apparatus for providing reference image and method for providing reference image thereof | |
JP6909669B2 (en) | Image processing device and image processing method | |
JP2018157479A (en) | Image pickup apparatus, control method of the same, and program | |
JP6300076B2 (en) | Imaging apparatus, imaging method, and program | |
JP2015012481A (en) | Image processing device | |
US8547454B2 (en) | Digital image photographing apparatuses and methods of controlling the same to provide location information | |
JP6706167B2 (en) | Imaging device, image synthesizing method, and program | |
JP2019036885A (en) | Image processing apparatus and image processing method | |
JP2015231192A (en) | Imaging device and exposure control method of imaging device | |
JP2015162851A (en) | imaging device, imaging method, and program | |
JP2006128754A (en) | Imaging apparatus and imaging method | |
JP2019047436A (en) | Image processing device, image processing method, image processing program, and imaging device | |
JP2012239078A (en) | Photographing device | |
JP2011197090A (en) | Photographing support program and imaging apparatus | |
JP2012204952A (en) | Exposure control apparatus, and camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200717 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210519 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210609 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210622 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210705 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6909669 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |