JP6909669B2 - Image processing device and image processing method - Google Patents
Image processing device and image processing method Download PDFInfo
- Publication number
- JP6909669B2 JP6909669B2 JP2017150607A JP2017150607A JP6909669B2 JP 6909669 B2 JP6909669 B2 JP 6909669B2 JP 2017150607 A JP2017150607 A JP 2017150607A JP 2017150607 A JP2017150607 A JP 2017150607A JP 6909669 B2 JP6909669 B2 JP 6909669B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- metadata
- unit
- composition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Description
本発明は、撮影の際に複数コマの画像データを取得し、この取得した画像データに合成処理を施し、この合成処理を施した画像データを記録することが可能な画像処理装置および画像処理方法に関する。 The present invention is an image processing apparatus and an image processing method capable of acquiring image data of a plurality of frames at the time of shooting, subjecting the acquired image data to a compositing process, and recording the image data subjected to the compositing process. Regarding.
撮影の際に複数コマの画像データを取得し、この取得した複数の画像データに合成処理を施し記録することは従来より種々提案されている、例えば、特許文献1には、撮像方向を変位させながら複数のフレー画像データを取得し、この取得した画像データにパノラマ画像処理を施し、パノラマ画像データを生成する画像処理装置が記載されている。この画像処理装置では、全周パノラマ画像と判断される場合に、パノラマ画像データと全周パノラマ画像であることを示す情報を関連付けて記録されている。
Various conventional proposals have been made for acquiring image data of a plurality of frames at the time of shooting, and subjecting the acquired plurality of image data to a compositing process for recording. For example, in
また、写真用のメタデータを含む画像ファイルフォーマットとしてエクスチェンジャブル・イメージ・ファイル・フォーマット(Exif)が使用されている。このExif情報として、シャッタ速度、絞り値(F値)、ISO感度等の情報が画像データと共に記録される。 In addition, an exchangeable image file format (Exif) is used as an image file format containing metadata for photographs. As this Exif information, information such as shutter speed, aperture value (F value), and ISO sensitivity is recorded together with image data.
複数コマの画像データに対する合成処理は、パノラマ合成処理以外にも、深度合成処理、超高解像合成処理、ハイダイナミックレンジ合成処理(HDR)等、種々の処理がある。これらの合成処理の際に使用される撮影コマの画像データの露出条件は同じ場合もあれば、異なる場合もある。前述の特許文献1には、露出条件の記録については何ら記載されていない。これらの露出条件等の撮影条件の記録の仕方によっては、不適切な記録となってしまう。
In addition to the panoramic composition process, the composition process for the image data of a plurality of frames includes various processes such as a depth composition process, an ultra-high resolution composition process, and a high dynamic range composition process (HDR). The exposure conditions of the image data of the shooting frames used in these compositing processes may be the same or different. The above-mentioned
本発明は、このような事情を鑑みてなされたものであり、画像合成処理に応じて適切な情報を作成し、画像データに関連付けを行うようにした画像処理装置および画像処理方法を提供することを目的とする。 The present invention has been made in view of such circumstances, and provides an image processing apparatus and an image processing method that create appropriate information according to image composition processing and associate it with image data. With the goal.
上記目的を達成するため第1の発明に係る画像処理装置は、同一の対象物に対し、撮影条件を切り換えて複数の撮影画像データを取得可能な画像データ取得部と、上記画像データ取得部によって、異なる露出条件で複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行う第1画像合成部と、上記画像データ取得部によって、同一の露出条件、かつ露出以外の条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行う第2画像合成部と、上記第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成するメタデータ作成部と、を有し、上記メタデータ作成部は、上記第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる露出条件を示す単一のメタデータを作成する。 In order to achieve the above object, the image processing apparatus according to the first invention uses an image data acquisition unit capable of acquiring a plurality of captured image data by switching shooting conditions for the same object, and the image data acquisition unit. , The same exposure condition is obtained by the first image synthesizing unit that acquires a plurality of captured image data under different exposure conditions and performs the first image composition using the acquired plurality of captured image data, and the image data acquisition unit. A second image synthesizing unit that acquires a plurality of captured image data under different conditions other than exposure and performs a second image synthesizing using the acquired plurality of captured image data, and the first image synthesizing unit. Alternatively, it has a metadata creation unit that creates metadata representing the composite image data synthesized by the second image composition unit, and the metadata creation unit performs the first image composition and the first image composition. When performing image composition of 2, create a single metadata showing different exposure conditions.
第2の発明に係る画像処理装置は、上記第1の発明において、上記メタデータ作成部は、上記第1の画像合成と上記第2の画像合成を区別する情報を作成する。
第3の発明に係る画像処理装置は、上記第2の発明において、上記メタデータ作成部は、上記第1の画像合成を行った場合には上記画像データ取得部における露出条件に基づいて参考メタデータを作成し、上記第2の画像合成を行った場合には上記画像データ取得部における実際の露出条件を実施メタデータとする。
In the image processing apparatus according to the second invention, in the first invention, the metadata creation unit creates information for distinguishing between the first image composition and the second image composition.
In the second invention, the image processing apparatus according to the third invention is a reference metadata based on the exposure conditions in the image data acquisition unit when the metadata creation unit performs the first image composition. When the data is created and the second image composition is performed, the actual exposure condition in the image data acquisition unit is used as the implementation metadata.
第4の発明に係る画像処理装置は、上記第1の発明において、上記メタデータ作成部は、上記第1の画像合成部によって第1の画像合成を行った場合には、上記第1の画像合成によって生成された合成画像の露出効果に相当するメタデータを作成する。 In the image processing apparatus according to the fourth invention, in the first invention, when the metadata creation unit performs the first image composition by the first image composition unit, the first image Create metadata that corresponds to the exposure effect of the composite image generated by the composite.
第5の発明に係る画像処理装置は、上記第1の発明において、上記メタデータ作成部は、上記第2の画像合成部によって第2の画像合成を行った場合には、上記画像データ取得部で1コマの画像データを取得する際の露出条件に基づいてメタデータを作成する。 In the image processing apparatus according to the fifth invention, in the first invention, when the metadata creation unit performs the second image composition by the second image composition unit, the image data acquisition unit Create metadata based on the exposure conditions when acquiring the image data of one frame in.
第6の発明に係る画像処理方法は、同一の対象物に対し、撮影条件を切り換えて複数の撮影画像データを取得し、異なる露出条件で取得した複数の撮影画像データを用いて第1の画像合成を行い、同一の露出条件、かつ露出以外の条件を異ならせて取得した複数の撮影画像データを用いて第2の画像合成を行い、上記第1画像合成または第2画像合成によって合成された合成画像データを表すメタデータを作成する際に、上記第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる露出条件を示す単一のメタデータを作成する。
In the image processing method according to the sixth invention, for the same object, a plurality of captured image data are acquired by switching the imaging conditions, and the first image is used by using the plurality of captured image data acquired under different exposure conditions. The composition was performed, and the second image composition was performed using a plurality of captured image data acquired under the same exposure conditions and different conditions other than the exposure, and the composition was performed by the first image composition or the second image composition. When creating the metadata representing the composite image data, a single metadata showing different exposure conditions is created in the case of performing the first image composition and the case of performing the second image composition.
本発明によれば、画像合成処理に応じて適切な情報を作成し、画像データに関連付けを行うようにした画像処理装置および画像処理方法を提供することができる。 According to the present invention, it is possible to provide an image processing apparatus and an image processing method that create appropriate information according to an image composition process and associate it with image data.
以下、本発明の一実施形態としてデジタルカメラ(以下、「カメラ」と称す)に適用した例について説明する。このカメラは、撮像部を有し、この撮像部によって被写体像を画像データに変換し、この変換された画像データに基づいて、被写体像を本体の背面に配置した表示部にスルー画表示する。撮影者はスルー画表示を観察することにより、構図やシャッタタイミングを決定する。レリーズ操作時には、画像データが記録媒体に記録される。記録媒体に記録された画像データは、再生モードを選択すると、表示部に再生表示することができる。 Hereinafter, an example applied to a digital camera (hereinafter referred to as a “camera”) as an embodiment of the present invention will be described. This camera has an imaging unit, the subject image is converted into image data by the imaging unit, and the subject image is displayed as a through image on a display unit arranged on the back surface of the main body based on the converted image data. The photographer determines the composition and shutter timing by observing the through image display. During the release operation, the image data is recorded on the recording medium. The image data recorded on the recording medium can be reproduced and displayed on the display unit when the reproduction mode is selected.
また、本実施形態に係るカメラは、複数コマの画像データを取得し、この複数コマの画像データを用いて行う合成処理を行うことができる。この場合、複数の異なる露出条件で画像データを得て行う第1の画像合成処理と、同じ露出条件で複数の画像データを得て行う第2の画像合成処理とで、異なる露出条件(撮影条件)を示す単一のメタデータを生成し、画像データに関連付けて記録するようにしている。 Further, the camera according to the present embodiment can acquire image data of a plurality of frames and perform a compositing process using the image data of the plurality of frames. In this case, different exposure conditions (shooting conditions) are used in the first image composition process for obtaining image data under a plurality of different exposure conditions and the second image composition process for obtaining a plurality of image data under the same exposure conditions. ) Is generated and recorded in association with the image data.
図1は、本実施形態に係るカメラの主として電気的構成を示すブロック図である。このカメラは、制御部101、撮像部102、記録部105、表示部106、操作部107、通信部108を有する。
FIG. 1 is a block diagram showing a mainly electrical configuration of the camera according to the present embodiment. This camera has a
撮像部102は、光学系102a、撮像素子102b、ピント変更部102c、露出変更部102d、および撮像位置変更部102dを有する。なお、ピント変更部102c、露出変更部102dおよび撮像位置変更部102dは、設定可能なモードに応じて、適宜、省略してもよい。
The
光学系102aは、フォーカスレンズ等の光学レンズを有し、被写体像を形成することができる。光学102aのピント位置は、後述するピント変更部102cによって移動制御される。
The
撮像素子102bは、CCDイメージセンサ、CMOSイメーセンサ等のイメージセンサを有する。この撮像素子102bは、光学系102aによって被写体像が形成される位置付近に配置され、撮像制御部103bからの制御に従って、被写体像を画像データに変換し出力する。撮像素子102bは、同一の対象物に対し、撮影条件(第1の撮影条件)を切り換えて複数の撮影画像データを取得可能な画像データ取得部として機能する。
The
ピント変更部102cは、光学系102aの内のフォーカスレンズを光軸方向に移動する駆動機構および駆動回路を有する。ピント変更部102cは、制御部103からのピント合わせ信号に基づいてフォーカスレンズを合焦位置に移動させる。また、ピント変更部102cは、深度合成モードが設定された場合に、フォーカスレンズを所定の異なるピント位置に順次移動させ、それぞれのピント位置で画像データが取得される。
The
露出変更部102dは、撮影時の露出条件を変更させる。露出変更部102dは、絞りおよび絞り制御回路、シャッタおよびシャッタ制御回路、ISO感度変更回路等の内の少なくとも1つを有する。すなわち、露出変更部102dは、絞り値、シャッタ速度値、およびISO感度の内の少なくとも1つを変更することにより、露出条件を変更する。また、露出変更部102dは、ハイダイナミックレンジ合成(HDR)モードが設定された場合に、所定の異なる露出条件で順次撮影が行われ、それぞれの露出条件で画像データが取得される。
The
撮像位置変更部102eは、撮像素子102bを光軸と直交する面内で移動させる移動機構および移動回路を有する。撮像位置変更部102eは、超高解像合成モードが設定された場合に、撮像素子102bを光軸と直交する面内で所定の異なる撮像位置に撮像素子102bを順次移動させ、それぞれの撮像位置で画像データが取得される。
The image pickup
制御部101は、CPU(Central Processing Unit)とその周辺回路およびメモリ等を有したASIC(Application Specific Integrated Circuit)で構成される。CPUはメモリに記憶されたプログラムに従って、カメラ100内の各部を制御することによってカメラの全体を実行する。制御部101は、モード制御部101b、表示制御部101c、通信制御部101d、および画像処理部103を有する。これらの各部の一部の機能は、CPUとプログラムによって実現され、また他の一部の機能は周辺回路によって実現される。
The
モード制御部101bは、ユーザによって設定されたモード等に応じて、撮像制御部103b、撮影制御変更部103c、画像合成部103d等による制御を実行させる。
The
表示制御部101cは、表示部106における表示の制御を行う。表示としては、撮像素子102bによって取得された画像データに基づくスルー画表示、記録部105に記録された画像の再生画像表示、メニュー画面表示等、種々の表示がある。また、記録部105に記録された際の画像表示の際には、画像データに関連して記録されているメタデータの表示を行うようにしてもよい(後述する図9参照)。
The
通信制御部101dは、通信部108を介して行う外部との無線(赤外線等を含む)通信、または有線通信の制御を行う。本実施形態においては、後述するように、記録部105に記録された画像データ等は外部装置に通信可能である(図8のS45、S47参照)。
The
画像処理部103は、撮像制御部103b、撮影制御変更部103c、画像合成部103d、記録制御部103e、メタデータ作成部104を有する。
The
撮像制御部103bは、撮像素子102bから画像データの取得の制御を行う。すなわち、撮像制御部103bは、撮像素子102bの光電変換時間や画像データの読出しを制御し、読み出した画像データを制御部101に出力させる。
The image
撮影制御変更部103cは、深度合成処理モード、ハイダイナミックレンジ合成処理(HDR)モード、超高解像合成処理モード等の設定されたモードに応じて、ピント変更部102b、露出変更部102c、撮像位置変更部102dを制御し、設定されたモードに応じた撮影制御を実行する。
The shooting control changing unit 103c has the
画像合成部103dは、画像処理回路等を有し、深度合成処理モード、ハイダイナミックレンジ合成処理(HDR)モード、超高解像合成処理モード、ノイズリダクションモード、電子手振れ防止モード等に応じて、取得した複数コマの画像データに対して、画像処理を施す。深度合成処理モード、ハイダイナミックレンジ合成処理(HDR)モード、超高解像合成処理モードにおける画像処理については、図2ないし図4を用いて後述する。 The image compositing unit 103d has an image processing circuit and the like, and corresponds to a depth compositing processing mode, a high dynamic range compositing processing (HDR) mode, an ultra-high resolution compositing processing mode, a noise reduction mode, an electronic camera shake prevention mode, and the like. Image processing is performed on the acquired image data of a plurality of frames. Image processing in the depth composition processing mode, the high dynamic range composition processing (HDR) mode, and the ultra-high resolution composition processing mode will be described later with reference to FIGS. 2 to 4.
画像合成部103dは、画像データ取得部によって、異なる露出条件で複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行う第1画像合成部として機能する。画像合成部103dは、画像データ取得部によって、同一の露出条件、かつ露出以外の条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行う第2画像合成部として機能する。 The image composition unit 103d functions as a first image composition unit that acquires a plurality of captured image data under different exposure conditions by the image data acquisition unit and performs the first image composition using the acquired plurality of captured image data. do. The image synthesizing unit 103d acquires a plurality of captured image data with the same exposure conditions and different conditions other than exposure by the image data acquisition unit, and uses the acquired plurality of captured image data to obtain a second image. It functions as a second image compositing unit for compositing.
記録制御部103eは、画像処理部103によって画像処理が施された画像データを、記録部105に記録する際の記録制御を行う。後述するように、画像データは、メタデータ作成部104によって生成されたメタデータと関連付けられ、記録部105に記録される。画像合成モードに応じて、実施データまたは参考データのいずれかが関連付けられる(図7のS13、S19、S25参照)。
The
メタデータ作成部104は、画像データに付随した情報を生成する。本実施形態においては、メタデータ作成部104は実施データ作成部104aと参考データ作成部104bを有する。実施データ作成部104aは、複数コマの画像データを取得した際の実際の露出条件に基づいてメタデータを生成する。参考データ作成部104bは、複数コマの画像データを取得した際の実際の複数の露出条件から参考となる露出条件を算出し、この露出条件に基づいてメタデータを生成する。
The
メタデータ作成部104は、第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成するメタデータ作成部として機能する。また、このメタデータ作成部は、第1の画像合成を行う場合と、第2の画像合成を行う場合で、異なる露出条件(撮影条件)を示す単一のメタデータを作成する(例えば、図2(d)、図3(d)、図4(d)、図7のS19、S25参照)。
The
メタデータ作成部は、第1の画像合成と上記第2の画像合成を区別する情報を作成する(例えば、図9(c)参照)。また、メタデータ作成部は、第1の画像合成を行った場合には画像データ取得部における露出条件に基づいて参考メタデータを作成し(例えば、図7のS19参照)、第2の画像合成を行った場合には画像データ取得部における実際の露出条件を実施メタデータとする(例えば、図7のS25参照)。 The metadata creation unit creates information that distinguishes the first image composition from the second image composition (see, for example, FIG. 9C). Further, when the first image composition is performed, the metadata creation unit creates reference metadata based on the exposure conditions in the image data acquisition unit (see, for example, S19 in FIG. 7), and the second image composition. When the above is performed, the actual exposure condition in the image data acquisition unit is used as the implementation metadata (see, for example, S25 in FIG. 7).
メタデータ作成部は、第1の画像合成部によって第1の画像合成を行った場合には、第1の画像合成によって生成された合成画像の露出効果に相当するメタデータを作成する(例えば、図4、図7のS19参照)。メタデータ作成部は、第2の画像合成部によって第2の画像合成を行った場合には、画像データ取得部で1コマの画像データを取得する際の露出条件に基づいてメタデータを作成する(例えば、図2、図3、図7のS25参照)。 When the first image composition is performed by the first image composition unit, the metadata creation unit creates metadata corresponding to the exposure effect of the composite image generated by the first image composition (for example,). See S19 in FIGS. 4 and 7). When the second image composition is performed by the second image composition unit, the metadata creation unit creates metadata based on the exposure conditions when the image data acquisition unit acquires one frame of image data. (See, for example, S25 in FIGS. 2, 3, and 7).
記録部105は、電気的に書き換え可能な不揮発性メモリを有する記録媒体である。記録部105には、画像データ105bと、この画像データ105bに関連付けられたメタデータ105cが記録可能である。記録部105に記録される画像データやメタデータ等は、例えば、Exif等の規格に従って記録される。
The
表示部106は、カメラの背面等に配置された表示ディスプレイを有し、表示ディスプレイには、スルー画表示、再生表示、メニュー画面等、種々の画像が表示される。
The
操作部107は、電源釦、レリーズ釦、再生釦、OK釦、タッチパネル等の種々の操作部材を有する。電源釦、レリーズ釦、再生釦、OK釦等の操作に応じてオンとなるスイッチを有し、操作部107は、スイッチの操作状態を検出し、制御部101に出力する。
The
通信部108は、外部機器やインターネット等と通信を行うための通信回路を有する。通信部108を介して、撮像素子102bによって取得され、記録部105に記録されたメタデータ付き画像データが外部に送信される。
The
次に、図2を用いて、深度合成モードが設定された場合の撮影方法と画像合成方法について説明する。図2(a)は、ユーザ10がカメラ20を用いて被写体30を、深度合成モードで撮影する様子を示す。被写体30の上部30aと下部30bは、カメラ20からの距離が異なるため、上部30aと下部30bの両方にピントを合わせるのは困難な場合がある。このような状況で、深度合成モードが設定されると、ピントの位置を変えながら複数コマを撮影し、撮影された画像内の部分を比較し、ピントの合った部分を合成してピントの合った画像を作成する。
Next, with reference to FIG. 2, a shooting method and an image composition method when the depth composition mode is set will be described. FIG. 2A shows how the
図2(b)は、撮影タイミングとピントの合っている部分を示す。時刻t0において、レリーズ釦が操作され撮影が開始すると時刻t1〜t2の間に1回目の撮影がなされる。この時のシャッタ速度SSは1/100秒であり、また撮影画像の内、黒塗りの部分F1(上部30aに相当)にピント合っている。撮影が終わると、時刻t2〜t3の間に、ピント変更部102cによって光学系102aのピント位置を移動させる。
FIG. 2B shows a portion that is in focus with the shooting timing. When the release button is operated at time t0 and shooting starts, the first shooting is performed between times t1 and t2. The shutter speed SS at this time is 1/100 second, and the black-painted portion F1 (corresponding to the
続いて、時刻t4〜t4の間に2回目の撮影がなされる。この時のシャッタ速度SSも1/100秒であり、また撮影画像の内、黒塗りの部分F2(下部30bに相当)にピント合っている。1回目および2回目に撮影された2つの撮影画像に深度合成処理を施すと、黒塗りの部分F1およびF2(上部30aおよび下部30b)にピントが合った画像を得ることができる。
Subsequently, a second shooting is performed between the times t4 and t4. The shutter speed SS at this time is also 1/100 second, and the black-painted portion F2 (corresponding to the
図2(c)において、画像41は1枚目の撮影画像を示し、この撮影により被写体30の上部30a(図2(b)のF1参照)にピントを合わせた画像データを取得する。次に、画像42は2枚目の撮影画像を示し、この撮影により被写体30の下部30b(図2(b)のF2参照)にピントを合わせた画像データを取得する。
In FIG. 2C, the image 41 shows the first captured image, and the image data focused on the
画像41および画像42の画像データを取得すると、次に、画像合成部103dは、両画像データを深度合成する。この深度合成処理は、画像ごとに、画像の先鋭度(コントラスト)の高い領域を抽出し、先鋭度が高い領域の画像データを合成する。これにより、上部30aおよび下部30bの両方にピントがあった画像43の画像データを生成する。深度合成処理は、単写よりも深い被写界深度の画像データを生成することができる。
After acquiring the image data of the image 41 and the image 42, the image synthesizing unit 103d next performs depth synthesizing of both image data. In this depth composition process, a region having a high sharpness (contrast) of the image is extracted for each image, and image data in the region having a high sharpness is synthesized. As a result, the image data of the
また、画像合成部103dが深度合成処理によって画像データを生成すると、メタデータ生成部104は、メタデータも生成する。深度合成を行うための1回目の撮影と、2回目の撮影と、露出は2回行われている。1回目と2回目の露出条件はいずれもシャッタ速度SSが1/100秒であり、絞りはFNo.16で同一であるので、露出データは、実施データとなる。そこで、メタデータ44としては、図2(d)に示すように、この共通の露出条件である実施データを記録し、参考データは記録しない。他のユーザは、この実施データを使用することにより、深度合成画像と同様の明るさの画像を得ることができる。
Further, when the image synthesizing unit 103d generates the image data by the depth synthesizing process, the
次に、図3を用いて、超解像合成モードが設定された場合の撮影方法と画像合成方法について説明する。図3(a)は、ユーザ10がカメラ20を用いて被写体31を、超解像合成モードで撮影する様子を示す。被写体31は、遠方にあり、通常の焦点距離で撮影しても被写体31は小さく写り、拡大表示(拡大プリント)しても十分な解像度の表示とはならない。
Next, with reference to FIG. 3, a shooting method and an image composition method when the super-resolution composition mode is set will be described. FIG. 3A shows how the
このような図3(a)に示す状況で、超解像合成モードが設定されると、撮像位置変更部102eは、撮像素子102bの位置を変えながら複数コマを撮影する。そして、1回目の撮影で取得した画像における画素と画素の中間位置を、2回目から4回目の撮影において撮像素子102bの位置を変えて撮影した画像を用いて、補間することにより、解像度の高い画像を合成する。超解像合成で画像45が生成されると、図3(b)に示すように、拡大画像46の解像度は高く、拡大鑑賞が可能となる。
In such a situation shown in FIG. 3A, when the super-resolution synthesis mode is set, the image pickup
図3(c)は、超解像撮影時のタイミングチャートと撮像素子102bの移動を示す。時刻t0において、レリーズ釦が操作され撮影が開始すると時刻t11〜t12の間に1回目の撮影がなされる。この時のシャッタ速度SSは1/100秒であり、また撮像素子102bは位置P1にある。時刻t12において撮影が終わると、撮像位置変更部102eは、時刻t13までの間に撮像素子102bを位置P2まで移動させる。
FIG. 3C shows the timing chart and the movement of the
次に、時刻t13〜t14の間に2回目の撮影がなされる。この時のシャッタ速度SSは1/100秒であり、また撮像素子102bは位置P2にある。このタイミングにおいて位置P1は破線で示しており、撮像素子102bの位置P2は図3(c)に示すように、右下に所定量だけ移動している。この所定量は、画素間隔(画素ピッチ)よりも小さな値(例えば、画素ピッチの1/2)である。時刻t14において撮影が終わると、撮像位置変更部102eは、時刻t15までの間に撮像素子102bを位置P3まで移動させる。
Next, a second shooting is performed between the times t13 and t14. The shutter speed SS at this time is 1/100 second, and the
次に、時刻t15〜t16の間に3回目の撮影がなされる。この時のシャッタ速度SSは1/100秒であり、また撮像素子102bは位置P3にある。このタイミングにおいて位置P1は破線で示しており、撮像素子102bの位置P3は図3(c)に示すように、右上に所定量だけ移動している。
Next, a third shooting is performed between the times t15 and t16. The shutter speed SS at this time is 1/100 second, and the
以後、時刻t17〜t18において4回目の撮影がなされ、時刻t19〜t20において5回目の撮影がなされる。これらタイミングでもシャッタ速度SSは1/100秒であり、また撮像素子102bは位置P4、P5と、位置P1よりも左下、左上に所定量だけ移動している。
After that, the fourth shooting is performed at times t17 to t18, and the fifth shooting is performed at times t19 to t20. Even at these timings, the shutter speed SS is 1/100 second, and the
複数の画像データを取得すると、画像合成部103dは超解像合成処理を施す。すなわち、撮像素子102bの位置P1を基準として、画素が所定量移動した際の画像データを用いて、画素間の画素値を補間する。例えば、撮像素子102bの移動量が画素ピッチの1/2であれば、画素の前後左右1/2ピッチずれた位置の画素値を補間することができ、画素数が4倍相当の高解像の画像データとなる。
When a plurality of image data are acquired, the image synthesizing unit 103d performs a super-resolution synthesizing process. That is, the pixel values between the pixels are interpolated using the image data when the pixels move by a predetermined amount with reference to the position P1 of the
画像合成部103dが超解像合成処理によって画像データを生成すると、メタデータ生成部104は、メタデータも生成する。超解像合成を行うために、露出は5回行われている。1回目から5回目の露出条件はいずれもシャッタ速度SSが1/100秒であり、絞りはFNo.16で同一であるので、露出データは、実施データとなる。そこで、メタデータ47としては、図3(d)に示すように、この共通の露出条件である実施データを記録し、参考データは記録しない。
When the image synthesizing unit 103d generates the image data by the super-resolution synthesizing process, the
すなわち、複数枚の画像データが生成されると、画像合成部103dは、超解像合成処理を施し、超解像成画像データを生成する。メタデータ作成部104は、実施データ104aとして、図3に示した例では、1回の撮影の際の露出条件であるシャッタ速度SS=1/100秒、また絞り値FNo.16を生成する。ここで生成されたメタデータ(実施データ104a)は、記録部105内にメタデータ105cとして画像データに関連付けて記録される。他のユーザは、この実施データを使用することにより、超解像合成画像と同様の明るさの画像を得ることができる。
That is, when a plurality of image data are generated, the image synthesizing unit 103d performs a super-resolution synthesizing process to generate super-resolution image data. In the example shown in FIG. 3, the
次に、図4を用いて、ハイダイナミックレンジ合成処理(HDR)モードが設定された場合の撮影方法と画像合成方法について説明する。図4(a)は、ユーザ10がカメラ20を用いて、被写体である人物32および桜の木33を撮影する様子を示す。これらの被写体は晴天の下にあり、桜の木33は非常に明るく、一方人物は逆光のため非常に暗くなっている。すなわち、撮像素子102bが明暗を再現できる範囲が非常に広くないと、両方の被写体の明暗を適正に表現することができない。このような場合に、HDRモードに設定して撮影を行う。
Next, with reference to FIG. 4, a shooting method and an image composition method when the high dynamic range composition processing (HDR) mode is set will be described. FIG. 4A shows a
図4(c)は、HDRモードに設定されたときの撮像のタイミングチャートである。図4(a)の状態で撮影する際の標準露出(適正露出)、すなわち、被写体32、33の両方を考慮した標準露出は、シャッタ速度1/100秒、絞り値FNo.16とする。HDRモードが設定されると、この標準露出よりオーバ露光となる露出条件で1回目の撮影を行い、続いて、アンダ露光となる露出条件で2回目の撮影を行う。
FIG. 4C is a timing chart of imaging when the HDR mode is set. The standard exposure (appropriate exposure) when shooting in the state of FIG. 4A, that is, the standard exposure considering both the
本実施形態においては、図4(c)に示すように、時刻t0において、レリーズ釦が操作され撮影が開始すると時刻t21〜t23の間に1回目の撮影がなされる。この時のシャッタ速度SSは1/100秒の2倍の露出時間(SSは2/100秒)である。続いて、時刻t24〜t25の間に2回目の撮影がなされる。このときのシャッタ速度SSは1/100の1/2倍の露出時間(SSは1/200秒)である。なお、光学系102aのピント位置は1回目と2回目の撮影において同じである。
In the present embodiment, as shown in FIG. 4C, when the release button is operated at time t0 and shooting starts, the first shooting is performed between times t21 to t23. The shutter speed SS at this time is twice the exposure time of 1/100 second (SS is 2/100 second). Subsequently, a second shooting is performed between the times t24 and t25. The shutter speed SS at this time is 1/2 times the exposure time of 1/100 (SS is 1/200 second). The focus position of the
1回目の撮影で取得した露出オーバの画像データと、2回目の撮影で取得した露出アンダの画像データを用いて、画像合成部103dはHDR合成を行い、暗部から明部までの明暗の再現に優れた画像データを生成する。このHDR合成にあたっては、それぞれの画像(被写体)で適正露出となっている部分を繋ぎ合わせることによって、画面全体で白飛びや黒つぶれがない画像データを合成する。 Using the overexposed image data acquired in the first shooting and the exposure under image data acquired in the second shooting, the image compositing unit 103d performs HDR compositing to reproduce the light and dark from the dark part to the bright part. Generate excellent image data. In this HDR composition, image data without overexposure or underexposure is combined over the entire screen by joining the parts of each image (subject) that are properly exposed.
図4(b)は、HDR合成処理を施さない画像48と、HDR合成処理を施した画像49を示す。HDR合成処理を施していない画像48は、桜の木33は白飛びとなっており、一方人物32は黒つぶれとなっている。これに対して、HDR合成処理を施した画像49は、桜の木33および人物32は適正に明暗が表現されている。
FIG. 4B shows an
HDR合成処理を施した画像49のメタデータ50は、図4(b)に示すように、シャッタ速度SS=1/100秒、絞りFNo.=16である。前述したように、HDR合成モードでは、露出は2回行われているが、各々異なる露出量であることから、実施データ(SS:1/50、1/200)104aを記録せず、参考データ(SS:1/100)104bを記録する(図4(d)参照)。
As shown in FIG. 4B, the
すなわち、複数枚の画像データが生成されると、画像合成部103dは、HDR合成処理を施し、HDR合成画像データを生成する。メタデータ作成部104は、参考データ104bとして、図4に示した例では、HDR合成によって生成された画像の露出条件に相当するシャッタ速度SS=1/100秒、また絞り値FNo.16を生成する。ここで生成されたメタデータ(参考データ104b)は、記録部105内にメタデータ105cとして画像データに関連付けて記録される。この参考データで撮影すれば、色表現などを除けば、同様の明るさの画像を得ることができる。
That is, when a plurality of image data are generated, the image synthesizing unit 103d performs the HDR synthesizing process to generate the HDR synthesizing image data. As
次に、図5を用いて、ノイズリダクションモード(NRモード)が設定された場合の撮影タイミングについて説明する。ISO感度を高感度に設定すると、画像にノイズが増加し、見苦しくなる。そこで、同一の露出条件で複数コマの撮影を行い、各画像の対応する画素の出力値を平均化することにより、ノイズを低減させた画像を合成することができる。 Next, the shooting timing when the noise reduction mode (NR mode) is set will be described with reference to FIG. When the ISO sensitivity is set to high sensitivity, noise increases in the image and it becomes unsightly. Therefore, it is possible to synthesize an image with reduced noise by shooting a plurality of frames under the same exposure condition and averaging the output values of the corresponding pixels of each image.
NRモードが設定された状態で、レリーズ釦が操作され撮影が開始すると、時刻t31〜t32、t33〜t34、t35〜t36、t37〜t38、t39〜t40の間で、撮影が行われる。このときの露出条件は、いずれもシャッタ速度SSは1/100秒であり、ISO感度は6400である。なお、NRモードの際の撮影回数は、適宜、最適な回数を選択すればよい。 When the release button is operated and shooting starts with the NR mode set, shooting is performed between the times t31 to t32, t33 to t34, t35 to t36, t37 to t38, and t39 to t40. The exposure conditions at this time are that the shutter speed SS is 1/100 second and the ISO sensitivity is 6400. As for the number of times of shooting in the NR mode, the optimum number of times may be appropriately selected.
複数枚の画像データが生成されると、画像合成部103dは、対応する画素の画素値の平均値を算出し、NR合成画像データを生成する。メタデータ作成部104は、実施データ104aとして、図5に示した例では、各撮影の際の露出条件、すなわちシャッタ速度SSとして1/100秒、ISO感度6400を生成する。ここで生成されたメタデータ(実施データ104a)は、記録部105内にメタデータ105cとして画像データに関連付けて記録される。
When a plurality of image data are generated, the image synthesizing unit 103d calculates the average value of the pixel values of the corresponding pixels and generates the NR composite image data. In the example shown in FIG. 5, the
次に、図6を用いて、電子手振れ防止モードが設定された場合の撮影タイミングについて説明する。カメラを保持するユーザの手が振れていると、画像がぶれてしまい、見苦しい画像となってしまう。そこで、同一の露出条件で複数コマの撮影を行い、各画像の画素位置を手振れ量に応じてずらし、対応する画素の出力値を平均化することにより、手振れを軽減させた画像データを得ることができる。 Next, with reference to FIG. 6, the shooting timing when the electronic camera shake prevention mode is set will be described. If the user holding the camera is shaking, the image will be blurred, resulting in an unsightly image. Therefore, by shooting a plurality of frames under the same exposure conditions, shifting the pixel positions of each image according to the amount of camera shake, and averaging the output values of the corresponding pixels, image data with reduced camera shake can be obtained. Can be done.
電子手振れ防止モードが設定された状態で、レリーズ釦が操作され撮影が開始すると、時刻t41〜t42、t43〜t44、t45〜t46、t47〜t48、t49〜t50の間で、撮影が行われる。このときの露出条件は、いずれもシャッタ速度SSは1/100秒であり、ISO感度は6400である。なお、手振れ量が所定量以上の場合には(図6の時刻t43〜t44の撮影参照)、手振れ補正が困難な場合が多いので、手振れ防止合成処理の対象画像から除外する。電子手振れ防止モードの際の撮影回数は、適宜、最適な回数を選択すればよい。 When the release button is operated and shooting starts with the electronic camera shake prevention mode set, shooting is performed between the times t41 to t42, t43 to t44, t45 to t46, t47 to t48, and t49 to t50. The exposure conditions at this time are that the shutter speed SS is 1/100 second and the ISO sensitivity is 6400. When the amount of camera shake is equal to or more than a predetermined amount (see the shooting at times t43 to t44 in FIG. 6), it is often difficult to correct the camera shake, so the image is excluded from the target image of the camera shake prevention composition process. As for the number of times of shooting in the electronic camera shake prevention mode, the optimum number of times may be appropriately selected.
複数枚の画像データが生成されると、画像合成部103dは、手振れ量を検出し、この手振れ量に応じて、画素の位置をずらして、対応する画素の画素値の平均値を算出し、電子手振れ防止画像データを生成する。手振れ量は、ジャイロ等のセンサ出力を利用してもよく、また2つの画像データの相関演算により手振れ量を算出してもよい。 When a plurality of image data are generated, the image synthesizing unit 103d detects the amount of camera shake, shifts the pixel positions according to the amount of camera shake, and calculates the average value of the pixel values of the corresponding pixels. Generates electronic camera shake prevention image data. As the camera shake amount, a sensor output such as a gyro may be used, or the camera shake amount may be calculated by a correlation calculation of two image data.
メタデータ作成部104は、実施データ104aとして、図6に示した例では、各撮影の際の露出条件、すなわちシャッタ速度SSとして1/100秒、ISO感度6400を生成する。ここで生成されたメタデータ(実施データ104a)は、記録部105内にメタデータ105cとして画像データに関連付けて記録される。
In the example shown in FIG. 6, the
図2ないし図6を用いて説明したように、本実施形態においては、複数コマの露出を行い、この露出によって取得した画像データを用いて画像合成部103dが画像合成を行っている。メタデータ生成部104は、画像合成の種類に応じて、実施データ104aまたは参考データ104dのいずれかを作成し、記録部105内にメタデータ105cを記録するようにしている。
As described with reference to FIGS. 2 to 6, in the present embodiment, a plurality of frames are exposed, and the image synthesizing unit 103d performs image synthesizing using the image data acquired by the exposure. The
メタデータの作成にあたっては、複数コマのそれぞれのコマでの露出条件が同じ場合には、実際に制御した露出条件を実施データ104aとして作成している。一方、複数コマのそれぞれのコマでの露出条件が異なる場合には、合成処理によって生成された画像に相当する露出条件を算出して、この露出条件を参考データ104bとして作成している。
In creating the metadata, when the exposure conditions in each of the plurality of frames are the same, the actually controlled exposure conditions are created as the
また、メタデータとして、メタデータ作成部104は、合成処理を区別するための情報も作成し、この合成処理を区別するための情報を記録部105に記録するようにしてもよい。この場合、メタデータ作成部104で作成したデータが、実施データであるか、参考データであるかを区別できるような情報であってもよい。
Further, as the metadata, the
なお、画像合成処理としては、上述した深度合成処理、超解像合成処理、HDR合成処理、NR合成処理、電子手振れ防止合成処理に限らず、例えば、比較明合成処理、比較暗合成処理、平均加算合成処理、ライブバルブ合成処理等、複数コマの画像データを用いて合成処理を行うものであればよい。この場合、例えば、比較明合成処理の場合には、トータルの露出時間を実施データとしてメタデータとして記録すればよい。 The image composition processing is not limited to the above-mentioned depth composition processing, super-resolution composition processing, HDR composition processing, NR composition processing, and electronic camera shake prevention composition processing, and is not limited to, for example, comparative bright composition processing, comparative dark composition processing, and averaging. Anything that performs compositing processing using image data of a plurality of frames, such as additive compositing processing and live bulb compositing processing, may be used. In this case, for example, in the case of comparative bright composition processing, the total exposure time may be recorded as implementation data as metadata.
次に、図7および図8に示すフローチャートを用いて、本実施形態におけるカメラ制御について説明する。このフローチャートは、制御部101内のCPUがメモリに記憶されたプログラムに従って、カメラ内の各部を制御することにより、実行する。
Next, the camera control in the present embodiment will be described with reference to the flowcharts shown in FIGS. 7 and 8. This flowchart is executed by the CPU in the
カメラ制御のフローに入ると、まず、撮影モードか否かを判定する(S1)。カメラのモードは、ユーザが再生モード等他のモードに設定しなければ、デフォルトとして撮影モードに設定されている。このステップでは、モードの設定状態を検出し、その検出結果に基づいて判定する。 When entering the camera control flow, first, it is determined whether or not the shooting mode is set (S1). The camera mode is set to the shooting mode as the default unless the user sets it to another mode such as the playback mode. In this step, the mode setting state is detected, and the determination is made based on the detection result.
ステップS1における判定の結果、撮影モードであれば、次に、スルー画用撮像を行う(S3)。ここでは、撮像素子102bによって取得された画像データを取得する。この画像データは所定のフレームレートで繰り返し取得される。
If the result of the determination in step S1 is the shooting mode, then the through image imaging is performed (S3). Here, the image data acquired by the
スルー画用撮像を行うと、次に、スルー画表示、ピント合わせ、標準露出を設定する(S5)。ステップS3において取得した画像データに対して、画像処理部103においてスルー画表示用の画像処理を施し、この処理された画像データに基づいて、表示部106にスルー画表示を行う。スルー画表示は所定のフレームレートで更新される。また、取得した画像データのコントラスト値を算出し、このコントラスト値がピークとなるように、光学系102aのフォーカスレンズの位置を調整する。なお、ピント合わせは、前述のコントラストAF以外にも位相差AF等、他の方法によって行ってもよい。また、画像データから輝度情報等を算出し、この輝度情報に基づいて、シャッタ速度、絞り値、ISO感度等の標準露出を設定する。
After imaging for a through image, the through image display, focusing, and standard exposure are set (S5). The
続いて、モード切換があったか否かを判定する(S7)。操作部107の操作部材によってモードの切換を行うことができる。ここでのモードは、前述した撮影モード、再生モードの他、深度合成モード、超解像合成モード、HDR合成モード等、複数コマの露出を行い、合成処理を行うモードを含む。
Subsequently, it is determined whether or not the mode has been switched (S7). The mode can be switched by the operation member of the
ステップS7における判定の結果、モード切換があった場合には、モード設定を行う(S9)。ここでは、操作部107によるモードに切換に応じて、モード制御部101bにおけるモードを設定する。
If the mode is switched as a result of the determination in step S7, the mode is set (S9). Here, the mode in the
ステップS9においてモード設定を行うと、またはステップS7における判定の結果、モード切換がなかった場合には、次に、レリーズスイッチが操作されたか否かを判定する(S11)。レリーズ釦が操作されると、レリーズスイッチの状態が変化する。ここでは、レリーズスイッチの状態変化に基づいて判定する。この判定の結果、レリーズスイッチが操作されていない場合には、ステップS1に戻る。 If the mode is set in step S9, or if there is no mode switching as a result of the determination in step S7, then it is determined whether or not the release switch has been operated (S11). When the release button is operated, the state of the release switch changes. Here, the determination is made based on the state change of the release switch. As a result of this determination, if the release switch is not operated, the process returns to step S1.
ステップS11における判定の結果、レリーズスイッチが操作された場合には、次に、露出変更を伴うモードか否かを判定する(S13)。ここでは、最初に設定されているモード、またはステップS9において設定されたモードに基づいて判定する。露出変更を伴うモードとしては、例えば、HDR合成モードがある。また、露出変更を伴わないモードとしては、例えば、深度合成モード、超解像合成モード、ノイズリダクション(NR)モード、電子手ブレ防止モード等がある。 If the release switch is operated as a result of the determination in step S11, then it is determined whether or not the mode involves an exposure change (S13). Here, the determination is made based on the mode set first or the mode set in step S9. As a mode that involves changing the exposure, for example, there is an HDR composition mode. Further, as a mode that does not involve an exposure change, for example, there are a depth composition mode, a super-resolution composition mode, a noise reduction (NR) mode, an electronic camera shake prevention mode, and the like.
ステップS13における判定の結果、露出変更を伴うモードの場合には、標準露出から長秒時、短秒時に変更して複数枚の撮影を行う(S15)。この場合は、複数コマの撮影を行う際に、それぞれのコマで露出条件が異なる場合である。例えば、図4を用いて説明したHDR合成モードでは、1コマ目では標準露出(ステップS5において設定)よりも露出オーバとなるように、シャッタ速度を長秒時に設定し、2コマ目では標準露出よりも露出アンダとなるようにシャッタ速度を短秒時に設定し、撮影している。 As a result of the determination in step S13, in the case of the mode accompanied by the exposure change, the standard exposure is changed to the long time and the short time, and a plurality of shots are taken (S15). In this case, when shooting a plurality of frames, the exposure conditions are different for each frame. For example, in the HDR composition mode described with reference to FIG. 4, the shutter speed is set to a long time so that the exposure is overexposed in the first frame (set in step S5), and the standard exposure is set in the second frame. The shutter speed is set to a short time so that the exposure is underexposed.
続いて、画像合成を行う(S17)。ここでは、ステップS15において取得した複数の画像データに対して、画像合成部103dが設定されているモードに従って、画像合成処理を施す。 Subsequently, image composition is performed (S17). Here, the image compositing process is performed on the plurality of image data acquired in step S15 according to the mode in which the image compositing unit 103d is set.
画像合成を行うと、次に、画像データとメタデータ(参考露出)を記録する(S19)。ここでは、メタデータ作成部104が参考データ104bを作成する。参考データ104bは、前述したように、画像合成によって生成された画像の効果に相当する露出条件を示すデータである。この作成された参考データ104bは、ステップS17において合成された画像データに関連付けられて記録部105の画像データ105bおよびメタデータ105cとして記録される。データの記録を行うと、ステップS1に戻る。
After image composition, image data and metadata (reference exposure) are then recorded (S19). Here, the
ステップS13に戻り、このステップでの判定の結果、露出変更を伴うモードでない場合には、標準露出でピントや撮像素子位置を変更して複数枚の撮影を行う(S21)。ここでは、設定されているモードに応じた処理を行う。例えば、深度合成モードが設定されている場合には、ピント位置を変更し、変更した複数のピント位置でそれぞれ撮影を行う。また、超解像合成モードが設定されている場合には、撮像素子102bの位置を変更し、変更した複数の位置でそれぞれ撮影を行う。このときの露出条件は、ステップS5において算出された標準露出である。
Returning to step S13, as a result of the determination in this step, if the mode does not involve an exposure change, the focus and the position of the image sensor are changed with the standard exposure to take a plurality of images (S21). Here, processing is performed according to the set mode. For example, when the depth-of-field composition mode is set, the focus position is changed, and shooting is performed at each of the changed plurality of focus positions. When the super-resolution synthesis mode is set, the position of the
続いて、画像合成を行う(S23)。ここでは、ステップS21において取得した複数の画像データに対して、画像合成部103dが設定されているモードに従って、画像合成処理を施す。 Subsequently, image composition is performed (S23). Here, the image compositing process is performed on the plurality of image data acquired in step S21 according to the mode in which the image compositing unit 103d is set.
画像合成を行うと、次に、画像データとメタデータ(実施露出)を記録する(S25)。ここでは、メタデータ作成部104が実施データ104aを作成する。実施データ104aは、前述したように、複数コマの撮影を行った際の各コマにおいて実際に露出制御された露出条件を示すデータである。この作成された実施データ104aは、ステップS23において合成された画像データに関連付けられて記録部105の画像データ105bおよびメタデータ105cとして記録される。データの記録を行うと、ステップS1に戻る。
After image composition, image data and metadata (implemented exposure) are recorded (S25). Here, the
ステップS1に戻り、この判定の結果、撮影モードでない場合には、再生モードか否かを判定する(S31)。ユーザが操作部107の再生釦等の操作部材を操作することにより、再生モードを設定することができる。このステップにおける判定の結果、再生モードでない場合には、その他のモードに移行する。
Returning to step S1, if the result of this determination is not the shooting mode, it is determined whether or not the mode is the reproduction mode (S31). The playback mode can be set by the user operating an operation member such as a play button of the
ステップS31における判定の結果、再生モードの場合には、次に、アイコン一覧を表示する(S33)。ここでは、記録部105に記録されている画像データのサムネイルデータに基づいて、記録画像のアイコンを表示部106に表示する。
As a result of the determination in step S31, in the case of the playback mode, the icon list is displayed next (S33). Here, the icon of the recorded image is displayed on the
次に、画像が選択されたか否かについて判定する(S35)。ユーザは表示部106に表示された一覧表示されたアイコンの中から拡大表示したいアイコンをタッチ、または十字釦等によって選択する。このステップでは、ユーザによってアイコンが選択されたか否かを判定する。
Next, it is determined whether or not the image is selected (S35). The user selects an icon to be enlarged and displayed from the icons displayed in the list displayed on the
ステップS35における判定の結果、画像が選択されていない場合には、戻るか否かを判定する(S37)。ユーザが再生モードを終了したい場合には、操作部107の内の戻る釦を操作するか、戻るアイコンをクリックする(総称して戻る操作)。ここでは、戻る操作がなされたか否かに基づいて判定する。この判定の結果、戻る操作がなされていない場合には、ステップS33に戻る。一方、戻る操作がなされた場合には、ステップS1に戻る。
If the image is not selected as a result of the determination in step S35, it is determined whether or not to return (S37). When the user wants to exit the playback mode, he / she operates the back button in the
ステップS35における判定の結果、画像が選択された場合には、拡大表示を行う(S39)。ここでは、選択されたアイコンの画像データを読出し、表示部106に拡大表示を行う。
If an image is selected as a result of the determination in step S35, an enlarged display is performed (S39). Here, the image data of the selected icon is read and enlarged and displayed on the
拡大表示を行うと、次に、詳細表示を行うか否かの判定を行う(S41)。ユーザが選択した画像に関連付けて記録されているメタデータを表示させたい場合には、操作部107の内の詳細釦を操作するか又は詳細アイコンをクリックする(総称して詳細表示操作)。ここでは、詳細表示操作がなされたか否かに基づいて判定する。
When the enlarged display is performed, it is next determined whether or not the detailed display is performed (S41). When it is desired to display the metadata recorded in association with the image selected by the user, the detail button in the
ステップS41における判定の結果、詳細表示操作がなされていた場合には、メタデータを表示する(S43)。ここでは、画像データに関連付けて記録されたメタデータ105cを記録部105から読み出し、表示部106に表示する。表示例については図9を用いて後述する。
As a result of the determination in step S41, if the detailed display operation has been performed, the metadata is displayed (S43). Here, the metadata 105c recorded in association with the image data is read from the
ステップS43においてメタデータを表示すると、またはステップS41における判定の結果、詳細表示操作がなされていない場合には、外部送信か否かを判定する(S45)。ユーザが記録部105に記録された画像データを、インターネット等を介して、無線また有線通信等によって送信した場合には、操作部107の送信釦を操作し、または送信アイコンをタッチ操作する(総称して外部送信操作)。このステップでは、外部送信操作がなされたか否かに基づいて判定する。
When the metadata is displayed in step S43, or as a result of the determination in step S41, if the detailed display operation has not been performed, it is determined whether or not the transmission is external (S45). When the user transmits the image data recorded in the
ステップS45における判定の結果、外部送信操作がなされた場合には、設定先に送信する(S47)。ここでは、設定された送信先に、ステップS35において選択された画像の画像データおよび関連付けされたメタデータを送信する。送信先では、受信した画像データに基づく画像およびメタデータを表示させることができる。この時の表示例については図9を用いて後述する。 If an external transmission operation is performed as a result of the determination in step S45, the transmission is performed to the setting destination (S47). Here, the image data of the image selected in step S35 and the associated metadata are transmitted to the set destination. At the destination, an image and metadata based on the received image data can be displayed. A display example at this time will be described later with reference to FIG.
ステップS47において設定先に送信すると、またはステップS45における判定の結果、外部送信操作がされていない場合には、戻るか否かを判定する(S49)。ユーザが再生モードを終了したい場合には、戻る操作を行う。ここでは、この戻る操作がなされたか否かに基づいて判定する。この判定の結果、戻る操作がなされていない場合には、ステップS39に戻る。一方、戻る操作がなされた場合には、ステップS1に戻る。 If the transmission is performed to the setting destination in step S47, or as a result of the determination in step S45, if the external transmission operation has not been performed, it is determined whether or not to return (S49). If the user wants to exit the playback mode, perform a return operation. Here, the determination is made based on whether or not this return operation has been performed. As a result of this determination, if the return operation has not been performed, the process returns to step S39. On the other hand, when the return operation is performed, the process returns to step S1.
このように、本実施形態におけるカメラ制御のフローにおいては、レリーズ操作がなされた際に、露出変更を伴うモードが設定されている場合には(S13Yes)、メタデータとして、参考データを作成し記録している(S19)。一方、露出変更を伴わないモードが設定されている場合には(S13No)、メタデータとして実施データを作成し記録している(S25)。すなわち、露出変更を伴わない場合には実際に露出制御された制御値が記録され、一方、露出変更を伴う場合には合成画像の効果に応じた露出制御値が記録されることから、ユーザがメタデータを見た際に、どのような制御がなされたかが分かり易いという効果がある。 As described above, in the camera control flow in the present embodiment, when the release operation is performed and the mode accompanied by the exposure change is set (S13Yes), reference data is created and recorded as metadata. (S19). On the other hand, when the mode not accompanied by the exposure change is set (S13No), the execution data is created and recorded as metadata (S25). That is, when the exposure is not changed, the actual exposure-controlled control value is recorded, while when the exposure is changed, the exposure control value according to the effect of the composite image is recorded. There is an effect that it is easy to understand what kind of control was made when looking at the metadata.
なお、ステップS19およびS25においては、メタデータとしては、参考データおよび実施データのいずれか一方のみを作成し、記録するようにしていた。いずれか一方のみを記録することにより、メタデータ105cの容量を小さくすることができ、また単純化することにより、処理が容易となる。しかし、ステップS19およびS25において、参考データおよび実施データの両方を作成し、これをメタデータ105cとして記録するようにしてもよい。この場合には、例えば、メタデータの記録領域の内、Exif規格のメーカノートのように、製造元が記録可能としている領域を利用してもよい。 In steps S19 and S25, only one of the reference data and the implementation data was created and recorded as the metadata. By recording only one of them, the capacity of the metadata 105c can be reduced, and by simplifying the processing, the processing becomes easy. However, in steps S19 and S25, both reference data and implementation data may be created and recorded as metadata 105c. In this case, for example, among the metadata recording areas, an area that can be recorded by the manufacturer, such as an Exif standard maker notebook, may be used.
次に、図9を用いて、メタデータの表示について説明する。この表示は、図8のステップS43、およびステップS47で送信された送信先で行われる。 Next, the display of metadata will be described with reference to FIG. This display is performed at the destinations transmitted in steps S43 and S47 of FIG.
図9(a)は、図2で示したような深度合成モードが設定された場合の表示例である。この場合には、深度合成された画像43と、実施データとして記録されたシャッタ速度および絞り値を示すメタデータが表示される。図9(b)は、図3で示したような超解像合成モードが設定された場合の表示例である。この場合には、深度合成された画像46と、実施データとして記録されたシャッタ速度および絞り値を示すメタデータが表示される。
FIG. 9A is a display example when the depth synthesis mode as shown in FIG. 2 is set. In this case, the depth-combined
図9(c)は、図4で示したようなHDR合成モードが設定された場合の表示例である。この場合には、HDR合成された画像49と、参考データとして記録されたシャッタ速度および絞り値を示すメタデータが表示される。なお、図9(c)においては、参考データであることを明示するために、「参考」が表示される。このために、メタデータ105cに、参考データであることを示す情報も併せて記録しておく。
FIG. 9C is a display example when the HDR composition mode as shown in FIG. 4 is set. In this case, the HDR-combined
このように、記録された画像に加えて、メタデータを表示することにより、撮影画像の露出条件を確認することが簡単にできる。また、この表示の際に、露出変更を伴わない場合には各コマを撮影した際の実際の露出値が表示され、露出変更を伴う場合には、合成画像の効果に相当する露出値が表示されるようしたので、分かり易い表示となる。撮影者以外の他のユーザは、このメタデータに基づく露出値を参考にすることにより、類似の写真を撮影することが容易となる。 In this way, by displaying the metadata in addition to the recorded image, it is possible to easily confirm the exposure condition of the captured image. In addition, in this display, the actual exposure value at the time of shooting each frame is displayed when the exposure is not changed, and the exposure value corresponding to the effect of the composite image is displayed when the exposure is changed. Because it is done, the display will be easy to understand. Users other than the photographer can easily take a similar photograph by referring to the exposure value based on this metadata.
なお、図9においては、参考データの場合のみ、「参考」と表示したが、この表示を消去しておいてもよい。また、実施データの場合にも、実施データであることを明示するような表示を付加してもよい。また、図9においては、メタデータを画像の外側で表示していたが、画像に重畳して表示するようにしてもよい。 In FIG. 9, "reference" is displayed only in the case of reference data, but this display may be deleted. Further, in the case of the implementation data, a display that clearly indicates that the implementation data may be added. Further, in FIG. 9, although the metadata is displayed outside the image, it may be superimposed on the image and displayed.
以上説明したように、本発明の一実施形態においては、同一の対象物に対し、撮影条件を切り換えて複数の撮影画像データを取得し(例えば、図7のS3参照)、異なる露出条件で取得した複数の撮影画像データを用いて第1の画像合成を行い(例えば、図7のS17参照)、同一の露出条件、かつ露出以外の条件を異ならせて取得した複数の撮影画像データを用いて第2の画像合成を行い(例えば、図7のS23参照)、第1画像合成または第2画像合成によって合成された合成画像データを表すメタデータを作成する際に、第1の画像合成を行う場合と、第2の画像合成を行う場合で、異なる露出条件を示す単一のメタデータを作成する(例えば、図2(d)、図3(d)、図4(d)、図7のS19、S25参照)。このため、画像合成処理に応じて適切な情報を作成し、画像データに関連付けを行うことができる。すなわち、複数の撮影画像データを取得する際に、露出変更を行っている場合と露出変更を行わない場合で、異なる露出条件を示すようにしており、画像合成処理に応じた情報の表示が可能となる。 As described above, in one embodiment of the present invention, a plurality of captured image data are acquired by switching the imaging conditions for the same object (see, for example, S3 in FIG. 7), and acquired under different exposure conditions. The first image composition was performed using the plurality of captured image data obtained (see, for example, S17 in FIG. 7), and the plurality of captured image data acquired under the same exposure conditions and different conditions other than exposure were used. The second image composition is performed (for example, see S23 in FIG. 7), and the first image composition is performed when creating metadata representing the composite image data synthesized by the first image composition or the second image composition. In the case and in the case of performing the second image composition, a single metadata showing different exposure conditions is created (for example, FIGS. 2 (d), 3 (d), 4 (d), and 7). See S19 and S25). Therefore, appropriate information can be created according to the image composition process and associated with the image data. That is, when acquiring a plurality of captured image data, different exposure conditions are shown depending on whether the exposure is changed or not, and information can be displayed according to the image composition process. It becomes.
なお、本発明の一実施形態においては、モードが露出変更を伴うか否かを判定し(図7のS13参照)、この結果に応じて、メタデータとして参考データまたは実施データを記録するようにしている。しかし、モードが露出変更を伴うか否かに限らず、例えば、撮影距離の変更を伴うか否か等、撮影条件に応じて、メタデータの種類を適宜決定するようにしてもよい。この場合には、画像データ取得部は、同一の対象物に対し、第1の撮影条件を切り換えて複数の撮影画像データを取得可能であり、第1画像合成部は画像データ取得部によって、第2の撮影条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行い、第2画像合成部は画像データ取得部によって、第2の撮影条件を変えず、第3の撮影条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行い、メタデータ作成部は、第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成する際に、第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる撮影条件を示す単一のメタデータを作成すればよい。 In one embodiment of the present invention, it is determined whether or not the mode is accompanied by an exposure change (see S13 in FIG. 7), and reference data or implementation data is recorded as metadata according to this result. ing. However, the mode is not limited to whether or not the exposure is changed, and the type of metadata may be appropriately determined according to the shooting conditions such as whether or not the shooting distance is changed. In this case, the image data acquisition unit can acquire a plurality of captured image data by switching the first shooting conditions for the same object, and the first image synthesizing unit can acquire a plurality of captured image data by the image data acquisition unit. A plurality of captured image data are acquired with different shooting conditions of 2, the first image composition is performed using the acquired plurality of captured image data, and the second image composition unit is second by the image data acquisition unit. A plurality of captured image data are acquired with different shooting conditions of the third image without changing the photographing conditions of the above, and the second image composition is performed using the acquired plurality of photographed image data. When creating the metadata representing the composite image data synthesized by the first image synthesizing unit or the second image synthesizing unit, the case where the first image synthesizing is performed and the case where the second image synthesizing is performed are different. A single metadata showing the shooting conditions may be created.
また、本発明の一実施形態においては、ピント変更部102c、露出変更部102d、撮像位置変更部102e等は、CPUおよびメモリに記憶したプログラムによってソフトウエアでその機能を実現してもよく、また制御部101内のCPUとメモリに記憶したプログラムでその機能を実現するようにしても勿論かまわない。
Further, in one embodiment of the present invention, the
また、本発明の一実施形態においては、撮像制御部103b、撮影制御変更部103c等の各部の機能の全部または一部をCPU(Central Processing Unit)と周辺回路およびプログラムによって実現していたが、DSP(Digital Signal Processor)等のプログラムコードで実行される回路で実現するようにしてもよく、ヴェリログ(Verilog)によって記述されたプログラム言語に基づいて生成されたゲート回路等のハードウエア構成でもよく、またハードウエア回路によって実行するようにしても勿論かまわない。
Further, in one embodiment of the present invention, all or part of the functions of the
また、本発明の一実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもミラーレスカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話、スマートフォン、携帯情報端末、パーソナルコンピュータ(PC)、タブレット型コンピュータ、ゲーム機器等に内蔵されるカメラ、医療用カメラ、顕微鏡等の科学機器用のカメラ、自動車搭載用カメラ、監視用カメラでも構わない。いずれにしても、画像データと共にメタデータを記録する撮影のための機器であれば、本発明を適用することができる。 Further, in one embodiment of the present invention, a digital camera has been described as a device for photographing, but the camera may be a digital single-lens reflex camera, a mirrorless camera, a compact digital camera, a video camera, or a movie. It may be a video camera such as a camera, and further, a camera built into a mobile phone, a smartphone, a mobile information terminal, a personal computer (PC), a tablet computer, a game device, etc., a medical camera, a scientific device such as a microscope, etc. It may be a camera for a vehicle, a camera mounted on a car, or a surveillance camera. In any case, the present invention can be applied to any device for photographing that records metadata together with image data.
また、本明細書において説明した技術のうち、主にフローチャートで説明した制御に関しては、プログラムで設定可能であることが多く、記録媒体や記録部に収められる場合もある。この記録媒体、記録部への記録の仕方は、製品出荷時に記録してもよく、配布された記録媒体を利用してもよく、インターネットを介してダウンロードしたものでもよい。 Further, among the techniques described in the present specification, the controls mainly described in the flowchart can be set by a program, and may be stored in a recording medium or a recording unit. The recording method to the recording medium and the recording unit may be recorded at the time of product shipment, the distributed recording medium may be used, or may be downloaded via the Internet.
また、本発明の一実施形態においては、フローチャートを用いて、本実施形態における動作を説明したが、処理手順は、順番を変えてもよく、また、いずれかのステップを省略してもよく、ステップを追加してもよく、さらに各ステップ内における具体的な処理内容を変更してもよい。 Further, in one embodiment of the present invention, the operation in the present embodiment has been described using a flowchart, but the order of the processing procedures may be changed, or any step may be omitted. Steps may be added, and specific processing contents in each step may be changed.
また、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず」、「次に」等の順番を表現する言葉を用いて説明したとしても、特に説明していない箇所では、この順で実施することが必須であることを意味するものではない。 In addition, even if the scope of claims, the specification, and the operation flow in the drawings are explained using words expressing the order such as "first" and "next" for convenience, in the parts not particularly explained, It does not mean that it is essential to carry out in this order.
本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 The present invention is not limited to the above embodiment as it is, and at the implementation stage, the components can be modified and embodied within a range that does not deviate from the gist thereof. In addition, various inventions can be formed by an appropriate combination of the plurality of components disclosed in the above-described embodiment. For example, some components of all the components shown in the embodiment may be deleted. In addition, components across different embodiments may be combined as appropriate.
10・・・ユーザ、20・・・カメラ、101・・・制御部、101b・・・モード制御部、101c・・・表示制御部、101d・・・通信制御部、102・・・撮像部、102a・・・光学系、102b・・・撮像素子、102c・・・ピント変更部、102d・・・露出変更部、102e・・・撮像位置変更部、103・・・画像処理部、103b・・・撮像制御部、103c・・・撮影制御変更部、103d・・・画像合成部、103e・・・記録制御部、104・・・メタデータ作成部、104a・・・実施データ、104b・・・参考データ、105・・・記録部、105a・・・画像データ、105b・・・メタデータ、106・・・表示部、107・・・操作部、108・・・通信部 10 ... User, 20 ... Camera, 101 ... Control unit, 101b ... Mode control unit, 101c ... Display control unit, 101d ... Communication control unit, 102 ... Imaging unit, 102a ... Optical system, 102b ... Imaging element, 102c ... Focus changing unit, 102d ... Exposure changing unit, 102e ... Imaging position changing unit, 103 ... Image processing unit, 103b ...・ Imaging control unit, 103c ・ ・ ・ Shooting control change unit, 103d ・ ・ ・ Image composition unit, 103e ・ ・ ・ Recording control unit, 104 ・ ・ ・ Metadata creation unit, 104a ・ ・ ・ Implementation data, 104b ... Reference data, 105 ... Recording unit, 105a ... Image data, 105b ... Metadata, 106 ... Display unit, 107 ... Operation unit, 108 ... Communication unit
Claims (6)
上記画像データ取得部によって、異なる露出条件で複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第1の画像合成を行う第1画像合成部と、
上記画像データ取得部によって、同一の露出条件、かつ露出以外の条件を異ならせて複数の撮影画像データを取得し、この取得した複数の撮影画像データを用いて第2の画像合成を行う第2画像合成部と、
上記第1画像合成部または第2画像合成部によって合成された合成画像データを表すメタデータを作成するメタデータ作成部と、
を有し、
上記メタデータ作成部は、上記第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる露出条件を示す単一のメタデータを作成することを特徴とする画像処理装置。 An image data acquisition unit that can acquire multiple captured image data by switching the shooting conditions for the same object,
A first image synthesizing unit that acquires a plurality of captured image data under different exposure conditions by the image data acquiring unit and performs a first image synthesizing using the acquired plurality of captured image data.
A second image data acquisition unit acquires a plurality of captured image data under the same exposure conditions and different conditions other than exposure, and performs a second image composition using the acquired plurality of captured image data. Image composition part and
A metadata creation unit that creates metadata representing composite image data synthesized by the first image composition unit or the second image composition unit, and a metadata creation unit.
Have,
The metadata creation unit is an image processing apparatus characterized in that it creates a single metadata showing different exposure conditions in the case of performing the first image composition and the case of performing the second image composition. ..
異なる露出条件で取得した複数の撮影画像データを用いて第1の画像合成を行い、
同一の露出条件、かつ露出以外の条件を異ならせて取得した複数の撮影画像データを用いて第2の画像合成を行い、
上記第1画像合成または第2画像合成によって合成された合成画像データを表すメタデータを作成する際に、上記第1の画像合成を行う場合と、上記第2の画像合成を行う場合で、異なる露出条件を示す単一のメタデータを作成する、
ことを特徴とする画像処理方法。 For the same object, switch the shooting conditions to acquire multiple shot image data,
The first image composition is performed using a plurality of captured image data acquired under different exposure conditions.
A second image composition is performed using a plurality of captured image data acquired under the same exposure conditions and different conditions other than exposure.
When creating the metadata representing the composite image data synthesized by the first image composition or the second image composition, the case where the first image composition is performed and the case where the second image composition is performed are different. Create a single metadata showing the exposure conditions,
An image processing method characterized by that.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017150607A JP6909669B2 (en) | 2017-08-03 | 2017-08-03 | Image processing device and image processing method |
PCT/JP2018/028709 WO2019026923A1 (en) | 2017-08-03 | 2018-07-31 | Image processing device, image processing method, image processing program, and image capture device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017150607A JP6909669B2 (en) | 2017-08-03 | 2017-08-03 | Image processing device and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019029954A JP2019029954A (en) | 2019-02-21 |
JP6909669B2 true JP6909669B2 (en) | 2021-07-28 |
Family
ID=65476729
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017150607A Active JP6909669B2 (en) | 2017-08-03 | 2017-08-03 | Image processing device and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6909669B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7395259B2 (en) * | 2019-03-15 | 2023-12-11 | キヤノン株式会社 | Image processing device, image processing method, computer program and storage medium |
WO2020189510A1 (en) * | 2019-03-15 | 2020-09-24 | キヤノン株式会社 | Image processing device, image processing method, computer program, and storage medium |
JP7395258B2 (en) * | 2019-03-15 | 2023-12-11 | キヤノン株式会社 | Image processing device, image processing method, computer program and storage medium |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5077003B2 (en) * | 2008-03-25 | 2012-11-21 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
JP2014103630A (en) * | 2012-11-22 | 2014-06-05 | Olympus Imaging Corp | Imaging apparatus and image communication method |
JP6242244B2 (en) * | 2014-02-28 | 2017-12-06 | オリンパス株式会社 | Imaging apparatus, imaging method, and program |
JP2017011676A (en) * | 2015-06-25 | 2017-01-12 | キヤノン株式会社 | Image-processing apparatus and image-processing method |
-
2017
- 2017-08-03 JP JP2017150607A patent/JP6909669B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019029954A (en) | 2019-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020162139A (en) | Imaging apparatus and setting screen of the same | |
JP6034740B2 (en) | Imaging apparatus and imaging method | |
JP2017220892A (en) | Image processing device and image processing method | |
US9277125B2 (en) | Imaging device and imaging method | |
JP2019054461A (en) | Imaging apparatus and imaging method | |
WO2016072101A1 (en) | Image pickup device and image pickup device control method | |
JP5806623B2 (en) | Imaging apparatus, imaging method, and program | |
JP6325841B2 (en) | Imaging apparatus, imaging method, and program | |
JP5400486B2 (en) | Imaging apparatus and imaging method | |
JP4533252B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP6909669B2 (en) | Image processing device and image processing method | |
JP6717690B2 (en) | Imaging device, imaging method, and program | |
JP6706167B2 (en) | Imaging device, image synthesizing method, and program | |
JP2013251724A (en) | Photographing instrument | |
JP2019036885A (en) | Image processing apparatus and image processing method | |
JP5402242B2 (en) | Image reproduction apparatus, imaging apparatus, image reproduction method, and image reproduction program | |
JP5931393B2 (en) | Imaging device | |
JP2015219817A (en) | Display device, display method, and program | |
JP6329812B2 (en) | Display device, display method, and program | |
JP2016131378A (en) | Imaging apparatus | |
JP2019047436A (en) | Image processing device, image processing method, image processing program, and imaging device | |
JP2012239078A (en) | Photographing device | |
JP6284604B2 (en) | Image processing apparatus, image processing method, and program | |
JP2016054447A (en) | Imaging apparatus, image processing apparatus, image processing method and image processing program | |
JP6013574B2 (en) | Imaging apparatus and imaging method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200717 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210519 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210609 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210622 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210705 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6909669 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |