JP2020141189A - Imaging apparatus and control method of the same - Google Patents

Imaging apparatus and control method of the same Download PDF

Info

Publication number
JP2020141189A
JP2020141189A JP2019033958A JP2019033958A JP2020141189A JP 2020141189 A JP2020141189 A JP 2020141189A JP 2019033958 A JP2019033958 A JP 2019033958A JP 2019033958 A JP2019033958 A JP 2019033958A JP 2020141189 A JP2020141189 A JP 2020141189A
Authority
JP
Japan
Prior art keywords
shooting
moving image
frame rate
metadata
shooting mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019033958A
Other languages
Japanese (ja)
Inventor
学 梅山
Manabu Umeyama
学 梅山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019033958A priority Critical patent/JP2020141189A/en
Priority to US16/676,001 priority patent/US11184551B2/en
Publication of JP2020141189A publication Critical patent/JP2020141189A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a technique for obtaining moving image data to which suitable dynamic metadata is added in a photographing step (imaging apparatus) not in post-production (image data editing step).SOLUTION: An imaging apparatus 100 includes: setting means for setting a photographing mode; generation means for generating metadata indicating features of a photographed moving image; and adding means for adding the metadata generated by the generation means to moving image data representing the moving image. The generation means generates metadata indicating the features of the moving image over a period according to the photographing mode set by the setting means.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置およびその制御方法に関する。 The present invention relates to an image pickup apparatus and a control method thereof.

近年、動画の各フレーム、各シーン、等の最大輝度を示すメタデータ(動的メタデータ)を用いて、動画の表示方法を順次(例えば、各フレームまたは各シーンで)変更する技術が普及し始めている。具体的には、動的メタデータを用いてトーンカーブ(トーンマップ)を順次変更することで、動画のフレーム、シーン、等の最大輝度に応じたHDR(ハイダイナミックレンジ)表示を順次変更する技術が普及し始めている。特許文献1には、ポストプロダクションの画像データ編集工程において、動画の各シーンの動的メタデータを生成して動画データに付加する技術が開示されている。 In recent years, a technique for sequentially changing the display method of a moving image (for example, in each frame or each scene) by using metadata (dynamic metadata) indicating the maximum brightness of each frame of the moving image, each scene, etc. has become widespread. I'm starting. Specifically, a technology that sequentially changes the HDR (high dynamic range) display according to the maximum brightness of a moving image frame, scene, etc. by sequentially changing the tone curve (tone map) using dynamic metadata. Is beginning to spread. Patent Document 1 discloses a technique of generating dynamic metadata of each scene of a moving image and adding it to the moving image data in a post-production image data editing process.

国際公開第2015/017314号International Publication No. 2015/017314

しかしながら、特許文献1に開示の技術では、ポストプロダクション(画像データ編集工程)が無い場合には、動的メタデータが得られず、トーンカーブを用いたHDR表示などの表示方法を順次変更することが難しい。 However, in the technique disclosed in Patent Document 1, if there is no post-production (image data editing process), dynamic metadata cannot be obtained, and the display method such as HDR display using a tone curve is sequentially changed. Is difficult.

本発明は、ポストプロダクション(画像データ編集工程)ではなく、撮影工程(撮像装置)で、好適な動的メタデータが付加された動画データを得ることができる技術を提供することを目的とする。 An object of the present invention is to provide a technique capable of obtaining moving image data to which suitable dynamic metadata is added in a shooting process (imaging apparatus) instead of post-production (image data editing process).

本発明の第1の態様は、
撮影モードを設定する設定手段と、
撮像された動画の特徴量を示すメタデータを生成する生成手段と、
前記生成手段によって生成された前記メタデータを、前記動画を表す動画データに付加する付加手段と、
を有し、
前記生成手段は、前記設定手段によって設定された撮影モードに応じた期間での前記動画の特徴量を示す前記メタデータを生成する
ことを特徴とする撮像装置である。
The first aspect of the present invention is
Setting means to set the shooting mode and
A generation means for generating metadata indicating the features of the captured moving image, and
An additional means for adding the metadata generated by the generation means to the moving image data representing the moving image, and
Have,
The generation means is an imaging device characterized in that it generates the metadata indicating the feature amount of the moving image in a period corresponding to the shooting mode set by the setting means.

本発明の第2の態様は、
撮影モードを設定する設定ステップと、
撮像された動画の特徴量を示すメタデータを生成する生成ステップと、
前記生成ステップにおいて生成された前記メタデータを、前記動画を表す動画データに付加する付加ステップと、
を有し、
前記生成ステップでは、前記設定ステップにおいて設定された撮影モードに応じた期間での前記動画の特徴量を示す前記メタデータを生成する
ことを特徴とする撮像装置の制御方法である。
The second aspect of the present invention is
Setting steps to set the shooting mode and
A generation step to generate metadata showing the features of the captured video,
An additional step of adding the metadata generated in the generation step to the moving image data representing the moving image,
Have,
The generation step is a control method of an image pickup apparatus, characterized in that the metadata indicating the feature amount of the moving image in a period corresponding to the shooting mode set in the setting step is generated.

本発明の第3の態様は、コンピュータを、上述した撮像装置の各手段として機能させるためのプログラムである。 A third aspect of the present invention is a program for making a computer function as each means of the above-mentioned imaging device.

本発明によれば、ポストプロダクション(画像データ編集工程)ではなく、撮影工程(撮像装置)で、好適な動的メタデータが付加された動画データを得ることができる。 According to the present invention, it is possible to obtain moving image data to which suitable dynamic metadata is added in a shooting step (imaging apparatus) instead of post-production (image data editing step).

実施例1に係る撮像装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image pickup apparatus which concerns on Example 1. FIG. 実施例1に係る撮影処理の一例を示すフローチャートである。It is a flowchart which shows an example of the photographing process which concerns on Example 1. FIG. 実施例1に係るタイムラプス撮影モードの一例を示す模式図である。It is a schematic diagram which shows an example of the time-lapse photography mode which concerns on Example 1. FIG. 実施例1に係る動的メタデータの一例を示す模式図である。It is a schematic diagram which shows an example of the dynamic metadata which concerns on Example 1. FIG. 実施例1に係るスロー撮影モードの一例を示す模式図である。It is a schematic diagram which shows an example of the slow shooting mode which concerns on Example 1. FIG. 実施例1に係る動的メタデータの一例を示す模式図である。It is a schematic diagram which shows an example of the dynamic metadata which concerns on Example 1. FIG. 実施例1に係るトーンカーブの一例を示す模式図である。It is a schematic diagram which shows an example of the tone curve which concerns on Example 1. FIG. 実施例2に係る特殊効果優先モードの一例を示す模式図である。It is a schematic diagram which shows an example of the special effect priority mode which concerns on Example 2. FIG. 実施例2に係る動的メタデータの一例を示す模式図である。It is a schematic diagram which shows an example of the dynamic metadata which concerns on Example 2. FIG. 実施例2に係る時間優先モードの一例を示す模式図である。It is a schematic diagram which shows an example of the time priority mode which concerns on Example 2. FIG. 実施例2に係る動的メタデータの一例を示す模式図である。It is a schematic diagram which shows an example of the dynamic metadata which concerns on Example 2. FIG.

<実施例1>
以下、本発明の実施例1について説明する。図1は、本実施例に係る撮像装置100の構成例を示すブロック図である。撮像装置100は、撮像光学系101、撮像素子102、撮像制御部103、特徴量取得部104、メタデータ生成部105、メタデータ付加部106、記憶部107、再生部108、撮影モード設定部109、出力IF110、CPU111、RAM112、ROM113、及び、操作部114を有する。本実施例において、「撮像」は、被写体を表す画像(静止画または動画)の画像データを生成する処理であり、「撮影」は、撮像を行い、当該撮像により生成された画像データを記憶部107に記録する処理である。
<Example 1>
Hereinafter, Example 1 of the present invention will be described. FIG. 1 is a block diagram showing a configuration example of the image pickup apparatus 100 according to the present embodiment. The image pickup device 100 includes an image pickup optical system 101, an image sensor 102, an image pickup control unit 103, a feature amount acquisition unit 104, a metadata generation unit 105, a metadata addition unit 106, a storage unit 107, a reproduction unit 108, and a shooting mode setting unit 109. , The output IF 110, the CPU 111, the RAM 112, the ROM 113, and the operation unit 114. In this embodiment, "imaging" is a process of generating image data of an image (still image or moving image) representing a subject, and "shooting" is an imaging process and stores the image data generated by the imaging. This is a process of recording in 107.

撮像光学系101は、被写体を表す光学像を撮像素子102に結像(形成)する。撮像光学系101は、例えば、レンズ群(ズームレンズ、フォーカスレンズ、等)、絞り調整装置、シャッター装置、等を有する。 The image pickup optical system 101 forms (forms) an optical image representing the subject on the image pickup element 102. The imaging optical system 101 includes, for example, a lens group (zoom lens, focus lens, etc.), an aperture adjusting device, a shutter device, and the like.

撮像素子102は、被写体を表す静止画(被写体像)を撮像して、当該静止画を表す静止画データを生成したり、被写体を表す動画(被写体像)を撮像して、当該動画を表す動画データを生成したりする。具体的には、撮像素子102は、結像された光学像(被写体から撮像光学系101を介して入射した光)をアナログ電気信号に変換する光電変換処理を行う。そして、撮像素子102は、光電変換処理によって得られたアナログ電気信号をデジタル電気信号(動画の1フレームの画像データ;フレーム画像データ)に変換するAD変換処理(アナログ−デジタル変換処理)をさらに行う。その後、撮像素子102は、AD変換処理によって得られたフレーム画像データを、特徴量取得部104とメタデータ付加部106へ出力する。撮像素子102は、これらの処理を繰り返すことで、動画の複数のフレームにそれぞれ対応する複数のフレーム画像データを順次出力する。 The image sensor 102 captures a still image (subject image) representing the subject to generate still image data representing the still image, or images a moving image (subject image) representing the subject to represent the moving image. Generate data. Specifically, the image sensor 102 performs a photoelectric conversion process for converting the imaged optical image (light incident from the subject via the image pickup optical system 101) into an analog electric signal. Then, the image pickup element 102 further performs an AD conversion process (analog-digital conversion process) for converting the analog electric signal obtained by the photoelectric conversion process into a digital electric signal (image data of one frame of a moving image; frame image data). .. After that, the image sensor 102 outputs the frame image data obtained by the AD conversion process to the feature amount acquisition unit 104 and the metadata addition unit 106. By repeating these processes, the image sensor 102 sequentially outputs a plurality of frame image data corresponding to each of the plurality of frames of the moving image.

撮像制御部103は、撮像装置100の撮像条件を制御する。本実施例では、撮像制御部103は、撮像装置100(操作部114)に対するユーザ操作、撮像装置100の状態、等に応じて、撮像装置100の露出(露出条件)を制御する。例えば、撮像制御部103は、絞り、撮像素子102の電荷蓄積時間、等を制御することにより、露出を制御す
る。具体的には、撮像制御部103は、ユーザによって指定されたゲイン値、シャッター速度、絞り値、等に応じて、撮像光学系101の状態、撮像素子102の処理、等を制御することにより、露出を制御する。さらに、撮像制御部103は、撮像装置100に対するユーザ操作、撮像装置100の状態、等に応じて、撮像装置100のフォーカスを制御する。例えば、撮像制御部103は、フォーカスレンズの駆動量、駆動方向、等を制御することにより、フォーカスを制御する。具体的には、AF(オートフォーカス)撮影モードが設定されている場合に、撮像制御部103は、フォーカスレンズの位置を所定位置にして、フレーム画像(動画の1フレームの画像)のコントラストの形状(分布)を算出する。そして、撮像制御部103は、フレーム画像内の複数の位置のうち、コントラストが最も高い位置を、撮像素子102で光束を合焦させる位置(フォーカス位置)としてAF制御を行う。
The image pickup control unit 103 controls the image pickup conditions of the image pickup apparatus 100. In this embodiment, the image pickup control unit 103 controls the exposure (exposure condition) of the image pickup device 100 according to the user operation on the image pickup device 100 (operation unit 114), the state of the image pickup device 100, and the like. For example, the image pickup control unit 103 controls the exposure by controlling the aperture, the charge accumulation time of the image pickup device 102, and the like. Specifically, the image pickup control unit 103 controls the state of the image pickup optical system 101, the processing of the image pickup element 102, and the like according to the gain value, the shutter speed, the aperture value, and the like specified by the user. Control the exposure. Further, the image pickup control unit 103 controls the focus of the image pickup device 100 according to the user operation on the image pickup device 100, the state of the image pickup device 100, and the like. For example, the image pickup control unit 103 controls the focus by controlling the drive amount, drive direction, and the like of the focus lens. Specifically, when the AF (autofocus) shooting mode is set, the image pickup control unit 103 sets the position of the focus lens to a predetermined position and shapes the contrast of the frame image (one frame image of the moving image). Calculate (distribution). Then, the image pickup control unit 103 performs AF control with the position having the highest contrast among the plurality of positions in the frame image as the position (focus position) for focusing the luminous flux with the image pickup element 102.

特徴量取得部104は、撮像素子102から出力されたフレーム画像データの特徴量(フレーム特徴量)を、当該フレーム画像データから取得する。本実施例では、特徴量取得部104は、フレーム画像データによって表された1フレームの画像の最大輝度(フレーム最大輝度)を取得し、取得したフレーム最大輝度をメタデータ生成部105へ通知する。本実施例では、特徴量取得部104は、撮像された動画の複数のフレームにそれぞれ対応する複数のフレーム最大輝度を順次通知する。 The feature amount acquisition unit 104 acquires the feature amount (frame feature amount) of the frame image data output from the image sensor 102 from the frame image data. In this embodiment, the feature amount acquisition unit 104 acquires the maximum brightness (frame maximum brightness) of the image of one frame represented by the frame image data, and notifies the metadata generation unit 105 of the acquired maximum frame brightness. In this embodiment, the feature amount acquisition unit 104 sequentially notifies a plurality of frame maximum luminance corresponding to each of a plurality of frames of the captured moving image.

メタデータ生成部105は、撮像された動画(撮影される動画)の特徴量を示す動的メタデータを生成する。本実施例では、メタデータ生成部105は、特徴量取得部104から順次通知された複数のフレーム最大輝度に基づいて、撮像された動画のシーン最大輝度(1シーンの最大輝度)を1つ以上のシーンについて示す動的メタデータを生成する。もしくは、メタデータ生成部105は、特徴量取得部104から順次通知された複数のフレーム最大輝度に基づいて、撮像された動画の各フレームのフレーム最大輝度を示す動的メタデータを生成する。メタデータ生成部105は、生成した動的メタデータをメタデータ付加部106へ出力する。 The metadata generation unit 105 generates dynamic metadata indicating the feature amount of the captured moving image (the moving image to be captured). In this embodiment, the metadata generation unit 105 sets one or more scene maximum brightness (maximum brightness of one scene) of the captured moving image based on the plurality of frame maximum brightness sequentially notified from the feature amount acquisition unit 104. Generate dynamic metadata that shows the scene in. Alternatively, the metadata generation unit 105 generates dynamic metadata indicating the frame maximum brightness of each frame of the captured moving image based on the plurality of frame maximum brightness sequentially notified from the feature amount acquisition unit 104. The metadata generation unit 105 outputs the generated dynamic metadata to the metadata addition unit 106.

なお、本実施例では、動的メタデータによって示される特徴量が、フレーム最大輝度、シーン最大輝度、等の最大輝度である例を説明するが、特徴量は最大輝度に限られない。例えば、動的メタデータによって示される特徴量は、1フレーム、1シーン、等の他の代表輝度(平均輝度、最小輝度、最頻輝度、中間輝度、等)であってもよい。動的メタデータによって示される特徴量は、1フレーム、1シーン、等の輝度ヒストグラムであってもよい。動的メタデータによって示される特徴量は、1フレーム、1シーン、等の色に関する特徴量であってもよい。動的メタデータによって示される特徴量は、1フレーム、1シーン、等の輝度と色の両方に関する特徴量であってもよい。 In this embodiment, an example in which the feature amount indicated by the dynamic metadata is the maximum brightness such as the frame maximum brightness and the scene maximum brightness will be described, but the feature amount is not limited to the maximum brightness. For example, the feature quantity indicated by the dynamic metadata may be another representative luminance (average luminance, minimum luminance, mode luminance, intermediate luminance, etc.) such as one frame, one scene, and the like. The feature quantity indicated by the dynamic metadata may be a luminance histogram of one frame, one scene, and the like. The feature quantity indicated by the dynamic metadata may be a feature quantity related to a color such as one frame, one scene, and the like. The feature quantity indicated by the dynamic metadata may be a feature quantity relating to both brightness and color such as one frame, one scene, and the like.

メタデータ付加部106は、撮像された動画(撮影される動画)を表す動画データに対して、メタデータ生成部105から出力された動的メタデータを付加する。撮像された動画(撮影される動画)を表す動画データは、撮像素子102から順次出力された複数のフレーム画像データからなる動画データである。例えば、メタデータ付加部106は、MPEG−4 AVCまたはHEVC(High Efficiency Video Coding)に基づく符号化処理を動画データに施す。そして、メタデータ付加部106は、動的メタデータを、MPEG−4 AVCまたはHEVCのSEI(Supplemental Enhancement Information)に付加する。メタデータ付加部106は、動的メタデータが付加された後の動画データを、記憶部107に記録する。 The metadata addition unit 106 adds dynamic metadata output from the metadata generation unit 105 to the moving image data representing the captured moving image (moving image to be captured). The moving image data representing the captured moving image (moving image to be captured) is moving image data including a plurality of frame image data sequentially output from the image sensor 102. For example, the metadata addition unit 106 applies encoding processing based on MPEG-4 AVC or HEVC (High Efficiency Video Coding) to the moving image data. Then, the metadata addition unit 106 adds the dynamic metadata to the SEI (Supplemental Enhancement Information) of MPEG-4 AVC or HEVC. The metadata addition unit 106 records the moving image data after the dynamic metadata is added in the storage unit 107.

記憶部107は、CF(コンパクトフラッシュ)カードなどのランダムアクセスの記録媒体であり、メタデータ付加部106から出力された動画データ(動的メタデータが付加
された後の動画データ)を記憶する。記憶部107は、撮像装置100から取り外し可能であり、撮像装置100以外の装置(PC(パーソナルコンピュータ)など)に装着することが可能である。なお、記憶部107は、撮像装置100に対して着脱不可能な内蔵の記録媒体であってもよい。
The storage unit 107 is a random access recording medium such as a CF (compact flash) card, and stores moving image data (moving image data after dynamic metadata is added) output from the metadata addition unit 106. The storage unit 107 is removable from the image pickup device 100, and can be attached to a device (PC (personal computer) or the like) other than the image pickup device 100. The storage unit 107 may be a built-in recording medium that is not removable from the image pickup device 100.

再生部108は、記憶部107に格納されている動画データを再生する。本実施例において、「再生」は、動画データを記憶部107から読み出して、出力IF110を介して撮像装置100の外部へ出力する処理である。 The reproduction unit 108 reproduces the moving image data stored in the storage unit 107. In this embodiment, "reproduction" is a process of reading moving image data from the storage unit 107 and outputting it to the outside of the image pickup apparatus 100 via the output IF 110.

撮影モード設定部109は、撮影モードを設定する。本実施例では、撮影モード設定部109は、撮像装置100が有する他の機能ブロックに、不図示の内部バスを介して接続されている。撮影モード設定部109は、設定した撮影モードに応じて、撮像装置100が有する他の機能ブロックの設定値、処理、等を変更する。本実施例では、撮影モード設定部109は、設定した撮影モードに応じた期間での動画の特徴量を示す動的メタデータが生成されるように、メタデータ生成部105の処理を変更する。これにより、好適な動的メタデータが生成できる。詳細は後述する。撮影モード設定部109は、例えば、タイムラプス撮影モード、連続撮影モード、スロー撮影モード、または、動画同時撮影モードを設定する。 The shooting mode setting unit 109 sets the shooting mode. In this embodiment, the photographing mode setting unit 109 is connected to another functional block of the image pickup apparatus 100 via an internal bus (not shown). The shooting mode setting unit 109 changes the set values, processing, and the like of other functional blocks of the image pickup apparatus 100 according to the set shooting mode. In this embodiment, the shooting mode setting unit 109 changes the processing of the metadata generation unit 105 so that dynamic metadata indicating the feature amount of the moving image in the period corresponding to the set shooting mode is generated. This allows suitable dynamic metadata to be generated. Details will be described later. The shooting mode setting unit 109 sets, for example, a time-lapse shooting mode, a continuous shooting mode, a slow shooting mode, or a moving image simultaneous shooting mode.

タイムラプス撮影モードは、動画の撮影時間よりも当該動画の再生時間が短くなる撮影モードである。例えば、タイムラプス撮影モードは、間欠的な撮影を行う撮影モードであり、実時間よりも速く再生されるタイムラプス動画を撮影するための撮影モードである。タイムラプス撮影モードでは、通常(標準)のフレームレートで撮影した動画からフレームを間引いたような動画が撮影される。タイムラプス撮影モードで撮影した動画では、被写体の時間的変化を短時間で視認することが可能となる。 The time-lapse shooting mode is a shooting mode in which the playback time of the moving image is shorter than the shooting time of the moving image. For example, the time-lapse shooting mode is a shooting mode for intermittent shooting, and is a shooting mode for shooting a time-lapse movie that is played back faster than real time. In the time-lapse shooting mode, a movie shot with frames thinned out from a movie shot at a normal (standard) frame rate is shot. In a moving image shot in the time-lapse shooting mode, it is possible to visually recognize the temporal change of the subject in a short time.

撮像装置100は、静止画を撮影したり再生したりすることもできる。例えば、撮像装置100は、静止画を撮像し、当該静止画を表す静止画データを、メタデータを付加して記憶部107に記録することができる。連続撮影モードは、複数の静止画を順次撮影する撮影モードである。再生部108は、連続撮影モードで撮影された複数の静止画を順次再生することができる(連続再生)。 The image pickup apparatus 100 can also capture and reproduce a still image. For example, the image pickup apparatus 100 can take a still image and record the still image data representing the still image in the storage unit 107 by adding metadata. The continuous shooting mode is a shooting mode in which a plurality of still images are sequentially shot. The playback unit 108 can sequentially reproduce a plurality of still images shot in the continuous shooting mode (continuous playback).

スロー撮影モードは、動画の撮影時間よりも当該動画の再生時間が長くなる撮影モードである。例えば、スロー撮影モードは、通常のフレームレートよりも高いフレームレートで撮影を行う撮影モードであり、実時間よりもゆっくり再生されるスロー動画を撮影するための撮影モードである。 The slow shooting mode is a shooting mode in which the playback time of the moving image is longer than the shooting time of the moving image. For example, the slow shooting mode is a shooting mode in which shooting is performed at a frame rate higher than the normal frame rate, and is a shooting mode for shooting a slow moving image that is reproduced slower than real time.

動画同時撮影モードは、静止画の撮影に連動して、所定期間に撮像された動画を表す動画データを記録する撮影モードである。例えば、動画同時撮影モードは、現在のタイミングまでの所定時間分の動画がRAM112に格納されるように動画の撮像を行い、静止画を撮影するタイミングで、RAM112に格納されている動画を静止画と共に記憶部107に記録する撮影モードである。動画同時撮影モードを用いることで、静止画だけでなく、静止画を撮影したタイミングまでの所定時間分の動画が確認可能となる。なお、静止画を撮影したタイミングからの動画が確認可能となってもよいし、静止画を撮影したタイミングを跨いだ期間の動画が確認可能となってもよい。 The moving image simultaneous shooting mode is a shooting mode in which moving image data representing a moving image captured in a predetermined period is recorded in conjunction with shooting of a still image. For example, in the moving image simultaneous shooting mode, the moving image is captured so that the moving image for a predetermined time up to the current timing is stored in the RAM 112, and the moving image stored in the RAM 112 is stored in the still image at the timing of shooting the still image. This is a shooting mode for recording in the storage unit 107. By using the moving image simultaneous shooting mode, it is possible to check not only the still image but also the moving image for a predetermined time until the timing when the still image is taken. It should be noted that the moving image from the timing at which the still image was taken may be confirmed, or the moving image during the period straddling the timing at which the still image was taken may be confirmed.

出力IF110は、記憶部107に格納されている動画データ(動的メタデータが付加された後の動画データ)を不図示の外部装置へ出力する。例えば、HDMI(登録商標)(High−Definition Multimedia Interface)規格に準拠した通信プロトコルに従って、動画データをストリーム形式で出力する。なお、動
画データと動的メタデータの伝送方法は特に限定されない。例えば、SMPTE(Society of Motion Picture & Television Engineers) ST 2094で規定されたパラメータが、動的メタデータとして伝送されてもよい。具体的には、HDR10+で規定されたScene−MaxCLL(Maximum Content Light Level)が動的メタデータとして伝送されてもよい。
The output IF 110 outputs the moving image data (moving image data after the dynamic metadata is added) stored in the storage unit 107 to an external device (not shown). For example, the moving image data is output in a stream format according to a communication protocol conforming to the HDMI (registered trademark) (High-Definition Multimedia Interface) standard. The method of transmitting moving image data and dynamic metadata is not particularly limited. For example, the parameters specified in SMPTE (Society of Motion Picture & Television Engineers) ST 2094 may be transmitted as dynamic metadata. Specifically, Scene-MaxCLL (Maximum Content Light Level) defined by HDR10 + may be transmitted as dynamic metadata.

CPU111は、撮像装置100が有する他の機能ブロックに、不図示の内部バスを介して接続されている。CPU111は、撮像装置100の処理を制御する。RAM112は、撮像装置100が有する他の機能ブロックに、不図示の内部バスを介して接続されている。RAM112は、CPU111のワークエリア、種々のデータを一時的に記憶する一時記憶領域、等として使用される。ROM113は、撮像装置100が有する他の機能ブロックに、不図示の内部バスを介して接続されている。ROM113には、CPU111の処理に係るファームウェア、CPU111の処理に係る情報、等が予め記録されている。 The CPU 111 is connected to another functional block of the image pickup apparatus 100 via an internal bus (not shown). The CPU 111 controls the processing of the image pickup apparatus 100. The RAM 112 is connected to another functional block of the image pickup apparatus 100 via an internal bus (not shown). The RAM 112 is used as a work area of the CPU 111, a temporary storage area for temporarily storing various data, and the like. The ROM 113 is connected to another functional block of the image pickup apparatus 100 via an internal bus (not shown). In the ROM 113, the firmware related to the processing of the CPU 111, the information related to the processing of the CPU 111, and the like are recorded in advance.

操作部114は、不図示の内部バスを介してCPU111に接続されている。操作部114は、ユーザ操作を受け付ける入力部としての各種操作部材である。操作部114は、撮影を開始するための撮影開始ボタン、フォーカス動作のオート制御/マニュアル制御を切り替えるための切替スイッチ、フォーカス調整操作を行うためのフォーカスリング、等を含む。また、操作部114は、不図示のタッチパネルと液晶パネルを有し、表示される機能アイコンを各種機能ボタンとして作用させる。機能ボタンは、撮影開始ボタン、ホワイトバランス設定ボタン、ISO感度設定ボタン、等を含む。機能ボタンは、撮影モードを選択して設定するための撮影モード選択ボタン、再生を開始するための再生開始ボタン、等も含む。機能ボタンは、撮影フレームレート(撮影のフレームレート)を指定して設定するための設定ボタンも含む。機能ボタンは、再生フレームレート(再生のフレームレート)を指定して設定するための設定ボタンも含む。 The operation unit 114 is connected to the CPU 111 via an internal bus (not shown). The operation unit 114 is various operation members as an input unit that accepts user operations. The operation unit 114 includes a shooting start button for starting shooting, a changeover switch for switching between automatic control / manual control of focus operation, a focus ring for performing focus adjustment operation, and the like. Further, the operation unit 114 has a touch panel and a liquid crystal panel (not shown), and the displayed function icons act as various function buttons. The function buttons include a shooting start button, a white balance setting button, an ISO sensitivity setting button, and the like. The function buttons also include a shooting mode selection button for selecting and setting a shooting mode, a playback start button for starting playback, and the like. The function button also includes a setting button for specifying and setting the shooting frame rate (shooting frame rate). The function button also includes a setting button for specifying and setting the playback frame rate (playback frame rate).

図2は、撮像装置100の撮影処理の一例を示すフローチャートである。特殊撮影モードが設定されている状態で、CPU111が、操作部114に対する撮影開始操作を検知すると、図2の撮影処理が開始する。図2の撮影処理は、CPU111が撮像装置100の各機能ブロックを制御することにより実現される。撮影開始操作は、例えば、撮像装置100の非撮影状態において操作部114の撮影開始ボタンを押下するユーザ操作である。特殊撮影モードは、タイムラプス撮影モード、連続撮影モード、スロー撮影モード、動画同時撮影モード、等の総称である。以下では、撮影処理中に撮影モードの変更を許可しないものとする。 FIG. 2 is a flowchart showing an example of the photographing process of the image pickup apparatus 100. When the CPU 111 detects a shooting start operation with respect to the operation unit 114 while the special shooting mode is set, the shooting process of FIG. 2 starts. The photographing process of FIG. 2 is realized by the CPU 111 controlling each functional block of the image pickup apparatus 100. The shooting start operation is, for example, a user operation of pressing the shooting start button of the operation unit 114 in the non-shooting state of the imaging device 100. The special shooting mode is a general term for a time-lapse shooting mode, a continuous shooting mode, a slow shooting mode, a moving image simultaneous shooting mode, and the like. In the following, it is assumed that the change of the shooting mode is not permitted during the shooting process.

まず、タイムラプス撮影モードで撮影する場合について説明する。図3は、タイムラプス撮影モードでの撮影フレームレートと再生フレームレートの関係の一例を示す模式図である。撮影フレームレートと再生フレームレートは、操作部114に対するユーザ操作に応じて設定される。本実施例では、撮影フレームレートが0.05fpsであり、再生フレームレートが60fpsであり、撮影時間が20時間であるとする。図3に示すように、これらの条件から、再生時間は1分(60秒=72000秒×0.05fps÷60fps)と定められる。 First, a case of shooting in the time-lapse shooting mode will be described. FIG. 3 is a schematic diagram showing an example of the relationship between the shooting frame rate and the playback frame rate in the time-lapse shooting mode. The shooting frame rate and the playback frame rate are set according to the user's operation on the operation unit 114. In this embodiment, it is assumed that the shooting frame rate is 0.05 fps, the reproduction frame rate is 60 fps, and the shooting time is 20 hours. As shown in FIG. 3, the reproduction time is defined as 1 minute (60 seconds = 72000 seconds × 0.05 fps ÷ 60 fps) from these conditions.

撮影開始操作を行う前に、ユーザは、操作部114に対して、タイムラプス撮影モードを設定するための設定操作、撮影フレームレートを設定するための設定操作、及び、再生フレームレートを設定するための設定操作を行う。そして、これらの設定操作に応じた設定がされる。例えば、ユーザが、撮影フレームレートとして0.05fpsを指定する設定操作を操作部114に対して行うと、CPU111は、撮像素子102が撮像を行う撮
像周期を表す撮像フレームレートとして0.05fpsを設定する。さらに、CPU111は、メタデータ付加部106が記憶部107へフレーム画像データを書き込む書き込み周期を表す記録フレームレートとしても0.05fpsを設定する。なお、撮像フレームレートは記録フレームレートと異なってもよい。例えば、60fpsなどの通常のフレームレートを撮像フレームレートとして設定し、0.05fpsを記録フレームレートとして設定してもよい。その場合には、撮像された動画が、フレームを間引いて記憶部107に記録される(撮影フレームレートは0.05fpsとなる)。
Before performing the shooting start operation, the user sets the operation unit 114 for setting the time-lapse shooting mode, setting operation for setting the shooting frame rate, and setting the playback frame rate. Perform the setting operation. Then, the settings are made according to these setting operations. For example, when the user performs a setting operation for specifying 0.05 fps as the shooting frame rate for the operation unit 114, the CPU 111 sets 0.05 fps as the image pickup frame rate representing the image pickup cycle in which the image sensor 102 performs image pickup. To do. Further, the CPU 111 also sets 0.05 fps as a recording frame rate indicating a writing cycle in which the metadata addition unit 106 writes frame image data to the storage unit 107. The imaging frame rate may be different from the recording frame rate. For example, a normal frame rate such as 60 fps may be set as the imaging frame rate, and 0.05 fps may be set as the recording frame rate. In that case, the captured moving image is recorded in the storage unit 107 by thinning out the frames (the shooting frame rate is 0.05 fps).

図2の撮影処理において、まず、特徴量取得部104は、撮像素子102から出力されたフレーム画像データのフレーム最大輝度の取得を開始する(ステップS201)。 In the photographing process of FIG. 2, first, the feature amount acquisition unit 104 starts acquiring the frame maximum luminance of the frame image data output from the image sensor 102 (step S201).

次に、CPU111は、撮像装置100に設定されている撮影モードがタイムラプス撮影モードであるか否かを判断する(ステップS202)。撮影モードがタイムラプス撮影モードである場合には(ステップS202:Yes)、ステップS203へ処理が進められ、撮影モードがタイムラプス撮影モードでない場合には(ステップS202:No)、ステップS206へ処理が進められる。ここでは、タイムラプス撮影モードが設定されているものとしたため(ステップS202:Yes)、ステップS203へ処理が進められる。 Next, the CPU 111 determines whether or not the shooting mode set in the image pickup apparatus 100 is the time-lapse shooting mode (step S202). If the shooting mode is the time-lapse shooting mode (step S202: Yes), the process proceeds to step S203, and if the shooting mode is not the time-lapse shooting mode (step S202: No), the process proceeds to step S206. .. Here, since it is assumed that the time-lapse shooting mode is set (step S202: Yes), the process proceeds to step S203.

ステップS203にて、メタデータ生成部105は、現在のフレーム画像データのフレーム最大輝度を示すメタデータを、当該フレーム画像データのメタデータとして生成する。次に、メタデータ付加部106は、メタデータ生成部105から出力されたメタデータ(ステップS203で生成されたメタデータ)を、撮像素子102から出力されたフレーム画像データ(現在のフレーム画像データ)に付加する(ステップS204)。そして、メタデータ付加部106は、メタデータが付加された後のフレーム画像データを記憶部107に記録する。ステップS203,S204の処理は撮影中に繰り返される。このため、タイムラプス撮影モードの場合には、撮像された動画(撮影される動画)の各フレームの特徴量(フレーム最大輝度)を示す動的メタデータが生成され、撮像された動画(撮影される動画)を表す動画データに付加される。なお、上述したように、メタデータ付加部106は、フレーム画像データの符号化処理を適宜行う。 In step S203, the metadata generation unit 105 generates metadata indicating the frame maximum brightness of the current frame image data as the metadata of the frame image data. Next, the metadata addition unit 106 uses the metadata output from the metadata generation unit 105 (metadata generated in step S203) as the frame image data (current frame image data) output from the image pickup element 102. (Step S204). Then, the metadata addition unit 106 records the frame image data after the metadata is added in the storage unit 107. The processes of steps S203 and S204 are repeated during imaging. Therefore, in the time-lapse shooting mode, dynamic metadata indicating the feature amount (frame maximum brightness) of each frame of the captured moving image (moving image to be captured) is generated, and the captured moving image (captured) is generated. It is added to the moving image data representing the moving image). As described above, the metadata addition unit 106 appropriately performs the frame image data coding process.

そして、CPU111は、操作部114に対する撮影終了操作が行われたか否かを判断する(ステップS205)。撮影終了操作が行われていない場合には(ステップS205:No)、ステップS203へ処理が戻される。撮影終了操作が行われるまで、撮影フレームレートでステップS203〜S205の処理が繰り返される。つまり、撮像された動画(撮影される動画)のフレーム毎にステップS203〜S205の処理が行われる。撮影終了操作が行われた場合には(ステップS205:Yes)、図2の撮影処理が終了する。ここでは、撮影開始(図2の撮影処理の開始)から20時間が経過するまでステップS203〜S205の処理が繰り返され、20時間が経過した後に撮影終了操作が行われて撮影処理が終了したとする。 Then, the CPU 111 determines whether or not the shooting end operation for the operation unit 114 has been performed (step S205). If the shooting end operation has not been performed (step S205: No), the process is returned to step S203. The processes of steps S203 to S205 are repeated at the shooting frame rate until the shooting end operation is performed. That is, the processes of steps S203 to S205 are performed for each frame of the captured moving image (moving image to be captured). When the shooting end operation is performed (step S205: Yes), the shooting process of FIG. 2 ends. Here, it is said that the processes of steps S203 to S205 are repeated from the start of shooting (start of the shooting process of FIG. 2) until 20 hours have elapsed, and after 20 hours have passed, the shooting end operation is performed and the shooting process is completed. To do.

図4は、タイムラプス撮影モードで撮影した動画のフレーム画像データ、フレーム最大輝度、及び、動的メタデータの一例を示す模式図である。撮影時間が20時間であり且つ撮影フレームレートが0.05fpsであるため、3600枚(=0.05fps×72000秒)のフレーム画像が撮影される(フレーム画像データno.1〜no.3600)。実線401は、フレーム最大輝度の時間変化を示す。図4に示すように、タイムラプス撮影モードで動画を撮影した場合には、フレーム画像データno.1〜no.3600のそれぞれに、対応するフレーム最大輝度を示すメタデータが付加される。例えば、フレーム画像データno.1〜no.3には100nitsを示すメタデータが付加される。そして、フレーム画像データno.Mには3000nitsを示すメタデータが付加され
、フレーム画像データno.3600には1000nitsを示すメタデータが付加される。つまり、撮像された動画(撮影される動画)の各フレームの特徴量(フレーム最大輝度)を示す動的メタデータが生成され、撮像された動画(撮影される動画)を表す動画データに付加される。
FIG. 4 is a schematic diagram showing an example of frame image data, frame maximum brightness, and dynamic metadata of a moving image shot in the time-lapse shooting mode. Since the shooting time is 20 hours and the shooting frame rate is 0.05 fps, 3600 frames (= 0.05 fps × 72000 seconds) of frame images are shot (frame image data no. 1 to no. 3600). The solid line 401 shows the time change of the maximum frame brightness. As shown in FIG. 4, when a moving image is shot in the time-lapse shooting mode, the frame image data no. 1-no. Metadata indicating the corresponding maximum frame brightness is added to each of the 3600s. For example, frame image data no. 1-no. Metadata indicating 100 nits is added to 3. Then, the frame image data no. Metadata indicating 3000 nits is added to M, and the frame image data no. Metadata indicating 1000 nits is added to 3600. That is, dynamic metadata indicating the feature amount (frame maximum brightness) of each frame of the captured moving image (captured moving image) is generated and added to the moving image data representing the captured moving image (captured moving image). To.

なお、撮影フレームレートと再生フレームレートを設定する例を説明したが、フレームレート(撮影フレームレート、再生フレームレート、等)に関する他のパラメータを設定してもよい。例えば、撮影時間(秒)と、撮影するフレームの数とを設定してもよい。その場合には、撮影するフレーム数を撮影時間で除算することにより、撮影フレームレートが得られる。 Although an example of setting the shooting frame rate and the playback frame rate has been described, other parameters related to the frame rate (shooting frame rate, playback frame rate, etc.) may be set. For example, the shooting time (seconds) and the number of frames to be shot may be set. In that case, the shooting frame rate can be obtained by dividing the number of frames to be shot by the shooting time.

なお、連続撮影モードが設定されている場合、具体的には連続撮影(複数の静止画を順次撮影する処理)の後に連続再生(複数の静止画を順次再生する処理)を行う場合に、タイムラプス撮影モードが設定されている場合と同様の撮影処理を適用してもよい。具体的には、メタデータ生成部105は、撮像された静止画の特徴量を示すメタデータを生成する処理を、順次撮影される複数の静止画のそれぞれについて行ってもよい。そして、メタデータ付加部106は、メタデータ生成部105によって生成されたメタデータを当該メタデータに対応する静止画を表す静止画データに付加する処理を、順次撮影される複数の静止画のそれぞれについて行ってもよい。 When the continuous shooting mode is set, specifically, when continuous shooting (processing of sequentially shooting a plurality of still images) and then continuous playback (processing of sequentially playing back a plurality of still images) is performed, a time lapse is performed. The same shooting process as when the shooting mode is set may be applied. Specifically, the metadata generation unit 105 may perform a process of generating metadata indicating the feature amount of the captured still image for each of the plurality of still images to be sequentially photographed. Then, the metadata addition unit 106 adds the metadata generated by the metadata generation unit 105 to the still image data representing the still image corresponding to the metadata, respectively, for each of the plurality of still images to be sequentially captured. You may go about.

この場合に、例えば、静止画データは、EXIF(Exchangeable image file format)形式で記録される。そして、EXIFで定められたメタデータに、静止画の特徴量(最大輝度)が記述される。これらが撮影時の処理である。その後、再生部108は、記憶部107から複数の静止画データ(複数の静止画)を順次読み出す際に、EXIFで定められたメタデータから特徴量(最大輝度)を抽出して、静止画データと共に特徴量を出力IF110へ出力する。出力IF110は、再生部108から出力された静止画データをHDMI規格に準拠したストリーム形式で外部装置へ出力する。つまり、静止画データが動画データの一部(フレーム画像データ)として出力される。この時、再生部108から出力されたメタデータ(特徴量;最大輝度)も、SMPTE
ST 2094で規定された動的メタデータの一部(フレーム最大輝度)として外部装置へ出力される。これらが再生時の処理である。
In this case, for example, the still image data is recorded in the EXIF (Exif image file format) format. Then, the feature amount (maximum brightness) of the still image is described in the metadata defined by EXIF. These are the processes at the time of shooting. After that, when the reproduction unit 108 sequentially reads out a plurality of still image data (a plurality of still images) from the storage unit 107, the reproduction unit 108 extracts a feature amount (maximum brightness) from the metadata defined by EXIF and still image data. At the same time, the feature amount is output to the output IF110. The output IF 110 outputs the still image data output from the reproduction unit 108 to an external device in a stream format conforming to the HDMI standard. That is, the still image data is output as a part of the moving image data (frame image data). At this time, the metadata (feature amount; maximum brightness) output from the reproduction unit 108 is also SMPTE.
It is output to an external device as a part of the dynamic metadata specified in ST 2094 (maximum frame brightness). These are the processes at the time of reproduction.

以上の処理によれば、連続撮影の後に連続再生を行う場合においても、動画の各フレームの特徴量(フレーム最大輝度)を示す動的メタデータを生成し、動画データに付加することができる。 According to the above processing, even in the case of continuous reproduction after continuous shooting, it is possible to generate dynamic metadata indicating the feature amount (frame maximum brightness) of each frame of the moving image and add it to the moving image data.

次に、スロー撮影モードで撮影する場合について説明する。図5は、スロー撮影モードでの撮影フレームレートと再生フレームレートの関係の一例を示す模式図である。タイムラプス撮影モードで撮影する場合と同様に、撮影フレームレートと再生フレームレートは、操作部114に対するユーザ操作に応じて設定される。本実施例では、撮影フレームレートが240fpsであり、再生フレームレートが60fpsであり、撮影時間が1秒であるとする。図5に示すように、これらの条件から、再生時間は4秒(=1秒×240fps÷60fps)と定められる。 Next, a case of shooting in the slow shooting mode will be described. FIG. 5 is a schematic diagram showing an example of the relationship between the shooting frame rate and the playback frame rate in the slow shooting mode. Similar to the case of shooting in the time-lapse shooting mode, the shooting frame rate and the playback frame rate are set according to the user's operation on the operation unit 114. In this embodiment, it is assumed that the shooting frame rate is 240 fps, the reproduction frame rate is 60 fps, and the shooting time is 1 second. As shown in FIG. 5, the reproduction time is determined to be 4 seconds (= 1 second × 240 fps ÷ 60 fps) from these conditions.

図2の撮影処理において、まず、タイムラプス撮影モードで撮影する場合と同様に、ステップS201,S202の処理が行われる。つまり、ステップS201にて、特徴量取得部104は、撮像素子102から出力されたフレーム画像データのフレーム最大輝度の取得を開始する。そして、ステップS202にて、CPU111は、撮像装置100に設定されている撮影モードがタイムラプス撮影モードであるか否かを判断する。ここでは、タイムラプス撮影モードが設定されておらず、スロー撮影モードが設定されているものと
したため(ステップS202:No)、ステップS206へ処理が進められる。
In the shooting process of FIG. 2, first, the processes of steps S201 and S202 are performed in the same manner as in the case of shooting in the time-lapse shooting mode. That is, in step S201, the feature amount acquisition unit 104 starts acquiring the frame maximum luminance of the frame image data output from the image sensor 102. Then, in step S202, the CPU 111 determines whether or not the shooting mode set in the image pickup apparatus 100 is the time-lapse shooting mode. Here, since it is assumed that the time-lapse shooting mode is not set and the slow shooting mode is set (step S202: No), the process proceeds to step S206.

ステップS206にて、CPU111は、現在のフレーム画像データのフレーム最大輝度が、RAM112に格納されているフレーム最大輝度(情報)よりも高いか否かを判断する。そして、CPU111は、高いと判断した場合に、RAM112に格納されているフレーム最大輝度を、現在のフレーム画像データのフレーム最大輝度で更新する。現在のフレーム画像データが、撮像された動画(撮影される動画)の最初のフレームに対応する場合には、CPU111は、現在のフレーム画像データのフレーム最大輝度をRAM112に記録する。 In step S206, the CPU 111 determines whether or not the maximum frame brightness (information) of the current frame image data is higher than the maximum frame brightness (information) stored in the RAM 112. Then, when the CPU 111 determines that the value is high, the CPU 111 updates the maximum frame brightness stored in the RAM 112 with the maximum frame brightness of the current frame image data. When the current frame image data corresponds to the first frame of the captured moving image (the moving image to be captured), the CPU 111 records the frame maximum brightness of the current frame image data in the RAM 112.

そして、CPU111は、操作部114に対する撮影終了操作が行われたか否かを判断する(ステップS207)。撮影終了操作が行われていない場合には(ステップS207:No)、ステップS206へ処理が戻される。撮影終了操作が行われるまで、撮影フレームレートでステップS206,S207の処理が繰り返される。つまり、撮像された動画(撮影される動画)のフレーム毎にステップS206,S207の処理が行われる。撮影終了操作が行われた場合には(ステップS207:Yes)、ステップS208へ処理が進められる。このため、撮像された動画(撮影される動画)の全体の特徴量(最大輝度)がRAM112に格納された状態、即ち動画の全期間を1シーンとしたシーン最大輝度がRAM112に格納された状態で、ステップS208へ処理が進められる。ここでは、撮影開始(図2の撮影処理の開始)から1秒が経過するまでステップS206,S207の処理が繰り返され、1秒が経過した後に撮影終了操作が行われてステップS208へ処理が進められたとする。 Then, the CPU 111 determines whether or not the shooting end operation for the operation unit 114 has been performed (step S207). If the shooting end operation has not been performed (step S207: No), the process is returned to step S206. The processes of steps S206 and S207 are repeated at the shooting frame rate until the shooting end operation is performed. That is, the processes of steps S206 and S207 are performed for each frame of the captured moving image (moving image to be captured). When the shooting end operation is performed (step S207: Yes), the process proceeds to step S208. Therefore, the entire feature amount (maximum brightness) of the captured moving image (shooting moving image) is stored in the RAM 112, that is, the maximum scene brightness with the entire period of the moving image as one scene is stored in the RAM 112. Then, the process proceeds to step S208. Here, the processes of steps S206 and S207 are repeated until 1 second elapses from the start of shooting (start of the shooting process of FIG. 2), and after 1 second elapses, the shooting end operation is performed and the process proceeds to step S208. Suppose it was done.

ステップS208にて、メタデータ生成部105は、RAM112に格納されたフレーム最大輝度(動画の全体の最大輝度;動画の全期間を1シーンとしたシーン最大輝度)を示すメタデータを、動的メタデータとして生成する。 In step S208, the metadata generation unit 105 dynamically meta-generates the metadata indicating the maximum frame brightness (the maximum brightness of the entire moving image; the maximum brightness of the scene with the entire period of the moving image as one scene) stored in the RAM 112. Generate as data.

そして、メタデータ付加部106は、メタデータ生成部105から出力された動的メタデータ(ステップS208で生成された動的メタデータ)を、撮像素子102から出力された動画データに付加する(ステップS209)。そして、メタデータ付加部106は、動的メタデータが付加された後の動画データを記憶部107に記録する。その後、撮影処理は終了する。なお、上述したように、メタデータ付加部106は、動画データの符号化処理を適宜行う。 Then, the metadata addition unit 106 adds the dynamic metadata (dynamic metadata generated in step S208) output from the metadata generation unit 105 to the moving image data output from the image sensor 102 (step). S209). Then, the metadata addition unit 106 records the moving image data after the dynamic metadata is added in the storage unit 107. After that, the shooting process ends. As described above, the metadata addition unit 106 appropriately performs the coding process of the moving image data.

図6は、スロー撮影モードで撮影した動画のフレーム画像データ、フレーム最大輝度、及び、動的メタデータの一例を示す模式図である。撮影時間が1秒であり且つ撮影フレームレートが240fpsであるため、240枚(=240fps×1秒)のフレーム画像が撮影される(フレーム画像データno.1〜no.240)。実線601は、フレーム最大輝度の時間変化を示す。図6に示すように、スロー撮影モードで動画を撮影した場合には、複数のフレーム画像データにそれぞれ対応する複数のフレーム最大輝度のうちの最大輝度を示す一意の動的メタデータが、全てのフレーム画像データに対応するように動画データに付加される。具体的には、フレーム画像データno.Nのフレーム最大輝度3000nitsを示す動的メタデータが、フレーム画像データno.1〜No.240の全てに対応する動的メタデータとして動画データに付加される。つまり、撮像された動画(撮影される動画)の全体の特徴量(最大輝度)を示す動的メタデータが生成され、撮像された動画(撮影される動画)を表す動画データに付加される。 FIG. 6 is a schematic diagram showing an example of frame image data, frame maximum brightness, and dynamic metadata of a moving image shot in the slow shooting mode. Since the shooting time is 1 second and the shooting frame rate is 240 fps, 240 frames (= 240 fps × 1 second) of frame images are shot (frame image data no. 1 to no. 240). The solid line 601 indicates the time change of the maximum frame brightness. As shown in FIG. 6, when a moving image is shot in the slow shooting mode, all the unique dynamic metadata indicating the maximum brightness of the plurality of frame maximum brightness corresponding to the plurality of frame image data is all. It is added to the moving image data so as to correspond to the frame image data. Specifically, the frame image data no. The dynamic metadata showing the maximum frame brightness of N of 3000 nits is the frame image data no. 1-No. It is added to the moving image data as dynamic metadata corresponding to all 240. That is, dynamic metadata indicating the overall feature amount (maximum brightness) of the captured moving image (captured moving image) is generated and added to the moving image data representing the captured moving image (captured moving image).

なお、動画同時撮影モードが設定されている場合に、スロー撮影モードが設定されている場合と同様の撮影処理を適用してもよい。但し、動画同時撮影モードの場合には、ステップS206にて、CPU111は、現在のタイミングまでの所定時間分の動画データ(
複数のフレーム画像データ)がRAM112に格納されるように、現在のフレーム画像データをRAM112に記録する。さらに、CPU111は、上記複数のフレーム画像データにそれぞれ対応する複数のフレーム最大輝度がRAM112に格納されるように、現在のフレーム画像データに対応するフレーム最大輝度をRAM112に記録する。ステップS207にて、CPU111は、静止画の撮影を行ったか否かを判断する。静止画の撮影は、例えば、静止画撮影ボタンの押下に応じて行われる。そして、ステップS208にて、メタデータ生成部105は、RAM112に格納された複数のフレーム最大輝度のうちの最大輝度を示すメタデータを、動的メタデータとして生成する。
When the moving image simultaneous shooting mode is set, the same shooting process as when the slow shooting mode is set may be applied. However, in the case of the moving image simultaneous shooting mode, in step S206, the CPU 111 performs the moving image data for a predetermined time up to the current timing (
The current frame image data is recorded in the RAM 112 so that the plurality of frame image data) are stored in the RAM 112. Further, the CPU 111 records the frame maximum luminance corresponding to the current frame image data in the RAM 112 so that the plurality of frame maximum luminance corresponding to each of the plurality of frame image data is stored in the RAM 112. In step S207, the CPU 111 determines whether or not the still image has been photographed. Shooting of a still image is performed, for example, in response to pressing the still image shooting button. Then, in step S208, the metadata generation unit 105 generates metadata indicating the maximum brightness among the plurality of frame maximum brightness stored in the RAM 112 as dynamic metadata.

図7は、本実施例に係る表示装置の表示輝度(表示面の輝度)の上限を1000nitsとした場合のトーンカーブ(トーンマップ)の一例を示す模式図である。トーンカーブは、表示装置に入力された画像データによって表された輝度(データ輝度)と、表示装置の表示輝度との関係を表す。表示装置は、トーンカーブに従って画像を表示する。本実施例では、撮像装置100(出力IF110)から出力されたフレーム画像データが表示装置に入力される。表示装置は、撮像装置100から出力された動的メタデータに従ってトーンカーブを変更する。 FIG. 7 is a schematic diagram showing an example of a tone curve (tone map) when the upper limit of the display brightness (brightness of the display surface) of the display device according to the present embodiment is 1000 nits. The tone curve represents the relationship between the brightness (data brightness) represented by the image data input to the display device and the display brightness of the display device. The display device displays the image according to the tone curve. In this embodiment, the frame image data output from the image pickup apparatus 100 (output IF110) is input to the display apparatus. The display device changes the tone curve according to the dynamic metadata output from the image pickup device 100.

トーンカーブ701を用いた場合には、データ輝度1000nitsが表示輝度1000nitsで表示されるが、1000nitsよりも高いデータ輝度も表示輝度1000nitsで表示される。つまり、1000nit以下のデータ輝度は忠実に表示できるが、1000nitsよりも高いデータ輝度は高い階調性で表示できず、1000nitsよりも高いデータ輝度のエリアで階調潰れ(白とび)が発生する。トーンカーブ702を用いた場合には、データ輝度1000nitsを表示輝度800nitsで表示するような輝度低下が発生するが、1000nitsよりも高いデータ輝度を高い階調性で表示できる。 When the tone curve 701 is used, the data brightness of 1000 nits is displayed at the display brightness of 1000 nits, but the data brightness higher than 1000 nits is also displayed at the display brightness of 1000 nits. That is, although the data luminance of 1000 nits or less can be faithfully displayed, the data luminance higher than 1000 nits cannot be displayed with high gradation, and the gradation crushing (overexposure) occurs in the area of the data luminance higher than 1000 nits. When the tone curve 702 is used, there is a decrease in brightness such that the data brightness of 1000 nits is displayed at the display brightness of 800 nits, but the data brightness higher than 1000 nits can be displayed with high gradation.

上述したように、タイムラプス撮影モードが設定されている場合には、動画の各フレームのフレーム最大輝度を示す動的メタデータが生成される。このため、表示装置では、フレーム毎にトーンカーブが変更される。例えば、図4のフレーム画像データno.M(フレーム最大輝度3000nits)を表示する場合には、トーンカーブ702が使用される。そして、図4のフレーム画像データno.3600(フレーム最大輝度1000nits)を表示する場合には、トーンカーブ701が使用される。使用するトーンカーブをトーンカーブ702からトーンカーブ701に変更することで、上述した輝度低下(特に、100nits以上のデータ輝度からの変化、1000nits近辺のデータ輝度からの低下、等)を抑制することができる。さらに、使用するトーンカーブをトーンカーブ701からトーンカーブ702に変更することで、1000nitsよりも高いデータ輝度を高い階調性で表示できるようになる。 As described above, when the time-lapse shooting mode is set, dynamic metadata indicating the frame maximum brightness of each frame of the moving image is generated. Therefore, in the display device, the tone curve is changed for each frame. For example, the frame image data no. When displaying M (maximum frame brightness 3000 nits), the tone curve 702 is used. Then, the frame image data no. When displaying 3600 (maximum frame brightness 1000 nits), the tone curve 701 is used. By changing the tone curve to be used from the tone curve 702 to the tone curve 701, it is possible to suppress the above-mentioned decrease in brightness (particularly, change from data brightness of 100 nits or more, decrease from data brightness in the vicinity of 1000 nits, etc.). it can. Further, by changing the tone curve to be used from the tone curve 701 to the tone curve 702, it becomes possible to display data brightness higher than 1000 bits with high gradation.

一方、スロー撮影モードが設定されている場合には、動画の全期間を1シーンとしたシーン最大輝度を示す動的メタデータが生成される。このため、表示装置では、トーンカーブは変更されない。図6の例では、シーン最大輝度3000nitsを示す動的メタデータが生成されるため、表示装置ではトーンカーブ702が常に使用される。その結果、トーンカーブの変化に起因する輝度変化を抑制できる。スロー撮影モードで撮影された動画では、フレーム間における画像の差が比較的小さい。トーンカーブの変化に起因する輝度変化を抑制することで、画像の差が比較的小さいフレーム間での画像の見えの急激な変化を抑制できる。 On the other hand, when the slow shooting mode is set, dynamic metadata indicating the maximum brightness of the scene is generated with the entire period of the moving image as one scene. Therefore, the tone curve is not changed on the display device. In the example of FIG. 6, the tone curve 702 is always used in the display device because the dynamic metadata showing the maximum scene brightness of 3000 nits is generated. As a result, it is possible to suppress the change in brightness caused by the change in the tone curve. In the moving image shot in the slow shooting mode, the difference between the images is relatively small between the frames. By suppressing the change in brightness caused by the change in the tone curve, it is possible to suppress a sudden change in the appearance of the image between frames in which the difference between the images is relatively small.

以上述べたように、本実施例によれば、撮像装置において、設定された撮影モードに応じた期間での動画の特徴量を示すように動的メタデータが生成され、生成された動的メタデータが動画データに付加される。これにより、ポストプロダクション(画像データ編集
工程)ではなく、撮影工程(撮像装置)で、好適な動的メタデータが付加された動画データを得ることができる。例えば、本実施例で付加された動的メタデータを使用することで、フレーム最大輝度に近い輝度を有する高輝度エリアの輝度低下を抑制してタイムラプス動画を表示することができる。急激な輝度変化を抑制してスロー動画を表示することもできる。
As described above, according to the present embodiment, in the imaging device, dynamic metadata is generated so as to indicate the feature amount of the moving image in the period corresponding to the set shooting mode, and the generated dynamic metadata is generated. Data is added to the video data. As a result, it is possible to obtain moving image data to which suitable dynamic metadata is added in a shooting process (imaging apparatus) instead of post-production (image data editing process). For example, by using the dynamic metadata added in this embodiment, it is possible to display a time-lapse moving image while suppressing a decrease in brightness in a high-luminance area having a brightness close to the maximum frame brightness. It is also possible to suppress a sudden change in brightness and display a slow moving image.

なお、撮影モードは、タイムラプス撮影モード、連続撮影モード、スロー撮影モード、及び、動画同時撮影モードに限られない。例えば、撮影中に撮影フレームレートを変更可能な撮影モードが設定可能であってもよい。そのような撮影モードが設定されている場合には、メタデータ生成部105は、撮影フレームレートが変更されたタイミングで特徴量に対応する期間が切り替わる動的メタデータを生成してもよい。つまり、メタデータ生成部105は、撮影フレームレートが変更されたタイミングをシーンが切り替わるタイミングとして、各シーン最大輝度を示す動的メタデータを生成してもよい。 The shooting mode is not limited to the time-lapse shooting mode, the continuous shooting mode, the slow shooting mode, and the moving image simultaneous shooting mode. For example, a shooting mode in which the shooting frame rate can be changed during shooting may be set. When such a shooting mode is set, the metadata generation unit 105 may generate dynamic metadata in which the period corresponding to the feature amount is switched at the timing when the shooting frame rate is changed. That is, the metadata generation unit 105 may generate dynamic metadata indicating the maximum brightness of each scene, with the timing at which the shooting frame rate is changed as the timing at which the scene is switched.

さらに、撮影フレームレートが所定のフレームレートよりも低い期間について、シーン最大輝度ではなく、動画の各フレームの特徴量(フレーム最大輝度)が示されるように、メタデータ生成部105が動的メタデータを生成してもよい。所定のフレームレートは、例えば、60fpsなどの通常のフレームレートである。 Further, for a period in which the shooting frame rate is lower than a predetermined frame rate, the metadata generation unit 105 dynamically metadata so that the feature amount (frame maximum brightness) of each frame of the moving image is shown instead of the scene maximum brightness. May be generated. The predetermined frame rate is a normal frame rate such as 60 fps.

また、撮影フレームレートが所定のフレームレートよりも高い期間において動画のシーンが切り替わるタイミングで特徴量に対応する期間が切り替わるように、メタデータ生成部105が動的メタデータを生成してもよい。つまり、撮影フレームレートが所定のフレームレートよりも高い期間について各シーン最大輝度が示されるように、メタデータ生成部105が動的メタデータを生成してもよい。シーンが切り替わるタイミングは、撮影フレームレートが変更されたタイミングとは異なるタイミングを含んでもよい。例えば、フレーム間でフレーム最大輝度が閾値以上変化するタイミングなどが、シーンが切り替わるタイミングとしてさらに使用されてもよい。 Further, the metadata generation unit 105 may generate dynamic metadata so that the period corresponding to the feature amount is switched at the timing when the moving image scene is switched in the period when the shooting frame rate is higher than the predetermined frame rate. That is, the metadata generation unit 105 may generate dynamic metadata so that the maximum brightness of each scene is shown for a period in which the shooting frame rate is higher than a predetermined frame rate. The timing at which the scene is switched may include a timing different from the timing at which the shooting frame rate is changed. For example, the timing at which the maximum frame brightness changes by a threshold value or more between frames may be further used as the timing at which the scene is switched.

もしくは、撮影フレームレートが所定のフレームレートよりも高い期間において所定のフレームレートで特徴量に対応する期間が切り替わるように、メタデータ生成部105が動的メタデータを生成してもよい。つまり、メタデータ生成部105は、撮影フレームレートが変更されたタイミングと、所定のフレームレートのタイミングとをシーンが切り替わるタイミングとして、各シーン最大輝度を示す動的メタデータを生成してもよい。 Alternatively, the metadata generation unit 105 may generate dynamic metadata so that the period corresponding to the feature amount is switched at the predetermined frame rate during the period when the shooting frame rate is higher than the predetermined frame rate. That is, the metadata generation unit 105 may generate dynamic metadata indicating the maximum brightness of each scene as the timing at which the shooting frame rate is changed and the timing at which the predetermined frame rate is switched.

<実施例2>
以下、本発明の実施例2について説明する。実施例1では、再生時間(再生フレームレート)が予め定められる例を説明した。実施例2では、再生を行う際に再生時間が変更可能な例を説明する。なお、以下では、実施例1と異なる点(構成、処理、等)について詳しく説明し、実施例1と同じ点についての説明は省略する。
<Example 2>
Hereinafter, Example 2 of the present invention will be described. In the first embodiment, an example in which the reproduction time (reproduction frame rate) is predetermined has been described. In the second embodiment, an example in which the reproduction time can be changed at the time of reproduction will be described. In the following, points different from Example 1 (configuration, processing, etc.) will be described in detail, and description of the same points as in Example 1 will be omitted.

撮影モード設定部109は、可変フレームレート撮影モード(撮影フレームレートが変更可能な撮影モード)を設定できる。可変フレームレートモードが設定されている場合には、操作部114に対するユーザ操作に応じて、通常の撮影から特殊撮影への切り替え、特殊撮影から他の特殊撮影への切り替え、特殊撮影から通常の撮影への切り替え、等が行われる。特殊撮影は、特殊撮影モードでの撮影と同じ撮影であり、例えば、タイムラプス撮影モードでの撮影であるタイムラプス撮影、スロー撮影モードでの撮影であるスロー撮影、等である。 The shooting mode setting unit 109 can set a variable frame rate shooting mode (shooting mode in which the shooting frame rate can be changed). When the variable frame rate mode is set, switching from normal shooting to special shooting, switching from special shooting to other special shooting, and special shooting to normal shooting according to the user's operation on the operation unit 114. Switching to, etc. is performed. The special shooting is the same shooting as the shooting in the special shooting mode, for example, time-lapse shooting which is shooting in the time-lapse shooting mode, slow shooting which is shooting in the slow shooting mode, and the like.

再生部108は、実施例1で述べた処理の他に、動画のシーンを判断するシーン判断処理、動的メタデータを再生成(更新)する再生成処理、等も行うことができる。シーン判
断処理では、例えば、フレーム間でフレーム最大輝度が閾値以上変化するタイミングが、シーンが切り替わるタイミングとして検出される。さらに、再生部108は、操作部114に対するユーザ操作に応じて、再生モードを設定できる。本実施例では、再生部108は、可変フレームレート撮影モードで撮影された動画を再生する際に、特殊効果優先モードまたは時間優先モードを設定する。特殊効果優先モードと時間優先モードについては後述する。
In addition to the processing described in the first embodiment, the reproduction unit 108 can also perform a scene determination process for determining a moving image scene, a regeneration process for regenerating (updating) dynamic metadata, and the like. In the scene determination process, for example, the timing at which the maximum frame brightness changes by a threshold value or more between frames is detected as the timing at which the scene is switched. Further, the reproduction unit 108 can set the reproduction mode according to the user operation on the operation unit 114. In this embodiment, the reproduction unit 108 sets a special effect priority mode or a time priority mode when reproducing a moving image shot in the variable frame rate shooting mode. The special effect priority mode and the time priority mode will be described later.

撮像装置100の再生モードに応じた動的メタデータの再生成処理について説明する。ここでは、可変フレームレート撮影モードで撮影された動画データを再生するものとし、再生する動画データに、各フレームのフレーム最大輝度を示す動的メタデータが付加されているものとする。 The dynamic metadata regeneration process according to the reproduction mode of the image pickup apparatus 100 will be described. Here, it is assumed that the moving image data shot in the variable frame rate shooting mode is reproduced, and dynamic metadata indicating the maximum frame brightness of each frame is added to the moving image data to be reproduced.

まず、特殊効果優先モードが設定されている場合について説明する。特殊効果優先モードは、特殊撮影の効果を優先した再生を行う再生モードである。特殊効果優先モードが設定されている場合には、可変フレームレート撮影モードで撮影された動画が、当該動画の撮影時間と異なる再生時間で再生される。例えば、スロー撮影の期間については撮影時間よりも長い再生時間で動画が再生され(スロー再生)、タイムラプス撮影の期間については撮影時間よりも短い再生時間で動画が再生される(タイムラプス再生)。 First, the case where the special effect priority mode is set will be described. The special effect priority mode is a playback mode in which playback is performed with priority given to the effect of special shooting. When the special effect priority mode is set, the moving image shot in the variable frame rate shooting mode is played back at a playback time different from the shooting time of the moving image. For example, during the slow shooting period, the moving image is played back with a playback time longer than the shooting time (slow playback), and during the time-lapse shooting period, the moving image is played back with a playback time shorter than the shooting time (time-lapse playback).

図8は、特殊効果優先モードが設定されている場合の、撮影フレームレート、再生フレームレート、及び、再生状態の関係の一例を示す模式図である。 FIG. 8 is a schematic diagram showing an example of the relationship between the shooting frame rate, the reproduction frame rate, and the reproduction state when the special effect priority mode is set.

図8において、可変フレームレート撮影モードで撮影された動画は、通常撮影動画801、スロー撮影動画802、タイムラプス撮影動画803、及び、通常撮影動画804からなる。通常撮影動画801,804は、通常の撮影によって得られた動画であり、通常撮影動画801,804の撮影フレームレートは60fpsである。スロー撮影動画802は、スロー撮影によって得られた動画であり、スロー撮影動画802の撮影フレームレートは240fpsである。タイムラプス撮影動画803は、タイムラプス撮影によって得られた動画であり、タイムラプス撮影動画803の撮影フレームレートは30fpsである。 In FIG. 8, the moving image shot in the variable frame rate shooting mode includes a normal shooting moving image 801, a slow shooting moving image 802, a time-lapse shooting moving image 803, and a normal shooting moving image 804. The normal shooting moving images 801 and 804 are moving images obtained by normal shooting, and the shooting frame rate of the normal shooting moving images 801 and 804 is 60 fps. The slow shooting moving image 802 is a moving image obtained by slow shooting, and the shooting frame rate of the slow shooting moving image 802 is 240 fps. The time-lapse shooting moving image 803 is a moving image obtained by time-lapse shooting, and the shooting frame rate of the time-lapse shooting moving image 803 is 30 fps.

特殊効果優先モードが設定されている場合には、通常撮影動画801が通常再生され、スロー撮影動画802がスロー再生され、タイムラプス撮影動画803がタイムラプス再生され、通常撮影動画804が通常再生される。図8の例では、再生動画(再生された動画)は、通常再生動画811、スロー再生動画812、タイムラプス再生動画813、及び、通常再生動画814からなる。通常再生動画811は通常撮影動画801に対応し、スロー再生動画812はスロー撮影動画802に対応し、タイムラプス再生動画813はタイムラプス撮影動画803に対応し、通常再生動画814は通常撮影動画804に対応する。そして、再生フレームレートは常に60fpsとされる。 When the special effect priority mode is set, the normal shooting moving image 801 is normally played back, the slow shooting moving image 802 is played back slowly, the time-lapse shooting moving image 803 is played back in time-lapse, and the normal shooting moving image 804 is normally played back. In the example of FIG. 8, the reproduced moving image (reproduced moving image) includes a normal reproduction moving image 811, a slow reproduction moving image 812, a time-lapse reproduction moving image 813, and a normal reproduction moving image 814. The normal playback video 811 corresponds to the normal shooting video 801, the slow playback video 812 corresponds to the slow shooting video 802, the time-lapse playback video 813 corresponds to the time-lapse shooting video 803, and the normal playback video 814 corresponds to the normal shooting video 804. To do. The playback frame rate is always 60 fps.

図9は、特殊効果優先モードが設定されている場合に再生成された動的メタデータの一例を示す模式図である。ここで、フレーム最大輝度Laとフレーム最大輝度Lbの差、フレーム最大輝度Ldとフレーム最大輝度Leの差、及び、フレーム最大輝度Lgとフレーム最大輝度Lhの差は、シーンの切り替わりを検出するための上記閾値以上である。特殊効果優先モードが設定されている場合とは、可変フレームレート撮影モードで撮影された動画が、当該動画の撮影時間と異なる再生時間で再生される場合である。 FIG. 9 is a schematic diagram showing an example of dynamic metadata regenerated when the special effect priority mode is set. Here, the difference between the maximum frame brightness La and the maximum frame brightness Lb, the difference between the maximum frame brightness Ld and the maximum frame brightness Le, and the difference between the maximum frame brightness Lg and the maximum frame brightness Lh are for detecting the change of the scene. It is equal to or higher than the above threshold. The case where the special effect priority mode is set is a case where the moving image shot in the variable frame rate shooting mode is played back at a playback time different from the shooting time of the moving image.

特殊効果優先モードが設定されている場合には、再生部108は、以下の条件を満たすように動的メタデータを再生成する。ここで、動画のシーンが切り替わるタイミングは、撮影フレームレートが変更されたタイミングではなく、例えばフレーム最大輝度が閾値以
上変化するタイミングである。撮影フレームレートが変更されたタイミングは、再生状態が切り替わるタイミングである。
・撮影フレームレートが所定のフレームレート(例えば、60fpsなどの通常のフレームレート)である期間において、動画のシーンが切り替わるタイミングと、撮影フレームレートが変更されたタイミングとで、特徴量に対応する期間が切り替わる。
・撮影フレームレートが所定のフレームレートでない期間において、撮影フレームレート変更されたタイミングで特徴量に対応する期間が切り替わる。
When the special effect priority mode is set, the reproduction unit 108 regenerates the dynamic metadata so as to satisfy the following conditions. Here, the timing at which the moving image scene is switched is not the timing at which the shooting frame rate is changed, but the timing at which, for example, the maximum frame brightness changes by the threshold value or more. The timing at which the shooting frame rate is changed is the timing at which the playback state is switched.
-During a period in which the shooting frame rate is a predetermined frame rate (for example, a normal frame rate such as 60 fps), a period corresponding to the feature amount at the timing when the moving image scene is switched and the timing when the shooting frame rate is changed. Is switched.
-In a period when the shooting frame rate is not a predetermined frame rate, the period corresponding to the feature amount is switched at the timing when the shooting frame rate is changed.

本実施例では、通常再生の期間について、撮影フレームレートが変更されたタイミングと、フレーム最大輝度が閾値以上変化するタイミングとをシーンが切り替わるタイミングとして、シーン最大輝度が示されるように、動的メタデータが再生成される。具体的には、通常再生動画811の期間のうち、再生を開始した時刻0から、フレーム最大輝度が輝度Laから輝度Lbに変化する時刻t1までの期間が、1シーンの期間として検出される。そして、再生成される動的メタデータの一部、具体的には検出されたシーン(時刻0から時刻t1までの期間)に対応するメタデータとして、当該シーンのシーン最大輝度Laを示すメタデータが再生成される。同様に、時刻t1から、再生状態が変化する時刻t2までの期間が、1シーンとして検出され、検出されたシーンに対応するメタデータとして、当該シーンのシーン最大輝度Lcを示すメタデータが再生成される。通常再生動画814の期間については、再生状態が変化した時刻t6から、再生を終了する時刻t7までの期間が、1シーンの期間として検出される。そして、検出されたシーン(時刻t6から時刻t7までの期間)に対応するメタデータとして、当該シーンのシーン最大輝度Liを示すメタデータが再生成される。 In this embodiment, for the normal playback period, the dynamic meta is shown so that the maximum scene brightness is shown as the timing at which the scene is switched between the timing when the shooting frame rate is changed and the timing when the maximum frame brightness changes by the threshold value or more. The data is regenerated. Specifically, in the period of the normal reproduction moving image 811, the period from the time 0 when the reproduction is started to the time t1 when the maximum frame brightness changes from the brightness La to the brightness Lb is detected as the period of one scene. Then, as a part of the dynamically generated dynamic metadata, specifically, the metadata corresponding to the detected scene (the period from time 0 to time t1), the metadata indicating the scene maximum brightness La of the scene is shown. Is regenerated. Similarly, the period from the time t1 to the time t2 when the playback state changes is detected as one scene, and the metadata indicating the scene maximum brightness Lc of the scene is regenerated as the metadata corresponding to the detected scene. Will be done. As for the period of the normal reproduction moving image 814, the period from the time t6 when the reproduction state changes to the time t7 when the reproduction ends is detected as the period of one scene. Then, as the metadata corresponding to the detected scene (the period from the time t6 to the time t7), the metadata indicating the scene maximum brightness Li of the scene is regenerated.

そして、特殊再生(スロー再生、タイムラプス再生、等)の期間については、当該期間での動画の全体の特徴量が示されるように、動的メタデータが生成される。つまり、特殊再生の期間については、当該期間を1シーンとしたシーン最大輝度が示されるように、動的メタデータが再生成される。 Then, for the special playback (slow playback, time-lapse playback, etc.) period, dynamic metadata is generated so that the overall feature amount of the moving image in the period is shown. That is, for the special reproduction period, the dynamic metadata is regenerated so that the maximum brightness of the scene with the period as one scene is shown.

具体的には、スロー再生動画812の期間については、スロー再生を開始した時刻t2から、再生状態が変化する時刻t4までの期間が、1シーンとして検出される。そして、再生成される動的メタデータの一部、具体的には検出されたシーン(時刻t2から時刻t4までの期間)に対応するメタデータとして、当該シーンのシーン最大輝度Lfを示すメタデータが再生成される。通常再生の場合には、フレーム最大輝度が輝度Ldから輝度Leに変化する時刻t3でメタデータが切り替わるが、スロー再生の場合には時刻t3でメタデータは切り替わらない。 Specifically, as for the period of the slow reproduction moving image 812, the period from the time t2 when the slow reproduction is started to the time t4 when the reproduction state changes is detected as one scene. Then, as a part of the dynamically generated dynamic metadata, specifically, the metadata corresponding to the detected scene (the period from the time t2 to the time t4), the metadata indicating the scene maximum brightness Lf of the scene. Is regenerated. In the case of normal playback, the metadata is switched at time t3 when the maximum frame brightness changes from brightness Ld to brightness Le, but in the case of slow playback, the metadata is not switched at time t3.

同様に、タイムラプス再生動画813の期間については、タイムラプス再生を開始した時刻t4から、再生状態が変化する時刻t6までの期間が、1シーンとして検出される。そして、検出されたシーン(時刻t4から時刻t6までの期間)に対応するメタデータとして、当該シーンのシーン最大輝度Lgを示すメタデータが再生成される。通常再生の場合には、フレーム最大輝度が輝度Lgから輝度Lhに変化する時刻t5でメタデータが切り替わるが、タイムラプス再生の場合には時刻t5でメタデータは切り替わらない。 Similarly, with respect to the period of the time-lapse reproduction moving image 813, the period from the time t4 when the time-lapse reproduction is started to the time t6 when the reproduction state changes is detected as one scene. Then, as the metadata corresponding to the detected scene (the period from the time t4 to the time t6), the metadata indicating the scene maximum brightness Lg of the scene is regenerated. In the case of normal reproduction, the metadata is switched at time t5 when the maximum frame brightness changes from brightness Lg to brightness Lh, but in the case of time-lapse reproduction, the metadata is not switched at time t5.

以上の処理で再生成された動的メタデータを用いることにより、特殊再生中において、トーンカーブが変更されないため、トーンカーブの変化に起因する(急激な)輝度変化を抑制できる。 By using the dynamic metadata regenerated by the above processing, the tone curve is not changed during the special reproduction, so that the (rapid) brightness change caused by the change of the tone curve can be suppressed.

次に、時間優先モードが設定されている場合について説明する。時間優先モードは、撮影時間を優先した再生を行う再生モードである。時間優先モードが設定されている場合には、可変フレームレート撮影モードで撮影された動画が、当該動画の撮影時間と等しい再
生時間で再生される。
Next, a case where the time priority mode is set will be described. The time priority mode is a playback mode in which playback is performed with priority given to the shooting time. When the time priority mode is set, the moving image shot in the variable frame rate shooting mode is played back with a playback time equal to the shooting time of the moving image.

図10は、時間優先モードが設定されている場合の、撮影フレームレート、再生フレームレート、及び、再生状態の関係の一例を示す模式図である。図8と同様に、可変フレームレート撮影モードで撮影された動画は、通常撮影動画801、スロー撮影動画802、タイムラプス撮影動画803、及び、通常撮影動画804からなる。 FIG. 10 is a schematic diagram showing an example of the relationship between the shooting frame rate, the reproduction frame rate, and the reproduction state when the time priority mode is set. Similar to FIG. 8, the moving image shot in the variable frame rate shooting mode includes a normal shooting moving image 801, a slow shooting moving image 802, a time-lapse shooting moving image 803, and a normal shooting moving image 804.

時間優先モードが設定されている場合には、通常撮影動画801が通常再生され、スロー撮影動画802が間引き再生され、タイムラプス撮影動画803が重複再生され、通常撮影動画804が通常再生される。間引き再生では、再生時間が撮影時間と一致するように、フレームが間引かれる。重複再生では、再生時間が撮影時間と一致するように、同じフレームが複数回再生される。図10の例では、再生動画は、通常再生動画911、間引き再生動画912、重複再生動画913、及び、通常再生動画914からなる。通常再生動画911は通常撮影動画801に対応し、間引き再生動画912はスロー撮影動画802に対応し、重複再生動画913はタイムラプス撮影動画803に対応し、通常再生動画914は通常撮影動画804に対応する。そして、再生フレームレートは常に60fpsとされる。 When the time priority mode is set, the normal shooting moving image 801 is normally played back, the slow shooting moving image 802 is thinned out, the time-lapse shooting moving image 803 is duplicated, and the normal shooting moving image 804 is normally played back. In thinned-out playback, frames are thinned out so that the playback time matches the shooting time. In duplicate playback, the same frame is played multiple times so that the playback time matches the shooting time. In the example of FIG. 10, the reproduced moving image includes a normal reproduction moving image 911, a thinned-out reproduction moving image 912, a duplicate reproduction moving image 913, and a normal playing image 914. The normal playback video 911 corresponds to the normal shooting video 801, the thinned playback video 912 corresponds to the slow shooting video 802, the duplicate playback video 913 corresponds to the time-lapse shooting video 803, and the normal playback video 914 corresponds to the normal shooting video 804. To do. The playback frame rate is always 60 fps.

図11は、時間優先モードが設定されている場合に再生成された動的メタデータの一例を示す模式図である。図9と同様に、フレーム最大輝度Laとフレーム最大輝度Lbの差、フレーム最大輝度Ldとフレーム最大輝度Leの差、及び、フレーム最大輝度Lgとフレーム最大輝度Lhの差は、シーンの切り替わりを検出するための上記閾値以上である。時間優先モードが設定されている場合とは、可変フレームレート撮影モードで撮影された動画が、当該動画の撮影時間と等しい再生時間で再生される場合である。 FIG. 11 is a schematic diagram showing an example of dynamic metadata regenerated when the time priority mode is set. Similar to FIG. 9, the difference between the maximum frame brightness La and the maximum frame brightness Lb, the difference between the maximum frame brightness Ld and the maximum frame brightness Le, and the difference between the maximum frame brightness Lg and the maximum frame brightness Lh detect a scene change. It is equal to or higher than the above threshold value. The time priority mode is set when the moving image shot in the variable frame rate shooting mode is played back at a playback time equal to the shooting time of the moving image.

時間優先モードが設定されている場合には、再生部108は、撮影フレームレートに依らず、動画のシーンが切り替わるタイミングで特徴量に対応する期間が切り替わる動的メタデータを再生成する。ここで、動画のシーンが切り替わるタイミングは、撮影フレームレートが変更されたタイミングではなく、例えばフレーム最大輝度が閾値以上変化するタイミングである。本実施例では、時間優先モードが設定されている場合には、撮影フレームレートが変更されたタイミングは、シーンが切り替わるタイミングとして扱われず、フレーム最大輝度が閾値以上変化するタイミングが、シーンが切り替わるタイミングとして扱われる。即ち、再生動画911〜914を1つの再生動画として扱って、シーン最大輝度を示す動的メタデータが再生成される。 When the time priority mode is set, the playback unit 108 regenerates dynamic metadata in which the period corresponding to the feature amount is switched at the timing when the moving image scene is switched, regardless of the shooting frame rate. Here, the timing at which the moving image scene is switched is not the timing at which the shooting frame rate is changed, but the timing at which, for example, the maximum frame brightness changes by the threshold value or more. In this embodiment, when the time priority mode is set, the timing at which the shooting frame rate is changed is not treated as the timing at which the scene is switched, and the timing at which the maximum frame brightness changes by the threshold value or more is the timing at which the scene is switched. Treated as. That is, the reproduced moving images 911 to 914 are treated as one reproduced moving image, and the dynamic metadata indicating the maximum brightness of the scene is regenerated.

具体的には、再生を開始した時刻0から、フレーム最大輝度が輝度Laから輝度Lbに変化する時刻t1までの期間が、1シーンの期間として検出される。そして、再生成される動的メタデータの一部、具体的には検出されたシーン(時刻0から時刻t1までの期間)に対応するメタデータとして、当該シーンのシーン最大輝度Laを示すメタデータが再生成される。同様に、時刻t1から、フレーム最大輝度が輝度Ldから輝度Leに変化する時刻t3までの期間が、1シーンとして検出され、検出されたシーンに対応するメタデータとして、当該シーンのシーン最大輝度Ldを示すメタデータが再生成される。時刻t3から、フレーム最大輝度が輝度Lgから輝度Lhに変化する時刻t5までの期間が、1シーンとして検出され、検出されたシーンに対応するメタデータとして、当該シーンのシーン最大輝度Lgを示すメタデータが再生成される。そして、時刻t5から、再生を終了する時刻t7までの期間が、1シーンとして検出され、検出されたシーンに対応するメタデータとして、当該シーンのシーン最大輝度Lhを示すメタデータが再生成される。このように、フレーム最大輝度が閾値以上変化する時刻t1,t3,t5ではメタデータが切り替わるが、再生状態が変化する時刻t2,t4,t6ではメタデータは切り替わらない。 Specifically, the period from the time 0 when the reproduction is started to the time t1 when the maximum frame brightness changes from the brightness La to the brightness Lb is detected as the period of one scene. Then, as a part of the dynamically generated dynamic metadata, specifically, the metadata corresponding to the detected scene (the period from time 0 to time t1), the metadata indicating the scene maximum brightness La of the scene is shown. Is regenerated. Similarly, the period from the time t1 to the time t3 when the frame maximum brightness changes from the brightness Ld to the brightness Le is detected as one scene, and the scene maximum brightness Ld of the scene is used as the metadata corresponding to the detected scene. The metadata indicating is regenerated. The period from time t3 to time t5 when the frame maximum brightness changes from brightness Lg to brightness Lh is detected as one scene, and as metadata corresponding to the detected scene, meta indicating the scene maximum brightness Lg of the scene. The data is regenerated. Then, the period from the time t5 to the time t7 at which the reproduction ends is detected as one scene, and the metadata indicating the scene maximum brightness Lh of the scene is regenerated as the metadata corresponding to the detected scene. .. As described above, the metadata is switched at the time t1, t3, t5 when the maximum frame brightness changes by the threshold value or more, but the metadata is not switched at the time t2, t4, t6 when the reproduction state changes.

以上の処理で再生成された動的メタデータを用いることにより、動画のシーンの再生中において、トーンカーブが変更されないため、トーンカーブの変化に起因する輝度変化を抑制できる。 By using the dynamic metadata regenerated by the above processing, the tone curve is not changed during the reproduction of the moving image scene, so that the change in brightness due to the change in the tone curve can be suppressed.

以上述べたように、本実施例によれば、可変フレームレート撮影モードで撮影された動画の再生方法に応じた方法で、動的メタデータが再生成される。これにより、再生方法に適した動的メタデータを使用して好適な輝度での表示が実現可能となる。 As described above, according to the present embodiment, the dynamic metadata is regenerated by a method according to the playback method of the moving image shot in the variable frame rate shooting mode. As a result, it is possible to realize display with suitable brightness by using dynamic metadata suitable for the reproduction method.

なお、実施例1,2(図1)の各機能ブロックは、個別のハードウェアであってもよいし、そうでなくてもよい。2つ以上の機能ブロックの機能が、共通のハードウェアによって実現されてもよい。1つの機能ブロックの複数の機能のそれぞれが、個別のハードウェアによって実現されてもよい。1つの機能ブロックの2つ以上の機能が、共通のハードウェアによって実現されてもよい。また、各機能ブロックは、ハードウェアによって実現されてもよいし、そうでなくてもよい。例えば、装置が、プロセッサと、制御プログラムが格納されたメモリとを有していてもよい。そして、装置が有する少なくとも一部の機能ブロックの機能が、プロセッサがメモリから制御プログラムを読み出して実行することにより実現されてもよい。 It should be noted that each functional block of Examples 1 and 2 (FIG. 1) may or may not be individual hardware. The functions of two or more functional blocks may be realized by common hardware. Each of the plurality of functions of one functional block may be realized by individual hardware. Two or more functions of one functional block may be realized by common hardware. Also, each functional block may or may not be implemented by hardware. For example, the device may have a processor and a memory in which the control program is stored. Then, the function of at least a part of the functional blocks of the device may be realized by the processor reading the control program from the memory and executing it.

なお、実施例1,2(上述した変形例を含む)はあくまで一例であり、本発明の要旨の範囲内で実施例1,2の構成を適宜変形したり変更したりすることにより得られる構成も、本発明に含まれる。実施例1,2の構成を適宜組み合わせて得られる構成も、本発明に含まれる。 It should be noted that Examples 1 and 2 (including the above-mentioned modified examples) are merely examples, and configurations obtained by appropriately modifying or changing the configurations of Examples 1 and 2 within the scope of the gist of the present invention. Is also included in the present invention. A configuration obtained by appropriately combining the configurations of Examples 1 and 2 is also included in the present invention.

<その他の実施例>
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other Examples>
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100:撮像装置 105:メタデータ生成部
106:メタデータ付加部 109:撮影モード設定部
100: Imaging device 105: Metadata generation unit 106: Metadata addition unit 109: Shooting mode setting unit

Claims (14)

撮影モードを設定する設定手段と、
撮像された動画の特徴量を示すメタデータを生成する生成手段と、
前記生成手段によって生成された前記メタデータを、前記動画を表す動画データに付加する付加手段と、
を有し、
前記生成手段は、前記設定手段によって設定された撮影モードに応じた期間での前記動画の特徴量を示す前記メタデータを生成する
ことを特徴とする撮像装置。
Setting means to set the shooting mode and
A generation means for generating metadata indicating the features of the captured moving image, and
An additional means for adding the metadata generated by the generation means to the moving image data representing the moving image, and
Have,
The generation means is an image pickup apparatus that generates the metadata indicating the feature amount of the moving image in a period corresponding to the shooting mode set by the setting means.
前記特徴量は最大輝度である
ことを特徴とする請求項1に記載の撮像装置。
The imaging device according to claim 1, wherein the feature amount has a maximum brightness.
前記設定手段によって設定された前記撮影モードが、前記動画の撮影時間よりも前記動画の再生時間が短くなる撮影モードである場合に、前記生成手段は、前記動画の各フレームの特徴量を示すメタデータを生成する
ことを特徴とする請求項1または2に記載の撮像装置。
When the shooting mode set by the setting means is a shooting mode in which the playback time of the moving image is shorter than the shooting time of the moving image, the generating means is a meta indicating the feature amount of each frame of the moving image. The imaging apparatus according to claim 1 or 2, wherein data is generated.
前記設定手段によって設定された前記撮影モードが、複数の静止画を順次撮影する撮影モードである場合に、
前記生成手段は、撮像された静止画の特徴量を示すメタデータを生成する処理を、順次撮影される複数の静止画のそれぞれについて行い、
前記付加手段は、前記生成手段によって生成された前記メタデータを当該メタデータに対応する前記静止画を表す静止画データに付加する処理を、順次撮影される前記複数の静止画のそれぞれについて行う
ことを特徴とする請求項1〜3のいずれか1項に記載の撮像装置。
When the shooting mode set by the setting means is a shooting mode for sequentially shooting a plurality of still images,
The generation means performs a process of generating metadata indicating the feature amount of the captured still image for each of the plurality of still images to be sequentially captured.
The addition means performs a process of adding the metadata generated by the generation means to the still image data representing the still image corresponding to the metadata for each of the plurality of still images to be sequentially photographed. The image pickup apparatus according to any one of claims 1 to 3.
前記設定手段によって設定された前記撮影モードが、前記動画の撮影時間よりも前記動画の再生時間が長くなる撮影モードである場合に、前記生成手段は、前記動画の全体の特徴量を示すメタデータを生成する
ことを特徴とする請求項1〜4のいずれか1項に記載の撮像装置。
When the shooting mode set by the setting means is a shooting mode in which the playback time of the moving image is longer than the shooting time of the moving image, the generating means is metadata indicating the overall feature amount of the moving image. The imaging device according to any one of claims 1 to 4, wherein the image pickup apparatus is produced.
前記設定手段によって設定された前記撮影モードが、静止画の撮影に連動して、所定期間に撮像された動画を表す動画データを記録する撮影モードである場合に、前記生成手段は、前記所定期間に撮像された前記動画の全体の特徴量を示すメタデータを生成する
ことを特徴とする請求項1〜5のいずれか1項に記載の撮像装置。
When the shooting mode set by the setting means is a shooting mode for recording moving image data representing a moving image captured in a predetermined period in conjunction with shooting of a still image, the generating means is used for the predetermined period. The imaging apparatus according to any one of claims 1 to 5, wherein metadata indicating the overall feature amount of the moving image captured in the image is generated.
前記設定手段によって設定された前記撮影モードが、撮影のフレームレートを変更可能な撮影モードである場合に、前記生成手段は、前記撮影のフレームレートが変更されたタイミングで前記特徴量に対応する前記期間が切り替わるメタデータを生成する
ことを特徴とする請求項1〜6のいずれか1項に記載の撮像装置。
When the shooting mode set by the setting means is a shooting mode in which the frame rate of shooting can be changed, the generation means corresponds to the feature amount at the timing when the frame rate of shooting is changed. The imaging apparatus according to any one of claims 1 to 6, wherein the metadata for which the period is switched is generated.
前記設定手段によって設定された前記撮影モードが、前記撮影のフレームレートを変更可能な前記撮影モードである場合に、前記生成手段は、前記撮影のフレームレートが所定のフレームレートよりも低い期間について前記動画の各フレームの特徴量を示す前記メタデータを生成する
ことを特徴とする請求項7に記載の撮像装置。
When the shooting mode set by the setting means is the shooting mode in which the frame rate of the shooting can be changed, the generation means said that the frame rate of the shooting is lower than the predetermined frame rate for a period of time. The imaging device according to claim 7, wherein the metadata indicating the feature amount of each frame of the moving image is generated.
前記設定手段によって設定された前記撮影モードが、前記撮影のフレームレートを変更
可能な前記撮影モードである場合に、前記生成手段は、前記撮影のフレームレートが所定のフレームレートよりも高い期間において前記動画のシーンが切り替わるタイミングで前記特徴量に対応する前記期間が切り替わる前記メタデータを生成する
ことを特徴とする請求項7または8に記載の撮像装置。
When the shooting mode set by the setting means is the shooting mode in which the frame rate of the shooting can be changed, the generation means said that the frame rate of the shooting is higher than the predetermined frame rate. The imaging device according to claim 7 or 8, wherein the metadata corresponding to the feature amount is switched at the timing when the moving image scene is switched.
前記設定手段によって設定された前記撮影モードが、前記撮影のフレームレートを変更可能な前記撮影モードである場合に、前記生成手段は、前記撮影のフレームレートが所定のフレームレートよりも高い期間において前記所定のフレームレートで前記特徴量に対応する前記期間が切り替わる前記メタデータを生成する
ことを特徴とする請求項7または8に記載の撮像装置。
When the shooting mode set by the setting means is the shooting mode in which the frame rate of the shooting can be changed, the generation means said that the frame rate of the shooting is higher than the predetermined frame rate. The imaging apparatus according to claim 7 or 8, wherein the metadata corresponding to the feature amount is switched at a predetermined frame rate.
撮影のフレームレートを変更可能な撮影モードで撮影された動画が、当該動画の撮影時間と等しい再生時間で再生される場合に、前記生成手段は、当該動画のシーンが切り替わるタイミングで前記特徴量に対応する前記期間が切り替わるメタデータを再生成する
ことを特徴とする請求項1〜10のいずれか1項に記載の撮像装置。
When a moving image shot in a shooting mode in which the shooting frame rate can be changed is played back at a playback time equal to the shooting time of the moving image, the generation means uses the feature amount at the timing when the scene of the moving image is switched. The imaging apparatus according to any one of claims 1 to 10, wherein the corresponding metadata for which the period is switched is regenerated.
撮影のフレームレートを変更可能な撮影モードで撮影された動画が、当該動画の撮影時間と異なる再生時間で再生される場合に、前記生成手段は、
前記撮影のフレームレートが所定のフレームレートである期間において、前記動画のシーンが切り替わるタイミングと、前記撮影のフレームレートが変更されたタイミングとで、前記特徴量に対応する前記期間が切り替わり、且つ、
前記撮影のフレームレートが前記所定のフレームレートでない期間において、前記撮影のフレームレートが変更されたタイミングで前記特徴量に対応する前記期間が切り替わる
メタデータを再生成する
ことを特徴とする請求項1〜11のいずれか1項に記載の撮像装置。
When a moving image shot in a shooting mode in which the shooting frame rate can be changed is played back at a playback time different from the shooting time of the moving image, the generation means
In a period in which the frame rate of the shooting is a predetermined frame rate, the period corresponding to the feature amount is switched between the timing when the scene of the moving image is switched and the timing when the frame rate of the shooting is changed.
Claim 1 is characterized in that, in a period in which the frame rate of shooting is not the predetermined frame rate, metadata corresponding to the feature amount is regenerated at the timing when the frame rate of shooting is changed. The imaging apparatus according to any one of 1 to 11.
撮影モードを設定する設定ステップと、
撮像された動画の特徴量を示すメタデータを生成する生成ステップと、
前記生成ステップにおいて生成された前記メタデータを、前記動画を表す動画データに付加する付加ステップと、
を有し、
前記生成ステップでは、前記設定ステップにおいて設定された撮影モードに応じた期間での前記動画の特徴量を示す前記メタデータを生成する
ことを特徴とする撮像装置の制御方法。
Setting steps to set the shooting mode and
A generation step to generate metadata showing the features of the captured video,
An additional step of adding the metadata generated in the generation step to the moving image data representing the moving image,
Have,
The generation step is a control method for an image pickup apparatus, which comprises generating the metadata indicating the feature amount of the moving image in a period corresponding to the shooting mode set in the setting step.
コンピュータを、請求項1〜12のいずれか1項に記載の撮像装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the imaging device according to any one of claims 1 to 12.
JP2019033958A 2018-11-07 2019-02-27 Imaging apparatus and control method of the same Pending JP2020141189A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019033958A JP2020141189A (en) 2019-02-27 2019-02-27 Imaging apparatus and control method of the same
US16/676,001 US11184551B2 (en) 2018-11-07 2019-11-06 Imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019033958A JP2020141189A (en) 2019-02-27 2019-02-27 Imaging apparatus and control method of the same

Publications (1)

Publication Number Publication Date
JP2020141189A true JP2020141189A (en) 2020-09-03

Family

ID=72265204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019033958A Pending JP2020141189A (en) 2018-11-07 2019-02-27 Imaging apparatus and control method of the same

Country Status (1)

Country Link
JP (1) JP2020141189A (en)

Similar Documents

Publication Publication Date Title
JP5234119B2 (en) Imaging apparatus, imaging processing method, and program
JP2010206552A (en) Imaging apparatus, reproduction display, imaging recording method, and reproduction display method
US20110199496A1 (en) Image capturing apparatus, image capturing control method, and storage medium
JP6304293B2 (en) Image processing apparatus, image processing method, and program
JP4556195B2 (en) Imaging device, moving image playback device, and program
JP5962600B2 (en) MOVIE GENERATION DEVICE, MOVIE GENERATION METHOD, AND PROGRAM
JP2014057174A (en) Imaging apparatus and digital camera
JP5241559B2 (en) Image recording / playback device
JP2005055746A (en) Imaging apparatus, focusing control method and program
JP2014057169A (en) Image generating apparatus, imaging apparatus including the same, image generating method and image generation program
JP2015061236A (en) Image processing apparatus, image processing method and program
JP6278729B2 (en) Imaging apparatus, control method thereof, and program
JP6152009B2 (en) Imaging apparatus, imaging method, program, and recording medium
JP6775386B2 (en) Imaging device, its control method, program and recording medium
JP2011233985A (en) Image processing system and its control method
US11184551B2 (en) Imaging apparatus and control method thereof
JP2008205953A (en) Imaging device and image reproducing device
JP7278092B2 (en) Image processing device, imaging device, image processing method, imaging device control method, and program
JP2014049882A (en) Imaging apparatus
JP2020141189A (en) Imaging apparatus and control method of the same
JP6075829B2 (en) IMAGING DEVICE, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP4110007B2 (en) Digital movie video camera and video playback device
JP7175941B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD FOR IMAGE PROCESSING APPARATUS, AND PROGRAM
JP5593652B2 (en) Camera and movie playback program
JP6742862B2 (en) Imaging device, image processing device, control method of imaging device, and program