JP2015023552A - Image reproduction device, image reproduction method, program and storage medium - Google Patents

Image reproduction device, image reproduction method, program and storage medium Download PDF

Info

Publication number
JP2015023552A
JP2015023552A JP2013152914A JP2013152914A JP2015023552A JP 2015023552 A JP2015023552 A JP 2015023552A JP 2013152914 A JP2013152914 A JP 2013152914A JP 2013152914 A JP2013152914 A JP 2013152914A JP 2015023552 A JP2015023552 A JP 2015023552A
Authority
JP
Japan
Prior art keywords
information
frame
focus distance
imaging frame
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013152914A
Other languages
Japanese (ja)
Other versions
JP6228402B2 (en
Inventor
俊則 山本
Toshinori Yamamoto
俊則 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013152914A priority Critical patent/JP6228402B2/en
Publication of JP2015023552A publication Critical patent/JP2015023552A/en
Application granted granted Critical
Publication of JP6228402B2 publication Critical patent/JP6228402B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To appropriately determine a focal position in each frame of motion picture data based on write-field image data.SOLUTION: An image reproduction device comprises a capturing part and an arithmetic operation part. The capturing part captures motion picture data which are imaged by an imaging apparatus capable of capturing write-field image data, for which a focal distance of a moving image for each imaging frame and for each subject is measured by the imaging apparatus and of which the information of the focal distance is recorded in association with the imaging frame. In the case where the information of the focal distance for each subject recorded in association with the imaging frame is present in the moving image data, the arithmetic operation part performs refocus arithmetic operation on the basis of the information of the focal distance. In the case where the information of the focal distance for each subject recorded in association with the imaging frame is not present in the moving image data, the arithmetic operation part performs refocus arithmetic operation while using the information of the focal distance or information of a stop value which is interpolated on the basis of information of focal distance for each subject recorded in association with another imaging frame.

Description

本発明は、動画を再生する場合のリフォーカス技術に関するものである。   The present invention relates to a refocus technique for reproducing a moving image.

従来より、記録時だけでなく、記録画像を鑑賞する際にも効果的な再生演出をしたいという要求が存在する。例えば、特許文献1では、顔位置や合焦位置を画像データと対応づけて記録し、拡大再生において再生画全体を顔位置中心あるいは合焦位置中心へ平行シフトさせる静止画撮像装置が提案されている。   Conventionally, there has been a demand for an effective reproduction effect not only at the time of recording but also when viewing a recorded image. For example, Patent Document 1 proposes a still image capturing apparatus that records a face position and a focus position in association with image data, and shifts the entire reproduced image in parallel to the face position center or the focus position center in enlarged reproduction. Yes.

一方、近年、固体撮像素子の前面に、複数の画素に対し一つの割合で並ぶマイクロレンズアレイを配置した構成の撮像装置が非特許文献1などにおいて提案されている。このような構成にすることで、撮像素子へ入射する光線の方向の情報を得ることができる。この撮像装置を使用した場合、各画素からの出力信号をもとに通常の撮影画像を生成する以外に、撮影された画像データに対して所定の画像処理を施せば、任意の距離の被写体に焦点を合わせた画像を再構築することが可能である。   On the other hand, in recent years, an imaging apparatus having a configuration in which a microlens array arranged at a ratio of one for a plurality of pixels is arranged on the front surface of a solid-state imaging device has been proposed in Non-Patent Document 1 and the like. With such a configuration, it is possible to obtain information on the direction of light rays incident on the image sensor. When this imaging device is used, in addition to generating a normal captured image based on the output signal from each pixel, subjecting the captured image data to a subject at an arbitrary distance can be achieved by performing predetermined image processing. It is possible to reconstruct a focused image.

特開2007−195099号公報JP 2007-195099 A

Ren.Ng、他7名,「Light Field Photography with a Hand−Held Plenoptic Camera」,Stanford Tech Report CTSR 2005−02Ren. Ng and 7 others, “Light Field Photography with a Hand-Held Plenoptic Camera”, Stanford Tech Report CTSR 2005-02

しかしながら、特許文献1の撮像装置は再生対象を静止画のみとしているため、時間的に連続する複数の静止画を動画として再生する場合の技術についての記載は無い。   However, since the imaging apparatus of Patent Document 1 uses only a still image as a reproduction target, there is no description about a technique for reproducing a plurality of still images that are temporally continuous as a moving image.

本発明は上述した課題に鑑みてなされたものであり、その目的は、ライトフィールド画像データに基づく動画データの各フレームにおける焦点位置を適切に決定することである。   The present invention has been made in view of the above-described problems, and an object thereof is to appropriately determine a focal position in each frame of moving image data based on light field image data.

本発明に係わる画像再生装置は、ライトフィールド画像データを取得することが可能な撮像装置により撮像され、該撮像装置により、動画像の撮像フレーム毎、被写体毎の合焦距離を測定し、該合焦距離の情報が前記撮像フレームと関連付けて記録された動画像データを取得する取得手段と、前記動画像データに、撮像フレームと関連付けて記録されている被写体毎の合焦距離の情報が存在する場合は、該合焦距離の情報に基づいてリフォーカス演算を行い、前記動画像データに、撮像フレームと関連付けて記録されている被写体毎の合焦距離の情報が存在しない場合は他の撮像フレームと関連付けて記録されている被写体毎の合焦距離の情報に基づいて補間した合焦距離の情報あるいは絞り値の情報を用いてリフォーカス演算を行う演算手段と、を備えることを特徴とする。   The image reproduction device according to the present invention is picked up by an image pickup device capable of acquiring light field image data, and the image pickup device measures a focus distance for each image pickup frame and subject of a moving image, and Acquisition means for acquiring moving image data in which focal distance information is recorded in association with the imaging frame; and in-focus distance information for each subject recorded in the moving image data in association with the imaging frame. If the focus distance information for each subject recorded in association with the imaging frame does not exist in the moving image data, a refocusing operation is performed based on the focusing distance information. Calculating the refocus using the information on the focus distance or the aperture value interpolated based on the information on the focus distance for each subject recorded in association with Characterized in that it comprises a and.

本発明によれば、ライトフィールド画像データに基づく動画データの各フレームにおける焦点位置を適切に決定することが可能となる。   According to the present invention, it is possible to appropriately determine a focal position in each frame of moving image data based on light field image data.

本発明の第1の実施形態に係わる撮像装置であるデジタルカメラの撮像部、記録部、再生部の概略構成を示すブロック図。1 is a block diagram illustrating a schematic configuration of an imaging unit, a recording unit, and a reproduction unit of a digital camera that is an imaging apparatus according to a first embodiment of the present invention. 撮像した動画データの例を示す図。The figure which shows the example of the imaged moving image data. 第1〜第4の実施形態の被写体別の合焦距離情報のメタデータ列を示す図。The figure which shows the metadata row | line | column of the focusing distance information according to to-be-photographed object of the 1st-4th embodiment. 第1の実施形態における被写体距離の例を示す図。The figure which shows the example of the to-be-photographed object distance in 1st Embodiment. 第1の実施形態の動作を示すフローチャート。The flowchart which shows operation | movement of 1st Embodiment. 第2の実施形態の被写体距離の例を示す図。The figure which shows the example of the to-be-photographed object distance of 2nd Embodiment. 第2の実施形態の動作を示すフローチャート。The flowchart which shows operation | movement of 2nd Embodiment. 第3の実施形態の被写体距離の例を示す図。The figure which shows the example of the to-be-photographed object distance of 3rd Embodiment. 第3の実施形態の動作を示すフローチャート。The flowchart which shows operation | movement of 3rd Embodiment. 第4の実施形態の被写体距離の例を示す図。The figure which shows the example of the to-be-photographed object distance of 4th Embodiment. 第4の実施形態の動作を示すフローチャート。The flowchart which shows operation | movement of 4th Embodiment. 第5の実施形態の被写体別の合焦距離情報のメタデータ列を示す図。The figure which shows the metadata row | line of the focusing distance information according to to-be-photographed object of 5th Embodiment. 第6の実施形態の被写体別の合焦距離情報のメタデータ列を示す図。The figure which shows the metadata row | line of the focusing distance information according to to-be-photographed object of 6th Embodiment.

以下、本発明の実施形態について、添付図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

(第1の実施形態)
第1の実施形態では、リフォーカス演算に用いる距離値が動画像フレーム(動画像データ)の一部で欠けている場合、前フレームの距離値で現フレームの距離値を補間したリフォーカスパラメータを用いてリフォーカス演算を行う例について説明する。以下、図1を参照して、本発明の第1の実施形態の撮像装置について説明する。
(First embodiment)
In the first embodiment, when the distance value used for the refocus calculation is missing in a part of the moving image frame (moving image data), the refocus parameter obtained by interpolating the distance value of the current frame with the distance value of the previous frame is used. An example of performing a refocus calculation using the above will be described. Hereinafter, an imaging apparatus according to a first embodiment of the present invention will be described with reference to FIG.

図1は本発明の第1の実施形態に係わる撮像装置(画像再生装置)であるデジタルカメラの撮像部、記録部、再生部の概略構成を示すブロック図である。図1において、101は被写体からの光線を集光するための対物レンズ、103は撮像素子に隣接して配置されたマイクロレンズアレイ、105は被写体の光学像を光電変換した電気信号を出力する撮像素子である。107は撮像素子105から出力される画像信号に対し、増幅処理などを行うアナログフロントエンドおよびAD変換回路である。111は被写体距離マップ生成回路である。   FIG. 1 is a block diagram showing a schematic configuration of an imaging unit, a recording unit, and a reproduction unit of a digital camera that is an imaging apparatus (image reproduction apparatus) according to the first embodiment of the present invention. In FIG. 1, 101 is an objective lens for condensing light rays from a subject, 103 is a microlens array arranged adjacent to an image sensor, and 105 is an image that outputs an electrical signal obtained by photoelectrically converting an optical image of the subject. It is an element. Reference numeral 107 denotes an analog front end and an AD conversion circuit for performing an amplification process on an image signal output from the image sensor 105. Reference numeral 111 denotes a subject distance map generation circuit.

ここで被写体距離マップ生成回路111の動作を簡単に説明する。まず、ライトフィールド画像データに対し仮距離値を与えリフォーカス演算を施した結果の画像を複数の仮距離値に対し導出する。そして、この複数の仮距離値に対する複数のリフォーカス演算結果各々の画像どうしを比較し、コントラスト最大の画像を選出すると、ここで与えた仮距離値がコントラスト最大となった被写体に対応する合焦距離となる。この選出演算を画面中の被写体毎に実施する。そして、被写体領域に対応する合焦距離値と画面座標値との対応データを画面毎に生成する。以上が、被写体距離マップ生成回路111の動作である。   Here, the operation of the subject distance map generation circuit 111 will be briefly described. First, a temporary distance value is given to the light field image data, and an image as a result of performing a refocus calculation is derived for a plurality of temporary distance values. Then, by comparing the images of the plurality of refocus calculation results with respect to the plurality of temporary distance values and selecting the image with the maximum contrast, the focus corresponding to the subject whose temporary distance value given here has the maximum contrast is selected. Distance. This selection calculation is performed for each subject on the screen. Then, correspondence data between the focus distance value corresponding to the subject area and the screen coordinate value is generated for each screen. The above is the operation of the subject distance map generation circuit 111.

図1に戻って、121はリフォーカス演算回路、131は液晶モニタ等の画像データ表示装置、141は撮像データを保存するメモリカード等の記録メディアである。151は画像信号を一時保存するRAMで構成されるメモリ、161は各種演算制御を司るCPU、171はタッチパネル等のユーザーインターフェースである。   Returning to FIG. 1, reference numeral 121 denotes a refocusing arithmetic circuit, 131 denotes an image data display device such as a liquid crystal monitor, and 141 denotes a recording medium such as a memory card for storing imaging data. Reference numeral 151 denotes a memory composed of a RAM that temporarily stores image signals, 161 denotes a CPU that controls various arithmetic controls, and 171 denotes a user interface such as a touch panel.

最初に、記録動作について説明する。なお、撮像動作、記録動作、後述の再生動作を含め、各回路ブロックの動作は、CPU161がその内部メモリに記録されているプログラムを実行することにより制御される。   First, the recording operation will be described. Note that the operation of each circuit block, including the imaging operation, recording operation, and reproduction operation described later, is controlled by the CPU 161 executing a program recorded in its internal memory.

被写体の光学像は、対物レンズ101で集光され、マイクロレンズアレイ103を通過し、撮像素子105へ投影され、光電変換される。そして、撮像素子105から出力される撮像データは、アナログフロントエンドおよびAD変換回路107で増幅処理された後にAD変換され、画像データとしてRAM151へ保存される。この画像データは被写体距離マップ生成回路111へ入力され、被写体別の合焦距離が算出される。被写体別の合焦距離は各画像データのメタデータとして、画像データと一組に括られ記録メディア141に保存される。   The optical image of the subject is collected by the objective lens 101, passes through the microlens array 103, is projected onto the image sensor 105, and is subjected to photoelectric conversion. The image data output from the image sensor 105 is amplified by the analog front end and the AD conversion circuit 107 and then AD converted and stored in the RAM 151 as image data. This image data is input to the subject distance map generation circuit 111, and the focusing distance for each subject is calculated. The in-focus distance for each subject is stored in the recording medium 141 as metadata of each image data as a set with the image data.

ここで、図2は撮像動画データ例、図3は図2に対応する被写体別の合焦距離情報のメタデータ、つまり12フレーム分のメタデータ列の例である。すなわち図3は、図2のオブジェクトA、オブジェクトB、オブジェクトCの各々の被写体の撮像素子からの距離情報、すなわち被写体距離マップ生成回路111が生成した合焦距離情報をフレーム番号順に図示したものである。   Here, FIG. 2 is an example of captured moving image data, and FIG. 3 is an example of in-focus distance information metadata corresponding to FIG. 2, that is, an example of a 12-frame metadata string. That is, FIG. 3 illustrates the distance information from the image sensor of each subject of the objects A, B, and C in FIG. 2, that is, the focus distance information generated by the subject distance map generation circuit 111 in the order of frame numbers. is there.

次に、記録された画像データの概略的な再生動作について説明する。記録メディア141中の一組に括られた画像データとメタデータは一つのフレーム毎に一旦、RAM151へ転送される。CPU161は画像データをリフォーカス演算回路121へ入力すると共に、後述するようにメタデータ中の距離情報を解析し、その距離値をリフォーカスパラメータとして、リフォーカス演算回路121へ入力する。リフォーカス演算回路121は与えられた距離パラメータを用いて画像データへリフォーカス演算を施す。この結果、一つの距離値で合焦した画像データが一つのフレーム毎にRAMへ転送され、この画像データがデータ表示装置131にて連続したフレームとして描画される。   Next, a schematic reproduction operation of recorded image data will be described. The image data and metadata bundled in a set in the recording medium 141 are once transferred to the RAM 151 for each frame. The CPU 161 inputs the image data to the refocus calculation circuit 121, analyzes distance information in the metadata as will be described later, and inputs the distance value to the refocus calculation circuit 121 as a refocus parameter. The refocus calculation circuit 121 performs refocus calculation on the image data using the given distance parameter. As a result, the image data focused at one distance value is transferred to the RAM for each frame, and this image data is drawn as a continuous frame on the data display device 131.

次に、再生画像データのリフォーカス演算におけるリフォーカスパラメータである合焦距離値の制御動作を、図1のブロック図、図3のメタデータ列例、図4の被写体距離例、図5のフローチャートを用いて説明する。なお、図5のフローチャートの動作はCPU161がその内部メモリに記録されているプログラムを実行することによって制御される。   Next, the control operation of the in-focus distance value which is a refocus parameter in the refocus calculation of the reproduction image data is shown in the block diagram of FIG. 1, the example of the metadata string of FIG. 3, the example of the subject distance of FIG. 4, and the flowchart of FIG. Will be described. The operation of the flowchart of FIG. 5 is controlled by the CPU 161 executing a program recorded in its internal memory.

まずCPU161は、ユーザーへ主被写体の選択を促すメッセージを表示装置131へ出力し、ユーザーインターフェース171からのユーザー応答に従い、合焦対象とする主被写体をCPU161の内部へ記録する(ステップS203)。ここで、図2のオブジェクトAが選択されたものとして説明する。   First, the CPU 161 outputs a message prompting the user to select a main subject to the display device 131, and records the main subject to be focused in the CPU 161 in accordance with a user response from the user interface 171 (step S203). Here, it is assumed that the object A in FIG. 2 is selected.

次にCPU161は、現在の表示フレームの画像データに括られているメタデータ中の複数の被写体の距離情報の中に、ステップS203で指示された主被写体に該当する値の存在有無を検査する(ステップS205)。図3でオブジェクトAの距離情報はフレーム1からフレーム5の間で存在するため、ステップS211へ移行し、現在フレーム、すなわちフレーム1の距離値2.4mをリフォーカスパラメータとしてフレーム1の画像データへリフォーカス演算を施す。   Next, the CPU 161 checks the presence / absence of a value corresponding to the main subject instructed in step S203 in the distance information of the plurality of subjects in the metadata bundled with the image data of the current display frame ( Step S205). In FIG. 3, since the distance information of the object A exists between the frames 1 and 5, the process proceeds to step S211, and the current frame, that is, the distance value 2.4 m of the frame 1 is used as the refocusing parameter to the image data of the frame 1. Refocus calculation is performed.

次に、演算結果を表示装置131へ出力(ステップS212)し、次フレームへ移行(ステップS213)し、再び主被写体に該当する距離値の存在の検査(ステップS205)へ戻るという動作をフレーム1からフレーム5まで繰り返す。   Next, the operation of outputting the calculation result to the display device 131 (step S212), proceeding to the next frame (step S213), and returning to the inspection of the presence of the distance value corresponding to the main subject (step S205) is performed in frame 1. Repeat until frame 5.

そして、図3のフレーム6ではオブジェクトAの距離値が保存されていないため、図5のフローチャートのステップS221へ移行する。このステップでは、フレームアウトした被写体が同じ動画カット中において再度フレームインするか否かにつき、メタデータ中の該当する被写体距離値を検査する。さらに、再フレームインする場合、現在のフレーム番号より何フレーム後に再フレームインするかを検査し、再フレームインまでのフレーム数の多寡で制御を切換える。例えば本実施形態では、この閾値フレーム数Nを9フレームと仮定する。一方、本実施形態ではフレーム6の5フレーム後から再度オブジェクトAの値が記録されている(図3)。従って、この例では、再度フレームインするフレーム11はN未満先(閾値未満先)となり、ステップS223へ移行する。   And since the distance value of the object A is not preserve | saved in the flame | frame 6 of FIG. 3, it transfers to step S221 of the flowchart of FIG. In this step, the subject distance value in the metadata is inspected as to whether or not the framed subject is to be framed again during the same moving picture cut. Further, when re-frame-in is performed, the number of frames after the current frame number is checked for re-frame-in, and the control is switched depending on the number of frames up to the re-frame-in. For example, in this embodiment, the threshold frame number N is assumed to be 9 frames. On the other hand, in this embodiment, the value of the object A is recorded again from 5 frames after the frame 6 (FIG. 3). Therefore, in this example, the frame 11 to be framed in again is less than N (below the threshold), and the process proceeds to step S223.

そして、フレーム6は距離値の記録が無い(図3)ため、直前フレーム5の距離値2.1mを補間リフォーカスパラメータとして与え、フレーム6の画像データ(現在再生するフレーム)へリフォーカス演算を施す(ステップS223)。そして、演算結果を表示装置131へ出力(ステップS224)し、ステップS225へ移行する。一方、ステップS221にて、フレームアウトした被写体が再フレームインしない場合、あるいは、再フレームインまでのフレーム数が10以上の場合は、CPUがユーザーへ主被写体の変更を促すメッセージを表示装置131へ出力する(ステップS231)。次にCPUはユーザーインターフェース171からのユーザー応答を検査し、主被写体の更新が有ればステップS203へ移行し、主被写体の更新が無ければステップS223へ移行し、直前フレームの距離値で補間したリフォーカスパラメータを用いる。   Since the distance value is not recorded in the frame 6 (FIG. 3), the distance value 2.1m of the immediately preceding frame 5 is given as an interpolation refocus parameter, and the refocus calculation is performed on the image data of the frame 6 (currently reproduced frame). (Step S223). Then, the calculation result is output to the display device 131 (step S224), and the process proceeds to step S225. On the other hand, if the subject out of the frame does not re-frame in step S221 or if the number of frames until re-frame-in is 10 or more, the CPU sends a message prompting the user to change the main subject to the display device 131. Output (step S231). Next, the CPU checks the user response from the user interface 171. If the main subject has been updated, the process proceeds to step S203. If the main subject has not been updated, the process proceeds to step S223, and interpolation is performed using the distance value of the previous frame. Use refocus parameters.

以上説明したように本実施形態では、再生画像データのリフォーカス演算におけるリフォーカスパラメータである合焦距離値が図4のobjAの曲線で示す様に制御される。図4においてobjAの曲線の実線部が補間なしのメタデータ記録値自身であり、objAの曲線の破線部がメタデータ記録値からの補間値である。   As described above, in this embodiment, the in-focus distance value, which is a refocus parameter in the refocus calculation of reproduced image data, is controlled as indicated by the curve objA in FIG. In FIG. 4, the solid line portion of the objA curve is the metadata recorded value itself without interpolation, and the broken line portion of the objA curve is the interpolated value from the metadata recorded value.

このように、本実施形態では、主被写体がフレームアウトした時、フレームアウトする直前のフレームの距離値で現フレームの距離値を補間する方法を用いる。これにより、リフォーカス演算に用いる距離値が動画フレームの一部で欠けると合焦位置が頻繁に移動し、チラチラして鑑賞しにくい画像となる問題を回避している。   As described above, in this embodiment, when the main subject is out of frame, a method of interpolating the distance value of the current frame with the distance value of the frame immediately before the frame out is used. This avoids the problem that if the distance value used for the refocus calculation is missing at a part of the moving image frame, the in-focus position frequently moves and flickers and becomes an image that is difficult to view.

また、主被写体のフレームアウト時にユーザーへ主被写体の更新を促すことによっても、合焦位置が不安定になり、チラチラして鑑賞しにくい画像となる問題を回避している。   In addition, by prompting the user to update the main subject when the main subject is out of the frame, the in-focus position becomes unstable, and the problem of flickering and difficult to view images is avoided.

(第2の実施形態)
第2の実施形態では、リフォーカス演算に用いる距離値の補間期間を考慮したリフォーカスパラメータを用いリフォーカス演算を行う例について説明する。基本的な撮像動作、記録動作、再生動作は第1の実施形態と変わらない。従って、装置のブロック図は図1に示したものと同様である。第1の実施形態と第2の実施形態の違いは、再生画像データのリフォーカス演算におけるリフォーカスパラメータである合焦距離値の制御動作である。
(Second Embodiment)
In the second embodiment, an example in which refocus calculation is performed using a refocus parameter considering an interpolation period of distance values used for refocus calculation will be described. Basic imaging operation, recording operation, and reproduction operation are the same as those in the first embodiment. Therefore, the block diagram of the apparatus is the same as that shown in FIG. The difference between the first embodiment and the second embodiment is the control operation of the in-focus distance value that is the refocus parameter in the refocus calculation of the reproduction image data.

再生画像データのリフォーカス演算におけるリフォーカスパラメータである合焦距離値の制御動作を図1のブロック図、図3のメタデータ列例、図6の被写体距離例、図7のフローチャートを用いて説明する。なお、図7のフローチャートの動作はCPU161がその内部メモリに記録されているプログラムを実行することによって制御される。   A control operation of a focus distance value, which is a refocus parameter in refocus calculation of reproduced image data, will be described with reference to the block diagram of FIG. 1, the metadata string example of FIG. 3, the subject distance example of FIG. 6, and the flowchart of FIG. To do. Note that the operation of the flowchart of FIG. 7 is controlled by the CPU 161 executing a program recorded in its internal memory.

まず、CPU161は、ユーザーへ主被写体の選択を促すメッセージを表示装置131へ出力し、ユーザーインターフェース171からのユーザー応答に従い、合焦対象とする主被写体をCPU内部へ記録する(ステップS203)。ここで、図2のオブジェクトAが選択されたものとして説明する。次にCPUは、現在の表示フレームの画像データに括られているメタデータ中の複数の被写体の距離情報の中に、ステップS203で指示された主被写体に該当する値の存在有無を検査する(ステップS205)。図3でオブジェクトAの距離情報はフレーム1からフレーム5の間で存在するため、ステップS211へ移行し、現在フレーム、すなわちフレーム1の距離値2.4mをリフォーカスパラメータとしてフレーム1の画像データへリフォーカス演算を施す。次に、演算結果を表示装置131へ出力(ステップS212)し、次フレームへ移行(ステップS213)し、再び主被写体に該当する距離値の存在の検査(ステップS205)へ戻るという動作をフレーム1からフレーム5まで繰り返す。   First, the CPU 161 outputs a message prompting the user to select a main subject to the display device 131, and records the main subject to be focused in the CPU in accordance with a user response from the user interface 171 (step S203). Here, it is assumed that the object A in FIG. 2 is selected. Next, the CPU checks whether or not there is a value corresponding to the main subject instructed in step S203 in the distance information of the plurality of subjects in the metadata bundled with the image data of the current display frame ( Step S205). In FIG. 3, since the distance information of the object A exists between the frames 1 and 5, the process proceeds to step S211, and the current frame, that is, the distance value 2.4 m of the frame 1 is used as the refocusing parameter to the image data of the frame 1. Refocus calculation is performed. Next, the operation of outputting the calculation result to the display device 131 (step S212), proceeding to the next frame (step S213), and returning to the inspection of the presence of the distance value corresponding to the main subject (step S205) is performed in frame 1. Repeat until frame 5.

そして、図3のフレーム6ではオブジェクトAの距離値が保存されていないため、図7のフローチャートのステップS221へ移行する。このステップでは、フレームアウトした被写体が同じ動画カット中において再度フレームインするか否かを検査する。さらに、再フレームインする場合、現在のフレーム番号より何フレーム後に再フレームインするかを検査し、再フレームインまでのフレーム数の多寡で制御を切換える。例えば本実施形態では、この閾値フレーム数Nを9フレームと仮定する。一方、本実施形態ではフレーム6の5フレーム後から再度オブジェクトAの値が記録されている(図3)。従って、この例では、再度フレームインするフレーム11はN未満先(閾値未満先)となり、ステップS241へ移行する。   And since the distance value of the object A is not preserve | saved in the flame | frame 6 of FIG. 3, it transfers to step S221 of the flowchart of FIG. In this step, it is checked whether or not the framed-out subject is framed again during the same moving image cut. Further, when re-frame-in is performed, the number of frames after the current frame number is checked for re-frame-in, and the control is switched depending on the number of frames up to the re-frame-in. For example, in this embodiment, the threshold frame number N is assumed to be 9 frames. On the other hand, in this embodiment, the value of the object A is recorded again from 5 frames after the frame 6 (FIG. 3). Accordingly, in this example, the frame 11 to be framed in again is less than N (below the threshold), and the process proceeds to step S241.

ステップS241では、フレームアウトした被写体が再度フレームインする(将来の)フレーム番号と、現在のフレーム番号の差を検査する。そして、再度のフレームインの開始フレームよりLフレーム未満の時間内であれば、再度のフレームインにおける主被写体距離値をリフォーカス演算に用いる。例えばこの実施形態のステップS241ではこのフレーム時間Lを2フレームと仮定しており、フレーム6から再度のフレームイン(フレーム11)より2フレーム前のフレーム9までの間ステップS251へ移行する。   In step S241, the difference between the frame number at which the subject out of the frame enters the frame again (future) and the current frame number is inspected. If the time is less than L frames from the start frame of the second frame-in, the main subject distance value at the second frame-in is used for the refocus calculation. For example, in step S241 of this embodiment, this frame time L is assumed to be two frames, and the process proceeds to step S251 from frame 6 to frame 9 two frames before the re-in (frame 11).

ステップS251では、フレームアウトする直前の被写体距離を用いる直前フレーム置換処置の継続期間を検査する。そして、直前フレーム置換処置の継続フレーム数がKフレーム以上(所定数のフレーム以上)の時間に達していれば、直前フレーム置換処置から、再度のフレームインにおける被写体距離を用いる再フレームインフレーム置換処置へ切換える。例えば本実施形態のステップS251ではこのKフレーム時間を5フレームと仮定する。この場合、フレーム6からフレーム9ではステップS223へ移行し、フレームアウトの直前フレームの距離値をリフォーカスパラメータとして画像データへリフォーカス演算を施す。次に、演算結果を表示装置131へ出力(ステップS224)し、次フレームへ移行(ステップS225)し、再び主被写体に該当する距離値の存在の検査(ステップS205)へ戻る。   In step S251, the duration of the immediately preceding frame replacement treatment using the subject distance immediately before the frame out is inspected. Then, if the number of continuing frames of the immediately preceding frame replacement procedure has reached a time of K frames or more (a predetermined number of frames or more), a reframe-in-frame replacement procedure that uses the subject distance in the next frame-in from the previous frame replacement procedure. Switch to. For example, in step S251 of this embodiment, this K frame time is assumed to be 5 frames. In this case, in the frame 6 to the frame 9, the process proceeds to step S223, and the refocus calculation is performed on the image data using the distance value of the frame immediately before the frame out as the refocus parameter. Next, the calculation result is output to the display device 131 (step S224), the process proceeds to the next frame (step S225), and the process returns to the inspection of the existence of the distance value corresponding to the main subject (step S205).

一方、ステップS251にて継続フレーム数がKフレーム以上に達していれば、再度のフレームインにおける主被写体距離値、すなわちフレーム11の3.0mで置換した距離値をリフォーカスパラメータとして画像データへリフォーカス演算を施す(ステップS243)。そして、演算結果を表示装置131へ出力(ステップS244)し、次フレームへ移行(ステップS245)する。   On the other hand, if the number of continuing frames has reached K frames or more in step S251, the main subject distance value in the second frame-in, that is, the distance value replaced with 3.0 m of frame 11 is used as the refocus parameter to convert the image data. Focus calculation is performed (step S243). Then, the calculation result is output to the display device 131 (step S244), and the process proceeds to the next frame (step S245).

一方、ステップS241にて、再度のフレームインより1フレーム前のフレーム10の場合は、ここでフレーム時間Lを2フレームと仮定したので次の動作をする。すなわち、再フレームインにおける主被写体距離値、すなわちフレーム11の3.0mで置換した距離値をリフォーカスパラメータとして画像データへリフォーカス演算を施す(ステップS243)。そして、演算結果を表示装置131へ出力(ステップS244)し、次フレームへ移行(ステップS245)する。   On the other hand, in step S241, in the case of the frame 10 one frame before the second frame-in, the following operation is performed because the frame time L is assumed to be 2 frames. That is, the refocusing operation is performed on the image data using the main subject distance value in the re-frame-in, that is, the distance value replaced with 3.0 m of the frame 11 as the refocus parameter (step S243). Then, the calculation result is output to the display device 131 (step S244), and the process proceeds to the next frame (step S245).

一方、ステップS221にて、フレームアウトした被写体が再フレームインしない場合、あるいは、再フレームインまでのフレーム数が10以上の場合は、CPUがユーザーへ主被写体の変更を促すメッセージを表示装置131へ出力する(ステップS231)。次にCPUはユーザーインターフェース171からのユーザー応答を検査し、主被写体の更新が有ればステップS203へ移行し、主被写体の更新が無ければステップS223へ移行し、直前フレーム距離値で補間したリフォーカスパラメータを用いる。   On the other hand, if the subject out of the frame does not re-frame in step S221 or if the number of frames until re-frame-in is 10 or more, the CPU sends a message prompting the user to change the main subject to the display device 131. Output (step S231). Next, the CPU checks the user response from the user interface 171. If the main subject has been updated, the process proceeds to step S203. If the main subject has not been updated, the process proceeds to step S223. Use focus parameters.

以上説明したように本実施形態では、再生画像データのリフォーカス演算におけるリフォーカスパラメータである合焦距離値が図6のobjAの曲線で示す様に制御される。図6においてobjAの曲線の実線部が補間なしのメタデータ記録値自身であり、objAの曲線の破線部がメタデータ記録値からの補間値である。   As described above, in this embodiment, the in-focus distance value, which is the refocus parameter in the refocus calculation of the reproduced image data, is controlled as indicated by the curve objA in FIG. In FIG. 6, the solid line portion of the objA curve is the metadata recorded value itself without interpolation, and the broken line portion of the objA curve is the interpolated value from the metadata recorded value.

このように、本実施形態では、リフォーカスパラメータの合焦距離補間の継続期間を検査し、それが長い場合に合焦距離を切換えることにより、主被写体のフレームアウト後の不自然な長時間に亘り合焦位置が固定されることを回避している。   As described above, in this embodiment, the duration of the focus distance interpolation of the refocus parameter is inspected, and when it is long, the focus distance is switched, so that an unnatural long time after the main subject is framed out. It is avoided that the focusing position is fixed.

また、主被写体が再フレームインするまでの期間を検査し、それが短い場合には、将来主被写体が再フレームインする距離へ事前合焦させる。このように合焦距離を制御することにより、被写体の周囲の合焦状況が安定した状態で主被写体のフレームイン待機が実現でき、効果的な再生演出ができる。   Further, the period until the main subject is re-framed is inspected, and if it is short, it is pre-focused to the distance at which the main subject will be re-framed in the future. By controlling the in-focus distance in this way, the main subject can be put into frame-in standby while the in-focus state around the subject is stable, and an effective reproduction effect can be achieved.

(第3の実施形態)
第3の実施形態では、被写体のフレームアウト時の被写体距離から再度のフレームイン時の被写体距離までを時間に比例して徐々に遷移するものと仮定して補間する例について説明する。基本的な撮像動作、記録動作、再生動作は第1の実施形態と同じである。また、撮像装置のブロック構成も図1と同じである。第1の実施形態と第3の実施形態の違いは再生画像データのリフォーカス演算におけるリフォーカスパラメータである合焦距離値の制御動作である。
(Third embodiment)
In the third embodiment, an example will be described in which interpolation is performed on the assumption that the subject distance at the time of frame-out of the subject and the subject distance at the time of frame-in again transition gradually in proportion to time. The basic imaging operation, recording operation, and reproduction operation are the same as in the first embodiment. The block configuration of the imaging apparatus is also the same as that in FIG. The difference between the first embodiment and the third embodiment is the control operation of the in-focus distance value that is a refocus parameter in the refocus calculation of reproduced image data.

再生画像データのリフォーカス演算におけるリフォーカスパラメータである合焦距離値の制御動作を図1のブロック図、図3のメタデータ列例、図8の被写体距離例、図9のフローチャートを用いて説明する。なお、図9のフローチャートの動作はCPU161がその内部メモリに記録されているプログラムを実行することによって制御される。   A control operation of a focus distance value, which is a refocus parameter in refocus calculation of reproduced image data, will be described with reference to the block diagram of FIG. 1, the example of the metadata string of FIG. 3, the example of the subject distance of FIG. 8, and the flowchart of FIG. To do. The operation of the flowchart of FIG. 9 is controlled by the CPU 161 executing a program recorded in its internal memory.

まずCPU161は、ユーザーへ主被写体の選択を促すメッセージを表示装置131へ出力し、ユーザーインターフェース171からのユーザー応答に従い、合焦対象とする主被写体をCPU内部へ記録する(ステップS203)。ここで、図2のオブジェクトAが選択されたものとして説明する。次にCPUは、現在の表示フレームの画像データに括られているメタデータ中の複数の被写体の距離情報の中に、ステップS203で指示された主被写体に該当する距離値の存在有無を検査する(ステップS205)。図3でオブジェクトAの距離情報はフレーム1からフレーム5の間で存在するため、ステップS211へ移行し、現在フレーム、すなわちフレーム1の距離値2.4mをリフォーカスパラメータとしてフレーム1の画像データへリフォーカス演算を施す。   First, the CPU 161 outputs a message prompting the user to select a main subject to the display device 131, and records the main subject to be focused in the CPU in accordance with a user response from the user interface 171 (step S203). Here, it is assumed that the object A in FIG. 2 is selected. Next, the CPU checks the presence / absence of a distance value corresponding to the main subject instructed in step S203 in the distance information of the plurality of subjects in the metadata bundled with the image data of the current display frame. (Step S205). In FIG. 3, since the distance information of the object A exists between the frames 1 and 5, the process proceeds to step S211, and the current frame, that is, the distance value 2.4 m of the frame 1 is used as the refocusing parameter to the image data of the frame 1. Refocus calculation is performed.

次に、演算結果を表示装置131へ出力(ステップS212)し、次フレームへ移行(ステップS213)し、再び主被写体に該当する距離値の存在の検査(ステップS205)へ戻るという動作をフレーム1からフレーム5まで繰り返す。そして、図3のフレーム6ではオブジェクトAの距離値が保存されていないため、図9のフローチャートのステップS221へ移行する。   Next, the operation of outputting the calculation result to the display device 131 (step S212), proceeding to the next frame (step S213), and returning to the inspection of the presence of the distance value corresponding to the main subject (step S205) is performed in frame 1. Repeat until frame 5. And since the distance value of the object A is not preserve | saved in the flame | frame 6 of FIG. 3, it transfers to step S221 of the flowchart of FIG.

このステップS221では、フレームアウトした被写体が同じ動画カット中において再度フレームインするか否かを検査する。さらに、被写体が再度フレームインする場合、現在のフレーム番号より何フレーム後に再フレームインするかを検査し、再フレームインまでのフレーム数の多寡で制御を切換える。例えば本実施形態では、この閾値フレーム数Nを9フレームと仮定する。一方、この例では、フレーム6の5フレーム後から再度オブジェクトAの値が記録されている(図3)。そのため、再フレームインフレーム11はN未満先(閾値未満先)となり、ステップS261へ移行する。   In this step S221, it is checked whether or not the frame-out subject is framed in again during the same moving image cut. Further, when the subject is framed in again, it is checked how many frames later the current frame number is to be reframed, and the control is switched depending on the number of frames until reframed. For example, in this embodiment, the threshold frame number N is assumed to be 9 frames. On the other hand, in this example, the value of the object A is recorded again from 5 frames after the frame 6 (FIG. 3). Therefore, the reframe-in-frame 11 is less than N (below the threshold), and the process proceeds to step S261.

そして、フレーム6は距離値の記録が無い(図3)ため、主被写体がフレームアウトするフレーム5の距離値2.1mと再フレームインフレーム11の距離値3.0mとの間を距離値が時間に比例して遷移すると仮定して各フレームの距離値を算出し、それを補間値とする。この補間値をリフォーカスパラメータとして与え、フレーム6の画像データへリフォーカス演算を施し(ステップS261)、演算結果を表示装置131へ出力(ステップS262)する。そして、ステップS263へ移行し、再び主被写体に該当する距離値の存在の検査(ステップS205)へ戻る。   Since the frame 6 has no distance value recorded (FIG. 3), the distance value is between the distance value 2.1 m of the frame 5 where the main subject is out of frame and the distance value 3.0 m of the reframe-in frame 11. The distance value of each frame is calculated on the assumption that the transition is in proportion to time, and is used as an interpolation value. The interpolated value is given as a refocus parameter, refocus calculation is performed on the image data of frame 6 (step S261), and the calculation result is output to the display device 131 (step S262). Then, the process proceeds to step S263, and the process returns to the inspection for the existence of the distance value corresponding to the main subject (step S205).

一方、ステップS221にて、フレームアウトした被写体が再フレームインしない場合、あるいは、再フレームインまでのフレーム数が10以上の場合は、CPUがユーザーへ主被写体の変更を促すメッセージを表示装置131へ出力する(ステップS231)。次にCPUはユーザーインターフェース171からのユーザー応答を検査し、主被写体の更新が有ればステップS203へ移行し、主被写体の更新が無ければステップS223へ移行し、直前フレームの距離値で補間したリフォーカスパラメータを用いる。次に、演算結果を表示装置131へ出力(ステップS224)し、次フレームへ移行(ステップS225)し、再び主被写体に該当する距離値の存在の検査(ステップS205)へ戻る。   On the other hand, if the subject out of the frame does not re-frame in step S221 or if the number of frames until re-frame-in is 10 or more, the CPU sends a message prompting the user to change the main subject to the display device 131. Output (step S231). Next, the CPU checks the user response from the user interface 171. If the main subject has been updated, the process proceeds to step S203. If the main subject has not been updated, the process proceeds to step S223, and interpolation is performed using the distance value of the previous frame. Use refocus parameters. Next, the calculation result is output to the display device 131 (step S224), the process proceeds to the next frame (step S225), and the process returns to the inspection of the existence of the distance value corresponding to the main subject (step S205).

以上説明したように本実施形態では、再生画像データのリフォーカス演算におけるリフォーカスパラメータである合焦距離値が図6のobjAの曲線に示す様に制御される。図6においてobjAの曲線の実線部が補間なしのメタデータ記録値自身であり、objAの曲線の破線部はメタデータ記録値からの補間値である。   As described above, in this embodiment, the in-focus distance value, which is a refocus parameter in the refocus calculation of the reproduction image data, is controlled as indicated by the curve objA in FIG. In FIG. 6, the solid line part of the curve of objA is the metadata recorded value itself without interpolation, and the broken line part of the curve of objA is the interpolated value from the metadata recorded value.

このように本実施形態では、フレームアウト時の被写体距離から再度フレームインする時の被写体距離までの期間の合焦距離を時間に比例して遷移するものと仮定して補間する。従って、フレームアウトから再度のフレームインまでの期間なめらかにズーム遷移したような効果的な再生演出ができる。   As described above, in the present embodiment, interpolation is performed on the assumption that the in-focus distance from the subject distance at the time of frame-out to the subject distance at the time of frame-in again changes in proportion to the time. Therefore, it is possible to produce an effective reproduction effect such as a smooth zoom transition during the period from frame out to frame in again.

(第4の実施形態)
第4の実施形態では、被写体のフレームアウト時および再フレームイン時双方の距離を合焦範囲に含む被写界深度に対応する絞り値、合焦距離値で補間する。基本的な撮像動作、記録動作、再生動作は第1の実施形態と同じである。また、撮像装置のブロック構成も図1と同じである。第1の実施形態と第4の実施形態の違いは再生画像データのリフォーカス演算におけるリフォーカスパラメータである距離値及び絞り値の制御動作である。
(Fourth embodiment)
In the fourth embodiment, interpolation is performed with an aperture value and a focus distance value corresponding to the depth of field including the distances when the subject is out of frame and when the subject is re-framed. The basic imaging operation, recording operation, and reproduction operation are the same as in the first embodiment. The block configuration of the imaging apparatus is also the same as that in FIG. The difference between the first embodiment and the fourth embodiment is the control operation of the distance value and the aperture value which are refocus parameters in the refocus calculation of the reproduction image data.

再生画像データのリフォーカス演算におけるリフォーカスパラメータである距離値及び絞り値の制御動作を図1のブロック図、図3のメタデータ列例、図10の被写体距離例、図11のフローチャートを用いて説明する。なお、図11のフローチャートの動作はCPU161がその内部メモリに記録されているプログラムを実行することによって制御される。   The control operation of the distance value and the aperture value, which are refocus parameters in the refocus calculation of the reproduction image data, will be described with reference to the block diagram in FIG. 1, the metadata string example in FIG. 3, the subject distance example in FIG. 10, and the flowchart in FIG. explain. The operation of the flowchart of FIG. 11 is controlled by the CPU 161 executing a program recorded in its internal memory.

まずCPU161は、ユーザーへ主被写体の選択を促すメッセージを表示装置131へ出力し、ユーザーインターフェース171からのユーザー応答に従い、合焦対象とする主被写体をCPU内部へ記録する(ステップS203)。ここで、図2のオブジェクトAが選択されたものとして説明する。次にCPUは、現在の表示フレームの画像データに括られているメタデータ中の複数の被写体の距離情報の中に、ステップS203で指示された主被写体に該当する距離値の存在有無を検査する(ステップS205)。図3でオブジェクトAの距離情報はフレーム1からフレーム5の間で存在するため、ステップS211へ移行し、現在フレーム、すなわちフレーム1の距離値2.4mをリフォーカスパラメータとしてフレーム1の画像データへリフォーカス演算を施す。次に、演算結果を表示装置131へ出力(ステップS212)し、次フレームへ移行(ステップS213)し、再び主被写体に該当する距離値の存在の検査(ステップS205)へ戻るという動作をフレーム1からフレーム5まで繰り返す。   First, the CPU 161 outputs a message prompting the user to select a main subject to the display device 131, and records the main subject to be focused in the CPU in accordance with a user response from the user interface 171 (step S203). Here, it is assumed that the object A in FIG. 2 is selected. Next, the CPU checks the presence / absence of a distance value corresponding to the main subject instructed in step S203 in the distance information of the plurality of subjects in the metadata bundled with the image data of the current display frame. (Step S205). In FIG. 3, since the distance information of the object A exists between the frames 1 and 5, the process proceeds to step S211, and the current frame, that is, the distance value 2.4 m of the frame 1 is used as the refocusing parameter to the image data of the frame 1. Refocus calculation is performed. Next, the operation of outputting the calculation result to the display device 131 (step S212), proceeding to the next frame (step S213), and returning to the inspection of the presence of the distance value corresponding to the main subject (step S205) is performed in frame 1. Repeat until frame 5.

そして、図3のフレーム6ではオブジェクトAの距離値が保存されていないため、図11のフローチャートのステップS221へ移行する。このステップでは、フレームアウトした被写体が同じ動画カット中において再度フレームインするか否かを検査する。さらに、再フレームインする場合、現在のフレーム番号より何フレーム後に再フレームインするかを検査し、再フレームインまでのフレーム数の多寡で制御を切換える。例えば、本実施形態ではこの閾値フレーム数Nを9フレームと仮定する。一方、この例では、フレーム6の5フレーム後から再度オブジェクトAの値が記録されている(図3)。そのため、再フレームインフレーム11はN未満先(閾値未満先)となり、ステップS271へ移行する。   And since the distance value of the object A is not preserve | saved in the flame | frame 6 of FIG. 3, it transfers to step S221 of the flowchart of FIG. In this step, it is checked whether or not the framed-out subject is framed again during the same moving image cut. Further, when re-frame-in is performed, the number of frames after the current frame number is checked for re-frame-in, and the control is switched depending on the number of frames up to the re-frame-in. For example, in this embodiment, the threshold frame number N is assumed to be 9 frames. On the other hand, in this example, the value of the object A is recorded again from 5 frames after the frame 6 (FIG. 3). Therefore, the reframe-in frame 11 is less than N (below the threshold), and the process proceeds to step S271.

そして、フレーム6は距離値の記録が無い(図3)ため、フレームアウトフレーム5の距離値2.1mと再フレームインフレーム11の距離値3.0mとを、それぞれ被写界深度前端距離、後端距離に設定する。すなわち、フレームアウト時および再フレームイン時双方の距離を合焦範囲に含む被写界深度に対応する絞り値、合焦距離値を補間値として算出する(ステップS271)。そして、この補間値をリフォーカスパラメータとして与え、フレーム6の画像データへリフォーカス演算を施し(ステップS273)、演算結果を表示装置131へ出力(ステップS274)する。そして、ステップS275へ移行し、再び主被写体に該当する距離値の存在の検査(ステップS205)へ戻る。   Since the distance value is not recorded in the frame 6 (FIG. 3), the distance value 2.1 m of the frame-out frame 5 and the distance value 3.0 m of the re-frame-in frame 11 are respectively set to the depth-of-field front end distance, Set the trailing edge distance. That is, the aperture value and the focus distance value corresponding to the depth of field including the distance at the time of frame-out and the time of re-frame-in in the focus range are calculated as interpolation values (step S271). Then, this interpolation value is given as a refocus parameter, refocus calculation is performed on the image data of frame 6 (step S273), and the calculation result is output to the display device 131 (step S274). Then, the process proceeds to step S275, and the process returns to the inspection of the existence of the distance value corresponding to the main subject (step S205).

一方、ステップS221にて、フレームアウトした被写体が再フレームインしない場合、あるいは、再フレームインまでのフレーム数が10以上の場合は、CPUがユーザーへ主被写体の変更を促すメッセージを表示装置131へ出力する(ステップS231)。次にCPUはユーザーインターフェース171からのユーザー応答を検査し、主被写体の更新が有ればステップS203へ移行し、主被写体の更新が無ければステップS223へ移行し、フレームアウトする直前フレームの距離値で補間したリフォーカスパラメータを用いる。次に、演算結果を表示装置131へ出力(ステップS224)し、次フレームへ移行(ステップS225)し、再び主被写体に該当する距離値の存在の検査(ステップS205)へ戻る。   On the other hand, if the subject out of the frame does not re-frame in step S221 or if the number of frames until re-frame-in is 10 or more, the CPU sends a message prompting the user to change the main subject to the display device 131. Output (step S231). Next, the CPU checks the user response from the user interface 171. If the main subject has been updated, the process proceeds to step S203. If the main subject has not been updated, the process proceeds to step S223. The refocus parameter interpolated with is used. Next, the calculation result is output to the display device 131 (step S224), the process proceeds to the next frame (step S225), and the process returns to the inspection of the existence of the distance value corresponding to the main subject (step S205).

以上説明したように本実施形態では、再生画像データのリフォーカス演算におけるリフォーカスパラメータである合焦距離値が図10のobjAの曲線に示す様に制御される。図10においてobjAの曲線の実線部が補間なしのメタデータ記録値自身であり、objAの曲線の斜線部領域はメタデータ記録値からの補間値である。   As described above, in this embodiment, the in-focus distance value, which is the refocus parameter in the refocus calculation of the reproduced image data, is controlled as indicated by the curve objA in FIG. In FIG. 10, the solid line portion of the curve of objA is the metadata recorded value itself without interpolation, and the shaded area of the curve of objA is the interpolation value from the metadata recorded value.

このように本実施形態では、フレームアウト時および再フレームイン時双方の距離を合焦範囲に含む被写界深度に対応する絞り値、合焦距離値で補間する。従って、フレームアウトからフレームインまでの、主被写体がフレーム中で不在の期間において、合焦距離および被写界深度が変動することなく一定であるため、安定した再生画が出力できる。   As described above, in the present embodiment, interpolation is performed with the aperture value and the focus distance value corresponding to the depth of field including the distances at both the frame-out time and the re-frame-in time in the focus range. Accordingly, since the in-focus distance and the depth of field are constant in the period from the frame-out to the frame-in where the main subject is absent in the frame, a stable reproduction image can be output.

(第5の実施形態)
第5の実施形態では、撮像装置が撮像フレーム毎、撮像被写体毎の合焦距離を測定し、この被写体毎の合焦距離を記録撮像フレームと関連付けて記録する際に、記録被写体数Mを制限する。
(Fifth embodiment)
In the fifth embodiment, when the imaging apparatus measures the focusing distance for each imaging frame and each imaging subject and records the focusing distance for each subject in association with the recording imaging frame, the number of recording subjects M is limited. To do.

これは、被写体距離マップ生成回路111が算出する被写体別の合焦距離値をメタデータとして記録メディア141へ保存する際に、ユーザーインターフェース171の指示に応じてCPU161が記録被写体数Mを制限して記録するものである。   This is because the CPU 161 limits the number M of recorded subjects in accordance with an instruction from the user interface 171 when storing the in-focus distance value for each subject calculated by the subject distance map generation circuit 111 as metadata in the recording medium 141. To record.

図12は図2に対応する被写体別の合焦距離情報のメタデータ、つまり12フレーム分メタデータ列の例である。そして、図12(a)は記録被写体数Mを3に制限した例であり、オブジェクトA、オブジェクトB、オブジェクトCの各々の被写体の撮像素子からの距離情報、すなわち合焦距離情報をフレーム番号順に図示したものである。図11(b)は記録被写体数Mを2に制限した例であり、オブジェクトA、オブジェクトCの各々の被写体の撮像素子からの距離情報、すなわち合焦距離情報をフレーム番号順に図示したものである。   FIG. 12 is an example of in-focus distance information metadata corresponding to FIG. 2, that is, a 12-frame metadata string. FIG. 12A is an example in which the number M of recorded subjects is limited to 3, and distance information from the image sensor of each subject of object A, object B, and object C, that is, in-focus distance information, in the order of frame numbers. It is illustrated. FIG. 11B is an example in which the number M of recorded subjects is limited to 2, and distance information from the image sensor of each subject of object A and object C, that is, in-focus distance information is illustrated in the order of frame numbers. .

以上説明したようにこの実施形態では、被写体毎の合焦距離を記録撮像フレームと関連付けて記録する際に、記録被写体数Mを制限する。従って、メタデータ容量を制御することが可能になるため、再生時の合焦制御に対応する被写体のユーザー要求数を調整することにより記録媒体の有効利用が可能になる。   As described above, in this embodiment, the number M of recording subjects is limited when recording the in-focus distance for each subject in association with the recording imaging frame. Therefore, since the metadata capacity can be controlled, the recording medium can be effectively used by adjusting the number of user requests for the subject corresponding to the focus control during reproduction.

(第6の実施形態)
第6の実施形態では、撮像装置が撮像フレーム毎、撮像被写体毎の合焦距離を測定し、この被写体毎の合焦距離を記録撮像フレームと関連付けて記録する際に、最初の被写体検出時のみ距離値を記録する例について説明する。
(Sixth embodiment)
In the sixth embodiment, when the imaging apparatus measures the focusing distance for each imaging frame and each imaging subject and records the focusing distance for each subject in association with the recording imaging frame, only when the first subject is detected. An example of recording the distance value will be described.

これは、被写体距離マップ生成回路111が算出する被写体別の合焦距離値をメタデータとして記録メディア141へ保存する際に、まず、CPU161が取得される距離値につき、被写体別に初取得フレームか、継続取得フレームかを判定する。そして、CPU161が初取得フレームの被写体別の合焦距離値のみを選別し、メタデータとして記録メディア141へ保存するものである。   This is because when the focus distance value for each subject calculated by the subject distance map generation circuit 111 is stored as metadata in the recording medium 141, first, the distance value acquired by the CPU 161 is the first acquisition frame for each subject. It is determined whether it is a continuous acquisition frame. Then, the CPU 161 selects only the in-focus distance value for each subject in the first acquisition frame and stores it as the metadata in the recording medium 141.

図13は図12に対応する被写体別の合焦距離情報のメタデータ、つまり12フレーム分メタデータ列の例である。そして、図13(a)はオブジェクトA、オブジェクトB、オブジェクトCの各々の被写体の撮像素子からの距離情報、すなわち合焦距離情報を被写体検出および識別された全てのフレームについてフレーム番号順に図示したものである。そして、図13(b)はオブジェクトA、オブジェクトB、オブジェクトCの各々の被写体の撮像素子からの距離情報、すなわち合焦距離情報を被写体検出および識別された最初のフレームのみについてフレーム番号順に図示したものである。   FIG. 13 is an example of in-focus distance information metadata corresponding to FIG. 12, that is, a metadata frame for 12 frames. FIG. 13A shows distance information from the image sensor of each subject of the object A, object B, and object C, that is, in-focus distance information in the order of frame numbers for all the frames detected and identified by the subject. It is. FIG. 13B illustrates distance information from the image sensor of each subject of the objects A, B, and C, that is, in-focus distance information, in the order of frame numbers only for the first frame detected and identified. Is.

まず、一つのフレームのライトフィールド画像データについて整理すると、リフォーカスパラメータとして絞り値及び距離値を与えると再生画像データに対するリフォーカス演算ができる。まず、この絞り値についてはユーザー任意の値、例えばF4を与えると再生画像データに対するリフォーカス演算ができる。一方、この距離値、すなわち被写体合焦距離値を演算するにはライトフィールド画像データに対し仮距離値を与えリフォーカス演算を施した結果画像を、複数の仮距離値に対して実行して求める。そして、複数の仮距離値に対する複数リフォーカス演算結果の各々の画像を比較し、コントラスト最大の画像を選出する方法により被写体の合焦距離を求めることができる。   First, when arranging the light field image data of one frame, if the aperture value and the distance value are given as the refocus parameters, the refocus calculation can be performed on the reproduced image data. First, regarding this aperture value, if a user-specified value, for example, F4 is given, a refocus calculation can be performed on the reproduced image data. On the other hand, in order to calculate this distance value, that is, the subject in-focus distance value, a temporary distance value is given to the light field image data and a refocus calculation is performed to obtain a result image for a plurality of temporary distance values. . Then, it is possible to determine the in-focus distance of the subject by a method of comparing the images of the plurality of refocus calculation results for a plurality of temporary distance values and selecting an image with the maximum contrast.

この演算で与える仮距離値の範囲が無限通りの場合、合焦距離の演算数も無限通りとなり、非常に演算量が大きくなる。しかし、仮定する仮距離値範囲について何らかの手掛かりがあり、仮距離値の範囲が制限できれば演算量を小さくできる。一方、隣接フレーム同士での被写体合焦距離の変化は一般的に小さいため、直前フレームの距離前後、微小値を加減算した仮距離値に制限することで演算量を小さくでき、再生処理中のコントラスト比較による合焦距離演算が可能になる。つまり、一つの被写体に対しその被写体が検出された最初のフレームの距離情報だけを記録すれば、隣接フレームの仮距離に制限を加えることができるため、再生処理中のコントラスト比較による合焦距離演算が可能になる。   When the range of the temporary distance value given by this calculation is infinite, the number of in-focus distance calculations is also infinite, and the amount of calculation becomes very large. However, there is some clue about the assumed temporary distance value range, and the amount of calculation can be reduced if the range of the temporary distance value can be limited. On the other hand, since the change in the subject focus distance between adjacent frames is generally small, the amount of computation can be reduced by limiting to a temporary distance value obtained by adding or subtracting a minute value before or after the distance of the immediately preceding frame, and the contrast during playback processing The in-focus distance can be calculated by comparison. In other words, if only the distance information of the first frame in which the subject is detected is recorded for one subject, the temporary distance between adjacent frames can be limited, so the focus distance calculation by contrast comparison during playback processing Is possible.

以上説明したようにこの実施形態では、被写体毎の合焦距離を撮像フレームと関連付けて記録する際に、距離値を記録するフレーム数を大幅に少なくできる。従って、メタデータ容量を制御することが可能になり、記録媒体の有効利用が可能になる。   As described above, in this embodiment, when the in-focus distance for each subject is recorded in association with the imaging frame, the number of frames for recording the distance value can be greatly reduced. Accordingly, the metadata capacity can be controlled, and the recording medium can be effectively used.

(他の実施形態)
本発明の目的は以下のようにしても達成できる。すなわち、前述した各実施形態の機能を実現するための手順が記述されたソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給する。そしてそのシステムまたは装置のコンピュータ(またはCPU、MPU等)が記憶媒体に格納されたプログラムコードを読み出して実行するのである。
(Other embodiments)
The object of the present invention can also be achieved as follows. That is, a storage medium in which a program code of software in which a procedure for realizing the functions of the above-described embodiments is described is recorded is supplied to the system or apparatus. The computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program code stored in the storage medium.

この場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体およびプログラムは本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the storage medium and program storing the program code constitute the present invention.

また、プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどが挙げられる。また、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD−R、磁気テープ、不揮発性のメモリカード、ROM等も用いることができる。   Examples of the storage medium for supplying the program code include a flexible disk, a hard disk, an optical disk, and a magneto-optical disk. Further, a CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD-R, magnetic tape, nonvolatile memory card, ROM, or the like can also be used.

また、コンピュータが読み出したプログラムコードを実行可能とすることにより、前述した各実施形態の機能が実現される。さらに、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれる。   Further, by making the program code read by the computer executable, the functions of the above-described embodiments are realized. Furthermore, when the OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, the functions of the above-described embodiments are realized by the processing. Is also included.

更に、以下の場合も含まれる。まず記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う。   Furthermore, the following cases are also included. First, the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing.

また、本発明はデジタルカメラのような撮影を主目的とした機器にかぎらず、携帯電話、パーソナルコンピュータ(ラップトップ型、デスクトップ型、タブレット型など)、ゲーム機など、撮像装置を内蔵もしくは外部接続する任意の機器に適用可能である。従って、本明細書における「撮像装置」は、撮像機能を備えた任意の電子機器を包含することが意図されている。   In addition, the present invention is not limited to devices such as digital cameras, but includes built-in or external connection of imaging devices such as mobile phones, personal computers (laptop type, desktop type, tablet type, etc.), game machines, etc. It can be applied to any device. Therefore, the “imaging device” in this specification is intended to include any electronic device having an imaging function.

Claims (8)

ライトフィールド画像データを取得することが可能な撮像装置により撮像され、該撮像装置により、動画像の撮像フレーム毎、被写体毎の合焦距離を測定し、該合焦距離の情報が前記撮像フレームと関連付けて記録された動画像データを取得する取得手段と、
前記動画像データに、撮像フレームと関連付けて記録されている被写体毎の合焦距離の情報が存在する場合は、該合焦距離の情報に基づいてリフォーカス演算を行い、前記動画像データに、撮像フレームと関連付けて記録されている被写体毎の合焦距離の情報が存在しない場合は他の撮像フレームと関連付けて記録されている被写体毎の合焦距離の情報に基づいて補間した合焦距離の情報あるいは絞り値の情報を用いてリフォーカス演算を行う演算手段と、
を備えることを特徴とする画像再生装置。
The image is picked up by an imaging device capable of acquiring light field image data, and the imaging device measures the focusing distance for each imaging frame of the moving image and for each subject. Acquisition means for acquiring moving image data recorded in association;
When the moving image data includes in-focus distance information for each subject recorded in association with the imaging frame, refocus calculation is performed based on the in-focus distance information, and the moving image data When there is no information on the focus distance for each subject recorded in association with the imaging frame, the information on the focus distance interpolated based on the information on the focus distance for each subject recorded in association with another imaging frame Computing means for performing refocusing computation using information or aperture value information;
An image reproducing apparatus comprising:
前記演算手段は、撮像フレームと関連付けて記録されている被写体毎の合焦距離の情報が、現在再生している撮像フレームから所定の数のフレームにわたり存在しない場合は、合焦距離の情報がなくなる直前の撮像フレームと関連付けて記録されている被写体毎の合焦距離の情報を用いて現在再生している撮像フレームの合焦距離の情報を補間し、この補間した合焦距離の情報を用いてリフォーカス演算を行うことを特徴とする請求項1に記載の画像再生装置。   The calculation means eliminates the information on the in-focus distance when the in-focus distance information for each subject recorded in association with the imaging frame does not exist for a predetermined number of frames from the currently reproduced imaging frame. Using the information on the in-focus distance for each subject recorded in association with the immediately preceding imaging frame, the information on the in-focus distance of the currently reproduced imaging frame is interpolated, and the information on the interpolated in-focus distance is used. The image reproducing apparatus according to claim 1, wherein refocus calculation is performed. 前記演算手段は、撮像フレームと関連付けて記録されている被写体毎の合焦距離の情報が、現在再生している撮像フレームから所定の数のフレームにわたり存在しない場合は、これから再生される撮像フレームと関連付けて記録されている被写体毎の合焦距離の情報を用いて現在再生している撮像フレームの合焦距離の情報を補間し、この補間した合焦距離の情報を用いてリフォーカス演算を行うことを特徴とする請求項1に記載の画像再生装置。   When the information on the focal distance for each subject recorded in association with the imaging frame does not exist for a predetermined number of frames from the currently reproduced imaging frame, the calculation means The focus distance information of the currently reproduced imaging frame is interpolated using the focus distance information for each subject recorded in association, and the refocus calculation is performed using the interpolated focus distance information. The image reproducing apparatus according to claim 1, wherein: 前記演算手段は、撮像フレームと関連付けて記録されている被写体毎の合焦距離の情報が、現在再生している撮像フレームから所定の数のフレームにわたり存在しない場合は、合焦距離の情報がなくなる直前の撮像フレームと関連付けて記録されている被写体毎の合焦距離の情報から、これから再生される撮像フレームと関連付けて記録されている被写体毎の合焦距離の情報へと徐々に変化する合焦距離の情報で、現在再生している撮像フレームの合焦距離の情報を補間し、この補間した合焦距離の情報を用いてリフォーカス演算を行うことを特徴とする請求項1に記載の画像再生装置。   The calculation means eliminates the information on the in-focus distance when the in-focus distance information for each subject recorded in association with the imaging frame does not exist for a predetermined number of frames from the currently reproduced imaging frame. Focusing gradually changes from information on the focal distance for each subject recorded in association with the immediately preceding imaging frame to information on the focal distance for each subject recorded in association with the imaging frame to be reproduced in the future. The image according to claim 1, wherein information on a focus distance of an imaging frame currently reproduced is interpolated with distance information, and refocus calculation is performed using the information on the focus distance thus interpolated. Playback device. 前記演算手段は、撮像フレームと関連付けて記録されている被写体毎の合焦距離の情報が、現在再生している撮像フレームから所定の数のフレームにわたり存在しない場合は、合焦距離の情報がなくなる直前の撮像フレームのリフォーカス演算で用いた絞り値よりも被写界深度の深い絞り値を用いて現在再生している撮像フレームのリフォーカス演算を行うことを特徴とする請求項1に記載の画像再生装置。   The calculation means eliminates the information on the in-focus distance when the in-focus distance information for each subject recorded in association with the imaging frame does not exist for a predetermined number of frames from the currently reproduced imaging frame. The refocusing calculation of the currently reproduced imaging frame is performed using an aperture value having a depth of field deeper than the aperture value used in the refocusing calculation of the immediately preceding imaging frame. Image playback device. ライトフィールド画像データを取得することが可能な撮像装置により撮像され、該撮像装置により、動画像の撮像フレーム毎、被写体毎の合焦距離を測定し、該合焦距離の情報が前記撮像フレームと関連付けて記録された動画像データを取得する取得工程と、
前記動画像データに、撮像フレームと関連付けて記録されている被写体毎の合焦距離の情報が存在する場合は、該合焦距離の情報に基づいてリフォーカス演算を行い、前記動画像データに、撮像フレームと関連付けて記録されている被写体毎の合焦距離の情報が存在しない場合は他の撮像フレームと関連付けて記録されている被写体毎の合焦距離の情報に基づいて補間した合焦距離の情報あるいは絞り値の情報を用いてリフォーカス演算を行う演算工程と、
を備えることを特徴とする画像再生方法。
The image is picked up by an imaging device capable of acquiring light field image data, and the imaging device measures the focusing distance for each imaging frame of the moving image and for each subject. An acquisition step of acquiring moving image data recorded in association;
When the moving image data includes in-focus distance information for each subject recorded in association with the imaging frame, refocus calculation is performed based on the in-focus distance information, and the moving image data When there is no information on the focus distance for each subject recorded in association with the imaging frame, the information on the focus distance interpolated based on the information on the focus distance for each subject recorded in association with another imaging frame A calculation process for performing a refocus calculation using information or aperture value information;
An image reproduction method comprising:
請求項6に記載の画像再生方法の手順が記述されたコンピュータで実行可能なプログラム。   A computer-executable program in which the procedure of the image reproduction method according to claim 6 is described. コンピュータに、請求項6に記載の画像再生方法の各工程を実行させるためのプログラムが記憶されたコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing a program for causing a computer to execute each step of the image reproduction method according to claim 6.
JP2013152914A 2013-07-23 2013-07-23 Image reproducing apparatus, image reproducing method, program, and storage medium Expired - Fee Related JP6228402B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013152914A JP6228402B2 (en) 2013-07-23 2013-07-23 Image reproducing apparatus, image reproducing method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013152914A JP6228402B2 (en) 2013-07-23 2013-07-23 Image reproducing apparatus, image reproducing method, program, and storage medium

Publications (2)

Publication Number Publication Date
JP2015023552A true JP2015023552A (en) 2015-02-02
JP6228402B2 JP6228402B2 (en) 2017-11-08

Family

ID=52487621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013152914A Expired - Fee Related JP6228402B2 (en) 2013-07-23 2013-07-23 Image reproducing apparatus, image reproducing method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP6228402B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017017604A (en) * 2015-07-03 2017-01-19 キヤノン株式会社 Image processing device, imaging apparatus and image processing method
JP2017123611A (en) * 2016-01-08 2017-07-13 キヤノン株式会社 Image reproduction device and image reproduction method
WO2017130522A1 (en) * 2016-01-29 2017-08-03 キヤノン株式会社 Image processing device, image capturing device, image processing method and program
JP2018107569A (en) * 2016-12-26 2018-07-05 株式会社ニコン Reproduction device and reproduction program
WO2022003842A1 (en) * 2020-06-30 2022-01-06 日本電信電話株式会社 Processing system and processing method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6253241B2 (en) * 2013-04-11 2017-12-27 株式会社リブドゥコーポレーション Absorbent articles

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004229093A (en) * 2003-01-24 2004-08-12 Nippon Telegr & Teleph Corp <Ntt> Method, device, and program for generating stereoscopic image, and recording medium
JP2012027408A (en) * 2010-07-27 2012-02-09 Sanyo Electric Co Ltd Electronic equipment
JP2012253643A (en) * 2011-06-06 2012-12-20 Sony Corp Image processing apparatus and method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004229093A (en) * 2003-01-24 2004-08-12 Nippon Telegr & Teleph Corp <Ntt> Method, device, and program for generating stereoscopic image, and recording medium
JP2012027408A (en) * 2010-07-27 2012-02-09 Sanyo Electric Co Ltd Electronic equipment
JP2012253643A (en) * 2011-06-06 2012-12-20 Sony Corp Image processing apparatus and method, and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017017604A (en) * 2015-07-03 2017-01-19 キヤノン株式会社 Image processing device, imaging apparatus and image processing method
JP2017123611A (en) * 2016-01-08 2017-07-13 キヤノン株式会社 Image reproduction device and image reproduction method
WO2017130522A1 (en) * 2016-01-29 2017-08-03 キヤノン株式会社 Image processing device, image capturing device, image processing method and program
JP2017135660A (en) * 2016-01-29 2017-08-03 キヤノン株式会社 Image processor, imaging apparatus, image processing method, and program
US10694093B2 (en) 2016-01-29 2020-06-23 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP2018107569A (en) * 2016-12-26 2018-07-05 株式会社ニコン Reproduction device and reproduction program
WO2022003842A1 (en) * 2020-06-30 2022-01-06 日本電信電話株式会社 Processing system and processing method
JP7468653B2 (en) 2020-06-30 2024-04-16 日本電信電話株式会社 Processing system and processing method

Also Published As

Publication number Publication date
JP6228402B2 (en) 2017-11-08

Similar Documents

Publication Publication Date Title
JP6228402B2 (en) Image reproducing apparatus, image reproducing method, program, and storage medium
JP4823179B2 (en) Imaging apparatus and imaging control method
US20120147150A1 (en) Electronic equipment
JP2017034474A (en) Imaging apparatus and its control method
JP5655291B2 (en) Electronic camera
JP6351234B2 (en) Automatic focusing device, control method for automatic focusing device, control program for automatic focusing device, and storage medium
JP2009246558A (en) Imaging apparatus, and method for controlling the same
JP2013029656A (en) Image pickup apparatus
JP2012160863A (en) Imaging apparatus, image reproducing apparatus, and image processing apparatus
JP2016143022A (en) Imaging device and imaging method
JP6323022B2 (en) Image processing device
CN103813094A (en) Electronic device and related method capable of capturing images, and machine readable storage medium
JP2013153375A (en) Image processing apparatus, image processing method, and recording medium
WO2017130522A1 (en) Image processing device, image capturing device, image processing method and program
JP2013145982A (en) Imaging apparatus, image processing apparatus and method
US8681235B2 (en) Apparatus for processing digital image signal that obtains still image at desired point in time and method of controlling the apparatus
JP5367129B2 (en) Imaging apparatus, control apparatus, and control method thereof
US20130177287A1 (en) Reproduction apparatus, image capturing apparatus, and program
JP6031670B2 (en) Imaging device
JP2015061236A (en) Image processing apparatus, image processing method and program
JP5915720B2 (en) Imaging device
JP6210836B2 (en) IMAGING DEVICE, IMAGING CONTROL DEVICE, ITS CONTROL METHOD, AND PROGRAM
JP6478587B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus
JP2016138999A (en) Focus adjustment device and imaging device using the same and focus adjustment method
JP2015119403A (en) Image recording apparatus, image recording method, program, and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171013

R151 Written notification of patent or utility model registration

Ref document number: 6228402

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees