JP6632384B2 - Image reproducing apparatus and image reproducing method - Google Patents
Image reproducing apparatus and image reproducing method Download PDFInfo
- Publication number
- JP6632384B2 JP6632384B2 JP2016002800A JP2016002800A JP6632384B2 JP 6632384 B2 JP6632384 B2 JP 6632384B2 JP 2016002800 A JP2016002800 A JP 2016002800A JP 2016002800 A JP2016002800 A JP 2016002800A JP 6632384 B2 JP6632384 B2 JP 6632384B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- focus position
- focus
- setting
- reproducing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Description
本発明は、画像を再生する画像再生装置及び画像再生方法に関するものである。 The present invention relates to an image reproducing apparatus and an image reproducing method for reproducing an image.
近年、ライトフィールド(以下、「LF」と略記する)カメラと呼ばれる撮像装置が実用化されている。この撮像装置は、イメージセンサ上にマイクロレンズアレイが配置され、撮像装置に入射した光をマイクロレンズによって分割することにより、複数の方向から到来する光線の強度を示す光線情報及び入射方向を示す方向情報を含むLF画像データを生成する。特許文献1には、LF画像データに対して所定のリフォーカス演算処理を行うことにより、任意の焦点に設定した画像を再構築する方法が開示されている。 2. Description of the Related Art In recent years, an imaging device called a light field (hereinafter abbreviated as “LF”) camera has been put to practical use. In this imaging device, a microlens array is arranged on an image sensor, and light incident on the imaging device is divided by a microlens, so that light beam information indicating the intensity of light beams arriving from a plurality of directions and a direction indicating an incident direction. LF image data including information is generated. Patent Literature 1 discloses a method of reconstructing an image set to an arbitrary focus by performing a predetermined refocus calculation process on LF image data.
多数の画像データを連続して再生する際に、フォーカスが合っている奥行き方向の位置を徐々に変化させる場合がある。このような場合に、多数の画像データそれぞれに対してフォーカス位置を設定することが煩雑であるという問題があった。 When continuously reproducing a large number of image data, the position in the depth direction where the focus is focused may be gradually changed. In such a case, there is a problem that it is complicated to set a focus position for each of a large number of image data.
そこで、本発明は上述した点に鑑みてなされたものであり、多数の画像データを再生する際のフォーカス位置の設定を容易にすることを目的とする。 Therefore, the present invention has been made in view of the above points, and has as its object to facilitate setting of a focus position when reproducing a large number of image data.
本発明の画像再生装置は、フォーカスが合った奥行き方向の位置であるフォーカス位置を撮影後に変更可能な複数のライトフィールド画像データを記憶する記憶手段と、前記複数のライトフィールド画像データが複数の画像データを含む動画データとして再生される際に第1画像データに設定される第1フォーカス位置、及び第2画像データに設定される第2フォーカス位置を受け付ける受付手段と、前記第1画像データと前記第2画像データとの間で再生される第3画像データの再生時に用いられる第3フォーカス位置を、前記第1フォーカス位置及び前記第2フォーカス位置に基づいて設定する設定手段と、前記第1画像データ、前記第2画像データ及び前記第3画像データを含む前記動画データを再生する再生手段と、を有し、前記受付手段は、前記複数の画像データから前記第3画像データを選択する指示をさらに受け付け、前記再生手段は、フォーカス位置が前記第3フォーカス位置に設定された、前記受付手段が受け付けた指示に対応する前記第3画像データを表示部に表示させることを特徴とする。 The image reproducing apparatus according to the present invention includes a storage unit configured to store a plurality of light field image data in which a focus position, which is a focused depth position, can be changed after shooting, and the plurality of light field image data is a plurality of images. Receiving means for receiving a first focus position set in the first image data and a second focus position set in the second image data when reproduced as moving image data including data; setting means for the third image the 3 focus position used when reproducing the data to be played between the second image data is set based on the first focus position and the second focus position, the first image data, have a, a reproducing means for reproducing the moving image data including the second image data and third image data, the receiving The means further receives an instruction to select the third image data from the plurality of image data, and the reproducing means corresponds to the instruction received by the receiving means, the focus position being set to the third focus position. characterized Rukoto is displayed on the display unit of the third image data.
本発明の画像再生方法は、コンピュータにより実行される、フォーカスが合った奥行き方向の位置であるフォーカス位置を撮影後に変更可能な複数のライトフィールド画像データが複数の画像データを含む動画データとして再生される際に第1画像データに設定される第1フォーカス位置、及び第2画像データに設定される第2フォーカス位置を受け付けるステップと、前記第1画像データと前記第2画像データとの間で再生される第3画像データの再生時に用いられる第3フォーカス位置を、前記第1フォーカス位置及び前記第2フォーカス位置に基づいて設定するステップと、前記第1画像データ、前記第2画像データ及び前記第3画像データを含む前記動画データを再生する再生ステップと、を有し、前記受付ステップでは、前記複数の画像データから前記第3画像データを選択する指示をさらに受け付け、前記再生ステップでは、フォーカス位置が前記第3フォーカス位置に設定された、前記受付ステップで受け付けた指示に対応する前記第3画像データを表示部に表示させることを特徴とする。 In the image reproducing method according to the present invention, a plurality of light field image data that can be changed after photographing a focus position, which is a focused depth position, which is executed by a computer, is reproduced as moving image data including a plurality of image data. Receiving a first focus position set in the first image data and a second focus position set in the second image data when reproducing, and reproducing between the first image data and the second image data. Setting a third focus position used when reproducing the third image data to be performed based on the first focus position and the second focus position; and setting the first image data, the second image data, and the And a reproducing step of reproducing the moving image data including three image data. Further accepts an instruction for selecting the third image data from the image data, in the regeneration step, the focus position is set to the third focusing position, the third image data corresponding to the instruction accepted in the accepting step It is characterized by being displayed on a display unit.
本発明によれば、多数の画像データを再生する際のフォーカス位置の設定を容易にすることができるという効果を奏する。 According to the present invention, it is possible to easily set a focus position when a large number of image data are reproduced.
[LFカメラの概要]
本実施形態に係る画像再生装置の説明に先立ち、LFカメラの概要について説明する。
図1は、LFカメラとしての撮像装置10の構成の模式図である。撮像装置10は、撮像レンズ11と、マイクロレンズアレイ12と、イメージセンサ13とを有する。被写体からの光は、撮像光学系を構成する撮像レンズ11及びマイクロレンズアレイ12を通過した後に、イメージセンサ13に入射する。イメージセンサ13は、入射した光を電気信号に変換して、変換後の電気信号を出力する。撮像装置10は、イメージセンサ13が出力する電気信号に基づいて、フォーカスが合った奥行き方向の位置であるフォーカス位置を変更可能なLF画像データを生成する。
[Overview of LF camera]
Prior to the description of the image reproducing apparatus according to the present embodiment, an outline of the LF camera will be described.
FIG. 1 is a schematic diagram of a configuration of an imaging device 10 as an LF camera. The imaging device 10 includes an imaging lens 11, a micro lens array 12, and an image sensor 13. Light from a subject passes through an imaging lens 11 and a microlens array 12 that constitute an imaging optical system, and then enters an image sensor 13. The image sensor 13 converts the incident light into an electric signal and outputs the converted electric signal. The imaging device 10 generates LF image data capable of changing a focus position, which is a focused depth position, based on an electric signal output from the image sensor 13.
撮像レンズ11は、被写体からの光をマイクロレンズアレイ12に投射する。撮像レンズ11は、撮像装置10の本体部に装着して使用される、交換可能なレンズである。撮像装置10のユーザは、撮像レンズ11のズーム操作により撮像倍率を変更することができる。 The imaging lens 11 projects light from a subject onto the microlens array 12. The imaging lens 11 is an interchangeable lens that is used by being attached to the main body of the imaging device 10. The user of the imaging device 10 can change the imaging magnification by performing a zoom operation on the imaging lens 11.
マイクロレンズアレイ12は、格子状に配列された複数の微小レンズ(マイクロレンズ)を有しており、撮像レンズ11とイメージセンサ13の間に位置する。マイクロレンズアレイ12が有する各マイクロレンズは、撮像レンズ11からの入射光を分割し、分割後の複数の光をイメージセンサ13の複数の画素に入射する。 The microlens array 12 has a plurality of microlenses (microlenses) arranged in a lattice and is located between the imaging lens 11 and the image sensor 13. Each micro lens included in the micro lens array 12 splits the incident light from the imaging lens 11 and makes the plurality of split lights incident on a plurality of pixels of the image sensor 13.
イメージセンサ13は、複数の画素を有する撮像素子であり、各画素において光の強度を検出する。被写体からの光を受光するイメージセンサ13の各画素には、各画素に対応するマイクロレンズによって分割された、夫々異なる方向の光が入射する。 The image sensor 13 is an image sensor having a plurality of pixels, and detects light intensity at each pixel. Each pixel of the image sensor 13 that receives light from the subject receives light in a different direction, which is divided by a microlens corresponding to each pixel.
図2は、マイクロレンズアレイ12とイメージセンサ13の各画素との位置関係を示す模式図である。マイクロレンズアレイ12の各マイクロレンズは、イメージセンサ13における複数の画素に対応するように配置される。イメージセンサ13の各画素には、各画素に対応するマイクロレンズが分割した光が入射し、イメージセンサ13は、画素ごとに異なる方向からの光の強度を検出する。撮像装置10は、イメージセンサ13の各画素において検出された光の強度を示す光線情報を生成する。 FIG. 2 is a schematic diagram showing a positional relationship between the microlens array 12 and each pixel of the image sensor 13. Each micro lens of the micro lens array 12 is arranged so as to correspond to a plurality of pixels in the image sensor 13. Light divided by a microlens corresponding to each pixel is incident on each pixel of the image sensor 13, and the image sensor 13 detects the intensity of light from a different direction for each pixel. The imaging device 10 generates light beam information indicating the intensity of light detected at each pixel of the image sensor 13.
マイクロレンズを介してイメージセンサ13の各画素に入射した光線の入射方向は、各マイクロレンズに対応する複数の画素の配置によって決まる。したがって、入射方向は、各マイクロレンズとイメージセンサ13の各画素との位置関係に応じて特定され、撮像装置10は、特定した入射方向を示す方向情報として、例えば、画素を特定するための座標情報を生成する。 The incident direction of the light beam incident on each pixel of the image sensor 13 via the micro lens is determined by the arrangement of a plurality of pixels corresponding to each micro lens. Therefore, the incident direction is specified according to the positional relationship between each microlens and each pixel of the image sensor 13, and the imaging device 10 may use, for example, coordinates for specifying the pixel as direction information indicating the specified incident direction. Generate information.
被写体からの光は、被写体と撮像レンズ11との間の距離に応じて定まる方向でマイクロレンズアレイ12に入射する。そして、被写体からの光は、被写体と撮像レンズ11との間の距離に応じて定まる複数のマイクロレンズを通過して、イメージセンサ13に入射する。その結果、マイクロレンズアレイ12のレンズ頂点面からの距離が異なる面にフォーカスが合った像は、各マイクロレンズの光軸からの偏心量に対応した位置にあるイメージセンサ13の複数の画素の各出力を合成することで得られる。したがって、撮像装置10は、光線情報と方向情報に基づいて光線の並べ替えと計算処理(以下、再構築という)を行うことにより、任意のフォーカス位置に対応する画像データを生成できる。ここで、フォーカス位置は、フォーカスが合った位置であり、ユーザは、撮影後に、LF画像データに基づいて、所望のフォーカス位置に対応するリフォーカス画像データを得ることができる。 Light from the subject enters the microlens array 12 in a direction determined according to the distance between the subject and the imaging lens 11. Then, light from the subject passes through a plurality of microlenses determined according to the distance between the subject and the imaging lens 11 and enters the image sensor 13. As a result, an image focused on a surface of the microlens array 12 at a different distance from the lens apex surface has a plurality of pixels of the image sensor 13 at a position corresponding to the amount of eccentricity of each microlens from the optical axis. Obtained by combining the outputs. Therefore, the imaging apparatus 10 can generate image data corresponding to an arbitrary focus position by performing light ray rearrangement and calculation processing (hereinafter, referred to as reconstruction) based on light ray information and direction information. Here, the focus position is a focused position, and the user can obtain refocus image data corresponding to a desired focus position based on the LF image data after shooting.
図3は、マイクロレンズアレイ12のマイクロレンズへの入射光線の進行方向と、イメージセンサ13の記録領域との関係を説明するための模式図である。
撮像レンズ11による被写体の像は、マイクロレンズアレイ12上に結像し、マイクロレンズアレイ12への入射光線はマイクロレンズアレイ12を介してイメージセンサ13で受光される。このとき、図3に示すように、マイクロレンズアレイ12への入射光線は、フォーカス位置ごとに定まる進行方向に応じてイメージセンサ13上の異なる位置で受光され、被写体の像がマイクロレンズごとに結像する。
FIG. 3 is a schematic diagram for explaining a relationship between a traveling direction of a light beam incident on a microlens of the microlens array 12 and a recording area of the image sensor 13.
The image of the subject by the imaging lens 11 is formed on the microlens array 12, and the light incident on the microlens array 12 is received by the image sensor 13 via the microlens array 12. At this time, as shown in FIG. 3, light rays incident on the microlens array 12 are received at different positions on the image sensor 13 according to the traveling direction determined for each focus position, and an image of the subject is formed for each microlens. Image.
図4は、イメージセンサ13に入射する光線の情報について説明するための模式図である。
イメージセンサ13で受光される光線について図4を用いて説明する。ここで、撮像レンズ11のレンズ面上における直交座標系を(u,v)とし、イメージセンサ13の撮像面上における直交座標系(x,y)とする。さらに、撮像レンズ11のレンズ面とイメージセンサ13の撮像面との距離をFとする。この場合、撮像レンズ11およびイメージセンサ13を通る光線の強度は、図中で示す4次元関数L(u,v,x,y)で表すことができる。各マイクロレンズに入射する光線は、進行方向に応じて異なる画素に入射されることから、イメージセンサ13では、光線の位置情報に加えて、光線の進行方向を保持する上記の4次元関数L(u,v,x,y)で表される光線の強度に対応する情報が記録される。
FIG. 4 is a schematic diagram for describing information on light rays incident on the image sensor 13.
The light beam received by the image sensor 13 will be described with reference to FIG. Here, the orthogonal coordinate system on the lens surface of the imaging lens 11 is (u, v), and the orthogonal coordinate system (x, y) on the imaging surface of the image sensor 13 is. Further, the distance between the lens surface of the imaging lens 11 and the imaging surface of the image sensor 13 is F. In this case, the intensity of the light beam passing through the imaging lens 11 and the image sensor 13 can be represented by a four-dimensional function L (u, v, x, y) shown in the figure. Since the light beam incident on each microlens is incident on a different pixel depending on the traveling direction, the image sensor 13 holds the four-dimensional function L ( Information corresponding to the intensity of the light beam represented by u, v, x, y) is recorded.
次に、撮像後のリフォーカス演算処理について説明する。リフォーカス演算処理は、異なるフォーカス位置に対応する画素で受光した光の強度に基づいて、画像を再構築することによりリフォーカス画像データを生成する処理である。本明細書において、リフォーカス画像においてフォーカスが合っている位置の面を、リフォーカス面という。 Next, a description will be given of the refocus calculation processing after imaging. The refocus calculation process is a process of generating refocus image data by reconstructing an image based on the intensity of light received by pixels corresponding to different focus positions. In this specification, the surface at the position where the focus is in the refocus image is referred to as a refocus surface.
図5は、リフォーカス演算処理を説明するための模式図である。
図5に示すように、撮像レンズ面、撮像面、リフォーカス面の位置関係を設定した場合、リフォーカス面上の直交座標系(s,t)における光線の強度L’(u,v,s,t)は、以下の(1)式のように表される。
As shown in FIG. 5, when the positional relationship between the imaging lens surface, the imaging surface, and the refocus surface is set, the light intensity L ′ (u, v, s) in the rectangular coordinate system (s, t) on the refocus surface. , T) is represented by the following equation (1).
続いて、撮像後の被写界深度の調整処理、すなわち奥行き方向のフォーカス位置の調整処理について説明する。被写界深度を調整する場合、上記のリフォーカス演算処理の前に、各マイクロレンズに割り当てられた画像領域を形成する画像データごとに重み係数を乗じて重み付けを行う。例えば、被写界深度の深い画像を生成する場合には、イメージセンサ13の受光面に対して相対的に小さな角度で入射する光線の情報のみを用いて積分処理を行う。言い換えると、イメージセンサ13への入射角が相対的に大きい光線に関しては、重み係数0(ゼロ)を乗じることにより積分処理に含めない。 Next, the process of adjusting the depth of field after imaging, that is, the process of adjusting the focus position in the depth direction will be described. When adjusting the depth of field, prior to the above-described refocus calculation processing, weighting is performed by multiplying each image data forming an image area assigned to each microlens by a weighting coefficient. For example, when generating an image with a large depth of field, the integration process is performed using only information on light rays that enter the light receiving surface of the image sensor 13 at a relatively small angle. In other words, a light beam having a relatively large angle of incidence on the image sensor 13 is not included in the integration process by multiplying by a weighting factor of 0 (zero).
図6は、マイクロレンズへの入射角の違いと、イメージセンサ13の記録領域との関係を説明する模式図であり、図7は、被写界深度の調整処理を説明するための模式図である。
図6に示すように、イメージセンサ13への入射角が相対的に小さい光線は、より中央の領域に位置することになる。したがって、被写界深度の深い画像を生成する場合には、図7に示すように、領域の中央部(図中の斜線部)で取得された画素データのみを用いて積分処理が行われる。
FIG. 6 is a schematic diagram for explaining the relationship between the difference in the incident angle to the microlens and the recording area of the image sensor 13, and FIG. 7 is a schematic diagram for explaining the depth of field adjustment process. is there.
As shown in FIG. 6, a light beam having a relatively small angle of incidence on the image sensor 13 is located in a more central region. Therefore, when generating an image with a large depth of field, as shown in FIG. 7, the integration process is performed using only the pixel data acquired at the center of the region (the hatched portion in the drawing).
このような処理を行うことで、撮像装置10は、一般的な撮像装置などに具備される開口絞りをあたかも絞ったかのように、被写界深度の深い画像を表現することができる。撮像装置10は、使用する中央部の画素データを更に少なくすることで、被写界深度のより深いパンフォーカス画像データの生成も可能となる。また、撮像装置10は、LF画像データの領域ごとに、使用する画素データの位置を変えることにより、領域ごとに異なる被写界深度に調整することもできる。以上のように、撮像装置10は、LF画像データに含まれる各画素の重み係数を含むフォーカス情報、並びに光線情報及び方向情報に基づいて、撮影後に画像の被写界深度を調整し、所望のフォーカス位置に設定することができる。
以下、LF画像データを再生する画像再生装置及び画像再生方法の実施形態について説明する。
By performing such processing, the imaging device 10 can express an image with a large depth of field, as if the aperture stop provided in a general imaging device or the like was narrowed. The imaging device 10 can also generate pan-focus image data with a deeper depth of field by further reducing the pixel data of the central part to be used. Further, the imaging device 10 can also adjust the depth of field to be different for each area by changing the position of the pixel data to be used for each area of the LF image data. As described above, the imaging device 10 adjusts the depth of field of the image after shooting based on the focus information including the weight coefficient of each pixel included in the LF image data, the light beam information, and the direction information, and It can be set to the focus position.
Hereinafter, embodiments of an image reproducing apparatus and an image reproducing method for reproducing LF image data will be described.
[画像再生装置1の概要]
本実施形態における画像再生装置1は、複数のLF画像データを含むLF動画データに基づいて、動画データを再生することができる。LF動画データは、それぞれがLF画像データを含む複数の画像フレーム(以下、「フレーム」という)を有しており、画像再生装置1は、各フレームのLF画像データを再構築して得られるリフォーカス画像を順次再生することにより、動画データを再生することができる。ユーザが、2つのフレーム(第1フレーム、第2フレーム)のLF画像データのフォーカス位置を指定すると、画像再生装置1は、2つのフレームの間のフレームのLF画像データのフォーカス位置を自動的に設定する。
[Overview of Image Reproduction Apparatus 1]
The image reproducing device 1 according to the present embodiment can reproduce moving image data based on LF moving image data including a plurality of LF image data. The LF moving image data has a plurality of image frames (hereinafter, referred to as “frames”) each including the LF image data, and the image reproducing device 1 reconstructs the LF image data of each frame to obtain the image data. Moving image data can be reproduced by sequentially reproducing the focus images. When the user specifies the focus position of the LF image data of the two frames (the first frame and the second frame), the image playback device 1 automatically sets the focus position of the LF image data of the frame between the two frames. Set.
図8は、LF動画データに含まれる3つのLF画像データに基いて再生される3つのフレームに対応する画像データを示す図である。
図8(a1)は、ユーザが指定する2つのフレームのうち、先に再生される第1フレームに対応する第1画像データD1を示している。図8(a2)は、第1画像データD1の奥行き方向におけるフォーカス位置を示す奥行きマップである。図8(a2)における符号R1は、フォーカスが合っているフォーカス範囲を示しており、第1画像データD1の被写界深度に対応している。図8(a2)が示すように、図8(a1)においては、左側のオブジェクトXにフォーカスが合う位置(以下、第1フォーカス位置という)にフォーカス位置が設定されており、右側のオブジェクトYにはフォーカスが合っていない。
FIG. 8 is a diagram showing image data corresponding to three frames reproduced based on three LF image data included in the LF moving image data.
FIG. 8A shows the first image data D1 corresponding to the first frame to be reproduced first among the two frames specified by the user. FIG. 8A2 is a depth map showing a focus position in the depth direction of the first image data D1. Reference symbol R1 in FIG. 8A2 indicates a focus range where focus is achieved, and corresponds to the depth of field of the first image data D1. As shown in FIG. 8 (a2), in FIG. 8 (a1), the focus position is set at a position where the left object X is focused (hereinafter, referred to as a first focus position), and the right object Y is set at the right position. Is out of focus.
図8(c1)は、ユーザが指定する2つのフレームのうち、後に再生される第2フレームに対応する第2画像データD2を示している。図8(c2)は、第2画像データD2の奥行きマップである。図8(c2)における符号R2は、フォーカスが合っているフォーカス範囲を示しており、第2画像データD2の被写界深度に対応している。図8(c1)においては、右側のオブジェクトYにフォーカスが合う位置(以下、「第2フォーカス位置」という)にフォーカス位置が設定されており、左側のオブジェクトXにはフォーカスが合っていない。 FIG. 8C1 shows the second image data D2 corresponding to the second frame to be reproduced later among the two frames specified by the user. FIG. 8C2 is a depth map of the second image data D2. Reference sign R2 in FIG. 8 (c2) indicates a focus range in focus, and corresponds to the depth of field of the second image data D2. In FIG. 8 (c1), the focus position is set at a position where the right object Y is focused (hereinafter, referred to as “second focus position”), and the left object X is not focused.
図8(b1)は、第1フレームと第2フレームとの間に再生されるフレームに対応する第3画像データD3を示している。図8(b2)は、第3画像データD3の奥行きマップである。画像再生装置1は、ユーザが第1フォーカス位置、及び第2フォーカス位置を設定すると、第1フォーカス位置及び第2フォーカス位置に基づいて、第3画像データD3のフォーカス位置(以下、第3フォーカス位置)を設定する。図8(b2)が示すように、第3フォーカス位置は、第1フォーカス位置と第2フォーカス位置との間の範囲R3に設定されており、この状態では、左側のオブジェクトXにも右側のオブジェクトにもYにもフォーカスが合っていない。 FIG. 8B1 shows the third image data D3 corresponding to a frame reproduced between the first frame and the second frame. FIG. 8B2 is a depth map of the third image data D3. When the user sets the first focus position and the second focus position, the image reproducing device 1 sets the focus position of the third image data D3 (hereinafter, the third focus position) based on the first focus position and the second focus position. ) Is set. As shown in FIG. 8 (b2), the third focus position is set in a range R3 between the first focus position and the second focus position. And Y are out of focus.
画像再生装置1は、第1画像データD1、第3画像データD3及び第2画像データD2をこの順序で再生することにより、オブジェクトXにフォーカスが合った状態からオブジェクトYにフォーカスが合った状態にフォーカス位置を遷移させることができる。第1画像データD1と第2画像データD2との間に多数の画像データがある場合、画像再生装置1は、オブジェクトXにフォーカスが合った状態からオブジェクトYにフォーカスが合った状態まで、滑らかにフォーカス位置を遷移させることができる。 The image reproducing apparatus 1 reproduces the first image data D1, the third image data D3, and the second image data D2 in this order, so that the state in which the object X is in focus is changed to the state in which the object Y is in focus. The focus position can be changed. When there is a large number of image data between the first image data D1 and the second image data D2, the image reproducing device 1 smoothly shifts from a state where the object X is focused to a state where the object Y is focused. The focus position can be changed.
[画像再生装置1の構成]
以下、画像再生装置1の構成について詳細に説明する。
図9は、本実施形態に係る画像再生装置1の構成を示す図である。画像再生装置1は、記憶部20と、受付部21と、設定部22と、表示部23と、再生部24とを有する。
[Configuration of Image Reproduction Apparatus 1]
Hereinafter, the configuration of the image reproducing device 1 will be described in detail.
FIG. 9 is a diagram illustrating a configuration of the image reproducing device 1 according to the present embodiment. The image playback device 1 includes a storage unit 20, a reception unit 21, a setting unit 22, a display unit 23, and a playback unit 24.
記憶部20は、例えばハードディスク、メモリ等の記憶媒体であり、フォーカスが合った奥行き方向の位置であるフォーカス位置を撮影後に変更可能な複数のLF画像データを記憶する。記憶部20は、例えば、複数のLF画像データにより構成されるLF動画データを記憶する。 The storage unit 20 is, for example, a storage medium such as a hard disk or a memory, and stores a plurality of LF image data in which a focus position, which is a focused depth position, can be changed after shooting. The storage unit 20 stores, for example, LF moving image data including a plurality of LF image data.
受付部21は、複数のLF画像データが複数の画像データを含む動画データとして再生される際に第1画像データに設定される第1フォーカス位置、及び第2画像データに設定される第2フォーカス位置を受け付ける。受付部21は、例えば、マウス及びタッチパネル等のユーザインターフェイスを介してユーザにより入力された第1フォーカス位置及び第2フォーカス位置を受け付ける。 The receiving unit 21 is configured to set a first focus position set to the first image data and a second focus set to the second image data when the plurality of LF image data is reproduced as moving image data including the plurality of image data. Accept the position. The receiving unit 21 receives, for example, a first focus position and a second focus position input by a user via a user interface such as a mouse and a touch panel.
受付部21は、第1フォーカス位置として、例えば、第1画像データが再生される際にフォーカス範囲を指定する指示情報を受け付ける。具体的には、受付部21は、第1画像データが再生される際にフォーカスが合う最も手前の位置及び最も奥の位置を指定する指示情報を受け付ける。受付部21は、フォーカス範囲の中央位置である第1フォーカス位置を示す指示情報と、フォーカス範囲の大きさを示す指示情報とを受け付けてもよい。受付部21は、これらの指示情報を設定部22に通知する。 The accepting unit 21 accepts, as the first focus position, for example, instruction information for designating a focus range when the first image data is reproduced. Specifically, the accepting unit 21 accepts instruction information for designating the foremost position and the deepest position where the focus is achieved when the first image data is reproduced. The receiving unit 21 may receive instruction information indicating a first focus position that is the center position of the focus range and instruction information indicating the size of the focus range. The receiving unit 21 notifies the setting unit 22 of these pieces of instruction information.
設定部22は、LF画像データごとにフォーカス位置を設定する。設定部22は、受付部21から、第1画像データにおいてフォーカスが合う最も手前の位置と最も手前の位置を示す指示情報を受けた場合、指示情報が示す位置により定められるフォーカス範囲の中央位置に第1フォーカス位置を設定する。同様に、受付部21から、第2画像データにおいてフォーカスが合う最も手前の位置と最も手前の位置を示す指示情報を受けた場合、指示情報が示す位置により定められるフォーカス範囲の中央位置に第2フォーカス位置を設定する。 The setting unit 22 sets a focus position for each LF image data. When the setting unit 22 receives, from the reception unit 21, instruction information indicating the foremost position in focus and the foremost position in the first image data, the setting unit 22 sets the center position of the focus range defined by the position indicated by the instruction information. Set the first focus position. Similarly, when receiving the instruction information indicating the foremost position in focus and the foremost position in the second image data from the receiving unit 21, the second position is set at the center position of the focus range defined by the position indicated by the instruction information. Set the focus position.
そして、設定部22は、第1画像データと第2画像データとの間で再生される第3画像データの再生時に用いられる第3フォーカス位置を、第1フォーカス位置及び第2フォーカス位置に基づいて設定する。設定部22は、例えば、第1フォーカス位置と第2フォーカス位置との間に第3フォーカス位置を設定する。設定部22は、第1画像データと第2画像データとの間の複数の画像データに対応する複数の第3フォーカス位置を、第2画像データに近いタイミングで再生する画像データほど第2フォーカス位置に近い位置に設定する。 Then, the setting unit 22 determines a third focus position used at the time of reproducing the third image data reproduced between the first image data and the second image data based on the first focus position and the second focus position. Set. The setting unit 22 sets, for example, a third focus position between the first focus position and the second focus position. The setting unit 22 sets a plurality of third focus positions corresponding to a plurality of image data between the first image data and the second image data to a second focus position as the image data is reproduced closer to the second image data. Set to a position close to.
図10は、設定部22が第3フォーカス位置の設定に用いる、フォーカス位置と再生時間との関係の例を示す図である。図10(a)においては、単位時間が経過する間に、一定の大きさだけ第3フォーカス位置が同一の手前から奥へと変化している。この場合、設定部22は、2つのフォーカス位置の間の第3フォーカス位置を、再生時間の一次関数に基づいて算出する。すなわち、設定部22は、再生時間と第3フォーカス位置とが線形の関係を有するように、第3フォーカス位置を算出する。 FIG. 10 is a diagram illustrating an example of the relationship between the focus position and the reproduction time used by the setting unit 22 to set the third focus position. In FIG. 10A, the third focus position changes from the same front side to the rear side by a certain amount while the unit time elapses. In this case, the setting unit 22 calculates a third focus position between the two focus positions based on a linear function of the reproduction time. That is, the setting unit 22 calculates the third focus position such that the reproduction time and the third focus position have a linear relationship.
図10(b)においては、時間の経過とともに、第3フォーカス位置が変化する量が減少している。この場合、設定部22は、2つのフォーカス位置の間の第3フォーカス位置を、再生時間の対数に基づいて算出する。
図10(c)においては、時間の経過とともに、第3フォーカス位置が変化する量が増加している。この場合、設定部22は、2つのフォーカス位置の間の第3フォーカス位置を、再生時間の二次関数に基づいて算出する。このように、設定部22は、異なる態様で再生時間の変化とともに第3フォーカス位置を変化させることができる。設定部22は、図10に示した関係以外にも、スプライン曲線補間等の多項式を用いて第3フォーカス位置を算出してもよい。
In FIG. 10B, the amount by which the third focus position changes decreases with time. In this case, the setting unit 22 calculates the third focus position between the two focus positions based on the logarithm of the reproduction time.
In FIG. 10C, the amount by which the third focus position changes increases with time. In this case, the setting unit 22 calculates a third focus position between the two focus positions based on a quadratic function of the reproduction time. As described above, the setting unit 22 can change the third focus position with the change of the reproduction time in different modes. The setting unit 22 may calculate the third focus position by using a polynomial such as spline curve interpolation other than the relationship shown in FIG.
記憶部20は、図10に示すような、第1画像データと第2画像データとの間における第3画像データの再生時間と、第1フォーカス位置と第2フォーカス位置との間における第3フォーカス位置との関係を予め記憶している。記憶部20が第3フォーカス位置と再生時間との関係を複数記憶している場合、受付部21は、第3フォーカス位置の設定に用いる上記の関係をユーザが選択するための操作画面を表示部23に表示させ、第3フォーカス位置の設定に用いる関係を指定する指示を受け付ける。そして、設定部22は、受付部21が受け付けた指示が示す関係に基づいて第3フォーカス位置を設定する。このようにすることで、ユーザは、シーンや表示効果に適したフォーカス位置を容易に指定することが可能になる。 The storage unit 20 stores the reproduction time of the third image data between the first image data and the second image data and the third focus between the first focus position and the second focus position as shown in FIG. The relationship with the position is stored in advance. When the storage unit 20 stores a plurality of relationships between the third focus position and the reproduction time, the reception unit 21 displays an operation screen for the user to select the above relationship used for setting the third focus position on the display unit. 23, and receives an instruction to specify the relationship used for setting the third focus position. Then, the setting unit 22 sets the third focus position based on the relationship indicated by the instruction received by the receiving unit 21. In this way, the user can easily specify a focus position suitable for a scene or a display effect.
図9に戻って画像再生装置1の構成についての説明を続ける。
表示部23は、例えば液晶ディスプレイである。表示部23は、再生部24により生成されたリフォーカス画像データを含む画面、及びユーザインターフェイス画像(以下、UI画像という)を表示する。
Returning to FIG. 9, the description of the configuration of the image reproducing device 1 will be continued.
The display unit 23 is, for example, a liquid crystal display. The display unit 23 displays a screen including the refocus image data generated by the playback unit 24 and a user interface image (hereinafter, referred to as a UI image).
再生部24は、記憶部20に記憶されたLF画像データを再構築することによりリフォーカス画像データを生成し、生成したリフォーカス画像データを表示部23に出力することにより再生する。再生部24は、例えば、図8に示した第1画像データD1、第2画像データD2及び第3画像データD3を含む動画データを再生する。この際、再生部24は、受付部21が受け付けたフォーカス範囲に対応する深さの被写界深度を有する画像データを再生する。 The reproduction unit 24 generates refocus image data by reconstructing the LF image data stored in the storage unit 20, and reproduces the generated refocus image data by outputting the generated refocus image data to the display unit 23. The reproduction unit 24 reproduces, for example, moving image data including the first image data D1, the second image data D2, and the third image data D3 illustrated in FIG. At this time, the reproducing unit 24 reproduces image data having a depth of field corresponding to the focus range received by the receiving unit 21.
再生部24は、再構築部241と、画面生成部242と、奥行きマップ生成部243と、UI画像生成部244と、合成部245とを有する。
再構築部241は、設定部22が設定したフォーカス位置に基づいて記憶部20から取得したLF画像データを再構築してリフォーカス画像を生成する。
The reproduction unit 24 includes a reconstructing unit 241, a screen generating unit 242, a depth map generating unit 243, a UI image generating unit 244, and a combining unit 245.
The reconstructing unit 241 reconstructs the LF image data acquired from the storage unit 20 based on the focus position set by the setting unit 22, and generates a refocused image.
画面生成部242は、再構築部241が生成したリフォーカス画像を表示部23に表示するための画面データを生成する。
奥行きマップ生成部243は、図8に示した奥行きマップを生成する。UI画像生成部244は、ユーザがフォーカス位置を設定するためのUI画像データを生成する。UI画像生成部244は、例えば、フォーカス範囲をユーザが設定するための画像データを生成して奥行きマップに重畳することによりUI画像データを生成する。合成部245は、画面生成部242が生成した画面データとUI画像生成部244が生成したUI画像データとを合成して表示用画像データを生成する。合成部245は、生成した表示用画像データを表示部23へと出力する。
The screen generation unit 242 generates screen data for displaying the refocused image generated by the reconstructing unit 241 on the display unit 23.
The depth map generation unit 243 generates the depth map shown in FIG. The UI image generation unit 244 generates UI image data for the user to set a focus position. For example, the UI image generation unit 244 generates UI image data by generating image data for a user to set a focus range and superimposing the image data on a depth map. The combining unit 245 combines the screen data generated by the screen generating unit 242 and the UI image data generated by the UI image generating unit 244 to generate display image data. The combining unit 245 outputs the generated display image data to the display unit 23.
[フォーカス位置設定画面]
図11は、ユーザがフォーカス位置を設定するためのフォーカス位置設定画面30を示す図である。フォーカス位置設定画面30は、第1フォーカス位置設定画面31、第2フォーカス位置設定画面32、プレビュー画面33、及びフレーム指定画面34から構成されている。
[Focus position setting screen]
FIG. 11 is a diagram showing a focus position setting screen 30 for the user to set a focus position. The focus position setting screen 30 includes a first focus position setting screen 31, a second focus position setting screen 32, a preview screen 33, and a frame designation screen.
第1フォーカス位置設定画面31は、第1フォーカス位置を設定するための画面であり、フレーム指定画面34において指定された第1フレームに対応する第1画像データD1と、第1画像データD1に対応する奥行きマップとを含んでいる。奥行きマップには、第1フォーカス位置に対応するフォーカス範囲を指定するためのカーソルC1,C2が表示されている。 The first focus position setting screen 31 is a screen for setting the first focus position, and corresponds to the first image data D1 corresponding to the first frame specified on the frame specifying screen 34 and the first image data D1. And a depth map. Cursors C1 and C2 for designating a focus range corresponding to the first focus position are displayed on the depth map.
ユーザがカーソルC1を上に移動するほど、フォーカス位置は奥になる。また、ユーザがカーソルC2を下に移動するほど、フォーカス位置は手前になる。そして、カーソルC1とカーソルC2との間が、フォーカス範囲となる。カーソルC1とカーソルC2との間が広いほど被写界深度が深く、カーソルC1とカーソルC2との間が狭いほど被写界深度が浅い。 As the user moves the cursor C1 upward, the focus position becomes deeper. Further, the more the user moves the cursor C2 downward, the closer the focus position is. The area between the cursor C1 and the cursor C2 is the focus range. The depth of field increases as the distance between the cursor C1 and the cursor C2 increases, and the depth of field decreases as the distance between the cursor C1 and the cursor C2 decreases.
第2フォーカス位置設定画面32は、第2フォーカス位置を設定するための画面であり、フレーム指定画面34において指定された第2フレームに対応する第2画像データD2と、第2画像データD2に対応する奥行きマップとを含んでいる。奥行きマップには、第2フォーカス位置に対応するフォーカス範囲を指定するためのカーソルC1,C2が表示されている。 The second focus position setting screen 32 is a screen for setting the second focus position, and corresponds to the second image data D2 corresponding to the second frame specified on the frame specifying screen 34 and the second image data D2. And a depth map. Cursors C1 and C2 for designating a focus range corresponding to the second focus position are displayed on the depth map.
プレビュー画面33には、設定部22が、第1フォーカス位置及び第2フォーカス位置に基づいて設定された、第1画像データと第2画像データとの間の画像データの第3フォーカス位置に基づいて再構築部241が生成したリフォーカス画像のプレビュー画面が表示される。ユーザは、プレビュー再生ボタン331を押すことにより、フレーム指定画面34において指定した第1フレームから第2フレームまでの間のいずれかの画像データをプレビュー画面に表示させることができる。 In the preview screen 33, the setting unit 22 is configured to set the first focus position and the second focus position based on the third focus position of the image data between the first image data and the second image data. A preview screen of the refocus image generated by the restructuring unit 241 is displayed. By pressing the preview playback button 331, the user can display any image data between the first frame and the second frame designated on the frame designation screen 34 on the preview screen.
フレーム指定画面34は、ユーザがフォーカス位置を設定するフレームを指定するための画面である。フレーム指定画面34には、第1フレームを指定するためのカーソル341、第2フレームを指定するためのカーソル342、及びプレビュー画面に表示させているフレームの位置を示すカーソル343が表示されている。受付部21は、カーソル343を介して、複数の画像データから一の画像データを選択する指示を受け付ける。この場合、再生部24は、フォーカス位置が第3フォーカス位置に設定された、受付部21が受け付けた選択指示に対応する第3画像データを表示部23に表示させる。 The frame designation screen 34 is a screen for the user to designate a frame for setting a focus position. On the frame designation screen 34, a cursor 341 for designating the first frame, a cursor 342 for designating the second frame, and a cursor 343 indicating the position of the frame displayed on the preview screen are displayed. The receiving unit 21 receives, via the cursor 343, an instruction to select one image data from a plurality of image data. In this case, the reproduction unit 24 causes the display unit 23 to display the third image data corresponding to the selection instruction received by the reception unit 21 in which the focus position is set to the third focus position.
領域344には、第1画像データ及び第2画像データに基づくリフォーカス画像が表示されている。領域345には、フォーカス位置を示す帯画像が表示されている。このように、再生部24は、動画データに含まれる複数の画像データに関連付けて、それぞれの画像データに対応して設定されたフォーカス位置を示す帯画像を表示部23に表示させる。フレーム指定画面34における帯画像は、領域345の上側に近いほどフォーカス位置が奥に設定されており、帯画像が領域345の下側に近いほどフォーカス位置が手前に設定されており、カーソル341が示す第1フレームからカーソル342が示す第2フレームまでの間に、フォーカス位置が手前から奥に変化することを示している。 In a region 344, a refocus image based on the first image data and the second image data is displayed. In the area 345, a band image indicating the focus position is displayed. As described above, the reproducing unit 24 causes the display unit 23 to display the band image indicating the focus position set corresponding to each image data in association with the plurality of image data included in the moving image data. The focus position of the band image on the frame designation screen 34 is set closer to the upper side of the area 345, and the focus position is set closer to the lower side of the area 345, and the cursor 341 is moved to the near side. This indicates that the focus position changes from the near side to the far side from the first frame shown to the second frame shown by the cursor 342.
なお、図11においては、カーソル341及びカーソル342の前後で、帯画像に不連続点が生じている。これは、カーソル341及びカーソル342の前後でシーンが変化していることを示している。カーソル341及びカーソル342の前後でシーンが変化しない場合は、帯画像が連続的に変化することが望ましい。 In FIG. 11, discontinuous points occur in the band image before and after the cursor 341 and the cursor 342. This indicates that the scene changes before and after the cursor 341 and the cursor 342. When the scene does not change before and after the cursor 341 and the cursor 342, it is desirable that the band image continuously changes.
[フォーカス位置の設定方法]
図12は、設定部22がフォーカス位置を設定する方法について説明するための図である。図12(a)は、4つのフレームに対応するリフォーカス画像データを示している。図12(a)においては、フレーム番号がそれぞれ2000、2060、2120、2180の4つのフレームに対応するリフォーカス画像である第1画像データD1、第3画像データD3、第4画像データD4、第2画像データD2が示されている。第3画像データD3及び第4画像データD4は、第1画像データD1と第2画像データD2との間の複数の画像データのうちの2つの画像データである。第3画像データD3及び第4画像データD4のフォーカス位置は、ユーザにより指定された、フレーム番号2000の第1フレームの第1フォーカス位置、及びフレーム番号2180の第2フレームの第2フォーカス位置に基づく位置に設定されている。
[How to set focus position]
FIG. 12 is a diagram for explaining a method in which the setting unit 22 sets a focus position. FIG. 12A shows refocus image data corresponding to four frames. In FIG. 12A, the first image data D1, the third image data D3, the fourth image data D4, the fourth image data D4, which are refocus images corresponding to four frames having frame numbers of 2000, 2060, 2120, and 2180, respectively. Two image data D2 is shown. The third image data D3 and the fourth image data D4 are two image data among a plurality of image data between the first image data D1 and the second image data D2. The focus positions of the third image data D3 and the fourth image data D4 are based on the first focus position of the first frame of frame number 2000 and the second focus position of the second frame of frame number 2180 specified by the user. Set to position.
図12(b)は、図12(a)に示すそれぞれのリフォーカス画像データに対応する奥行きマップである。この奥行きマップは、ユーザがフレーム番号2000の第1フレームの第1フォーカス位置、及びフレーム番号2180の第2フレームの第2フォーカス位置を指定するためのユーザインターフェイスである。また、この奥行きマップは、ユーザがフォーカス位置を指定した複数のフレームの間のフレームに対応する画像データのフォーカス位置を表示するユーザインターフェイスとしても機能する。 FIG. 12B is a depth map corresponding to each of the refocused image data shown in FIG. This depth map is a user interface for the user to specify the first focus position of the first frame of frame number 2000 and the second focus position of the second frame of frame number 2180. The depth map also functions as a user interface that displays a focus position of image data corresponding to a frame between a plurality of frames for which the user has designated a focus position.
奥行きマップには、最も手前のフォーカス位置を示す数値0と最も奥のフォーカス位置を示す数値100とが示されており、ユーザは、第1フレーム及び第2フレームの奥行きマップに表示されているカーソルC1,C2を移動させることにより、第1フレームにおけるフォーカス範囲R1、及び第2フレームにおけるフォーカス範囲R2を指定する。設定部22は、ユーザにより指定されたフォーカス範囲R1の中央位置に第1フォーカス位置を設定し、フォーカス範囲R2の中央位置に第2フォーカス位置を設定する。 The depth map shows a numerical value 0 indicating the foreground focus position and a numerical value 100 indicating the deepest focus position. The user can use the cursor displayed on the depth maps of the first frame and the second frame. By moving C1 and C2, a focus range R1 in the first frame and a focus range R2 in the second frame are designated. The setting unit 22 sets the first focus position at the center position of the focus range R1 specified by the user, and sets the second focus position at the center position of the focus range R2.
設定部22は、第1フォーカス位置と第2フォーカス位置との間に、第3フレームのフォーカス位置である第3フォーカス位置及び第4フレームのフォーカス位置である第4フォーカス位置を設定する。図12(b)によれば、フレーム番号2000の第1フレームからフレーム番号2180の第2フレームまで、徐々にフォーカス位置が手前(0)から奥(100)に変化していることがわかる。 The setting unit 22 sets a third focus position, which is a focus position of the third frame, and a fourth focus position, which is a focus position of the fourth frame, between the first focus position and the second focus position. According to FIG. 12B, it can be seen that the focus position gradually changes from the near side (0) to the far side (100) from the first frame of the frame number 2000 to the second frame of the frame number 2180.
また、設定部22は、第3フレームにおけるフォーカス範囲R3、及び第4フレームにおけるフォーカス範囲R4を、フォーカス範囲R1及びフォーカス範囲R2に基づいて設定する。設定部22は、例えば、フォーカス範囲R1とフォーカス範囲R2とが等しい場合、フォーカス範囲R3及びフォーカス範囲R4を、フォーカス範囲R1及びフォーカス範囲R2と同じ大きさにする。設定部22は、フォーカス範囲R1よりもフォーカス範囲R2が大きい場合、フォーカス範囲R1からフォーカス範囲R2まで徐々にフォーカス範囲が大きくなるように、第1フレームと第2フレームとの間の複数のフレームのフォーカス範囲を設定する。設定部22は、第1フレーム及び第2フレームのうち、第3フレームが近いフレームである第1フレームに対応するフォーカス範囲R1と同じ値にフォーカス範囲R3を設定し、第4フレームが近いフレームである第2フレームに対応するフォーカス範囲R2と同じ値にフォーカス範囲R4を設定してもよい。 The setting unit 22 sets a focus range R3 in the third frame and a focus range R4 in the fourth frame based on the focus range R1 and the focus range R2. For example, when the focus range R1 and the focus range R2 are equal, the setting unit 22 sets the focus range R3 and the focus range R4 to the same size as the focus range R1 and the focus range R2. When the focus range R2 is larger than the focus range R1, the setting unit 22 sets a plurality of frames between the first frame and the second frame such that the focus range gradually increases from the focus range R1 to the focus range R2. Set the focus range. The setting unit 22 sets the focus range R3 to the same value as the focus range R1 corresponding to the first frame in which the third frame is a close frame among the first frame and the second frame, and sets the focus range R3 in the frame in which the fourth frame is close. The focus range R4 may be set to the same value as the focus range R2 corresponding to a certain second frame.
図12(c)は、フレーム番号とフォーカス位置との関係を示す表である。図12(c)に示すように、フレーム番号が大きくなるにつれて、フォーカス位置が手前から奥に変化していることがわかる。図12(c)は、各フレームのフォーカス範囲が同じ値である例を示しているが、これに限らず、各フレームのフォーカス範囲が変化してもよい。 FIG. 12C is a table showing the relationship between the frame number and the focus position. As shown in FIG. 12C, it can be seen that the focus position changes from the near side to the far side as the frame number increases. FIG. 12C shows an example in which the focus range of each frame has the same value. However, the present invention is not limited to this, and the focus range of each frame may change.
続いて、設定部22が第1フレームの第1フォーカス位置及び第2フレームの第2フォーカス位置に基づいて、第1フレームと第2フレームとの間の複数のフレームのフォーカス位置を決定する手順について説明する。
図12(c)に示すように、第1フレームの第1フォーカス位置の範囲は、10〜20に設定されている。また、第2フレームの第2フォーカス位置の範囲は、80〜90に設定されている。設定部22は、ユーザにより2つのフレームのフォーカス位置の範囲を指定されると、フレーム番号2000の第1フレームとフレーム番号2180の第2フレームと間のフレームであるフレーム番号2001からフレーム番号2179のフォーカス位置を算出する。
Subsequently, a procedure in which the setting unit 22 determines the focus positions of a plurality of frames between the first frame and the second frame based on the first focus position of the first frame and the second focus position of the second frame explain.
As shown in FIG. 12C, the range of the first focus position of the first frame is set to 10 to 20. The range of the second focus position of the second frame is set to 80 to 90. When the user specifies the focus position range of the two frames, the setting unit 22 changes the frame numbers from the frame number 2001 to the frame number 2179, which are the frames between the first frame of the frame number 2000 and the second frame of the frame number 2180. Calculate the focus position.
設定部22は、2つのフレームのフォーカス位置に基づいて、この2つのフレームの間の複数のフレームのフォーカス位置を、フレーム番号の変化に対して線形に変化するように算出する。その結果、設定部22が算出したフレーム番号2001からフレーム番号2179までの各フレームのフォーカス位置は、図12(c)に示すようになる。 The setting unit 22 calculates, based on the focus positions of the two frames, the focus positions of a plurality of frames between the two frames so as to linearly change with a change in the frame number. As a result, the focus position of each frame from the frame number 2001 to the frame number 2179 calculated by the setting unit 22 is as shown in FIG.
ここで、n番目のフレームのフォーカス範囲の手前をFFn、奥側をFEnとする。ユーザがフォーカス位置を指定した第1フレームのフレーム番号をs、第2フレームのフレーム番号をeとする。また、s番目のフレームのフォーカス範囲の手前をFFs、奥側をFEsとし、e番目のフレームのフォーカス範囲の手前をFFe、奥側をFEeとする。この場合、設定部22は、各フレームのフォーカス範囲FFn〜FEnを、以下の(3)式及び(4)式に基づいて算出することができる。
FFn=FFs+(FFe−FFs)/(e−s)×n ・・・(3)
FEn=FEs+(FEe−FEs)/(e−s)×n ・・・(4)
Here, the front side of the focus range of the n-th frame is FFn, and the back side is FEn. The frame number of the first frame for which the user has designated the focus position is s, and the frame number of the second frame is e. Also, the front of the focus range of the s-th frame is FFs, the back side is FEs, the front of the focus range of the e-th frame is FFe, and the back side is FEe. In this case, the setting unit 22 can calculate the focus ranges FFn to FEn of each frame based on the following equations (3) and (4).
FFn = FFs + (FFe-FFs) / (es) × n (3)
FEn = FEs + (FEe-FEs) / (es) × n (4)
[フォーカス位置を決定する動作のフローチャート]
図13は、画像再生装置1がフォーカス位置を決定する動作のフローチャートである。まず、受付部21は、第1フレームの第1フォーカス位置を受け付ける(S11)。また、受付部21は、第2フレームの第2フォーカス位置を受け付ける(S12)。
[Flowchart of operation for determining focus position]
FIG. 13 is a flowchart of an operation in which the image reproducing device 1 determines a focus position. First, the receiving unit 21 receives a first focus position of the first frame (S11). The receiving unit 21 receives a second focus position of the second frame (S12).
続いて、設定部22は、受付部21が受け付けた第1フォーカス位置及び第2フォーカス位置に基づいて、第1フレームと第2フレームとの間の他のフレームのフォーカス位置を設定する(S13)。設定部22は、各フレームに対応するLF画像データに対して、S13で設定したフォーカス位置を付与する(S14)。具体的には、設定部22は、記憶部20に記憶されているLF画像データのフォーカス位置を示す情報を、設定したフォーカス位置を示す情報に更新する。以上の手順により、記憶部20に記憶されている複数のLF画像データのフォーカス位置を、第1フォーカス位置から第2フォーカス位置までの範囲で順次変化するようにすることができる。 Subsequently, the setting unit 22 sets a focus position of another frame between the first frame and the second frame based on the first focus position and the second focus position received by the receiving unit 21 (S13). . The setting unit 22 assigns the focus position set in S13 to the LF image data corresponding to each frame (S14). Specifically, the setting unit 22 updates the information indicating the focus position of the LF image data stored in the storage unit 20 to the information indicating the set focus position. According to the above procedure, the focus positions of the plurality of LF image data stored in the storage unit 20 can be sequentially changed in a range from the first focus position to the second focus position.
<変形例1>
上記の説明においては、記憶部20が、複数のLF画像データにより構成されるLF動画データを記憶し、再生部24が、設定部22が設定した位置にフォーカス位置が順次変化する動画データを再生する例について説明したが、これに限らない。記憶部20が、LF静止画データをLF画像データとして記憶し、再生部24が、設定部22が設定した位置にフォーカス位置が設定された複数のリフォーカス画像データを順次再生してもよい。このようにすることで、1つのLF静止画データをスライドショーとして再生する場合においても、ユーザは、少なくとも2つのフォーカス位置を設定するだけで、順次フォーカス位置を変化させながら複数のリフォーカス画像データを再生することが可能になる。
<Modification 1>
In the above description, the storage unit 20 stores the LF moving image data composed of a plurality of LF image data, and the reproducing unit 24 reproduces the moving image data whose focus position sequentially changes to the position set by the setting unit 22. Although the example which performs is explained, it is not limited to this. The storage unit 20 may store the LF still image data as LF image data, and the playback unit 24 may sequentially play back a plurality of refocus image data in which the focus position is set at the position set by the setting unit 22. By doing so, even when one piece of LF still image data is reproduced as a slide show, the user merely sets at least two focus positions and sequentially changes the focus positions to transfer a plurality of refocus image data. It becomes possible to reproduce.
<変形例2>
上記の説明においては、ユーザが、第1フレームに対応する第1画像データにおいてフォーカスが合う範囲と、第2フレームに対応する第2画像データにおいてフォーカスが合う範囲を指定することにより、受付部21が第1フォーカス位置及び第2フォーカス位置を受け付ける場合について説明したが、第1フォーカス位置及び第2フォーカス位置を受け付ける方法は、これに限らない。受付部21は、第1画像データ及び第2画像データにおいてフォーカスを合わせるオブジェクトの指定を受け付けてもよい。
<Modification 2>
In the above description, the user specifies the in-focus range in the first image data corresponding to the first frame and the in-focus range in the second image data corresponding to the second frame, so that the receiving unit 21 Has described the case of receiving the first focus position and the second focus position, but the method of receiving the first focus position and the second focus position is not limited to this. The receiving unit 21 may receive designation of an object to be focused in the first image data and the second image data.
この場合、受付部21は、第1画像データにおいて指定されたオブジェクトにフォーカスが合う位置を第1フォーカス位置とする。また、受付部21は、第2画像データにおいて指定されたオブジェクトにフォーカスが合う位置を第2フォーカス位置とする。そして、設定部22は、受付部21がオブジェクトを指定する指示を受け付けた場合、第1フォーカス位置と第2フォーカス位置との間で、オブジェクトにフォーカスが合う位置に第3フォーカス位置を決定する。すなわち、設定部22は、第1フレームと第2フレームとの間のフレームのLF画像データのフォーカス位置を、指定されたオブジェクトにフォーカスが合う位置に設定する。設定部22は、例えば、LF画像データに含まれている、各画素にフォーカスが合う位置を示す情報を参照することにより、指定されたオブジェクトにフォーカス位置を決定する。 In this case, the receiving unit 21 sets a position where the object specified in the first image data is in focus as the first focus position. Further, the receiving unit 21 sets a position where the object specified in the second image data is in focus as a second focus position. Then, when the receiving unit 21 receives an instruction to specify an object, the setting unit 22 determines a third focus position between the first focus position and the second focus position at a position where the object is in focus. That is, the setting unit 22 sets the focus position of the LF image data of the frame between the first frame and the second frame to a position where the designated object is focused. The setting unit 22 determines the focus position of the specified object by referring to, for example, information included in the LF image data and indicating the position where each pixel is focused.
設定部22は、図10に示した再生時間とフォーカス位置との関係と、オブジェクトの奥行き方向の位置とを用いて第3フォーカス位置を決定してもよい。例えば、設定部22は、ユーザがフォーカスを合わせたいオブジェクトの奥行き方向の位置が、図10に示した再生時間とフォーカス位置との関係に基づいて定められるフォーカス範囲に含まれない場合、当該フォーカス範囲とともにオブジェクトにフォーカスが合うように被写界深度を深くする。この場合、受付部21は、第1画像データにおいてのみフォーカスを合わせる対象となるオブジェクトの指定を受け付けてもよい。このようにすることで、ユーザがフォーカスを合わせたいオブジェクトの奥行き方向の位置が、図10に示した再生時間とフォーカス位置との関係に基づいて定められるフォーカス範囲に含まれない場合であっても、ユーザが指定したオブジェクトにフォーカスが合った状態を維持することができる。なお、受付部21は、第2フォーカス位置を受け付ける代わりに、第2フレームにおいても、フォーカスを合わせるオブジェクトの指定を受け付け、受け付けたオブジェクトにフォーカスが合う位置を第2フォーカス位置としてもよい。 The setting unit 22 may determine the third focus position using the relationship between the reproduction time and the focus position illustrated in FIG. 10 and the position of the object in the depth direction. For example, when the position in the depth direction of the object that the user wants to focus on is not included in the focus range determined based on the relationship between the reproduction time and the focus position shown in FIG. At the same time, the depth of field is increased so that the object is in focus. In this case, the receiving unit 21 may receive designation of an object to be focused only on the first image data. By doing so, even if the position in the depth direction of the object that the user wants to focus on is not included in the focus range determined based on the relationship between the reproduction time and the focus position shown in FIG. Thus, it is possible to maintain a state in which an object designated by the user is in focus. Note that, instead of accepting the second focus position, the accepting unit 21 may accept designation of an object to be focused in the second frame, and may set a position at which the accepted object is in focus as the second focus position.
<変形例3>
上記の説明においては、設定部22が、第1画像データと第2画像データとの間の画像データのフォーカス位置を設定する場合について説明したが、設定部22は、第2画像データの後の複数の画像データのフォーカス位置を、第1フォーカス位置及び第2フォーカス位置に基づいて設定してもよい。設定部22は、例えば、第2画像データの後の複数の画像データのうち、シーンチェンジが発生する前の一以上の画像データのフォーカス位置を、第1フォーカス位置及び第2フォーカス位置に基づいて決定する。設定部22が第2画像データの後の複数の画像データのフォーカス位置を決定する際には、図10に示した関係を用いることができる。
<Modification 3>
In the above description, the case where the setting unit 22 sets the focus position of the image data between the first image data and the second image data has been described. However, the setting unit 22 sets the focus position after the second image data. The focus positions of the plurality of image data may be set based on the first focus position and the second focus position. The setting unit 22 sets, for example, a focus position of one or more pieces of image data before a scene change occurs among a plurality of pieces of image data after the second image data based on the first focus position and the second focus position. decide. When the setting unit 22 determines the focus positions of a plurality of image data after the second image data, the relationship shown in FIG. 10 can be used.
図14は、変形例3における画像再生装置1の動作について説明するための図である。図15は、変形例3において用いられる、再生時間とフォーカス位置との関係を示す図である。ユーザが、フレーム番号1000に対応する第1画像データD1の第1フォーカス位置、及びフレーム番号1360に対応する第2画像データD2の第2フォーカス位置を指定した場合、設定部22は、再生時間t3において再生される第3画像データD3から再生時間t4において再生される第4画像データD4までのフォーカス位置を設定する。第3画像データD3は、第2画像データD2の次に再生されるフレーム番号1361の画像データである。また、第4画像データD4は、シーンチェンジが発生する直前のフレーム番号1365の画像データである。 FIG. 14 is a diagram for describing an operation of the image reproducing device 1 according to the third modification. FIG. 15 is a diagram illustrating the relationship between the reproduction time and the focus position used in the third modification. When the user specifies the first focus position of the first image data D1 corresponding to the frame number 1000 and the second focus position of the second image data D2 corresponding to the frame number 1360, the setting unit 22 sets the reproduction time t3 A focus position is set from the third image data D3 reproduced at the time to the fourth image data D4 reproduced at the reproduction time t4. The third image data D3 is image data of the frame number 1361 reproduced next to the second image data D2. The fourth image data D4 is the image data of the frame number 1365 immediately before the scene change occurs.
なお、設定部22は、第2画像データD2以降の画像データのフォーカス位置が、最も奥の位置又は最も手前の位置に達した場合、それ以降の画像データのフォーカス位置を、最も奥の位置又は最も手前の位置に固定してもよい。 In addition, when the focus position of the image data after the second image data D2 reaches the innermost position or the foremost position, the setting unit 22 sets the focus position of the subsequent image data to the innermost position or It may be fixed at the foremost position.
また、受付部21は、第1画像データD1の第1フォーカス位置と第2画像データD2の第2フォーカス位置とに基づいてフォーカス位置を決定する対象となる画像データの範囲を指定する指示を受け付けてもよい。例えば、受付部21は、第2画像データの後の画像データのフォーカス位置を自動的に設定するか否かを選択するための操作画面を表示部23に表示させることにより、ユーザの指示を受け付けることができる。また、受付部21は、第2画像データの後の画像データのうち、どこまでの画像データに対してフォーカス位置を設定するかを指定する指示を受け付けてもよい。 The receiving unit 21 receives an instruction to specify a range of image data for which a focus position is determined based on the first focus position of the first image data D1 and the second focus position of the second image data D2. You may. For example, the reception unit 21 displays an operation screen for selecting whether to automatically set the focus position of the image data after the second image data on the display unit 23, thereby receiving the user's instruction. be able to. In addition, the receiving unit 21 may receive an instruction for specifying up to which image data of the image data after the second image data the focus position is to be set.
[本実施形態の画像再生装置1における効果]
以上説明したように、第1の実施形態に係る画像再生装置1においては、受付部21が、第1画像データに設定される第1フォーカス位置、及び第2画像データに設定される第2フォーカス位置を受け付け、設定部22が、第1フォーカス位置及び第2フォーカス位置に基づいて、第1画像データと第2画像データとの間で再生される第3画像データの再生時に用いられる第3フォーカス位置を設定する。このようにすることで、ユーザは、一部のLF静止画データのフォーカス位置を設定するだけで、順次フォーカス位置を変化させながら複数のリフォーカス画像データから構成される動画データを再生することが可能になる。
[Effects of Image Reproducing Apparatus 1 of Present Embodiment]
As described above, in the image reproducing apparatus 1 according to the first embodiment, the receiving unit 21 sets the first focus position set to the first image data and the second focus position set to the second image data. The setting unit 22 receives the position, and sets the third focus used when reproducing the third image data reproduced between the first image data and the second image data based on the first focus position and the second focus position. Set the position. By doing so, the user can reproduce moving image data composed of a plurality of refocused image data while sequentially changing the focus position only by setting the focus position of some LF still image data. Will be possible.
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
例えば、画像再生装置1は、画像再生処理を実行するためのプログラムが記憶された記憶媒体をCPUが読み出して実行することにより、上記の動作を実現することができる。この場合、例えば、CPUは、受付部21、設定部22及び再生部24として機能する。
As described above, the present invention has been described using the embodiment, but the technical scope of the present invention is not limited to the scope described in the above embodiment, and various modifications and changes are possible within the scope of the gist. is there.
For example, in the image reproducing device 1, the above operation can be realized by the CPU reading and executing a storage medium storing a program for executing the image reproducing process. In this case, for example, the CPU functions as the receiving unit 21, the setting unit 22, and the reproducing unit 24.
1・・・画像再生装置
20・・・記憶部
21・・・受付部
22・・・設定部
24・・・再生部
DESCRIPTION OF SYMBOLS 1 ... Image reproduction apparatus 20 ... Storage part 21 ... Reception part 22 ... Setting part 24 ... Reproduction part
Claims (10)
前記複数のライトフィールド画像データが複数の画像データを含む動画データとして再生される際に第1画像データに設定される第1フォーカス位置、及び第2画像データに設定される第2フォーカス位置を受け付ける受付手段と、
前記第1画像データと前記第2画像データとの間で再生される第3画像データの再生時に用いられる第3フォーカス位置を、前記第1フォーカス位置及び前記第2フォーカス位置に基づいて設定する設定手段と、
前記第1画像データ、前記第2画像データ及び前記第3画像データを含む前記動画データを再生する再生手段と、を有し、
前記受付手段は、前記複数の画像データから前記第3画像データを選択する指示をさらに受け付け、
前記再生手段は、フォーカス位置が前記第3フォーカス位置に設定された、前記受付手段が受け付けた指示に対応する前記第3画像データを表示部に表示させることを特徴とする画像再生装置。 Storage means for storing a plurality of light field image data that can be changed after shooting a focus position that is a focus position in the depth direction,
When the plurality of light field image data is reproduced as moving image data including a plurality of image data, a first focus position set in the first image data and a second focus position set in the second image data are received. Reception means,
A setting for setting a third focus position used when reproducing the third image data reproduced between the first image data and the second image data, based on the first focus position and the second focus position. Means,
Reproducing means for reproducing the moving image data including the first image data, the second image data, and the third image data,
The receiving unit further receives an instruction to select the third image data from the plurality of image data,
The image reproducing apparatus according to claim 1, wherein said reproducing means causes a display unit to display said third image data corresponding to an instruction received by said receiving means, wherein a focus position is set to said third focus position.
前記複数のライトフィールド画像データが複数の画像データを含む動画データとして再生される際に第1画像データに設定される第1フォーカス位置、及び第2画像データに設定される第2フォーカス位置を受け付ける受付手段と、
前記第1画像データと前記第2画像データとの間で再生される第3画像データの再生時に用いられる第3フォーカス位置を、前記第1フォーカス位置及び前記第2フォーカス位置に基づいて設定する設定手段と、を有し、
前記受付手段は、前記第1画像データと前記第2画像データとの間における前記第3画像データの位置と、前記第1フォーカス位置と前記第2フォーカス位置との間における前記第3フォーカス位置との関係を指定する指示を受け付け、
前記設定手段は、前記受付手段が受け付けた指示が示す前記関係に基づいて前記第3フォーカス位置を決定することを特徴とする画像再生装置。 Storage means for storing a plurality of light field image data that can be changed after shooting a focus position that is a focus position in the depth direction,
When the plurality of light field image data is reproduced as moving image data including a plurality of image data, a first focus position set in the first image data and a second focus position set in the second image data are received. Reception means,
A setting for setting a third focus position used when reproducing the third image data reproduced between the first image data and the second image data, based on the first focus position and the second focus position. Means,
The receiving unit may include a position of the third image data between the first image data and the second image data, and a third focus position between the first focus position and the second focus position. Receiving an instruction to specify the relationship of
The image reproducing apparatus according to claim 1, wherein the setting unit determines the third focus position based on the relationship indicated by the instruction received by the receiving unit.
前記複数のライトフィールド画像データが複数の画像データを含む動画データとして再生される際に第1画像データに設定される第1フォーカス位置、及び第2画像データに設定される第2フォーカス位置を受け付ける受付手段と、
前記第1画像データと前記第2画像データとの間で再生される第3画像データの再生時に用いられる第3フォーカス位置を、前記第1フォーカス位置及び前記第2フォーカス位置に基づいて設定する設定手段と、を有し、
前記受付手段は、前記第1画像データに含まれるオブジェクトを指定する指示を受け付け、
前記設定手段は、前記受付手段が前記オブジェクトを指定する指示を受け付けた場合、前記オブジェクトにフォーカスが合う位置に前記第3フォーカス位置を決定することを特徴とする画像再生装置。 Storage means for storing a plurality of light field image data that can be changed after shooting a focus position that is a focus position in the depth direction,
When the plurality of light field image data is reproduced as moving image data including a plurality of image data, a first focus position set in the first image data and a second focus position set in the second image data are received. Reception means,
A setting for setting a third focus position used when reproducing the third image data reproduced between the first image data and the second image data, based on the first focus position and the second focus position. Means,
The receiving unit receives an instruction to specify an object included in the first image data,
The image reproducing apparatus according to claim 1, wherein, when the receiving unit receives an instruction to specify the object, the setting unit determines the third focus position at a position where the object is in focus.
前記複数のライトフィールド画像データが複数の画像データを含む動画データとして再生される際に第1画像データに設定される第1フォーカス位置、及び第2画像データに設定される第2フォーカス位置を受け付ける受付手段と、
前記第1画像データと前記第2画像データとの間で再生される第3画像データの再生時に用いられる第3フォーカス位置を、前記第1フォーカス位置及び前記第2フォーカス位置に基づいて設定する設定手段と、を有し、
前記設定手段は、前記第2画像データの後の前記複数の画像データのフォーカス位置を、前記第1フォーカス位置及び前記第2フォーカス位置に基づいて決定することを特徴とする画像再生装置。 Storage means for storing a plurality of light field image data that can be changed after shooting a focus position that is a focus position in the depth direction,
When the plurality of light field image data is reproduced as moving image data including a plurality of image data, a first focus position set in the first image data and a second focus position set in the second image data are received. Reception means,
A setting for setting a third focus position used when reproducing the third image data reproduced between the first image data and the second image data, based on the first focus position and the second focus position. Means,
The image reproducing device according to claim 1, wherein the setting unit determines a focus position of the plurality of image data after the second image data based on the first focus position and the second focus position.
請求項4に記載の画像再生装置。 The setting means sets a focus position of one or more of the plurality of pieces of image data before the scene change occurs among the plurality of pieces of image data after the second image data, by the first focus position and the second focus position. Characterized in that it is determined based on
The image reproducing device according to claim 4.
フォーカスが合った奥行き方向の位置であるフォーカス位置を撮影後に変更可能な複数のライトフィールド画像データが複数の画像データを含む動画データとして再生される際に第1画像データに設定される第1フォーカス位置、及び第2画像データに設定される第2フォーカス位置を受け付ける受付ステップと、
前記第1画像データと前記第2画像データとの間で再生される第3画像データの再生時に用いられる第3フォーカス位置を、前記第1フォーカス位置及び前記第2フォーカス位置に基づいて設定する設定ステップと、
前記第1画像データ、前記第2画像データ及び前記第3画像データを含む前記動画データを再生する再生ステップと、を有し、
前記受付ステップでは、前記複数の画像データから前記第3画像データを選択する指示をさらに受け付け、
前記再生ステップでは、フォーカス位置が前記第3フォーカス位置に設定された、前記受付ステップで受け付けた指示に対応する前記第3画像データを表示部に表示させることを特徴とする画像再生方法。 Executed by computer,
A first focus set in the first image data when a plurality of light field image data in which a focus position, which is an in-focus position in the depth direction, can be changed after shooting is reproduced as moving image data including a plurality of image data. A receiving step of receiving a position and a second focus position set in the second image data;
A setting for setting a third focus position used when reproducing the third image data reproduced between the first image data and the second image data, based on the first focus position and the second focus position. Steps and
A reproducing step of reproducing the moving image data including the first image data, the second image data, and the third image data,
In the receiving step, an instruction to select the third image data from the plurality of image data is further received,
In the reproducing step, the third image data corresponding to the instruction received in the receiving step , wherein the focus position is set to the third focus position, is displayed on a display unit.
フォーカスが合った奥行き方向の位置であるフォーカス位置を撮影後に変更可能な複数のライトフィールド画像データが複数の画像データを含む動画データとして再生される際に第1画像データに設定される第1フォーカス位置、及び第2画像データに設定される第2フォーカス位置を受け付ける受付ステップと、
前記第1画像データと前記第2画像データとの間で再生される第3画像データの再生時に用いられる第3フォーカス位置を、前記第1フォーカス位置及び前記第2フォーカス位置に基づいて設定する設定ステップと、を有し、
前記受付ステップでは、前記第1画像データと前記第2画像データとの間における前記第3画像データの位置と、前記第1フォーカス位置と前記第2フォーカス位置との間における前記第3フォーカス位置との関係を指定する指示を受け付け、
前記設定ステップでは、前記受付ステップで受け付けた指示が示す前記関係に基づいて前記第3フォーカス位置を決定することを特徴とする画像再生方法。 Executed by computer,
A first focus set in the first image data when a plurality of light field image data in which a focus position, which is an in-focus position in the depth direction, can be changed after shooting is reproduced as moving image data including a plurality of image data. A receiving step of receiving a position and a second focus position set in the second image data;
A setting for setting a third focus position used when reproducing the third image data reproduced between the first image data and the second image data, based on the first focus position and the second focus position. And a step,
In the receiving step, the position of the third image data between the first image data and the second image data, the third focus position between the first focus position and the second focus position, Receiving an instruction to specify the relationship of
In the setting step, the third focus position is determined based on the relationship indicated by the instruction received in the receiving step.
フォーカスが合った奥行き方向の位置であるフォーカス位置を撮影後に変更可能な複数のライトフィールド画像データが複数の画像データを含む動画データとして再生される際に第1画像データに設定される第1フォーカス位置、及び第2画像データに設定される第2フォーカス位置を受け付ける受付ステップと、
前記第1画像データと前記第2画像データとの間で再生される第3画像データの再生時に用いられる第3フォーカス位置を、前記第1フォーカス位置及び前記第2フォーカス位置に基づいて設定する設定ステップと、を有し、
前記受付ステップでは、前記第1画像データに含まれるオブジェクトを指定する指示を受け付け、
前記設定ステップでは、前記受付ステップで前記オブジェクトを指定する指示を受け付けた場合、前記オブジェクトにフォーカスが合う位置に前記第3フォーカス位置を決定することを特徴とする画像再生方法。 Executed by computer,
A first focus set in the first image data when a plurality of light field image data in which a focus position, which is an in-focus position in the depth direction, can be changed after shooting is reproduced as moving image data including a plurality of image data. A receiving step of receiving a position and a second focus position set in the second image data;
A setting for setting a third focus position used when reproducing the third image data reproduced between the first image data and the second image data, based on the first focus position and the second focus position. And a step,
In the receiving step, an instruction for specifying an object included in the first image data is received,
In the setting step, when an instruction to specify the object is received in the receiving step, the third focus position is determined at a position where the object is in focus.
フォーカスが合った奥行き方向の位置であるフォーカス位置を撮影後に変更可能な複数のライトフィールド画像データが複数の画像データを含む動画データとして再生される際に第1画像データに設定される第1フォーカス位置、及び第2画像データに設定される第2フォーカス位置を受け付ける受付ステップと、
前記第1画像データと前記第2画像データとの間で再生される第3画像データの再生時に用いられる第3フォーカス位置を、前記第1フォーカス位置及び前記第2フォーカス位置に基づいて設定する設定ステップと、を有し、
前記設定ステップでは、前記第2画像データの後の前記複数の画像データのフォーカス位置を、前記第1フォーカス位置及び前記第2フォーカス位置に基づいて決定することを特徴とする画像再生方法。 Executed by computer,
A first focus set in the first image data when a plurality of light field image data in which a focus position, which is an in-focus position in the depth direction, can be changed after shooting is reproduced as moving image data including a plurality of image data. A receiving step of receiving a position and a second focus position set in the second image data;
A setting for setting a third focus position used when reproducing the third image data reproduced between the first image data and the second image data, based on the first focus position and the second focus position. And a step,
In the setting step, a focus position of the plurality of image data after the second image data is determined based on the first focus position and the second focus position.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016002800A JP6632384B2 (en) | 2016-01-08 | 2016-01-08 | Image reproducing apparatus and image reproducing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016002800A JP6632384B2 (en) | 2016-01-08 | 2016-01-08 | Image reproducing apparatus and image reproducing method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017123611A JP2017123611A (en) | 2017-07-13 |
JP2017123611A5 JP2017123611A5 (en) | 2019-02-14 |
JP6632384B2 true JP6632384B2 (en) | 2020-01-22 |
Family
ID=59305855
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016002800A Expired - Fee Related JP6632384B2 (en) | 2016-01-08 | 2016-01-08 | Image reproducing apparatus and image reproducing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6632384B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021083096A (en) * | 2021-01-20 | 2021-05-27 | 株式会社ニコン | Electronic apparatus and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6234401B2 (en) * | 2013-03-05 | 2017-11-22 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, image processing method, and program |
JP6228402B2 (en) * | 2013-07-23 | 2017-11-08 | キヤノン株式会社 | Image reproducing apparatus, image reproducing method, program, and storage medium |
JP6323022B2 (en) * | 2014-01-21 | 2018-05-16 | 株式会社ニコン | Image processing device |
-
2016
- 2016-01-08 JP JP2016002800A patent/JP6632384B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2017123611A (en) | 2017-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6202910B2 (en) | Video processing apparatus, control method therefor, and program | |
US9686530B2 (en) | Image processing apparatus and image processing method | |
US9451148B2 (en) | Image recording apparatus and image reproducing apparatus | |
JP6663193B2 (en) | Imaging device and control method thereof | |
US11756279B1 (en) | Techniques for depth of field blur for immersive content production systems | |
US20200404162A1 (en) | Control apparatus, control method, and storage medium | |
EP2840775B1 (en) | Image pickup apparatus, method of controlling image pickup apparatus, program and storage medium | |
US10109036B2 (en) | Image processing apparatus, control method for same, and program that performs image processing for image data having a focus state that is changeable | |
US20140219576A1 (en) | Image processing apparatus and control method thereof | |
WO2016181804A1 (en) | Image processing device and method | |
US9955111B2 (en) | Electronic apparatus and display control method | |
US20150109522A1 (en) | Imaging apparatus and its control method and program | |
US20150287208A1 (en) | Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP2016039613A (en) | Image processing system, control method thereof, program, and storage medium | |
JP2014107631A (en) | Image formation method and device | |
JP7527368B2 (en) | Merging split pixel data for deeper depth of field | |
JP6632384B2 (en) | Image reproducing apparatus and image reproducing method | |
JP5550149B2 (en) | Image processing apparatus, image processing method, and program | |
JP2017034682A (en) | Image generation apparatus, image processing apparatus, image generation method, and image processing program | |
JP6882266B2 (en) | Devices and methods for generating data representing pixel beams | |
JP2015198340A (en) | Image processing system and control method therefor, and program | |
JP2017201810A (en) | Imaging apparatus and imaging method | |
US10027881B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP6377225B2 (en) | Image processing apparatus, control method therefor, and program | |
JP6195371B2 (en) | Imaging apparatus, control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20180227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181227 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181227 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190724 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190730 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190902 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191015 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191210 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6632384 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |