JP6323022B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP6323022B2
JP6323022B2 JP2014008204A JP2014008204A JP6323022B2 JP 6323022 B2 JP6323022 B2 JP 6323022B2 JP 2014008204 A JP2014008204 A JP 2014008204A JP 2014008204 A JP2014008204 A JP 2014008204A JP 6323022 B2 JP6323022 B2 JP 6323022B2
Authority
JP
Japan
Prior art keywords
image
unit
subject
image data
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014008204A
Other languages
Japanese (ja)
Other versions
JP2015139020A (en
JP2015139020A5 (en
Inventor
彰信 菅
彰信 菅
内山 貴之
貴之 内山
静二 ▲高▼野
静二 ▲高▼野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2014008204A priority Critical patent/JP6323022B2/en
Publication of JP2015139020A publication Critical patent/JP2015139020A/en
Publication of JP2015139020A5 publication Critical patent/JP2015139020A5/en
Application granted granted Critical
Publication of JP6323022B2 publication Critical patent/JP6323022B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像処理装置に関する。 The present invention relates to an image processing apparatus.

被写体の撮影後に合焦位置などを設定することが可能な電子機器が知られている。この種の電子機器としてフォーカスブラケット機能を備えたデジタルカメラがある(例えば特許文献1参照)。フォーカスブラケットとは、連写をしながら合焦位置を変えていき、合焦位置の異なる複数の画像を撮影することをいう。例えば、特許文献1に記載されたデジタルカメラは、合焦位置の異なる複数の画像データを適宜選択し、選択した画像データを合成することにより、合焦位置を変更する。   There is known an electronic device that can set a focus position and the like after photographing a subject. There is a digital camera having a focus bracket function as this type of electronic device (see, for example, Patent Document 1). Focus bracketing refers to taking a plurality of images with different in-focus positions by changing the in-focus position while continuously shooting. For example, the digital camera described in Patent Document 1 appropriately selects a plurality of pieces of image data having different in-focus positions, and changes the in-focus position by combining the selected image data.

特開2003−141506号公報JP 2003-141506 A

しかし、上記した電子機器においては、撮影後に焦点調節を行うリフォーカス機能などが実現されているが、このような電子機器の使い勝手が十分ではなく、依然として改善の余地があった。   However, in the above-described electronic device, a refocus function for performing focus adjustment after shooting is realized, but the usability of such an electronic device is not sufficient, and there is still room for improvement.

本発明の態様では、使用者の操作に応じて画像の合焦位置と被写界深度との少なくとも一方を変更することにより、電子機器の操作性を向上させることを目的とする。   In an aspect of the present invention, it is an object to improve the operability of an electronic device by changing at least one of an in-focus position of an image and a depth of field according to a user's operation.

本発明の態様によれば、再生速度が第1速度で再生されている動画を表示する表示部と、表示部に設けられ、接触された位置を検出する検出部と、検出部により接触された位置が検出されると、動画の再生速度を第1速度よりも遅い第2速度で再生する制御部と、制御部により動画が第2速度で再生されているときに、検出部により複数の位置への接触と、接触された複数の位置の変化が検出されると、被写界深度を変更可能なパラメータによって生成された被写界深度の異なる画像データに基づいて、表示部に表示されている画像の被写界深度を変化させる処理部と、を備える画像処理装置が提供される。また、本発明の第1態様によれば、使用者が操作可能な操作部と、画像を表示部に表示させ、使用者による操作部の第1操作に応じて画像の表示状態を変更する表示制御部と、画像の表示中に使用者による操作部の第2操作に応じて画像の合焦位置と被写界深度との少なくともいずれか一方を変更する変更部と、を備える電子機器が提供される。
According to an aspect of the present invention, a display unit for displaying the video playback speed is being played at a first rate, it is found provided on the display unit, a detecting unit for detecting a contact touch position, the contact by the detection unit When the detected position is detected, a control unit that reproduces the moving image at a second speed slower than the first speed, and a detecting unit that reproduces the moving image at the second speed by the control unit . and contacting the Rifuku number of positions, the change of the contact is a plurality of positions are detected, based on different image data with depth of field that is generated the depth of field by changing parameters, the display And a processing unit that changes the depth of field of the image displayed on the unit. According to the first aspect of the present invention, the operation unit that can be operated by the user and the display that displays the image on the display unit and changes the display state of the image according to the first operation of the operation unit by the user. Provided is an electronic device comprising: a control unit; and a changing unit that changes at least one of an in-focus position and a depth of field according to a second operation of the operation unit by a user during image display Is done.

本発明の第2態様によれば、使用者が操作可能な操作部を有する電子機器の制御装置に、画像を表示部に表示させ、使用者による操作部の第1操作に応じて画像の表示状態を変更する表示制御処理と、画像の表示中に使用者による操作部の第2操作に応じて画像の合焦位置と被写界深度との少なくともいずれか一方を変更する変更処理と、を実行させる制御プログラムが提供される。   According to the second aspect of the present invention, an image is displayed on the display unit on the control device of the electronic device having the operation unit that can be operated by the user, and the image is displayed according to the first operation of the operation unit by the user. A display control process for changing the state, and a change process for changing at least one of the in-focus position and the depth of field according to the second operation of the operation unit by the user during the display of the image. A control program to be executed is provided.

本発明の態様によれば、使用者の操作に応じてライブビュー画像又は動画の合焦位置と被写界深度との少なくとも一方を変更することにより、電子機器の操作性を向上させることができる。   According to the aspect of the present invention, it is possible to improve the operability of the electronic device by changing at least one of the focus position of the live view image or the moving image and the depth of field according to the operation of the user. .

電子機器の一例であるライトフィールドカメラにおける光学系部分の概略構成を示す断面図である。It is sectional drawing which shows schematic structure of the optical system part in the light field camera which is an example of an electronic device. 撮像素子の画素配列と入射領域とを説明する図である。It is a figure explaining the pixel arrangement | sequence and incident area of an image pick-up element. 第1実施形態に係るライトフィールドカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the light field camera which concerns on 1st Embodiment. 画像の再構成を説明する図である。It is a figure explaining the reconstruction of an image. 第1実施形態の画像処理部が実行する画像処理を説明するためのフローチャートである。It is a flowchart for demonstrating the image process which the image process part of 1st Embodiment performs. ライトフィールドカメラと各被写体との距離関係を示す図である。It is a figure which shows the distance relationship between a light field camera and each to-be-photographed object. 第1実施形態のシステム制御部が実行する撮影動作を説明するためのフローチャートである。It is a flowchart for demonstrating the imaging | photography operation | movement which the system control part of 1st Embodiment performs. 表示部の表示画面に表示されるライブビュー画像の表示例を示す図である。It is a figure which shows the example of a display of the live view image displayed on the display screen of a display part. 第1実施形態のシステム制御部が実行する動画再生処理を説明するためのフローチャートである。It is a flowchart for demonstrating the moving image reproduction process which the system control part of 1st Embodiment performs. 第1実施形態の動画再生中の第1表示例を示す図である。It is a figure which shows the 1st example of a display during the moving image reproduction | regeneration of 1st Embodiment. 第1実施形態の動画再生中の第2表示例を示す図である。It is a figure which shows the 2nd example of a display during the moving image reproduction | regeneration of 1st Embodiment. 第1実施形態の動画再生中の第3表示例を示す図である。It is a figure which shows the 3rd display example during the moving image reproduction | regeneration of 1st Embodiment. 第2実施形態のシステム制御部が実行する撮影動作を説明するためのフローチャートである。It is a flowchart for demonstrating the imaging | photography operation | movement which the system control part of 2nd Embodiment performs. 第3実施形態に係る撮像装置及び電子機器の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device and electronic device which concern on 3rd Embodiment.

以下、本発明の実施形態について図面を参照して説明する。ただし、本発明はこれに限定されるものではない。また、図面においては、実施形態を説明するため、一部分を大きくまたは強調して記載するなど適宜縮尺を変更して表現する場合がある。なお、以下の各実施形態では、電子機器としてライトフィールドカメラを例に挙げて説明する。   Embodiments of the present invention will be described below with reference to the drawings. However, the present invention is not limited to this. Further, in the drawings, in order to describe the embodiment, the scale may be appropriately changed and expressed, for example, a part of the drawing may be enlarged or emphasized. In the following embodiments, a light field camera will be described as an example of an electronic device.

<第1実施形態>
図1は、電子機器の一例であるライトフィールドカメラにおける光学系部分の概略構成を示す断面図である。なお、図1において、紙面の右方向(光軸方向)をX軸とし、X軸と直交する紙面の上方向をZ軸とし、X軸及びZ軸と直交する紙面の裏から表に向かう方向をY軸としている。また、図1は、ライトフィールドカメラにおける光学系部分を光軸を含む面で切断したときの断面図である。
<First Embodiment>
FIG. 1 is a cross-sectional view illustrating a schematic configuration of an optical system portion in a light field camera which is an example of an electronic apparatus. In FIG. 1, the right direction (optical axis direction) of the paper surface is the X axis, the upper direction of the paper surface orthogonal to the X axis is the Z axis, and the direction from the back of the paper surface orthogonal to the X axis and Z axis is the direction from the back. Is the Y axis. FIG. 1 is a cross-sectional view when the optical system portion in the light field camera is cut along a plane including the optical axis.

本実施形態のライトフィールドカメラは、被写体の撮影後に合焦位置や視点などを設定することが可能な電子機器である。このライトフィールドカメラは、三次元空間の光線集合であるライトフィールド(光線空間)の情報を取得し、取得したライトフィールドの情報に基づいて画像を生成する。以下の説明では、ライトフィールドの情報を光線情報という。ライトフィールドカメラの代表的な機能としては、撮影後の後処理によって焦点距離を変更した画像を生成するリフォーカス機能がある。従って、ライトフィールドカメラはリフォーカスカメラとも呼ばれる。   The light field camera of the present embodiment is an electronic device that can set a focus position, a viewpoint, and the like after photographing a subject. This light field camera acquires information on a light field (light space) that is a set of light beams in a three-dimensional space, and generates an image based on the acquired information on the light field. In the following description, the light field information is referred to as light ray information. As a typical function of the light field camera, there is a refocus function for generating an image whose focal length is changed by post-processing after photographing. Therefore, the light field camera is also called a refocus camera.

本実施形態のライトフィールドカメラは、その光学系部分として、撮影光学系(結像光学系)11及びマイクロレンズアレイ12を備えている。なお、図1には、ライトフィールドカメラにおける光学系部分以外の構成である撮像素子20についても示している。   The light field camera of this embodiment includes a photographing optical system (imaging optical system) 11 and a microlens array 12 as its optical system part. FIG. 1 also shows an image sensor 20 that is a configuration other than the optical system portion of the light field camera.

撮影光学系11は、複数のレンズ群で構成される単焦点レンズである。撮影光学系11は、被写体からの光束をその焦点面(結像面)近傍に結像する。また、撮影光学系11は、撮影時に絞り値(F値)を制御する開口絞り(不図示)を備えている。なお、絞り値は撮影後の画像の再構成によって変更することができるため、開口絞りの開口径は固定でもよい。図1に示すように、撮影光学系11の焦点面近傍にマイクロレンズアレイ12と撮像素子20とが順に配置されている。   The photographing optical system 11 is a single focus lens composed of a plurality of lens groups. The photographing optical system 11 forms an image of a light beam from the subject in the vicinity of its focal plane (imaging plane). Further, the photographing optical system 11 includes an aperture stop (not shown) that controls an aperture value (F value) during photographing. Since the aperture value can be changed by reconstructing the image after shooting, the aperture diameter of the aperture stop may be fixed. As shown in FIG. 1, a microlens array 12 and an image sensor 20 are sequentially arranged near the focal plane of the photographing optical system 11.

マイクロレンズアレイ12は、正のパワーを有した複数のマイクロレンズ(正レンズ)が二次元状に配置された構成となっている。なお、図1に示すマイクロレンズアレイ12においては、3つのマイクロレンズだけがZ軸方向に配されているが、実際はZ軸方向及びY軸方向に多数のマイクロレンズが配されている。   The microlens array 12 has a configuration in which a plurality of microlenses (positive lenses) having positive power are two-dimensionally arranged. In the microlens array 12 shown in FIG. 1, only three microlenses are arranged in the Z-axis direction, but actually, a large number of microlenses are arranged in the Z-axis direction and the Y-axis direction.

撮像素子20は、マイクロレンズアレイ12の後側(撮影光学系11の反対側)に若干の間隔をおいて配置されている。この撮像素子20は、マイクロレンズアレイ12の各マイクロレンズを通過した光束を複数の光電変換素子で受光し、各々の光電変換素子が受光した光束を光電変換して複数の画素信号を生成する。複数の光電変換素子はマトリックス状に配列され、各々の光電変換素子が画素を形成する。本実施形態では、撮像素子20は、CCD(Charge Coupled Device)やCMOS(Complementary
Metal-Oxide Semiconductor)などの二次元固体撮像素子で構成されている。
The image pickup device 20 is disposed on the rear side of the microlens array 12 (opposite side of the photographing optical system 11) with a slight gap. The image sensor 20 receives light beams that have passed through the microlenses of the microlens array 12 by a plurality of photoelectric conversion elements, and photoelectrically converts the light beams received by the photoelectric conversion elements to generate a plurality of pixel signals. The plurality of photoelectric conversion elements are arranged in a matrix, and each photoelectric conversion element forms a pixel. In the present embodiment, the image sensor 20 is a CCD (Charge Coupled Device) or CMOS (Complementary).
It consists of a two-dimensional solid-state image sensor such as a metal-oxide semiconductor).

図1の部分拡大図に示す例では、複数のマイクロレンズ12a,12b,12cの各々の後側に複数個ずつ画素が配列されている。具体的には、マイクロレンズ12aの後側に3つの画素21a,21b,21cが配列され、マイクロレンズ12bの後側に3つの画素22a,22b,22cが配列され、マイクロレンズ12cの後側に3つの画素23a,23b,23cが配列されている。   In the example shown in the partially enlarged view of FIG. 1, a plurality of pixels are arranged on the rear side of each of the plurality of microlenses 12a, 12b, and 12c. Specifically, three pixels 21a, 21b, 21c are arranged on the rear side of the micro lens 12a, three pixels 22a, 22b, 22c are arranged on the rear side of the micro lens 12b, and on the rear side of the micro lens 12c. Three pixels 23a, 23b, and 23c are arranged.

3つの画素21a,21b,21cがマイクロレンズ12aに対応する画素21であり、3つの画素22a,22b,22cがマイクロレンズ12bに対応する画素22であり、3つの画素23a,23b,23cがマイクロレンズ12cに対応する画素23である。なお、図1の部分拡大図では、各マイクロレンズ12a,12b,12cに対応する画素として3つの画素を示しているが、実際はZ軸方向及びY軸方向に多数の画素が配列されている(後述する図2参照)。   Three pixels 21a, 21b, and 21c are pixels 21 corresponding to the microlens 12a, three pixels 22a, 22b, and 22c are pixels 22 corresponding to the microlens 12b, and three pixels 23a, 23b, and 23c are microscopic. This is a pixel 23 corresponding to the lens 12c. In the partially enlarged view of FIG. 1, three pixels are shown as pixels corresponding to the microlenses 12a, 12b, and 12c, but actually, a large number of pixels are arranged in the Z-axis direction and the Y-axis direction ( (See FIG. 2 described later).

次に、図1を参照してライトフィールドカメラによるライトフィールドの取得について簡単に説明する。図1において、Aの位置にある被写体が撮影光学系11によってマイクロレンズアレイ12の位置に焦点を結ぶものとする。被写体上の点A1からの光線は、撮影光学系11の瞳上の部分領域11aを通過し、マイクロレンズ12aを通過して撮像素子20の画素21cで受光される。また、被写体上の点A1からの他の光線は、撮影光学系11の瞳上の部分領域11bを通過し、マイクロレンズ12aを通過して撮像素子20の画素21bで受光される。また、被写体上の点A1からの他の光線は、撮影光学系11の瞳上の部分領域11cを通過し、マイクロレンズ12aを通過して撮像素子20の画素21aで受光される。   Next, acquisition of a light field by a light field camera will be briefly described with reference to FIG. In FIG. 1, it is assumed that the subject at the position A focuses on the position of the microlens array 12 by the photographing optical system 11. The light beam from the point A1 on the subject passes through the partial region 11a on the pupil of the photographing optical system 11, passes through the microlens 12a, and is received by the pixel 21c of the image sensor 20. Further, another light ray from the point A1 on the subject passes through the partial region 11b on the pupil of the photographing optical system 11, passes through the microlens 12a, and is received by the pixel 21b of the imaging device 20. Further, another light ray from the point A1 on the subject passes through the partial region 11c on the pupil of the photographing optical system 11, passes through the microlens 12a, and is received by the pixel 21a of the imaging device 20.

同様に、被写体上の点A2からの光線は、撮影光学系11の瞳上の部分領域11aを通過し、マイクロレンズ12bを通過して撮像素子20の画素22cで受光される。また、被写体上の点A2からの他の光線は、撮影光学系11の瞳上の部分領域11bを通過し、マイクロレンズ12bを通過して撮像素子20の画素22bで受光される。また、被写体上の点A2からの他の光線は、撮影光学系11の瞳上の部分領域11cを通過し、マイクロレンズ12bを通過して撮像素子20の画素22aで受光される。   Similarly, the light beam from the point A2 on the subject passes through the partial area 11a on the pupil of the photographing optical system 11, passes through the microlens 12b, and is received by the pixel 22c of the image sensor 20. Further, another ray from the point A2 on the subject passes through the partial region 11b on the pupil of the photographing optical system 11, passes through the microlens 12b, and is received by the pixel 22b of the image sensor 20. Further, another light ray from the point A2 on the subject passes through the partial region 11c on the pupil of the photographing optical system 11, passes through the microlens 12b, and is received by the pixel 22a of the imaging device 20.

さらに、被写体上の点A3からの光線は、撮影光学系11の瞳上の部分領域11aを通過し、マイクロレンズ12cを通過して撮像素子20の画素23cで受光される。また、被写体上の点A3からの他の光線は、撮影光学系11の瞳上の部分領域11bを通過し、マイクロレンズ12cを通過して撮像素子20の画素23bで受光される。また、被写体上の点A3からの他の光線は、撮影光学系11の瞳上の部分領域11cを通過し、マイクロレンズ12cを通過して撮像素子20の画素23aで受光される。このように、Aの位置にある被写体からの光線は、マイクロレンズ12a,12b,12cの後側に位置する撮像素子20の画素で受光されることによって明るさと進行方向とが光線情報として取得される。   Further, the light beam from the point A3 on the subject passes through the partial area 11a on the pupil of the photographing optical system 11, passes through the microlens 12c, and is received by the pixel 23c of the image sensor 20. Further, another light ray from the point A3 on the subject passes through the partial region 11b on the pupil of the photographing optical system 11, passes through the microlens 12c, and is received by the pixel 23b of the image sensor 20. Further, another light ray from the point A3 on the subject passes through the partial region 11c on the pupil of the photographing optical system 11, passes through the microlens 12c, and is received by the pixel 23a of the image sensor 20. As described above, the light beam from the subject at the position A is received by the pixels of the image sensor 20 located on the rear side of the microlenses 12a, 12b, and 12c, whereby the brightness and the traveling direction are acquired as light beam information. The

マイクロレンズ12a,12b,12cそれぞれに対応する3つの画素のうち、下側の画素21c,22c,23cの画素信号で生成される画像は、部分領域11aを通過した光線による像である。また、真中の画素21b,22b,23bの画素信号で生成される画像は、部分領域11bを通過した光線による像である。また、上側の画素21a,22a,23aの画素信号で生成される画像は、部分領域11cを通過した光線による像である。例えば各マイクロレンズに対応する画素数がN個である場合、マイクロレンズに対して同じ位置にある画素の画素値を配列して構成されるN個の再構成画像は、撮影光学系11をN個の部分領域に分割して取得されるN個のステレオ画像群を形成する。   Of the three pixels corresponding to the microlenses 12a, 12b, and 12c, the image generated by the pixel signals of the lower pixels 21c, 22c, and 23c is an image of light rays that have passed through the partial region 11a. In addition, the image generated by the pixel signals of the middle pixels 21b, 22b, and 23b is an image of light rays that have passed through the partial region 11b. Further, the image generated by the pixel signals of the upper pixels 21a, 22a, and 23a is an image of light rays that have passed through the partial region 11c. For example, when the number of pixels corresponding to each microlens is N, N reconstructed images configured by arranging pixel values of pixels located at the same position with respect to the microlens are configured to capture the photographing optical system 11 as N. N stereo image groups acquired by dividing into partial regions are formed.

図2は、撮像素子20の画素配列と入射領域とを説明する図である。なお、図2では図1のX軸方向から撮像素子20を観察した様子を示す。図2に示す撮像素子20において、画素が配列された領域を画素領域200という。画素領域200には例えば1000万個以上もの画素がマトリックス状に配列されている。画素領域200における円形の領域は、1つのマイクロレンズを通過した光線が入射する領域である。従って、円形の領域は、複数のマイクロレンズごとに複数形成される。これらの領域を入射領域201,202・・・という。なお、マイクロレンズは例えば586×440個配置される。ただし、このような配置数は一例であって、これよりも多い数でも少ない数でもよい。図2に示す例では、1つのマイクロレンズの直径は13画素分となっている。ただし、このような画素数分に限定されるわけではない。   FIG. 2 is a diagram illustrating the pixel array and the incident area of the image sensor 20. FIG. 2 shows a state where the image sensor 20 is observed from the X-axis direction of FIG. In the image sensor 20 shown in FIG. 2, a region where pixels are arranged is referred to as a pixel region 200. In the pixel region 200, for example, 10 million or more pixels are arranged in a matrix. The circular area in the pixel area 200 is an area where light rays that have passed through one microlens are incident. Accordingly, a plurality of circular regions are formed for each of the plurality of microlenses. These regions are referred to as incident regions 201, 202. For example, 586 × 440 microlenses are arranged. However, such an arrangement number is an example, and a larger or smaller number may be used. In the example shown in FIG. 2, the diameter of one microlens is 13 pixels. However, the number of pixels is not limited to this.

上述したように、ライトフィールドカメラは、すべてのマイクロレンズから入射領域における同じ位置(入射領域内におけるY軸方向及びZ軸方向の同じ位置)にある画素の画素値を抽出して再構成する。このようにして得られた再構成画像群は、撮影光学系11の異なる部分領域から被写体を観察した画像群に相当する。従って、これらの再構成画像群においては、部分領域の位置と被写体までの距離に応じた視差を有する。例えば、図2に示すように、入射領域201における画素201aと同じ位置にある各マイクロレンズの画素の画素値から構成される再構成画像と、入射領域201における画素201bと同じ位置にある各マイクロレンズの画素の画素値から構成される再構成画像とで視差を有する。   As described above, the light field camera extracts and reconstructs pixel values of pixels at the same position in the incident area (the same position in the Y-axis direction and the Z-axis direction in the incident area) from all the microlenses. The reconstructed image group obtained in this way corresponds to an image group in which a subject is observed from different partial areas of the photographing optical system 11. Therefore, these reconstructed image groups have parallax according to the position of the partial region and the distance to the subject. For example, as shown in FIG. 2, a reconstructed image composed of pixel values of pixels of each microlens located at the same position as the pixel 201 a in the incident area 201 and each micro located at the same position as the pixel 201 b in the incident area 201. It has parallax with the reconstructed image composed of pixel values of the lens pixels.

図3は、第1実施形態に係るライトフィールドカメラ1の構成を示すブロック図である。図3に示すライトフィールドカメラ1は、撮像部10、画像処理部30、ワークメモリ(記憶部)40、表示部50、操作部55、記録部60、音声出力部65、及びシステム制御部70を備える。撮像部10は、撮影光学系11、マイクロレンズアレイ12、駆動制御部13、撮像素子20、及び駆動部21を有している。撮影光学系11及びマイクロレンズアレイ12は、図1において説明したため、図3においては説明を省略する。   FIG. 3 is a block diagram showing a configuration of the light field camera 1 according to the first embodiment. The light field camera 1 shown in FIG. 3 includes an imaging unit 10, an image processing unit 30, a work memory (storage unit) 40, a display unit 50, an operation unit 55, a recording unit 60, an audio output unit 65, and a system control unit 70. Prepare. The imaging unit 10 includes a photographing optical system 11, a microlens array 12, a drive control unit 13, an imaging element 20, and a drive unit 21. Since the photographing optical system 11 and the microlens array 12 have been described with reference to FIG. 1, description thereof is omitted in FIG.

撮像素子20の撮像面には、例えばベイヤー配列のカラーフィルタアレイが配置されている。撮像素子20は、撮影光学系11及びマイクロレンズアレイ12を通過した光束を入射する。撮像素子20は、入射した光束を光電変換してアナログ信号の各画素の画素信号を生成する。撮像部10において、不図示のアンプがアナログ信号の各画素の画素信号を所定の利得率(増幅率)で増幅する。また、不図示のA/D変換部がアンプにより増幅されたアナログ信号の各画素の画素信号をデジタル信号の各画素の画素信号に変換する。そして、撮像部10は、デジタル信号の各画素の画素信号からなるRAWデータを画像処理部30に出力する。上記したライトフィールドカメラ1が取得する光線情報は、撮像部10から出力されるRAWデータで特定される。   For example, a Bayer array color filter array is disposed on the imaging surface of the imaging element 20. The image sensor 20 makes the light beam that has passed through the photographing optical system 11 and the microlens array 12 enter. The image sensor 20 photoelectrically converts an incident light beam to generate a pixel signal of each pixel of an analog signal. In the imaging unit 10, an amplifier (not shown) amplifies the pixel signal of each pixel of the analog signal with a predetermined gain factor (amplification factor). Further, an A / D converter (not shown) converts the pixel signal of each pixel of the analog signal amplified by the amplifier into the pixel signal of each pixel of the digital signal. Then, the imaging unit 10 outputs RAW data including pixel signals of each pixel of the digital signal to the image processing unit 30. The light ray information acquired by the light field camera 1 is specified by RAW data output from the imaging unit 10.

駆動制御部13は、撮影光学系11が備える開口絞りの開口径調節を行うために、システム制御部70から送信される制御情報に基づいて開口絞りの駆動制御を実行する。駆動部21は、システム制御部70からの指示信号に基づいて設定される撮像条件で撮像素子20の駆動を制御する制御回路である。撮像条件としては、例えば、露光時間(シャッター速度)、フレームレート、ゲインなどがあげられる。   The drive control unit 13 performs aperture stop drive control based on control information transmitted from the system control unit 70 in order to adjust the aperture diameter of the aperture stop included in the photographing optical system 11. The drive unit 21 is a control circuit that controls driving of the image sensor 20 under imaging conditions set based on an instruction signal from the system control unit 70. Examples of imaging conditions include exposure time (shutter speed), frame rate, gain, and the like.

ここで、露光時間とは、撮像素子20の光電変換素子が入射光に応じた電荷の蓄積を開始してから終了するまでの時間のことをいう。また、フレームレートとは、動画において単位時間あたりに処理(表示又は記録)されるフレーム数を表す値のことをいう。フレームレートの単位はfps(Frames Per Second)で表される。また、ゲインとは、画素信号を増幅するアンプの利得率(増幅率)のことをいう。このゲインを変更することにより、ISO感度を変更することができる。このISO感度は、ISOで策定された写真フィルムの規格であり、写真フィルムがどの程度弱い光まで記録することができるかを表す。ただし、一般に、撮像素子20の感度を表現する場合もISO感度が用いられる。この場合、ISO感度は撮像素子20が光をとらえる能力を表す値となる。   Here, the exposure time refers to the time from when the photoelectric conversion element of the image sensor 20 starts to accumulate after the start of charge accumulation according to incident light. The frame rate is a value representing the number of frames processed (displayed or recorded) per unit time in a moving image. The unit of the frame rate is represented by fps (Frames Per Second). The gain refers to a gain factor (amplification factor) of an amplifier that amplifies the pixel signal. By changing this gain, the ISO sensitivity can be changed. This ISO sensitivity is a photographic film standard established by ISO and represents how much light the photographic film can record. However, generally, ISO sensitivity is also used when expressing the sensitivity of the image sensor 20. In this case, the ISO sensitivity is a value representing the ability of the image sensor 20 to capture light.

画像処理部30は、各画素の画素信号からなるRAWデータに対して種々の画像処理を施し、所定のファイル形式(例えば、JPEG形式等)の画像データを生成する。画像処理部30が生成する画像データには、静止画、動画、及びライブビュー画像の画像データが含まれる。ライブビュー画像は、画像処理部30で生成された画像データを表示部50に順次出力して表示部50に表示される画像である。ライブビュー画像は、撮像部10により撮像されている被写体の画像を使用者が確認するために用いられる。ライブビュー画像は、スルー画やプレビュー画像とも呼ばれる。画像処理部30は、図3に示すように、画像生成部31、第1編集部32、第2編集部33、及び変更部34を備えている。   The image processing unit 30 performs various kinds of image processing on the RAW data including the pixel signal of each pixel, and generates image data in a predetermined file format (for example, JPEG format). The image data generated by the image processing unit 30 includes image data of still images, moving images, and live view images. The live view image is an image displayed on the display unit 50 by sequentially outputting the image data generated by the image processing unit 30 to the display unit 50. The live view image is used for the user to confirm the image of the subject imaged by the imaging unit 10. The live view image is also called a through image or a preview image. As illustrated in FIG. 3, the image processing unit 30 includes an image generation unit 31, a first editing unit 32, a second editing unit 33, and a changing unit 34.

画像生成部31は、ワークメモリ40をワークスペースとして、各画素の画素信号からなるRAWデータに対して所定の画像処理を施すことにより任意の焦点距離に設定された画像データを生成する。具体的には、画像生成部31は、次に示す画像処理を施すことにより任意の焦点距離に設定された画像データを生成する。   The image generation unit 31 uses the work memory 40 as a work space to generate image data set at an arbitrary focal length by performing predetermined image processing on RAW data including pixel signals of each pixel. Specifically, the image generation unit 31 generates image data set at an arbitrary focal length by performing the following image processing.

図4は、画像の再構成を説明する図である。図4に示すように、画像生成部31は、画素領域200における各入射領域201,202・・・に対して同じ位置にある画素201a,202a・・・の画素値(画素信号が示す値)を抽出する。画像生成部31は、抽出した画素値を並べ直して再構成画像データ500aを生成する。各入射領域201,202・・・に対応する画素数がN個である場合、N個の再構成画像データが生成される。   FIG. 4 is a diagram for explaining image reconstruction. As shown in FIG. 4, the image generation unit 31 has pixel values (values indicated by pixel signals) of pixels 201 a, 202 a... At the same position with respect to the respective incident areas 201, 202. To extract. The image generation unit 31 rearranges the extracted pixel values to generate reconstructed image data 500a. When the number of pixels corresponding to each of the incident areas 201, 202... Is N, N reconstructed image data are generated.

画像生成部31は、N個の再構成画像データ群を所定の焦点距離に合わせて所定量だけ平行移動させる。そして、画像生成部31は、平行移動後のN個の再構成画像データ群を加算平均する。これにより、所定の焦点距離に設定された画像データが生成される。移動量に応じた奥行きに存在する被写体は像の位置が合うのでシャープな輪郭の像が形成される。移動量に応じた奥行きに存在しない被写体の像はぼける。なお、上記した画像処理は一例であって、画像生成部31は上記した画像処理とは異なる画像処理を実行することにより、任意の焦点距離に設定された画像データを生成してもよい。例えば、画像生成部31は、撮像素子20の各画素が取得する光線を所定の演算を行うことによって算出する。そして、画像生成部31は、算出した光線を所定の焦点距離に設定した仮想的な画像面に投影することにより、所定の焦点距離に設定された画像データを生成する。   The image generation unit 31 translates the N reconstructed image data groups by a predetermined amount in accordance with a predetermined focal length. Then, the image generation unit 31 averages the N reconstructed image data groups after the parallel movement. Thereby, image data set to a predetermined focal length is generated. Since the image of the subject existing at a depth corresponding to the amount of movement is aligned, a sharp contour image is formed. An image of a subject that does not exist at a depth corresponding to the amount of movement is blurred. Note that the above-described image processing is an example, and the image generation unit 31 may generate image data set at an arbitrary focal length by executing image processing different from the above-described image processing. For example, the image generation unit 31 calculates a light ray acquired by each pixel of the image sensor 20 by performing a predetermined calculation. Then, the image generation unit 31 generates image data set to a predetermined focal length by projecting the calculated light beam onto a virtual image plane set to a predetermined focal length.

本実施形態においては、画像生成部31は、最も手前の被写体に合焦した画像データ、最も奥の被写体に合焦した画像データ、中間位置の被写体に合焦した画像データなど、焦点位置(焦点距離)が異なる複数の画像データを生成する。   In the present embodiment, the image generation unit 31 has a focal position (focal point) such as image data focused on the foreground subject, image data focused on the backmost subject, and image data focused on a subject at an intermediate position. A plurality of image data having different distances are generated.

画像生成部31は、ワークメモリ40をワークスペースとして、任意の焦点に設定された画像データに対して種々の画像処理を施す。例えば、画像生成部31は、ベイヤー配列で得られた信号に対して色信号処理(色調補正)を行うことによりRGB画像データを生成する。また、画像生成部31は、RGB画像データに対して、ホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの画像処理を行う。また、画像生成部31は、必要に応じて、所定の圧縮形式(JPEG形式、MPEG形式等)で圧縮する処理を行う。   The image generation unit 31 performs various image processing on the image data set at an arbitrary focus using the work memory 40 as a work space. For example, the image generation unit 31 generates RGB image data by performing color signal processing (tone correction) on a signal obtained by the Bayer array. The image generation unit 31 performs image processing such as white balance adjustment, sharpness adjustment, gamma correction, and gradation adjustment on the RGB image data. Further, the image generation unit 31 performs a process of compressing in a predetermined compression format (JPEG format, MPEG format, etc.) as necessary.

画像生成部31は、生成した画像データから一又は複数の被写体を検出する。本実施形態では、画像生成部31は、画像データにおける明部と暗部のコントラストや色変化に基づいて被写体の領域の境界を特定して被写体を検出する。そして、画像生成部31は、検出した被写体のサイズ及び位置を画素単位で示す位置データをシステム制御部70に出力する。   The image generation unit 31 detects one or a plurality of subjects from the generated image data. In the present embodiment, the image generating unit 31 detects the subject by specifying the boundary of the subject region based on the contrast and color change between the bright and dark portions in the image data. Then, the image generation unit 31 outputs position data indicating the detected size and position of the subject in pixel units to the system control unit 70.

なお、画像生成部31は、人物の被写体に対しては、公知の顔検出機能を用いて被写体の検出を行ってもよい。また、画像生成部31は、移動する被写体(移動被写体)に対しては、画像生成部31から時系列的に得られる複数の画像データを比較して移動被写体を検出してもよい。また、画像生成部31は、顔検出に加えて、例えば特開2010−16621号公報(US2010/0002940号)に記載されているように、画像データに含まれる人体を被写体として検出してもよい。   Note that the image generation unit 31 may detect a subject using a known face detection function for a human subject. The image generation unit 31 may detect a moving subject by comparing a plurality of pieces of image data obtained in time series from the image generation unit 31 for a moving subject (moving subject). Further, in addition to the face detection, the image generation unit 31 may detect a human body included in the image data as a subject as described in, for example, Japanese Patent Application Laid-Open No. 2010-16621 (US2010 / 0002940). .

第1編集部32は、システム制御部70からの指示に応じて、ライブビュー画像又は動画における所定の被写体の画像データを編集する処理(すなわち、所定の被写体を削除する処理又は所定の被写体の向きを変更する処理)を行う。また、第1編集部32は、所定の被写体の画像データを削除する処理を行った場合は、視差を有する複数の再構成画像データ(後述する図8参照)を用いて、削除した被写体の領域の画像データを補完する処理を行う。   In response to an instruction from the system control unit 70, the first editing unit 32 edits image data of a predetermined subject in the live view image or moving image (that is, processing for deleting the predetermined subject or orientation of the predetermined subject). To change). When the first editing unit 32 performs processing for deleting image data of a predetermined subject, the first editing unit 32 uses a plurality of reconstructed image data having parallax (see FIG. 8 described later) to delete the region of the deleted subject. Process to complement the image data.

第2編集部33は、システム制御部70からの指示に応じて、ライブビュー画像又は動画における所定の被写体の画像データを編集する処理(すなわち、所定の被写体を削除する処理又は所定の被写体の向きを変更する処理)を行う。また、第2編集部33は、所定の被写体の画像データを削除する処理を行った場合は、ワークメモリ40に記憶されている所定期間のライブビュー画像又は動画における所定の被写体の移動(後述する図8参照)に基づいて、削除した被写体の領域の画像データを補完する処理を行う。   In response to an instruction from the system control unit 70, the second editing unit 33 edits the image data of the predetermined subject in the live view image or the moving image (that is, the process of deleting the predetermined subject or the direction of the predetermined subject). To change). Further, when the second editing unit 33 performs the process of deleting the image data of the predetermined subject, the second editing unit 33 moves the predetermined subject in the live view image or the moving image of the predetermined period stored in the work memory 40 (described later). Based on FIG. 8, a process for complementing the image data of the deleted subject area is performed.

変更部34は、システム制御部70からの指示に応じて、ライブビュー画像又は動画の合焦位置と被写界深度との少なくともいずれか一方を変更する処理を行う。なお、被写界深度とは、焦点が合っているように見える被写体の焦点距離の範囲のことをいう。例えば、変更部34は、システム制御部70からの指示によって合焦位置や被写界深度の範囲が指定されると、指定された合焦位置に近い合焦位置を持つ複数の画像データを取得する。そして、変更部34は、これらの画像データに適切な加重を加えてから平均化することで、指定された合焦位置や被写界深度の範囲の画像データを生成する。   The changing unit 34 performs a process of changing at least one of the in-focus position and the depth of field of the live view image or moving image in accordance with an instruction from the system control unit 70. Note that the depth of field refers to the range of the focal length of a subject that appears to be in focus. For example, when the focus position and the depth of field range are designated by an instruction from the system control unit 70, the changing unit 34 acquires a plurality of image data having a focus position close to the designated focus position. To do. Then, the changing unit 34 applies an appropriate weight to the image data and then performs averaging, thereby generating image data in the range of the designated in-focus position and depth of field.

画像処理部30は、生成した画像データを記録部60に出力する。また、画像処理部30は、生成した画像データを表示部50に出力する。   The image processing unit 30 outputs the generated image data to the recording unit 60. In addition, the image processing unit 30 outputs the generated image data to the display unit 50.

ワークメモリ40は、画像処理部30による画像処理が行われる際にRAWデータや画像データなどを一時的に記憶する。表示部50は、撮像部10で撮像された画像や各種情報を表示する。この表示部50は、例えば液晶表示パネルなどで構成された表示画面51を有している。なお、表示部50に表示される画像には、静止画、動画、ライブビュー画像が含まれる。表示部50の表示画面51上にはタッチパネル(操作部)52が形成されている。タッチパネル52は、使用者が表示画面51に表示されている被写体の選択などの操作を行う際に、使用者が触れた位置を示す信号をシステム制御部70に出力する。   The work memory 40 temporarily stores RAW data, image data, and the like when image processing by the image processing unit 30 is performed. The display unit 50 displays an image captured by the imaging unit 10 and various information. The display unit 50 includes a display screen 51 configured by, for example, a liquid crystal display panel. The image displayed on the display unit 50 includes a still image, a moving image, and a live view image. A touch panel (operation unit) 52 is formed on the display screen 51 of the display unit 50. The touch panel 52 outputs a signal indicating a position touched by the user to the system control unit 70 when the user performs an operation such as selection of a subject displayed on the display screen 51.

操作部55は、使用者によって操作されるレリーズスイッチ(静止画の撮影時に押されるスイッチ)、動画スイッチ(動画の撮影時に押されるスイッチ)、各種の操作スイッチなどである。この操作部55は、使用者による操作に応じた信号をシステム制御部70に出力する。記録部60は、メモリカードなどの記憶媒体を装着可能なカードスロットを有する。記録部60は、カードスロットに装着された記録媒体に画像処理部30において生成された画像データや各種データを記憶する。また、記録部60は、内部メモリを有する。記録部60は、画像処理部30において生成された画像データや各種データを内部メモリに記録することも可能である。音声出力部65は、システム制御部70からの指示信号に基づいてスピーカから音声出力を実行する。   The operation unit 55 includes a release switch (a switch that is pressed when shooting a still image), a moving image switch (a switch that is pressed when shooting a moving image), various operation switches, and the like that are operated by the user. The operation unit 55 outputs a signal corresponding to the operation by the user to the system control unit 70. The recording unit 60 has a card slot into which a storage medium such as a memory card can be mounted. The recording unit 60 stores the image data and various data generated by the image processing unit 30 in a recording medium mounted in the card slot. The recording unit 60 has an internal memory. The recording unit 60 can also record the image data and various data generated by the image processing unit 30 in the internal memory. The audio output unit 65 performs audio output from the speaker based on the instruction signal from the system control unit 70.

システム制御部70は、ライトフィールドカメラ1の全体の処理及び動作を制御する。このシステム制御部70はCPU(Central Processing Unit)を有する。このシステム制御部70は、図3に示すように、表示制御部71、選択部72、及び撮像制御部73をを備えている。表示制御部71は、画像処理部30で生成された画像データを表示部50に出力させて、表示部50の表示画面51に画像(ライブビュー画像、静止画、動画)を表示させる制御を行う。また、表示制御部71は、記録部60に記録されている画像データを読み出して表示部50に出力させ、表示部50の表示画面51に画像を表示させる制御を行う。   The system control unit 70 controls the overall processing and operation of the light field camera 1. The system control unit 70 has a CPU (Central Processing Unit). As shown in FIG. 3, the system control unit 70 includes a display control unit 71, a selection unit 72, and an imaging control unit 73. The display control unit 71 performs control to output the image data generated by the image processing unit 30 to the display unit 50 and display an image (live view image, still image, moving image) on the display screen 51 of the display unit 50. . In addition, the display control unit 71 performs control to read out the image data recorded in the recording unit 60 and output the image data to the display unit 50 and display an image on the display screen 51 of the display unit 50.

また、表示制御部71は、使用者によるタッチパネル52のタッチ操作に応じて、ライブビュー画像又は動画の表示状態を変更する制御を行う。具体的には、表示制御部71は、使用者によるタッチパネル52のタッチ操作に応じて、表示部50に表示中のライブビュー画像又は動画の再生速度(単位時間あたりに表示するフレーム数)を変更する制御を行う。   In addition, the display control unit 71 performs control to change the display state of the live view image or the moving image according to the touch operation of the touch panel 52 by the user. Specifically, the display control unit 71 changes the playback speed (the number of frames to be displayed per unit time) of the live view image or video being displayed on the display unit 50 in accordance with the touch operation of the touch panel 52 by the user. Control.

選択部72は、画像処理部30から出力される被写体のサイズ及び位置を示す位置データに基づいて画像データ中の被写体のサイズ及び位置を認識する。また、選択部72は、編集対象の被写体が所定時間内に所定量移動したか否かに基づいて、第1編集部32に画像データの編集処理を実行させるか、第2編集部33に画像データの編集処理を実行させるかを選択する。そして、選択部72は、選択した編集部(第1編集部32又は第2編集部33)に画像データの編集処理を実行させることを指示する指示信号を画像処理部30に出力する。   The selection unit 72 recognizes the size and position of the subject in the image data based on the position data indicating the size and position of the subject output from the image processing unit 30. In addition, the selection unit 72 causes the first editing unit 32 to execute image data editing processing based on whether the subject to be edited has moved a predetermined amount within a predetermined time, or causes the second editing unit 33 to perform image processing. Select whether to execute the data editing process. Then, the selection unit 72 outputs to the image processing unit 30 an instruction signal that instructs the selected editing unit (the first editing unit 32 or the second editing unit 33) to execute an image data editing process.

撮像制御部73は、撮像素子20の撮像面(画素領域200)において所定の撮像条件(露光時間、フレームレート、ゲインなど)で撮像を行わせるために、所定の撮像条件を指示する指示信号を駆動部21に対して出力する。また、撮像制御部73は、使用者によるタッチパネル52のタッチ操作に応じて、RAWデータに基づいて生成される画像データの合焦位置及び被写界深度を指示する指示信号を画像処理部30に出力する。また、撮像制御部73は、画像処理部30に所定の制御パラメータ(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)で画像処理を実行させるために、制御パラメータを指示する指示信号を画像処理部30に出力する。また、撮像制御部73は、画像生成部31で生成された画像データを記録部60に記録させる制御を行う。   The imaging control unit 73 provides an instruction signal for instructing predetermined imaging conditions in order to perform imaging with predetermined imaging conditions (exposure time, frame rate, gain, etc.) on the imaging surface (pixel region 200) of the image sensor 20. Output to the drive unit 21. In addition, the imaging control unit 73 sends an instruction signal instructing the focus position and depth of field of the image data generated based on the RAW data to the image processing unit 30 in response to a touch operation on the touch panel 52 by the user. Output. Further, the imaging control unit 73 instructs a control parameter to cause the image processing unit 30 to execute image processing with predetermined control parameters (control parameters such as color signal processing, white balance adjustment, gradation adjustment, and compression rate). The instruction signal is output to the image processing unit 30. In addition, the imaging control unit 73 performs control for causing the recording unit 60 to record the image data generated by the image generation unit 31.

システム制御部70は、上記の制御の他に、撮影光学系11に備えられた開口絞りの開口径調節などの制御も行う。   In addition to the above control, the system control unit 70 also performs control such as adjustment of the aperture diameter of the aperture stop provided in the photographing optical system 11.

なお、システム制御部70において、表示制御部71、選択部72、及び撮像制御部73は、それぞれ、CPUが制御プログラム(図示せず)に基づいて実行する処理及び制御に相当する。   In the system control unit 70, the display control unit 71, the selection unit 72, and the imaging control unit 73 correspond to processing and control executed by the CPU based on a control program (not shown), respectively.

次に、画像処理部30が実行する画像処理について説明する。図5は、第1実施形態の画像処理部30が実行する画像処理を説明するためのフローチャートである。図5に示す処理において、画像生成部31は、撮像部10から出力されるRAWデータを取得する(ステップS1)。そして、画像生成部31は、取得したRAWデータに基づいて所定の合焦位置(焦点距離、焦点位置)の画像データを生成する(ステップS2)。   Next, image processing executed by the image processing unit 30 will be described. FIG. 5 is a flowchart for explaining image processing executed by the image processing unit 30 according to the first embodiment. In the processing shown in FIG. 5, the image generation unit 31 acquires RAW data output from the imaging unit 10 (step S1). Then, the image generation unit 31 generates image data of a predetermined in-focus position (focal length, focal position) based on the acquired RAW data (Step S2).

具体的には、上述したように、画像生成部31は、画素領域200における各入射領域に対して同じ位置にある画素の画素値を抽出し、抽出した画素値を再構成して複数個の再構成画像データ群を生成する。そして、画像生成部31は、複数個の再構成画像データ群を所定の合焦位置に合わせて平行移動させ、平行移動後の複数個の再構成画像データ群を加算平均する。これにより、所定の合焦位置に設定された画像データが生成される。ステップS2において、画像生成部31は、合焦位置が異なる複数の画像データを生成する。また、ステップS2で生成される画像データは、静止画、動画、ライブビュー画像の画像データが含まれる。   Specifically, as described above, the image generation unit 31 extracts pixel values of pixels at the same position with respect to each incident region in the pixel region 200, and reconstructs the extracted pixel values to generate a plurality of pixels. A reconstructed image data group is generated. Then, the image generating unit 31 translates the plurality of reconstructed image data groups according to a predetermined focus position, and adds and averages the plurality of reconstructed image data groups after the parallel movement. As a result, image data set at a predetermined in-focus position is generated. In step S2, the image generation unit 31 generates a plurality of image data having different in-focus positions. The image data generated in step S2 includes still image data, moving image data, and live view image data.

図6は、ライトフィールドカメラ1と各被写体O1〜O4との距離関係を示す図である。図6に示す例では、ライトフィールドカメラ1はカメラ位置d0に位置している。また、被写体である人物O1は合焦位置d1に位置している。また、被写体である車O2は合焦位置d2に位置し、被写体である家O3は合焦位置d3に位置し、被写体である木O4は合焦位置d4に位置している。なお、図6において、ライトフィールドカメラ1から被写体O1〜O4に向かう方向を奥側の方向といい、その反対側の方向を手前側の方向をいう。また、奥側の方向及び手前側の方向を奥行き方向という。画像生成部31は、ステップS2において、例えば各合焦位置d1〜d4における5つの画像データを生成する。   FIG. 6 is a diagram illustrating a distance relationship between the light field camera 1 and each of the subjects O1 to O4. In the example shown in FIG. 6, the light field camera 1 is located at the camera position d0. In addition, the person O1 who is the subject is located at the in-focus position d1. The subject vehicle O2 is located at the in-focus position d2, the subject house O3 is located at the in-focus position d3, and the subject tree O4 is located at the in-focus position d4. In FIG. 6, the direction from the light field camera 1 toward the subjects O1 to O4 is referred to as the back side direction, and the opposite direction is referred to as the near side direction. The direction on the back side and the direction on the near side are referred to as the depth direction. In step S2, the image generation unit 31 generates, for example, five image data at each of the in-focus positions d1 to d4.

図5の説明に戻り、画像生成部31は、ステップS2で生成された合焦位置d1〜d4が異なる4つの画像データに対して、色信号処理(色調補正)、ホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの各種画像処理を実行する(ステップS3)。   Returning to the description of FIG. 5, the image generation unit 31 performs color signal processing (tone correction), white balance adjustment, sharpness adjustment, and four image data having different focus positions d1 to d4 generated in step S2. Various image processes such as gamma correction and gradation adjustment are executed (step S3).

次に、画像生成部31は、画像生成部31で生成された画像データから被写体O1〜O4を検出する(ステップS4)。画像生成部31は、検出した被写体O1〜O4のサイズ及び位置を示す位置データをシステム制御部70に出力する。   Next, the image generation unit 31 detects the subjects O1 to O4 from the image data generated by the image generation unit 31 (step S4). The image generation unit 31 outputs position data indicating the detected sizes and positions of the subjects O1 to O4 to the system control unit 70.

また、画像生成部31は、ステップS4で検出した各被写体O1〜O4までの距離(焦点距離)を検出(算出)する(ステップS5)。例えば、画像生成部31は、複数の再構成画像データ(例えば入射領域における2つの特定位置の画素の画素値から構成される再構成画像データ)における各被写体O1〜O4の視差を検出し、検出した視差に基づいて各被写体O1〜O4までの距離を算出する。このとき、画像生成部31は、人物O1までの距離をd1、車O2までの距離をd2、家O3までの距離をd3、木O4までの距離をd4と算出する。画像生成部31は、検出した各被写体O1〜O4までの距離を示す距離データをシステム制御部70に出力する。   In addition, the image generation unit 31 detects (calculates) the distance (focal length) to each of the subjects O1 to O4 detected in step S4 (step S5). For example, the image generation unit 31 detects and detects the parallax of each of the subjects O1 to O4 in a plurality of reconstructed image data (for example, reconstructed image data composed of pixel values of pixels at two specific positions in the incident region). Based on the parallax, the distances to the subjects O1 to O4 are calculated. At this time, the image generation unit 31 calculates the distance to the person O1 as d1, the distance to the car O2 as d2, the distance to the house O3 as d3, and the distance to the tree O4 as d4. The image generation unit 31 outputs distance data indicating the distances to the detected subjects O1 to O4 to the system control unit 70.

その後、画像生成部31は、システム制御部70からの被写体の編集要求があった場合(図7のステップS18及びステップS19参照)に、編集要求された被写体の画像データを編集する(ステップS6)。画像生成部31により編集された画像データを編集画像データという。   Thereafter, when there is a subject editing request from the system control unit 70 (see step S18 and step S19 in FIG. 7), the image generation unit 31 edits the image data of the subject requested to be edited (step S6). . The image data edited by the image generation unit 31 is referred to as edited image data.

次に、第1実施形態に係るライトフィールドカメラ1の撮影動作について説明する。図7は、第1実施形態のシステム制御部70が実行する撮影動作を説明するためのフローチャートである。   Next, the photographing operation of the light field camera 1 according to the first embodiment will be described. FIG. 7 is a flowchart for explaining a photographing operation executed by the system control unit 70 of the first embodiment.

図7に示す処理において、ライトフィールドカメラ1に電源が投入された後、使用者が撮影を開始するために操作部55などの操作を行うと、撮像制御部73は、ライブビュー画像の撮影を開始する(ステップS11)。すなわち、撮像制御部73は、駆動部21に対して指示信号を出力することにより撮像素子20の駆動制御を実行させる。また、表示制御部71は、撮像素子20で撮像されたライブビュー画像を表示部50の表示画面51に表示する(ステップS12)。   In the processing shown in FIG. 7, after the light field camera 1 is turned on, when the user operates the operation unit 55 or the like to start shooting, the imaging control unit 73 captures a live view image. Start (step S11). In other words, the imaging control unit 73 executes drive control of the imaging element 20 by outputting an instruction signal to the driving unit 21. The display control unit 71 displays the live view image captured by the image sensor 20 on the display screen 51 of the display unit 50 (step S12).

図8は、表示部50の表示画面51に表示されるライブビュー画像500の表示例を示す図である。図8(A)及び(B)に示すライブビュー画像500は、図6に示したライトフィールドカメラ1と各被写体O1,O3,O4との距離関係において、ライトフィールドカメラ1が各被写体O1,O3,O4を撮影した場合のライブビュー画像である。なお、図8(A)及び(B)に示すライブビュー画像500では、車O2は表示されていない。ここで、ライブビュー画像500の画像データは、例えば、合焦位置d1,d3,d4が異なる複数の画像データのうちの人物O3に合焦した画像データ(すなわち、中間位置である合焦位置d3における画像データ)とする。なお、ライブビュー画像500の画像データは、すべての被写体O1,O3,O4に合焦した画像データであってもよい。例えば、ライブビュー画像500の画像データは、画像生成部31がすべての合焦位置d1,d3,d4における画像データから各被写体O1,O3,O4の画像データを抽出して合成した画像データであってもよい。   FIG. 8 is a diagram illustrating a display example of the live view image 500 displayed on the display screen 51 of the display unit 50. The live view images 500 shown in FIGS. 8A and 8B are based on the distance relationship between the light field camera 1 and the subjects O1, O3, and O4 shown in FIG. , O4 is a live view image. In the live view image 500 shown in FIGS. 8A and 8B, the car O2 is not displayed. Here, the image data of the live view image 500 is, for example, image data focused on the person O3 among a plurality of pieces of image data having different focus positions d1, d3, and d4 (that is, a focus position d3 that is an intermediate position). Image data). Note that the image data of the live view image 500 may be image data focused on all the subjects O1, O3, and O4. For example, the image data of the live view image 500 is image data obtained by the image generation unit 31 extracting and synthesizing the image data of the subjects O1, O3, and O4 from the image data at all in-focus positions d1, d3, and d4. May be.

図8(A)及び(B)に示す例では、ライブビュー画像500においては、人物O1が左側の下方に表示されている。また、家O3が左側の下方に表示され、木O4が右側に表示されている。   In the example shown in FIGS. 8A and 8B, in the live view image 500, the person O1 is displayed on the lower left side. House O3 is displayed on the lower left side, and tree O4 is displayed on the right side.

上記したように、画像生成部31により生成される再構成画像データ群は、被写体O1〜O4に対して視差を有する。視差は、ライトフィールドカメラ1に近い被写体ほど大きく、ライトフィールドカメラ1に遠い被写体ほど小さくなる。従って、人物O1に対する視差が最も大きく、木O4に対する視差が最も小さい。図8(A)においては、人物O1における視差も示している。ある再構成画像データにおける人物O1’の位置と、他の再構成画像データにおける人物O1”の位置とが視差によって異なっている。なお、図8(A)には示していないが、家O3及び木O4についても、複数の再構成画像データ間において視差を有する。また、図8(B)においては、人物O1が右側に移動している状態を示している。   As described above, the reconstructed image data group generated by the image generation unit 31 has parallax with respect to the subjects O1 to O4. The parallax increases as the subject is closer to the light field camera 1 and decreases as the subject is farther from the light field camera 1. Therefore, the parallax with respect to the person O1 is the largest and the parallax with respect to the tree O4 is the smallest. In FIG. 8A, the parallax in the person O1 is also shown. The position of the person O1 ′ in some reconstructed image data and the position of the person O1 ″ in other reconstructed image data differ depending on the parallax. Although not shown in FIG. The tree O4 also has parallax between the plurality of reconstructed image data, and Fig. 8B shows a state where the person O1 is moving to the right side.

次に、選択部72は、ライブビュー画像501に含まれる被写体O1,O3,O4を認識する(ステップS13)。具体的には、選択部72は、画像処理部30に対して被写体の検出を要求する。画像生成部31は、システム制御部70から被写体の検出の要求を受けると、ライブビュー画像500に含まれる各被写体O1,O3,O4を検出する(図5のステップS4参照)。そして、画像生成部31は、検出した各被写体O1,O3,O4のサイズ及び位置を画素単位で示す位置データをシステム制御部70に出力する。また、画像生成部31は、各被写体O1〜O5までの距離を検出する(図5のステップS5参照)。そして、画像生成部31は、検出した各被写体O1、O3,O4までの距離を示す距離データをシステム制御部70に出力する。選択部72は、画像処理部30からの位置データに基づいて各被写体O1,O3,O4のサイズ及び位置を認識する。また、選択部72は、画像処理部30からの距離データに基づいて各被写体O1,O3,O4までの距離を認識する。   Next, the selection unit 72 recognizes the subjects O1, O3, and O4 included in the live view image 501 (step S13). Specifically, the selection unit 72 requests the image processing unit 30 to detect the subject. When receiving a request for detecting a subject from the system control unit 70, the image generation unit 31 detects each of the subjects O1, O3, and O4 included in the live view image 500 (see step S4 in FIG. 5). Then, the image generation unit 31 outputs position data indicating the detected size and position of each of the subjects O1, O3, and O4 in units of pixels to the system control unit 70. Further, the image generation unit 31 detects the distances to the subjects O1 to O5 (see step S5 in FIG. 5). Then, the image generation unit 31 outputs distance data indicating the distances to the detected subjects O1, O3, and O4 to the system control unit 70. The selection unit 72 recognizes the size and position of each of the subjects O1, O3, and O4 based on the position data from the image processing unit 30. The selection unit 72 recognizes the distances to the subjects O1, O3, and O4 based on the distance data from the image processing unit 30.

次に、選択部72は、使用者によるタッチパネル52のタッチ操作によって編集対象の被写体が選択されたか否かを判定する(ステップS14)。例えば、使用者は、図8(A)に示す人物O1を選択する場合は、表示画面51に表示されている人物O1をタッチする。表示画面51上に形成されているタッチパネル52は、使用者によりタッチされた人物O1の位置を示す信号をシステム制御部70に出力する。選択部72は、タッチパネル52から出力される信号に基づいて、使用者により被写体が選択されたか否かを判定する。また、選択部72は、使用者により被写体が選択されたと判定した場合に、タッチパネル52からの信号が示す位置とステップS13で認識した被写体の位置とに基づいて、いずれの被写体が選択されたかについても判定する。なお、選択部72が使用者により被写体が選択されていないと判定した場合は(ステップS14のNO)、処理を終了する。   Next, the selection unit 72 determines whether or not the subject to be edited has been selected by the touch operation of the touch panel 52 by the user (step S14). For example, when the user selects the person O1 shown in FIG. 8A, the user touches the person O1 displayed on the display screen 51. The touch panel 52 formed on the display screen 51 outputs a signal indicating the position of the person O1 touched by the user to the system control unit 70. The selection unit 72 determines whether a subject has been selected by the user based on a signal output from the touch panel 52. Further, when the selection unit 72 determines that the subject has been selected by the user, which subject has been selected based on the position indicated by the signal from the touch panel 52 and the position of the subject recognized in step S13. Also judge. If the selection unit 72 determines that the subject has not been selected by the user (NO in step S14), the process ends.

選択部72は、ステップS14で使用者により編集対象の被写体が選択されたと判定した場合は(ステップS14のYES)、ライブビュー画像の画像データを第1保存データとしてワークメモリ40に所定期間記憶させる(ステップS15)。なお、ワークメモリ40は、画像データを一時的に記憶するバッファとしての役割を果たす記憶部であるので、使用者により被写体が選択されていない場合においても、ライブビュー画像の画像データを所定期間記憶してもよい。すなわち、ワークメモリ40は、常時、ライブビュー画像の画像データを所定期間記憶してもよい。   If the selection unit 72 determines in step S14 that the subject to be edited has been selected by the user (YES in step S14), the selection unit 72 stores the image data of the live view image in the work memory 40 as first storage data for a predetermined period. (Step S15). The work memory 40 is a storage unit that serves as a buffer for temporarily storing image data. Therefore, even when no subject is selected by the user, the image data of the live view image is stored for a predetermined period. May be. That is, the work memory 40 may always store the image data of the live view image for a predetermined period.

次に、選択部72は、ワークメモリ40が画像データを記憶する所定時間内において、編集対象の被写体(人物O1)が閾値(基準量)以上の距離を移動したか否かを判定する(ステップS17)。ここで、閾値は、編集対象の被写体が移動する前の被写体の領域と移動した後の被写体の領域とが重複しないような被写体の移動距離である。この閾値は、編集対象の被写体のサイズによって変更され得る値である。選択部72は、所定時間内において、編集対象の被写体が閾値以上の距離を移動したと判定した場合は、編集対象の被写体の領域の画像データをワークメモリ40に記憶されている画像データに基づいて補完可能であると判定する。一方、選択部72は、所定時間内において、編集対象の被写体が閾値以上の距離を移動していないと判定した場合は、編集対象の被写体の領域の画像データをワークメモリ40に記憶されている画像データに基づいて補完可能でないと判定する。   Next, the selection unit 72 determines whether or not the subject to be edited (person O1) has moved a distance equal to or greater than a threshold value (reference amount) within a predetermined time in which the work memory 40 stores the image data (Step S72). S17). Here, the threshold is a movement distance of the subject such that the subject area before the subject to be edited does not overlap with the subject area after the subject movement. This threshold is a value that can be changed depending on the size of the subject to be edited. When the selection unit 72 determines that the subject to be edited has moved a distance equal to or greater than the threshold within a predetermined time, the selection unit 72 uses the image data of the region of the subject to be edited based on the image data stored in the work memory 40. It is determined that it can be complemented. On the other hand, if the selection unit 72 determines that the subject to be edited has not moved a distance greater than or equal to the threshold within a predetermined time, the image data of the region of the subject to be edited is stored in the work memory 40. It is determined that complementation is not possible based on the image data.

選択部72は、編集対象の被写体が閾値以上の距離を移動していないと判定した場合は(ステップS17のNO)、第1編集部32に編集画像データを生成させるために、画像処理部30に対してライブビュー画像の画像データの編集処理を実行させることを指示する指示信号を画像処理部30に出力する(ステップS18)。なお、このとき、選択部72は、使用者の操作部55などの操作によって画像データの編集内容(削除又は向きの変更)が選択された場合は、編集内容を指示する指示信号を画像処理部30に対して出力してもよい。   If the selection unit 72 determines that the subject to be edited has not moved a distance equal to or greater than the threshold (NO in step S17), the image processing unit 30 causes the first editing unit 32 to generate edited image data. An instruction signal for instructing the image processing unit 30 to execute the editing processing of the image data of the live view image is output to the image processing unit 30 (step S18). At this time, when the editing content (deletion or change of orientation) of the image data is selected by the user's operation of the operation unit 55 or the like, the selection unit 72 sends an instruction signal instructing the editing content to the image processing unit. 30 may be output.

第1編集部32は、システム制御部70からの指示信号に応じて、視差を有する複数の再構成画像データを用いて、ライブビュー画像における編集対象の被写体の画像データを編集する処理(すなわち、被写体を削除する処理又は被写体の向きを変更する処理)を行う。また、第1編集部32は、編集対象の被写体の画像データを削除する処理を行った場合は、視差を有する複数の再構成画像データを用いて、削除した被写体の領域の画像データを補完する処理を行う。このような第1編集部32により編集処理が行われることにより、編集対象の被写体が削除され又は編集対象の被写体の向きが変更された編集画像データが生成される。   In response to the instruction signal from the system control unit 70, the first editing unit 32 uses the plurality of reconstructed image data having parallax to edit the image data of the subject to be edited in the live view image (that is, the first editing unit 32). A process for deleting the subject or a process for changing the direction of the subject is performed. In addition, when the first editing unit 32 performs the process of deleting the image data of the subject to be edited, the first editing unit 32 complements the image data of the deleted subject region using a plurality of reconstructed image data having parallax. Process. By performing the editing process by the first editing unit 32 as described above, edited image data in which the subject to be edited is deleted or the direction of the subject to be edited is changed is generated.

選択部72は、編集対象の被写体が閾値以上の距離を移動していると判定した場合は(ステップS17のYES)、第2編集部33に編集画像データを生成させるために、画像処理部30に対してライブビュー画像の画像データの編集処理を実行させることを指示する指示信号を画像処理部30に出力する(ステップS19)。なお、このときも、選択部72は、使用者の操作部55などの操作によって画像データの編集内容(削除又は向きの変更)が選択された場合は、編集内容を指示する指示信号を画像処理部30に対して出力してもよい。   If the selection unit 72 determines that the subject to be edited has moved a distance equal to or greater than the threshold (YES in step S17), the image processing unit 30 causes the second editing unit 33 to generate edited image data. An instruction signal for instructing execution of image data editing processing of the live view image is output to the image processing unit 30 (step S19). Also at this time, when the editing content (deletion or change of orientation) of the image data is selected by the user's operation of the operation unit 55 or the like, the selection unit 72 outputs an instruction signal for instructing the editing content. You may output with respect to the part 30.

第2編集部33は、システム制御部70からの指示信号に応じて、ワークメモリ40に所定時間記憶されているライブビュー画像の画像データを用いて、ライブビュー画像における編集対象の被写体の画像データを編集する処理(すなわち、被写体を削除する処理又は被写体の向きを変更する処理)を行う。また、第2編集部33は、編集対象の被写体の画像データを削除する処理を行った場合は、ワークメモリ40に所定時間記憶されているライブビュー画像の画像データを用いて、削除した被写体の領域の画像データを補完する処理を行う。このような第2編集部33により編集処理が行われることにより、編集対象の被写体が削除され又は編集対象の被写体の向きが変更された編集画像データが生成される。   The second editing unit 33 uses the image data of the live view image stored in the work memory 40 for a predetermined time in response to the instruction signal from the system control unit 70, and the image data of the subject to be edited in the live view image. (I.e., a process for deleting a subject or a process for changing the direction of a subject). In addition, when the second editing unit 33 performs the process of deleting the image data of the subject to be edited, the second editing unit 33 uses the image data of the live view image stored in the work memory 40 for a predetermined time to determine the deleted subject. A process for complementing the image data of the region is performed. When the editing process is performed by the second editing unit 33, edited image data in which the subject to be edited is deleted or the orientation of the subject to be edited is changed is generated.

表示制御部71は、第1編集部32又は第2編集部33において生成された編集画像データを表示部50に出力させて、編集画像(編集対象の被写体が削除された画像又は編集対象の被写体の向きが変更された画像)を表示部50の表示画面51に表示させる(ステップS20)。また、撮像制御部73は、第1編集部32又は第2編集部33において生成された編集画像データを記録部60に出力させて、編集画像データを第2保存データとして記録部60に記録(保存)させる(ステップS21)。   The display control unit 71 causes the display unit 50 to output the edited image data generated by the first editing unit 32 or the second editing unit 33, so that the edited image (an image in which the editing target subject is deleted or the editing target subject) is output. Is displayed on the display screen 51 of the display unit 50 (step S20). In addition, the imaging control unit 73 outputs the edited image data generated in the first editing unit 32 or the second editing unit 33 to the recording unit 60, and records the edited image data in the recording unit 60 as second saved data ( (Save) (step S21).

なお、図7で説明した処理においては、システム制御部70は、ライブビュー画像中の所定被写体の画像データを画像処理部30(第1編集部32又は第2編集部33)に編集させていたが、動画中の所定被写体の画像データを画像処理部30(第1編集部32又は第2編集部33)に編集させてもよい。具体的には、選択部72は、ステップS14で使用者により編集対象の被写体が選択されたと判定した場合は(ステップS14のYES)、動画の撮影を開始させる。そして、選択部72は、動画の画像データを第1保存データとしてワークメモリ40に所定期間記憶させる(ステップS15参照)。   In the process described with reference to FIG. 7, the system control unit 70 causes the image processing unit 30 (the first editing unit 32 or the second editing unit 33) to edit the image data of the predetermined subject in the live view image. However, the image processing unit 30 (the first editing unit 32 or the second editing unit 33) may edit the image data of the predetermined subject in the moving image. Specifically, when the selection unit 72 determines in step S14 that the subject to be edited has been selected by the user (YES in step S14), the selection unit 72 starts shooting a moving image. Then, the selection unit 72 stores the moving image data as first storage data in the work memory 40 for a predetermined period (see step S15).

次に、選択部72は、ワークメモリ40が画像データを記憶する所定時間内において、編集対象の被写体が閾値(基準量)以上の距離を移動したか否かを判定する(ステップS17参照)。選択部72は、編集対象の被写体が閾値以上の距離を移動していないと判定した場合は、第1編集部32に編集画像データを生成させるために、画像処理部30に対して動画の画像データの編集処理を実行させることを指示する指示信号を画像処理部30に出力する(ステップS18参照)。第1編集部32は、システム制御部70からの指示信号に応じて、視差を有する複数の再構成画像データを用いて、動画における編集対象の被写体の画像データを編集する処理(すなわち、被写体を削除する処理又は被写体の向きを変更する処理)を行う。   Next, the selection unit 72 determines whether or not the subject to be edited has moved a distance equal to or greater than a threshold (reference amount) within a predetermined time when the work memory 40 stores the image data (see step S17). If the selection unit 72 determines that the subject to be edited has not moved a distance equal to or greater than the threshold value, the selection unit 72 causes the image processing unit 30 to generate a moving image image in order to cause the first editing unit 32 to generate edited image data. An instruction signal instructing execution of the data editing process is output to the image processing unit 30 (see step S18). In response to an instruction signal from the system control unit 70, the first editing unit 32 uses a plurality of reconstructed image data having parallax to edit image data of a subject to be edited in a moving image (that is, the subject is selected). A process of deleting or a process of changing the direction of the subject).

選択部72は、編集対象の被写体が閾値以上の距離を移動していると判定した場合は、第2編集部33に編集画像データを生成させるために、画像処理部30に対して動画の画像データの編集処理を実行させることを指示する指示信号を画像処理部30に出力する(ステップS19参照)。第2編集部33は、システム制御部70からの指示信号に応じて、ワークメモリ40に所定時間記憶されている動画の画像データを用いて、動画における編集対象の被写体の画像データを編集する処理(すなわち、被写体を削除する処理又は被写体の向きを変更する処理)を行う。   When the selection unit 72 determines that the subject to be edited has moved a distance equal to or greater than the threshold value, the selection unit 72 causes the image processing unit 30 to generate a moving image image in order to cause the second editing unit 33 to generate edited image data. An instruction signal instructing execution of the data editing process is output to the image processing unit 30 (see step S19). The second editing unit 33 uses the moving image data stored in the work memory 40 for a predetermined time in accordance with an instruction signal from the system control unit 70 to edit the image data of the subject to be edited in the moving image. (In other words, a process for deleting the subject or a process for changing the direction of the subject).

表示制御部71は、第1編集部32又は第2編集部33において生成された編集画像データを表示部50に出力させて、編集画像(編集対象の被写体が削除された画像又は編集対象の被写体の向きが変更された画像)を表示部50の表示画面51に表示させる(ステップS20参照)。また、撮像制御部73は、第1編集部32又は第2編集部33において生成された編集画像データを記録部60に出力させて、編集画像データを第2保存データとして記録部60に記録(保存)させる(ステップS21参照)。   The display control unit 71 causes the display unit 50 to output the edited image data generated by the first editing unit 32 or the second editing unit 33, so that the edited image (an image in which the editing target subject is deleted or the editing target subject) is output. Is displayed on the display screen 51 of the display unit 50 (see step S20). In addition, the imaging control unit 73 outputs the edited image data generated in the first editing unit 32 or the second editing unit 33 to the recording unit 60, and records the edited image data in the recording unit 60 as second saved data ( (Save) (see step S21).

さらに、図7で説明した処理においては、システム制御部70は、ライブビュー画像中又は動画中の所定被写体の画像データを画像処理部30(第1編集部32又は第2編集部33)に編集させていたが、連続して撮影された複数の静止画中の所定被写体の画像データを画像処理部30(第1編集部32又は第2編集部33)に編集させてもよい。この場合、選択部72は、ステップS14で使用者により編集対象の被写体が選択されたと判定した場合は(ステップS14のYES)、静止画の連続撮影(連写)を開始させる。そして、選択部72は、複数の静止画の画像データを第1保存データとしてワークメモリ40に所定期間記憶させる(ステップS15参照)。   Further, in the processing described with reference to FIG. 7, the system control unit 70 edits image data of a predetermined subject in the live view image or moving image to the image processing unit 30 (the first editing unit 32 or the second editing unit 33). However, the image processing unit 30 (the first editing unit 32 or the second editing unit 33) may edit image data of a predetermined subject in a plurality of still images taken continuously. In this case, when it is determined in step S14 that the subject to be edited is selected by the user (YES in step S14), the selection unit 72 starts continuous shooting (continuous shooting) of still images. Then, the selection unit 72 stores the image data of a plurality of still images in the work memory 40 as first saved data for a predetermined period (see step S15).

そして、選択部72は、ワークメモリ40が画像データを記憶する所定時間内において、編集対象の被写体が閾値(基準量)以上の距離を移動していないと判定した場合は(ステップS17のNO参照)、第1編集部32に編集画像データを生成させるために、画像処理部30に対して静止画の画像データの編集処理を実行させることを指示する指示信号を画像処理部30に出力する(ステップS18参照)。第1編集部32は、システム制御部70からの指示信号に応じて、視差を有する複数の再構成画像データを用いて、静止画における編集対象の被写体の画像データを編集する処理(すなわち、被写体を削除する処理又は被写体の向きを変更する処理)を行う。   If the selection unit 72 determines that the subject to be edited has not moved a distance equal to or greater than the threshold (reference amount) within a predetermined time when the work memory 40 stores the image data (see NO in step S17). ) In order to cause the first editing unit 32 to generate the edited image data, an instruction signal instructing the image processing unit 30 to execute the editing processing of the image data of the still image is output to the image processing unit 30 ( (See step S18). In response to an instruction signal from the system control unit 70, the first editing unit 32 uses a plurality of reconstructed image data having parallax to edit image data of a subject to be edited in a still image (ie, subject Or a process of changing the direction of the subject).

選択部72は、編集対象の被写体が閾値以上の距離を移動していると判定した場合は(ステップS17のYES参照)、第2編集部33に編集画像データを生成させるために、画像処理部30に対して動画の画像データの編集処理を実行させることを指示する指示信号を画像処理部30に出力する(ステップS19参照)。第2編集部33は、システム制御部70からの指示信号に応じて、ワークメモリ40に所定時間記憶されている複数の静止画の画像データを用いて、静止画における編集対象の被写体の画像データを編集する処理(すなわち、被写体を削除する処理又は被写体の向きを変更する処理)を行う。   If the selection unit 72 determines that the subject to be edited has moved a distance equal to or greater than the threshold (see YES in step S17), the selection unit 72 causes the second editing unit 33 to generate edited image data. An instruction signal for instructing the image processing unit 30 to execute editing processing of moving image data is output to the image processing unit 30 (see step S19). The second editing unit 33 uses the image data of a plurality of still images stored in the work memory 40 for a predetermined time in response to an instruction signal from the system control unit 70, and image data of the subject to be edited in the still image. (I.e., a process for deleting a subject or a process for changing the direction of a subject).

表示制御部71は、第1編集部32又は第2編集部33において生成された編集画像データを表示部50に出力させて、編集画像(編集対象の被写体が削除された画像又は編集対象の被写体の向きが変更された画像)を表示部50の表示画面51に表示させる(ステップS20参照)。また、撮像制御部73は、第1編集部32又は第2編集部33において生成された編集画像データを記録部60に出力させて、編集画像データを第2保存データとして記録部60に記録(保存)させる(ステップS21参照)。   The display control unit 71 causes the display unit 50 to output the edited image data generated by the first editing unit 32 or the second editing unit 33, so that the edited image (an image in which the editing target subject is deleted or the editing target subject) is output. Is displayed on the display screen 51 of the display unit 50 (see step S20). In addition, the imaging control unit 73 outputs the edited image data generated in the first editing unit 32 or the second editing unit 33 to the recording unit 60, and records the edited image data in the recording unit 60 as second saved data ( (Save) (see step S21).

次に、動画の表示(再生)中において動画の合焦位置や被写界深度を変更する処理について説明する。図9は、第1実施形態のシステム制御部70が実行する動画再生処理を説明するためのフローチャートである。また、図10は、第1実施形態の動画再生中の第1表示例を示す図である。また、図11は、第1実施形態の動画再生中の第2表示例を示す図である。また、図12は、第1実施形態の動画再生中の第3表示例を示す図である。   Next, processing for changing the in-focus position and the depth of field during moving image display (reproduction) will be described. FIG. 9 is a flowchart for explaining the moving image reproduction process executed by the system control unit 70 of the first embodiment. FIG. 10 is a diagram illustrating a first display example during moving image reproduction according to the first embodiment. FIG. 11 is a diagram illustrating a second display example during moving image reproduction according to the first embodiment. FIG. 12 is a diagram illustrating a third display example during moving image reproduction according to the first embodiment.

図9に示す処理において、表示制御部71は、使用者による操作部55などの操作に応じて、撮像部10により撮影中の動画(つまり、画像処理部30により生成された直後の動画)又は記録部60に記録されている動画の画像データを表示部50に出力させ、表示部50の表示画面51に表示させる(ステップS31)。   In the processing shown in FIG. 9, the display control unit 71 performs a moving image being shot by the imaging unit 10 (that is, a moving image immediately after being generated by the image processing unit 30) or the like according to an operation of the operation unit 55 or the like by the user. The moving image data recorded in the recording unit 60 is output to the display unit 50 and displayed on the display screen 51 of the display unit 50 (step S31).

使用者は、表示中(再生中)の動画の合焦位置や被写界深度を変更したい場合は、表示部50の表示画面51をタッチする。このときの使用者によるタッチ操作を第1操作という。表示制御部71は、タッチパネル52からの信号に基づき、使用者による画面へのタッチ操作があったか否かを判定する(ステップS32)。なお、表示制御部71は、使用者による画面へのタッチ操作がないと判定した場合は、処理を終了する。   The user touches the display screen 51 of the display unit 50 to change the in-focus position or the depth of field of the moving image being displayed (reproducing). The touch operation by the user at this time is referred to as a first operation. Based on the signal from the touch panel 52, the display control unit 71 determines whether or not there has been a touch operation on the screen by the user (step S32). If the display control unit 71 determines that there is no touch operation on the screen by the user, the display control unit 71 ends the process.

表示制御部71は、使用者による画面へのタッチ操作があったと判定した場合は(ステップS32のYES)、動画の再生速度を遅くしてスローモーション再生を実行させる(ステップS33)。具体的には、表示制御部71は、表示部50において表示中の動画の再生速度を遅くする制御を行う。このとき、表示制御部71は、撮像部10により撮影中の動画をステップS31で再生している場合は、動画のフレームレートに合わせた再生速度に変更する。なお、表示制御部71は、撮像部10により撮影中の動画についてスローモーション再生を実行する場合は、撮影中の動画と表示中の動画とのずれを吸収するために、スローモーション再生が行われている時間、ワークメモリ40又は記録部60に動画を記録する。   If the display control unit 71 determines that the user has touched the screen (YES in step S32), the display control unit 71 slows down the moving image reproduction speed to execute slow motion reproduction (step S33). Specifically, the display control unit 71 performs control to reduce the playback speed of the moving image being displayed on the display unit 50. At this time, when the moving image being shot by the imaging unit 10 is played back in step S31, the display control unit 71 changes the playback speed to match the frame rate of the moving image. In addition, when the display control unit 71 executes the slow motion reproduction for the moving image being shot by the imaging unit 10, the slow motion reproduction is performed in order to absorb the difference between the moving image being shot and the displayed moving image. During this time, the moving image is recorded in the work memory 40 or the recording unit 60.

図10に示す例では、動画501が表示画面51に表示されているときに、使用者が表示画面51(つまりタッチパネル52)をタッチすると(図10(1))、動画502の再生速度が遅くなる(図10(2))。動画502においては、動画501よりも、車O2の移動速度が遅くなっている。   In the example illustrated in FIG. 10, when the user touches the display screen 51 (that is, the touch panel 52) when the moving image 501 is displayed on the display screen 51 (FIG. 10 (1)), the reproduction speed of the moving image 502 is slow. (FIG. 10 (2)). In the moving image 502, the moving speed of the car O2 is slower than that of the moving image 501.

使用者は、表示中(再生中)の動画の合焦位置を変更したい場合は、表示画面51に表示されている被写体のうち、合焦位置を変更したい被写体にタッチする。このときの使用者によるタッチ操作を第2操作という。表示制御部71は、使用者による被写体へのタッチ操作があったか否かを判定する(ステップS34)。   When the user wants to change the in-focus position of the moving image that is being displayed (reproduced), the user touches the subject for which the in-focus position is to be changed among the subjects displayed on the display screen 51. The touch operation by the user at this time is referred to as a second operation. The display control unit 71 determines whether or not the user has touched the subject (step S34).

表示制御部71は、使用者による被写体へのタッチ操作があったと判定した場合は(ステップS34のYES)、そのタッチ操作によって選択された被写体(使用者にタッチされた被写体)に対して合焦(ピントが合う)するように、動画の合焦位置を変更することを指示する指示信号を画像処理部30に出力する(ステップS35)。変更部34は、システム制御部70からの指示信号によって指定された合焦位置に近い合焦位置を持つ複数の画像データを取得する。そして、変更部34は、これらの画像データに適切な加重を加えてから平均化することで、指定された合焦位置の画像データを生成する。そして、変更部34は、生成した画像データを表示部50に出力する。これにより、合焦位置が変更された画像が表示画面51に表示される。   If the display control unit 71 determines that the user has touched the subject (YES in step S34), the display control unit 71 focuses on the subject selected by the touch operation (the subject touched by the user). An instruction signal for instructing to change the in-focus position of the moving image is output to the image processing unit 30 so that the image is in focus (step S35). The changing unit 34 acquires a plurality of image data having a focus position close to the focus position specified by the instruction signal from the system control unit 70. Then, the changing unit 34 applies the appropriate weights to these image data and then averages them to generate image data at the designated in-focus position. Then, the changing unit 34 outputs the generated image data to the display unit 50. As a result, an image whose focus position has been changed is displayed on the display screen 51.

図10に示す例では、使用者が表示画面51に表示されている動画503中の車O2にタッチすると(図10(3))、動画503中の家O3に合焦した表示状態から動画504中の車O2に合焦した表示状態に変更される(図10(4))。また、図11に示す例では、使用者が表示画面51に表示されている動画503中の車O2にタッチすると(図11(3))、動画503中の家O3に合焦した表示状態から動画503A中の車O2に合焦した表示状態に徐々に変更され(図11(3A))、そして、動画504中の車O2に合焦した表示状態になる(図11(4))。なお、図11(1)及び(2)は、図10(1)及び(2)と同様の表示例であるので、その説明を省略する。   In the example shown in FIG. 10, when the user touches the car O2 in the video 503 displayed on the display screen 51 (FIG. 10 (3)), the video 504 is displayed from the display state focused on the house O3 in the video 503. The display state is changed to focus on the car O2 (FIG. 10 (4)). In the example shown in FIG. 11, when the user touches the car O2 in the moving image 503 displayed on the display screen 51 (FIG. 11 (3)), the display state is focused on the house O3 in the moving image 503. The display state is gradually changed to the display state focused on the car O2 in the moving image 503A (FIG. 11 (3A)), and the display state is focused on the car O2 in the moving image 504 (FIG. 11 (4)). 11 (1) and 11 (2) are display examples similar to those in FIGS. 10 (1) and 10 (2), description thereof will be omitted.

使用者は、表示中(再生中)の動画の被写界深度の範囲を変更したい場合は、表示画面51上でピンチアウト操作又はピンチイン操作を行う。ピンチアウト操作は、表示画面51を指でつまむようにした後に指を遠ざける操作である。ピンチイン操作は、表示画面51を指でつまむようにした後に指を近づける操作である。これらの操作も第2操作という。表示制御部71は、使用者によるピンチアウト操作又はピンチイン操作があったか否かを判定する(ステップS36)。なお、本実施形態では、使用者によるピンチアウト操作により被写界深度の範囲が広くなり、使用者によるピンチイン操作により被写界深度の範囲が狭くなる。   The user performs a pinch-out operation or a pinch-in operation on the display screen 51 in order to change the range of the depth of field of the moving image being displayed (playing back). The pinch-out operation is an operation in which the finger is moved away after the display screen 51 is pinched with the finger. The pinch-in operation is an operation in which the finger is brought close after the display screen 51 is pinched with the finger. These operations are also referred to as second operations. The display control unit 71 determines whether a pinch-out operation or a pinch-in operation has been performed by the user (step S36). In this embodiment, the range of the depth of field is widened by a pinch-out operation by the user, and the range of the depth of field is narrowed by a pinch-in operation by the user.

表示制御部71は、使用者によるピンチアウト操作又はピンチイン操作があったと判定した場合は(ステップS36のYES)、これらの操作に対応させて被写界深度の範囲を変更するように、動画の被写界深度を変更することを指示する指示信号を画像処理部30に出力する(ステップS37)。変更部34は、システム制御部70からの指示信号によって指定された被写界深度の範囲となるように、合焦位置の異なる複数の画像データに適切な加重を加えてから平均化することで、指定された被写界深度の範囲の画像データを生成する。そして、変更部34は、生成した画像データを表示部50に出力する。これにより、被写界深度の範囲が変更された画像が表示画面51に表示される。   If the display control unit 71 determines that there has been a pinch-out operation or a pinch-in operation by the user (YES in step S36), the display control unit 71 changes the range of the depth of field so as to correspond to these operations. An instruction signal instructing to change the depth of field is output to the image processing unit 30 (step S37). The changing unit 34 applies an appropriate weight to a plurality of pieces of image data having different in-focus positions so as to be within the range of the depth of field designated by the instruction signal from the system control unit 70, and then averaging. The image data in the range of the designated depth of field is generated. Then, the changing unit 34 outputs the generated image data to the display unit 50. Thereby, an image in which the range of the depth of field is changed is displayed on the display screen 51.

図12に示す例では、使用者が表示画面51上でピンチアウト操作を行うと(図12(3−1)及び(3−2))、動画504中の被写界深度の範囲(例えば、車O2の合焦位置から奥行き方向に前後する範囲)が広くなる(図12(4))。なお、図12(1)及び(2)は、図10(1)及び(2)と同様の表示例であるので、その説明を省略する。   In the example shown in FIG. 12, when the user performs a pinch-out operation on the display screen 51 (FIGS. 12 (3-1) and (3-2)), the range of the depth of field in the moving image 504 (for example, The range extending back and forth in the depth direction from the in-focus position of the vehicle O2 becomes wider (FIG. 12 (4)). 12 (1) and 12 (2) are display examples similar to those shown in FIGS. 10 (1) and 10 (2), and a description thereof will be omitted.

次に、表示制御部71は、合焦位置や被写界深度の変更が終了すると、動画の再生速度を元の再生速度に戻す(ステップS38)。図10(4)、図11(4)、及び図12(4)では、動画504の再生速度が元の再生速度に戻された状態(つまり、車O2の移動速度が元の移動速度に戻された状態)を示している。   Next, when the change of the in-focus position and the depth of field is completed, the display control unit 71 returns the moving image playback speed to the original playback speed (step S38). 10 (4), 11 (4), and 12 (4), the playback speed of the moving image 504 is returned to the original playback speed (that is, the moving speed of the car O2 is returned to the original moving speed). State).

なお、図9で説明した処理においては、システム制御部70は、使用者のタッチ操作に応じて、動画のスローモーション再生、動画の合焦位置の変更、及び動画の被写界深度の変更を行っていた。しかし、システム制御部70は、使用者のタッチ操作に応じて、ライブビュー画像のスローモーション再生、ライブビュー画像の合焦位置の変更、及びライブビュー画像の被写界深度の変更を行うことも可能である。この場合、システム制御部70は、撮影中のライブビュー画像と表示中のライブビュー画像とのずれを吸収するために、スローモーション再生が行われている時間、ワークメモリ40又は記録部60にライブビュー画像を記録する。   In the process described with reference to FIG. 9, the system control unit 70 performs the slow motion playback of the moving image, the change of the in-focus position of the moving image, and the change of the depth of field of the moving image according to the touch operation of the user. I was going. However, the system control unit 70 can also perform slow-motion playback of the live view image, change the in-focus position of the live view image, and change the depth of field of the live view image according to the user's touch operation. Is possible. In this case, the system control unit 70 does not live in the work memory 40 or the recording unit 60 for the time during which slow motion playback is performed in order to absorb the deviation between the live view image being shot and the live view image being displayed. Record the view image.

また、システム制御部70は、使用者のタッチ操作に応じて、静止画の再生(例えばコマ送り再生やスライド再生など)、静止画の合焦位置の変更、及び静止画の被写界深度の変更を行うことも可能である。この場合、システム制御部70は、静止画の再生が行われている時間、ワークメモリ40又は記録部60に連続した複数の静止画を記録する。   The system control unit 70 also plays back a still image (for example, frame-by-frame playback or slide playback), changes the focus position of the still image, and changes the depth of field of the still image according to a user's touch operation. It is also possible to make changes. In this case, the system control unit 70 records a plurality of continuous still images in the work memory 40 or the recording unit 60 for the time during which the still image is being reproduced.

また、システム制御部70は、使用者のタッチ操作に応じて、動画又はライブビュー画像のスローモーション再生を行うことに代えて、動画又はライブビュー画像の一時停止を行ってもよい。また、システム制御部70は、使用者のタッチ操作に応じて、静止画のコマ送り再生やスライド再生などに代えて、静止画の一時停止を行ってもよい。また、システム制御部70は、使用者によるタッチパネル52のタッチ操作に代えて、使用者による操作部55の操作に応じて、スローモーション再生、合焦位置の変更、及び被写界深度の変更を行ってもよい。また、システム制御部70は、合焦位置の変更及び被写界深度のいずれか一方だけの変更を行ってもよい。   Further, the system control unit 70 may pause the moving image or the live view image instead of performing the slow motion reproduction of the moving image or the live view image in response to a user's touch operation. In addition, the system control unit 70 may pause the still image instead of frame-by-frame playback or slide playback of the still image according to a user's touch operation. Further, the system control unit 70 performs slow motion reproduction, change of the focus position, and change of the depth of field according to the operation of the operation unit 55 by the user instead of the touch operation of the touch panel 52 by the user. You may go. Further, the system control unit 70 may change only one of the change of the focus position and the depth of field.

以上に説明したように、第1実施形態では、使用者が操作可能な操作部52(又は操作部55)と、画像(ライブビュー画像、動画、又は静止画)を表示部50に表示させ、使用者による操作部52の第1操作に応じて画像の表示状態を変更する表示制御部71と、画像の表示中に使用者による操作部52の第2操作に応じて画像の合焦位置と被写界深度との少なくともいずれか一方を変更する変更部34とを備える。このような構成によれば、電子機器であるライトフィールドカメラ1の操作性が向上する。すなわち、特許文献1に記載された電子機器では、静止画の合焦位置を変更していたが、第1実施形態のライトフィールドカメラ1では、画像の合焦位置と被写界深度との少なくともいずれか一方を変更することができる。また、特許文献1に記載された電子機器では、使用者がスクロールバーを動かすことで画像の合焦位置を変更していたが、このような操作方法の場合、ライブビュー画像や動画の合焦位置などの変更には不適切である。これに対して、第1実施形態のライトフィールドカメラ1では、使用者によるタッチパネル52のタッチ操作によってライブビュー画像や動画の合焦位置などを変更しているので、簡単な操作で所定の被写体の合焦位置の変更などを行うことができる。   As described above, in the first embodiment, the operation unit 52 (or the operation unit 55) that can be operated by the user and the image (live view image, moving image, or still image) are displayed on the display unit 50, A display control unit 71 that changes the display state of the image according to the first operation of the operation unit 52 by the user, and an in-focus position of the image according to the second operation of the operation unit 52 by the user during image display. And a changing unit 34 that changes at least one of the depth of field. According to such a configuration, the operability of the light field camera 1 which is an electronic device is improved. That is, in the electronic device described in Patent Document 1, the focus position of the still image is changed. However, in the light field camera 1 of the first embodiment, at least the focus position of the image and the depth of field are at least. Either one can be changed. In addition, in the electronic device described in Patent Document 1, the user changes the focus position of the image by moving the scroll bar. However, in the case of such an operation method, the live view image or the moving image is focused. It is inappropriate for changing the position. On the other hand, in the light field camera 1 of the first embodiment, the live view image or the in-focus position of the moving image is changed by the touch operation of the touch panel 52 by the user. The focus position can be changed.

また、第1実施形態では、表示制御部71は、使用者による操作部52の第1操作に応じて画像の再生速度を低くし、又は画像を一時停止させるので、使用者が被写体を選択しやすくなり、より一層、合焦位置の変更などの操作性が向上する。   In the first embodiment, the display control unit 71 lowers the image reproduction speed or pauses the image according to the first operation of the operation unit 52 by the user, so that the user selects a subject. The operability such as changing the in-focus position is further improved.

また、第1実施形態では、変更部34は、使用者による操作部52の第2操作によって指定された被写体の合焦位置に変更する。このような構成によれば、画像中の被写体に合焦させて容易に確認することができる。また、第1実施形態では、変更部34は、使用者による操作部52の第2操作によって指定された被写体の合焦位置を含む被写界深度に変更する。このような構成によっても、使用者は画像中の被写体を容易に確認することができる。   In the first embodiment, the changing unit 34 changes the focus position of the subject designated by the second operation of the operation unit 52 by the user. According to such a configuration, it can be easily confirmed by focusing on the subject in the image. In the first embodiment, the changing unit 34 changes the depth of field including the in-focus position of the subject specified by the second operation of the operation unit 52 by the user. Even with such a configuration, the user can easily confirm the subject in the image.

また、第1実施形態では、表示制御部71は、変更部34による変更後に画像の表示状態を元に戻すので、使用者の被写体の確認後は通常の再生速度で画像の表示することができる。   In the first embodiment, the display control unit 71 restores the display state of the image after the change by the changing unit 34. Therefore, the image can be displayed at a normal reproduction speed after the user's subject is confirmed. .

また、第1実施形態では、一又は複数の被写体に対して視差を有する複数の画像を生成する画像生成部31と、画像生成部31で生成された複数の画像を所定期間記憶する記憶部40と、複数の画像の視差に基づいて所定被写体の画像を編集する第1編集部32と、記憶部40に記憶されている所定期間にわたる画像の所定被写体の移動に基づいて所定被写体の画像を編集する第2編集部33と、第1編集部32と第2編集部33との一方を選択する選択部72とを備える。このような構成によれば、ライブビュー画像や動画における被写体の動きなどに合わせて、所定被写体の画像の編集を行うことができる。すなわち、所定被写体が動いていない場合は、画像処理部30は記憶部40に記憶された画像データに基づいて、所定被写体に対して削除などの編集を行うことができない。また、所定被写体のサイズが大きい場合は、画像処理部30は視差を有する複数の画像データに基づいて、所定被写体に対して削除などの編集を行うことができない。しかし、上記した第1実施形態では、選択部72が第1編集部32と第2編集部33との一方を選択するので、所定被写体に対して削除などの編集を行うことができるようになる(又はその可能性が高くなる)。   In the first embodiment, the image generation unit 31 generates a plurality of images having parallax with respect to one or a plurality of subjects, and the storage unit 40 stores the plurality of images generated by the image generation unit 31 for a predetermined period. A first editing unit 32 that edits the image of the predetermined subject based on the parallax of the plurality of images, and the image of the predetermined subject is edited based on the movement of the predetermined subject of the image over a predetermined period stored in the storage unit 40 A second editing unit 33, and a selection unit 72 that selects one of the first editing unit 32 and the second editing unit 33. According to such a configuration, it is possible to edit an image of a predetermined subject in accordance with the movement of the subject in a live view image or a moving image. That is, when the predetermined subject is not moving, the image processing unit 30 cannot perform editing such as deletion on the predetermined subject based on the image data stored in the storage unit 40. Further, when the size of the predetermined subject is large, the image processing unit 30 cannot perform editing such as deletion on the predetermined subject based on a plurality of image data having parallax. However, in the first embodiment described above, since the selection unit 72 selects one of the first editing unit 32 and the second editing unit 33, editing such as deletion can be performed on a predetermined subject. (Or more likely).

また、第1実施形態では、選択部72は、所定期間における所定被写体の移動量を検出し、移動量と基準量とを比較することで第1編集部32と第2編集部33との一方を選択する。従って、画像処理部30において確実に所定被写体の削除などを行うことが可能となる。また、第1実施形態では、第1編集部32及び第2編集部33は、所定被写体の編集として、所定被写体を削除し又は所定被写体の向きを変える。従って、使用者の所望する画像データに編集することができる。例えば、主要被写体の手前に存在する被写体を削除した画像に編集したり、人物の被写体が正面を向いている画像に編集することができる。   In the first embodiment, the selection unit 72 detects the amount of movement of a predetermined subject during a predetermined period, and compares one of the first editing unit 32 and the second editing unit 33 by comparing the movement amount with a reference amount. Select. Accordingly, it is possible to reliably delete the predetermined subject in the image processing unit 30. In the first embodiment, the first editing unit 32 and the second editing unit 33 delete the predetermined subject or change the direction of the predetermined subject as editing the predetermined subject. Therefore, it is possible to edit the image data desired by the user. For example, it is possible to edit an image in which a subject existing in front of the main subject is deleted, or to an image in which a person's subject is facing the front.

<第2実施形態>
上記した第1実施形態では、選択部72は、所定期間における被写体の移動量を検出し、移動量と基準量とを比較することで第1編集部32と第2編集部33との一方を選択していた。これに対して、第2実施形態では、表示制御部71は、第1編集部32による編集後の画像と第2編集部33による編集後の画像とを表示部50に表示させ、選択部72は、使用者によるタッチパネル52のタッチ操作に応じて第1編集部32と第2編集部33との一方を選択する。
Second Embodiment
In the first embodiment described above, the selection unit 72 detects the amount of movement of the subject in a predetermined period and compares one of the first editing unit 32 and the second editing unit 33 by comparing the movement amount with the reference amount. Was selected. On the other hand, in the second embodiment, the display control unit 71 causes the display unit 50 to display the image edited by the first editing unit 32 and the image edited by the second editing unit 33, and selects the selection unit 72. Selects one of the first editing unit 32 and the second editing unit 33 according to the touch operation of the touch panel 52 by the user.

図13は、第2実施形態のシステム制御部70が実行する撮影動作を説明するためのフローチャートである。なお、図13に示す処理において、図9に示す処理と同様の処理(ステップS1〜S15)については、同一符号を付して重複する説明を省略する。   FIG. 13 is a flowchart for explaining a photographing operation executed by the system control unit 70 of the second embodiment. In the processing shown in FIG. 13, the same processing (steps S1 to S15) as the processing shown in FIG.

選択部72は、ステップS14で使用者により編集対象の被写体が選択されたと判定した場合は(ステップS14のYES)、ライブビュー画像の画像データを第1保存データとしてワークメモリ40に所定期間記憶させるとともに(ステップS15)、第1編集部32に編集画像データを生成させるために、画像処理部30に対してライブビュー画像の画像データの編集処理を実行させることを指示する指示信号を画像処理部30に出力する(ステップS41)。なお、ステップS41の処理は、図9に示したステップS18の処理に対応する処理である。   If the selection unit 72 determines in step S14 that the subject to be edited has been selected by the user (YES in step S14), the selection unit 72 stores the image data of the live view image in the work memory 40 as first storage data for a predetermined period. At the same time (step S15), in order to cause the first editing unit 32 to generate the edited image data, an instruction signal for instructing the image processing unit 30 to execute the editing process of the image data of the live view image is sent to the image processing unit. 30 (step S41). Note that the process of step S41 is a process corresponding to the process of step S18 shown in FIG.

また、選択部72は、第2編集部33に編集画像データを生成させるために、画像処理部30に対してライブビュー画像の画像データの編集処理を実行させることを指示する指示信号を画像処理部30に出力する(ステップS42)。なお、ステップS42の処理は、図9に示したステップS19の処理に対応する処理である。   In addition, the selection unit 72 performs image processing on an instruction signal that instructs the image processing unit 30 to execute image data editing processing of the live view image in order to cause the second editing unit 33 to generate edited image data. It outputs to the part 30 (step S42). The process of step S42 is a process corresponding to the process of step S19 shown in FIG.

表示制御部71は、第1編集部32及び第2編集部33において生成された編集画像データを表示部50に出力させて、2つの編集画像(編集対象の被写体が削除された画像又は編集対象の被写体の向きが変更された画像)を表示部50の表示画面51に表示させる(ステップS43)。使用者は、表示画面51に表示された2つの編集画像のうち、どちらが画質を悪化させずに編集されているかを判断する。そして、使用者は、2つの編集画像のうちのいずれかをタッチして、編集画像を選択する。撮像制御部73は、使用者のタッチパネル52のタッチ操作によって選択された編集画像データを記録部60に出力させて、編集画像データを第2保存データとして記録部60に記録(保存)させる(ステップS44)。   The display control unit 71 causes the display unit 50 to output the edited image data generated by the first editing unit 32 and the second editing unit 33 to display two edited images (an image in which the subject to be edited has been deleted or an editing target). Is displayed on the display screen 51 of the display unit 50 (step S43). The user determines which of the two edited images displayed on the display screen 51 has been edited without deteriorating the image quality. Then, the user touches one of the two edited images and selects the edited image. The imaging control unit 73 outputs the edited image data selected by the user's touch operation on the touch panel 52 to the recording unit 60, and records (saves) the edited image data as the second saved data in the recording unit 60 (step). S44).

なお、図13で説明した処理においては、システム制御部70は、ライブビュー画像中の所定被写体の画像データを画像処理部30(画像生成部31又は第1編集部32)に編集させていたが、動画中の所定被写体の画像データを画像処理部30(画像生成部31又は第1編集部32)に編集させてもよい。   In the process described with reference to FIG. 13, the system control unit 70 causes the image processing unit 30 (the image generation unit 31 or the first editing unit 32) to edit image data of a predetermined subject in the live view image. The image processing unit 30 (the image generation unit 31 or the first editing unit 32) may edit image data of a predetermined subject in the moving image.

このように、第2実施形態では、表示制御部71は、第1編集部32による編集後の画像(ライブビュー画像、動画、又は静止画)と第2編集部33による編集後の画像(ライブビュー画像、動画、又は静止画)とを表示部50に表示させ、選択部72は、使用者による操作部52の操作に応じて第1編集部32と第2編集部33との一方を選択する。このような構成によれば、使用者の判断に応じた編集画像データを記録部60に記録させることができる。   As described above, in the second embodiment, the display control unit 71 includes the image edited by the first editing unit 32 (live view image, moving image, or still image) and the image edited by the second editing unit 33 (live). (View image, moving image, or still image) is displayed on the display unit 50, and the selection unit 72 selects one of the first editing unit 32 and the second editing unit 33 according to the operation of the operation unit 52 by the user. To do. According to such a configuration, the edited image data according to the user's judgment can be recorded in the recording unit 60.

<第3実施形態>
第3実施形態では、上記した第1実施形態におけるライトフィールドカメラ1を、撮像装置1Aと電子機器1Bとに分離した構成としている。
<Third Embodiment>
In the third embodiment, the light field camera 1 in the first embodiment described above is separated into an imaging device 1A and an electronic device 1B.

図14は、第3実施形態に係る撮像装置1A及び電子機器1Bの構成を示すブロック図である。図14に示す構成において、撮像装置1Aは、被写体の撮像を行う装置であって、リフォーカス機能を備えた装置である。この撮像装置1Aは、撮像部10、画像処理部30、ワークメモリ40、操作部55、記録部60、音声出力部65、及び第1システム制御部70Aを備える。なお、撮像装置1Aのうち、撮像部10、画像処理部30、ワークメモリ40、操作部55、記録部60、及び音声出力部65の構成は、図3に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。   FIG. 14 is a block diagram illustrating configurations of the imaging apparatus 1A and the electronic apparatus 1B according to the third embodiment. In the configuration shown in FIG. 14, the imaging device 1 </ b> A is a device that captures an image of a subject and has a refocus function. The imaging apparatus 1A includes an imaging unit 10, an image processing unit 30, a work memory 40, an operation unit 55, a recording unit 60, an audio output unit 65, and a first system control unit 70A. In the imaging apparatus 1A, the configurations of the imaging unit 10, the image processing unit 30, the work memory 40, the operation unit 55, the recording unit 60, and the audio output unit 65 are the same as the configurations illustrated in FIG. Accordingly, the same components are denoted by the same reference numerals, and redundant description is omitted.

また、電子機器1Bは、画像(静止画、動画、ライブビュー画像)の表示を行う装置である。この電子機器1Bは、表示部50及び第2システム制御部70Bを備える。なお、電子機器1Bのうちの表示部50の構成は、図3に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。   The electronic device 1B is a device that displays images (still images, moving images, live view images). The electronic device 1B includes a display unit 50 and a second system control unit 70B. The configuration of the display unit 50 in the electronic apparatus 1B is the same as the configuration illustrated in FIG. Accordingly, the same components are denoted by the same reference numerals, and redundant description is omitted.

第1システム制御部70Aは、第1通信部75Aを有している。また、第2システム制御部70Bは、第2通信部75Bを有している。第1通信部75Aと第2通信部75Bとは、互いに有線又は無線で信号を送受信する。このような構成において、第1システム制御部70Aは、第1通信部75Aを介して画像データ(画像処理部30が画像処理した画像データ、記録部60に記録されている画像データ)を第2通信部75Bに送信する。第2システム制御部70Bは、第2通信部75Bにおいて受信した画像データを表示部50に表示させる。   The first system control unit 70A includes a first communication unit 75A. The second system control unit 70B has a second communication unit 75B. The first communication unit 75A and the second communication unit 75B transmit and receive signals to each other in a wired or wireless manner. In such a configuration, the first system control unit 70A receives the second image data (image data image-processed by the image processing unit 30 and image data recorded in the recording unit 60) via the first communication unit 75A. It transmits to the communication part 75B. The second system control unit 70B causes the display unit 50 to display the image data received by the second communication unit 75B.

図3に示す構成(表示制御部71、選択部72、撮像制御部73)は、第1システム制御部70Aと第2システム制御部70Bのいずれに設けられてもよい。図3に示すすべての構成は、第1システム制御部70A又は第2システム制御部70Bに設けられてもよく、また図3に示す構成の一部が第1システム制御部70Aに設けられ、図3に示す構成の一部以外の構成が第2システム制御部70Bに設けられてもよい。   The configuration shown in FIG. 3 (the display control unit 71, the selection unit 72, and the imaging control unit 73) may be provided in either the first system control unit 70A or the second system control unit 70B. 3 may be provided in the first system control unit 70A or the second system control unit 70B, and a part of the configuration shown in FIG. 3 is provided in the first system control unit 70A. Configurations other than a part of the configuration shown in FIG. 3 may be provided in the second system control unit 70B.

なお、撮像装置1Aは、例えば撮像機能と通信機能を備えたデジタルカメラ、スマートフォン、携帯電話、パーソナルコンピュータなどで構成され、電子機器1Bは、例えば通信機能を備えたスマートフォン、携帯電話、携帯型パーソナルコンピュータなどの携帯端末で構成される。   Note that the imaging apparatus 1A includes, for example, a digital camera, a smartphone, a mobile phone, and a personal computer having an imaging function and a communication function, and the electronic device 1B includes, for example, a smartphone, a mobile phone, and a portable personal computer that have a communication function. Consists of a portable terminal such as a computer.

図14に示す第1システム制御部70Aにおいて、CPUが制御プログラムに基づいて実行する処理が表示制御部71、選択部72、及び撮像制御部73の全部又は一部の構成に相当する。また、図14に示す第2システム制御部70Bにおいて、CPUが制御プログラムに基づいて実行する処理が表示制御部71、選択部72、及び撮像制御部73の全部又は一部の構成に相当する。   In the first system control unit 70A illustrated in FIG. 14, processing executed by the CPU based on the control program corresponds to the configuration of all or part of the display control unit 71, the selection unit 72, and the imaging control unit 73. Further, in the second system control unit 70B shown in FIG. 14, the processing executed by the CPU based on the control program corresponds to all or part of the configuration of the display control unit 71, the selection unit 72, and the imaging control unit 73.

以上に説明したように、第3実施形態では、第1実施形態及び第2実施形態で説明した効果に加え、スマートフォンなどの携帯端末を用いて撮像装置1Aで撮像されている画像を電子機器1Bの表示部50に表示させることができる。   As described above, in the third embodiment, in addition to the effects described in the first embodiment and the second embodiment, an image captured by the imaging apparatus 1A using a mobile terminal such as a smartphone is displayed on the electronic device 1B. Can be displayed on the display unit 50.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は、上記実施の形態に記載の範囲には限定されない。本発明の趣旨を逸脱しない範囲で、上記実施の形態に、多様な変更または改良を加えることが可能である。また、上記の実施形態で説明した要件の1つ以上は、省略されることがある。そのような変更または改良、省略した形態も本発明の技術的範囲に含まれる。また、上記した実施形態や変形例の構成を適宜組み合わせて適用することも可能である。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. Various modifications or improvements can be added to the above-described embodiment without departing from the spirit of the present invention. In addition, one or more of the requirements described in the above embodiments may be omitted. Such modifications, improvements, and omitted forms are also included in the technical scope of the present invention. In addition, the configurations of the above-described embodiments and modifications can be applied in appropriate combinations.

例えば、上記した各実施形態では、電子機器の一例としてライトフィールドカメラ1を挙げていたが、これに限定されず、例えば複数のカメラを複数配置したカメラアレイであってもよい。このようなカメラアレイにおいても視差を有する複数の画像を取得することができる。   For example, in each of the above-described embodiments, the light field camera 1 is cited as an example of the electronic device. However, the present invention is not limited to this. For example, a camera array in which a plurality of cameras are arranged may be used. Even in such a camera array, a plurality of images having parallax can be acquired.

また、図3に示す画像処理部30とシステム制御部70は一体で構成されてもよい。この場合、1つのCPUを有するシステム制御部が制御プログラムに基づいて処理を実行することにより画像処理部30の機能とシステム制御部70の機能を担う。また、図14に示す構成において、画像処理部30と第1システム制御部70Aとは一体で構成されてもよい。この場合、1つのCPUを有するシステム制御部が制御プログラムに基づいて処理を行うことにより画像処理部30の機能と第1システム制御部70Aの機能を担う。   Further, the image processing unit 30 and the system control unit 70 shown in FIG. 3 may be configured integrally. In this case, the system control unit having one CPU executes the processing based on the control program, thereby taking on the functions of the image processing unit 30 and the system control unit 70. In the configuration shown in FIG. 14, the image processing unit 30 and the first system control unit 70A may be configured integrally. In this case, the system control unit having one CPU performs the processing based on the control program, thereby performing the function of the image processing unit 30 and the function of the first system control unit 70A.

また、上記した第1実施形態において、カラーフィルタ102の配列がベイヤー配列とされていたが、この配列以外の配列であってもよい。   In the first embodiment described above, the arrangement of the color filters 102 is a Bayer arrangement, but an arrangement other than this arrangement may be used.

また、上記した各実施形態に係るライトフィールドカメラ1は、自動的に又は使用者による操作部55などの操作に応じてズーミング調節を行うズーム機能を備えていてもよい。この場合、駆動制御部13は、ズーミング調節を行うために、システム制御部70から送信される制御情報に基づいて撮影光学系11(例えばズーミング用レンズ)の駆動制御を実行する。また、ライトフィールドカメラ1は、被写体の撮影後に焦点位置を変更することが可能であるが、被写体の撮影前に自動的に焦点位置を調節するオートフォーカス機能を備えていてもよい。この場合、駆動制御部13は、撮影光学系11の焦点調節を行うために、システム制御部70から送信される制御情報に基づいて撮影光学系11(例えばフォーカシング用レンズ)の駆動制御を実行する。   Further, the light field camera 1 according to each of the above-described embodiments may include a zoom function for performing zooming adjustment automatically or in accordance with an operation of the operation unit 55 or the like by a user. In this case, the drive control unit 13 performs drive control of the photographing optical system 11 (for example, a zooming lens) based on control information transmitted from the system control unit 70 in order to perform zooming adjustment. The light field camera 1 can change the focal position after photographing the subject, but may include an autofocus function that automatically adjusts the focal position before photographing the subject. In this case, the drive control unit 13 performs drive control of the photographing optical system 11 (for example, a focusing lens) based on control information transmitted from the system control unit 70 in order to adjust the focus of the photographing optical system 11. .

1…ライトフィールドカメラ(電子機器)、1A…撮像装置、1B…電子機器、10…撮像部、20…撮像素子、30…画像処理部、31…画像生成部、32…第1編集部、33…第2編集部、34…変更部、50…表示部、51…表示画面、52…タッチパネル、60…記録部、70…システム制御部、70A…第1システム制御部、70B…第2システム制御部、71…表示制御部、72…選択部、73…撮像制御部   DESCRIPTION OF SYMBOLS 1 ... Light field camera (electronic device), 1A ... Imaging device, 1B ... Electronic device, 10 ... Imaging part, 20 ... Image sensor, 30 ... Image processing part, 31 ... Image generation part, 32 ... 1st editing part, 33 ... 2nd editing part, 34 ... Change part, 50 ... Display part, 51 ... Display screen, 52 ... Touch panel, 60 ... Recording part, 70 ... System control part, 70A ... 1st system control part, 70B ... 2nd system control 71, display control unit, 72 ... selection unit, 73 ... imaging control unit

Claims (6)

再生速度が第1速度で再生されている動画を表示する表示部と、
前記表示部に設けられ、接触された位置を検出する検出部と、
前記検出部により前記接触された位置が検出されると、前記動画の再生速度を前記第1速度よりも遅い第2速度で再生する制御部と、
前記制御部により前記動画が前記第2速度で再生されているときに、前記検出部により複数の位置への接触と、前記接触された複数の位置の変化が検出されると、被写界深度を変更可能なパラメータによって生成された被写界深度の異なる画像データに基づいて、前記表示部に表示されている画像の被写界深度を変化させる処理部と、
を備える画像処理装置。
A display unit that displays a video that is being played at a first playback speed;
Wherein provided in the display portion, et al is, a detection unit for detecting a contact touch position,
When the detected position is detected by the detection unit, a control unit that reproduces the reproduction speed of the moving image at a second speed slower than the first speed;
When the video is played in the second speed by the control unit, and the contact to Rifuku number of positions by the detection unit, the change of the contact is a plurality of positions are detected, the A processing unit for changing the depth of field of the image displayed on the display unit based on image data having different depth of field generated by a parameter capable of changing the depth of field ;
An image processing apparatus comprising:
記処理部は、前記接触された複数の位置に基づいて選択される前記表示部に表示されている画像の被写体が合焦するように、合焦位置を変更可能なパラメータによって生成された合焦位置の異なる画像データに基づいて、前記表示部に表示されている画像の合焦位置を変化させる請求項1に記載の画像処理装置。 Prior Symbol processor such that said subject image displayed on the display unit is focused, if generated a focus position by changing parameters to be selected based on the contacted plurality of locations The image processing apparatus according to claim 1, wherein an in- focus position of an image displayed on the display unit is changed based on image data having different focus positions . 前記検出部は、前記表示部に設けられたタッチパネルにより前記接触された位置を検出する請求項1または請求項2に記載の画像処理装置。 The image processing apparatus according to claim 1 , wherein the detection unit detects the contacted position by a touch panel provided on the display unit . 前記検出部により検出される前記タッチパネルの前記接触された複数の位置の変化は、前記タッチパネルへのピンチアウト操作または前記タッチパネルへのピンチイン操作によるものである、請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein changes in the plurality of touched positions of the touch panel detected by the detection unit are caused by a pinch-out operation to the touch panel or a pinch-in operation to the touch panel. 前記処理部は、前記検出部により前記ピンチアウト操作が検出されると、画像処理により生成される前記画像の被写界深度の範囲を広くし、前記検出部により前記ピンチイン操作が検出されると、画像処理により生成される前記画像の被写界深度の範囲を狭くする、請求項4に記載の画像処理装置。   When the detection unit detects the pinch-out operation, the processing unit widens the range of the depth of field of the image generated by image processing, and when the detection unit detects the pinch-in operation The image processing apparatus according to claim 4, wherein a range of a depth of field of the image generated by image processing is narrowed. 前記処理部は、前記検出部により前記ピンチアウト操作が検出されると、画像処理により生成される前記画像の前記接触された複数の位置の間の被写界深度の範囲を広くし、前記検出部により前記ピンチイン操作が検出されると、画像処理により生成される前記画像の前記接触された複数の位置の間の被写界深度の範囲を狭くする、請求項4に記載の画像処理装置。
When the detection unit detects the pinch-out operation, the processing unit widens a range of depth of field between the contacted positions of the image generated by image processing, and detects the detection The image processing apparatus according to claim 4, wherein when the pinch-in operation is detected by a unit, a range of a depth of field between the plurality of touched positions of the image generated by image processing is narrowed.
JP2014008204A 2014-01-21 2014-01-21 Image processing device Active JP6323022B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014008204A JP6323022B2 (en) 2014-01-21 2014-01-21 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014008204A JP6323022B2 (en) 2014-01-21 2014-01-21 Image processing device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018077197A Division JP2018125887A (en) 2018-04-12 2018-04-12 Electronic equipment

Publications (3)

Publication Number Publication Date
JP2015139020A JP2015139020A (en) 2015-07-30
JP2015139020A5 JP2015139020A5 (en) 2017-02-23
JP6323022B2 true JP6323022B2 (en) 2018-05-16

Family

ID=53769778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014008204A Active JP6323022B2 (en) 2014-01-21 2014-01-21 Image processing device

Country Status (1)

Country Link
JP (1) JP6323022B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6370348B2 (en) * 2015-11-30 2018-08-08 キヤノン株式会社 Image processing apparatus, image processing method, imaging apparatus, program, and storage medium
US10325356B2 (en) * 2015-11-30 2019-06-18 Canon Kabushiki Kaisha Image processing device, image processing method, imaging device, and recording medium for exclusively performing adjustment processing or viewpoint change processing
JP6632384B2 (en) * 2016-01-08 2020-01-22 キヤノン株式会社 Image reproducing apparatus and image reproducing method
JP6630173B2 (en) * 2016-01-29 2020-01-15 キヤノン株式会社 Imaging device, imaging control method, and program
JP6693236B2 (en) * 2016-03-31 2020-05-13 株式会社ニコン Image processing device, imaging device, and image processing program
CN108051183B (en) * 2017-11-16 2019-06-28 上海理工大学 Focus type light-field camera parameter calibration method based on first-order theory

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5657343B2 (en) * 2010-10-28 2015-01-21 株式会社ザクティ Electronics
JP2013251801A (en) * 2012-06-01 2013-12-12 Nikon Corp Imaging apparatus and virtual subject distance decision method
JP5370542B1 (en) * 2012-06-28 2013-12-18 カシオ計算機株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
JP6202910B2 (en) * 2012-08-13 2017-09-27 キヤノン株式会社 Video processing apparatus, control method therefor, and program
JP6244655B2 (en) * 2013-05-16 2017-12-13 ソニー株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2015139020A (en) 2015-07-30

Similar Documents

Publication Publication Date Title
US10244184B2 (en) Method and apparatus for shooting star trail video, and computer storage medium
JP6323022B2 (en) Image processing device
JP5447619B2 (en) Imaging device
JP2008283629A (en) Imaging device, imaging signal processing method, and program
US10587860B2 (en) Imaging apparatus and method for controlling same
JP5806623B2 (en) Imaging apparatus, imaging method, and program
JP5655291B2 (en) Electronic camera
JP4862741B2 (en) Imaging apparatus, imaging signal processing method, and program
KR102172114B1 (en) Moving image selection apparatus for selecting moving image to be combined, moving image selection method, and storage medium
JP4671053B2 (en) Image recording apparatus and image recording method
JP5322817B2 (en) 3D image pickup apparatus and 3D image display method
JP6056551B2 (en) Image processing program and digital camera
KR20120071972A (en) Digital image signal processing apparatus and method for controlling the same
JP5896181B2 (en) Imaging apparatus, imaging control method, and program
JP2013121173A (en) Imaging device
JP5915720B2 (en) Imaging device
JP2015139018A (en) Electronic apparatus and control program
JP4888829B2 (en) Movie processing device, movie shooting device, and movie shooting program
JP2014049882A (en) Imaging apparatus
JPWO2017061095A1 (en) Imaging device
JP2018125887A (en) Electronic equipment
JP4887461B2 (en) 3D image pickup apparatus and 3D image display method
WO2013065642A1 (en) Image processing device
JP6090485B2 (en) Imaging apparatus, imaging control method, and program
JP2011249923A (en) Imaging apparatus, image processing apparatus, and image processing program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170119

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180326

R150 Certificate of patent or registration of utility model

Ref document number: 6323022

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250