JP2017184144A - Image processing system, imaging apparatus, and image processing program - Google Patents

Image processing system, imaging apparatus, and image processing program Download PDF

Info

Publication number
JP2017184144A
JP2017184144A JP2016072073A JP2016072073A JP2017184144A JP 2017184144 A JP2017184144 A JP 2017184144A JP 2016072073 A JP2016072073 A JP 2016072073A JP 2016072073 A JP2016072073 A JP 2016072073A JP 2017184144 A JP2017184144 A JP 2017184144A
Authority
JP
Japan
Prior art keywords
depth
field
subject
image processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016072073A
Other languages
Japanese (ja)
Other versions
JP6693236B2 (en
Inventor
和敬 高橋
Kazuyuki Takahashi
和敬 高橋
眞一 古川
Shinichi Furukawa
眞一 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Nippon Kogaku KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp, Nippon Kogaku KK filed Critical Nikon Corp
Priority to JP2016072073A priority Critical patent/JP6693236B2/en
Publication of JP2017184144A publication Critical patent/JP2017184144A/en
Application granted granted Critical
Publication of JP6693236B2 publication Critical patent/JP6693236B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To solve a problem in that although a technology for generating a focused moving picture by tracking an arbitrary subject from moving-picture output data after photographing is known, a depth of field is not taken into consideration when the moving picture is generated from the moving-picture output data.SOLUTION: An image processing system comprises: a setting unit that sets a depth of field and the position of a subject at which the focal point of an imaging optical system meets in an optical axis direction, for first image data output from an imaging unit having a plurality of micro-lenses on which light from the subject transmitted through an imaging optical system is made incident and also having a plurality of light-receiving parts provided for the corresponding micro-lenses; a generating unit that generates, from the plurality of first image data, a plurality of second image data having the depth of field and the position of the focused subject set by the setting unit, and generates a plurality of pieces of moving-picture data having the plurality of second image data; and an alteration unit that alters the depth of field or at least the position of the focused subject of at least some second image data of the moving-picture data generated by the generating unit.SELECTED DRAWING: Figure 3

Description

本発明は、画像処理装置、撮像装置、および画像処理プログラムに関する。   The present invention relates to an image processing device, an imaging device, and an image processing program.

撮影した画像から任意の焦点位置の画像を生成可能なカメラで撮影した動画データから移動する被写体に追従して焦点位置を合わせた動画データを生成する技術が知られている(特許文献1参照)。従来技術では生成された焦点位置を合わせた動画データの焦点位置を変更することについては考慮されていない。   A technique is known that generates moving image data in which a focal position is adjusted following a moving subject from moving image data captured by a camera that can generate an image at an arbitrary focal position from the captured image (see Patent Document 1). . The prior art does not consider changing the focal position of the moving image data in which the generated focal position is matched.

特開2013-145314号公報JP 2013-145314 A

本発明の第1の態様による画像処理装置は、撮像光学系を透過した被写体からの光が入射する複数のマイクロレンズと前記マイクロレンズ毎に複数設けられた受光部とを有する撮像部から出力された第1画像データに対して、前記撮像光学系の光軸方向の焦点が合う被写体の位置と被写界深度とを設定する設定部と、前記設定部で設定された前記焦点が合う被写体の位置と前記被写界深度とを有する複数の第2画像データを複数の前記第1画像データから生成して、前記複数の第2画像データを有する動画データを生成する生成部と、前記生成部で生成された前記動画データの少なくとも一部の第2画像データの前記焦点が合う被写体の位置と前記被写界深度とのうちの少なくとも一方を変更する変更部とを備える。
本発明の第2の態様による撮像装置は、第1の態様による画像処理装置と、撮像部と、を備える。
本発明の第3の態様による画像処理プログラムは、撮像光学系を透過した被写体からの光が入射する複数のマイクロレンズと前記マイクロレンズ毎に複数設けられた受光部とを有する撮像部から出力された第1画像データに対して、前記撮像光学系の光軸方向の焦点が合う被写体の位置と被写界深度とを設定する設定ステップと、前記設定ステップで設定された前記焦点が合う被写体の位置と前記被写界深度とを有する複数の第2画像データを複数の前記第1画像データから生成して、前記複数の第2画像データを有する動画データを生成する生成ステップと、前記生成ステップで生成された前記動画データの少なくとも一部の第2画像データの前記焦点が合う被写体の位置と前記被写界深度とのうちの少なくとも一方を変更する変更ステップと、をコンピュータに実行させる。。
An image processing apparatus according to a first aspect of the present invention is output from an imaging unit having a plurality of microlenses on which light from a subject transmitted through an imaging optical system enters and a plurality of light receiving units provided for each of the microlenses. A setting unit that sets the position of the subject in focus in the optical axis direction of the imaging optical system and the depth of field with respect to the first image data, and the in-focus subject set by the setting unit. A generating unit that generates a plurality of second image data having a position and the depth of field from the plurality of first image data, and generates moving image data having the plurality of second image data; and the generating unit And a changing unit that changes at least one of the position of the in-focus subject and the depth of field of the second image data of at least a part of the moving image data generated in step (b).
An imaging device according to a second aspect of the present invention includes the image processing device according to the first aspect and an imaging unit.
An image processing program according to the third aspect of the present invention is output from an imaging unit having a plurality of microlenses on which light from a subject transmitted through an imaging optical system enters and a plurality of light receiving units provided for each of the microlenses. A setting step for setting the position of the subject in focus in the optical axis direction of the imaging optical system and the depth of field with respect to the first image data; and the subject in focus set in the setting step Generating a plurality of second image data having a position and the depth of field from the plurality of first image data, and generating moving image data having the plurality of second image data; and the generating step A change step for changing at least one of the position of the in-focus subject and the depth of field in the second image data of at least a part of the moving image data generated in step When causes the computer to execute. .

撮像装置の構成図である。It is a block diagram of an imaging device. 合成対象の像面上の光点からの光束と撮像素子とを模式的に示した断面図である。It is sectional drawing which showed typically the light beam from the light spot on the image surface of a synthetic | combination object, and an image pick-up element. 撮像装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of an imaging device. 表示部の表示例を示す図である。It is a figure which shows the example of a display of a display part. 撮像装置の第2の実施形態の動作を示すフローチャートである。It is a flowchart which shows operation | movement of 2nd Embodiment of an imaging device. 撮像装置の第3の実施形態の動作を示すフローチャートである。It is a flowchart which shows operation | movement of 3rd Embodiment of an imaging device. 撮像装置の第4の実施形態の動作を示すフローチャートである。It is a flowchart which shows operation | movement of 4th Embodiment of an imaging device. (a)(b)リフォーカス範囲の表示例である。(A) (b) It is a display example of the refocus range. 表示部における表示の変形例を示す図である。It is a figure which shows the modification of the display in a display part.

(第1の実施形態)
以下、本発明の第1の実施形態について図面を参照して説明する。
図1は、撮像装置10の構成図である。なお、撮像装置10は、デジタルカメラの例で説明するが、デジタルカメラに限らず、例えばスマートフォン端末、ゲーム機、タブレット端末、パーソナルコンピュータ、時計型や眼鏡型の情報端末などであってもよい。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a configuration diagram of the imaging apparatus 10. The imaging device 10 will be described using an example of a digital camera, but is not limited to a digital camera, and may be, for example, a smartphone terminal, a game machine, a tablet terminal, a personal computer, a clock-type or glasses-type information terminal, or the like.

図1に示すように撮像装置10は、撮像部11、画像処理部15、撮像制御部16、制御部(設定部、生成部、変更部、表示制御部)17、記録インタフェース18、表示部19、操作部20を備える。さらに、撮像部11は、撮像光学系12、マイクロレンズ13、撮像素子14を備える。また、記録インタフェース18を介して記憶媒体である可搬型メモリ21が装着される。   As illustrated in FIG. 1, the imaging apparatus 10 includes an imaging unit 11, an image processing unit 15, an imaging control unit 16, a control unit (setting unit, generation unit, change unit, display control unit) 17, recording interface 18, display unit 19. The operation unit 20 is provided. Furthermore, the imaging unit 11 includes an imaging optical system 12, a microlens 13, and an imaging element 14. In addition, a portable memory 21 as a storage medium is mounted via the recording interface 18.

撮像光学系12は、被写界からの光束を結像するレンズであり、例えば対物レンズ、フォーカスレンズ、絞り等を含む。マイクロレンズ13は、撮像光学系12の結像面近傍の面に二次元状に配列してなる。   The imaging optical system 12 is a lens that forms an image of a light beam from the object field, and includes, for example, an objective lens, a focus lens, a diaphragm, and the like. The microlenses 13 are two-dimensionally arranged on a surface in the vicinity of the imaging surface of the imaging optical system 12.

撮像素子14は、個々のマイクロレンズ13の後側に複数の受光素子(画素)を二次元状に配列してなる。一個のマイクロレンズに複数の受光素子が対応している。撮像素子14は、結像した被写体光学像による光信号を電気信号に変換して出力する、例えばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。撮像素子14は、二次元状に配置された画素のそれぞれが複数の光電変換領域を有し、各画素で同じ位置に存在する光電変換領域群の出力から、視点の異なる複数の視差画像を取得することができる。   The image sensor 14 is formed by two-dimensionally arranging a plurality of light receiving elements (pixels) on the rear side of each microlens 13. A plurality of light receiving elements correspond to one microlens. The image sensor 14 is, for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor that converts an optical signal generated by the formed subject optical image into an electrical signal and outputs the electrical signal. The imaging device 14 has a plurality of photoelectric conversion regions, each of which is arranged two-dimensionally, and acquires a plurality of parallax images with different viewpoints from the output of the photoelectric conversion region group existing at the same position in each pixel. can do.

画像処理部15は、撮像素子14が生成した一連の視差画像(撮像画像)を取り込み、その画像を可搬型メモリ21へ保存する。動画撮影の場合は、動画の一フレームが一連の視差画像に対応し、このような複数のフレームからなる動画を取り込み、可搬型メモリ21へ保存する。すなわち、可搬型メモリ21には撮像して得た動画の原画像データが保存される。   The image processing unit 15 captures a series of parallax images (captured images) generated by the image sensor 14 and stores the images in the portable memory 21. In the case of moving image shooting, one frame of the moving image corresponds to a series of parallax images, and a moving image including such a plurality of frames is captured and stored in the portable memory 21. In other words, the original image data of the moving image obtained by imaging is stored in the portable memory 21.

撮像制御部16は、撮像部11を駆動制御する回路を備えている。この撮像制御部16は、制御部17からの指示に応じて撮像素子14を駆動し、後述のように一連の視差画像を取得する。   The imaging control unit 16 includes a circuit that controls driving of the imaging unit 11. The imaging control unit 16 drives the imaging element 14 in response to an instruction from the control unit 17 and acquires a series of parallax images as described later.

記録インタフェース18は、撮像装置10に装着された可搬型メモリ21と制御部17との間のインタフェースである。この記録インタフェース18は、制御部17からの指示に従い、撮像動画や、撮像動画をリフォーカス画像処理したリフォーカス動画を可搬型メモリ21へ書き込んだり、これらの動画を可搬型メモリ21から読み込んだりする。可搬型メモリ21は、撮像動画やリフォーカス動画を記憶する記憶媒体である。   The recording interface 18 is an interface between the portable memory 21 attached to the imaging device 10 and the control unit 17. The recording interface 18 writes a captured moving image or a refocused moving image obtained by refocusing the captured moving image to the portable memory 21 according to an instruction from the control unit 17, or reads these moving images from the portable memory 21. . The portable memory 21 is a storage medium that stores captured moving images and refocused moving images.

表示部19は、液晶カラーモニタなどのモニタと、そのモニタに対するユーザ操作を検出するタッチセンサとを備える。このような表示部19は、制御部17からの指示に従い動画などを表示すると共に、その動画などに対するユーザ操作の内容を検出して制御部17へ送信する。   The display unit 19 includes a monitor such as a liquid crystal color monitor and a touch sensor that detects a user operation on the monitor. Such a display unit 19 displays a moving image or the like according to an instruction from the control unit 17, detects the content of a user operation on the moving image or the like, and transmits the detected content to the control unit 17.

操作部20は、不図示の電源釦、動画撮影釦、再生釦などの各種の入力スイッチを備える。ユーザは、この操作部20を介して動画撮影指示などの各種の指示を制御部17へ入力する。   The operation unit 20 includes various input switches such as a power button, a moving image shooting button, and a playback button (not shown). The user inputs various instructions such as a moving image shooting instruction to the control unit 17 via the operation unit 20.

制御部17は、不図示のROM、RAM、CPUなどを備えたコンピュータである。CPUは、ROMに格納されたプログラムを実行することにより撮像装置10の各部を制御し、動画の撮影や再生を行う。なお、RAMは、CPUの動作中に必要となったデータを一時的に格納するメモリである。   The control unit 17 is a computer that includes a ROM, a RAM, a CPU, and the like (not shown). The CPU controls each unit of the imaging apparatus 10 by executing a program stored in the ROM, and performs shooting and reproduction of moving images. Note that the RAM is a memory that temporarily stores data necessary during the operation of the CPU.

撮像装置10が有する画像合成機能について説明する。本実施形態における画像合成機能は、原画像データから任意像面の画像(いわゆるリフォーカス画像)を作成する機能である。周知のリフォーカス画像の作成方法の例を、図2を参照して説明する。   The image composition function that the imaging apparatus 10 has will be described. The image composition function in the present embodiment is a function for creating an image of an arbitrary image plane (so-called refocus image) from original image data. An example of a known refocus image creation method will be described with reference to FIG.

図2は、合成対象の像面上の光点からの光束と撮像素子14とを模式的に示した断面図である。図2において、合成対象の像面S上に設けた光点Pを考える。この光点Pから撮像素子14に向かう光の広がり角θは、撮像光学系12の瞳の大きさ(すなわち撮像光学系12の絞り値)により規定される。マイクロレンズ13の絞り値は撮像光学系12の絞り値と同じかそれより小さくなるように構成されている。従って、この光点Pから出射し、あるマイクロレンズ13に入射した光束は、そのマイクロレンズ13により被覆されている領域の外には広がらない。   FIG. 2 is a cross-sectional view schematically showing the light flux from the light spot on the image plane to be synthesized and the image sensor 14. In FIG. 2, consider a light spot P provided on the image plane S to be synthesized. The spread angle θ of light from the light spot P toward the image sensor 14 is defined by the size of the pupil of the image pickup optical system 12 (that is, the aperture value of the image pickup optical system 12). The aperture value of the microlens 13 is configured to be the same as or smaller than the aperture value of the imaging optical system 12. Therefore, the light beam emitted from the light spot P and incident on a certain microlens 13 does not spread outside the region covered with the microlens 13.

ここで、図2に示すように、光点Pからの光束が5つのマイクロレンズ13(1)〜13(5)に入射するとすれば、これらのマイクロレンズ13(1)〜13(5)に入射した光束30(1)〜30(5)の受光面上における入射光量(受光素子31(1)〜31(5)の光電変換出力)を積算することにより、光点Pからの瞳に制限された全入射量が得られる。すなわち、合成対象の像面S上の光点P(合成対象の画素)の光量が得られることになる。   Here, as shown in FIG. 2, if the light beam from the light spot P is incident on the five microlenses 13 (1) to 13 (5), the microlenses 13 (1) to 13 (5) are incident on the microlenses 13 (1) to 13 (5). By limiting the amount of incident light (photoelectric conversion output of the light receiving elements 31 (1) to 31 (5)) on the light receiving surface of the incident light beams 30 (1) to 30 (5), it is limited to the pupil from the light spot P. The total incident amount is obtained. That is, the amount of light at the light spot P (the pixel to be synthesized) on the image plane S to be synthesized is obtained.

制御部17は、指定された像面S上に複数の光点Pを設定し、各光点Pについて、その光点Pからの光束が入射するマイクロレンズ13を特定する。制御部17は、特定した各マイクロレンズ13について、光点Pからの光束がどの受光素子31に入射するかを特定する。制御部17は、特定した受光素子31の光電変換出力を積算することにより、光点Pの画素値を算出する。複数の光点Pの画素値を用いて画像合成してリフォーカス画像を得ることができる。   The control unit 17 sets a plurality of light spots P on the designated image plane S, and specifies, for each light spot P, the microlens 13 on which the light beam from the light spot P is incident. The control unit 17 specifies which light receiving element 31 the light beam from the light spot P enters for each specified microlens 13. The control unit 17 calculates the pixel value of the light spot P by integrating the photoelectric conversion outputs of the identified light receiving elements 31. A refocused image can be obtained by combining images using pixel values of a plurality of light spots P.

制御部17は、任意の像面を指定した画像合成が可能であるが、さらに、任意の被写界深度も設定した画像合成が可能である。図2を参照すると、光点Pからの光束の広がりは前段の撮像光学系12の絞りF0で規定される。撮像光学系12の絞りをF0より絞ったF1に設定したときの光束の広がりは図2の広がりに比べて狭くなる。そこで、たとえば、図2の光束30(1)と30(5)が受光素子31に到達しないものとして画像合成を行うことにより、被写界深度が図2の場合に比べて深い画像を得ることができる。光点Pから広がる光束の全てを用いた画像合成の被写界深度がもっとも深度が浅い画像とすると、外側の幾つかの光束を使用せずに画像処理して得た画像は深度が浅くなるので、外側の光束の省略数に応じた被写界深度を実現することができる。   The control unit 17 can synthesize an image by designating an arbitrary image plane, but can also synthesize an image by setting an arbitrary depth of field. Referring to FIG. 2, the spread of the light beam from the light spot P is defined by the stop F0 of the preceding imaging optical system 12. When the diaphragm of the imaging optical system 12 is set to F1 which is narrower than F0, the spread of the light beam is narrower than the spread of FIG. Therefore, for example, by performing image composition on the assumption that the light beams 30 (1) and 30 (5) in FIG. 2 do not reach the light receiving element 31, an image having a deeper depth of field than that in FIG. 2 can be obtained. Can do. Assuming that the depth of field of image synthesis using all of the light flux extending from the light spot P is the shallowest, the image obtained by image processing without using some outer light flux has a shallow depth. Therefore, it is possible to realize a depth of field according to the number of omitted outer luminous fluxes.

このように制御部17は、撮影後の画像処理によって可視化されたリフォーカス画像を生成することができる。また、第1の実施形態の制御部17は、主要被写体までの距離に応じて、画像の像面位置(焦点位置)と被写界深度を自動的に設定したリフォーカス画像処理を行う。撮像画像が動画である場合、制御部17は次のような画像処理を行ってリフォーカス画像を生成する。動画は複数枚のフレームで構成され、各フレームは視差画像である。動画を構成する複数枚の視差画像を互いに位置をずらして重み付け合成することにより、リフォーカス条件(被写体距離、絞り値、像面位置)の設定された一フレームのリフォーカス画像を作成する。動画の各フレームについてリフォーカス画像を作成して、リフォーカス動画を作成する。
なお、視差画像とは、図2を参照すると、複数の光点Pを通過した光束が複数のマイクロレンズ13を通過して複数の受光素子31に入射して得られる画素値を合成した画像である。
Thus, the control unit 17 can generate a refocus image visualized by image processing after shooting. In addition, the control unit 17 according to the first embodiment performs refocus image processing in which the image plane position (focus position) and the depth of field are automatically set according to the distance to the main subject. When the captured image is a moving image, the control unit 17 performs the following image processing to generate a refocus image. A moving image is composed of a plurality of frames, and each frame is a parallax image. A plurality of parallax images constituting a moving image are weighted and synthesized with their positions shifted from each other, thereby creating one frame of a refocus image in which refocus conditions (subject distance, aperture value, image plane position) are set. Create a refocused image for each frame of the video to create a refocused video.
A parallax image is an image obtained by synthesizing pixel values obtained when a light beam that has passed through a plurality of light spots P passes through a plurality of microlenses 13 and enters a plurality of light receiving elements 31 with reference to FIG. is there.

以下、第1の実施形態における撮像装置10の動作を、図3に示すフローチャートを参照して説明する。なお、このフローチャートで示す各処理は、制御部17が不図示のROMに格納されたプログラムを実行することにより行われる。   Hereinafter, the operation of the imaging apparatus 10 in the first embodiment will be described with reference to the flowchart shown in FIG. Each process shown in this flowchart is performed by the control unit 17 executing a program stored in a ROM (not shown).

図3のステップS11において、ユーザによる動画撮影釦の押下操作により動画撮影が開始される。撮像によって得られた動画データの各フレームは、撮像素子14が生成した一連の視差画像(撮像画像)を画像処理部15が取り込んだもので、リフォーカス画像処理前のフレーム画像である。リフォーカス画像処理前のフレーム画像で構成される動画データは、RAWデータとして可搬型メモリ21へ記録される。   In step S11 of FIG. 3, moving image shooting is started by a user's operation of pressing a moving image shooting button. Each frame of the moving image data obtained by imaging is a frame image before the refocus image processing, which is obtained by the image processing unit 15 capturing a series of parallax images (captured images) generated by the image sensor 14. The moving image data composed of the frame image before the refocus image processing is recorded in the portable memory 21 as RAW data.

ステップS12において、可搬型メモリ21へ記録され動画データを読み出し、この動画データに含まれる各フレーム画像に対して、主要被写体を検出する。そして、その検出結果に応じて、当該フレーム画像に対して、被写界深度と像面位置とを設定する。被写界の中のたとえば最至近の被写体を主要被写体とすると、その距離に基づいて像面位置と被写界深度を設定する。像面位置は主要被写体までの距離に比例して設定される。距離が遠いほど像面位置が撮像素子から遠い位置となる。また、例えば、主要被写体までの距離が近い場合は、すなわち像面位置が撮像素子から近い位置のときは被写界深度を深く、距離が遠い場合は、すなわち像面位置が撮像素子から遠い位置のときは被写界深度を浅く設定する。このようなリフォーカス画像処理条件を動画像データの各フレームに適用してリフォーカス画像処理を行う。   In step S12, the moving image data recorded in the portable memory 21 is read, and a main subject is detected for each frame image included in the moving image data. Then, according to the detection result, the depth of field and the image plane position are set for the frame image. For example, if the closest subject in the field is the main subject, the image plane position and the depth of field are set based on the distance. The image plane position is set in proportion to the distance to the main subject. The farther the distance is, the farther the image plane position is from the image sensor. Also, for example, when the distance to the main subject is short, that is, when the image plane position is close to the image sensor, the depth of field is deep, and when the distance is far, that is, the image plane position is far from the image sensor. In case of, set shallow depth of field. Such refocus image processing conditions are applied to each frame of moving image data to perform refocus image processing.

フレームごとに被写体距離に追従したリフォーカス画像処理条件(像面位置と被写界深度)を適用することにより、複数フレームのそれぞれに適切な像面位置と被写界深度でリフォーカス画像を生成することができる。リフォーカス画像処理が施された動画データはリフォーカス動画データとして可搬型メモリ21に記録される。   By applying refocus image processing conditions (image plane position and depth of field) that follow the subject distance for each frame, refocused images are generated with appropriate image plane position and depth of field for each of multiple frames. can do. The moving image data that has undergone the refocus image processing is recorded in the portable memory 21 as refocused moving image data.

ステップS13において、リフォーカス動画データを可搬型メモリ21から読み出して、表示部19に表示する。ユーザは表示されたリフォーカス動画を見て、主要被写体の像面位置や被写界深度が適切かを判断する。表示部19には、像面位置や被写界深度の調整を開始する場合に操作する調整釦が表示されている。ユーザが像面位置や被写界深度を調整したい場合は、調整釦をタッチ操作する。   In step S 13, the refocus moving image data is read from the portable memory 21 and displayed on the display unit 19. The user looks at the displayed refocus video and determines whether the image plane position and depth of field of the main subject are appropriate. The display unit 19 displays adjustment buttons that are operated to start adjustment of the image plane position and the depth of field. When the user wants to adjust the image plane position or the depth of field, the adjustment button is touch-operated.

ステップS14において、調整釦が操作されたかをタッチセンサにより検出する。調整釦が操作された場合は、ステップS15の処理へ進む。ステップS15において、リフォーカス動画データの各フレームを解析し、解析結果に応じて、撮影時間を横軸にして像面位置および被写界深度を表示部19にグラフ表示する。図4は、そのグラフの表示例を示す。   In step S14, the touch sensor detects whether the adjustment button has been operated. If the adjustment button has been operated, the process proceeds to step S15. In step S15, each frame of the refocus moving image data is analyzed, and the image plane position and the depth of field are displayed in a graph on the display unit 19 with the shooting time as the horizontal axis according to the analysis result. FIG. 4 shows a display example of the graph.

各フレームの解析は次のように行うことができる。リフォーカス動画データがNフレーム枚数の動画データとすると、動画データ解析により、1フレーム目の撮影時刻、2フレーム目の撮影時刻、……、N−1フレーム目の撮影時刻、Nフレーム目の撮影時刻が検出される。また、フレームごとに、主要被写体までの距離に基づき設定された像面位置、被写界深度が検出される。これら、各フレームの撮影時刻に対する像面位置と被写界深度を用いて図4のグラフが作成される。   Analysis of each frame can be performed as follows. When the refocused moving image data is N frames of moving image data, the first frame shooting time, the second frame shooting time,..., The N-1 frame shooting time, the N frame shooting are performed by moving image data analysis. Time is detected. Further, for each frame, the image plane position and the depth of field set based on the distance to the main subject are detected. The graph of FIG. 4 is created using the image plane position and the depth of field with respect to the shooting time of each frame.

図4に示すように、グラフ表示領域19aは、横軸が撮影時間であり、縦軸が像面位置および被写界深度である。グラフは、リフォーカス動画データの時間経過に伴う各フレームの像面位置と被写界深度の変化を表している。図中の実線は像面位置を示すものであり、図4の例では、撮影時刻taから時刻tbにかけて像面位置がA点からB点に連続的に変化していることを示している。ここで、A点およびB点のフレームをキーフレームと称する。キーフレームは、たとえばフレーム間の像面位置の変化量が所定閾値以上のフレームである。表示部19はタッチセンサを備えているので、A点もしくはB点の位置にユーザがタッチして図中の上下にスライドすることで、A点もしくはB点の像面位置を調整することができる。このユーザの調整により、像面位置がA点であるキーフレームとB点であるキーフレームの間の複数枚のフレームに対する像面位置と被写界深度が連動して調整される。なお、連動して調整されるのはA点のキーフレームとB点のキーフレームの間のすべてのフレームでなくてもよく、例えばA点のキーフレームを調整した際にA点のキーフレームの前後の複数のフレームのみが連動して調整されてもよい。また、キーフレームは、フレーム間の像面位置の変化量が所定閾値以上のフレームであるとしたが、撮影時間の所定の時間間隔でキーフレームを設定するようにしてもよい。   As shown in FIG. 4, in the graph display area 19a, the horizontal axis represents the photographing time, and the vertical axis represents the image plane position and the depth of field. The graph represents changes in the image plane position and depth of field of each frame over time of the refocus moving image data. The solid line in the figure indicates the image plane position, and in the example of FIG. 4, the image plane position continuously changes from the point A to the point B from the photographing time ta to the time tb. Here, the frames at points A and B are referred to as key frames. A key frame is a frame in which the amount of change in image plane position between frames is equal to or greater than a predetermined threshold, for example. Since the display unit 19 includes a touch sensor, the user touches the position of the point A or B and slides up and down in the drawing to adjust the image plane position of the point A or B. . By this user adjustment, the image plane position and the depth of field for a plurality of frames between the key frame whose image plane position is point A and the key frame whose point is B are adjusted in conjunction with each other. It is not always necessary to adjust all the frames between the point A key frame and the point B key frame. For example, when the point A key frame is adjusted, Only a plurality of frames before and after may be adjusted in conjunction. In addition, the key frame is a frame in which the amount of change in the image plane position between frames is equal to or greater than a predetermined threshold. However, the key frame may be set at a predetermined time interval of shooting time.

さらに、キーフレームに対応して調整窓19b、19cが表示されている。調整窓19b、19cには、それぞれ、キーフレームの画像と被写界深度調整用のスライドバーが表示されている。スライドバーを左右にタッチ操作することにより、キーフレームを基準に被写界深度を深くする調整、若しくは浅くする調整を行うことができる。被写界深度は、グラフ表示領域19aにおいて点線で表示されており、実線の像面位置との間隔の大/小で被写界深度の深い/浅いを示している。図4の例では、像面位置が近いフレームは被写界深度が深く、像面位置が遠いフレームは被写界深度が浅くなっている。なお、この例ではキーフレームが2点の場合を示したが、キーフレームの数に応じて調整窓を表示する。
なお調整窓の数はキーフレームの数よりも少なくてもよい。例えば、調整窓を一つとして、複数のキーフレームのうちのユーザが調整を行うキーフレームを一つ選択して、その選択されたキーフレームに対応する調整窓だけを表示してもよい。
図4のグラフは、一方の軸を時間軸、他方の軸を像面位置とした直線で示されているが、曲線により像面位置を表示してもよい。また、図4のグラフは、像面位置を表す直線の周囲に被写界深度を表す範囲を表示しているが、像面位置を表す曲線の周囲に被写界深度を表す範囲を表示してもよい。
Further, adjustment windows 19b and 19c are displayed corresponding to the key frames. In the adjustment windows 19b and 19c, a key frame image and a slide bar for adjusting the depth of field are displayed, respectively. By touching the slide bar to the left and right, it is possible to adjust the depth of field deeper or to make it shallower with reference to the key frame. The depth of field is displayed as a dotted line in the graph display area 19a, and indicates the depth / depth of the depth of field depending on whether the distance from the solid image plane position is large or small. In the example of FIG. 4, a frame with a close image plane position has a deep depth of field, and a frame with a far image plane position has a shallow depth of field. In this example, the case where there are two key frames is shown, but an adjustment window is displayed according to the number of key frames.
The number of adjustment windows may be smaller than the number of key frames. For example, with one adjustment window, one key frame to be adjusted by the user among a plurality of key frames may be selected, and only the adjustment window corresponding to the selected key frame may be displayed.
The graph of FIG. 4 is shown as a straight line with one axis being the time axis and the other axis being the image plane position, but the image plane position may be displayed by a curve. The graph of FIG. 4 displays the range representing the depth of field around the straight line representing the image plane position, but displays the range representing the depth of field around the curve representing the image plane position. May be.

ユーザによる像面位置および被写界深度の調整が完了すると決定釦19dをタッチ操作する。ステップS15において、決定釦19dのタッチ操作に応答して、制御部17は、ユーザによって調整された像面位置および被写界深度に基づくリフォーカス画像処理を動画像データの各フレームに対して行う。   When the adjustment of the image plane position and the depth of field by the user is completed, the enter button 19d is touched. In step S15, in response to the touch operation of the enter button 19d, the control unit 17 performs refocus image processing based on the image plane position adjusted by the user and the depth of field for each frame of the moving image data. .

そして、ステップS16において、調整後のリフォーカス動画を表示部19に表示する。ステップS17において、調整後のリフォーカス動画を可搬型メモリ21に記録する。この場合、調整前のリフォーカス動画も含めて可搬型メモリ21に記録してもよい。なお、ステップ14で調整釦が操作されなかった場合は、調整前のリフォーカス動画を可搬型メモリ21に記録する。また、リフォーカス動画は、RAWデータとして可搬型メモリ21へ記録してもよい。また、調整後のキーフレームの撮影時間、像面位置、被写界深度を可搬型メモリ21に記録してもよい。調整前のリフォーカス動画と調整後のキーフレームの撮影時間、像面位置、被写界深度が記録されていれば、それらから調整後のリフォーカス動画を生成することができる。   In step S16, the adjusted refocus video is displayed on the display unit 19. In step S <b> 17, the adjusted refocus moving image is recorded in the portable memory 21. In this case, the refocus moving image before adjustment may be recorded in the portable memory 21. If the adjustment button is not operated in step 14, the refocus moving image before adjustment is recorded in the portable memory 21. Further, the refocus moving image may be recorded in the portable memory 21 as RAW data. Further, the photographing time, the image plane position, and the depth of field of the adjusted key frame may be recorded in the portable memory 21. If the refocus video before adjustment and the shooting time, image plane position, and depth of field of the adjusted key frame are recorded, the adjusted refocus video can be generated from them.

第1の実施形態によれば、撮像して得た動画について、リフォーカス画像処理によりリフォーカス画像を作成する際、主要被写体の距離に追従した像面位置と被写界深度をフレーム毎に自動設定することができる。そのため、主要被写体を基にした適切なリフォーカス動画を簡単に生成することが可能である。またリフォーカス画像処理を行った動画の像面位置および被写界深度をユーザの指定に応じて適宜調整することができる。したがって、複数フレームで構成される動画を編集する際、フレームごとに像面位置や被写界深度を設定する必要が無く、編集作業が容易である。   According to the first embodiment, when a refocused image is created by refocusing image processing for a moving image obtained by imaging, the image plane position following the distance of the main subject and the depth of field are automatically set for each frame. Can be set. Therefore, it is possible to easily generate an appropriate refocus movie based on the main subject. Further, the image plane position and the depth of field of the moving image that has been subjected to the refocus image processing can be appropriately adjusted according to the user's designation. Therefore, when editing a moving image composed of a plurality of frames, it is not necessary to set the image plane position and the depth of field for each frame, and the editing operation is easy.

(第2の実施形態)
第2の実施形態について図面を参照して説明する。撮像装置10の構成は、図1に示した第1の実施形態と同様であるので、その説明を省略する。さらに、制御部17が実行するフローチャートは、図3に示した第1の実施形態と同様であるので、その説明を省略するが、第2の実施形態では、図3のステップS12の処理が異なる。以下、図3のステップS12に代わる部分のフローチャートについて、図5を参照して説明する。なお、このフローチャートで示す各処理は、制御部17が不図示のROMに格納されたプログラムを実行することにより行われる。
(Second Embodiment)
A second embodiment will be described with reference to the drawings. The configuration of the imaging device 10 is the same as that of the first embodiment shown in FIG. Furthermore, since the flowchart executed by the control unit 17 is the same as that of the first embodiment shown in FIG. 3, the description thereof is omitted, but the processing of step S <b> 12 in FIG. 3 is different in the second embodiment. . Hereinafter, a flowchart of a part replacing step S12 in FIG. 3 will be described with reference to FIG. Each process shown in this flowchart is performed by the control unit 17 executing a program stored in a ROM (not shown).

ここでは、リフォーカス動画を生成する原画像がNフレーム枚数の動画データとする。各フレームの像面位置は、当該フレームの画像の中で最も遠方にある被写体を主要被写体とし、主要被写体までの距離に基づいて設定される。被写界深度も主要被写体までの距離に応じて設定される。主要被写体が遠景であるので、被写界深度は深く設定され、全体にピントがあったリフォーカス画像が得られる。各フレームについて、遠景の主要被写体の手前にたとえば人や車などの移動体が入ってきた場合に、移動体を主要被写体と認識して、被写界深度を移動体の距離に基づき設定する。すなわち、被写界深度が浅く設定され、移動体にピントがあった画像が得られる。   Here, it is assumed that the original image for generating the refocus moving image is N frames of moving image data. The image plane position of each frame is set based on the distance to the main subject, with the farthest subject in the image of the frame as the main subject. The depth of field is also set according to the distance to the main subject. Since the main subject is a distant view, the depth of field is set deep, and a refocused image with a focus on the whole is obtained. For each frame, when a moving object such as a person or a car enters the main object in the distance, the moving object is recognized as the main object, and the depth of field is set based on the distance of the moving object. That is, an image in which the depth of field is set shallow and the moving object is in focus is obtained.

図5のフローチャートを参照して説明する。
ステップS1201において、動画のN枚のフレームのそれぞれについて、遠景の被写体を主要被写体と認識して像面位置を設定する。
次に、ステップS1202において、遠景の像面位置に応じた被写界深度を設定する。具体的には、像面位置が遠くにある場合は、全体にピントが合うように被写界深度を深く設定する。
This will be described with reference to the flowchart of FIG.
In step S1201, for each of the N frames of the moving image, the distant subject is recognized as the main subject and the image plane position is set.
Next, in step S1202, the depth of field according to the image plane position of the distant view is set. Specifically, when the image plane position is far away, the depth of field is set deep so that the entire image is in focus.

ステップS1203において、動画のフレームが全て終了したかを判別する。終了していない場合は、次のフレームについてステップS1204の判別を行う。即ち、ステップS1204において、フレームに被写体として移動体が入って来たかを判別する。移動体が入って来ていない場合は、ステップS1201に戻り、ステップS1201からステップS1203の処理を繰り返して遠景に合わせたリフォーカス画像処理を行う。   In step S1203, it is determined whether all the frames of the moving image have been completed. If not completed, the determination in step S1204 is performed for the next frame. That is, in step S1204, it is determined whether a moving body has entered the frame as a subject. If no moving object has entered, the process returns to step S1201, and the processing from step S1201 to step S1203 is repeated to perform refocus image processing according to the distant view.

ステップS1204で、フレームに移動体が入って来たことが判別された場合は、ステップS1205に進む。ステップS1205において、移動体に像面位置を設定する。
次に、ステップS1206において、移動体の像面位置に応じて被写界深度を設定する。具体的には、人や車などの移動体にピントが合うように被写界深度を浅く設定する。
If it is determined in step S1204 that a moving object has entered the frame, the process proceeds to step S1205. In step S1205, the image plane position is set on the moving body.
Next, in step S1206, the depth of field is set according to the image plane position of the moving object. Specifically, the depth of field is set shallow so that a moving object such as a person or a vehicle is in focus.

そして、ステップS1207において、動画のフレームが全て終了したかを判別する。終了していない場合は、ステップS1208において、移動体がフレームから出たかを判別する。移動体がフレームから出ていない場合は、ステップS1205に戻り、ステップS1205からステップS1207の処理を繰り返して移動体に合わせたリフォーカス画像処理を行う。   In step S1207, it is determined whether all the frames of the moving image have been completed. If not completed, it is determined in step S1208 whether the moving object has left the frame. If the moving body has not left the frame, the process returns to step S1205, and the processing from step S1205 to step S1207 is repeated to perform refocus image processing in accordance with the moving body.

ステップS1208において、移動体がフレームから出たと判別された場合は、ステップS1201に戻り、ステップS1201からステップS1203の処理を繰り返して遠景に合わせたリフォーカス画像処理を行う。
ステップS1203またはステップS1207で、動画のフレームが全て終了した場合はリフォーカス画像処理を終了する。
なお、ユーザによるリフォーカス動画の調整は、図3のステップ15で説明した第1の実施形態と同様である。
If it is determined in step S1208 that the moving object has left the frame, the process returns to step S1201, and the processing from step S1201 to step S1203 is repeated to perform refocus image processing in accordance with the distant view.
In step S1203 or step S1207, when all the frames of the moving image are completed, the refocus image processing is ended.
The adjustment of the refocus moving image by the user is the same as that in the first embodiment described in step 15 in FIG.

第2の実施形態によれば、撮像して得た動画について、遠景の中に移動体が入ってきた場合に、リフォーカス画像処理により移動体に像面位置および被写界深度を設定できる。すなわち、第2の実施形態の制御部17(ステップS1201〜S1208)は、主要被写体である移動体が検出されていないフレームには深い第1の被写界深度を設定し、移動体が検出されたフレームには第1の被写界深度よりも浅い第2の被写界深度を設定する。したがって、移動体の移動に対応した適切な動画を生成することが可能である。また、リフォーカス画像処理を行った動画の像面位置および被写界深度をユーザの指定に応じて適宜調整することができる。   According to the second embodiment, when a moving object enters a distant view of a moving image obtained by imaging, the image plane position and the depth of field can be set in the moving object by refocus image processing. That is, the control unit 17 (steps S1201 to S1208) according to the second embodiment sets a deep first depth of field in a frame in which a moving body that is a main subject is not detected, and the moving body is detected. A second depth of field shallower than the first depth of field is set for each frame. Therefore, it is possible to generate an appropriate moving image corresponding to the movement of the moving body. Further, the image plane position and the depth of field of the moving image that has been subjected to the refocus image processing can be appropriately adjusted according to the user's designation.

(第3の実施形態)
第3の実施形態について図面を参照して説明する。撮像装置10の構成は、図1に示した第1の実施形態と同様であるので、その説明を省略する。さらに、制御部17が実行するフローチャートは、図3に示した第1の実施形態と同様であるので、その説明を省略するが、第3の実施形態では、図3のステップS12の処理が異なる。以下、図3のステップS12に代わる部分のフローチャートについて、図6を参照して説明する。なお、このフローチャートで示す各処理は、制御部17が不図示のROMに格納されたプログラムを実行することにより行われる。
(Third embodiment)
A third embodiment will be described with reference to the drawings. The configuration of the imaging device 10 is the same as that of the first embodiment shown in FIG. Furthermore, since the flowchart executed by the control unit 17 is the same as that of the first embodiment shown in FIG. 3, the description thereof is omitted, but the processing of step S12 of FIG. 3 is different in the third embodiment. . Hereinafter, a flowchart of a part replacing step S12 in FIG. 3 will be described with reference to FIG. Each process shown in this flowchart is performed by the control unit 17 executing a program stored in a ROM (not shown).

第3の実施形態においては、顔認識により人物を主要被写体として認識し、主要被写体が複数検出されたとき、全ての主要被写体にピントが合うように被写界深度を設定してリフォーカス動画を生成する。   In the third embodiment, when a person is recognized as a main subject by face recognition and a plurality of main subjects are detected, the depth of field is set so that all the main subjects are in focus and Generate.

図6のステップS1211において、動画のフレームについて、検出された全ての人物である主要被写体をカバーするように、すなわち全ての人物にピントが合うように像面位置および被写界深度を設定する。具体的には、全ての人物の被写体距離の中間付近に像面位置を設定して、全ての人物にピントが合うような被写界深度を設定する。たとえば、最遠方の人物までの距離と、最至近の人物までの距離との差に基づいて被写界深度を設定することができる。   In step S <b> 1211 of FIG. 6, the image plane position and the depth of field are set so as to cover all the detected main subjects, that is, all the persons in focus for the moving image frame. Specifically, the image plane position is set near the middle of the subject distance of all persons, and the depth of field is set so that all persons are in focus. For example, the depth of field can be set based on the difference between the distance to the farthest person and the distance to the nearest person.

なお、演劇などの舞台の撮影動画データについては、予め定められた固定的な像面位置および被写界深度を設定してもよい。また、制御部17が撮像部11の撮像光学系12の焦点距離を取得し、第1焦点距離が取得された場合には第1被写界深度を設定し、この第1焦点距離よりも短い第2焦点距離が取得された場合には第1被写界深度よりも浅い第2被写界深度を設定してもよい。具体的には、撮像部11よりレンズの情報を取得し、焦点距離が短い広角レンズが装着されていた場合は被写界深度を浅く設定する。   It should be noted that a predetermined fixed image plane position and depth of field may be set for shooting moving image data of a stage such as a play. Further, the control unit 17 acquires the focal length of the imaging optical system 12 of the imaging unit 11, and when the first focal length is acquired, the first depth of field is set and is shorter than the first focal length. When the second focal length is acquired, a second depth of field that is shallower than the first depth of field may be set. Specifically, lens information is acquired from the imaging unit 11, and when a wide-angle lens with a short focal length is attached, the depth of field is set shallow.

ステップS1212において、全ての人物をカバーするように像面位置および被写界深度の設定が可能であったかを判別する。具体的には、最遠方の人物と最至近の人物との被写体距離差と、設定可能な最も深い被写界深度とを比較し、最遠方の人物と最至近の人物の双方にピントを合わせることができるか否かを判別する。上記設定が可能であったと判別された場合は、次のステップS1213において、動画のフレームが全て終了したかを判別する。終了していない場合は、ステップS1211に戻り、次のフレームについて、ステップS1211からステップS1212の処理を繰り返して全ての人物をカバーするようにリフォーカス画像処理を行う。
ステップS1212において、全ての人物をカバーする像面位置および被写界深度の設定が可能ではないと判別された場合は、ステップS1214の処理へ進む。
In step S1212, it is determined whether the image plane position and the depth of field can be set so as to cover all persons. Specifically, compare the subject distance difference between the farthest person and the nearest person and the deepest depth of field that can be set, and focus on both the farthest person and the nearest person. Determine whether you can. If it is determined that the above setting is possible, it is determined in the next step S1213 whether all the frames of the moving image have been completed. If not completed, the process returns to step S1211, and for the next frame, the processing from step S1211 to step S1212 is repeated to perform refocus image processing so as to cover all persons.
If it is determined in step S1212 that the image plane position and the depth of field that cover all persons cannot be set, the process proceeds to step S1214.

ステップS1214において、最至近の人物を優先して像面位置を設定する。具体的には、最至近の人物に8割、最遠方の人物に2割となる中間付近に像面位置を設定する。そして、ステップS1215において、設定した像面位置に応じて被写界深度を設定する。例えば、最至近の人物に被写界深度をもっとも深く設定し、最遠方の人物に被写界深度をもっとも浅く設定する。中間位置の人物の被写界深度は人物までの距離に応じた深度に設定する。   In step S1214, the image plane position is set with priority on the closest person. Specifically, the image plane position is set near the middle, which is 80% for the nearest person and 20% for the farthest person. In step S1215, the depth of field is set according to the set image plane position. For example, the deepest depth of field is set for the closest person, and the shallowest depth of field is set for the farthest person. The depth of field of the person at the intermediate position is set to a depth corresponding to the distance to the person.

なお、ステップS1214、S1215において、制御部17は、たとえば人物に関する情報を登録し、フレーム内の人物と予め登録していた人物とを照合して、一致する人物が検出されれば、その人物にピントが合うように被写界深度を設定してもよい。
すなわち、制御部17(ステップS1214〜S1215)は、主要被写体に関する情報を登録する登録部を更に備えるように構成し、検出された複数の主要被写体のうち、登録部に情報が登録されている主要被写体を被写界深度内に含めるように被写界深度および像面位置を設定してもよい。これにより、登録された被写体にピントがあった動画を生成することができる。
なお、登録する主要被写体は人物の顔に限定されず、特定の車両、構造物などでもよい。
In steps S1214 and S1215, the control unit 17 registers information about a person, for example, compares the person in the frame with the person registered in advance, and if a matching person is detected, the controller 17 The depth of field may be set so that it is in focus.
That is, the control unit 17 (steps S1214 to S1215) is configured to further include a registration unit that registers information on the main subject, and the main information whose information is registered in the registration unit among the detected plurality of main subjects. The depth of field and the image plane position may be set so that the subject is included in the depth of field. Thereby, a moving image in which the registered subject is in focus can be generated.
The main subject to be registered is not limited to a person's face, but may be a specific vehicle, structure, or the like.

ステップS1216において、動画のフレームが全て終了したかを判別する。終了していない場合は、ステップS1217の処理を行う。   In step S1216, it is determined whether all the frames of the moving image have been completed. If not completed, the process of step S1217 is performed.

ステップS1217では、次のフレームにおいて、主要被写体の数や位置が変化したかを判別する。主要被写体の数や位置が変化していないと判別された場合は、ステップS1214に戻り、ステップS1214からステップS1215の処理を繰り返し、次のフレームに対して、手前の主要被写体を優先したリフォーカス画像処理を行う。   In step S1217, it is determined whether the number and position of main subjects have changed in the next frame. If it is determined that the number or position of the main subject has not changed, the process returns to step S1214, the processing from step S1214 to step S1215 is repeated, and the refocus image giving priority to the previous main subject for the next frame. Process.

ステップS1217で、主要被写体の数や位置が変化したと判別された場合には、ステップS1211に戻り、ステップS1211からステップS1212の処理を繰り返して全ての主要被写体をカバーするようにリフォーカス画像処理を行う。   If it is determined in step S1217 that the number or position of main subjects has changed, the process returns to step S1211, and the processing from step S1211 to step S1212 is repeated to perform refocus image processing so as to cover all the main subjects. Do.

ステップS1213またはステップS1216で、動画のフレームが全て終了した場合はリフォーカス画像処理を終了する。
なお、ユーザによるリフォーカス動画の調整は、図3のステップ15で示した第1の実施形態と同様である。
In step S1213 or step S1216, when all the frames of the moving image are completed, the refocus image processing is ended.
The adjustment of the refocus moving image by the user is the same as that in the first embodiment shown in step 15 of FIG.

第3の実施形態によれば、撮像して得た動画について、全ての主要被写体をカバーするように像面位置と被写界深度の設定を行ったリフォーカス画像処理を行うことができる。すなわち、制御部17(ステップS1211)は、複数の主要被写体が検出された場合には、複数の主要被写体が被写界深度内に含まれるように被写界深度および像面位置を設定する。また、制御部17(ステップS1214〜S1215)は、第1距離に位置する第1主要被写体と第1距離よりも遠い第2距離に位置する第2主要被写体が検出された場合には、第1主要被写体が被写界深度内に含まれるように被写界深度および像面位置を設定する。したがって、被写界内の複数の主要被写体にピントがあった適切な動画を生成することが可能である。また、全ての主要被写体のカバーが不可能であった場合には、手前の主要被写体を優先した像面位置と被写界深度を設定してリフォーカス画像処理することにより、被写界内の複数の主要被写体にピントがあった適切な動画を生成することが可能である。さらに、リフォーカス画像処理を行った動画の像面位置および被写界深度をユーザの指定に応じて適宜調整することができる。   According to the third embodiment, it is possible to perform refocus image processing in which the image plane position and the depth of field are set so as to cover all main subjects with respect to a moving image obtained by imaging. That is, when a plurality of main subjects are detected, the control unit 17 (step S1211) sets the depth of field and the image plane position so that the plurality of main subjects are included in the depth of field. The control unit 17 (steps S1214 to S1215) detects the first main subject located at the first distance and the second main subject located at the second distance farther than the first distance. The depth of field and the image plane position are set so that the main subject is included within the depth of field. Accordingly, it is possible to generate an appropriate moving image in which a plurality of main subjects in the object field are in focus. In addition, when it is impossible to cover all the main subjects, refocus image processing is performed by setting the image plane position and the depth of field with priority on the front main subject. It is possible to generate an appropriate moving image in which a plurality of main subjects are in focus. Furthermore, the image plane position and the depth of field of the moving image that has undergone the refocus image processing can be appropriately adjusted according to the user's designation.

(第4の実施形態)
第4の実施形態について図面を参照して説明する。撮像装置10の構成は、図1に示した第1の実施形態と同様であるので、その説明を省略する。さらに、制御部17が実行するフローチャートは、図3に示した第1の実施形態と同様であるので、その説明を省略するが、第4の実施形態では、図3のステップS12の処理が異なる。以下、図3のステップS12に代わる部分のフローチャートについて、図7を参照して説明する。なお、このフローチャートで示す各処理は、制御部17が不図示のROMに格納されたプログラムを実行することにより行われる。
(Fourth embodiment)
A fourth embodiment will be described with reference to the drawings. The configuration of the imaging device 10 is the same as that of the first embodiment shown in FIG. Furthermore, since the flowchart executed by the control unit 17 is the same as that of the first embodiment shown in FIG. 3, the description thereof is omitted, but the process of step S <b> 12 in FIG. 3 is different in the fourth embodiment. . Hereinafter, a flowchart of a part replacing step S12 in FIG. 3 will be described with reference to FIG. Each process shown in this flowchart is performed by the control unit 17 executing a program stored in a ROM (not shown).

第4の実施形態においては、撮像して得た動画を撮像シーンに応じてリフォーカス画像処理する。
図7のステップS1221において、動画撮影時の撮像シーンを判別する。撮像シーンのうち、ポートレート、ペット、料理、子供、クローズアップ、パーティ、キャンドルライトを第1撮像シーンとし、風景、夜景を第2撮像シーンとする。ステップS1221では、フレームが第1撮像シーンか第2撮像シーンかを判別する。
In the fourth embodiment, a refocus image process is performed on a moving image obtained by imaging according to an imaging scene.
In step S1221 of FIG. 7, an imaging scene at the time of moving image shooting is determined. Of the imaging scenes, portrait, pet, cooking, child, close-up, party, and candlelight are set as the first imaging scene, and scenery and night view are set as the second imaging scene. In step S1221, it is determined whether the frame is the first imaging scene or the second imaging scene.

第1撮像シーンと判別された場合は、ステップS1222に進み、被写体に応じた、すなわち撮像シーンに応じた像面位置を設定する。そして、ステップS1223で、被写界深度を浅く設定する。   When it is determined that the scene is the first imaging scene, the process proceeds to step S1222, and the image plane position corresponding to the subject, that is, the imaging plane corresponding to the imaging scene is set. In step S1223, the depth of field is set shallow.

ステップS1221で、第2撮像シーンと判別された場合は、ステップS1224に進み、被写体に応じた像面位置を設定する。そして、ステップS1225で、被写界深度を深く設定する。   If it is determined in step S1221 that the scene is the second imaging scene, the process proceeds to step S1224, and an image plane position corresponding to the subject is set. In step S1225, the depth of field is set deep.

ステップS1223、またはS1225の処理の後、ステップS1226に進み、動画のフレームが全て終了したかを判別する。終了していない場合は、ステップS1221の処理に戻り、次のフレームについてリフォーカス画像処理を行う。
ステップS1226で、動画のフレームが全て終了した場合はリフォーカス画像処理を終了する。
After the process of step S1223 or S1225, the process proceeds to step S1226, and it is determined whether all the frames of the moving image have been completed. If not completed, the process returns to step S1221, and refocus image processing is performed for the next frame.
If all the frames of the moving image have been completed in step S1226, the refocus image processing is ended.

第4の実施形態の画像処理装置は、撮影シーンと被写界深度を対応づけたデータテーブルを有する。そして、画像編集時に、ユーザが設定した撮影シーンをフレームごとに認識し、認識した撮影シーンに基づきデータテーブルから最適な被写界深度を得てリフォーカス画像処理を行う。
なお、ユーザによるリフォーカス動画の調整は、図3のステップ15で示した第1の実施形態と同様である。
The image processing apparatus according to the fourth embodiment has a data table in which shooting scenes are associated with depth of field. Then, at the time of image editing, a shooting scene set by the user is recognized for each frame, and an optimum depth of field is obtained from the data table based on the recognized shooting scene, and refocus image processing is performed.
The adjustment of the refocus moving image by the user is the same as that in the first embodiment shown in step 15 of FIG.

第4の実施形態によれば、撮像して得た動画について、撮像シーンに応じて像面位置と被写界深度の設定を行ったリフォーカス画像処理を行うことができる。すなわち、制御部17(ステップS1221〜S1226)は、撮像シーンを認識し、ポートレートなどの第1撮像シーンおよび風景などの第2撮像シーンのいずれか一方に分類するシーン認識部を更に備える。例えば、第1撮像シーンでは被写界深度を浅く、第2撮像シーンでは被写界深度を深く設定する。したがって、撮像シーンに応じたリフォーカス動画を簡単に生成することが可能である。また、リフォーカス画像処理を行った動画の像面位置および被写界深度をユーザの指定に応じて適宜調整することができる。   According to the fourth embodiment, refocus image processing in which the image plane position and the depth of field are set according to the imaging scene can be performed on the moving image obtained by imaging. That is, the control unit 17 (steps S1221 to S1226) further includes a scene recognition unit that recognizes an imaging scene and classifies the scene into one of a first imaging scene such as a portrait and a second imaging scene such as a landscape. For example, the depth of field is set shallow in the first imaging scene, and the depth of field is set deep in the second imaging scene. Therefore, it is possible to easily generate a refocus moving image according to the imaging scene. Further, the image plane position and the depth of field of the moving image that has been subjected to the refocus image processing can be appropriately adjusted according to the user's designation.

なお、第4の実施形態と同様のリフォーカス画像処理を動画撮影と同時に行ってもよい。すなわち、この変形例の画像処理装置では、動画撮影中に、ユーザが設定した撮影シーンに基づきデータテーブルから最適な被写界深度を得る。そして、フレームに対応づけて被写界深度と像面位置を記憶する。編集再生処理でこれらの像面位置と被写界深度をフレームごとに読み出してリフォーカス画像処理を行う。リフォーカス画像処理の時間が短時間で行える場合は、動画撮影時にリアルタイムでフレームごとにリフォーカス画像処理行ってもよい。   Note that the same refocus image processing as in the fourth embodiment may be performed simultaneously with moving image shooting. In other words, the image processing apparatus according to this modification obtains the optimum depth of field from the data table based on the shooting scene set by the user during moving image shooting. Then, the depth of field and the image plane position are stored in association with the frame. The image plane position and the depth of field are read for each frame in the edit reproduction process, and the refocus image process is performed. When the refocus image processing can be performed in a short time, the refocus image processing may be performed for each frame in real time during moving image shooting.

(リフォーカス範囲の表示例)
一般に、複数の被写体がそれぞれ距離を隔てて存在した場合に、これを動画撮影データからリフォーカス画像処理してピントの合った画像を得るには限界がある。以下では、動画撮影時のスルー画像において、リフォーカス画像処理の可能範囲を表示する例を説明する。
(Example of refocus range display)
In general, when a plurality of subjects exist at a distance from each other, there is a limit to obtain a focused image by performing refocusing image processing from moving image shooting data. In the following, an example in which the possible range of refocus image processing is displayed in a through image during moving image shooting will be described.

図8(a)は、リフォーカス範囲の表示例、図8(b)は、その説明図である。図8(a)に示すように、動画撮影時のスルー画像として、表示部19には、被写体O、P、Qが表示されている。被写体O、Pは、被写体Qと識別して色付けして表示されている。これは、被写体O、Pがリフォーカス画像処理の可能範囲にあることを示している。表示部19の右端には、リフォーカス画像処理の可能範囲を調節する為の操作子19eが表示されている。この操作子19eをタッチして上下にスライドすることによってリフォーカス画像処理の可能範囲を調節する。なお、操作子19eのスライド操作に替えて、レンズ鏡筒のリングを回転することにより、リフォーカス画像処理の可能範囲を調節してもよい。   FIG. 8A is a display example of the refocus range, and FIG. 8B is an explanatory diagram thereof. As shown in FIG. 8A, subjects O, P, and Q are displayed on the display unit 19 as through images at the time of moving image shooting. The subjects O and P are distinguished from the subject Q and displayed in color. This indicates that the subjects O and P are within the possible range of refocus image processing. On the right end of the display unit 19, an operator 19e for adjusting the possible range of refocus image processing is displayed. The possible range of the refocus image processing is adjusted by touching the operator 19e and sliding it up and down. Note that the possible range of refocus image processing may be adjusted by rotating the ring of the lens barrel instead of the slide operation of the operation element 19e.

図8(b)は、撮像光学系12とその前面に存在する被写体O、P、Qの位置関係を示す図である。図中、rはリフォーカス画像処理の可能範囲を示す。操作子19eを上下にスライドすることによってリフォーカス画像処理の可能範囲rは前後に移動する状態になる。例えば、被写体P、Qをリフォーカス画像処理の可能範囲rにするように、操作子19eを上下にスライドして調節することができる。この状態では、表示部19には、被写体P、Qが、被写体Oと識別して色付けして表示される。これにより、ユーザは撮影時にリフォーカス画像処理の可能範囲を知ることができる。なお、リフォーカス画像処理が可能であるか否かは、制御部17において、スルー画像をリアルタイムでリフォーカス画像処理し、被写体O、P、Qにピントを合わせられるかを判定し、ピントが合わせられる被写体を識別表示する。   FIG. 8B is a diagram illustrating a positional relationship between the imaging optical system 12 and the subjects O, P, and Q existing in front of the imaging optical system 12. In the figure, r indicates the possible range of refocus image processing. By sliding the operation element 19e up and down, the refocus image processing possible range r is moved back and forth. For example, the operator 19e can be adjusted by sliding up and down so that the subjects P and Q are within the refocus image processing possible range r. In this state, the subjects P and Q are distinguished from the subject O and displayed in color on the display unit 19. Thereby, the user can know the possible range of the refocus image processing at the time of shooting. Whether or not refocus image processing is possible is determined by the control unit 17 by performing refocus image processing on the through image in real time to determine whether or not the subjects O, P, and Q can be focused. The displayed subject is identified and displayed.

以上説明した実施形態によれば、次の作用効果が得られる。
(1)撮像装置10は、複数のマイクロレンズ13と複数のマイクロレンズ13よりも多くの受光素子とを有する撮像素子14により撮像された第1動画像データが入力される画像処理部15と、第1動画像データに含まれる複数のフレームに対して、被写界深度と光軸方向の所定範囲内の像面位置とを設定する制御部17(ステップS12)と、複数のフレームの各々を制御部(設定部)17で設定された被写界深度を有する像面位置の画像に変換した第2動画像データを出力する制御部17(ステップS13)と、を備えた。したがって、動画の複数フレームの各々において適切な像面位置と被写界深度を設定したリフォーカス動画が生成される。一フレームずつ像面位置と被写界深度を設定する必要がない。
According to the embodiment described above, the following operational effects can be obtained.
(1) The imaging apparatus 10 includes an image processing unit 15 to which first moving image data captured by an imaging element 14 having a plurality of microlenses 13 and a larger number of light receiving elements than the plurality of microlenses 13 is input; For a plurality of frames included in the first moving image data, a control unit 17 (step S12) for setting a depth of field and an image plane position within a predetermined range in the optical axis direction, and each of the plurality of frames. And a control unit 17 (step S13) that outputs second moving image data converted into an image at an image plane position having a depth of field set by the control unit (setting unit) 17. Therefore, a refocus moving image in which an appropriate image plane position and depth of field are set in each of a plurality of frames of the moving image is generated. There is no need to set the image plane position and depth of field frame by frame.

(2)制御部17(ステップS12)は、フレームの画像から主要被写体を検出し、主要被写体が被写界深度内に含まれるように被写界深度および像面位置を設定するので、主要被写体を基にした適切な動画を生成することができる。 (2) The control unit 17 (step S12) detects the main subject from the frame image and sets the depth of field and the image plane position so that the main subject is included in the depth of field. It is possible to generate an appropriate video based on the video.

(3)制御部17(ステップS1201〜S1208)は、主要被写体が検出されていないフレームには深い第1の被写界深度を設定し、主要被写体が検出されたフレームには第1の被写界深度よりも浅い第2の被写界深度を設定するので、たとえば主要被写体である移動体の移動に対応した適切な動画を生成することができる。 (3) The control unit 17 (steps S1201 to S1208) sets a deep first depth of field in a frame in which the main subject is not detected, and the first subject in a frame in which the main subject is detected. Since the second depth of field shallower than the depth of field is set, for example, an appropriate moving image corresponding to the movement of the moving body that is the main subject can be generated.

(4)制御部17(ステップS1211)は、複数の主要被写体が検出された場合には、複数の主要被写体が被写界深度内に含まれるように被写界深度および像面位置を設定するので、全ての主要被写体をカバーする適切な動画を生成することができる。 (4) When a plurality of main subjects are detected, the control unit 17 (step S1211) sets the depth of field and the image plane position so that the plurality of main subjects are included in the depth of field. Therefore, it is possible to generate an appropriate moving image that covers all main subjects.

(5)制御部17(ステップS1214〜S1215)は、第1距離に位置する第1主要被写体と第1距離よりも遠い第2距離に位置する第2主要被写体が検出された場合には、第1主要被写体が被写界深度内に含まれるように被写界深度および像面位置を設定するので、手前の主要被写体を優先して適切な動画を生成することができる。 (5) When the control unit 17 (steps S1214 to S1215) detects the first main subject located at the first distance and the second main subject located at the second distance farther than the first distance, Since the depth of field and the image plane position are set so that one main subject is included in the depth of field, an appropriate moving image can be generated with priority given to the main subject in front.

(6)制御部17(ステップS1214〜S1215)は、主要被写体に関する情報を登録する登録部を更に備え、検出された複数の主要被写体のうち、登録部に情報が登録されている主要被写体を被写界深度内に含めるように被写界深度および像面位置を設定するので、登録された被写体を優先して適切な動画を生成することができる。 (6) The control unit 17 (steps S1214 to S1215) further includes a registration unit for registering information on the main subject, and among the detected main subjects, the control unit 17 covers the main subject whose information is registered in the registration unit. Since the depth of field and the image plane position are set so as to be included in the depth of field, an appropriate moving image can be generated with priority on the registered subject.

(7)制御部17(ステップS1221〜S1226)は、フレームについて、撮像シーンを認識し、ポートレートなどの第1撮像シーンおよび風景などの第2撮像シーンのいずれか一方に分類するシーン認識部を更に備える。例えば、第1撮像シーンでは被写界深度を浅く、第2撮像シーンでは被写界深度を深く設定する。したがって、撮像シーンに応じたリフォーカス動画を生成することができる。 (7) The control unit 17 (steps S1221 to S1226) recognizes an imaging scene for a frame, and classifies the scene recognition unit into either a first imaging scene such as a portrait or a second imaging scene such as a landscape. In addition. For example, the depth of field is set shallow in the first imaging scene, and the depth of field is set deep in the second imaging scene. Therefore, it is possible to generate a refocus moving image corresponding to the imaging scene.

次のような変形も本発明の範囲内であり、変形例を上述の実施形態と組み合わせることも可能である。   The following modifications are also within the scope of the present invention, and modifications can be combined with the above-described embodiment.

(表示例の変形例)
図3のステップS15において、既に説明したように、リフォーカス動画データの各フレームを解析し、解析結果に応じて、撮影時間を横軸にして像面位置および被写界深度を表示部19にグラフ表示する。図4は、この場合の表示例であり、図9は、この表示例の変形例を示す。以下、図9に基づいて説明する。
(Modification of display example)
In step S15 of FIG. 3, as already described, each frame of the refocus moving image data is analyzed, and according to the analysis result, the image plane position and the depth of field are displayed on the display unit 19 with the shooting time as the horizontal axis. Display a graph. FIG. 4 shows a display example in this case, and FIG. 9 shows a modification of this display example. Hereinafter, a description will be given with reference to FIG.

図9に示すように、グラフ表示領域19aには、撮影時間、像面位置、および被写界深度をそれぞれ軸とする3次元のグラフが表示されている。撮影時間(x軸)は、リフォーカス動画データの各フレームの撮影時間を表している。像面位置(y軸)、被写界深度(z軸)は、各フレームの撮影時間における変化をグラフ表示している。図中のA点およびB点は、像面位置が不連続に変化したことを示している。A点およびB点のフレームをキーフレームと称する。   As shown in FIG. 9, in the graph display area 19a, a three-dimensional graph with the shooting time, the image plane position, and the depth of field as axes is displayed. The shooting time (x-axis) represents the shooting time of each frame of the refocus moving image data. The image plane position (y-axis) and the depth of field (z-axis) are graphically displayed changes in the shooting time of each frame. Point A and point B in the figure indicate that the image plane position has changed discontinuously. Frames at points A and B are called key frames.

さらに、各キーフレームに対応して調整窓19b、19cが表示されている。調整窓19b、19cには、それぞれ、キーフレームの画像、像面位置調整用のスライドバー、被写界深度調整用のスライドバーが表示されている。像面位置調整用のスライドバーを左右にタッチ操作することによりキーフレームを基準に、像面位置を遠く、若しくは近くに調整することができる。また、被写界深度調整用のスライドバーを左右にタッチ操作することによりキーフレームを基準に、被写界深度を深く、若しくは浅く調整を行うことができる。なお、この例ではキーフレームが2点の場合を示したが、キーフレームの数に応じて調整窓を表示すればよい。   Further, adjustment windows 19b and 19c are displayed corresponding to each key frame. In the adjustment windows 19b and 19c, an image of a key frame, a slide bar for adjusting the image plane position, and a slide bar for adjusting the depth of field are displayed, respectively. By touching the slide bar for image plane position adjustment to the left and right, the image plane position can be adjusted far or near with reference to the key frame. Further, the depth of field can be adjusted deeper or shallower with reference to the key frame by touching the slide bar for adjusting the depth of field left and right. In this example, the number of key frames is two, but an adjustment window may be displayed according to the number of key frames.

ユーザによる像面位置および被写界深度の調整が完了すると決定釦19dをタッチ操作する。決定釦19dのタッチ操作に応答して、制御部17は、ユーザによって調整された像面位置および被写界深度に基づくリフォーカス画像処理を動画像データ(原画像データ)の各フレームに対して行う。   When the adjustment of the image plane position and the depth of field by the user is completed, the enter button 19d is touched. In response to the touch operation of the enter button 19d, the control unit 17 performs refocus image processing based on the image plane position and the depth of field adjusted by the user for each frame of the moving image data (original image data). Do.

(その他の変形例)
以上の実施形態の画像処理装置、撮像装置では、各フレームの像面位置と被写界深度を制御部17が自動的に行うものとして説明した。しかし、手動で像面位置と被写界深度を設定してもよい。たとえば、動画の原画像の全てのフレームについて、デフォルトで設定した像面位置と被写界深度によりリフォーカス画像処理を行ってリフォーカス画像を生成して保存する。保存した特定の像面位置と特定の被写界深度のリフォーカス画像を表示し、図4に示すような編集画面上で一フレームごとに手動で最適な像面位置と被写界深度を設定してもよい。
(Other variations)
In the image processing apparatus and the imaging apparatus according to the above-described embodiment, it has been described that the control unit 17 automatically performs the image plane position and the depth of field of each frame. However, the image plane position and the depth of field may be manually set. For example, refocus image processing is performed on all frames of an original image of a moving image according to the image plane position and depth of field set by default to generate and store a refocus image. Displays a refocused image of a specific image plane position and a specific depth of field saved, and manually sets the optimal image plane position and depth of field for each frame on the editing screen as shown in FIG. May be.

本発明は、上記の実施形態に限定されるものではなく、本発明の特徴を損なわない限り、本発明の技術思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。また、上述の実施形態と変形例を組み合わせた構成としてもよい。
したがって、本発明は、複数のマイクロレンズ13と複数のマイクロレンズ13よりも多くの受光素子31とを有する撮像素子14により撮像されて得た第1動画像データを入力する入力ステップと、第1動画像データに含まれる複数のフレームの各々に対して、被写界深度と光軸方向の所定範囲内の像面位置とを設定する設定ステップと、複数のフレームの各々を設定ステップで設定された被写界深度を有する像面位置の画像に変換した第2動画像データを出力する出力ステップとをコンピュータに実行させる画像処理プログラムも含む。
The present invention is not limited to the above-described embodiment, and other forms conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention as long as the characteristics of the present invention are not impaired. . Moreover, it is good also as a structure which combined the above-mentioned embodiment and a modification.
Therefore, the present invention includes an input step of inputting first moving image data obtained by imaging with the imaging element 14 having a plurality of microlenses 13 and a larger number of light receiving elements 31 than the plurality of microlenses 13; A setting step for setting a depth of field and an image plane position within a predetermined range in the optical axis direction for each of a plurality of frames included in the moving image data, and a setting step for setting each of the plurality of frames. And an image processing program for causing the computer to execute an output step of outputting the second moving image data converted into an image at an image plane position having a depth of field.

10 撮像装置
11 撮像部
12 撮像レンズ
13 マイクロレンズ
14 撮像素子
15 画像処理部
16 撮像制御部
17 制御部
18 記録インタフェース
19 表示部
20 操作部
21 可搬型メモリ
DESCRIPTION OF SYMBOLS 10 Imaging device 11 Imaging part 12 Imaging lens 13 Micro lens 14 Imaging element 15 Image processing part 16 Imaging control part 17 Control part 18 Recording interface 19 Display part 20 Operation part 21 Portable memory

Claims (21)

撮像光学系を透過した被写体からの光が入射する複数のマイクロレンズと前記マイクロレンズ毎に複数設けられた受光部とを有する撮像部から出力された第1画像データに対して、前記撮像光学系の光軸方向の焦点が合う被写体の位置と被写界深度とを設定する設定部と、
前記設定部で設定された前記焦点が合う被写体の位置と前記被写界深度とを有する複数の第2画像データを複数の前記第1画像データから生成して、前記複数の第2画像データを有する動画データを生成する生成部と、
前記生成部で生成された前記動画データの少なくとも一部の第2画像データの前記焦点が合う被写体の位置と前記被写界深度とのうちの少なくとも一方を変更する変更部と
を備える画像処理装置。
With respect to the first image data output from an imaging unit having a plurality of microlenses on which light from a subject that has passed through the imaging optical system enters and a plurality of light receiving units provided for each microlens, the imaging optical system A setting unit for setting the position of the subject in focus in the optical axis direction and the depth of field;
Generating a plurality of second image data having a position of the in-focus subject set by the setting unit and the depth of field from the plurality of first image data, and the plurality of second image data A generating unit for generating moving image data having,
An image processing apparatus comprising: a changing unit that changes at least one of the position of the focused subject and the depth of field of the second image data of at least a part of the moving image data generated by the generating unit .
請求項1に記載の画像処理装置において、
前記第1画像データから主要被写体を検出する検出部を備え、
前記設定部は、前記検出部で検出された前記主要被写体が前記被写界深度内に含まれるように前記被写界深度と前記焦点が合う被写体の位置とを設定する画像処理装置。
The image processing apparatus according to claim 1.
A detection unit for detecting a main subject from the first image data;
The image processing apparatus, wherein the setting unit sets the depth of field and the position of the subject in focus so that the main subject detected by the detection unit is included in the depth of field.
請求項2に記載の画像処理装置において、
前記設定部は、前記主要被写体が前記撮像光学系の光軸方向の第1の位置にあると第1の被写界深度を設定し、前記主要被写体が前記第1の位置よりも前記撮像光学系に近い第2の位置にあると前記第1の被写界深度よりも深い第2の被写界深度を設定する画像処理装置。
The image processing apparatus according to claim 2,
The setting unit sets a first depth of field when the main subject is in a first position in the optical axis direction of the imaging optical system, and the main subject is more in the imaging optical than the first position. An image processing apparatus that sets a second depth of field deeper than the first depth of field when the second position is close to the system.
請求項3に記載の画像処理装置において、
前記設定部は、前記主要被写体が前記検出部により検出されていない前記第1画像データには第1の被写界深度を設定し、前記主要被写体が前記検出部により検出された前記第1画像データには前記第1の被写界深度よりも浅い第2の被写界深度を設定する画像処理装置。
The image processing apparatus according to claim 3.
The setting unit sets a first depth of field in the first image data in which the main subject is not detected by the detection unit, and the first image in which the main subject is detected by the detection unit. An image processing apparatus that sets a second depth of field shallower than the first depth of field in the data.
請求項2に記載の画像処理装置において、
前記設定部は、前記検出部により複数の前記主要被写体が検出された場合には、前記複数の主要被写体が前記被写界深度内に含まれるように前記被写界深度と前記焦点が合う被写体の位置を設定する画像処理装置。
The image processing apparatus according to claim 2,
When the detection unit detects a plurality of the main subjects, the setting unit subjects the depth of field to the focus so that the plurality of main subjects are included in the depth of field. Image processing apparatus for setting the position of
請求項2に記載の画像処理装置において、
前記設定部は、前記撮像光学系の光軸方向の第1の位置にある第1主要被写体と前記第1の位置よりも前記撮像光学系から遠い第2の位置にある第2主要被写体が前記検出部によって検出されると、前記第1主要被写体が前記被写界深度内に含まれるように前記被写界深度と前記焦点が合う被写体の位置を設定する画像処理装置。
The image processing apparatus according to claim 2,
The setting unit includes a first main subject at a first position in an optical axis direction of the imaging optical system and a second main subject at a second position farther from the imaging optical system than the first position. An image processing apparatus that sets a position of a subject that is in focus with the depth of field so that the first main subject is included in the depth of field when detected by a detection unit.
請求項6に記載の画像処理装置において、
前記設定部は、前記第1主要被写体から前記撮像部の方向に所定距離だけ離れた位置に前記焦点が合う被写体の位置を設定する画像処理装置。
The image processing apparatus according to claim 6.
The setting unit is an image processing apparatus that sets the position of the subject that is in focus at a position that is a predetermined distance away from the first main subject in the direction of the imaging unit.
請求項2に記載の画像処理装置において、
前記主要被写体に関する情報を登録する登録部を更に備え、
前記設定部は、前記検出部により検出された複数の前記主要被写体のうち、前記登録部に前記情報が登録されている前記主要被写体を前記被写界深度内に含めるように前記被写界深度と前記焦点が合う被写体の位置を設定する画像処理装置。
The image processing apparatus according to claim 2,
A registration unit for registering information on the main subject;
The setting unit includes the depth of field so as to include the main subject whose information is registered in the registration unit among the plurality of main subjects detected by the detection unit. And an image processing apparatus for setting the position of the subject in focus.
請求項2から請求項8までのいずれか一項に記載の画像処理装置において、
前記撮像光学系の焦点距離を取得する焦点距離取得部を備え、
前記設定部は、前記焦点距離取得部により第1焦点距離が取得された場合には第1被写界深度を設定し、前記焦点距離取得部により前記第1焦点距離よりも短い第2焦点距離が取得された場合には前記第1被写界深度よりも浅い第2被写界深度を設定する画像処理装置。
In the image processing device according to any one of claims 2 to 8,
A focal length acquisition unit for acquiring a focal length of the imaging optical system;
The setting unit sets a first depth of field when the first focal length is acquired by the focal length acquisition unit, and a second focal length shorter than the first focal length by the focal length acquisition unit. Is acquired, the second depth of field shallower than the first depth of field is set.
請求項1から請求項8までのいずれか一項に記載の画像処理装置において、
前記第1画像データについて、撮像シーンを認識し第1撮像シーンおよび第2撮像シーンのいずれか一方に分類するシーン認識部を更に備え、
前記設定部は、前記第1撮像シーンに分類された前記第1画像データと前記第2撮像シーンに分類された前記第1画像データとで、設定する前記被写界深度および前記焦点が合う被写体の位置を異ならせる画像処理装置。
In the image processing device according to any one of claims 1 to 8,
A scene recognition unit for recognizing an imaging scene and classifying the first image data into one of a first imaging scene and a second imaging scene;
The setting unit sets the depth of field to be set and the subject that is in focus with the first image data classified into the first imaging scene and the first image data classified into the second imaging scene. An image processing device that changes the position of the.
請求項1から請求項10までのいずれか一項に記載の画像処理装置において、
前記複数の第1画像データの各々に設定された前記焦点が合う被写体の位置と前記被写界深度とを表示部に表示する表示制御部を備える画像処理装置。
In the image processing device according to any one of claims 1 to 10,
An image processing apparatus comprising: a display control unit configured to display, on a display unit, the position of the subject in focus set to each of the plurality of first image data and the depth of field.
請求項11に記載の画像処理装置において、
前記表示制御部は、一方の軸を時間軸、他方の軸を前記焦点が合う被写体の位置として直線または曲線により前記焦点が合う被写体の位置を前記表示部に表示する画像処理装置。
The image processing apparatus according to claim 11.
The display control unit displays the position of the subject in focus on the display unit by a straight line or a curve with one axis as a time axis and the other axis as the position of the subject in focus.
請求項12に記載の画像処理装置において、
前記表示制御部は、前記焦点が合う被写体の位置を表す直線または曲線の周囲に前記被写界深度を表す範囲を前記表示部に表示する画像処理装置。
The image processing apparatus according to claim 12.
The display control unit is an image processing device that displays a range representing the depth of field on the display unit around a straight line or a curve representing the position of the subject in focus.
請求項11に記載の画像処理装置において、
前記表示制御部は、前記表示部に時間軸を第1軸、前記焦点が合う被写体の位置を第2軸、前記被写界深度を第3軸とする三次元表示を行う画像処理装置。
The image processing apparatus according to claim 11.
The display control unit is an image processing apparatus that performs three-dimensional display on the display unit with a first axis as a time axis, a second axis as the position of the subject in focus, and a third axis as the depth of field.
請求項11から請求項14までのいずれか一項に記載の画像処理装置において、
前記設定部は、設定した前記被写界深度および前記焦点が合う被写体の位置を、前記変更部により変更された焦点が合う被写体の位置と被写界深度との少なくとも一方に再設定し、
前記表示制御部は、再設定された前記被写界深度および前記焦点が合う被写体の位置により前記表示部の表示を変更する画像処理装置。
The image processing apparatus according to any one of claims 11 to 14,
The setting unit resets the set depth of field and the focused subject position to at least one of the focused subject position and the depth of field changed by the changing unit,
The display control unit is an image processing device that changes the display of the display unit according to the reset depth of field and the position of the subject in focus.
請求項15に記載の画像処理装置において、
前記設定部は、前記複数の第1画像データのうちの所定第1画像データをキーフレームに設定し、
前記変更部は、前記設定部により設定された前記キーフレームの前記焦点が合う被写体の位置と前記被写界深度とは異なる焦点が合う被写体の位置と被写界深度との少なくとも一方が変更され、
前記設定部は、2つのキーフレームの間の第1画像データにおける前記焦点が合う被写体の位置と前記被写界深度を、一方のキーフレームに対する前記変更された焦点が合う被写体の位置と被写界深度との少なくとも一方と、他方のキーフレームにに対する前記変更された焦点が合う被写体の位置と被写界深度との少なくとも一方との間で段階的に変化させる画像処理装置。
The image processing apparatus according to claim 15, wherein
The setting unit sets a predetermined first image data of the plurality of first image data as a key frame,
The changing unit is configured to change at least one of a position of the subject in focus of the key frame set by the setting unit and a position of the subject in focus different from the depth of field and the depth of field. ,
The setting unit sets the position of the in-focus subject and the depth of field in the first image data between two key frames, and the position of the changed in-focus subject for one key frame and the subject. An image processing apparatus that changes stepwise between at least one of a depth of field and at least one of a position of the subject that is changed in focus with respect to the other key frame and a depth of field.
請求項16に記載の画像処理装置において、
前記設定部は、前記被写界深度および前記焦点が合う被写体の位置が変化した第1画像データをキーフレームに設定する画像処理装置。
The image processing apparatus according to claim 16.
The setting unit is an image processing apparatus that sets, as a key frame, first image data in which the depth of field and the position of a subject in focus are changed.
請求項2から請求項9までのいずれか一項に記載の画像処理装置において、
前記設定部は、前記検出部による前記主要被写体の検出結果が変化した第1画像データをキーフレームに設定する画像処理装置。
In the image processing device according to any one of claims 2 to 9,
The setting unit is an image processing device that sets, as a key frame, first image data in which a detection result of the main subject by the detection unit has changed.
請求項1から請求項18までのいずれか一項に記載の画像処理装置と、
前記撮像部と、
を備える撮像装置。
The image processing apparatus according to any one of claims 1 to 18,
The imaging unit;
An imaging apparatus comprising:
請求項19に記載の撮像装置において、
前記焦点が合う被写体の位置の範囲を報知する報知部を備える撮像装置。
The imaging device according to claim 19,
An imaging apparatus comprising an informing unit for informing a range of a position of a subject in focus.
撮像光学系を透過した被写体からの光が入射する複数のマイクロレンズと前記マイクロレンズ毎に複数設けられた受光部とを有する撮像部から出力された第1画像データに対して、前記撮像光学系の光軸方向の焦点が合う被写体の位置と被写界深度とを設定する設定ステップと、
前記設定ステップで設定された前記焦点が合う被写体の位置と前記被写界深度とを有する複数の第2画像データを複数の前記第1画像データから生成して、前記複数の第2画像データを有する動画データを生成する生成ステップと、
前記生成ステップで生成された前記動画データの少なくとも一部の第2画像データの前記焦点が合う被写体の位置と前記被写界深度とのうちの少なくとも一方を変更する変更ステップと、
をコンピュータに実行させる画像処理プログラム。
With respect to the first image data output from an imaging unit having a plurality of microlenses on which light from a subject that has passed through the imaging optical system enters and a plurality of light receiving units provided for each microlens, the imaging optical system A setting step for setting the position of the subject in focus in the optical axis direction and the depth of field;
Generating a plurality of second image data having a position of the in-focus subject set in the setting step and the depth of field from the plurality of first image data; A generation step for generating video data having;
A changing step for changing at least one of the position of the focused subject and the depth of field of the second image data of at least a part of the moving image data generated in the generating step;
An image processing program for causing a computer to execute.
JP2016072073A 2016-03-31 2016-03-31 Image processing device, imaging device, and image processing program Active JP6693236B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016072073A JP6693236B2 (en) 2016-03-31 2016-03-31 Image processing device, imaging device, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016072073A JP6693236B2 (en) 2016-03-31 2016-03-31 Image processing device, imaging device, and image processing program

Publications (2)

Publication Number Publication Date
JP2017184144A true JP2017184144A (en) 2017-10-05
JP6693236B2 JP6693236B2 (en) 2020-05-13

Family

ID=60007783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016072073A Active JP6693236B2 (en) 2016-03-31 2016-03-31 Image processing device, imaging device, and image processing program

Country Status (1)

Country Link
JP (1) JP6693236B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11232315B2 (en) 2020-04-28 2022-01-25 NextVPU (Shanghai) Co., Ltd. Image depth determining method and living body identification method, circuit, device, and medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011211291A (en) * 2010-03-29 2011-10-20 Sanyo Electric Co Ltd Image processing apparatus, imaging apparatus and display device
JP2012095186A (en) * 2010-10-28 2012-05-17 Sanyo Electric Co Ltd Electronic device
WO2014129127A1 (en) * 2013-02-21 2014-08-28 Necカシオモバイルコミュニケーションズ株式会社 Image processing device, image processing method and permanent computer-readable medium
JP2015139020A (en) * 2014-01-21 2015-07-30 株式会社ニコン Electronic apparatus and control program
JP2015192363A (en) * 2014-03-28 2015-11-02 富士フイルム株式会社 Image reproducing device, image reproducing method, and program for controlling computer of image reproducing device
JP2016136699A (en) * 2015-01-23 2016-07-28 キヤノン株式会社 Information processing apparatus, control method thereof, program, and storage medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011211291A (en) * 2010-03-29 2011-10-20 Sanyo Electric Co Ltd Image processing apparatus, imaging apparatus and display device
JP2012095186A (en) * 2010-10-28 2012-05-17 Sanyo Electric Co Ltd Electronic device
WO2014129127A1 (en) * 2013-02-21 2014-08-28 Necカシオモバイルコミュニケーションズ株式会社 Image processing device, image processing method and permanent computer-readable medium
JP2015139020A (en) * 2014-01-21 2015-07-30 株式会社ニコン Electronic apparatus and control program
JP2015192363A (en) * 2014-03-28 2015-11-02 富士フイルム株式会社 Image reproducing device, image reproducing method, and program for controlling computer of image reproducing device
JP2016136699A (en) * 2015-01-23 2016-07-28 キヤノン株式会社 Information processing apparatus, control method thereof, program, and storage medium

Also Published As

Publication number Publication date
JP6693236B2 (en) 2020-05-13

Similar Documents

Publication Publication Date Title
JP6288952B2 (en) Imaging apparatus and control method thereof
JP5898501B2 (en) Image processing apparatus, imaging apparatus, control method, program, and recording medium
JP6202910B2 (en) Video processing apparatus, control method therefor, and program
US20080181460A1 (en) Imaging apparatus and imaging method
JP5474234B2 (en) Monocular stereoscopic imaging apparatus and control method thereof
US10511781B2 (en) Image pickup apparatus, control method for image pickup apparatus
JP5814692B2 (en) Imaging apparatus, control method therefor, and program
JP5788518B2 (en) Monocular stereoscopic photographing apparatus, photographing method and program
US8823778B2 (en) Imaging device and imaging method
JP5612774B2 (en) Tracking frame initial position setting device and operation control method thereof
JP2013145314A5 (en)
JP6159097B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP5750551B2 (en) Apparatus and method for measuring distance of multiple subjects
JP6752681B2 (en) Display control device, control method and program of display control device, and storage medium
US20140226039A1 (en) Image capturing apparatus and control method thereof
JP2016219991A (en) Image processor and control method thereof and program
JP2012178688A (en) Stereoscopic image photographing device
JP5526733B2 (en) Image composition device, image reproduction device, and imaging device
JP2013160991A (en) Imaging apparatus
JP6693236B2 (en) Image processing device, imaging device, and image processing program
JP6491442B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2019032370A (en) Imaging device and control method thereof
JP2017041857A (en) Image processing system, control method of the same, program, and imaging apparatus
JP2008219367A (en) Imaging apparatus and imaging method
JP6336284B2 (en) Image processing apparatus, control method thereof, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200210

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20200210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200330

R150 Certificate of patent or registration of utility model

Ref document number: 6693236

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250