JP2016058814A - Image recording apparatus, method, and program - Google Patents
Image recording apparatus, method, and program Download PDFInfo
- Publication number
- JP2016058814A JP2016058814A JP2014182179A JP2014182179A JP2016058814A JP 2016058814 A JP2016058814 A JP 2016058814A JP 2014182179 A JP2014182179 A JP 2014182179A JP 2014182179 A JP2014182179 A JP 2014182179A JP 2016058814 A JP2016058814 A JP 2016058814A
- Authority
- JP
- Japan
- Prior art keywords
- image
- moving image
- still
- generating
- still image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Transforming Light Signals Into Electric Signals (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像記録装置および方法、並びにプログラムに関し、特に、動画撮影を中断することなく、静止画撮影を行うことを可能とする画像記録装置の制御技術に関する。 The present invention relates to an image recording apparatus and method, and a program, and more particularly to a control technique for an image recording apparatus that enables still image shooting without interrupting moving image shooting.
従来、動画撮影時において任意のタイミングで静止画(以下、「動画中静止画」と呼ぶ)を取得する技術が提案されている。本技術では、撮像光学系が単一であるデジタルカメラにおいて、ユーザー指示によって静止画撮影モードとなった場合に、動画記録が中断され、後で動画を鑑賞する際に、静止画取得時のみ動画がストップして再生されるという課題がある。さらに、同時刻に動画と静止画の両方を取得する際に、望ましいシャッター速度が動画と静止画の夫々で異なるといった課題もある。例えば、60fpsで動画を撮影すると同時に、1/60秒よりも長いシャッター速度で静止画を取得したい、という場合に発生する。 Conventionally, a technique for acquiring a still image (hereinafter referred to as “moving still image”) at an arbitrary timing during moving image shooting has been proposed. With this technology, in a digital camera with a single imaging optical system, when the still image shooting mode is entered by a user instruction, the movie recording is interrupted, and when viewing the movie later, the movie is captured only when the still image is acquired. There is a problem that is stopped and played. Furthermore, when both a moving image and a still image are acquired at the same time, there is a problem that a desirable shutter speed differs between the moving image and the still image. For example, it occurs when a user wants to acquire a still image with a shutter speed longer than 1/60 seconds at the same time as shooting a moving image at 60 fps.
上記課題に対して、特許文献1および特許文献2に示す技術が提案されている。特許文献1に示す技術では、入射光を瞳分割光学系により2つの光束に分割し、夫々を静止画撮影用の撮像素子及び、動画撮影用の撮像素子に入射させることによって、動画と静止画を取得する。
In order to solve the above problems, techniques shown in
また、特許文献2に示す技術では、動画中静止画の取得時に、動画像の1フレームの露光時間を複数に分割して複数の連続撮影画像を取得し、前記画像を位置合わせ無しで合成したものを動画フレーム、位置合わせを行いながら合成した画像を静止画として取得する。 In the technique disclosed in Patent Document 2, when acquiring a still image in a moving image, a plurality of continuously shot images are acquired by dividing the exposure time of one frame of a moving image into a plurality of images, and the images are synthesized without alignment. Acquire a moving image as a still image and a synthesized image while performing positioning.
しかしながら、上記特許文献1に記載の技術では、瞳分割に伴うシェーディングが発生し、取得される動画及び静止画にシェーディングによる輝度ムラ、もしくはシェーディングの補正によるノイズムラが生じるという課題がある。また、瞳分割により取得される動画及び静止画の被写界深度が所望の設定値よりも深くなるという課題がある。特許文献1では、前記課題を解決するための記載がない。なお、瞳分割によるシェーディングおよび被写界深度の変化についての詳細は後述する。
However, the technique described in
さらに、特許文献2に記載の技術では、時分割で撮影を行った複数の画像はそれぞれ露光量が少ないため、合成画像のSNが著しく劣化するという課題がある。また、静止画を動画像相当の画像サイズで取得するため、一般的には所望よりも得られる静止画のサイズは小さくなり、仮に拡大して静止画相当のサイズに変換したとしても、拡大処理に伴う解像感の劣化を引き起こしてしまう。 Furthermore, the technique described in Patent Document 2 has a problem that the SN of the composite image is significantly deteriorated because each of the plurality of images taken in time division has a small exposure amount. In addition, since still images are acquired with an image size equivalent to a moving image, the size of the still image obtained is generally smaller than desired, and even if it is enlarged and converted to a size equivalent to a still image, the enlargement process is performed. Cause degradation of resolution.
本発明は、上記課題に鑑みて成されたものであり、瞳分割によるシェーディングや被写界深度の変化の影響、および時分割撮影によるSN劣化の影響を最小限に抑えつつ、動画撮影中にシームレスに静止画を取得することを目的とする。 The present invention has been made in view of the above problems, and during moving image shooting while minimizing the effects of shading and depth of field changes due to pupil division and SN degradation due to time division shooting. The purpose is to obtain still images seamlessly.
上記目的を達成するために、本発明の画像記録装置は、1つのマイクロレンズと一対の光電変換部を有する複数の画素で構成され、前記複数の画素のそれぞれが光学系の射出瞳を通過した光束を前記マイクロレンズにより前記一対の光電変換部のそれぞれに受光して信号を出力する撮像素子を備える画像記録装置において、前記一対の光電変換部のうちの一方から得られる第1の画像と他方から得られる第2の画像を加算合成して動画フレームを生成する動画フレーム生成手段と、静止画を取得するための前記撮像素子による撮影の撮影条件を決定する決定手段と、前記撮像素子による動画撮影中に静止画取得指示がなされた場合、前記決定手段により決定された撮影条件に基づいて撮影された複数の第1の画像を取得し、当該複数の第1の画像のうち1枚の静止画を生成するために必要な枚数を加算合成して静止画を生成する静止画生成手段とを備え、前記動画フレーム生成手段は、動画フレームを生成するために必要な枚数を加算合成した第1の画像と前記第2の画像から動画フレームを生成することを特徴とする。 In order to achieve the above object, an image recording apparatus according to the present invention includes a plurality of pixels having one microlens and a pair of photoelectric conversion units, and each of the plurality of pixels passes through an exit pupil of an optical system. In an image recording apparatus including an imaging device that receives a light beam by each of the pair of photoelectric conversion units by the microlens and outputs a signal, the first image obtained from one of the pair of photoelectric conversion units and the other A moving image frame generating means for generating a moving image frame by adding and synthesizing the second images obtained from the above, a determining means for determining shooting conditions by the image sensor for obtaining a still image, and a moving image by the image sensor When a still image acquisition instruction is given during shooting, a plurality of first images shot based on the shooting conditions determined by the determination unit are acquired, and the plurality of first images are acquired. A still image generating unit that generates a still image by adding and synthesizing a required number of images to generate one still image of the image, and the moving image frame generating unit is necessary for generating a moving image frame. A moving image frame is generated from the first image obtained by adding and combining the number of images and the second image.
本発明によれば、瞳分割によるシェーディングや深度変化の影響、および時分割撮影によるSN劣化の影響を最小限に抑えつつ、動画撮影中にシームレスに静止画を取得することができる。 According to the present invention, still images can be obtained seamlessly during moving image shooting while minimizing the effects of shading and depth changes due to pupil division and the effects of SN degradation due to time-division shooting.
以下、本発明の実施の形態を図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[第1の実施形態]
図1は、本発明の第1の実施形態に係る画像記録装置の一例であるデジタルカメラの機能構成を示すブロック図である。
[First embodiment]
FIG. 1 is a block diagram showing a functional configuration of a digital camera which is an example of an image recording apparatus according to the first embodiment of the present invention.
デジタルカメラ100は、システム制御部101、ROM102、RAM103、光学系104、撮像部105、A/D変換部106、画像処理部107、記録媒体108、およびシステムバス109を備える。
The
システム制御部101は、例えばCPUであり、制御プログラムをROM102より読み出し、RAM103に展開して実行することによりデジタルカメラ100が備える複数の機能ブロックの動作を制御する。ROM102は、書き換え可能な不揮発性メモリであり、上記制御プログラムに加えて、各種機能ブロックの動作に必要なパラメータ等を記憶する。焦点検出などに必要なレンズ情報として、射出瞳距離もROM102に記憶されている。
The
RAM103は、書き換え可能な揮発性メモリであり、デジタルカメラ100が備える各種機能ブロックの動作において、出力されたデータの一時的な記憶領域として用いられる。
A
光学系104は、被写体像を撮像部105に結像するレンズ群である。光学系104には絞りも含まれており、絞りを調節することで撮影時の光量調節を行う。撮像部105は、例えばCCDやCMOSセンサ等の撮像素子であり、光学系104により撮像素子に結像された光学像を光電変換し、得られたアナログ画像信号をA/D変換部106に出力する。A/D変換部106は、入力されたアナログ画像信号にA/D変換処理を適用し、得られたデジタル画像データをRAM103に出力して記憶させる。
The
画像処理部107は、主に、RAM103から画像データを読み出して所定の画像処理を行う。記録媒体108は着脱可能なメモリカード等であり、画像処理部107により画像処理された画像データやA/D変換部106でA/D変換された画像データなどが記録画像として保存される。システムバス109は、各種機能ブロックの間で信号のやり取りを行うために用いられる。
The
図2(a)は、図1における撮像部105の画素配列を示す図である。図2(b)は、図2(a)に示す画素200を拡大した図である。
FIG. 2A is a diagram illustrating a pixel array of the
撮像部105では、図2(a)に示すように、画素200が二次元的に規則的に配列されている。
In the
画素200は、図2(b)に示すように、マイクロレンズ201と、一対の光電変換部203A,204B(以下、「瞳分割画素203A,204B」と呼ぶ。)から構成される。
As shown in FIG. 2B, the
図3は、撮像部105の撮像面全体を示す図であり、画素200は撮像面の中央近傍(符号300)に配置された画素とする。また、撮像部105のいずれの画素も、瞳分割画素203A,204Bのそれぞれが独立に受光して得られた信号を出力することができる。なお、図3における符号301については後述する。
FIG. 3 is a diagram illustrating the entire imaging surface of the
画素200の右側にある瞳分割画素203Aから出力された信号をA(x,y)、左側にある瞳分割画素204Bから出力された信号をB(x,y)としたとき、全開口信号g(x,y)は下記(式1)で表現される。
When the signal output from the
g(x,y)=A(x,y)+B(x,y)・・・(式1)
以下の説明では、瞳分割画素203Aもしくは瞳分割画素204Bの信号から成る画像を瞳分割画像と呼び、瞳分割画素203Aから得られる画像をA像、瞳分割画素204Bから得られる画像をB像と呼ぶ。また、全開口信号gから成る画像を全開口画像と呼ぶ。
g (x, y) = A (x, y) + B (x, y) (Formula 1)
In the following description, an image composed of signals from the
次に、画素200における瞳分割の概念について図4を参照して説明する。
Next, the concept of pupil division in the
図4は、図2(b)に示す画素200のS−S断面を+y側から見た断面図と光学系104の射出瞳面である。図4では、射出瞳面の座標軸と対応を取るため、断面図のx軸とy軸を図2に対して反転させている。なお、図4において、図2と同じ部分は同じ符号で表記している。
4 is a cross-sectional view of the S-S cross section of the
撮像部105は、光学系104の結像面近傍に配置されている。被写体からの光束は、光学系104の射出瞳400を通過して、それぞれの画素に入射する。射出瞳400の大きさは、絞りの大きさや、レンズを保持するレンズ枠などの大きさによって変化する。
The
瞳部分領域401A,402Bは、2×1分割された瞳分割画素203A,204Bの受光面と、マイクロレンズ201によって、概ね共役関係になっている。従って、各瞳部分領域を通過した光束は、共役関係にある各瞳分割画素で受光される。
The pupil partial areas 401 </ b> A and 402 </ b> B are generally in a conjugate relationship by the light receiving surfaces of the pupil division pixels 203 </ b> A and 204 </ b> B divided into 2 × 1 and the
光学系104の射出瞳400は、瞳分割数をNp=M×Nとして、異なる瞳部分領域にNp分割される。光学系104の絞り値をFとすると、瞳部分領域の実効絞り値は、概ね√(M×N)Fとなる。また、瞳領域403は、M×N分割された光電変換部を全て合わせた際の画素200全体で受光可能な瞳領域(全開口領域)である。
The
本実施形態では、瞳分割数M×Nを2×1としているので、瞳部分領域の実効絞り値は√2Fとなる。つまり、A像、B像のそれぞれは全開口画像と比較して、一段分被写界深度が深く、暗い画像となる。 In this embodiment, since the pupil division number M × N is 2 × 1, the effective aperture value of the pupil partial region is √2F. That is, each of the A image and the B image is a dark image having a depth of field that is one step deeper than the full aperture image.
図5は、図4に示す画素200のx軸断面における受光特性を示す図である。
FIG. 5 is a diagram showing the light receiving characteristics in the x-axis cross section of the
図5において、横軸は光学系104の射出瞳面における水平座標、縦軸は瞳分割画素の受光効率を表す。また、この縦軸は、各開口絞りの透過率分布でもあるので、瞳分割画素の光束受光効率と見なすことができる。この光束受光効率の分布特性を瞳強度分布と呼ぶこととする。また、図5における点線は射出瞳400の幅を投影したものである。
In FIG. 5, the horizontal axis represents the horizontal coordinate on the exit pupil plane of the
図4および図5において、撮像面の中央近傍の画素における瞳分割画素203A,204Bに受光する光量は等しくなる。 4 and 5, the light amounts received by the pupil division pixels 203 </ b> A and 204 </ b> B in the pixels near the center of the imaging surface are equal.
瞳分割画素203Aの瞳強度分布501Aに着目すると、+x側はセンサの瞳分割性能が十分でないことによる回折ボケのため緩やかなカーブとなっている。一方、−x側はレンズ枠のケラレにより急なカーブになる。そのため、瞳強度分布501Aは、強度のピークに対して非対称になっている。他方、瞳分割画素204Bの瞳強度分布502Bに関しては、瞳強度分布501Aが左右反転した形状となっていて同様のことが言える。
Paying attention to the
次に、図3に示す撮像部105の301に示す周辺像高部に配置された画素について説明する。
Next, pixels arranged in the peripheral image height portion indicated by 301 of the
図6(a)は周辺像高部に配置された画素が有する瞳分割画素の投影像を示した図である。図6(b)は、図6(a)の瞳強度分布を説明するための図である。 FIG. 6A is a diagram showing a projected image of pupil-divided pixels included in pixels arranged in the peripheral image height portion. FIG. 6B is a diagram for explaining the pupil intensity distribution of FIG.
図6(a)において、周辺像高における画素でも、瞳部分領域601A,602Bおよび瞳領域603の構成は図4と同じである。一方、射出瞳600の形状は口径食(ケラレ)によって変化する。その結果、シェーディングが発生する。そのため、射出瞳の投影像の重心が瞳部分領域601Aの中心寄りになり、図6(b)に示すように、瞳部分領域601Aの方が瞳部分領域602Bよりも受光効率が高くなり、明るい画像となる。他方、反対の周辺像高では、この現象の逆が起こり、瞳部分領域602Bの方が瞳部分領域601Aよりも受光効率が高くなり、明るい画像となる。ここで、周辺像高部における瞳分割画素Aと瞳分割画素Bの明るさの関係を図7に示す。
In FIG. 6A, the configuration of the pupil
図7は、瞳分割画素Aと瞳分割画素Bの明るさ(輝度)の変化を示す図である。 FIG. 7 is a diagram illustrating changes in brightness (luminance) of the pupil division pixel A and the pupil division pixel B. FIG.
図7において、実線は瞳分割画素Aを、点線は瞳分割画素Bを表している。図7において、−x側では瞳分割画素Aの方が、瞳分割画素Bよりも明るいので、B像と比較してA像の方が被写界深度が浅く、画像のノイズ量を表す指標であるS/N比が向上する。一方、+x側ではその逆となる。 In FIG. 7, the solid line represents the pupil division pixel A, and the dotted line represents the pupil division pixel B. In FIG. 7, the pupil division pixel A is brighter than the pupil division pixel B on the −x side. Therefore, the A image has a shallower depth of field than the B image, and the index represents the noise amount of the image. This improves the S / N ratio. On the other hand, the opposite is true on the + x side.
以上が、撮像部105における画素配列及び瞳分割の概念であり、瞳分割に伴うシェーディング及び被写界深度差の発生という課題の説明である。
The above is the concept of pixel arrangement and pupil division in the
次に、デジタルカメラ100内の画像処理部107で実行される、動画中静止画の取得処理について説明する。
Next, a process for acquiring a still image in moving image executed by the
本実施形態では、取得される静止画よりも動画の画質の方に重点を置いた処理となっており、静止画の画質の方に重点を置いた処理に関しては第2実施形態で説明を行う。以下、前者の処理を動画優先モード、後者の処理を静止画優先モードと呼ぶ。 In the present embodiment, the processing is more focused on the image quality of the moving image than the acquired still image, and the processing focused on the image quality of the still image will be described in the second embodiment. . Hereinafter, the former process is referred to as a moving image priority mode, and the latter process is referred to as a still image priority mode.
図8は、第1の実施形態における動画優先モード時の画像処理部107の動作処理を示すフローチャートである。
FIG. 8 is a flowchart showing an operation process of the
前提として、本処理の開始時点でデジタルカメラ100は動画撮影中であるものとする。また、撮像部105の撮影モードには、動画モードと静止画モードがあり、これら2つのモードは、それぞれ読み出し画像の画素数やシャッター速度などの撮影条件が異なっている。以下、A像とB像で動作が異なるため、それぞれに分けて説明を行う。
As a premise, it is assumed that the
A像の処理に関しては、まず、ステップS801において、画像処理部107は、静止画取得指示の有無を判定する。静止画取得指示とは、例えばデジタルカメラ100のレリーズボタン(不図示)の半押しなどの外部からの操作が挙げられる。
Regarding the processing of the A image, first, in step S801, the
ステップS801において、静止画取得指示がなしと判定した場合、ステップS802に進み、動画モードでの撮影が行われる。一方、静止画取得指示有りと判定した場合には、ステップS803に進み、静止画モードでの撮影が行われる。 If it is determined in step S801 that there is no still image acquisition instruction, the process proceeds to step S802, and shooting in the moving image mode is performed. On the other hand, if it is determined that there is a still image acquisition instruction, the process advances to step S803 to perform shooting in the still image mode.
ステップS803では、画像処理部107は、静止画モードの撮影条件を決定する。静止画モードの撮影条件とは、1枚の静止画を撮影する際の撮影条件であり、具体的には、撮影感度、絞り値、シャッター速度であり、撮影画角の明るさから最適な露出となるように自動決定される。
In step S803, the
次に、ステップS804では、画像処理部107は、時分割静止画の撮影条件の決定処理を行う。ここで、静止画を時分割で取得する理由は主に2点ある。1つは動画モードにおけるシャッター速度と、静止画モードにおけるシャッター速度が異なる場合があるからである。もう1つは瞳分割による画質的な課題(シェーディングや被写界深度差)を解決するために、本実施形態では動画フレームを全開口画像で生成するので、静止画モードで取得されたA像から、B像と対となる動画フレームも生成する必要があるからである。
In step S <b> 804, the
動画モードにおけるシャッター速度と、静止画モードにおけるシャッター速度の違いについて説明する。 A difference between the shutter speed in the moving image mode and the shutter speed in the still image mode will be described.
例えば、60fpsの動画ではフレームレートの関係上、シャッター速度は1/60秒以下となるが、暗いシーンを撮影する場合における静止画のシャッター速度は、それよりも長い時間が好ましい。また、ダイナミックレンジ拡大処理などで、静止画を適正な明るさよりもアンダー露出で撮影する場合には、静止画のシャッター速度は動画と比較して短時間であることが好ましい。以上の理由により、動画モードと静止画モードのシャッター速度が異なる場合があるため、後の合成処理で合成枚数を変えることにより、動画と静止画のどちらにも対応できるよう、撮影速度を短くし時分割的に撮影する。従って、時分割静止画の撮影条件として、露出条件の他に、静止画を時分割で取得する枚数も必要となる。 For example, in the case of a moving image of 60 fps, the shutter speed is 1/60 second or less due to the frame rate, but it is preferable that the shutter speed of a still image when shooting a dark scene is longer than that. Further, when a still image is shot with underexposure rather than appropriate brightness in dynamic range expansion processing or the like, the shutter speed of the still image is preferably shorter than that of a moving image. For the above reasons, the shutter speeds in the movie mode and still image mode may differ, so the shooting speed can be shortened so that both the movie and still images can be handled by changing the number of images to be combined in the subsequent combining process. Shoot time-divisionally. Accordingly, the number of still images acquired in time division is required in addition to the exposure conditions as the time division still image shooting conditions.
ステップS804における時分割静止画の撮影条件の決定方法について図9を用いて詳細に説明する。 The method for determining the shooting conditions for the time-division still image in step S804 will be described in detail with reference to FIG.
図9は、時分割静止画の撮影条件の決定方法の一例を示す図である。 FIG. 9 is a diagram illustrating an example of a method for determining a shooting condition for a time-division still image.
図9では、動画のシャッター速度Tv_movieが1/100秒、静止画のシャッター速度Tv_stillが1/60秒の場合を示している。 FIG. 9 shows a case where the moving image shutter speed Tv_movie is 1/100 seconds and the still image shutter speed Tv_still is 1/60 seconds.
まず、Tv_movieとTv_stillを簡単な整数比で表す。つまり、図9の例では、Tv_still:Tv_movie=5:3となる。ここで、整数比が、動画及び静止画を生成する際に必要な加算枚数N_still,N_movieとなる。さらに、動画及び静止画の所望のシャッター速度を、それぞれの加算枚数で除算した値が、時分割静止画のシャッター速度Tv_divである。図9の例では、Tv_div=1/300秒である。 First, Tv_movie and Tv_still are expressed by a simple integer ratio. That is, in the example of FIG. 9, Tv_still: Tv_movie = 5: 3. Here, the integer ratio is the number of added sheets N_still, N_movie necessary for generating a moving image and a still image. Furthermore, a value obtained by dividing the desired shutter speeds for moving images and still images by the respective added number is the shutter speed Tv_div for time-division still images. In the example of FIG. 9, Tv_div = 1/300 seconds.
本実施形態では、1枚の静止画を生成するために5枚の時分割静止画を取得する必要があるが、1フレームの動画を生成するためには3枚の時分割静止画が必要である。そこで、連続的に動画フレームを生成するために、時分割静止画を6枚取得し、うち5枚を合成して静止画を生成し、この静止画3枚ずつを合成して2フレームの動画フレームを生成する。従って、時分割静止画取得枚数は6枚となる。このように、撮影条件、1枚の静止画を生成するための必要な枚数および動画フレームを生成するための必要な枚数は、撮像素子から出力される信号の信号レベルに基づいて決定される。 In this embodiment, it is necessary to acquire five time-division still images in order to generate one still image, but three time-division still images are required to generate one frame of moving image. is there. Therefore, in order to generate moving image frames continuously, 6 time-division still images are acquired, 5 of them are combined to generate a still image, and 3 still images are combined to generate a 2 frame moving image. Generate a frame. Therefore, the number of time-division still image acquisition is six. As described above, the shooting conditions, the number of sheets required to generate one still image and the number of sheets required to generate a moving image frame are determined based on the signal level of the signal output from the image sensor.
図8に戻り、ステップS805において、画像処理部107は、上述の方法で決定した撮影条件により時分割静止画を取得し、ステップS806において、時分割静止画を所定枚数分取得したかどうかを判定する。未取得と判定した場合、画像処理部107は、ステップS805に戻って静止画の取得を継続する。一方、取得済みと判定した場合、画像処理部107は静止画取得指示をOFF(解除)し(ステップS807)、動画撮影モードに遷移する。
Returning to FIG. 8, in step S805, the
他方、B像では、静止画取得指示の有無にかかわらず、ステップS808で継続的に動画撮影が行われる。 On the other hand, in the B image, moving image shooting is continuously performed in step S808 regardless of whether there is a still image acquisition instruction.
ステップS809の表示用動画フレーム生成処理では、静止画取得指示がある場合にはB像の動画フレームのみが入力され、静止画取得指示がない場合には、A像およびB像の動画フレームが入力される。なお、A像およびB像で取得された動画フレームや時分割静止画は、ROM102に格納される。なお、ステップS809の表示用動画フレーム生成処理の詳細については後述する。
In the display moving image frame generation processing in step S809, when there is a still image acquisition instruction, only the B image moving image frame is input, and when there is no still image acquisition instruction, the A image and B image moving image frames are input. Is done. Note that the moving image frames and time-division still images acquired for the A and B images are stored in the
次に、ステップS810において、画像処理部107は、動画記録停止指示の有無を判定する。動画記録停止指示とは、例えばデジタルカメラ100の動画撮影ボタン(不図示)の押下などの外部からの操作が挙げられる。
Next, in step S810, the
ステップS810において、動画記録停止指示がなしと判定した場合には、ステップS801に戻って動画撮影が継続される。一方、動画記録指示があり判定した場合には、ステップS811の本記録用動画、静止画作成処理が実行される。 If it is determined in step S810 that there is no moving image recording stop instruction, the flow returns to step S801 to continue moving image shooting. On the other hand, if it is determined that there is a moving image recording instruction, the main recording moving image and still image creation processing in step S811 is executed.
ステップS811では、画像処理部107は、ROM102に記録された動画フレームおよび時分割静止画から、本記録用の動画および静止画を生成する。ステップS811における動作処理の具体例を図10に示す。
In step S811, the
図10では、動画の任意の7フレームを抽出し、動画撮影中に静止画取得指示が出された場合の本記録用の動画及び静止画を生成する過程を示している。 FIG. 10 shows a process of generating a moving image and a still image for main recording when an arbitrary seven frames of a moving image are extracted and a still image acquisition instruction is issued during moving image shooting.
図10において、水平軸は時間tを示し、垂直軸は取得される画像の垂直方向の解像度(画素)を示す。また、A像およびB像から得られる動画フレームをそれぞれA1,A2・・A7,B1,B2・・B7とし、3フレーム目のタイミングで時分割静止画の取得が開始される。 In FIG. 10, the horizontal axis indicates time t, and the vertical axis indicates the resolution (pixel) in the vertical direction of the acquired image. Also, the moving image frames obtained from the A and B images are A1, A2,... A7, B1, B2,... B7, respectively, and acquisition of time-division still images is started at the timing of the third frame.
時分割静止画はA像として取得され、撮影条件は図9の例と同じである。すなわち、動画、静止画、および時分割静止画のシャッター速度はそれぞれ1/100秒、1/60秒、1/300秒であり、時分割静止画の取得枚数は6枚である。なお、取得される時分割静止画はそれぞれ、AS1、AS2・・、AS6とする。さらに、取得される動画フレームおよび静止画の垂直方向の解像度(画素)は、それぞれ2000ピクセル、8000ピクセルとする。 The time-division still image is acquired as an A image, and the shooting conditions are the same as in the example of FIG. That is, the shutter speeds of moving images, still images, and time-division still images are 1/100 seconds, 1/60 seconds, and 1/300 seconds, respectively, and the number of acquired time-division still images is six. Note that the acquired time-division still images are AS1, AS2,. Furthermore, the resolution (pixels) in the vertical direction of the obtained moving image frame and still image is 2000 pixels and 8000 pixels, respectively.
まず、上述のように、時分割静止画が6枚撮影され、生成される動画フレームは2フレームとなる。従って、静止画取得指示が出されている期間は3フレーム目と4フレーム目となる。よって、それ以外の1,2,5,6,7フレームは、A像、B像共に動画フレームを取得し、本記録動画は各フレームのA像とB像を加算した全開口画像となる。 First, as described above, six time-division still images are shot, and two moving image frames are generated. Therefore, the period during which the still image acquisition instruction is issued is the third frame and the fourth frame. Therefore, the other 1, 2, 5, 6, and 7 frames acquire moving image frames for both the A image and the B image, and the recorded moving image is a full aperture image obtained by adding the A and B images of each frame.
次に、静止画撮影モードとなる3,4フレームの説明を行う。 Next, 3 and 4 frames that are in the still image shooting mode will be described.
まず、本記録静止画は、連続撮影された6枚の時分割静止画のうち、AS1〜AS5の5枚の静止画の合成処理により得られる。なお、合成処理の手法は問わないが、ここでは5枚の時分割静止画を加算合成し、1枚の静止画を生成するものとする。 First, the recorded still image is obtained by combining five still images AS1 to AS5 among six time-division still images that are continuously shot. Note that the composition processing method does not matter, but here, it is assumed that five time-division still images are added and combined to generate one still image.
次に、静止画撮影モードにおける本記録動画の生成について説明する。 Next, generation of the recorded moving image in the still image shooting mode will be described.
B像では動画フレームB3とB4が得られているのに対し、A像では時分割静止画で撮影されているため、加算合成処理によって対応する動画フレームを得る必要がある。また、A像では、静止画相当の解像度(画素)で撮影されているため、動画フレーム相当の画素数に縮小する必要がある。ここでは、バイリニア縮小処理によりAS1〜AS6を縮小する。縮小したA像静止画を縮小AS1〜縮小AS6,動画フレームB3とB4に対応するA像フレームを、A3’,A4’とする。その場合、図10に示すように、A3’は縮小AS1〜縮小AS3の加算合成、A4’は縮小AS4〜縮小AS6の加算合成によって生成されたものである。そして、A3’とB3、A4’とB4フレームを加算し、全開口画像の動画フレームを得る。 In the B image, moving image frames B3 and B4 are obtained, whereas in the A image, a time-division still image is taken. Therefore, it is necessary to obtain a corresponding moving image frame by addition synthesis processing. Further, since the A image is taken at a resolution (pixel) equivalent to a still image, it is necessary to reduce the number of pixels to an equivalent of a moving image frame. Here, AS1 to AS6 are reduced by bilinear reduction processing. The reduced A image still image is referred to as reduced AS1 to reduced AS6, and the A image frames corresponding to the moving image frames B3 and B4 are referred to as A3 'and A4'. In this case, as shown in FIG. 10, A3 'is generated by addition synthesis of reduced AS1 to reduced AS3, and A4' is generated by addition combination of reduced AS4 to reduced AS6. Then, A3 'and B3, and A4' and B4 frames are added to obtain a moving image frame of a full aperture image.
以上がステップS811の動作であり、ステップS811において、本記録される動画および静止画が生成される。生成された本記録動画および静止画はROM102に記録され、本処理が終了する。
The above is the operation in step S811, and the moving image and the still image to be recorded are generated in step S811. The generated main recording moving image and still image are recorded in the
次に、図8のステップS809の表示用動画フレーム生成処理の詳細について図11を用いて説明する。 Next, details of the display moving image frame generation processing in step S809 in FIG. 8 will be described with reference to FIG.
本記録動画の生成では、複数の時分割静止画を取得して合成する合成処理を伴うため、処理のリアルタイム性の観点から、デジタルカメラの表示部にライブ表示することが困難であると考えられる。従って、本記録される動画とは異なるものの、リアルタイムにユーザーが撮影した動画を確認するための表示用動画を簡易的に生成する必要がある。 Since the generation of this recorded moving image involves a synthesis process that acquires and synthesizes a plurality of time-division still images, it is considered difficult to display live on the display unit of the digital camera from the viewpoint of real-time processing. . Therefore, although it is different from the moving image to be recorded, it is necessary to easily generate a moving image for display for confirming the moving image taken by the user in real time.
図11は、図8のステップS809における表示用動画フレーム生成処理の具体例を示す図である。 FIG. 11 is a diagram showing a specific example of the display moving image frame generation processing in step S809 in FIG.
図11に示すように、静止画撮影を行わないフレーム1,2,5,6,7については、本記録動画と同様にA像とB像を加算した全開口動画を表示用動画とする。また、静止画撮影を行うフレーム3,4については、B像で取得した動画フレームB3,B4のみを用いる。
As shown in FIG. 11, for the
しかしながら、動画フレームB3,B4は瞳分割を行ったうちの片側の像であるため、上述の瞳分割によるシェーディング、被写界深度の差異が発生している。 However, since the moving image frames B3 and B4 are images on one side of the pupil division, there are differences in shading and depth of field due to the above-described pupil division.
そこで、図11に示すように、まずB3,B4にゲインをかけ、瞳分割によるシェーディングを補正する。具体的には、図7に示したシェーディングの影響を打ち消すような特性を持った面ゲインを乗じる。次に、すでに取得されたA像、B像の動画フレームのペアから画像のデフォーカス量を算出し、デフォーカス量に応じて被写界深度差を補うためのボケを、ゲイン乗算後のB3,B4に付加する。 Therefore, as shown in FIG. 11, first, gain is applied to B3 and B4 to correct shading due to pupil division. Specifically, it is multiplied by a surface gain having a characteristic that cancels the influence of shading shown in FIG. Next, the defocus amount of the image is calculated from the pair of the already acquired moving image frames of the A image and the B image, and the blur for compensating for the difference in depth of field according to the defocus amount is calculated by B3 after gain multiplication. , B4.
図11におけるDefMAPとは、デフォーカス量の分布を表すデフォーカスマップである。デフォーカスマップ処理の具体的な方法は、例えば特開2008−015754号公報において開示されている技術などが挙げられる。 DefMAP in FIG. 11 is a defocus map representing the distribution of the defocus amount. As a specific method of the defocus map process, for example, a technique disclosed in Japanese Patent Laid-Open No. 2008-015754 can be cited.
図11の例では、動画フレームのペアを2フレーム前のA1,B1としたが、実際はボケ付加処理にかかる処理時間によって、何フレーム前の情報を基にデフォーカスマップを生成するかが決まる。なお、動画撮影によって刻々と画角が変わっていくため、デフォーカスマップは定期的に更新することが望ましい。 In the example of FIG. 11, the pair of moving image frames is A1 and B1 two frames before, but the number of frames before the defocus map is generated is actually determined by the processing time required for the blur addition process. Since the angle of view changes every moment due to moving image shooting, it is desirable to periodically update the defocus map.
以上がステップS809の処理の説明であり、ステップS809によって、表示用の動画フレームが生成され、デジタルカメラの表示部にライブ表示される。 The above is the description of the processing in step S809. In step S809, a moving image frame for display is generated and displayed live on the display unit of the digital camera.
上記第1の実施形態によれば、瞳分割画像であるA像およびB像で静止画および動画をそれぞれ取得し、特に静止画を時分割で撮影して適切に合成処理を行うことで、動画撮影を中断することなく静止画を取得することが可能となる。特に、本実施形態では、瞳分割した片方の像で継続的に動画撮影を行い、時分割したもう片方の像の静止画から対となるフレームを作って加算する。これにより、全開口動画に相当する動画が取得でき、動画においては瞳分割による画質への弊害(シェーディング、被写界深度差)を抑制することが可能となる。 According to the first embodiment, a still image and a moving image are acquired with the A image and the B image, which are pupil-divided images, respectively. It is possible to acquire a still image without interrupting shooting. In particular, in the present embodiment, moving image shooting is continuously performed with one of the pupil-divided images, and a paired frame is formed from the still image of the other image that has been time-divided and added. As a result, a moving image corresponding to an all-aperture moving image can be acquired, and in the moving image, adverse effects on image quality due to pupil division (shading, depth of field difference) can be suppressed.
[第2の実施形態]
上記第1の実施形態では、動画の画質を優先して、シームレスに動画中静止画を取得する方法について説明した。本第2の実施形態では、シームレスに動画中静止画を取得しつつ、静止画の画質を優先させる方法(静止画優先モード)について説明を行う。以下、第1の実施の形態と同様の部分については、同一の符号を用いてその説明を省略する。
[Second Embodiment]
In the first embodiment, the method for seamlessly acquiring a still image in a moving image giving priority to the image quality of the moving image has been described. In the second embodiment, a method (still image priority mode) for prioritizing the image quality of still images while seamlessly acquiring still images in moving images will be described. Hereinafter, the same parts as those of the first embodiment are denoted by the same reference numerals and the description thereof is omitted.
本第2の実施形態では、画像処理部107の処理内容が上記第1の実施形態と異なる。
In the second embodiment, the processing content of the
図12は、第2の実施形態における静止画優先モード時の画像処理部107の動作処理を示すフローチャートである。
FIG. 12 is a flowchart showing an operation process of the
まず、ステップS1201の判定結果から静止画取得指示がないと判定した場合、上記第1の実施形態と同様に、画像処理部107は、A像、B像共に動画モードで画像を取得して(ステップS1207)、ステップS1209へ進む。
First, if it is determined from the determination result in step S1201 that there is no still image acquisition instruction, the
一方、ステップS1201で静止画取得指示があると判定した場合は、画像処理部107は、A像で静止画を取得し(ステップS1202)、B像で時分割静止画を取得する(ステップS1203〜ステップS1206)。ここで、A像の静止画は時分割撮影ではなく、所定のシャッター速度による1枚撮影である。また、ステップS1203,S1204における時分割静止画の撮影条件の決定方法は、上述した図8のステップS803,S804と同一である。
On the other hand, if it is determined in step S1201 that there is a still image acquisition instruction, the
次に、画像処理部107は、ステップS1205およびステップS1206にて時分割静止画の取得枚数が所定枚数に達するまで時分割静止画を取得する。そして、所定枚数に達したときにはステップS1208〜ステップS1210を経て、本記録用の動画および静止画生成を行う(ステップS1211)。取得された静止画はROM102に記録される。なお、ステップS1209の表示用動画フレーム生成処理の詳細については後述する。
Next, the
ステップS1211では、画像処理部107は、ROM102に記録された静止画および時分割静止画から、本記録用の動画および静止画を生成する。ステップS1211における動作処理の具体例を図13に示す。なお、図13における動画および静止画の撮影条件、ならびに動画および静止画の垂直方向の画素数は、上記第1の実施形態における図10に示すものと同一とする。
In step S <b> 1211, the
図13において、まず、第1の実施形態と同様に、静止画取得指示がない1,2,5,6,7フレームにおいては、A像とB像のいずれも動画モードで動画フレームを撮影し、本記録動画としてA像とB像を加算した全開口動画を記録する。 In FIG. 13, first, as in the first embodiment, in the 1, 2, 5, 6, and 7 frames where there is no still image acquisition instruction, both the A image and the B image are shot in the moving image mode. A full aperture moving image obtained by adding the A image and the B image is recorded as the main recording moving image.
次に、静止画取得指示ありの3,4フレームでは、A像では時分割を行わずに静止画を撮影し、B像では時分割静止画を撮影する。ここで、A像で取得された静止画をAS、B像で取得された時分割静止画をBS1〜BS6と呼ぶ。 Next, in 3 and 4 frames with a still image acquisition instruction, a still image is captured without performing time division for the A image, and a time division still image is captured for the B image. Here, the still image acquired with the A image is referred to as AS, and the time-division still images acquired with the B image are referred to as BS1 to BS6.
まず、本記録動画は、連続撮影された時分割静止画BS1〜BS6を縮小処理し(以下、「縮小BS1〜縮小BS6」と呼ぶ)、縮小BS1〜縮小BS3を加算合成する。そして、動画の3フレーム目に対応するB3’フレームを生成し、縮小BS4〜縮小BS6を加算合成して、動画の4フレーム目に対応するB4’フレームを生成する。 First, for the recorded moving image, time-division still images BS1 to BS6 continuously shot are reduced (hereinafter referred to as “reduced BS1 to reduced BS6”), and reduced BS1 to reduced BS3 are added and combined. Then, a B3 ′ frame corresponding to the third frame of the moving image is generated, and the reduced BS4 to the reduced BS6 are added and combined to generate a B4 ′ frame corresponding to the fourth frame of the moving image.
また、本記録静止画は、A像から得られた静止画ASと、ASに対応するB像の静止画を加算し、全開口静止画として取得する。ここで、B像の静止画は、時分割処理で得られた時分割静止画BS1〜BS5を加算合成処理して取得する。 The still image recorded is obtained as a full-opening still image by adding the still image AS obtained from the A image and the still image of the B image corresponding to the AS. Here, the still image of the B image is obtained by adding and synthesizing the time-division still images BS1 to BS5 obtained by the time-division processing.
以上がステップS1211の動作であり、ステップS1211において、本記録される動画および静止画が生成される。生成された本記録動画および静止画はROM102に記録され、本処理が完了する。
The above is the operation in step S1211. In step S1211, the moving image and the still image to be recorded are generated. The generated main recording moving image and still image are recorded in the
次に、ステップS1209の表示用動画フレーム生成処理の詳細について説明する。 Next, details of the display moving image frame generation processing in step S1209 will be described.
図14は、図12のステップS1209における表示用動画フレーム生成処理の具体例を示す図である。 FIG. 14 is a diagram showing a specific example of the display moving image frame generation processing in step S1209 of FIG.
図14に示すように、静止画撮影を行わないフレーム1,2,5,6,7については、本記録動画と同様にA像とB像を加算した全開口動画を表示用動画とする。また、静止画撮影を行うフレーム3,4については、B像で取得した時分割静止画のうちBS1,BS4のみを用いる。
As shown in FIG. 14, for
しかしながら、時分割静止画BS1,BS4は瞳分割を行ったうちの片側の像であるため、上述の瞳分割によるシェーディング、被写界深度の差異が発生している。さらに、BS1,BS4は時分割されており、シャッター速度が短いため、適正露出よりも暗い画像となっている(本実施形態では適正露出の1/3の明るさ)。 However, since the time-division still images BS1 and BS4 are images on one side of the pupil division, there are differences in shading and depth of field due to the above-described pupil division. Furthermore, BS1 and BS4 are time-divided, and the shutter speed is short, so the image is darker than the appropriate exposure (in this embodiment, 1/3 the brightness of the appropriate exposure).
そこで、図14に示すように、まずBS1,BS4にゲインをかけ、明るさを適正露出相当にすると共に、瞳分割によるシェーディング補正を行う。次に、すでに取得されたA像、B像の動画フレームのペアから画像のデフォーカス量を算出し、デフォーカス量に応じて被写界深度差を補うためのボケを、ゲイン乗算後のBS1,BS4に付加する。なお、ボケ付加処理に関しては、上記第1の実施形態における図11にて説明したものと同様である。 Therefore, as shown in FIG. 14, first, a gain is applied to BS1 and BS4 to make the brightness equivalent to an appropriate exposure, and shading correction by pupil division is performed. Next, the defocus amount of the image is calculated from a pair of the already obtained moving image frames of the A image and the B image, and a blur for compensating for the difference in depth of field according to the defocus amount is obtained by BS1 after gain multiplication. , BS4. Note that the blur addition process is the same as that described with reference to FIG. 11 in the first embodiment.
上記第2の実施形態によれば、瞳分割画像であるA像およびB像で静止画および時分割静止画をそれぞれ取得し、特に時分割静止画を適切に合成処理することで、動画撮影を中断することなく静止画を取得することが可能となる。特に、本実施形態では、瞳分割した片方の像で時分割せずに静止画撮影を行い、時分割したもう片方の像の静止画から対となる静止画を作って加算する。これにより、全開口静止画に相当する静止画が取得でき、静止画においては瞳分割による画質への弊害(シェーディング、被写界深度差)を抑制することが可能となる。 According to the second embodiment, a still image and a time-division still image are respectively acquired from the A-image and the B-image that are pupil-divided images, and moving image shooting is performed particularly by appropriately combining the time-division still images. A still image can be acquired without interruption. In particular, in this embodiment, still image shooting is performed without time-sharing on one of the pupil-divided images, and a paired still image is created from the still images of the other time-divided image and added. As a result, a still image corresponding to an all-aperture still image can be acquired, and in the still image, adverse effects on image quality (shading, depth of field difference) due to pupil division can be suppressed.
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
101 システム制御部
102 ROM
103 RAM
104 光学系
105 撮像部
106 A/D変換部
107 画像処理部
108 記録媒体
109 システムバス
101
103 RAM
104
Claims (12)
前記一対の光電変換部のうちの一方から得られる第1の画像と他方から得られる第2の画像を加算合成して動画フレームを生成する動画フレーム生成手段と、
静止画を取得するための前記撮像素子による撮影の撮影条件を決定する決定手段と、
前記撮像素子による動画撮影中に静止画取得指示がなされた場合、前記決定手段により決定された撮影条件に基づいて撮影された複数の第1の画像を取得し、当該複数の第1の画像のうち1枚の静止画を生成するために必要な枚数を加算合成して静止画を生成する静止画生成手段とを備え、
前記動画フレーム生成手段は、動画フレームを生成するために必要な枚数を加算合成した第1の画像と前記第2の画像から動画フレームを生成することを特徴とする画像記録装置。 Consists of a plurality of pixels having one microlens and a pair of photoelectric conversion units, and each of the plurality of pixels receives light beams that have passed through the exit pupil of the optical system by the microlens to each of the pair of photoelectric conversion units. In an image recording apparatus including an image pickup device that outputs a signal,
A moving image frame generating means for generating a moving image frame by adding and synthesizing a first image obtained from one of the pair of photoelectric conversion units and a second image obtained from the other;
Determining means for determining shooting conditions of shooting by the imaging device for acquiring a still image;
When a still image acquisition instruction is given during moving image shooting by the image sensor, a plurality of first images shot based on the shooting conditions determined by the determination unit are acquired, and the plurality of first images are acquired. A still image generating means for generating a still image by adding and synthesizing a number necessary to generate one still image,
The image recording apparatus, wherein the moving image frame generating unit generates a moving image frame from the first image and the second image obtained by adding and synthesizing a number necessary for generating the moving image frame.
前記一対の光電変換部のうちの一方から得られる第1の画像と他方から得られる第2の画像を加算合成して動画フレームを生成する動画フレーム生成手段と、
静止画を取得するための前記撮像素子による撮影の撮影条件を決定する決定手段と、
前記撮像素子による動画撮影中に静止画取得指示がなされた場合、前記決定手段により決定された撮影条件に基づいて撮影された複数の第2の画像を取得し、当該複数の第2の画像のうち1枚の静止画を生成するために必要な枚数を加算合成した静止画と1枚の前記第1の画像とを加算合成して静止画を生成する静止画生成手段とを備え、
前記動画フレーム生成手段は、動画フレームを生成するために必要な枚数を加算合成した第2の画像から前記動画フレームを生成することを特徴とする画像記録装置。 Consists of a plurality of pixels having one microlens and a pair of photoelectric conversion units, and each of the plurality of pixels receives light beams that have passed through the exit pupil of the optical system by the microlens to each of the pair of photoelectric conversion units. In an image recording apparatus including an image pickup device that outputs a signal,
A moving image frame generating means for generating a moving image frame by adding and synthesizing a first image obtained from one of the pair of photoelectric conversion units and a second image obtained from the other;
Determining means for determining shooting conditions of shooting by the imaging device for acquiring a still image;
When a still image acquisition instruction is given during moving image shooting by the imaging element, a plurality of second images shot based on the shooting conditions determined by the determination unit are acquired, and the plurality of second images are acquired. A still image generating means for generating a still image by adding and synthesizing a still image obtained by adding and synthesizing a number necessary for generating one still image and the first image;
The moving image frame generating means generates the moving image frame from a second image obtained by adding and combining the necessary number of frames for generating a moving image frame.
前記一対の光電変換部のうちの一方から得られる第1の画像と他方から得られる第2の画像を加算合成して動画フレームを生成する動画フレーム生成工程と、
静止画を取得するための前記撮像素子による撮影の撮影条件を決定する決定工程と、
前記撮像素子による動画撮影中に静止画取得指示がなされた場合、前記決定工程にて決定された撮影条件に基づいて撮影された複数の第1の画像を取得し、当該複数の第1の画像のうち1枚の静止画を生成するために必要な枚数を加算合成して静止画を生成する静止画生成工程とを備え、
前記動画フレーム生成工程は、動画フレームを生成するために必要な枚数を加算合成した第1の画像と前記第2の画像から動画フレームを生成することを特徴とする画像記録方法。 Consists of a plurality of pixels having one microlens and a pair of photoelectric conversion units, and each of the plurality of pixels receives light beams that have passed through the exit pupil of the optical system by the microlens to each of the pair of photoelectric conversion units. In an image recording method of an image recording apparatus including an image pickup device that outputs a signal,
A moving image frame generating step of generating a moving image frame by adding and combining a first image obtained from one of the pair of photoelectric conversion units and a second image obtained from the other;
A determination step of determining shooting conditions of shooting by the imaging device for acquiring a still image;
When a still image acquisition instruction is given during moving image shooting by the imaging element, a plurality of first images shot based on the shooting conditions determined in the determination step are acquired, and the plurality of first images is acquired. A still image generating step of generating a still image by adding and synthesizing a required number of images to generate one still image,
The moving image frame generating step generates a moving image frame from the first image and the second image obtained by adding and synthesizing a number necessary for generating a moving image frame.
前記一対の光電変換部のうちの一方から得られる第1の画像と他方から得られる第2の画像を加算合成して動画フレームを生成する動画フレーム生成工程と、
複数の静止画を取得するための前記撮像素子による撮影の撮影条件を決定する決定工程と、
前記撮像素子による動画撮影中に静止画取得指示がなされた場合、前記決定工程にて決定された撮影条件に基づいて撮影された複数の第2の画像を取得し、当該複数の第2の画像のうち1枚の静止画を生成するために必要な枚数を加算合成した静止画と1枚の前記第1の画像とを加算合成して静止画を生成する静止画生成工程とを備え、
前記動画フレーム生成工程は、動画フレームを生成するために必要な枚数を加算合成した第2の画像から前記動画フレームを生成することを特徴とする画像記録方法。 Consists of a plurality of pixels having one microlens and a pair of photoelectric conversion units, and each of the plurality of pixels receives light beams that have passed through the exit pupil of the optical system by the microlens to each of the pair of photoelectric conversion units. In an image recording method of an image recording apparatus including an image pickup device that outputs a signal,
A moving image frame generating step of generating a moving image frame by adding and combining a first image obtained from one of the pair of photoelectric conversion units and a second image obtained from the other;
A determination step of determining shooting conditions of shooting by the imaging device for acquiring a plurality of still images;
When a still image acquisition instruction is given during moving image shooting by the image pickup device, a plurality of second images shot based on the shooting conditions determined in the determination step are acquired, and the plurality of second images is acquired. A still image generating step of generating a still image by adding and synthesizing a still image obtained by adding and synthesizing a required number of images to generate one still image and the first image.
The moving image frame generating step generates the moving image frame from a second image obtained by adding and synthesizing a necessary number of frames for generating a moving image frame.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014182179A JP6320250B2 (en) | 2014-09-08 | 2014-09-08 | Image recording apparatus and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014182179A JP6320250B2 (en) | 2014-09-08 | 2014-09-08 | Image recording apparatus and method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016058814A true JP2016058814A (en) | 2016-04-21 |
JP6320250B2 JP6320250B2 (en) | 2018-05-09 |
Family
ID=55758967
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014182179A Active JP6320250B2 (en) | 2014-09-08 | 2014-09-08 | Image recording apparatus and method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6320250B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020054002A (en) * | 2017-03-28 | 2020-04-02 | キヤノン株式会社 | Imaging apparatus, control method, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008301286A (en) * | 2007-05-31 | 2008-12-11 | Canon Inc | Imaging apparatus and control method thereof |
JP2013172219A (en) * | 2012-02-20 | 2013-09-02 | Canon Inc | Imaging apparatus |
JP2014122957A (en) * | 2012-12-20 | 2014-07-03 | Canon Inc | Imaging device |
-
2014
- 2014-09-08 JP JP2014182179A patent/JP6320250B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008301286A (en) * | 2007-05-31 | 2008-12-11 | Canon Inc | Imaging apparatus and control method thereof |
JP2013172219A (en) * | 2012-02-20 | 2013-09-02 | Canon Inc | Imaging apparatus |
JP2014122957A (en) * | 2012-12-20 | 2014-07-03 | Canon Inc | Imaging device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020054002A (en) * | 2017-03-28 | 2020-04-02 | キヤノン株式会社 | Imaging apparatus, control method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6320250B2 (en) | 2018-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9521316B2 (en) | Image processing apparatus for reconstructing an image, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP6555863B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP5854984B2 (en) | Image processing apparatus, imaging apparatus, control method, and program | |
US9451160B2 (en) | Imaging apparatus and method for controlling the imaging apparatus | |
JP6587380B2 (en) | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium | |
JP2015186247A (en) | Image processing system, control method, and program | |
US10574906B2 (en) | Image processing apparatus and image processing method | |
JP6516510B2 (en) | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium | |
US9591203B2 (en) | Image processing apparatus, image processing method, recording medium, and image pickup apparatus | |
JP2021027523A5 (en) | ||
JP2014026051A (en) | Image capturing device and image processing device | |
JP6320250B2 (en) | Image recording apparatus and method, and program | |
JP6608194B2 (en) | Image processing apparatus, control method therefor, and program | |
JP2013218031A (en) | Imaging apparatus | |
JP2014123050A (en) | Focus detection device, focus detection method, program and imaging device | |
JP6327892B2 (en) | Imaging apparatus and control method thereof | |
JP6917803B2 (en) | Imaging equipment, control methods, and programs | |
JP6004741B2 (en) | Image processing apparatus, control method therefor, and imaging apparatus | |
JP2016100868A (en) | Image processing apparatus, image processing method, and program, and imaging apparatus | |
JP6075829B2 (en) | IMAGING DEVICE, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP7134601B2 (en) | Image processing device, image processing method, imaging device, and imaging device control method | |
JP2017085337A (en) | Image processing device, imaging device and image processing program | |
JP6570230B2 (en) | Imaging apparatus and imaging method | |
JP6138222B2 (en) | Image processing apparatus, imaging apparatus, control method, and program | |
JP7271316B2 (en) | Imaging device and its control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170623 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180306 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180403 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6320250 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |