JP2016058814A - Image recording apparatus, method, and program - Google Patents

Image recording apparatus, method, and program Download PDF

Info

Publication number
JP2016058814A
JP2016058814A JP2014182179A JP2014182179A JP2016058814A JP 2016058814 A JP2016058814 A JP 2016058814A JP 2014182179 A JP2014182179 A JP 2014182179A JP 2014182179 A JP2014182179 A JP 2014182179A JP 2016058814 A JP2016058814 A JP 2016058814A
Authority
JP
Japan
Prior art keywords
image
moving image
still
generating
still image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014182179A
Other languages
Japanese (ja)
Other versions
JP6320250B2 (en
Inventor
彰太 山口
Shota Yamaguchi
彰太 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014182179A priority Critical patent/JP6320250B2/en
Publication of JP2016058814A publication Critical patent/JP2016058814A/en
Application granted granted Critical
Publication of JP6320250B2 publication Critical patent/JP6320250B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image recording apparatus that obtains seamlessly a still image during photographing a moving image while suppressing to the minimum influences of shading caused by pupil division and a change in a depth of field and an influence of SN degradation caused by time division photographing.SOLUTION: In a digital camera, when a still image acquisition instruction is given during photographing a moving image, a plurality of A images photographed on the basis of a predetermined photographing condition is acquired, and a still image is generated by adding and synthesizing a number of images required for generating one still image out of the plurality of A images. From A images and B images obtained by adding and synthesizing a number of images required for generating a moving image frame, a moving image frame is generated.SELECTED DRAWING: Figure 10

Description

本発明は、画像記録装置および方法、並びにプログラムに関し、特に、動画撮影を中断することなく、静止画撮影を行うことを可能とする画像記録装置の制御技術に関する。   The present invention relates to an image recording apparatus and method, and a program, and more particularly to a control technique for an image recording apparatus that enables still image shooting without interrupting moving image shooting.

従来、動画撮影時において任意のタイミングで静止画(以下、「動画中静止画」と呼ぶ)を取得する技術が提案されている。本技術では、撮像光学系が単一であるデジタルカメラにおいて、ユーザー指示によって静止画撮影モードとなった場合に、動画記録が中断され、後で動画を鑑賞する際に、静止画取得時のみ動画がストップして再生されるという課題がある。さらに、同時刻に動画と静止画の両方を取得する際に、望ましいシャッター速度が動画と静止画の夫々で異なるといった課題もある。例えば、60fpsで動画を撮影すると同時に、1/60秒よりも長いシャッター速度で静止画を取得したい、という場合に発生する。   Conventionally, a technique for acquiring a still image (hereinafter referred to as “moving still image”) at an arbitrary timing during moving image shooting has been proposed. With this technology, in a digital camera with a single imaging optical system, when the still image shooting mode is entered by a user instruction, the movie recording is interrupted, and when viewing the movie later, the movie is captured only when the still image is acquired. There is a problem that is stopped and played. Furthermore, when both a moving image and a still image are acquired at the same time, there is a problem that a desirable shutter speed differs between the moving image and the still image. For example, it occurs when a user wants to acquire a still image with a shutter speed longer than 1/60 seconds at the same time as shooting a moving image at 60 fps.

上記課題に対して、特許文献1および特許文献2に示す技術が提案されている。特許文献1に示す技術では、入射光を瞳分割光学系により2つの光束に分割し、夫々を静止画撮影用の撮像素子及び、動画撮影用の撮像素子に入射させることによって、動画と静止画を取得する。   In order to solve the above problems, techniques shown in Patent Document 1 and Patent Document 2 have been proposed. In the technique disclosed in Patent Document 1, incident light is divided into two light beams by a pupil division optical system, and each is incident on an image pickup device for still image shooting and an image pickup device for moving image shooting. To get.

また、特許文献2に示す技術では、動画中静止画の取得時に、動画像の1フレームの露光時間を複数に分割して複数の連続撮影画像を取得し、前記画像を位置合わせ無しで合成したものを動画フレーム、位置合わせを行いながら合成した画像を静止画として取得する。   In the technique disclosed in Patent Document 2, when acquiring a still image in a moving image, a plurality of continuously shot images are acquired by dividing the exposure time of one frame of a moving image into a plurality of images, and the images are synthesized without alignment. Acquire a moving image as a still image and a synthesized image while performing positioning.

特開2013−160782号公報JP 2013-160782 A 特開2013−005136号公報JP2013-005136A

しかしながら、上記特許文献1に記載の技術では、瞳分割に伴うシェーディングが発生し、取得される動画及び静止画にシェーディングによる輝度ムラ、もしくはシェーディングの補正によるノイズムラが生じるという課題がある。また、瞳分割により取得される動画及び静止画の被写界深度が所望の設定値よりも深くなるという課題がある。特許文献1では、前記課題を解決するための記載がない。なお、瞳分割によるシェーディングおよび被写界深度の変化についての詳細は後述する。   However, the technique described in Patent Document 1 has a problem that shading occurs due to pupil division, and luminance unevenness due to shading or noise unevenness due to shading correction occurs in the obtained moving image and still image. In addition, there is a problem that the depth of field of moving images and still images acquired by pupil division becomes deeper than a desired setting value. In patent document 1, there is no description for solving the said subject. Details of shading and depth of field changes due to pupil division will be described later.

さらに、特許文献2に記載の技術では、時分割で撮影を行った複数の画像はそれぞれ露光量が少ないため、合成画像のSNが著しく劣化するという課題がある。また、静止画を動画像相当の画像サイズで取得するため、一般的には所望よりも得られる静止画のサイズは小さくなり、仮に拡大して静止画相当のサイズに変換したとしても、拡大処理に伴う解像感の劣化を引き起こしてしまう。   Furthermore, the technique described in Patent Document 2 has a problem that the SN of the composite image is significantly deteriorated because each of the plurality of images taken in time division has a small exposure amount. In addition, since still images are acquired with an image size equivalent to a moving image, the size of the still image obtained is generally smaller than desired, and even if it is enlarged and converted to a size equivalent to a still image, the enlargement process is performed. Cause degradation of resolution.

本発明は、上記課題に鑑みて成されたものであり、瞳分割によるシェーディングや被写界深度の変化の影響、および時分割撮影によるSN劣化の影響を最小限に抑えつつ、動画撮影中にシームレスに静止画を取得することを目的とする。   The present invention has been made in view of the above problems, and during moving image shooting while minimizing the effects of shading and depth of field changes due to pupil division and SN degradation due to time division shooting. The purpose is to obtain still images seamlessly.

上記目的を達成するために、本発明の画像記録装置は、1つのマイクロレンズと一対の光電変換部を有する複数の画素で構成され、前記複数の画素のそれぞれが光学系の射出瞳を通過した光束を前記マイクロレンズにより前記一対の光電変換部のそれぞれに受光して信号を出力する撮像素子を備える画像記録装置において、前記一対の光電変換部のうちの一方から得られる第1の画像と他方から得られる第2の画像を加算合成して動画フレームを生成する動画フレーム生成手段と、静止画を取得するための前記撮像素子による撮影の撮影条件を決定する決定手段と、前記撮像素子による動画撮影中に静止画取得指示がなされた場合、前記決定手段により決定された撮影条件に基づいて撮影された複数の第1の画像を取得し、当該複数の第1の画像のうち1枚の静止画を生成するために必要な枚数を加算合成して静止画を生成する静止画生成手段とを備え、前記動画フレーム生成手段は、動画フレームを生成するために必要な枚数を加算合成した第1の画像と前記第2の画像から動画フレームを生成することを特徴とする。   In order to achieve the above object, an image recording apparatus according to the present invention includes a plurality of pixels having one microlens and a pair of photoelectric conversion units, and each of the plurality of pixels passes through an exit pupil of an optical system. In an image recording apparatus including an imaging device that receives a light beam by each of the pair of photoelectric conversion units by the microlens and outputs a signal, the first image obtained from one of the pair of photoelectric conversion units and the other A moving image frame generating means for generating a moving image frame by adding and synthesizing the second images obtained from the above, a determining means for determining shooting conditions by the image sensor for obtaining a still image, and a moving image by the image sensor When a still image acquisition instruction is given during shooting, a plurality of first images shot based on the shooting conditions determined by the determination unit are acquired, and the plurality of first images are acquired. A still image generating unit that generates a still image by adding and synthesizing a required number of images to generate one still image of the image, and the moving image frame generating unit is necessary for generating a moving image frame. A moving image frame is generated from the first image obtained by adding and combining the number of images and the second image.

本発明によれば、瞳分割によるシェーディングや深度変化の影響、および時分割撮影によるSN劣化の影響を最小限に抑えつつ、動画撮影中にシームレスに静止画を取得することができる。   According to the present invention, still images can be obtained seamlessly during moving image shooting while minimizing the effects of shading and depth changes due to pupil division and the effects of SN degradation due to time-division shooting.

本発明の第1の実施形態に係る画像記録装置の一例であるデジタルカメラの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the digital camera which is an example of the image recording device which concerns on the 1st Embodiment of this invention. (a)図1における撮像部の画素配列を示す図、(b)図2(a)に示す画素200を拡大した図である。(A) The figure which shows the pixel arrangement | sequence of the imaging part in FIG. 1, (b) It is the figure which expanded the pixel 200 shown to Fig.2 (a). 撮像部の撮像面全体を示す図である。It is a figure which shows the whole imaging surface of an imaging part. 図2(b)に示す画素のS−S断面を+y側から見た断面図と光学系の射出瞳面である。FIG. 2B is a cross-sectional view of the S-S cross section of the pixel shown in FIG. 2B viewed from the + y side and an exit pupil plane of the optical system. 図4に示す画素のx軸断面における受光特性を示す図である。It is a figure which shows the light reception characteristic in the x-axis cross section of the pixel shown in FIG. (a)周辺像高部に配置された画素が有する瞳分割画素の投影像を示した図、(b)図6(a)の瞳強度分布を説明するための図である。(A) The figure which showed the projection image of the pupil division pixel which the pixel arrange | positioned in a peripheral image height part has, (b) It is a figure for demonstrating the pupil intensity distribution of Fig.6 (a). 瞳分割画素Aと瞳分割画素Bの明るさ(輝度)の変化を示す図である。It is a figure which shows the change of the brightness (luminance) of the pupil division pixel A and the pupil division pixel B. FIG. 第1の実施形態における動画優先モード時の画像処理部の動作処理を示すフローチャートである。It is a flowchart which shows the operation | movement process of the image process part at the time of the moving image priority mode in 1st Embodiment. 時分割静止画の撮影条件の決定方法の一例を示す図である。It is a figure which shows an example of the determination method of the imaging condition of a time division still image. 図8のステップS811における動作処理の具体例を示す図である。It is a figure which shows the specific example of the operation | movement process in step S811 of FIG. 図8のステップS809における表示用動画フレーム生成処理の具体例を示す図である。It is a figure which shows the specific example of the moving image frame production | generation for a display in step S809 of FIG. 第2の実施形態における静止画優先モード時の画像処理部の動作処理を示すフローチャートである。It is a flowchart which shows the operation | movement process of the image process part at the time of the still image priority mode in 2nd Embodiment. 図12のステップS1211における動作処理の具体例を示す図である。It is a figure which shows the specific example of the operation | movement process in step S1211 of FIG. 図12のステップS1209における表示用動画フレーム生成処理の具体例を示す図である。It is a figure which shows the specific example of the moving image frame for a display in step S1209 of FIG.

以下、本発明の実施の形態を図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

[第1の実施形態]
図1は、本発明の第1の実施形態に係る画像記録装置の一例であるデジタルカメラの機能構成を示すブロック図である。
[First embodiment]
FIG. 1 is a block diagram showing a functional configuration of a digital camera which is an example of an image recording apparatus according to the first embodiment of the present invention.

デジタルカメラ100は、システム制御部101、ROM102、RAM103、光学系104、撮像部105、A/D変換部106、画像処理部107、記録媒体108、およびシステムバス109を備える。   The digital camera 100 includes a system control unit 101, a ROM 102, a RAM 103, an optical system 104, an imaging unit 105, an A / D conversion unit 106, an image processing unit 107, a recording medium 108, and a system bus 109.

システム制御部101は、例えばCPUであり、制御プログラムをROM102より読み出し、RAM103に展開して実行することによりデジタルカメラ100が備える複数の機能ブロックの動作を制御する。ROM102は、書き換え可能な不揮発性メモリであり、上記制御プログラムに加えて、各種機能ブロックの動作に必要なパラメータ等を記憶する。焦点検出などに必要なレンズ情報として、射出瞳距離もROM102に記憶されている。   The system control unit 101 is a CPU, for example, and controls operations of a plurality of functional blocks included in the digital camera 100 by reading a control program from the ROM 102 and developing the program in the RAM 103 and executing it. The ROM 102 is a rewritable nonvolatile memory, and stores parameters necessary for the operation of various functional blocks in addition to the control program. The exit pupil distance is also stored in the ROM 102 as lens information necessary for focus detection and the like.

RAM103は、書き換え可能な揮発性メモリであり、デジタルカメラ100が備える各種機能ブロックの動作において、出力されたデータの一時的な記憶領域として用いられる。   A RAM 103 is a rewritable volatile memory, and is used as a temporary storage area for output data in the operation of various functional blocks provided in the digital camera 100.

光学系104は、被写体像を撮像部105に結像するレンズ群である。光学系104には絞りも含まれており、絞りを調節することで撮影時の光量調節を行う。撮像部105は、例えばCCDやCMOSセンサ等の撮像素子であり、光学系104により撮像素子に結像された光学像を光電変換し、得られたアナログ画像信号をA/D変換部106に出力する。A/D変換部106は、入力されたアナログ画像信号にA/D変換処理を適用し、得られたデジタル画像データをRAM103に出力して記憶させる。   The optical system 104 is a lens group that forms a subject image on the imaging unit 105. The optical system 104 also includes a stop, and the amount of light at the time of photographing is adjusted by adjusting the stop. The imaging unit 105 is an imaging element such as a CCD or CMOS sensor, for example, photoelectrically converts an optical image formed on the imaging element by the optical system 104, and outputs the obtained analog image signal to the A / D conversion unit 106. To do. The A / D conversion unit 106 applies A / D conversion processing to the input analog image signal, and outputs the obtained digital image data to the RAM 103 for storage.

画像処理部107は、主に、RAM103から画像データを読み出して所定の画像処理を行う。記録媒体108は着脱可能なメモリカード等であり、画像処理部107により画像処理された画像データやA/D変換部106でA/D変換された画像データなどが記録画像として保存される。システムバス109は、各種機能ブロックの間で信号のやり取りを行うために用いられる。   The image processing unit 107 mainly reads image data from the RAM 103 and performs predetermined image processing. The recording medium 108 is a detachable memory card or the like, and the image data image-processed by the image processing unit 107, the image data A / D converted by the A / D conversion unit 106, and the like are stored as a recorded image. The system bus 109 is used for exchanging signals between various functional blocks.

図2(a)は、図1における撮像部105の画素配列を示す図である。図2(b)は、図2(a)に示す画素200を拡大した図である。   FIG. 2A is a diagram illustrating a pixel array of the imaging unit 105 in FIG. FIG. 2B is an enlarged view of the pixel 200 shown in FIG.

撮像部105では、図2(a)に示すように、画素200が二次元的に規則的に配列されている。   In the imaging unit 105, as shown in FIG. 2A, the pixels 200 are regularly arranged two-dimensionally.

画素200は、図2(b)に示すように、マイクロレンズ201と、一対の光電変換部203A,204B(以下、「瞳分割画素203A,204B」と呼ぶ。)から構成される。   As shown in FIG. 2B, the pixel 200 includes a microlens 201 and a pair of photoelectric conversion units 203A and 204B (hereinafter referred to as “pupil divided pixels 203A and 204B”).

図3は、撮像部105の撮像面全体を示す図であり、画素200は撮像面の中央近傍(符号300)に配置された画素とする。また、撮像部105のいずれの画素も、瞳分割画素203A,204Bのそれぞれが独立に受光して得られた信号を出力することができる。なお、図3における符号301については後述する。   FIG. 3 is a diagram illustrating the entire imaging surface of the imaging unit 105, and the pixel 200 is a pixel disposed near the center (reference numeral 300) of the imaging surface. In addition, any pixel of the imaging unit 105 can output a signal obtained by each of the pupil division pixels 203A and 204B receiving light independently. Note that reference numeral 301 in FIG. 3 will be described later.

画素200の右側にある瞳分割画素203Aから出力された信号をA(x,y)、左側にある瞳分割画素204Bから出力された信号をB(x,y)としたとき、全開口信号g(x,y)は下記(式1)で表現される。   When the signal output from the pupil division pixel 203A on the right side of the pixel 200 is A (x, y) and the signal output from the pupil division pixel 204B on the left side is B (x, y), the full aperture signal g (X, y) is expressed by the following (formula 1).

g(x,y)=A(x,y)+B(x,y)・・・(式1)
以下の説明では、瞳分割画素203Aもしくは瞳分割画素204Bの信号から成る画像を瞳分割画像と呼び、瞳分割画素203Aから得られる画像をA像、瞳分割画素204Bから得られる画像をB像と呼ぶ。また、全開口信号gから成る画像を全開口画像と呼ぶ。
g (x, y) = A (x, y) + B (x, y) (Formula 1)
In the following description, an image composed of signals from the pupil division pixel 203A or the pupil division pixel 204B is referred to as a pupil division image, an image obtained from the pupil division pixel 203A is an A image, and an image obtained from the pupil division pixel 204B is a B image. Call. An image made up of the full aperture signal g is called a full aperture image.

次に、画素200における瞳分割の概念について図4を参照して説明する。   Next, the concept of pupil division in the pixel 200 will be described with reference to FIG.

図4は、図2(b)に示す画素200のS−S断面を+y側から見た断面図と光学系104の射出瞳面である。図4では、射出瞳面の座標軸と対応を取るため、断面図のx軸とy軸を図2に対して反転させている。なお、図4において、図2と同じ部分は同じ符号で表記している。   4 is a cross-sectional view of the S-S cross section of the pixel 200 shown in FIG. 2B viewed from the + y side, and an exit pupil plane of the optical system 104. FIG. In FIG. 4, in order to correspond to the coordinate axis of the exit pupil plane, the x-axis and y-axis of the cross-sectional view are inverted with respect to FIG. In FIG. 4, the same parts as those in FIG. 2 are denoted by the same reference numerals.

撮像部105は、光学系104の結像面近傍に配置されている。被写体からの光束は、光学系104の射出瞳400を通過して、それぞれの画素に入射する。射出瞳400の大きさは、絞りの大きさや、レンズを保持するレンズ枠などの大きさによって変化する。   The imaging unit 105 is disposed in the vicinity of the imaging plane of the optical system 104. The light flux from the subject passes through the exit pupil 400 of the optical system 104 and enters each pixel. The size of the exit pupil 400 varies depending on the size of the stop and the size of the lens frame that holds the lens.

瞳部分領域401A,402Bは、2×1分割された瞳分割画素203A,204Bの受光面と、マイクロレンズ201によって、概ね共役関係になっている。従って、各瞳部分領域を通過した光束は、共役関係にある各瞳分割画素で受光される。   The pupil partial areas 401 </ b> A and 402 </ b> B are generally in a conjugate relationship by the light receiving surfaces of the pupil division pixels 203 </ b> A and 204 </ b> B divided into 2 × 1 and the microlens 201. Therefore, the light flux that has passed through each pupil partial region is received by each pupil division pixel that is in a conjugate relationship.

光学系104の射出瞳400は、瞳分割数をNp=M×Nとして、異なる瞳部分領域にNp分割される。光学系104の絞り値をFとすると、瞳部分領域の実効絞り値は、概ね√(M×N)Fとなる。また、瞳領域403は、M×N分割された光電変換部を全て合わせた際の画素200全体で受光可能な瞳領域(全開口領域)である。   The exit pupil 400 of the optical system 104 is Np-divided into different pupil partial areas, with the number of pupil divisions being Np = M × N. When the aperture value of the optical system 104 is F, the effective aperture value of the pupil partial region is approximately √ (M × N) F. The pupil region 403 is a pupil region (entire aperture region) that can receive light in the entire pixel 200 when all the M × N divided photoelectric conversion units are combined.

本実施形態では、瞳分割数M×Nを2×1としているので、瞳部分領域の実効絞り値は√2Fとなる。つまり、A像、B像のそれぞれは全開口画像と比較して、一段分被写界深度が深く、暗い画像となる。   In this embodiment, since the pupil division number M × N is 2 × 1, the effective aperture value of the pupil partial region is √2F. That is, each of the A image and the B image is a dark image having a depth of field that is one step deeper than the full aperture image.

図5は、図4に示す画素200のx軸断面における受光特性を示す図である。   FIG. 5 is a diagram showing the light receiving characteristics in the x-axis cross section of the pixel 200 shown in FIG.

図5において、横軸は光学系104の射出瞳面における水平座標、縦軸は瞳分割画素の受光効率を表す。また、この縦軸は、各開口絞りの透過率分布でもあるので、瞳分割画素の光束受光効率と見なすことができる。この光束受光効率の分布特性を瞳強度分布と呼ぶこととする。また、図5における点線は射出瞳400の幅を投影したものである。   In FIG. 5, the horizontal axis represents the horizontal coordinate on the exit pupil plane of the optical system 104, and the vertical axis represents the light receiving efficiency of the pupil-divided pixel. Further, since this vertical axis is also the transmittance distribution of each aperture stop, it can be regarded as the light beam receiving efficiency of the pupil division pixel. This distribution characteristic of the light beam receiving efficiency is called a pupil intensity distribution. Further, the dotted line in FIG. 5 is a projection of the width of the exit pupil 400.

図4および図5において、撮像面の中央近傍の画素における瞳分割画素203A,204Bに受光する光量は等しくなる。   4 and 5, the light amounts received by the pupil division pixels 203 </ b> A and 204 </ b> B in the pixels near the center of the imaging surface are equal.

瞳分割画素203Aの瞳強度分布501Aに着目すると、+x側はセンサの瞳分割性能が十分でないことによる回折ボケのため緩やかなカーブとなっている。一方、−x側はレンズ枠のケラレにより急なカーブになる。そのため、瞳強度分布501Aは、強度のピークに対して非対称になっている。他方、瞳分割画素204Bの瞳強度分布502Bに関しては、瞳強度分布501Aが左右反転した形状となっていて同様のことが言える。   Paying attention to the pupil intensity distribution 501A of the pupil division pixel 203A, the + x side has a gentle curve due to diffraction blur due to insufficient pupil division performance of the sensor. On the other hand, the -x side has a sharp curve due to the vignetting of the lens frame. Therefore, the pupil intensity distribution 501A is asymmetric with respect to the intensity peak. On the other hand, regarding the pupil intensity distribution 502B of the pupil division pixel 204B, the same can be said because the pupil intensity distribution 501A has a horizontally inverted shape.

次に、図3に示す撮像部105の301に示す周辺像高部に配置された画素について説明する。   Next, pixels arranged in the peripheral image height portion indicated by 301 of the imaging portion 105 shown in FIG. 3 will be described.

図6(a)は周辺像高部に配置された画素が有する瞳分割画素の投影像を示した図である。図6(b)は、図6(a)の瞳強度分布を説明するための図である。   FIG. 6A is a diagram showing a projected image of pupil-divided pixels included in pixels arranged in the peripheral image height portion. FIG. 6B is a diagram for explaining the pupil intensity distribution of FIG.

図6(a)において、周辺像高における画素でも、瞳部分領域601A,602Bおよび瞳領域603の構成は図4と同じである。一方、射出瞳600の形状は口径食(ケラレ)によって変化する。その結果、シェーディングが発生する。そのため、射出瞳の投影像の重心が瞳部分領域601Aの中心寄りになり、図6(b)に示すように、瞳部分領域601Aの方が瞳部分領域602Bよりも受光効率が高くなり、明るい画像となる。他方、反対の周辺像高では、この現象の逆が起こり、瞳部分領域602Bの方が瞳部分領域601Aよりも受光効率が高くなり、明るい画像となる。ここで、周辺像高部における瞳分割画素Aと瞳分割画素Bの明るさの関係を図7に示す。   In FIG. 6A, the configuration of the pupil partial regions 601A and 602B and the pupil region 603 is the same as that in FIG. On the other hand, the shape of the exit pupil 600 changes due to vignetting. As a result, shading occurs. Therefore, the center of gravity of the projected image of the exit pupil is closer to the center of the pupil partial region 601A, and the pupil partial region 601A has higher light receiving efficiency and brighter than the pupil partial region 602B, as shown in FIG. It becomes an image. On the other hand, at the opposite peripheral image height, the reverse of this phenomenon occurs, and the pupil partial region 602B has higher light receiving efficiency than the pupil partial region 601A, resulting in a bright image. Here, the relationship between the brightness of the pupil division pixel A and the pupil division pixel B in the peripheral image height portion is shown in FIG.

図7は、瞳分割画素Aと瞳分割画素Bの明るさ(輝度)の変化を示す図である。   FIG. 7 is a diagram illustrating changes in brightness (luminance) of the pupil division pixel A and the pupil division pixel B. FIG.

図7において、実線は瞳分割画素Aを、点線は瞳分割画素Bを表している。図7において、−x側では瞳分割画素Aの方が、瞳分割画素Bよりも明るいので、B像と比較してA像の方が被写界深度が浅く、画像のノイズ量を表す指標であるS/N比が向上する。一方、+x側ではその逆となる。   In FIG. 7, the solid line represents the pupil division pixel A, and the dotted line represents the pupil division pixel B. In FIG. 7, the pupil division pixel A is brighter than the pupil division pixel B on the −x side. Therefore, the A image has a shallower depth of field than the B image, and the index represents the noise amount of the image. This improves the S / N ratio. On the other hand, the opposite is true on the + x side.

以上が、撮像部105における画素配列及び瞳分割の概念であり、瞳分割に伴うシェーディング及び被写界深度差の発生という課題の説明である。   The above is the concept of pixel arrangement and pupil division in the imaging unit 105, and the description of the problem of shading and occurrence of a depth of field difference associated with pupil division.

次に、デジタルカメラ100内の画像処理部107で実行される、動画中静止画の取得処理について説明する。   Next, a process for acquiring a still image in moving image executed by the image processing unit 107 in the digital camera 100 will be described.

本実施形態では、取得される静止画よりも動画の画質の方に重点を置いた処理となっており、静止画の画質の方に重点を置いた処理に関しては第2実施形態で説明を行う。以下、前者の処理を動画優先モード、後者の処理を静止画優先モードと呼ぶ。   In the present embodiment, the processing is more focused on the image quality of the moving image than the acquired still image, and the processing focused on the image quality of the still image will be described in the second embodiment. . Hereinafter, the former process is referred to as a moving image priority mode, and the latter process is referred to as a still image priority mode.

図8は、第1の実施形態における動画優先モード時の画像処理部107の動作処理を示すフローチャートである。   FIG. 8 is a flowchart showing an operation process of the image processing unit 107 in the moving image priority mode in the first embodiment.

前提として、本処理の開始時点でデジタルカメラ100は動画撮影中であるものとする。また、撮像部105の撮影モードには、動画モードと静止画モードがあり、これら2つのモードは、それぞれ読み出し画像の画素数やシャッター速度などの撮影条件が異なっている。以下、A像とB像で動作が異なるため、それぞれに分けて説明を行う。   As a premise, it is assumed that the digital camera 100 is shooting a moving image at the start of this process. In addition, the imaging mode of the imaging unit 105 includes a moving image mode and a still image mode, and these two modes have different imaging conditions such as the number of pixels of a read image and a shutter speed. In the following, since the operation differs between the A image and the B image, the description will be given separately.

A像の処理に関しては、まず、ステップS801において、画像処理部107は、静止画取得指示の有無を判定する。静止画取得指示とは、例えばデジタルカメラ100のレリーズボタン(不図示)の半押しなどの外部からの操作が挙げられる。   Regarding the processing of the A image, first, in step S801, the image processing unit 107 determines whether there is a still image acquisition instruction. The still image acquisition instruction includes an external operation such as half-pressing a release button (not shown) of the digital camera 100, for example.

ステップS801において、静止画取得指示がなしと判定した場合、ステップS802に進み、動画モードでの撮影が行われる。一方、静止画取得指示有りと判定した場合には、ステップS803に進み、静止画モードでの撮影が行われる。   If it is determined in step S801 that there is no still image acquisition instruction, the process proceeds to step S802, and shooting in the moving image mode is performed. On the other hand, if it is determined that there is a still image acquisition instruction, the process advances to step S803 to perform shooting in the still image mode.

ステップS803では、画像処理部107は、静止画モードの撮影条件を決定する。静止画モードの撮影条件とは、1枚の静止画を撮影する際の撮影条件であり、具体的には、撮影感度、絞り値、シャッター速度であり、撮影画角の明るさから最適な露出となるように自動決定される。   In step S803, the image processing unit 107 determines shooting conditions for the still image mode. The shooting conditions in the still image mode are the shooting conditions when shooting a single still image. Specifically, the shooting sensitivity, aperture value, and shutter speed, and the optimal exposure based on the brightness of the shooting angle of view. Automatically determined to be

次に、ステップS804では、画像処理部107は、時分割静止画の撮影条件の決定処理を行う。ここで、静止画を時分割で取得する理由は主に2点ある。1つは動画モードにおけるシャッター速度と、静止画モードにおけるシャッター速度が異なる場合があるからである。もう1つは瞳分割による画質的な課題(シェーディングや被写界深度差)を解決するために、本実施形態では動画フレームを全開口画像で生成するので、静止画モードで取得されたA像から、B像と対となる動画フレームも生成する必要があるからである。   In step S <b> 804, the image processing unit 107 performs time-division still image shooting condition determination processing. Here, there are mainly two reasons for acquiring a still image in time division. One is that the shutter speed in the moving image mode may be different from the shutter speed in the still image mode. The other is to generate a moving image frame with a full-aperture image in this embodiment in order to solve image quality problems (shading and depth of field differences) due to pupil division. This is because it is necessary to generate a moving image frame paired with the B image.

動画モードにおけるシャッター速度と、静止画モードにおけるシャッター速度の違いについて説明する。   A difference between the shutter speed in the moving image mode and the shutter speed in the still image mode will be described.

例えば、60fpsの動画ではフレームレートの関係上、シャッター速度は1/60秒以下となるが、暗いシーンを撮影する場合における静止画のシャッター速度は、それよりも長い時間が好ましい。また、ダイナミックレンジ拡大処理などで、静止画を適正な明るさよりもアンダー露出で撮影する場合には、静止画のシャッター速度は動画と比較して短時間であることが好ましい。以上の理由により、動画モードと静止画モードのシャッター速度が異なる場合があるため、後の合成処理で合成枚数を変えることにより、動画と静止画のどちらにも対応できるよう、撮影速度を短くし時分割的に撮影する。従って、時分割静止画の撮影条件として、露出条件の他に、静止画を時分割で取得する枚数も必要となる。   For example, in the case of a moving image of 60 fps, the shutter speed is 1/60 second or less due to the frame rate, but it is preferable that the shutter speed of a still image when shooting a dark scene is longer than that. Further, when a still image is shot with underexposure rather than appropriate brightness in dynamic range expansion processing or the like, the shutter speed of the still image is preferably shorter than that of a moving image. For the above reasons, the shutter speeds in the movie mode and still image mode may differ, so the shooting speed can be shortened so that both the movie and still images can be handled by changing the number of images to be combined in the subsequent combining process. Shoot time-divisionally. Accordingly, the number of still images acquired in time division is required in addition to the exposure conditions as the time division still image shooting conditions.

ステップS804における時分割静止画の撮影条件の決定方法について図9を用いて詳細に説明する。   The method for determining the shooting conditions for the time-division still image in step S804 will be described in detail with reference to FIG.

図9は、時分割静止画の撮影条件の決定方法の一例を示す図である。   FIG. 9 is a diagram illustrating an example of a method for determining a shooting condition for a time-division still image.

図9では、動画のシャッター速度Tv_movieが1/100秒、静止画のシャッター速度Tv_stillが1/60秒の場合を示している。   FIG. 9 shows a case where the moving image shutter speed Tv_movie is 1/100 seconds and the still image shutter speed Tv_still is 1/60 seconds.

まず、Tv_movieとTv_stillを簡単な整数比で表す。つまり、図9の例では、Tv_still:Tv_movie=5:3となる。ここで、整数比が、動画及び静止画を生成する際に必要な加算枚数N_still,N_movieとなる。さらに、動画及び静止画の所望のシャッター速度を、それぞれの加算枚数で除算した値が、時分割静止画のシャッター速度Tv_divである。図9の例では、Tv_div=1/300秒である。   First, Tv_movie and Tv_still are expressed by a simple integer ratio. That is, in the example of FIG. 9, Tv_still: Tv_movie = 5: 3. Here, the integer ratio is the number of added sheets N_still, N_movie necessary for generating a moving image and a still image. Furthermore, a value obtained by dividing the desired shutter speeds for moving images and still images by the respective added number is the shutter speed Tv_div for time-division still images. In the example of FIG. 9, Tv_div = 1/300 seconds.

本実施形態では、1枚の静止画を生成するために5枚の時分割静止画を取得する必要があるが、1フレームの動画を生成するためには3枚の時分割静止画が必要である。そこで、連続的に動画フレームを生成するために、時分割静止画を6枚取得し、うち5枚を合成して静止画を生成し、この静止画3枚ずつを合成して2フレームの動画フレームを生成する。従って、時分割静止画取得枚数は6枚となる。このように、撮影条件、1枚の静止画を生成するための必要な枚数および動画フレームを生成するための必要な枚数は、撮像素子から出力される信号の信号レベルに基づいて決定される。   In this embodiment, it is necessary to acquire five time-division still images in order to generate one still image, but three time-division still images are required to generate one frame of moving image. is there. Therefore, in order to generate moving image frames continuously, 6 time-division still images are acquired, 5 of them are combined to generate a still image, and 3 still images are combined to generate a 2 frame moving image. Generate a frame. Therefore, the number of time-division still image acquisition is six. As described above, the shooting conditions, the number of sheets required to generate one still image and the number of sheets required to generate a moving image frame are determined based on the signal level of the signal output from the image sensor.

図8に戻り、ステップS805において、画像処理部107は、上述の方法で決定した撮影条件により時分割静止画を取得し、ステップS806において、時分割静止画を所定枚数分取得したかどうかを判定する。未取得と判定した場合、画像処理部107は、ステップS805に戻って静止画の取得を継続する。一方、取得済みと判定した場合、画像処理部107は静止画取得指示をOFF(解除)し(ステップS807)、動画撮影モードに遷移する。   Returning to FIG. 8, in step S805, the image processing unit 107 acquires time-division still images according to the shooting conditions determined by the above-described method, and in step S806, determines whether a predetermined number of time-division still images have been acquired. To do. If it is determined that the image has not been acquired, the image processing unit 107 returns to step S805 and continues acquiring the still image. On the other hand, if it is determined that the image has been acquired, the image processing unit 107 turns off (cancels) the still image acquisition instruction (step S807), and transitions to the moving image shooting mode.

他方、B像では、静止画取得指示の有無にかかわらず、ステップS808で継続的に動画撮影が行われる。   On the other hand, in the B image, moving image shooting is continuously performed in step S808 regardless of whether there is a still image acquisition instruction.

ステップS809の表示用動画フレーム生成処理では、静止画取得指示がある場合にはB像の動画フレームのみが入力され、静止画取得指示がない場合には、A像およびB像の動画フレームが入力される。なお、A像およびB像で取得された動画フレームや時分割静止画は、ROM102に格納される。なお、ステップS809の表示用動画フレーム生成処理の詳細については後述する。   In the display moving image frame generation processing in step S809, when there is a still image acquisition instruction, only the B image moving image frame is input, and when there is no still image acquisition instruction, the A image and B image moving image frames are input. Is done. Note that the moving image frames and time-division still images acquired for the A and B images are stored in the ROM 102. Details of the display moving image frame generation processing in step S809 will be described later.

次に、ステップS810において、画像処理部107は、動画記録停止指示の有無を判定する。動画記録停止指示とは、例えばデジタルカメラ100の動画撮影ボタン(不図示)の押下などの外部からの操作が挙げられる。   Next, in step S810, the image processing unit 107 determines whether there is a moving image recording stop instruction. The moving image recording stop instruction includes, for example, an external operation such as pressing a moving image shooting button (not shown) of the digital camera 100.

ステップS810において、動画記録停止指示がなしと判定した場合には、ステップS801に戻って動画撮影が継続される。一方、動画記録指示があり判定した場合には、ステップS811の本記録用動画、静止画作成処理が実行される。   If it is determined in step S810 that there is no moving image recording stop instruction, the flow returns to step S801 to continue moving image shooting. On the other hand, if it is determined that there is a moving image recording instruction, the main recording moving image and still image creation processing in step S811 is executed.

ステップS811では、画像処理部107は、ROM102に記録された動画フレームおよび時分割静止画から、本記録用の動画および静止画を生成する。ステップS811における動作処理の具体例を図10に示す。   In step S811, the image processing unit 107 generates a moving image and a still image for main recording from the moving image frame and the time-division still image recorded in the ROM 102. A specific example of the operation process in step S811 is shown in FIG.

図10では、動画の任意の7フレームを抽出し、動画撮影中に静止画取得指示が出された場合の本記録用の動画及び静止画を生成する過程を示している。   FIG. 10 shows a process of generating a moving image and a still image for main recording when an arbitrary seven frames of a moving image are extracted and a still image acquisition instruction is issued during moving image shooting.

図10において、水平軸は時間tを示し、垂直軸は取得される画像の垂直方向の解像度(画素)を示す。また、A像およびB像から得られる動画フレームをそれぞれA1,A2・・A7,B1,B2・・B7とし、3フレーム目のタイミングで時分割静止画の取得が開始される。   In FIG. 10, the horizontal axis indicates time t, and the vertical axis indicates the resolution (pixel) in the vertical direction of the acquired image. Also, the moving image frames obtained from the A and B images are A1, A2,... A7, B1, B2,... B7, respectively, and acquisition of time-division still images is started at the timing of the third frame.

時分割静止画はA像として取得され、撮影条件は図9の例と同じである。すなわち、動画、静止画、および時分割静止画のシャッター速度はそれぞれ1/100秒、1/60秒、1/300秒であり、時分割静止画の取得枚数は6枚である。なお、取得される時分割静止画はそれぞれ、AS1、AS2・・、AS6とする。さらに、取得される動画フレームおよび静止画の垂直方向の解像度(画素)は、それぞれ2000ピクセル、8000ピクセルとする。   The time-division still image is acquired as an A image, and the shooting conditions are the same as in the example of FIG. That is, the shutter speeds of moving images, still images, and time-division still images are 1/100 seconds, 1/60 seconds, and 1/300 seconds, respectively, and the number of acquired time-division still images is six. Note that the acquired time-division still images are AS1, AS2,. Furthermore, the resolution (pixels) in the vertical direction of the obtained moving image frame and still image is 2000 pixels and 8000 pixels, respectively.

まず、上述のように、時分割静止画が6枚撮影され、生成される動画フレームは2フレームとなる。従って、静止画取得指示が出されている期間は3フレーム目と4フレーム目となる。よって、それ以外の1,2,5,6,7フレームは、A像、B像共に動画フレームを取得し、本記録動画は各フレームのA像とB像を加算した全開口画像となる。   First, as described above, six time-division still images are shot, and two moving image frames are generated. Therefore, the period during which the still image acquisition instruction is issued is the third frame and the fourth frame. Therefore, the other 1, 2, 5, 6, and 7 frames acquire moving image frames for both the A image and the B image, and the recorded moving image is a full aperture image obtained by adding the A and B images of each frame.

次に、静止画撮影モードとなる3,4フレームの説明を行う。   Next, 3 and 4 frames that are in the still image shooting mode will be described.

まず、本記録静止画は、連続撮影された6枚の時分割静止画のうち、AS1〜AS5の5枚の静止画の合成処理により得られる。なお、合成処理の手法は問わないが、ここでは5枚の時分割静止画を加算合成し、1枚の静止画を生成するものとする。   First, the recorded still image is obtained by combining five still images AS1 to AS5 among six time-division still images that are continuously shot. Note that the composition processing method does not matter, but here, it is assumed that five time-division still images are added and combined to generate one still image.

次に、静止画撮影モードにおける本記録動画の生成について説明する。   Next, generation of the recorded moving image in the still image shooting mode will be described.

B像では動画フレームB3とB4が得られているのに対し、A像では時分割静止画で撮影されているため、加算合成処理によって対応する動画フレームを得る必要がある。また、A像では、静止画相当の解像度(画素)で撮影されているため、動画フレーム相当の画素数に縮小する必要がある。ここでは、バイリニア縮小処理によりAS1〜AS6を縮小する。縮小したA像静止画を縮小AS1〜縮小AS6,動画フレームB3とB4に対応するA像フレームを、A3’,A4’とする。その場合、図10に示すように、A3’は縮小AS1〜縮小AS3の加算合成、A4’は縮小AS4〜縮小AS6の加算合成によって生成されたものである。そして、A3’とB3、A4’とB4フレームを加算し、全開口画像の動画フレームを得る。   In the B image, moving image frames B3 and B4 are obtained, whereas in the A image, a time-division still image is taken. Therefore, it is necessary to obtain a corresponding moving image frame by addition synthesis processing. Further, since the A image is taken at a resolution (pixel) equivalent to a still image, it is necessary to reduce the number of pixels to an equivalent of a moving image frame. Here, AS1 to AS6 are reduced by bilinear reduction processing. The reduced A image still image is referred to as reduced AS1 to reduced AS6, and the A image frames corresponding to the moving image frames B3 and B4 are referred to as A3 'and A4'. In this case, as shown in FIG. 10, A3 'is generated by addition synthesis of reduced AS1 to reduced AS3, and A4' is generated by addition combination of reduced AS4 to reduced AS6. Then, A3 'and B3, and A4' and B4 frames are added to obtain a moving image frame of a full aperture image.

以上がステップS811の動作であり、ステップS811において、本記録される動画および静止画が生成される。生成された本記録動画および静止画はROM102に記録され、本処理が終了する。   The above is the operation in step S811, and the moving image and the still image to be recorded are generated in step S811. The generated main recording moving image and still image are recorded in the ROM 102, and the processing ends.

次に、図8のステップS809の表示用動画フレーム生成処理の詳細について図11を用いて説明する。   Next, details of the display moving image frame generation processing in step S809 in FIG. 8 will be described with reference to FIG.

本記録動画の生成では、複数の時分割静止画を取得して合成する合成処理を伴うため、処理のリアルタイム性の観点から、デジタルカメラの表示部にライブ表示することが困難であると考えられる。従って、本記録される動画とは異なるものの、リアルタイムにユーザーが撮影した動画を確認するための表示用動画を簡易的に生成する必要がある。   Since the generation of this recorded moving image involves a synthesis process that acquires and synthesizes a plurality of time-division still images, it is considered difficult to display live on the display unit of the digital camera from the viewpoint of real-time processing. . Therefore, although it is different from the moving image to be recorded, it is necessary to easily generate a moving image for display for confirming the moving image taken by the user in real time.

図11は、図8のステップS809における表示用動画フレーム生成処理の具体例を示す図である。   FIG. 11 is a diagram showing a specific example of the display moving image frame generation processing in step S809 in FIG.

図11に示すように、静止画撮影を行わないフレーム1,2,5,6,7については、本記録動画と同様にA像とB像を加算した全開口動画を表示用動画とする。また、静止画撮影を行うフレーム3,4については、B像で取得した動画フレームB3,B4のみを用いる。   As shown in FIG. 11, for the frames 1, 2, 5, 6, and 7 in which still image shooting is not performed, the full aperture moving image obtained by adding the A image and the B image is used as the moving image for display as in the case of the main recording moving image. For the frames 3 and 4 for taking still images, only the moving image frames B3 and B4 acquired as B images are used.

しかしながら、動画フレームB3,B4は瞳分割を行ったうちの片側の像であるため、上述の瞳分割によるシェーディング、被写界深度の差異が発生している。   However, since the moving image frames B3 and B4 are images on one side of the pupil division, there are differences in shading and depth of field due to the above-described pupil division.

そこで、図11に示すように、まずB3,B4にゲインをかけ、瞳分割によるシェーディングを補正する。具体的には、図7に示したシェーディングの影響を打ち消すような特性を持った面ゲインを乗じる。次に、すでに取得されたA像、B像の動画フレームのペアから画像のデフォーカス量を算出し、デフォーカス量に応じて被写界深度差を補うためのボケを、ゲイン乗算後のB3,B4に付加する。   Therefore, as shown in FIG. 11, first, gain is applied to B3 and B4 to correct shading due to pupil division. Specifically, it is multiplied by a surface gain having a characteristic that cancels the influence of shading shown in FIG. Next, the defocus amount of the image is calculated from the pair of the already acquired moving image frames of the A image and the B image, and the blur for compensating for the difference in depth of field according to the defocus amount is calculated by B3 after gain multiplication. , B4.

図11におけるDefMAPとは、デフォーカス量の分布を表すデフォーカスマップである。デフォーカスマップ処理の具体的な方法は、例えば特開2008−015754号公報において開示されている技術などが挙げられる。   DefMAP in FIG. 11 is a defocus map representing the distribution of the defocus amount. As a specific method of the defocus map process, for example, a technique disclosed in Japanese Patent Laid-Open No. 2008-015754 can be cited.

図11の例では、動画フレームのペアを2フレーム前のA1,B1としたが、実際はボケ付加処理にかかる処理時間によって、何フレーム前の情報を基にデフォーカスマップを生成するかが決まる。なお、動画撮影によって刻々と画角が変わっていくため、デフォーカスマップは定期的に更新することが望ましい。   In the example of FIG. 11, the pair of moving image frames is A1 and B1 two frames before, but the number of frames before the defocus map is generated is actually determined by the processing time required for the blur addition process. Since the angle of view changes every moment due to moving image shooting, it is desirable to periodically update the defocus map.

以上がステップS809の処理の説明であり、ステップS809によって、表示用の動画フレームが生成され、デジタルカメラの表示部にライブ表示される。   The above is the description of the processing in step S809. In step S809, a moving image frame for display is generated and displayed live on the display unit of the digital camera.

上記第1の実施形態によれば、瞳分割画像であるA像およびB像で静止画および動画をそれぞれ取得し、特に静止画を時分割で撮影して適切に合成処理を行うことで、動画撮影を中断することなく静止画を取得することが可能となる。特に、本実施形態では、瞳分割した片方の像で継続的に動画撮影を行い、時分割したもう片方の像の静止画から対となるフレームを作って加算する。これにより、全開口動画に相当する動画が取得でき、動画においては瞳分割による画質への弊害(シェーディング、被写界深度差)を抑制することが可能となる。   According to the first embodiment, a still image and a moving image are acquired with the A image and the B image, which are pupil-divided images, respectively. It is possible to acquire a still image without interrupting shooting. In particular, in the present embodiment, moving image shooting is continuously performed with one of the pupil-divided images, and a paired frame is formed from the still image of the other image that has been time-divided and added. As a result, a moving image corresponding to an all-aperture moving image can be acquired, and in the moving image, adverse effects on image quality due to pupil division (shading, depth of field difference) can be suppressed.

[第2の実施形態]
上記第1の実施形態では、動画の画質を優先して、シームレスに動画中静止画を取得する方法について説明した。本第2の実施形態では、シームレスに動画中静止画を取得しつつ、静止画の画質を優先させる方法(静止画優先モード)について説明を行う。以下、第1の実施の形態と同様の部分については、同一の符号を用いてその説明を省略する。
[Second Embodiment]
In the first embodiment, the method for seamlessly acquiring a still image in a moving image giving priority to the image quality of the moving image has been described. In the second embodiment, a method (still image priority mode) for prioritizing the image quality of still images while seamlessly acquiring still images in moving images will be described. Hereinafter, the same parts as those of the first embodiment are denoted by the same reference numerals and the description thereof is omitted.

本第2の実施形態では、画像処理部107の処理内容が上記第1の実施形態と異なる。   In the second embodiment, the processing content of the image processing unit 107 is different from that in the first embodiment.

図12は、第2の実施形態における静止画優先モード時の画像処理部107の動作処理を示すフローチャートである。   FIG. 12 is a flowchart showing an operation process of the image processing unit 107 in the still image priority mode in the second embodiment.

まず、ステップS1201の判定結果から静止画取得指示がないと判定した場合、上記第1の実施形態と同様に、画像処理部107は、A像、B像共に動画モードで画像を取得して(ステップS1207)、ステップS1209へ進む。   First, if it is determined from the determination result in step S1201 that there is no still image acquisition instruction, the image processing unit 107 acquires images in the moving image mode for both the A image and the B image, as in the first embodiment. The process proceeds to step S1207) and step S1209.

一方、ステップS1201で静止画取得指示があると判定した場合は、画像処理部107は、A像で静止画を取得し(ステップS1202)、B像で時分割静止画を取得する(ステップS1203〜ステップS1206)。ここで、A像の静止画は時分割撮影ではなく、所定のシャッター速度による1枚撮影である。また、ステップS1203,S1204における時分割静止画の撮影条件の決定方法は、上述した図8のステップS803,S804と同一である。   On the other hand, if it is determined in step S1201 that there is a still image acquisition instruction, the image processing unit 107 acquires a still image as the A image (step S1202), and acquires a time-division still image as the B image (step S1203). Step S1206). Here, the still image of the A image is not a time-division shooting but a single shooting at a predetermined shutter speed. Further, the method for determining the time-division still image shooting conditions in steps S1203 and S1204 is the same as that in steps S803 and S804 of FIG. 8 described above.

次に、画像処理部107は、ステップS1205およびステップS1206にて時分割静止画の取得枚数が所定枚数に達するまで時分割静止画を取得する。そして、所定枚数に達したときにはステップS1208〜ステップS1210を経て、本記録用の動画および静止画生成を行う(ステップS1211)。取得された静止画はROM102に記録される。なお、ステップS1209の表示用動画フレーム生成処理の詳細については後述する。   Next, the image processing unit 107 acquires time-division still images until the number of time-division still images acquired reaches a predetermined number in steps S1205 and S1206. When the predetermined number is reached, the moving image and still image for main recording are generated through steps S1208 to S1210 (step S1211). The acquired still image is recorded in the ROM 102. Details of the display moving image frame generation processing in step S1209 will be described later.

ステップS1211では、画像処理部107は、ROM102に記録された静止画および時分割静止画から、本記録用の動画および静止画を生成する。ステップS1211における動作処理の具体例を図13に示す。なお、図13における動画および静止画の撮影条件、ならびに動画および静止画の垂直方向の画素数は、上記第1の実施形態における図10に示すものと同一とする。   In step S <b> 1211, the image processing unit 107 generates a moving image and a still image for main recording from the still image and the time-division still image recorded in the ROM 102. A specific example of the operation process in step S1211 is shown in FIG. Note that the moving image and still image shooting conditions and the number of pixels in the vertical direction of the moving image and still image in FIG. 13 are the same as those shown in FIG. 10 in the first embodiment.

図13において、まず、第1の実施形態と同様に、静止画取得指示がない1,2,5,6,7フレームにおいては、A像とB像のいずれも動画モードで動画フレームを撮影し、本記録動画としてA像とB像を加算した全開口動画を記録する。   In FIG. 13, first, as in the first embodiment, in the 1, 2, 5, 6, and 7 frames where there is no still image acquisition instruction, both the A image and the B image are shot in the moving image mode. A full aperture moving image obtained by adding the A image and the B image is recorded as the main recording moving image.

次に、静止画取得指示ありの3,4フレームでは、A像では時分割を行わずに静止画を撮影し、B像では時分割静止画を撮影する。ここで、A像で取得された静止画をAS、B像で取得された時分割静止画をBS1〜BS6と呼ぶ。   Next, in 3 and 4 frames with a still image acquisition instruction, a still image is captured without performing time division for the A image, and a time division still image is captured for the B image. Here, the still image acquired with the A image is referred to as AS, and the time-division still images acquired with the B image are referred to as BS1 to BS6.

まず、本記録動画は、連続撮影された時分割静止画BS1〜BS6を縮小処理し(以下、「縮小BS1〜縮小BS6」と呼ぶ)、縮小BS1〜縮小BS3を加算合成する。そして、動画の3フレーム目に対応するB3’フレームを生成し、縮小BS4〜縮小BS6を加算合成して、動画の4フレーム目に対応するB4’フレームを生成する。   First, for the recorded moving image, time-division still images BS1 to BS6 continuously shot are reduced (hereinafter referred to as “reduced BS1 to reduced BS6”), and reduced BS1 to reduced BS3 are added and combined. Then, a B3 ′ frame corresponding to the third frame of the moving image is generated, and the reduced BS4 to the reduced BS6 are added and combined to generate a B4 ′ frame corresponding to the fourth frame of the moving image.

また、本記録静止画は、A像から得られた静止画ASと、ASに対応するB像の静止画を加算し、全開口静止画として取得する。ここで、B像の静止画は、時分割処理で得られた時分割静止画BS1〜BS5を加算合成処理して取得する。   The still image recorded is obtained as a full-opening still image by adding the still image AS obtained from the A image and the still image of the B image corresponding to the AS. Here, the still image of the B image is obtained by adding and synthesizing the time-division still images BS1 to BS5 obtained by the time-division processing.

以上がステップS1211の動作であり、ステップS1211において、本記録される動画および静止画が生成される。生成された本記録動画および静止画はROM102に記録され、本処理が完了する。   The above is the operation in step S1211. In step S1211, the moving image and the still image to be recorded are generated. The generated main recording moving image and still image are recorded in the ROM 102, and the processing is completed.

次に、ステップS1209の表示用動画フレーム生成処理の詳細について説明する。   Next, details of the display moving image frame generation processing in step S1209 will be described.

図14は、図12のステップS1209における表示用動画フレーム生成処理の具体例を示す図である。   FIG. 14 is a diagram showing a specific example of the display moving image frame generation processing in step S1209 of FIG.

図14に示すように、静止画撮影を行わないフレーム1,2,5,6,7については、本記録動画と同様にA像とB像を加算した全開口動画を表示用動画とする。また、静止画撮影を行うフレーム3,4については、B像で取得した時分割静止画のうちBS1,BS4のみを用いる。   As shown in FIG. 14, for frames 1, 2, 5, 6, and 7 where still image shooting is not performed, a full aperture moving image obtained by adding the A and B images is used as a moving image for display, as in the case of the recorded moving image. For frames 3 and 4 for taking a still image, only BS1 and BS4 among the time-division still images acquired as the B image are used.

しかしながら、時分割静止画BS1,BS4は瞳分割を行ったうちの片側の像であるため、上述の瞳分割によるシェーディング、被写界深度の差異が発生している。さらに、BS1,BS4は時分割されており、シャッター速度が短いため、適正露出よりも暗い画像となっている(本実施形態では適正露出の1/3の明るさ)。   However, since the time-division still images BS1 and BS4 are images on one side of the pupil division, there are differences in shading and depth of field due to the above-described pupil division. Furthermore, BS1 and BS4 are time-divided, and the shutter speed is short, so the image is darker than the appropriate exposure (in this embodiment, 1/3 the brightness of the appropriate exposure).

そこで、図14に示すように、まずBS1,BS4にゲインをかけ、明るさを適正露出相当にすると共に、瞳分割によるシェーディング補正を行う。次に、すでに取得されたA像、B像の動画フレームのペアから画像のデフォーカス量を算出し、デフォーカス量に応じて被写界深度差を補うためのボケを、ゲイン乗算後のBS1,BS4に付加する。なお、ボケ付加処理に関しては、上記第1の実施形態における図11にて説明したものと同様である。   Therefore, as shown in FIG. 14, first, a gain is applied to BS1 and BS4 to make the brightness equivalent to an appropriate exposure, and shading correction by pupil division is performed. Next, the defocus amount of the image is calculated from a pair of the already obtained moving image frames of the A image and the B image, and a blur for compensating for the difference in depth of field according to the defocus amount is obtained by BS1 after gain multiplication. , BS4. Note that the blur addition process is the same as that described with reference to FIG. 11 in the first embodiment.

上記第2の実施形態によれば、瞳分割画像であるA像およびB像で静止画および時分割静止画をそれぞれ取得し、特に時分割静止画を適切に合成処理することで、動画撮影を中断することなく静止画を取得することが可能となる。特に、本実施形態では、瞳分割した片方の像で時分割せずに静止画撮影を行い、時分割したもう片方の像の静止画から対となる静止画を作って加算する。これにより、全開口静止画に相当する静止画が取得でき、静止画においては瞳分割による画質への弊害(シェーディング、被写界深度差)を抑制することが可能となる。   According to the second embodiment, a still image and a time-division still image are respectively acquired from the A-image and the B-image that are pupil-divided images, and moving image shooting is performed particularly by appropriately combining the time-division still images. A still image can be acquired without interruption. In particular, in this embodiment, still image shooting is performed without time-sharing on one of the pupil-divided images, and a paired still image is created from the still images of the other time-divided image and added. As a result, a still image corresponding to an all-aperture still image can be acquired, and in the still image, adverse effects on image quality (shading, depth of field difference) due to pupil division can be suppressed.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

101 システム制御部
102 ROM
103 RAM
104 光学系
105 撮像部
106 A/D変換部
107 画像処理部
108 記録媒体
109 システムバス
101 System control unit 102 ROM
103 RAM
104 Optical system 105 Imaging unit 106 A / D conversion unit 107 Image processing unit 108 Recording medium 109 System bus

Claims (12)

1つのマイクロレンズと一対の光電変換部を有する複数の画素で構成され、前記複数の画素のそれぞれが光学系の射出瞳を通過した光束を前記マイクロレンズにより前記一対の光電変換部のそれぞれに受光して信号を出力する撮像素子を備える画像記録装置において、
前記一対の光電変換部のうちの一方から得られる第1の画像と他方から得られる第2の画像を加算合成して動画フレームを生成する動画フレーム生成手段と、
静止画を取得するための前記撮像素子による撮影の撮影条件を決定する決定手段と、
前記撮像素子による動画撮影中に静止画取得指示がなされた場合、前記決定手段により決定された撮影条件に基づいて撮影された複数の第1の画像を取得し、当該複数の第1の画像のうち1枚の静止画を生成するために必要な枚数を加算合成して静止画を生成する静止画生成手段とを備え、
前記動画フレーム生成手段は、動画フレームを生成するために必要な枚数を加算合成した第1の画像と前記第2の画像から動画フレームを生成することを特徴とする画像記録装置。
Consists of a plurality of pixels having one microlens and a pair of photoelectric conversion units, and each of the plurality of pixels receives light beams that have passed through the exit pupil of the optical system by the microlens to each of the pair of photoelectric conversion units. In an image recording apparatus including an image pickup device that outputs a signal,
A moving image frame generating means for generating a moving image frame by adding and synthesizing a first image obtained from one of the pair of photoelectric conversion units and a second image obtained from the other;
Determining means for determining shooting conditions of shooting by the imaging device for acquiring a still image;
When a still image acquisition instruction is given during moving image shooting by the image sensor, a plurality of first images shot based on the shooting conditions determined by the determination unit are acquired, and the plurality of first images are acquired. A still image generating means for generating a still image by adding and synthesizing a number necessary to generate one still image,
The image recording apparatus, wherein the moving image frame generating unit generates a moving image frame from the first image and the second image obtained by adding and synthesizing a number necessary for generating the moving image frame.
前記決定手段は、前記撮影条件として、前記動画のシャッター速度と前記静止画のシャッター速度を簡単な整数比で表したものから前記静止画および前記動画フレームを生成するために必要な枚数を決定することを特徴とする請求項1に記載の画像記録装置。   The determination means determines the number of sheets necessary for generating the still image and the moving image frame as the shooting condition based on a simple integer ratio of the moving image shutter speed and the still image shutter speed. The image recording apparatus according to claim 1. 前記決定手段は、前記複数の静止画を取得するためのシャッター速度を、前記動画のシャッター速度を前記動画フレームを生成するための必要な枚数で除算するか、または、前記静止画のシャッター速度を前記静止画を生成するために必要な枚数で除算して算出することを特徴とする請求項2に記載の画像記録装置。   The determination unit divides the shutter speed for acquiring the plurality of still images by dividing the shutter speed of the moving image by a necessary number for generating the moving image frame, or the shutter speed of the still image. The image recording apparatus according to claim 2, wherein the image recording apparatus is calculated by dividing by a number necessary for generating the still image. 前記静止画取得指示が出された場合において、前記第2の画像を動画フレーム相当の画素数に縮小し、さらに所定のゲインをかけたのち、所定のボケ付加処理を施して、表示用の動画フレームとして出力する表示用動画フレーム生成手段をさらに備えることを特徴とする請求項1乃至3のいずれか1項に記載の画像記録装置。   When the still image acquisition instruction is issued, the second image is reduced to the number of pixels equivalent to a moving image frame, and after applying a predetermined gain, a predetermined blur addition process is performed to display a moving image for display. 4. The image recording apparatus according to claim 1, further comprising display moving image frame generation means for outputting as a frame. 1つのマイクロレンズと一対の光電変換部を有する複数の画素で構成され、前記複数の画素のそれぞれが光学系の射出瞳を通過した光束を前記マイクロレンズにより前記一対の光電変換部のそれぞれに受光して信号を出力する撮像素子を備える画像記録装置において、
前記一対の光電変換部のうちの一方から得られる第1の画像と他方から得られる第2の画像を加算合成して動画フレームを生成する動画フレーム生成手段と、
静止画を取得するための前記撮像素子による撮影の撮影条件を決定する決定手段と、
前記撮像素子による動画撮影中に静止画取得指示がなされた場合、前記決定手段により決定された撮影条件に基づいて撮影された複数の第2の画像を取得し、当該複数の第2の画像のうち1枚の静止画を生成するために必要な枚数を加算合成した静止画と1枚の前記第1の画像とを加算合成して静止画を生成する静止画生成手段とを備え、
前記動画フレーム生成手段は、動画フレームを生成するために必要な枚数を加算合成した第2の画像から前記動画フレームを生成することを特徴とする画像記録装置。
Consists of a plurality of pixels having one microlens and a pair of photoelectric conversion units, and each of the plurality of pixels receives light beams that have passed through the exit pupil of the optical system by the microlens to each of the pair of photoelectric conversion units. In an image recording apparatus including an image pickup device that outputs a signal,
A moving image frame generating means for generating a moving image frame by adding and synthesizing a first image obtained from one of the pair of photoelectric conversion units and a second image obtained from the other;
Determining means for determining shooting conditions of shooting by the imaging device for acquiring a still image;
When a still image acquisition instruction is given during moving image shooting by the imaging element, a plurality of second images shot based on the shooting conditions determined by the determination unit are acquired, and the plurality of second images are acquired. A still image generating means for generating a still image by adding and synthesizing a still image obtained by adding and synthesizing a number necessary for generating one still image and the first image;
The moving image frame generating means generates the moving image frame from a second image obtained by adding and combining the necessary number of frames for generating a moving image frame.
前記決定手段は、前記撮影条件として、前記動画のシャッター速度と前記静止画のシャッター速度を簡単な整数比で表したものから前記静止画および前記動画フレームを生成するために必要な枚数を決定することを特徴とする請求項5に記載の画像記録装置。   The determination means determines the number of sheets necessary for generating the still image and the moving image frame as the shooting condition based on a simple integer ratio of the moving image shutter speed and the still image shutter speed. The image recording apparatus according to claim 5. 前記決定手段は、前記複数の静止画を取得するためのシャッター速度を、前記動画のシャッター速度を前記動画フレームを生成するための必要な枚数で除算するか、または、前記静止画のシャッター速度を前記静止画を生成するために必要な枚数で除算して算出することを特徴とする請求項6に記載の画像記録装置。   The determination unit divides the shutter speed for acquiring the plurality of still images by dividing the shutter speed of the moving image by a necessary number for generating the moving image frame, or the shutter speed of the still image. The image recording apparatus according to claim 6, wherein the image recording apparatus is calculated by dividing by a number necessary for generating the still image. 前記静止画取得指示が出された場合において、前記第2の画像に所定のゲインをかけたのち、所定のボケ付加処理を施した画像を、表示用の動画フレームとして出力する表示用動画フレーム生成手段をさらに有することを特徴とする請求項5乃至7のいずれか1項に記載の画像記録装置。   When a still image acquisition instruction is issued, a display moving image frame generation is performed in which a predetermined gain is applied to the second image, and then an image subjected to a predetermined blur addition process is output as a display moving image frame. The image recording apparatus according to claim 5, further comprising a unit. 前記撮影条件、前記1枚の静止画を生成するための必要な枚数および前記動画フレームを生成するための必要な枚数は、前記撮像素子から出力される信号の信号レベルに基づいて決定されることを特徴とする請求項1乃至8のいずれか1項に記載の画像記録装置。   The shooting conditions, the number of sheets required to generate the one still image and the number of sheets required to generate the moving image frame are determined based on a signal level of a signal output from the image sensor. The image recording apparatus according to claim 1, wherein: 1つのマイクロレンズと一対の光電変換部を有する複数の画素で構成され、前記複数の画素のそれぞれが光学系の射出瞳を通過した光束を前記マイクロレンズにより前記一対の光電変換部のそれぞれに受光して信号を出力する撮像素子を備える画像記録装置の画像記録方法において、
前記一対の光電変換部のうちの一方から得られる第1の画像と他方から得られる第2の画像を加算合成して動画フレームを生成する動画フレーム生成工程と、
静止画を取得するための前記撮像素子による撮影の撮影条件を決定する決定工程と、
前記撮像素子による動画撮影中に静止画取得指示がなされた場合、前記決定工程にて決定された撮影条件に基づいて撮影された複数の第1の画像を取得し、当該複数の第1の画像のうち1枚の静止画を生成するために必要な枚数を加算合成して静止画を生成する静止画生成工程とを備え、
前記動画フレーム生成工程は、動画フレームを生成するために必要な枚数を加算合成した第1の画像と前記第2の画像から動画フレームを生成することを特徴とする画像記録方法。
Consists of a plurality of pixels having one microlens and a pair of photoelectric conversion units, and each of the plurality of pixels receives light beams that have passed through the exit pupil of the optical system by the microlens to each of the pair of photoelectric conversion units. In an image recording method of an image recording apparatus including an image pickup device that outputs a signal,
A moving image frame generating step of generating a moving image frame by adding and combining a first image obtained from one of the pair of photoelectric conversion units and a second image obtained from the other;
A determination step of determining shooting conditions of shooting by the imaging device for acquiring a still image;
When a still image acquisition instruction is given during moving image shooting by the imaging element, a plurality of first images shot based on the shooting conditions determined in the determination step are acquired, and the plurality of first images is acquired. A still image generating step of generating a still image by adding and synthesizing a required number of images to generate one still image,
The moving image frame generating step generates a moving image frame from the first image and the second image obtained by adding and synthesizing a number necessary for generating a moving image frame.
1つのマイクロレンズと一対の光電変換部を有する複数の画素で構成され、前記複数の画素のそれぞれが光学系の射出瞳を通過した光束を前記マイクロレンズにより前記一対の光電変換部のそれぞれに受光して信号を出力する撮像素子を備える画像記録装置の画像記録方法において、
前記一対の光電変換部のうちの一方から得られる第1の画像と他方から得られる第2の画像を加算合成して動画フレームを生成する動画フレーム生成工程と、
複数の静止画を取得するための前記撮像素子による撮影の撮影条件を決定する決定工程と、
前記撮像素子による動画撮影中に静止画取得指示がなされた場合、前記決定工程にて決定された撮影条件に基づいて撮影された複数の第2の画像を取得し、当該複数の第2の画像のうち1枚の静止画を生成するために必要な枚数を加算合成した静止画と1枚の前記第1の画像とを加算合成して静止画を生成する静止画生成工程とを備え、
前記動画フレーム生成工程は、動画フレームを生成するために必要な枚数を加算合成した第2の画像から前記動画フレームを生成することを特徴とする画像記録方法。
Consists of a plurality of pixels having one microlens and a pair of photoelectric conversion units, and each of the plurality of pixels receives light beams that have passed through the exit pupil of the optical system by the microlens to each of the pair of photoelectric conversion units. In an image recording method of an image recording apparatus including an image pickup device that outputs a signal,
A moving image frame generating step of generating a moving image frame by adding and combining a first image obtained from one of the pair of photoelectric conversion units and a second image obtained from the other;
A determination step of determining shooting conditions of shooting by the imaging device for acquiring a plurality of still images;
When a still image acquisition instruction is given during moving image shooting by the image pickup device, a plurality of second images shot based on the shooting conditions determined in the determination step are acquired, and the plurality of second images is acquired. A still image generating step of generating a still image by adding and synthesizing a still image obtained by adding and synthesizing a required number of images to generate one still image and the first image.
The moving image frame generating step generates the moving image frame from a second image obtained by adding and synthesizing a necessary number of frames for generating a moving image frame.
請求項10または11に記載の画像記録方法をコンピュータに実行させるためのコンピュータに読み取り可能なプログラム。   A computer-readable program for causing a computer to execute the image recording method according to claim 10 or 11.
JP2014182179A 2014-09-08 2014-09-08 Image recording apparatus and method, and program Active JP6320250B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014182179A JP6320250B2 (en) 2014-09-08 2014-09-08 Image recording apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014182179A JP6320250B2 (en) 2014-09-08 2014-09-08 Image recording apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2016058814A true JP2016058814A (en) 2016-04-21
JP6320250B2 JP6320250B2 (en) 2018-05-09

Family

ID=55758967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014182179A Active JP6320250B2 (en) 2014-09-08 2014-09-08 Image recording apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP6320250B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020054002A (en) * 2017-03-28 2020-04-02 キヤノン株式会社 Imaging apparatus, control method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008301286A (en) * 2007-05-31 2008-12-11 Canon Inc Imaging apparatus and control method thereof
JP2013172219A (en) * 2012-02-20 2013-09-02 Canon Inc Imaging apparatus
JP2014122957A (en) * 2012-12-20 2014-07-03 Canon Inc Imaging device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008301286A (en) * 2007-05-31 2008-12-11 Canon Inc Imaging apparatus and control method thereof
JP2013172219A (en) * 2012-02-20 2013-09-02 Canon Inc Imaging apparatus
JP2014122957A (en) * 2012-12-20 2014-07-03 Canon Inc Imaging device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020054002A (en) * 2017-03-28 2020-04-02 キヤノン株式会社 Imaging apparatus, control method, and program

Also Published As

Publication number Publication date
JP6320250B2 (en) 2018-05-09

Similar Documents

Publication Publication Date Title
US9521316B2 (en) Image processing apparatus for reconstructing an image, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium
JP6555863B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP5854984B2 (en) Image processing apparatus, imaging apparatus, control method, and program
US9451160B2 (en) Imaging apparatus and method for controlling the imaging apparatus
JP6587380B2 (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium
JP2015186247A (en) Image processing system, control method, and program
US10574906B2 (en) Image processing apparatus and image processing method
JP6516510B2 (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
US9591203B2 (en) Image processing apparatus, image processing method, recording medium, and image pickup apparatus
JP2021027523A5 (en)
JP2014026051A (en) Image capturing device and image processing device
JP6320250B2 (en) Image recording apparatus and method, and program
JP6608194B2 (en) Image processing apparatus, control method therefor, and program
JP2013218031A (en) Imaging apparatus
JP2014123050A (en) Focus detection device, focus detection method, program and imaging device
JP6327892B2 (en) Imaging apparatus and control method thereof
JP6917803B2 (en) Imaging equipment, control methods, and programs
JP6004741B2 (en) Image processing apparatus, control method therefor, and imaging apparatus
JP2016100868A (en) Image processing apparatus, image processing method, and program, and imaging apparatus
JP6075829B2 (en) IMAGING DEVICE, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP7134601B2 (en) Image processing device, image processing method, imaging device, and imaging device control method
JP2017085337A (en) Image processing device, imaging device and image processing program
JP6570230B2 (en) Imaging apparatus and imaging method
JP6138222B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP7271316B2 (en) Imaging device and its control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180403

R151 Written notification of patent or utility model registration

Ref document number: 6320250

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151