JP6198395B2 - Imaging apparatus and control method thereof - Google Patents

Imaging apparatus and control method thereof Download PDF

Info

Publication number
JP6198395B2
JP6198395B2 JP2013001291A JP2013001291A JP6198395B2 JP 6198395 B2 JP6198395 B2 JP 6198395B2 JP 2013001291 A JP2013001291 A JP 2013001291A JP 2013001291 A JP2013001291 A JP 2013001291A JP 6198395 B2 JP6198395 B2 JP 6198395B2
Authority
JP
Japan
Prior art keywords
image
development
focus
unit
developing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013001291A
Other languages
Japanese (ja)
Other versions
JP2014135562A (en
JP2014135562A5 (en
Inventor
木村 正史
正史 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013001291A priority Critical patent/JP6198395B2/en
Publication of JP2014135562A publication Critical patent/JP2014135562A/en
Publication of JP2014135562A5 publication Critical patent/JP2014135562A5/ja
Application granted granted Critical
Publication of JP6198395B2 publication Critical patent/JP6198395B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Lens Barrels (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Description

本発明は、動画撮影可能な撮像装置における画像生成技術に関するものである。   The present invention relates to an image generation technique in an imaging apparatus capable of shooting a moving image.

従来、動画撮影においてコントラストを活用してピント調整を行う撮像装置が提案されている。さらに近年ライトフィールドカメラと通称される、像を取得後にピント調整可能な撮像装置が提案されている。   2. Description of the Related Art Conventionally, there has been proposed an imaging apparatus that performs focus adjustment using a contrast in moving image shooting. In recent years, there has been proposed an imaging apparatus that is commonly called a light field camera and that can adjust the focus after acquiring an image.

例えば、特許文献1では、光路長が異なる位置に配置されたセンサを用いてコントラストAFを行う撮像装置が開示されている。特許文献2では、像を取得後にピント調整可能な撮像装置が開示されている。   For example, Patent Document 1 discloses an imaging apparatus that performs contrast AF using sensors arranged at positions having different optical path lengths. Patent Document 2 discloses an imaging apparatus that can adjust focus after acquiring an image.

特開2002−365517号公報JP 2002-365517 A 特開2007−004471号公報JP 2007-004471 A

しかしながら、上述の特許文献に開示された従来技術では、動画撮影中に必ずしも適当な画像が得られない場合がある。すなわち特許文献1に記載の技術ではピント位置を検出可能であるが、検出されたピントが外れている場合にすぐにピント状態の良い画像を得ることはできない。特許文献2では、撮影後にピント状態を変化させた像を得る方法が開示されているが、動画撮影中のレンズの駆動と同期して適当な画像を得る方法は示されていない。   However, with the conventional techniques disclosed in the above-mentioned patent documents, an appropriate image may not always be obtained during moving image shooting. In other words, the technique described in Patent Document 1 can detect the focus position, but when the detected focus is out of focus, an image with a good focus state cannot be obtained immediately. Patent Document 2 discloses a method for obtaining an image in which the focus state is changed after photographing, but does not show a method for obtaining an appropriate image in synchronization with driving of a lens during moving image photographing.

本発明は上述した課題に鑑みてなされたものであり、その目的は、動画撮影中にピント状態の良い記録画像を得るとともに、レンズ駆動信号を得ることを可能にした撮像装置を提供することである。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide an imaging device that can obtain a recorded image with a good focus state during movie shooting and obtain a lens driving signal. is there.

本発明に係わる撮像装置は、光線空間情報を含む信号を得る撮像素子と、一定の周期で前記撮像素子から信号を出力させる撮像素子制御手段と、記撮像素子から得られた信号に対して現像面を設定し、前記現像面に対応する前記信号同士の加算を行うことにより前記現像面での像信号を生成する現像手段と、前記現像手段から得られた複数の現像面における信号を用いて、ピント状態が最良の現像面を算出する算出手段と、前記算出手段による算出結果に基づいて、予め設定されている駆動速度以下の速度で、かつピント状態が良くなる方向に撮影レンズを制御するレンズ制御手段と、前記算出手段による算出結果に基づいて、ピント状態が最良の現像面を記録画像現像面として決定する決定手段と、を備えることを特徴とする。 Imaging device according to the present invention includes an imaging device to obtain a signal containing a light field information, and the imaging element control means for outputting a signal from the imaging element at a constant cycle, the obtained signals from the previous SL imaging element set the development surface, a developing unit that generates an image signal in the developing surface by performing an addition of the signals respectively corresponding to the developing surface, the image signals in a plurality of developing surface obtained from the developing unit It used a calculation means for focus state is calculated the best development plane, based on the calculation result by the calculating means, in advance that have been set drive speed following speed and the direction taking lens focus state becomes better a lens control means for controlling, based on the calculation result by the calculating means, characterized in that it comprises a determining means for focus state to determine the best development plane as the development face of the recording image.

本発明によれば、動画撮影中にピント状態の良い記録画像を得るとともに、レンズ駆動信号を得ることを可能にした撮像装置を提供することが可能となる。   According to the present invention, it is possible to provide an imaging apparatus capable of obtaining a recorded image with a good focus state during moving image shooting and obtaining a lens driving signal.

本発明の撮像装置の一実施形態であるデジタルカメラおよびレンズの構成を示す図である。It is a figure which shows the structure of the digital camera which is one Embodiment of the imaging device of this invention, and a lens. 撮影光学系の説明図である。It is explanatory drawing of an imaging optical system. 一実施形態のカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the camera of one Embodiment. 像の再構成を説明する図である。It is a figure explaining reconstruction of an image. フォーカスキーフレームでの動作を説明する図である。It is a figure explaining the operation | movement with a focus key frame. フォーカスキーフレーム以降のフレームでの動作を説明する図である。It is a figure explaining operation | movement with the frame after a focus key frame.

以下、本発明の一実施形態について、添付図面を参照して詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

図1(a)は本発明の撮像装置の一実施形態であるデジタルカメラおよび撮影レンズの中央断面図、図1(b)はこのデジタルカメラの電気的構成を示すブロック図である。図1(a)および図1(b)では、同一の符号が付してあるものはそれぞれ対応している。   FIG. 1A is a central cross-sectional view of a digital camera and a photographing lens as an embodiment of the imaging apparatus of the present invention, and FIG. 1B is a block diagram showing an electrical configuration of the digital camera. In FIG. 1A and FIG. 1B, the same reference numerals correspond to each other.

図1(a)において、1はカメラ本体、2はカメラ本体1に装着されるレンズユニット、3はレンズユニット2に内蔵された撮影光学系を形成するレンズ、4は撮影光学系の光軸、6は撮像素子である。また、9は背面表示装置、11はカメラ本体1とレンズユニット2の電気接点、12はレンズユニット2に設けられたレンズシステム制御部、14はクイックリターンミラー、16はカメラ本体1に設けられたファインダ表示部である。   In FIG. 1A, 1 is a camera body, 2 is a lens unit attached to the camera body 1, 3 is a lens forming a photographing optical system built in the lens unit 2, 4 is an optical axis of the photographing optical system, Reference numeral 6 denotes an image sensor. Further, 9 is a rear display device, 11 is an electrical contact between the camera body 1 and the lens unit 2, 12 is a lens system controller provided in the lens unit 2, 14 is a quick return mirror, and 16 is provided in the camera body 1. It is a finder display section.

図1(b)は撮像装置であるデジタルカメラおよびレンズの電気的構成を示すブロック図である。カメラ本体1およびレンズ2からなるカメラシステムは、撮像系、画像処理系、記録再生系、制御系を有する。撮像系は、撮影光学系3 、撮像素子6を含み、画像処理系は、画像処理部7を含む。また、記録再生系は、メモリ部8、背面表示装置9を含み、制御系は、カメラシステム制御回路5、操作検出部10、およびレンズシステム制御回路12、レンズ駆動部13を含む。レンズ駆動部13は、焦点レンズ、ブレ補正レンズ、絞りなどを駆動することができる。なお、本実施形態のカメラでは、一定の周期で撮像素子6の信号を取得することにより動画を生成する。   FIG. 1B is a block diagram illustrating an electrical configuration of a digital camera and a lens which are imaging devices. A camera system including the camera body 1 and the lens 2 has an imaging system, an image processing system, a recording / reproducing system, and a control system. The imaging system includes a photographing optical system 3 and an imaging element 6, and the image processing system includes an image processing unit 7. The recording / reproducing system includes a memory unit 8 and a rear display device 9, and the control system includes a camera system control circuit 5, an operation detection unit 10, a lens system control circuit 12, and a lens driving unit 13. The lens driving unit 13 can drive a focus lens, a shake correction lens, a diaphragm, and the like. In the camera of this embodiment, a moving image is generated by acquiring a signal from the image sensor 6 at a constant period.

撮像系は、物体からの光を、撮影光学系3を介して撮像素子6の撮像面に結像する光学処理系である。撮像素子6の表面(撮像素子上)にはマイクロレンズが格子状に配置されており、いわゆるマイクロレンズアレイ(以下 MLA)を形成している。MLAは本実施形態において、光線制御手段を構成する。MLAの機能や配置の詳細については図2を用いて後述する。後述するように、撮影素子6からピント評価量/適切な露光量が得られるので、この信号に基づいて撮影光学系3が調整されることで、適切な光量の物体光を撮像素子6に露光するとともに、撮像素子6の近傍で被写体像が結像される。   The imaging system is an optical processing system that forms an image of light from an object on the imaging surface of the imaging device 6 via the imaging optical system 3. Microlenses are arranged in a lattice pattern on the surface of the image sensor 6 (on the image sensor) to form a so-called microlens array (hereinafter referred to as MLA). In this embodiment, the MLA constitutes a light beam control means. Details of the functions and arrangement of the MLA will be described later with reference to FIG. As will be described later, since the focus evaluation amount / appropriate exposure amount can be obtained from the imaging element 6, the imaging optical system 3 is adjusted based on this signal, so that an appropriate amount of object light is exposed to the imaging element 6. At the same time, a subject image is formed in the vicinity of the image sensor 6.

画像処理部7は、内部にA/D変換器、ホワイトバランス回路、ガンマ補正回路、補間演算回路等を有しており、記録用の画像を生成することができる。また、本実施形態の要部である、現像手段、像シフト手段、像生成手段、コントラスト評価手段、相関計算手段等を含めることもできる。なお、本実施形態ではこれらの要素はカメラシステム制御回路5内に配置する場合を想定している。   The image processing unit 7 includes an A / D converter, a white balance circuit, a gamma correction circuit, an interpolation calculation circuit, and the like, and can generate a recording image. In addition, a developing unit, an image shift unit, an image generation unit, a contrast evaluation unit, a correlation calculation unit, and the like, which are main parts of the present embodiment, can be included. In the present embodiment, it is assumed that these elements are arranged in the camera system control circuit 5.

メモリ部8は実際の記憶部に加えて記録に必要な処理回路を備えている。メモリ部8は、記憶部へ出力を行うとともに、背面表示装置9に出力する像を生成し、保存する。また、メモリ部8は、予め定められた方法を用いて画像、動画、音声などの圧縮を行う。   The memory unit 8 includes a processing circuit necessary for recording in addition to an actual storage unit. The memory unit 8 outputs to the storage unit and generates and stores an image to be output to the rear display device 9. In addition, the memory unit 8 compresses images, moving images, sounds, and the like using a predetermined method.

カメラシステム制御回路5は撮像の際のタイミング信号などを生成して出力する。また、外部操作に応動して撮像系、画像処理系、記録再生系をそれぞれ制御する。例えば、不図示のシャッターレリーズボタンの押下を操作検出部10が検出して、撮像素子6の駆動、画像処理部7の動作、メモリ部8の圧縮処理などを制御する。さらに情報表示を行う背面表示装置9の各セグメントの状態を制御する。   The camera system control circuit 5 generates and outputs a timing signal at the time of imaging. In addition, the imaging system, the image processing system, and the recording / reproducing system are controlled in response to external operations. For example, the operation detection unit 10 detects that a shutter release button (not shown) is pressed, and controls driving of the image sensor 6, operation of the image processing unit 7, compression processing of the memory unit 8, and the like. Further, the state of each segment of the rear display device 9 that displays information is controlled.

制御系による光学系の調整動作について説明する。カメラシステム制御回路5には画像処理部7が接続されており、撮像素子6からの信号を元に焦点位置、絞り位置を求める。カメラシステム制御回路5は、電気接点11を介してレンズシステム制御回路12に指令を出し、レンズシステム制御回路12はレンズ駆動部13を制御する。さらにレンズシステム制御回路12には不図示の手ぶれ検出センサが接続されており、手ぶれ補正を行うモードにおいては、手ぶれ検出センサの信号を元にレンズ駆動部13を介してブレ補正レンズを制御する。   The adjustment operation of the optical system by the control system will be described. An image processing unit 7 is connected to the camera system control circuit 5, and a focal position and a diaphragm position are obtained based on a signal from the image sensor 6. The camera system control circuit 5 issues a command to the lens system control circuit 12 via the electrical contact 11, and the lens system control circuit 12 controls the lens driving unit 13. Further, a camera shake detection sensor (not shown) is connected to the lens system control circuit 12, and in a mode for performing camera shake correction, the camera shake correction lens is controlled via the lens driving unit 13 based on a signal from the camera shake detection sensor.

本実施形態の要部である撮像素子制御手段、コントラスト評価手段、現像面制御手段はカメラシステム制御回路5に備えられている。また、現像手段は画像処理部7に備えられている。さらにレンズ制御手段は、カメラシステム制御回路5、電気接点11、レンズシステム制御回路12およびレンズ駆動部13からなっている。   The camera system control circuit 5 includes image sensor control means, contrast evaluation means, and development surface control means, which are essential parts of the present embodiment. The developing means is provided in the image processing unit 7. Further, the lens control means includes a camera system control circuit 5, an electrical contact 11, a lens system control circuit 12, and a lens driving unit 13.

図2は、本実施形態における撮影光学系の要部を説明する図である。本実施形態を実施するためには、いわゆる光線空間情報等といわれる光線の位置に加えて角度の情報を取得する必要がある。本実施形態では、角度情報の取得のために撮影光学系3の結像面近傍にMLAを配置するとともに、MLAを構成する1つのレンズに対して複数の画素を対応させている。   FIG. 2 is a diagram for explaining a main part of the photographing optical system in the present embodiment. In order to implement this embodiment, it is necessary to acquire angle information in addition to the position of the light beam, which is so-called light space information. In the present embodiment, an MLA is arranged in the vicinity of the imaging plane of the photographing optical system 3 for obtaining angle information, and a plurality of pixels are associated with one lens constituting the MLA.

図2(a)は撮像素子6とMLA20の関係を模式的に示す図である。図2(b)は撮像素子の画素とMLAの対応を示す模式図である。図2(c)はMLAによってMLA下に設けられた画素が特定の瞳領域と対応づけられることを示す図である。   FIG. 2A is a diagram schematically illustrating the relationship between the image sensor 6 and the MLA 20. FIG. 2B is a schematic diagram showing the correspondence between the pixels of the image sensor and the MLA. FIG. 2C is a diagram showing that pixels provided under the MLA by the MLA are associated with a specific pupil region.

図2(a)に示すように撮像素子6上にはMLA20が設けられており、MLA20の前側主点は撮影光学系3の結像面近傍になるように配置されている。図2(a)は撮像装置の横からと、正面からMLAを見た状態を示しており、撮像装置正面から見るとMLAのレンズが撮像素子6上の画素を覆うように配置されている。なお、図2(a)ではMLAを構成する各マイクロレンズを見やすくするために、大きく記載したが、実際には各マイクロレンズは画素の数倍程度の大きさしかない。実際の大きさについては図2(b)を用いて説明する。   As shown in FIG. 2A, the MLA 20 is provided on the image sensor 6, and the front principal point of the MLA 20 is arranged in the vicinity of the imaging plane of the photographing optical system 3. FIG. 2A shows a state where the MLA is viewed from the side and from the front of the imaging device, and the lens of the MLA is disposed so as to cover the pixels on the imaging device 6 when viewed from the front of the imaging device. In FIG. 2A, the microlenses constituting the MLA are illustrated in large size so that the microlenses are easy to see, but each microlens is actually only about several times as large as a pixel. The actual size will be described with reference to FIG.

図2(b)は図2(a)の装置正面からの図を一部拡大した図である。図2(b)に示す格子状の枠は、撮像素子6の各画素を示している。一方MLAを構成する各マイクロレンズは太い円20a,20b,20c,20dで示されている。図2(b)から明らかなようにマイクロレンズ1つに対して複数の画素が割り当てられており、図2(b)の例では、5行×5列=25個の画素が1つのマイクロレンズに対して設けられている。すなわち、各マイクロレンズの大きさは画素の大きさの5倍×5倍の大きさである。   FIG. 2B is a partially enlarged view from the front of the apparatus of FIG. A grid-like frame shown in FIG. 2B indicates each pixel of the image sensor 6. On the other hand, each microlens constituting the MLA is indicated by thick circles 20a, 20b, 20c, and 20d. As apparent from FIG. 2B, a plurality of pixels are assigned to one microlens. In the example of FIG. 2B, 5 rows × 5 columns = 25 pixels are one microlens. Is provided against. That is, the size of each microlens is 5 × 5 times the size of the pixel.

図2(c)は撮像素子6を、マイクロレンズの光軸を含みセンサの長手方向が図の横方向になるように切断した図である。図2(c)の21,22,23,24,25は撮像素子6の画素(1つの光電変換部)を示している。一方図2(c)の上方に示した図は撮影光学系3の射出瞳面を示している。実際には、図2(c)の下方に示したセンサの図と方向を合わせると、射出瞳面は図2(c)の紙面垂直方向になるが、説明を分かりやすくするために投影方向を変化させている。また、図2(c)においては説明を分かりやすくするために、1次元の投影/信号処理について説明する。実際の装置においては、これを容易に2次元に拡張することができる。   FIG. 2C is a diagram in which the image pickup element 6 is cut so that the longitudinal direction of the sensor includes the optical axis of the microlens and the horizontal direction of the drawing. 2, 22, 23, 24, and 25 in FIG. 2C indicate pixels (one photoelectric conversion unit) of the image sensor 6. On the other hand, the figure shown above FIG. 2C shows the exit pupil plane of the photographing optical system 3. Actually, when the direction is aligned with the sensor diagram shown in the lower part of FIG. 2 (c), the exit pupil plane is in the direction perpendicular to the paper plane of FIG. 2 (c). It is changing. In FIG. 2C, one-dimensional projection / signal processing will be described for easy understanding. In an actual device, this can be easily extended to two dimensions.

図2(c)の画素21,22,23,24,25は図2(b)の21a,22a,23a,24a,25aとそれぞれ対応する位置関係にある。図2(c)に示すように、マイクロレンズ20によって各画素は撮影光学系3の射出瞳面上の特定の領域と共役になるように設計されている。図2(c)の例では画素21と領域31が、画素22と領域32が、画素23と領域33が、画素24と領域34が、画素25と領域35がそれぞれ対応している。すなわち画素21には撮影光学系3の射出瞳面上の領域31を通過した光束のみが入射する。他の画素も同様である。結果として、瞳面上での通過領域と撮像素子6上の位置関係から角度の情報を取得することが可能となる。   Pixels 21, 22, 23, 24, and 25 in FIG. 2C are in a positional relationship corresponding to 21a, 22a, 23a, 24a, and 25a in FIG. As shown in FIG. 2C, each pixel is designed to be conjugate with a specific area on the exit pupil plane of the photographing optical system 3 by the microlens 20. In the example of FIG. 2C, the pixel 21 and the region 31 correspond to the pixel 22 and the region 32, the pixel 23 and the region 33, the pixel 24 and the region 34, and the pixel 25 and the region 35, respectively. That is, only the light beam that has passed through the region 31 on the exit pupil plane of the photographing optical system 3 enters the pixel 21. The same applies to the other pixels. As a result, it is possible to obtain angle information from the passing area on the pupil plane and the positional relationship on the image sensor 6.

ここで後ほどの説明を簡単にするために記号を導入する。図2(c)に示すように、撮像素子6の画素ピッチをΔx、角度分解能をΔθとする。さらに角度の分割数をNθ(図3の例ではNθ=5)とする。画素ピッチは撮像素子6の形状によって決定され、Δθは光線の角度を取得する範囲と角度分割数Nθで決定される。すなわち、物理的な構造(撮像素子6およびMLA20の構造)のみによってこれらのパラメータは決定される。   Here, symbols are introduced to simplify the explanation later. As shown in FIG. 2C, it is assumed that the pixel pitch of the image sensor 6 is Δx and the angular resolution is Δθ. Further, the number of angle divisions is Nθ (Nθ = 5 in the example of FIG. 3). The pixel pitch is determined by the shape of the image sensor 6, and Δθ is determined by the range for obtaining the angle of the light beam and the angle division number Nθ. That is, these parameters are determined only by the physical structure (the structures of the image sensor 6 and the MLA 20).

本実施形態に示した撮影光学系を利用して、撮像素子6の信号からピント状態の良い記録画像を得るとともにレンズ駆動信号を得る処理について図3、図4、図5及び図6を用いて説明する。   Processing for obtaining a recorded image in good focus from a signal from the image sensor 6 and obtaining a lens drive signal using the imaging optical system shown in the present embodiment will be described with reference to FIGS. 3, 4, 5, and 6. explain.

図3は本実施形態の撮像装置の撮像動作を説明するためのフローチャートである。図3(a)は動画撮影全体の動作を、図3(b)はコントラストAF手段の動作を、図3(c)は現像手段の動作をそれぞれ示している。また、図3(d)は像シフト手段の動作を、図3(e)は像生成手段の動作を、図3(f)はコントラスト評価手段の動作を、図3(g)は現像面制御手段の動作をそれぞれ示している。   FIG. 3 is a flowchart for explaining the imaging operation of the imaging apparatus of the present embodiment. 3A shows the overall operation of moving image shooting, FIG. 3B shows the operation of the contrast AF unit, and FIG. 3C shows the operation of the developing unit. 3 (d) shows the operation of the image shift means, FIG. 3 (e) shows the operation of the image generation means, FIG. 3 (f) shows the operation of the contrast evaluation means, and FIG. 3 (g) shows the development surface control. The operation of each means is shown.

図3(a)を用いて動画撮影について説明する。ステップS1は動画撮影の開始と対応しており、図1(b)の操作検出部10によってユーザの操作を検知して動画撮影開始が指示された場合に該当する。   Moving image shooting will be described with reference to FIG. Step S1 corresponds to the start of moving image shooting, and corresponds to the case where the operation detection unit 10 in FIG.

ステップS2からステップS11はループを形成している。つまり、ユーザからの動画撮影終了の指示、または機器から動画撮影終了の指示(バッテリー残量が規定値以下、記録メディア残量が規定値以下、時間的な制限、発熱によるシャットダウン等が該当)があるまでいわゆる無限ループを形成する。   Steps S2 to S11 form a loop. In other words, a video recording end instruction from the user or a video recording end instruction from the device (the remaining battery level is less than the specified value, the remaining recording medium level is less than the specified value, time limit, shutdown due to heat generation, etc.) Until then, a so-called infinite loop is formed.

ステップS3は画像取得であり、設定された時間間隔(いわゆるフレームレート)で撮像素子6から画像信号の取得を行う(取得された画像をフレームと呼ぶ)。フレームレートは事前にユーザによって設定される。   Step S3 is image acquisition, and an image signal is acquired from the image sensor 6 at a set time interval (so-called frame rate) (the acquired image is referred to as a frame). The frame rate is set in advance by the user.

ステップS4はフォーカスキーフレームか否かを判断する。ここでのフォーカスキーフレームとはピント検知を行うフレームのことを指す。動画撮影を行うシステムにおいて、フォーカス検知は演算負荷が大きいため、適当なフレームごとに行うことが多い。例えば、30フレーム/秒で0.5秒刻みにピント検知を行うには15フレームごとにフォーカスキーフレームを設定すれば良い。この時のフォーカスキーフレーム頻度は被写体の移動速度などに依存して設定すれば良い。なお、一般的には高速に移動する被写体の場合は細かく検知して、低速の場合は粗く検知すれば良い。移動速度の上限をモード設定などから規定して、被写界深度との関係から設定する。ステップS4においてフォーカスキーフレームである場合にはステップS5に、フォーカスキーフレームでない場合にはステップS7に進む。   In step S4, it is determined whether it is a focus key frame. The focus key frame here refers to a frame for performing focus detection. In a system for taking moving images, focus detection is often performed at an appropriate frame because of a heavy calculation load. For example, a focus key frame may be set every 15 frames in order to detect the focus in steps of 0.5 seconds at 30 frames / second. The focus key frame frequency at this time may be set depending on the moving speed of the subject. In general, a subject moving at a high speed may be detected finely, and a low speed may be detected roughly. The upper limit of the moving speed is defined from the mode setting etc. and is set from the relationship with the depth of field. If it is a focus key frame in step S4, the process proceeds to step S5. If it is not a focus key frame, the process proceeds to step S7.

ステップS5ではコントラストAFルーチンを呼び出し、ピント状態の良い記録画像が得られる現像面の情報を得る。コントラストAFルーチンについては図3(b)を用いて後述する。   In step S5, the contrast AF routine is called to obtain information on the development surface from which a recorded image with good focus can be obtained. The contrast AF routine will be described later with reference to FIG.

ステップS6では現像面制御ルーチンを呼び出し、現在のフレームにおいてピント状態の良い記録画像が得られる現像面を決定する。現像面制御ルーチンについては図3(g)を用いて後述する。   In step S6, a development surface control routine is called to determine a development surface from which a recorded image with good focus can be obtained in the current frame. The developing surface control routine will be described later with reference to FIG.

ステップS7では前回のフォーカスキーフレームでのピント状態の良い記録画像が得られる現像面の情報およびレンズ制御手段の状態を元に、現在のフレームにおいてピント状態の良い記録画像が得られる現像面を決定する。ステップS8ではステップS6およびステップS7で決定した現像面で画像の生成を行う。   In step S7, a development surface on which a recorded image with good focus is obtained in the current frame is determined based on the information on the development surface on which a recorded image with good focus on the previous focus key frame is obtained and the state of the lens control means. To do. In step S8, an image is generated on the development surface determined in steps S6 and S7.

ステップS9ではレンズ制御ルーチンを動作させる。動画撮影においてはピント状態が急激に変化することは品位を損ねる。そのため微小なピントずれの場合はゆっくりとフォーカスレンズを駆動してピント調整を行うことが望ましい。ステップS9はこれを制御するブロックである。具体的には、ステップS5で得られたピント状態の良い記録信号が得られる現像面と、現在の撮像素子の存在する面との差を予め設定された速度で埋める動作を行う。動作の詳細は、図6を用いて後述する
ステップS10は画像のバッファ/圧縮/記録を行う。連続して得られたフレームを適当にバッファしながら予め定められた符号化方式によって圧縮し、メモリ部8へ記録する。
In step S9, the lens control routine is operated. In moving image shooting, a sharp change in the focus state deteriorates the quality. For this reason, it is desirable to adjust the focus by slowly driving the focus lens when there is a slight focus shift. Step S9 is a block for controlling this. Specifically, an operation of filling a difference between the development surface obtained in step S5 in which a recording signal with a good focus state is obtained and the surface on which the current image sensor is present at a preset speed is performed. Details of the operation will be described later with reference to FIG. 6. In step S10, buffering / compression / recording of an image is performed. The frames obtained in succession are compressed by a predetermined encoding method while being appropriately buffered, and recorded in the memory unit 8.

ステップS12は動画撮影の終了に対応している。図3(a)においては画像の取得終了と同時に圧縮/記録等も終了しているが、これは説明を分かりやすくするためであり、必要に応じて後処理(Exifの設定等)を施しても良い。   Step S12 corresponds to the end of moving image shooting. In FIG. 3A, the compression / recording and the like are finished at the same time as the image acquisition is finished, but this is for easy understanding, and post-processing (Exif setting etc.) is performed as necessary. Also good.

図3(b)を用いてコントラストAFルーチンについて説明する。ステップS13はコントラストAFルーチンの動作開始を示している。ステップS14からステップS17はループを形成しており、予め定められた評価位置に現像面を設定して画像の評価を行う。図5の例で、−2,−1,0,+1,+2というピント位置を設定していることと対応している。   The contrast AF routine will be described with reference to FIG. Step S13 shows the start of the contrast AF routine. Steps S14 to S17 form a loop, and the image is evaluated by setting the development surface at a predetermined evaluation position. In the example of FIG. 5, this corresponds to setting focus positions of −2, −1, 0, +1, and +2.

ステップS15は現像ルーチンを呼び出し、設定された現像面での像を生成する。ステップS16はコントラスト評価ルーチンを呼び出し、ステップS15で得られた像のコントラスト値からピント評価値を得る。コントラスト評価ルーチンの詳細については図3(f)を用いて後述する。   In step S15, a development routine is called to generate an image on the set development surface. In step S16, a contrast evaluation routine is called, and a focus evaluation value is obtained from the contrast value of the image obtained in step S15. Details of the contrast evaluation routine will be described later with reference to FIG.

ステップS18では各現像面のピント評価値からピント評価値が最良となる現像面(コントラストが最大となる現像面)を選択してピント状態の良い記録画像が得られる現像面として出力する。ステップS19で呼び出し元のステップS5に戻る。   In step S18, the development surface with the best focus evaluation value (development surface with the highest contrast) is selected from the focus evaluation values of the development surfaces, and the developed surface is output as a development surface from which a recorded image with good focus can be obtained. In step S19, the process returns to the caller step S5.

図3(c)を用いて現像ルーチンについて説明する。ステップS26は現像ルーチンの動作開始を示している。   The developing routine will be described with reference to FIG. Step S26 indicates the start of the development routine.

ステップS27では像シフトルーチンを呼び出し、取得した像を通過した瞳情報(入射角度の情報)をもとに、現像面に適した量シフトさせる。なお、呼び出し元ステップS8ではステップS6およびステップS7で設定された面、呼び出し元ステップS15ではステップS14からステップS17のループで設定されるピント評価面に像を生成する必要があるのでその面、を現像面と称している。像シフトルーチンの詳細については図3(d)を用いて後述する。   In step S27, an image shift routine is called, and an amount suitable for the development surface is shifted based on pupil information (incident angle information) that has passed through the acquired image. In the caller step S8, the surface set in steps S6 and S7, and in the caller step S15, it is necessary to generate an image on the focus evaluation surface set in the loop from step S14 to step S17. This is called the development surface. Details of the image shift routine will be described later with reference to FIG.

ステップS28では像生成ルーチンを呼び出し、ステップS27でシフトさせた像を重ね合わせる(画素信号を加算する)ことで現像面での像を得る。これによりいわゆる現像がなされる。像生成ルーチンの詳細については図3(e)を用いて後述する。ステップS29において、呼び出し元のステップS8またはステップS15に戻る。   In step S28, an image generation routine is called and the image shifted in step S27 is superimposed (added pixel signals) to obtain an image on the development surface. Thereby, so-called development is performed. Details of the image generation routine will be described later with reference to FIG. In step S29, the process returns to step S8 or step S15 of the caller.

本実施形態においては、像のシフトと加算によって現像を行う方法を例示したが、光線情報を利用して、像を取得した面とは異なる面で像を生成する方法であればどのような方法でも現像ルーチンとして利用することが出来る。   In this embodiment, the method of performing development by image shift and addition has been exemplified, but any method can be used as long as it uses a ray information to generate an image on a surface different from the surface from which the image was acquired. But it can be used as a development routine.

図3(d)を用いて像シフトルーチンについて説明する。ステップS31は像シフトルーチンの動作開始を示している。ステップS32からステップS35はループを形成している。ステップS32では瞳分割数に応じた数だけループ計算が実行される。例えば、図2に示した例では、5x5=25個に分割されていたので、25個のそれぞれの瞳位置に応じた計算がなされる。図5を用いて後述するように、像の再構成を考えると同じ再構成面であっても入射角度が異なると像をシフトさせる量が異なる。これを反映させるためのループである。   The image shift routine will be described with reference to FIG. Step S31 indicates the start of the operation of the image shift routine. Steps S32 to S35 form a loop. In step S32, the loop calculation is executed by the number corresponding to the number of pupil divisions. For example, in the example shown in FIG. 2, since it is divided into 5 × 5 = 25, calculation according to each of the 25 pupil positions is performed. As will be described later with reference to FIG. 5, when image reconstruction is considered, even if the reconstruction plane is the same, the amount of image shift is different when the incident angle is different. This is a loop for reflecting this.

ステップS33では各画素とそれに対応する瞳領域の情報をもとに、評価を行っている現像面での各瞳領域での像シフト量を計算する。図2を用いて説明した様に、瞳分割手段として動作するマイクロレンズアレイ20と画素の対応は固定的であり撮影状態によって変化することは無い。この撮像素子6上の各画素とMLAとの対応関係が記憶されており、各画素がどの瞳領域の光線を受光しているかが分かっているのでこれを活用している。   In step S33, the image shift amount in each pupil region on the developing surface being evaluated is calculated based on the information on each pixel and the corresponding pupil region. As described with reference to FIG. 2, the correspondence between the microlens array 20 operating as pupil dividing means and the pixels is fixed and does not change depending on the photographing state. The correspondence between each pixel on the image pickup device 6 and the MLA is stored, and it is known which pupil region receives the light beam of each pixel.

ステップS34では同じ瞳領域を通過した光束(同じ入射角の光束)を受光した画素の信号をシフトさせる。同じ入射角の光線を得ている画素は例えば図2(b)の25aと25bが該当する。このような画素がMLAを構成するマイクロレンズの数だけ存在している。像シフトルーチンについては、後に図4を用いて図解も行う。ステップS36において、呼び出し元のステップS27に戻る。   In step S34, the signal of the pixel that has received the light beam that has passed through the same pupil region (the light beam having the same incident angle) is shifted. For example, pixels 25a and 25b in FIG. 2B correspond to pixels that obtain light rays having the same incident angle. There are as many such pixels as the number of microlenses constituting the MLA. The image shift routine is also illustrated later using FIG. In step S36, the process returns to the caller step S27.

図3(e)を用いて像生成ルーチンの動作の詳細を説明する。ステップS41は像生成ルーチンの動作開始を示している。   Details of the operation of the image generation routine will be described with reference to FIG. Step S41 indicates the start of the operation of the image generation routine.

ステップS42では、ステップS45での加算のための領域のデータを初期化(0で埋める)する。この時のデータ領域の大きさはMLAの数分あれば良く、データの階調は元のデータの階調と瞳分割数の積を格納できるだけあれば都合がよい。例えば元のデータが8bitで25分割の場合、13bit(>8bit+log225)あればデータの桁あふれを考慮する必要が無い。 In step S42, the area data for addition in step S45 is initialized (filled with 0). The size of the data area at this time may be as many as the number of MLA, and it is convenient if the data gradation can store the product of the original data gradation and the number of pupil divisions. For example, if the original data is 8 bits and divided into 25, if 13 bits (> 8 bits + log 2 25), it is not necessary to consider overflow of data.

ステップS43からステップS47はループを形成している。ステップS43ではMLAを構成するマイクロレンズの数に応じてループ計算が実行される。例えば、図4に示した例では、元の撮像素子の画素数÷25(瞳分割数)がマイクロレンズの数となる。   Steps S43 to S47 form a loop. In step S43, loop calculation is executed according to the number of microlenses constituting the MLA. For example, in the example illustrated in FIG. 4, the number of microlens is the number of pixels of the original image sensor ÷ 25 (number of pupil divisions).

ステップS44からステップS46はループを形成している。ステップS44では、瞳分割数に応じた数だけループ計算が実行される。例えば、図4に示した例では、5x5=25個に分割されていたので、25個のそれぞれの瞳位置からの光束がステップS45で加算される。シフト量が画素の整数倍でない場合は、加算ステップS45において、内分されながら加算される。重なっている面積に応じて加算すればよい。像生成ルーチンについては、後に図4を用いて図解も行う。ステップS48において、呼び出し元のステップS28に戻る。   Steps S44 to S46 form a loop. In step S44, loop calculation is executed by the number corresponding to the number of pupil divisions. For example, in the example shown in FIG. 4, since it is divided into 5 × 5 = 25, the luminous fluxes from the 25 pupil positions are added in step S45. If the shift amount is not an integer multiple of the pixel, the addition is performed while being divided internally in addition step S45. What is necessary is just to add according to the overlapping area. The image generation routine is also illustrated later using FIG. In step S48, the process returns to the caller step S28.

図3(f)を用いてコントラスト評価ルーチンの動作の詳細を説明する。ステップS51はコントラスト評価ルーチンの動作開始を示している。   Details of the operation of the contrast evaluation routine will be described with reference to FIG. Step S51 indicates the start of the contrast evaluation routine.

ステップS52では、コントラスト評価を行う評価枠の大きさを設定する。評価枠の大きさの設定は、小さすぎると被写体の局所的な特徴のみを評価することになり評価値が不安定になる場合があり、大きすぎると狙った被写体にピントを合わせにくくなる。撮影光学系の焦点距離などに応じて設定すれば良い。   In step S52, the size of an evaluation frame for performing contrast evaluation is set. If the size of the evaluation frame is too small, only the local characteristics of the subject are evaluated, and the evaluation value may become unstable. If it is too large, it is difficult to focus on the target subject. What is necessary is just to set according to the focal distance of an imaging optical system.

ステップS53からステップS57はループを形成している。このループは評価枠の大きさに対応したループになっており、本実施形態ではコントラスト評価は1方向で行いその他の方向は加算される。   Steps S53 to S57 form a loop. This loop is a loop corresponding to the size of the evaluation frame. In this embodiment, contrast evaluation is performed in one direction, and the other directions are added.

ステップS54は帯域通過フィルタ(BPF)であり、コントラスト評価を行うのに適した周波数帯の信号を選択的に取り出す。ここでいう周波数とはいわゆる空間周波数に対応しており、被写体像の明暗信号の細かさに対応している。これは、時間方向の一般的な周波数とは異なるものである。   Step S54 is a band pass filter (BPF), which selectively extracts signals in a frequency band suitable for performing contrast evaluation. The frequency here corresponds to a so-called spatial frequency, and corresponds to the fineness of the brightness signal of the subject image. This is different from the general frequency in the time direction.

ステップS55はステップS54の出力に対してピークホールドを行う。ステップS56ではステップS55の出力を積分する。ステップS54からステップS56の演算によって被写体像に含まれる特定の周波数帯の信号の大まかなコントラスト値(良い近似値)を簡易な計算で得ることが可能となる。ステップS58で積分値をコントラストの評価値として設定する。ステップS59で呼び出し元のステップS16に戻る。   In step S55, peak hold is performed on the output of step S54. In step S56, the output of step S55 is integrated. By calculating from step S54 to step S56, it is possible to obtain a rough contrast value (good approximate value) of a signal in a specific frequency band included in the subject image by a simple calculation. In step S58, the integral value is set as the contrast evaluation value. In step S59, the process returns to the caller step S16.

図3(f)を用いて現像面制御ルーチンについて説明する。ステップS61は現像面制御ルーチンの動作開始を示している。   The developing surface control routine will be described with reference to FIG. Step S61 indicates the start of the development surface control routine.

ステップS62は以下に示す式(1)を計算する。   In step S62, the following equation (1) is calculated.

z=z0+f(zAF−zL) …(1)
ただし、fは現像ルーチンでの現像面への写像を表す演算子であり、z0は撮影光学系3の空中結像面に対応する現像面である。zAFはフォーカスキーフレームで得られた空中結像面に対応する現像面からピント状態の良い記録画像が得られる現像面への距離であり、zLはフォーカスキーフレームからのピント調整量である。
z = z0 + f (zAF-zL) (1)
Here, f is an operator representing mapping onto the developing surface in the developing routine, and z0 is a developing surface corresponding to the aerial imaging surface of the photographing optical system 3. zAF is the distance from the development surface corresponding to the aerial imaging surface obtained with the focus key frame to the development surface where a recorded image with good focus is obtained, and zL is the focus adjustment amount from the focus key frame.

詳細は図6を用いて後述するが、式(1)によりピント状態の良い記録画像が得られる現像面を選択することが可能となる。またfは現像ルーチンでの現像面への写像であるが、現像ルーチンが連続した現像面で現像可能な場合はそのままの値を返し、不連続な現像面で現像可能な場合は最も近い現像面の値を返すような写像である。本実施形態では説明を分かりやすくするために不連続な現像面で現像を行うように図4、図5および図6を記載しているが、その他の面で現像可能としても本実施形態の要部に影響は無い。ステップS63は現像面としてステップS62で求めたzを設定する。ステップS64で呼び出し元のステップS6またはステップS7に戻る。   Although details will be described later with reference to FIG. 6, it is possible to select a development surface on which a recorded image with a good focus state can be obtained by Expression (1). Further, f is a mapping to the development surface in the development routine, but if the development routine can be developed on a continuous development surface, the value is returned as it is, and if development is possible on a discontinuous development surface, the closest development surface is returned. A mapping that returns the value of. In this embodiment, in order to make the explanation easy to understand, FIGS. 4, 5 and 6 are described so that development is performed on a discontinuous development surface. However, the present embodiment is not limited even if development is possible on other surfaces. There is no effect on the part. In step S63, z obtained in step S62 is set as the development surface. In step S64, the process returns to the caller step S6 or step S7.

次に図4を用いて像シフトおよび像生成を模式的に示し、像の再構成によるコントラスト計算の有用性について述べる。図4は上から(a)、(b)、(c)と並んでいる。そして、図4(b)は撮像素子6が存在して画像を取得した面を、図4(a)は図4(b)よりも物体側の再構成面(再構成面1とする)を、図4(c)は図4(b)よりも物体から遠い側の再構成面(再構成面2とする)をそれぞれ示している。   Next, image shift and image generation are schematically shown in FIG. 4, and the usefulness of contrast calculation by image reconstruction will be described. FIG. 4 is aligned with (a), (b), and (c) from above. 4B shows a surface on which the image sensor 6 is present and an image is acquired, and FIG. 4A shows a reconstruction surface (reconstruction surface 1) closer to the object than FIG. 4B. 4C shows a reconstruction surface (referred to as reconstruction surface 2) on the side farther from the object than FIG. 4B.

図4(b)において、X1,i、X2,i、X3,i、X4,i、X5,i、はそれぞれ瞳領域1、2、3、4、5を通過してマイクロレンズXiに入射して得られたデータを示している。すなわち、添え字のうち前半は通過する瞳領域を、後半は画素の番号を示している。また、図4においても説明を簡単にするためにデータを1次元的な広がりしかもたないものとして記述している。物理的な位置との関係においては、X1,iは図2(c)の領域21から得られるデータを、X2,iは図2(c)の領域22から得られるデータを、以下添え字の3、4、5は領域23、24、25に対応していることを示している。   In FIG. 4B, X1, i, X2, i, X3, i, X4, i, X5, i pass through pupil regions 1, 2, 3, 4, 5 and enter the microlens Xi. The obtained data is shown. That is, of the subscripts, the first half indicates the passing pupil region, and the second half indicates the pixel number. Also, in FIG. 4, data is described as having only a one-dimensional spread for the sake of simplicity. In relation to the physical position, X1, i represents the data obtained from the area 21 in FIG. 2C, X2, i represents the data obtained from the area 22 in FIG. 3, 4, and 5 indicate that they correspond to the regions 23, 24, and 25, respectively.

取得面での画像を生成するためには、図4(b)にあるように、マイクロレンズXiに入射したデータを加算すればよい。具体的には、Si=X1,I +X2,i+X3,i+X4,i+X5,iでXiに入射した光の角度方向の積分値を得ることができる。これにより通常のカメラと同様の像が生成される。   In order to generate an image on the acquisition surface, data incident on the microlens Xi may be added as shown in FIG. Specifically, the integrated value in the angular direction of the light incident on Xi can be obtained with Si = X1, I + X2, i + X3, i + X4, i + X5, i. As a result, an image similar to that of a normal camera is generated.

次に再構成面1での像の生成方法を考える。図2で説明したように、本実施形態の撮影光学系は、各画素に入射する光束を特定の瞳領域に限定しているために、入射角度が既知である。この角度に沿って再構成面での各画素の位置を再構成する。具体的にはX1,iのように瞳領域の添え字が1のものは図4右側において41に示すような角度で入射しているとする。以下瞳領域の添え字2,3,4,5はそれぞれ42,43,44,45に対応しているとする。この時再構成面1でのマイクロレンズXiに入射した光束は、取得面においては、Xi-2からXi+2に分散して入射していることになる。より具体的には、X1,i-2、X2,i-1、X3,i、X4,i+1、X5,i+2に分散している。Xiに限らず再構成面1での像を復元するためには、入射角度に応じて像をシフトさせて加算すれば良いことが分かる。再構成面1での像を生成するためには、瞳領域の添え字が1のものは右に2画素シフト、瞳領域の添え字が2のものは右に1画素シフト、瞳領域の添え字が3のものはシフトなし、瞳領域の添え字が4のものは左に1画素シフト、瞳領域の添え字が5のものは左に2画素シフトすることで入射角度に応じたシフトを与えることができる。   Next, a method for generating an image on the reconstruction plane 1 will be considered. As described with reference to FIG. 2, the imaging optical system of the present embodiment limits the luminous flux incident on each pixel to a specific pupil region, and thus the incident angle is known. The position of each pixel on the reconstruction plane is reconstructed along this angle. Specifically, it is assumed that a pupil region with a subscript of 1 such as X1, i is incident at an angle as shown at 41 on the right side of FIG. Hereinafter, it is assumed that the subscripts 2, 3, 4, and 5 of the pupil region correspond to 42, 43, 44, and 45, respectively. At this time, the light beam incident on the microlens Xi on the reconstruction surface 1 is scattered and incident on the acquisition surface from Xi-2 to Xi + 2. More specifically, it is distributed in X1, i-2, X2, i-1, X3, i, X4, i + 1, X5, i + 2. In order to restore the image on the reconstruction plane 1 as well as Xi, it is understood that the image may be shifted and added according to the incident angle. In order to generate an image on the reconstruction plane 1, a pupil region with a subscript of 1 shifts 2 pixels to the right, a pupil region with a subscript of 2 shifts to the right with a 1 pixel shift, and a pupil region has a subscript. Shifting according to the incident angle by shifting 3 characters without shift, shifting pupil pixels with 4 subscripts by 1 pixel to the left, and shifting pupil regions with 5 subscripts by 2 pixels to the left Can be given.

その後図4(a)の縦方向に加算することで再構成面1でのデータを得ることができる。具体的には、Si=X1,i-2+X2,i-1+X3,i+X4,i+1+X5,i+2で再構成面1において、Xiに入射した光の角度方向の積分値を得ることができる。これにより再構成面での画像が得られた。   Thereafter, the data in the reconstruction plane 1 can be obtained by adding in the vertical direction of FIG. Specifically, the integrated value in the angular direction of the light incident on Xi can be obtained on the reconstruction plane 1 with Si = X1, i-2 + X2, i-1 + X3, i + X4, i + 1 + X5, i + 2. As a result, an image on the reconstruction surface was obtained.

ここで、再構成面1において、Xiに輝点があったとすると、取得面においてはX1,i-2、X2,i-1、X3,i、X4,i+1、X5,i+2に分散していわゆるボケ状態にある。しかしながら、上述した再構成面1での像を生成すると、再びXiに輝点が生成されコントラストの高い像が得られる。すなわち像を再構成してコントラストを計算することで、いわゆるコントラストAFを行うことが可能となる。   Here, if Xi has a bright spot on the reconstruction plane 1, X1, i-2, X2, i-1, X3, i, X4, i + 1, X5, i + 2 on the acquisition plane. It is dispersed and in a so-called blurred state. However, when the image on the reconstruction plane 1 described above is generated, a bright spot is generated again in Xi, and an image with high contrast is obtained. That is, so-called contrast AF can be performed by reconstructing the image and calculating the contrast.

また、図4(c)から分かるように、再構成面2においても再構成面1と全く同様に像を生成することができる。再構成面を配置する方向が異なると(物体に対して反対側という意味)シフトさせる方向を反転させれば良いだけである。   Further, as can be seen from FIG. 4C, an image can be generated on the reconstruction plane 2 in the same manner as the reconstruction plane 1. If the direction in which the reconstruction plane is arranged is different (meaning opposite to the object), it is only necessary to reverse the direction of shifting.

図3および図4を用いて説明した様に、画像を1度しか読みださずに、像を再構成してコントラスト評価を行うことでピント状態の良い記録画像が得られる現像面を得ることは可能である。   As described with reference to FIG. 3 and FIG. 4, a development surface is obtained in which a recorded image with good focus can be obtained by reconstructing the image and performing contrast evaluation without reading the image only once. Is possible.

図5を用いてフォーカスキーフレームでの動作を説明する。図5の上段は横軸に時間をとって時間的に連続するフレーム51,52,53,54,55のうち53がフォーカスキーフレームであることを示している。ここでフォーカスキーフレームとは図3で説明した様にピント検知を行うフレームのことを指す。   The operation in the focus key frame will be described with reference to FIG. The upper part of FIG. 5 indicates that 53 of the temporally continuous frames 51, 52, 53, 54, and 55 are taken as the focus key frames with the horizontal axis taken as time. Here, the focus key frame refers to a frame for performing focus detection as described in FIG.

図5の中央において、53a,53b,53c,53d,53eはそれぞれフォーカスキーフレーム53から再構成された像を示している。フォーカスキーフレーム53を抜き出して(フレーム53は、図3(a)のステップS4でYesの判断をしてステップS5に進むという意味)、現像面を変化させて現像して複数の像を生成する動作を示している。これは図3(b)に示したループS14からS17において現像面を変化させてステップS15によって現像された像を得る動作と対応している。   In the center of FIG. 5, 53a, 53b, 53c, 53d, and 53e indicate images reconstructed from the focus key frame 53, respectively. The focus key frame 53 is extracted (the frame 53 means Yes in step S4 of FIG. 3A and proceeds to step S5), and development is performed by changing the development surface to generate a plurality of images. The operation is shown. This corresponds to the operation of obtaining the image developed in step S15 by changing the development surface in loops S14 to S17 shown in FIG.

図5の下段は横軸に現像面(ピント位置、図4に示したように再構成の現像面を変えることとピント位置を変えることは等価)、縦軸にコントラスト評価値をとったグラフであり、図3(b)に示したステップS16で得られる評価値をグラフ化している。図5の下段において63a,63b,63c,63d,63eはそれぞれ再構成像53a,53b,53c,53d,53eのコントラスト評価値を、64はコントラスト評価値を結ぶ近似曲線を、65は近似曲線64の極値(ピーク)をそれぞれ示している。また図5の中央から図5の下段に向けて伸びた破線は同じ現像面での画像と評価値の対応であることを示す線である。   The lower part of FIG. 5 is a graph in which the horizontal axis represents the development surface (focus position, changing the reconstructed development surface as shown in FIG. 4 is equivalent to changing the focus position), and the vertical axis represents the contrast evaluation value. Yes, the evaluation values obtained in step S16 shown in FIG. 5, 63a, 63b, 63c, 63d, and 63e are the contrast evaluation values of the reconstructed images 53a, 53b, 53c, 53d, and 53e, 64 is an approximate curve that connects the contrast evaluation values, and 65 is an approximate curve 64. Each extreme value (peak) is shown. A broken line extending from the center of FIG. 5 toward the lower stage of FIG. 5 is a line indicating that the image on the same development surface corresponds to the evaluation value.

図5の例ではピント状態を5つ変化させてコントラスト評価値を得る例を示している。5つという数は例示であって複数で有ればいくつでも良い。ただし、コントラストに基づくピント検知のため一般的には3つ以上の点で計算を行う。またピント状態は−2,−1,0,+1,+2というように示したが(それぞれ再構成像53a,53b,53c,53d,53eに対応)、これはピント状態(現像面)が異なることを示す指標であって物理的な意味をもつものではない。つまり現像面に対応するシフト量を示しているものではなく、図3(b)のループS14からS17のループカウンタに対応するものである。ただし、この数字の順にピント状態が異なっていることを示している。図4の例で説明すると再構成面1、取得面、再構成面2の順に例えば−1,0,+1に対応させる。0という値は、現在の撮影光学系のピント位置(撮影光学系の設計上の空中結像面を現像面にする位置)に設定されている。   The example of FIG. 5 shows an example in which the contrast evaluation value is obtained by changing five focus states. The number of 5 is an example, and any number may be used as long as it is plural. However, calculation is generally performed at three or more points for focus detection based on contrast. The focus state is shown as -2, -1, 0, +1, +2 (corresponding to the reconstructed images 53a, 53b, 53c, 53d, and 53e, respectively), but this is different in focus state (development surface). It is an indicator that indicates that it has no physical meaning. That is, it does not indicate the shift amount corresponding to the development surface, but corresponds to the loop counter of loops S14 to S17 in FIG. However, this indicates that the focus states are different in the order of the numbers. In the example of FIG. 4, the reconstruction plane 1, the acquisition plane, and the reconstruction plane 2 are made to correspond to, for example, −1, 0, and +1 in this order. A value of 0 is set to the current focus position of the photographic optical system (position where the aerial imaging surface in the design of the photographic optical system is set as the development surface).

図5の例ではピント:0の位置よりもピント:+1に近い位置にコントラストが最大となる位置がある場合を想定して図示した。これは例えば被写体がカメラに向かって近づく(または遠ざかる)場合に対応しており、フォーカスキーフレーム取得の瞬間においては若干ピント位置がずれていることを示している。このとき図3(b)のコントラストAFルーチンはピント評価値が最良となる現像面として図5の65の位置を出力する。これが式(1)のzAFとなる。またこのフレームでピント評価値が最良となる現像面を計算し直したので式(1)のzLをリセットして0に戻す。   In the example of FIG. 5, it is assumed that there is a position where the contrast is maximum at a position closer to the focus: +1 than the position of the focus: 0. This corresponds to, for example, a case where the subject approaches (or moves away) toward the camera, and indicates that the focus position is slightly shifted at the moment of acquiring the focus key frame. At this time, the contrast AF routine in FIG. 3B outputs the position 65 in FIG. 5 as the developing surface having the best focus evaluation value. This is the zAF in equation (1). Further, since the development surface having the best focus evaluation value in this frame is recalculated, zL in the equation (1) is reset to zero.

その結果、図3(a)のステップS6(フォーカスキーフレームでのピント検知直後の現像面制御ルーチン)においては、zAFはステップS5で得られた値、zL=0、として処理され結果として図5の65の位置を現像面として指定する。   As a result, in step S6 (development surface control routine immediately after focus detection in the focus key frame) in FIG. 3A, zAF is processed as the value obtained in step S5, zL = 0, and as a result, FIG. 65 is designated as the development surface.

次に図6を用いてフォーカスキーフレーム以降、次のフォーカスキーフレームまでの動作を説明する。図6の上段は図5と同様で横軸に時間をとって時間的に連続するフレーム52,53,54,55,56,57,58のうち53がフォーカスキーフレームであることを示している。図6の下段は縦方向に現像面(ピント位置)、横方向にフォーカスキーフレーム位置においてはコントラスト評価値、その他の位置においては時間をとって示した。   Next, the operation from the focus key frame to the next focus key frame will be described with reference to FIG. The upper part of FIG. 6 is the same as FIG. 5 and shows that 53 of the frames 52, 53, 54, 55, 56, 57, 58 that are temporally continuous with time on the horizontal axis are focus key frames. . The lower part of FIG. 6 shows the development surface (focus position) in the vertical direction, the contrast evaluation value at the focus key frame position in the horizontal direction, and the time at other positions.

図5と図6で同じ番号を付した物はそれぞれ対応しており、フォーカスキーフレーム53においてピント評価値が最良となる現像面は、63c,63dの間にあり65で示されている。また81はフォーカスキーフレーム53におけるピントのずれ量を、82,83,84,85,86はそれぞれフォーカスキーフレーム53からフレーム54,55,56,57,58までのピント調整量である。また、82aはフレーム54におけるピント調整の残り量である。   5 and FIG. 6 correspond to each other, and the development surface having the best focus evaluation value in the focus key frame 53 is indicated by 65 between 63c and 63d. Reference numeral 81 denotes a focus shift amount in the focus key frame 53, and 82, 83, 84, 85, and 86 denote focus adjustment amounts from the focus key frame 53 to the frames 54, 55, 56, 57, and 58, respectively. 82a is the remaining amount of focus adjustment in the frame 54.

また図6においてフレーム53,54,55,56,57,58から縦に伸ばした破線は同じ時間であることを示す線である。さらにピント−2,−1,0,+1,+2の下から右方向に延びる実線は現像面の位置を示す。フォーカスキーフレーム53以降フレーム58まで実線が傾斜しているのは、後述するようにレンズ制御ルーチンによってピント調整が行われ、画像処理での現像面位置が変化していることを示している。   In FIG. 6, the broken lines extending vertically from the frames 53, 54, 55, 56, 57, and 58 are lines indicating the same time. Further, the solid line extending from the bottom of the focus-2, -1, 0, +1, +2 to the right indicates the position of the developing surface. The fact that the solid line inclines from the focus key frame 53 to the frame 58 indicates that the focus adjustment is performed by the lens control routine as will be described later, and the position of the developing surface in the image processing has changed.

この時レンズ制御ルーチンは、いわゆるピントがずれた状態にあるのでこれを補正する方向に動作する。ただし、前述した様に動画においてはゆっくりとフォーカスレンズを駆動してピント調整を行うことが望まれるのでピントのずれ81を直ちに修正するのではなく時間を掛けて(数フレーム以上にまたがって)修正する。この様子を図6は模式的に示している。   At this time, the lens control routine operates in a direction to correct the so-called out-of-focus state. However, as described above, since it is desired to adjust the focus slowly by driving the focus lens, as described above, the focus shift 81 is not corrected immediately, but it is corrected over time (over several frames). To do. FIG. 6 schematically shows this state.

フォーカスキーフレーム53でピントのずれ81が検知されるので、レンズ制御ルーチンはレンズを動かすべき方向と量を直ちに判断できる。これをレンズ駆動部13を利用して予め定められた速度以下にピント調整速度を調整しながら、ピントのずれが少なくなるようにピント調整を行う。また明らかに、ピント状態の良い記録画像を得るための計算(65の位置を得る計算)を行うことで、レンズ駆動するための信号を得ることが出来る。   Since the focus shift 81 is detected by the focus key frame 53, the lens control routine can immediately determine the direction and amount to move the lens. The lens driver 13 is used to adjust the focus adjustment speed below a predetermined speed, and the focus adjustment is performed so that the focus shift is reduced. Obviously, a signal for driving the lens can be obtained by performing calculation for obtaining a recorded image in good focus (calculation for obtaining position 65).

図6の例ではフォーカスキーフレーム53からフレーム54までに移動した量を82で、フォーカスキーフレーム53からフレーム55までに移動した量を83で、以下同様にフォーカスキーフレーム53からフレーム58までに移動した量を86で図示した。すなわちピント調整量82,83,84,85,86は式(1)のzLに対応している。なお、当然ではあるがzLはフレームごとに変化する値である。また、図6の例では86と81は同じ量でありフレーム58でピント調整が完了したことを示している。レンズ制御ルーチンは、図6の例のようにピント調整を行い、調整が完了すると撮影光学系3の調整を停止させる。   In the example of FIG. 6, the amount of movement from the focus key frame 53 to the frame 54 is 82, the amount of movement from the focus key frame 53 to the frame 55 is 83, and so on. The amount measured is shown at 86. That is, the focus adjustment amounts 82, 83, 84, 85, 86 correspond to zL in the equation (1). Of course, zL is a value that changes from frame to frame. In the example of FIG. 6, 86 and 81 are the same amount, indicating that the focus adjustment is completed at the frame 58. The lens control routine performs the focus adjustment as in the example of FIG. 6 and stops the adjustment of the photographing optical system 3 when the adjustment is completed.

フレーム54を例にとって説明する。このフレームまでに82に対応するピント調整が完了している。この時式(1)を考えると、(zAF−zL)によって図6のピント調整残り量82aが計算される。すなわち、フォーカスキーフレーム53から光学系によってのピント調整が82に対応する分進んだので、画像の再構成によるピント調整は、ピント調整残り量82aに対応するように行えばよいことを示している。   A description will be given using the frame 54 as an example. By this frame, the focus adjustment corresponding to 82 has been completed. Considering the equation (1) at this time, the focus adjustment remaining amount 82a in FIG. 6 is calculated by (zAF−zL). That is, since the focus adjustment by the optical system has advanced by the amount corresponding to 82 from the focus key frame 53, it is indicated that the focus adjustment by image reconstruction may be performed so as to correspond to the remaining focus adjustment amount 82a. .

以下のフレームにおいても同様の計算を繰り返す。フレーム58以降においては(zAF−zL)=0となり、撮影光学系3の空中結像面を現像面として像の再構成を行えばよい。   Similar calculations are repeated in the following frames. After the frame 58, (zAF−zL) = 0, and the image reconstruction may be performed using the aerial imaging surface of the photographing optical system 3 as a developing surface.

本実施形態によると、動画撮影中にピント状態の良い記録画像を得るとともにレンズ駆動信号を得ることを可能にした撮像装置を提供することが可能となる。   According to the present embodiment, it is possible to provide an imaging apparatus that can obtain a recorded image with a good focus state during movie shooting and obtain a lens driving signal.

なお、本発明の要部は、像の再構成によってピント調整可能な撮像装置に適用可能であり、多眼カメラなどの他の形態で視差像を得る(光線空間情報を得る)場合においても本発明を適用することが出来る。   Note that the main part of the present invention can be applied to an imaging apparatus that can adjust the focus by reconstructing an image, and can be used even when a parallax image is obtained in another form such as a multi-camera (light space information is obtained). The invention can be applied.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

Claims (5)

光線空間情報を含む信号を得る撮像素子と、
一定の周期で前記撮像素子から信号を出力させる撮像素子制御手段と、
記撮像素子から得られた信号に対して現像面を設定し、前記現像面に対応する前記信号同士の加算を行うことにより前記現像面での像信号を生成する現像手段と、
前記現像手段から得られた複数の現像面における信号を用いて、ピント状態が最良の現像面を算出する算出手段と、
前記算出手段による算出結果に基づいて、予め設定されている駆動速度以下の速度で、かつピント状態が良くなる方向に撮影レンズを制御するレンズ制御手段と、
前記算出手段による算出結果に基づいて、ピント状態が最良の現像面を記録画像現像面として決定する決定手段と、
を備えることを特徴とする撮像装置。
An image sensor for obtaining a signal including light space information ;
Image sensor control means for outputting a signal from the image sensor at a constant period;
A developing unit that sets the development surface for the obtained signal from the previous SL imaging device generates an image signal in the developing surface by performing an addition of the signals respectively corresponding to the developing surface,
A calculation unit that calculates a development surface with the best focus state using image signals on a plurality of development surfaces obtained from the development unit;
Based on the calculation result by the calculating means, at a driving speed below the speed that has been set in advance, and a lens control means for controlling the photographic lens in a direction in which the focus state becomes better,
Based on the calculation result by the calculating means, and determining means for focus state to determine the best development plane as the development face of the recorded image,
An imaging apparatus comprising:
前記現像手段は、前記決定手段により決定された現像面の画像を記録画像として生成することを特徴とする請求項1に記載の撮像装置。The imaging apparatus according to claim 1, wherein the developing unit generates an image of the developing surface determined by the determining unit as a recorded image. 前記決定手段は、さらに前記レンズ制御手段の状態に基づいて、前記記録画像についての前記現像手段による現像面を決定することを特徴とする請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein the determination unit further determines a development surface by the development unit for the recorded image based on a state of the lens control unit. 前記算出手段は、前記現像手段から得られる複数の現像面における像信号のコントラストを比較することにより、前記ピント状態が最良な現像面を算出することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。4. The calculation unit according to claim 1, wherein the calculation unit calculates a development surface with the best focus state by comparing contrasts of image signals on a plurality of development surfaces obtained from the development unit. The imaging apparatus according to item 1. 光線空間情報を含む信号を得る撮像素子を備える撮像装置を制御する方法であって、
一定の周期で前記撮像素子から信号を出力させる撮像素子制御工程と、
記撮像素子から得られた信号に対して現像面を設定し、前記現像面に対応する前記信号同士の加算を行うことにより前記現像面での像信号を生成する現像工程と、
前記現像工程において得られた複数の現像面における信号を用いて、ピント状態が最良の現像面を算出する算出工程と、
前記算出工程における算出結果に基づいて、予め設定されている駆動速度以下の速度で、かつピント状態が良くなる方向に撮影レンズを制御するレンズ制御工程と、
前記算出工程における算出結果に基づいて、ピント状態が最良の現像面を記録画像現像面として決定する決定工程と、
有することを特徴とする撮像装置の制御方法。
A method of controlling an imaging device including an imaging device that obtains a signal including light space information ,
An image sensor control step of outputting a signal from the image sensor at a constant period;
A developing step of setting the developer surface for the obtained signal from the previous SL imaging device generates an image signal in the developing surface by performing an addition of the signals respectively corresponding to the developing surface,
A calculation step of calculating a development surface with the best focus state using image signals on a plurality of development surfaces obtained in the development step;
Based on the calculation result in the calculation step, a lens control step for controlling the taking lens at a speed equal to or lower than a preset driving speed and in a direction in which the focus state is improved ,
Based on the calculation result in the calculation step, a determining step of focusing state to determine the best development plane as the development face of the recorded image,
Control method for an imaging apparatus characterized by having a.
JP2013001291A 2013-01-08 2013-01-08 Imaging apparatus and control method thereof Active JP6198395B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013001291A JP6198395B2 (en) 2013-01-08 2013-01-08 Imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013001291A JP6198395B2 (en) 2013-01-08 2013-01-08 Imaging apparatus and control method thereof

Publications (3)

Publication Number Publication Date
JP2014135562A JP2014135562A (en) 2014-07-24
JP2014135562A5 JP2014135562A5 (en) 2016-02-25
JP6198395B2 true JP6198395B2 (en) 2017-09-20

Family

ID=51413570

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013001291A Active JP6198395B2 (en) 2013-01-08 2013-01-08 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP6198395B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016133595A (en) * 2015-01-19 2016-07-25 キヤノン株式会社 Controller, imaging device, control method, program, and storage medium
JP6749724B2 (en) * 2016-04-07 2020-09-02 キヤノン株式会社 Image blur correction device, control method thereof, program, and storage medium
JP6924306B2 (en) * 2016-04-07 2021-08-25 キヤノン株式会社 Image blur correction device and its control method, program, storage medium
CN105954968A (en) * 2016-07-09 2016-09-21 陈胜华 Three-dimensional image photographing system and method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4826152B2 (en) * 2005-06-23 2011-11-30 株式会社ニコン Image composition method and imaging apparatus
JP4692654B2 (en) * 2009-02-20 2011-06-01 株式会社ニコン Imaging apparatus and image processing program
JP2010217759A (en) * 2009-03-18 2010-09-30 Olympus Corp Imaging apparatus and method for controlling focusing of the imaging apparatus
JP5551526B2 (en) * 2010-06-25 2014-07-16 オリンパスイメージング株式会社 Imaging device and method of operating imaging device

Also Published As

Publication number Publication date
JP2014135562A (en) 2014-07-24

Similar Documents

Publication Publication Date Title
US9279955B2 (en) Image pickup apparatus, control method thereof, and program
JP5914192B2 (en) Imaging apparatus and control method thereof
JP6555863B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
US10009533B2 (en) Image pickup apparatus and control method thereof with contrast focus evaluation
US20140313373A1 (en) Imaging apparatus and its control method and program
JP6220148B2 (en) Imaging apparatus and control method thereof
CN107864315B (en) Image pickup apparatus, control method of image pickup apparatus, and recording medium
JP6843604B2 (en) Information processing device and information processing method
US9554054B2 (en) Imaging apparatus and its control method and program
JP5095519B2 (en) Imaging apparatus and imaging method
JP6198395B2 (en) Imaging apparatus and control method thereof
EP3002940A1 (en) Imaging apparatus and imaging method
JP5784395B2 (en) Imaging device
JP5611469B2 (en) Stereoscopic imaging apparatus and method
JP6486041B2 (en) Imaging apparatus and control method thereof
JP2013161065A (en) Imaging device
JP6576114B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2003274281A (en) Image pickup device
JP6400152B2 (en) REPRODUCTION DEVICE, IMAGING DEVICE, AND REPRODUCTION DEVICE CONTROL METHOD
CN105745923A (en) Image capturing device, image processing method, and image processing program
JP6234094B2 (en) Focus detection apparatus and imaging apparatus
JP2018005008A (en) Camera body and interchangeable lens
JP6188290B2 (en) Ranging device, imaging device, focus evaluation method, program, and storage medium
JP2017219697A (en) Imaging device and control method of imaging device
JP5415208B2 (en) Imaging device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170822

R151 Written notification of patent or utility model registration

Ref document number: 6198395

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151