JP5942043B2 - Imaging apparatus and focus control method - Google Patents
Imaging apparatus and focus control method Download PDFInfo
- Publication number
- JP5942043B2 JP5942043B2 JP2015539018A JP2015539018A JP5942043B2 JP 5942043 B2 JP5942043 B2 JP 5942043B2 JP 2015539018 A JP2015539018 A JP 2015539018A JP 2015539018 A JP2015539018 A JP 2015539018A JP 5942043 B2 JP5942043 B2 JP 5942043B2
- Authority
- JP
- Japan
- Prior art keywords
- focus lens
- imaging
- lens position
- subject distance
- focus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 242
- 238000000034 method Methods 0.000 title claims description 40
- 238000001514 detection method Methods 0.000 claims description 93
- 238000006243 chemical reaction Methods 0.000 claims description 33
- 230000003287 optical effect Effects 0.000 claims description 22
- 238000004364 calculation method Methods 0.000 claims description 20
- 210000001747 pupil Anatomy 0.000 claims description 9
- 238000012545 processing Methods 0.000 description 45
- 230000006870 function Effects 0.000 description 28
- 230000000875 corresponding effect Effects 0.000 description 26
- 238000004891 communication Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 4
- 230000001276 controlling effect Effects 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/28—Systems for automatic generation of focusing signals
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/02—Mountings, adjusting means, or light-tight connections, for optical elements for lenses
- G02B7/04—Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
- G02B7/09—Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted for automatic focusing or varying magnification
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/28—Systems for automatic generation of focusing signals
- G02B7/34—Systems for automatic generation of focusing signals using different areas in a pupil plane
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/32—Means for focusing
- G03B13/34—Power focusing
- G03B13/36—Autofocus systems
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/02—Bodies
- G03B17/12—Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
- G03B17/14—Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets interchangeably
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/672—Focus control based on electronic image sensor signals based on the phase difference signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/134—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Studio Devices (AREA)
- Automatic Focus Adjustment (AREA)
- Focusing (AREA)
Description
本発明は、撮像装置及び合焦制御方法に関する。 The present invention relates to an imaging apparatus and a focus control method.
近年、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の固体撮像素子の高解像度化に伴い、デジタルスチルカメラ、デジタルビデオカメラ、スマートフォン等の携帯電話機、PDA(Personal Digital Assistant,携帯情報端末)等の撮影機能を有する情報機器の需要が急増している。なお、以上のような撮像機能を有する情報機器を撮像装置と称する。 In recent years, with the increase in the resolution of solid-state image sensors such as CCD (Charge Coupled Device) image sensors and CMOS (Complementary Metal Oxide Semiconductor) image sensors, mobile phones such as digital still cameras, digital video cameras, and smartphones, PDA (Personal Digital). Demand for information equipment having a photographing function such as an assistant (mobile information terminal) is rapidly increasing. Note that an information device having the above imaging function is referred to as an imaging device.
これら撮像装置では、主要な被写体に焦点を合わせる合焦制御方法として、コントラストAF(Auto Focus、自動合焦)方式や位相差AF方式が採用されている。 In these imaging apparatuses, a contrast AF (Auto Focus) method or a phase difference AF method is employed as a focusing control method for focusing on a main subject.
また、移動する被写体にレンズ駆動を追従させるモードを備える撮像装置も知られている。例えば特許文献1には、過去複数回に求めた像面位置の情報から将来の像面位置を予測し、次の露光時に、該予測した像面位置と撮像素子の受光面とが一致するようにレンズ駆動を行う撮像装置が記載されている。
There is also known an imaging apparatus having a mode in which lens driving is made to follow a moving subject. For example, in
物体からレンズの主点までの距離(被写体距離)をbとし、レンズの主点から該物体の結像面までの距離(像面距離)をaとし、レンズの主点とレンズの焦点の距離(焦点距離)をfとすると、(1/a)+(1/b)=(1/f)・・・(1)が成り立つ。 The distance from the object to the principal point of the lens (subject distance) is b, the distance from the principal point of the lens to the imaging plane of the object (image plane distance) is a, and the distance between the lens principal point and the focal point of the lens When (focal length) is f, (1 / a) + (1 / b) = (1 / f) (1) holds.
式(1)の両辺にabfを乗じると、af+bf=ab・・・(2)となる。 Multiplying both sides of equation (1) by abf yields af + bf = ab (2).
ここで、レンズの焦点と結像面とのズレ量を像ズレ量a’とすると、a=f+a’・・・(3)の関係が成り立つ。 Here, assuming that the amount of deviation between the focal point of the lens and the imaging plane is the amount of image deviation a ′, the relationship a = f + a ′ (3) holds.
式(2)に式(3)を代入して整理すると、a’(f−b)=−f2・・・(4)となる。Substituting equation (3) into equation (2) and rearranging results in a ′ (f−b) = − f 2 (4).
式(4)において、被写体距離が十分に大きいと仮定して(f−b)を−bで近似すると、a’=f2/b・・・(5)となる。In Formula (4), assuming that the subject distance is sufficiently large, when (f−b) is approximated by −b, a ′ = f 2 / b (5).
式(5)に式(3)を代入して整理すると、a=(f2/b)+f・・・(6)となる。Substituting equation (3) into equation (5) and rearranging results in a = (f 2 / b) + f (6).
このように、式(6)から、像面距離aは被写体距離とは逆数の関係にあることが分かる。このため、等速で遠近方向に移動する被写体をその被写体の結像面で観測すると、被写体位置毎の像面距離aの間隔は均等にはならない。したがって、像面距離aを正確に予測するには、特許文献1に記載されたような多項式の予測式を利用する必要があるが、これでは演算量が多くなってしまう。
Thus, it can be seen from equation (6) that the image plane distance a is inversely related to the subject distance. For this reason, when a subject moving in the perspective direction at a constant speed is observed on the imaging plane of the subject, the intervals of the image plane distance a for each subject position are not uniform. Therefore, in order to accurately predict the image plane distance a, it is necessary to use a polynomial prediction formula as described in
本発明は、上記事情に鑑みてなされたものであり、移動する被写体に合焦し続ける場合に使用する動体予測における演算量を減らしながら、動体予測精度を向上させることのできる撮像装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and provides an imaging apparatus capable of improving moving object prediction accuracy while reducing the amount of calculation in moving object prediction that is used when focusing on a moving subject. For the purpose.
本発明の撮像装置は、フォーカスレンズを含む撮像光学系を通して被写体を撮像する撮像素子を有する撮像装置であって、上記撮像素子は、上記撮像光学系の瞳領域の異なる部分を通過した一対の光束の一方に応じた信号を検出する第1の信号検出部と、上記一対の光束の他方に応じた信号を検出する第2の信号検出部とを含み、上記フォーカスレンズを駆動して、主要被写体に合焦させる合焦制御を行う合焦制御部と、上記撮像素子により行われる撮像によって得られる上記第1の信号検出部の検出信号及び上記第2の信号検出部の検出信号の相関演算の結果に基づいて、主要被写体が結像される結像面と上記撮像素子の受光面とが一致する上記フォーカスレンズの位置であるフォーカスレンズ位置を求めるフォーカスレンズ位置生成部と、上記フォーカスレンズ位置生成部によって求められたフォーカスレンズ位置を、主要被写体と上記フォーカスレンズとの距離である被写体距離に換算する被写体距離換算部と、上記被写体距離換算部によって生成された時系列で連続する複数の撮像の各々に対応する上記被写体距離から、上記複数の撮像の最後の撮像の次に行われる撮像における被写体距離を予測する被写体距離予測部と、上記フォーカスレンズ位置生成部によって生成された時系列で連続する複数の撮像の各々に対応する上記フォーカスレンズ位置から、上記複数の撮像の最後の撮像の次に行われる撮像における上記フォーカスレンズ位置を予測するフォーカスレンズ位置予測部と、上記フォーカスレンズ位置生成部によって生成されるフォーカスレンズ位置に対する最大誤差の情報を取得する最大誤差情報取得部と、を備え、上記合焦制御部は、上記最後の撮像の次に行う撮像の前に行う合焦制御として、上記フォーカスレンズ位置生成部によって生成された時系列で連続する複数の撮像の各々に対応する上記フォーカスレンズ位置と上記最大誤差の情報とに基づき、上記レンズ位置予測部によって予測されたフォーカスレンズ位置にしたがって上記フォーカスレンズを駆動する第一の合焦制御と、上記被写体距離予測部によって予測された被写体距離にしたがって上記フォーカスレンズを駆動する第二の合焦制御のいずれかを選択するものである。 The imaging device of the present invention is an imaging device having an imaging device that images a subject through an imaging optical system including a focus lens, and the imaging device has a pair of light beams that have passed through different parts of the pupil region of the imaging optical system. A first signal detection unit that detects a signal corresponding to one of the pair of light beams and a second signal detection unit that detects a signal corresponding to the other of the pair of light beams, and drives the focus lens to A focus control unit that performs focusing control to focus on the image, and a correlation calculation between the detection signal of the first signal detection unit and the detection signal of the second signal detection unit obtained by imaging performed by the imaging device A focus lens position generation unit that obtains a focus lens position that is a position of the focus lens where an imaging surface on which a main subject is imaged and a light receiving surface of the image sensor coincide with each other based on the result; A subject distance conversion unit that converts the focus lens position obtained by the focus lens position generation unit into a subject distance that is a distance between a main subject and the focus lens, and a time series generated by the subject distance conversion unit. Generated by the subject distance prediction unit for predicting the subject distance in the imaging performed after the last imaging of the plurality of imagings, and the focus lens position generation unit, from the subject distances corresponding to the plurality of imagings. A focus lens position predicting unit that predicts the focus lens position in the imaging performed after the last imaging of the plurality of imaging from the focus lens position corresponding to each of a plurality of imagings consecutive in time series; and the focus The focus lens position generated by the lens position generator A maximum error information acquisition unit that acquires error information, and the focus control unit is generated by the focus lens position generation unit as focus control performed before imaging performed after the last imaging. And driving the focus lens in accordance with the focus lens position predicted by the lens position prediction unit based on the focus lens position corresponding to each of a plurality of continuous images in time series and the information on the maximum error. And the second focus control for driving the focus lens in accordance with the subject distance predicted by the subject distance prediction unit.
本発明の合焦制御方法は、フォーカスレンズを含む撮像光学系を通して被写体を撮像する撮像素子を有する撮像装置における合焦制御方法であって、上記撮像素子は、上記撮像光学系の瞳領域の異なる部分を通過した一対の光束の一方に応じた信号を検出する第1の信号検出部と、上記一対の光束の他方に応じた信号を検出する第2の信号検出部とを含み、上記撮像素子により行われる撮像によって得られる上記第1の信号検出部の検出信号及び上記第2の信号検出部の検出信号の相関演算の結果に基づいて、主要被写体が結像される結像面と上記撮像素子の受光面とが一致する上記フォーカスレンズの位置であるフォーカスレンズ位置を求めるフォーカスレンズ位置生成ステップと、上記フォーカスレンズ位置生成ステップで求めたフォーカスレンズ位置を、主要被写体と上記フォーカスレンズとの距離である被写体距離に換算する被写体距離換算ステップと、上記被写体距離換算ステップで生成した時系列で連続する複数の撮像の各々に対応する上記被写体距離から、上記複数の撮像の最後の撮像の次に行われる撮像における被写体距離を予測する被写体距離予測ステップと、上記フォーカスレンズ位置生成ステップで生成した時系列で連続する複数の撮像の各々に対応する上記フォーカスレンズ位置から、上記複数の撮像の最後の撮像の次に行われる撮像における上記フォーカスレンズ位置を予測するフォーカスレンズ位置予測ステップと、上記フォーカスレンズ位置生成ステップで生成されるフォーカスレンズ位置に対する最大誤差の情報を取得する最大誤差情報取得ステップと、上記最後の撮像の次に行われる撮像のために行う合焦制御として、上記フォーカスレンズ位置生成ステップで生成した時系列で連続する複数の撮像の各々に対応する上記フォーカスレンズ位置と上記最大誤差の情報とに基づき、上記フォーカスレンズ位置予測ステップで予測したフォーカスレンズ位置にしたがって上記フォーカスレンズを駆動する第一の合焦制御と、上記被写体距離予測ステップで予測した被写体距離にしたがって上記フォーカスレンズを駆動する第二の合焦制御のいずれかを選択し、選択した合焦制御をその撮像前に実行する合焦制御ステップと、を備えるものである。 The focus control method of the present invention is a focus control method in an image pickup apparatus having an image pickup device that picks up an image of a subject through an image pickup optical system including a focus lens, and the image pickup device has different pupil regions of the image pickup optical system. A first signal detection unit that detects a signal corresponding to one of the pair of light beams that has passed through the portion; and a second signal detection unit that detects a signal corresponding to the other of the pair of light beams. Based on the result of the correlation calculation of the detection signal of the first signal detection unit and the detection signal of the second signal detection unit obtained by the imaging performed by the imaging, the imaging plane on which the main subject is imaged and the imaging A focus lens position generation step for obtaining a focus lens position, which is the position of the focus lens that matches the light receiving surface of the element, and a focus lens position obtained in the focus lens position generation step. A subject distance conversion step for converting the lens position into a subject distance that is a distance between the main subject and the focus lens, and the subject distance corresponding to each of a plurality of continuous imagings generated in the subject distance conversion step. To a subject distance prediction step for predicting a subject distance in an imaging performed after the last imaging of the plurality of imaging, and a plurality of time-sequential imagings generated in the focus lens position generation step. A focus lens position predicting step for predicting the focus lens position in the imaging performed after the last imaging of the plurality of imaging from the focus lens position, and a maximum for the focus lens position generated in the focus lens position generating step Maximum error information acquisition step for acquiring error information And the focus lens position corresponding to each of a plurality of time-sequentially generated images generated in the focus lens position generation step as the focus control performed for imaging performed after the last imaging, and Based on the maximum error information, the first focus control for driving the focus lens according to the focus lens position predicted in the focus lens position prediction step, and the focus according to the subject distance predicted in the subject distance prediction step. A focus control step of selecting any one of the second focus controls for driving the lens and executing the selected focus control before the imaging.
本発明によれば、移動する被写体に合焦し続ける場合に使用する動体予測における演算量を減らしながら、動体予測精度を向上させることのできる撮像装置を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the imaging device which can improve a moving body prediction precision can be provided, reducing the amount of calculations in the moving body prediction used when continuing to focus on the to-be-moved subject.
以下、本発明の実施形態について図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、本発明の一実施形態を説明するための撮像装置の一例としてのデジタルカメラの概略構成を示す図である。 FIG. 1 is a diagram showing a schematic configuration of a digital camera as an example of an imaging apparatus for explaining an embodiment of the present invention.
図1に示すデジタルカメラは、焦点調節のためのフォーカスレンズ、及び、ズームレンズ等を含む撮像レンズ1と、絞り2とを有するレンズ装置を備える。レンズ装置は撮像光学系を構成する。レンズ装置はカメラ本体に固定である。撮像レンズ1は少なくともフォーカスレンズを含んでいればよい。また、レンズ系全体を移動させることで焦点調節を行う単焦点レンズでもよい。
The digital camera shown in FIG. 1 includes a lens device having an
カメラ本体は、レンズ装置を通して被写体を撮像するCCD型やCMOS型等の固体撮像素子5と、固体撮像素子5の出力に接続された相関二重サンプリング処理等のアナログ信号処理を行うアナログ信号処理部6と、アナログ信号処理部6から出力されるアナログ信号をデジタル信号に変換するA/D変換回路7とを備える。アナログ信号処理部6及びA/D変換回路7は、システム制御部11によって制御される。アナログ信号処理部6及びA/D変換回路7は固体撮像素子5に内蔵されることもある。
The camera body includes a solid-
デジタルカメラの電気制御系全体を統括制御するシステム制御部11は、レンズ駆動部
8を制御して撮像レンズ1に含まれるフォーカスレンズの位置を調整して主要被写体に合焦させる合焦制御を行ったり、撮像レンズ1に含まれるズームレンズの位置の調整を行ったりする。更に、システム制御部11は、絞り駆動部9を介して絞り2の開口量を制御することにより、露光量の調整を行う。システム制御部11は、合焦制御部として機能する。A system control unit 11 that performs overall control of the electrical control system of the digital camera controls the
また、システム制御部11は、撮像素子駆動部10を介して固体撮像素子5を駆動し、撮像レンズ1を通して撮像した被写体像を撮像画像信号として出力させる。システム制御部11には、操作部14を通してユーザからの指示信号が入力される。
In addition, the system control unit 11 drives the solid-
更に、このデジタルカメラの電気制御系は、メインメモリ16と、メインメモリ16に接続されたメモリ制御部15と、A/D変換回路7から出力される撮像画像信号に対し、補間演算、ガンマ補正演算、及びRGB/YC変換処理等を行って撮影画像データを生成するデジタル信号処理部17と、位相差AF方式により合焦位置を決定する位相差AF処理部19と、着脱自在の記録媒体21が接続される外部メモリ制御部20と、カメラ背面等に搭載された表示部23が接続される表示制御部22と、を備える。
Further, the electric control system of the digital camera includes an interpolation calculation and a gamma correction for the
メモリ制御部15、デジタル信号処理部17、位相差AF処理部19、外部メモリ制御部20、及び表示制御部22は、制御バス24及びデータバス25によって相互に接続され、システム制御部11からの指令によって制御される。
The
図2は、図1に示すデジタルカメラに搭載される固体撮像素子5の全体構成を示す平面模式図である。
FIG. 2 is a schematic plan view showing the overall configuration of the solid-
固体撮像素子5は、行方向X及びこれに直交する列方向Yに二次元状に配列された多数の画素が配置される受光面50を有する。この受光面50には、フォーカスを合わせる対象となるエリアであるAFエリア53が図2の例では9つ設けられている。
The solid-
AFエリア53は、画素として撮像用画素と位相差検出用画素とを含むエリアである。
The
受光面50のうちAFエリア53を除く部分には、撮像用画素だけが配置される。なお、AFエリア53は、受光面50に隙間無く設けてあってもよい。
Only the imaging pixels are arranged on the
図3は、図2に示す1つのAFエリア53の部分拡大図である。
FIG. 3 is a partially enlarged view of one
AFエリア53には、画素51が二次元状に配列されている。各画素51は、フォトダイオード等の光電変換部と、この光電変換部上方に形成されたカラーフィルタとを含む。
In the
図3では、赤色光を透過するカラーフィルタ(Rフィルタ)を含む画素51(R画素51)には“R”の文字を付し、緑色光を透過するカラーフィルタ(Gフィルタ)を含む画素51(G画素51)には“G”の文字を付し、青色光を透過するカラーフィルタ(Bフィルタ)を含む画素51(B画素51)には“B”の文字を付している。カラーフィルタの配列は受光面50全体でベイヤ配列となっている。
In FIG. 3, a pixel 51 (R pixel 51) including a color filter (R filter) that transmits red light is denoted by “R”, and a
AFエリア53では、G画素51の一部(図3中の網掛けを付した画素51)が位相差検出用画素52となっている。図3の例では、R画素51とG画素51を含む画素行のうちの任意の画素行における各G画素51と、この各G画素51に対して列方向Yに最も近い同色のG画素51とが、位相差検出用画素52となっている。ここでは図3に図示するように、2次元状配列の一方の方向をX方向または行方向、他の方向をY方向または列方向と規定する。
In the
図4は、図3に示す位相差検出用画素52のみを示した図である。
FIG. 4 is a diagram showing only the phase
図4に示すように、位相差検出用画素52は、位相差検出用画素52Aと位相差検出用画素52Bの2種類の画素を含む。
As shown in FIG. 4, the phase
位相差検出用画素52Aは、撮像レンズ1の瞳領域の異なる部分を通過した一対の光束の一方を受光し受光量に応じた信号を検出する第1の信号検出部である。
The phase
位相差検出用画素52Bは、上記一対の光束の他方を受光し受光量に応じた信号を検出する第2の信号検出部である。
The phase
なお、AFエリア53において、位相差検出用画素52A,52B以外の複数の画素51は撮像用画素であり、撮像用画素は、撮像レンズ1を通過した上記一対の光束を受光し受光量に応じた信号を検出する。
In the
各画素51の光電変換部上方には遮光膜が設けられ、この遮光膜には、光電変換部の受光面積を規定する開口が形成されている。
A light shielding film is provided above the photoelectric conversion unit of each
撮像用画素51の開口の中心は、撮像用画素51の光電変換部の中心と一致している。これに対し、位相差検出用画素52Aの開口(図4の白抜き部分)の中心は、位相差検出用画素52Aの光電変換部の中心に対し右側に偏心している。また、位相差検出用画素52Bの開口(図4の白抜き部分)の中心は、位相差検出用画素52Bの光電変換部の中心に対して左側に偏心している。ここでいう右方向は、図3で示すX方向の一方の方向であり、左方向はX方向のもう一方の方向である。
The center of the opening of the
この構成により、任意の行にある位相差検出用画素52Aからなる画素群と、この画素群の各位相差検出用画素52Aに対して一方向に同一距離で配置された位相差検出用画素52Bからなる画素群とによって、これら2つの画素群の各々によって撮像される像における行方向Xの位相差を検出することができる。
With this configuration, the pixel group including the phase
図1に示す位相差AF処理部19は、9つのAFエリア53の中からユーザ操作等により選択された1つのAFエリア53にある位相差検出用画素52A及び位相差検出用画素52Bから読み出される検出信号群を用いて上記一対の光束によって形成される2つの像の相対的な位置ずれ量である位相差を演算する。
The phase difference
そして、位相差AF処理部19は、この位相差に基づいて、撮像レンズ1による主要被写体の結像面と固体撮像素子5の受光面とが一致するときのフォーカスレンズの位置の情報を生成する。位相差AF処理部19は、フォーカスレンズ位置生成部として機能する。具体的には、位相差AF処理部19は、位相差からデフォーカス量を求め、このデフォーカス量を、フォーカスレンズを駆動するモータの駆動パルス数に変換し、この駆動パルス数を合焦状態を得るためのフォーカスレンズ位置を示す情報とする。
Then, based on this phase difference, the phase difference
なお、本明細書では、フォーカスレンズの移動可能な範囲における例えば最近接端を基準位置とし、この基準位置からの距離(駆動パルス数)をフォーカスレンズの位置としている。 In this specification, for example, the closest end in the movable range of the focus lens is set as a reference position, and the distance (number of drive pulses) from this reference position is set as the position of the focus lens.
なお、AFエリア53は1つだけでなく、連続して並ぶ複数個を選択できるようにしてもよい。
It should be noted that the number of
位相差AF処理部19によって算出される位相差は、位相差検出用画素52A又は位相差検出用画素52Bの行方向Xにおける配置間隔以上の精度では求まらない。図3の例では、位相差検出用画素52Aが1画素を空けて配置されているため、1画素単位で位相差を検出することができる。しかし、1画素より小さい距離の位相差は検出することができない。例えば、位相差検出用画素52Aによって撮像される像と位相差検出用画素52Bによって撮像される像とが行方向Xに0.5画素分ずれていた場合でも、位相差は1画素として検出されてしまい、0.5画素分の誤差が発生する。
The phase difference calculated by the phase difference
また、位相差AF処理部19によって算出される位相差は、同じ被写体を撮像した場合でも、撮像レンズ1のF値(撮像レンズ1の焦点距離を撮像レンズ1の口径(絞り2開放時の絞り2の開口直径)で割った値)、撮像時の絞り値、撮像時のズーム倍率、固体撮像素子5のノイズ等によって大きさが変化する。したがって、上述した誤差は、撮像レンズ1のF値、撮像時の絞り値、撮像時のズーム倍率、固体撮像素子5のノイズ等によって大きさが変わる。
The phase difference calculated by the phase difference
図1に示すデジタルカメラは、位相差AF処理部19で生成される合焦状態を得るためのフォーカスレンズ位置に対して発生し得る最大の誤差(以下、最大誤差)の情報をメインメモリ16に予め記憶している。
The digital camera shown in FIG. 1 stores information on the maximum error (hereinafter referred to as the maximum error) that can occur with respect to the focus lens position for obtaining the in-focus state generated by the phase difference
最大誤差の求め方としては、合焦状態となるフォーカスレンズ位置が既知の被写体に対し、絞り値及びズーム倍率をあらゆる組合せで変更して撮像を行い、各組合せにおいて得られる位相差から求まるフォーカスレンズ位置のうち最も大きい値と、該既知のフォーカスレンズ位置との差を最大誤差として求める方法がある。 As a method of obtaining the maximum error, a focus lens obtained from a phase difference obtained in each combination by changing the aperture value and the zoom magnification in every combination for an object with a known focus lens position in a focused state. There is a method of obtaining a difference between the largest value of the positions and the known focus lens position as a maximum error.
また、位相差検出用画素52の行方向Xにおける配置間隔と撮像レンズ1のF値とから最大誤差を求める方法がある。
Further, there is a method for obtaining the maximum error from the arrangement interval of the phase
図5は、演算により最大誤差を求める方法を説明するための図である。 FIG. 5 is a diagram for explaining a method for obtaining the maximum error by calculation.
図5に示すように、主要被写体Pが撮像レンズ1によって結像される面である結像面と固体撮像素子5の受光面との距離をxとし、位相差AF処理部19によって算出される位相差をyとし、主要被写体Pから結像面に入射する光の入射角をθとする。
As shown in FIG. 5, the distance between the imaging surface, which is the surface on which the main subject P is imaged by the
撮像レンズ1のF値は、F値=2/tan(θ)の関係にあるため、tan(θ)=2/(F値)となる。
Since the F value of the
また、距離xは、x=y/2tan(θ)となり、ここにtan(θ)=2/(F値)を代入すると、x=y*(F値)/4となる。 The distance x is x = y / 2 tan (θ), and if tan (θ) = 2 / (F value) is substituted here, x = y * (F value) / 4.
ここで、yの値は、上述したように、位相差検出用画素の行方向Xにおける配置間隔よりも小さい値は検出できないため、x=y*(F値)/4の式において、yに該配置間隔を代入して得られる値を駆動パルス数に換算した値が、上記最大誤差となる。このように、位相差検出用画素の配置間隔の情報と、撮像レンズ1のF値の情報とから、最大誤差を算出することができる。
Here, as described above, since a value smaller than the arrangement interval of the phase difference detection pixels in the row direction X cannot be detected as the value of y, in the expression x = y * (F value) / 4, A value obtained by converting the value obtained by substituting the arrangement interval into the number of drive pulses is the maximum error. Thus, the maximum error can be calculated from the information on the arrangement interval of the phase difference detection pixels and the information on the F value of the
以下、主要被写体に合焦させた状態で固体撮像素子5により撮像(静止画撮像)を行う撮像処理を複数回(以下ではK回が設定されているものとする)連続して行う連写モードでのデジタルカメラの動作について説明する。撮像とは、固体撮像素子5の露光を開始してから、その露光によって得られた撮像画像信号を固体撮像素子5から読み出すまでの処理を言う。
Hereinafter, continuous shooting mode in which imaging processing for capturing an image (still image capturing) with the solid-
連写モードに設定されると、システム制御部11は、固体撮像素子5により、ライブビュー画像表示のための撮像を開始させる。これにより、固体撮像素子5による撮像、該撮像により得られる撮像画像信号からの撮像画像データの生成、該撮像画像データに基づくライブビュー画像の表示部23への表示、の一連の処理が繰り返し行われる。
When the continuous shooting mode is set, the system control unit 11 causes the solid-
操作部14に含まれるシャッタボタンの操作等によって連写撮像の開始指示があると、位相差AF処理部19が、該指示の直前の撮像によって得られる撮像画像信号から、選択されたAFエリア53にある位相差検出用画素52A及び位相差検出用画素52Bの検出信号を取得し、位相差検出用画素52Aと位相差検出用画素52Bの検出信号群同士の相関演算を行う。
When there is an instruction to start continuous shooting by operating the shutter button included in the
位相差AF処理部19は、この相関演算の結果から位相差を求め、この位相差から、合焦状態を得るためのフォーカスレンズ位置を算出し、算出したフォーカスレンズ位置を、算出した時刻と関連付けてメインメモリ16に記憶する(ステップS1)。
The phase difference
次に、システム制御部11は、位相差AF処理部19によって算出されたフォーカスレンズ位置の情報を取得し、このフォーカスレンズ位置にフォーカスレンズを移動させる合焦制御を行った後、固体撮像素子5により、連写のNフレーム目の撮像を行わせる(ステップS2)。なお、Nの初期値は“1”である。
Next, the system control unit 11 acquires information on the focus lens position calculated by the phase difference
このステップS2の撮像によって得られた撮像画像信号からデジタル信号処理部17により撮像画像データが生成され、この撮像画像データが記録媒体21に記録される。
Captured image data is generated by the digital
ステップS2の後、システム制御部11は、N=Kであれば(ステップS3:YES)、連写撮像を終了し、N≠Kであれば(ステップS3:NO)、ステップS4の処理を位相差AF処理部19に行わせる。
After step S2, if N = K (step S3: YES), the system control unit 11 ends the continuous shooting, and if N ≠ K (step S3: NO), the system control unit 11 proceeds to step S4. The phase difference
ステップS4において、位相差AF処理部19は、ステップS2の撮像によって得られる撮像画像信号に含まれる位相差検出用画素の検出信号を用いて、合焦状態を得るためのフォーカスレンズ位置を算出し、算出したフォーカスレンズ位置を、算出した時刻と関連付けてメインメモリ16に記憶する。
In step S4, the phase difference
ステップS4の後、システム制御部11は、メインメモリ16に記憶されているフォーカスレンズ位置のうち、関連付けられている時刻が最新のもの(フォーカスレンズ位置l1とする)と、その次に新しいもの(フォーカスレンズ位置l2とする)とをメインメモリ16から取得し、取得したフォーカスレンズ位置l1,l2を被写体距離に換算する(ステップS5)。システム制御部11は、被写体距離換算部として機能する。
After step S4, the system control unit 11 selects the focus lens position stored in the
合焦状態とは、固体撮像素子5の受光面と撮像レンズ1の結像面が一致することであるから、合焦状態を得るためのフォーカスレンズ位置は、撮像レンズ1の主点と結像面との距離である上述した像面距離aと対応する。
The focused state means that the light receiving surface of the solid-
したがって、ステップS5において、システム制御部11は、式(6)のfに撮像レンズ1の焦点距離を代入し、式(6)のaにフォーカスレンズ位置l1を代入してbについて解くことで、フォーカスレンズ位置l1を被写体距離L1に換算する。また、システム制御部11は、式(6)のfに撮像レンズ1の焦点距離を代入し、式(6)のaにフォーカスレンズ位置l2を代入してbについて解くことで、フォーカスレンズ位置l2を被写体距離L2に換算する。
Therefore, in step S5, the system control unit 11 substitutes the focal length of the
ステップS5の後、システム制御部11は、被写体距離L1と被写体距離L2とを用いて、Nフレームの次のフレームの撮像時における被写体距離L3を予測する(ステップS6)。被写体距離の予測方法としては周知の方法を採用すればよい。システム制御部11は被写体距離予測部として機能する。 After step S5, the system control unit 11 uses the subject distance L1 and the subject distance L2 to predict the subject distance L3 at the time of imaging the next frame of the N frames (step S6). A well-known method may be adopted as a method for predicting the subject distance. The system control unit 11 functions as a subject distance prediction unit.
次に、システム制御部11は、予測した被写体距離L3をフォーカスレンズ位置l3に換算する。システム制御部11は、式(6)のbに被写体距離L3を代入することで、フォーカスレンズ位置l3を求める(ステップS7)。 Next, the system control unit 11 converts the predicted subject distance L3 into the focus lens position l3. The system control unit 11 obtains the focus lens position l3 by substituting the subject distance L3 into b of Expression (6) (step S7).
次に、システム制御部11は、位置位相差AF処理部19によって生成されるフォーカスレンズ位置に対する最大誤差(ここではαとする)の情報をメインメモリ16から取得する(ステップS8)。システム制御部11は、最大誤差情報取得部として機能する。
Next, the system control unit 11 acquires information on the maximum error (here, α) with respect to the focus lens position generated by the position phase difference
次に、システム制御部11は、フォーカスレンズ位置l3にαを加算した値を式(6)にしたがって被写体距離L3aに換算し、フォーカスレンズ位置l3からαを減算した値を式(6)にしたがって被写体距離L3bに換算する(ステップS9)。 Next, the system control unit 11 converts the value obtained by adding α to the focus lens position l3 into the subject distance L3a according to equation (6), and subtracts α from the focus lens position l3 according to equation (6). Conversion to the subject distance L3b (step S9).
図7は、合焦状態における被写体距離(b)とフォーカスレンズ位置(像面距離a)との関係を示す図である。 FIG. 7 is a diagram showing the relationship between the subject distance (b) and the focus lens position (image plane distance a) in the focused state.
図7に示すように、被写体距離がBである場合、被写体距離Bから換算されるフォーカスレンズ位置はx1となり、x1に最大誤差であるαを加算した値に対応する被写体距離Bb、及び、x1から最大誤差であるαを減算した値に対応する被写体距離Baの各々と被写体距離Bとの差(符号を無視した絶対値)は小さな値となる。 As shown in FIG. 7, when the subject distance is B, the focus lens position converted from the subject distance B is x1, and the subject distance Bb corresponding to the value obtained by adding α which is the maximum error to x1, and x1 The difference (absolute value ignoring the sign) between each of the subject distances Ba and the subject distance B corresponding to a value obtained by subtracting α, which is the maximum error, is a small value.
一方、被写体距離がBよりも十分に大きいAである場合、被写体距離Aから換算されるフォーカスレンズ位置はx2となり、x2に最大誤差であるαを加算した値に対応する被写体距離Ab、及び、x2から最大誤差であるαを減算した値に対応する被写体距離Aaの各々と被写体距離Aとの差(符号を無視した絶対値)は大きな値となる。 On the other hand, when the subject distance is A that is sufficiently larger than B, the focus lens position converted from the subject distance A is x2, and the subject distance Ab corresponding to the value obtained by adding α that is the maximum error to x2, and The difference (absolute value ignoring the sign) between each of the subject distances Aa and the subject distance A corresponding to a value obtained by subtracting the maximum error α from x2 is a large value.
このように、位相差AF処理部19によって生成された複数のフォーカスレンズ位置に基づいて予測される被写体距離が大きいときは、フォーカスレンズ位置に対する最大誤差によって、予測される距離に対する誤差も大きくなる。このため、予測した被写体距離にしたがって合焦制御を行うと、合焦精度が低下してしまう。
In this way, when the subject distance predicted based on the plurality of focus lens positions generated by the phase difference
そこで、システム制御部11は、ステップS10において、被写体距離L3aと被写体距離L3bとの差分が閾値THを超えるか否かを判定し、この差分が閾値THを超えていた場合には、ステップS11の処理を行い、この差分が閾値THを超えていない場合にはステップS12の処理を行う。 Therefore, the system control unit 11 determines whether or not the difference between the subject distance L3a and the subject distance L3b exceeds the threshold value TH in step S10, and if this difference exceeds the threshold value TH, the process proceeds to step S11. Processing is performed, and when this difference does not exceed the threshold value TH, processing in step S12 is performed.
ステップS11において、システム制御部11は、フォーカスレンズ位置l1,l2から、Nフレームの次のフレームの撮像時におけるフォーカスレンズ位置l3aを予測する。システム制御部11は、フォーカスレンズ位置予測部として機能する。フォーカスレンズ位置の予測方法としては、特許文献1に記載された方法等の公知のものを用いればよい。
In step S11, the system control unit 11 predicts the focus lens position l3a at the time of imaging the next frame of the N frames from the focus lens positions l1 and l2. The system control unit 11 functions as a focus lens position prediction unit. As a method for predicting the focus lens position, a known method such as the method described in
ステップS11の後、システム制御部11は、予測したフォーカスレンズ位置l3aにフォーカスレンズを移動させる合焦制御(第一の合焦制御)を行う(ステップS13)。 After step S11, the system control unit 11 performs focus control (first focus control) for moving the focus lens to the predicted focus lens position l3a (step S13).
ステップS12において、システム制御部11は、予測した被写体距離L3から換算したフォーカスレンズ位置l3にフォーカスレンズを移動させる合焦制御(第二の合焦制御)を行う。 In step S12, the system control unit 11 performs focus control (second focus control) for moving the focus lens to the focus lens position l3 converted from the predicted subject distance L3.
ステップS12とステップS13の後は、ステップS14にてNが(N+1)に変更され、ステップS2の処理が行われる。 After step S12 and step S13, N is changed to (N + 1) in step S14, and the process of step S2 is performed.
以上のように、図1のデジタルカメラによれば、ステップS6で予測される被写体距離L3が大きくなるときにだけ、ステップS11,S13の処理(過去複数のフォーカスレンズ位置から将来のフォーカスレンズ位置を予測して合焦制御を行う処理)が行われる。このため、常にフォーカスレンズ位置を予測して合焦制御を行う従来方式に比べて、動体予測に要する演算量を減らすことができ、動体に対する追従速度の向上、消費電力低下を実現することができる。 As described above, according to the digital camera of FIG. 1, only when the subject distance L3 predicted in step S6 is increased, the processing in steps S11 and S13 (the future focus lens position is determined from the plurality of past focus lens positions). Predictive focus control is performed). For this reason, compared with the conventional method in which the focus lens position is always predicted and focus control is performed, the amount of calculation required for moving object prediction can be reduced, and the follow-up speed for the moving object can be improved and the power consumption can be reduced. .
図6では、これから行うフレームの撮像における被写体距離に生じうる誤差として、まず、被写体距離L3を予測し、この被写体距離L3と最大誤差の情報とから、被写体距離L3aと被写体距離L3bを生成し、被写体距離L3aと被写体距離L3bの差を誤差として求めるものとした。以下では、この誤差の求め方の変形例を説明する。 In FIG. 6, as an error that may occur in the subject distance in the imaging of a frame to be performed in the future, first, the subject distance L3 is predicted, and the subject distance L3a and the subject distance L3b are generated from the subject distance L3 and the maximum error information. The difference between the subject distance L3a and the subject distance L3b is obtained as an error. Below, the modification of how to obtain | require this error is demonstrated.
図8は、被写体距離に生じうる誤差の算出方法の変形例を説明するためのフローチャートである。図8において図6と同じ処理には同一符号を付して説明を省略する。 FIG. 8 is a flowchart for explaining a modification of a method for calculating an error that may occur in the subject distance. In FIG. 8, the same processes as those in FIG.
ステップS4の後、システム制御部11は、位相差AF処理部19によって生成されるフォーカスレンズ位置に対する最大誤差(ここではαとする)の情報をメインメモリ16から取得する(ステップS20)。
After step S4, the system control unit 11 acquires information on the maximum error (here, α) with respect to the focus lens position generated by the phase difference
次に、システム制御部11は、メインメモリ16に記憶されているフォーカスレンズ位置のうち、関連付けられている時刻が最新のもの(フォーカスレンズ位置l1とする)と、その次に新しいもの(フォーカスレンズ位置l2とする)とをメインメモリ16から取得する。
Next, among the focus lens positions stored in the
そして、システム制御部11は、フォーカスレンズ位置l1に最大誤差αを加算した値を被写体距離Baに換算し、フォーカスレンズ位置l1から最大誤差αを減算した値を被写体距離Bbに換算する。また、システム制御部11は、フォーカスレンズ位置l2に最大誤差αを加算した値を被写体距離Aaに換算し、フォーカスレンズ位置l2から最大誤差αを減算した値を被写体距離Abに換算する(ステップS21)。 Then, the system control unit 11 converts the value obtained by adding the maximum error α to the focus lens position 11 to the subject distance Ba, and converts the value obtained by subtracting the maximum error α from the focus lens position 11 to the subject distance Bb. Further, the system control unit 11 converts the value obtained by adding the maximum error α to the focus lens position l2 into the subject distance Aa, and converts the value obtained by subtracting the maximum error α from the focus lens position l2 into the subject distance Ab (step S21). ).
この処理により、図9に示すように、時刻t1に対して2つの被写体距離(黒い丸印)が生成され、時刻t2に対して2つの被写体距離(黒い丸印)が生成される。 By this processing, as shown in FIG. 9, two subject distances (black circles) are generated at time t1, and two subject distances (black circles) are generated at time t2.
ステップS21の後、システム制御部11は、被写体距離Baと被写体距離Aaを用いて、次のフレームの撮像時刻t3における被写体距離の誤差上限値である被写体距離Caを予測する(ステップS22。また、システム制御部11は、被写体距離Bbと被写体距離Abを用いて、時刻t3における被写体距離の誤差下限値である被写体距離Cbを予測する(ステップS23)。 After step S21, the system control unit 11 uses the subject distance Ba and the subject distance Aa to predict the subject distance Ca that is the upper limit of the subject distance error at the imaging time t3 of the next frame (step S22. The system control unit 11 uses the subject distance Bb and the subject distance Ab to predict a subject distance Cb that is a lower limit error of the subject distance at time t3 (step S23).
次に、システム制御部11は、距離Caと距離Cbとの差分が閾値THを超えるか否かを判定し、この差分が閾値THを超えていた場合には、ステップS11の処理を行い、この差分が閾値THを超えていない場合には、図6のステップS5、図6のステップS6の処理を順次行った後、ステップS12の処理を行う。 Next, the system control unit 11 determines whether or not the difference between the distance Ca and the distance Cb exceeds the threshold value TH. If the difference exceeds the threshold value TH, the process of step S11 is performed. When the difference does not exceed the threshold value TH, the process of step S5 in FIG. 6 and the process of step S6 in FIG. 6 are sequentially performed, and then the process of step S12 is performed.
図8の動作によれば、ステップS24の判定がYESになった場合には、ステップS1
2で使用する被写体距離L3を予測する処理が不要となる。このため、不要な演算を減らして消費電力を低減することができる。According to the operation of FIG. 8, if the determination in step S24 is YES, step S1
2 to predict the subject distance L3 to be used. For this reason, unnecessary calculation can be reduced and power consumption can be reduced.
ここまでは、レンズ装置がカメラ本体に固定であることを前提として説明した。しかし、本発明は、カメラ本体に対してレンズ装置を着脱可能なレンズ交換式のデジタルカメラにも適用可能である。 So far, the description has been made on the assumption that the lens device is fixed to the camera body. However, the present invention can also be applied to an interchangeable lens digital camera in which a lens device can be attached to and detached from the camera body.
レンズ交換式のデジタルカメラの場合は、システム制御部11が、レンズ装置に内蔵される記憶部からこのレンズ装置に含まれる撮像レンズのF値と焦点距離の情報を取得する。システム制御部11はF値取得部として機能する。そして、システム制御部11は、位相差検出用画素の配置間隔の情報を記憶する記憶部としてのメインメモリ16から該配置間隔の情報を取得し、この情報と、レンズ装置から取得したF値とによって最大誤差を算出してメインメモリ16に記憶する。また、システム制御部11は、レンズ装置から取得した焦点距離から式(6)に示す関数を生成してメインメモリ16に記憶する。
In the case of an interchangeable lens digital camera, the system control unit 11 acquires information on the F value and focal length of the imaging lens included in the lens device from a storage unit built in the lens device. The system control unit 11 functions as an F value acquisition unit. Then, the system control unit 11 acquires information on the arrangement interval from the
なお、交換レンズにおける撮像レンズのF値と焦点距離の情報は、ユーザが手動によってシステム制御部11に入力できるようにしてもよい。 Note that the F value and focal length information of the imaging lens in the interchangeable lens may be manually input to the system control unit 11 by the user.
システム制御部11は、図6、8に示した動作フローにおいて、フォーカスレンズ位置から被写体距離への換算処理、被写体距離からフォーカスレンズ位置への換算処理を、メインメモリ16に記憶した上記関数にしたがって行う。また、システム制御部11は、ステップS9において、メインメモリ16に記憶した最大誤差の情報を利用して、被写体距離L3a,L3bを得る。
The system control unit 11 performs conversion processing from the focus lens position to the subject distance and conversion processing from the subject distance to the focus lens position according to the above functions stored in the
このように、レンズ交換型のデジタルカメラであっても、装着されるレンズ装置に対応して式(6)の関数と最大誤差とを生成してメモリに記憶しておくことで、動体に対する追従速度の向上、消費電力低下を実現することができる。 As described above, even in an interchangeable lens digital camera, the function and maximum error of Equation (6) are generated and stored in the memory in accordance with the lens device to be mounted, thereby tracking the moving object. Improvement of speed and reduction of power consumption can be realized.
本明細書では撮像装置としてデジタルカメラを例にしたが、以下では、撮像装置としてカメラ付のスマートフォンの実施形態について説明する。 In the present specification, a digital camera is taken as an example of the imaging device, but an embodiment of a smartphone with a camera as the imaging device will be described below.
図10は、本発明の撮影装置の一実施形態であるスマートフォン200の外観を示すものである。図10に示すスマートフォン200は、平板状の筐体201を有し、筐体201の一方の面に表示部としての表示パネル202と、入力部としての操作パネル203とが一体となった表示入力部204を備えている。また、この様な筐体201は、スピーカ205と、マイクロホン206と、操作部207と、カメラ部208とを備えている。なお、筐体201の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド機構を有する構成を採用したりすることもできる。
FIG. 10 shows an appearance of a
図11は、図10に示すスマートフォン200の構成を示すブロック図である。図11に示すように、スマートフォンの主たる構成要素として、無線通信部210と、表示入力部204と、通話部211と、操作部207と、カメラ部208と、記憶部212と、外部入出力部213と、GPS(Global Positioning System)受信部214と、モーションセンサ部215と、電源部216と、主制御部220とを備える。また、スマートフォン200の主たる機能として、図示省略の基地局装置BSと図示省略の移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。
FIG. 11 is a block diagram showing the configuration of the
無線通信部210は、主制御部220の指示にしたがって、移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
The
表示入力部204は、主制御部220の制御により、画像(静止画像および動画像)や文字情報などを表示して視覚的にユーザに情報を伝達するとともに、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル202と、操作パネル203とを備える。
The
表示パネル202は、LCD(Liquid Crystal Display)、OELD(Organic Electro−Luminescence Display)などを表示デバイスとして用いたものである。
The
操作パネル203は、表示パネル202の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。このデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部220に出力する。次いで、主制御部220は、受信した検出信号に基づいて、表示パネル202上の操作位置(座標)を検出する。
The
図10に示すように、本発明の撮影装置の一実施形態として例示しているスマートフォン200の表示パネル202と操作パネル203とは一体となって表示入力部204を構成しているが、操作パネル203が表示パネル202を完全に覆うような配置となっている。
As shown in FIG. 10, the
係る配置を採用した場合、操作パネル203は、表示パネル202外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル203は、表示パネル202に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル202に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
When such an arrangement is adopted, the
なお、表示領域の大きさと表示パネル202の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、操作パネル203が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。更に、外縁部分の幅は、筐体201の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル203で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
Note that the size of the display area and the size of the
通話部211は、スピーカ205やマイクロホン206を備え、マイクロホン206を通じて入力されたユーザの音声を主制御部220にて処理可能な音声データに変換して主制御部220に出力したり、無線通信部210あるいは外部入出力部213により受信された音声データを復号してスピーカ205から出力させたりするものである。また、図10に示すように、例えば、スピーカ205を表示入力部204が設けられた面と同じ面に搭載し、マイクロホン206を筐体201の側面に搭載することができる。
The
操作部207は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図10に示すように、操作部207は、スマートフォン200の筐体201の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
The
記憶部212は、主制御部220の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部212は、スマートフォン内蔵の内部記憶部217と着脱自在な外部メモリスロットを有する外部記憶部218により構成される。なお、記憶部212を構成するそれぞれの内部記憶部217と外部記憶部218は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの格納媒体を用いて実現される。
The
外部入出力部213は、スマートフォン200に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394など)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
The external input /
スマートフォン200に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、有/無線接続されるパーソナルコンピュータ、イヤホンなどがある。外部入出力部213は、このような外部機器から伝送を受けたデータをスマートフォン200の内部の各構成要素に伝達することや、スマートフォン200の内部のデータが外部機器に伝送されるようにすることができる。
As an external device connected to the
GPS受信部214は、主制御部220の指示にしたがって、GPS衛星ST1〜STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、当該スマートフォン200の緯度、経度、高度からなる位置を検出する。GPS受信部214は、無線通信部210や外部入出力部213(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。
The
モーションセンサ部215は、例えば、3軸の加速度センサなどを備え、主制御部220の指示にしたがって、スマートフォン200の物理的な動きを検出する。スマートフォン200の物理的な動きを検出することにより、スマートフォン200の動く方向や加速度が検出される。係る検出結果は、主制御部220に出力されるものである。
The
電源部216は、主制御部220の指示にしたがって、スマートフォン200の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
The
主制御部220は、マイクロプロセッサを備え、記憶部212が記憶する制御プログラムや制御データにしたがって動作し、スマートフォン200の各部を統括して制御するものである。また、主制御部220は、無線通信部210を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能
を備える。The
アプリケーション処理機能は、記憶部212が記憶するアプリケーションソフトウェアにしたがって主制御部220が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部213を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能などがある。
The application processing function is realized by the
また、主制御部220は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部204に表示する等の画像処理機能を備える。画像処理機能とは、主制御部220が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部204に表示する機能のことをいう。
Further, the
更に、主制御部220は、表示パネル202に対する表示制御と、操作部207、操作パネル203を通じたユーザ操作を検出する操作検出制御を実行する。表示制御の実行により、主制御部220は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、あるいは電子メールを作成したりするためのウィンドウを表示する。なお、スクロールバーとは、表示パネル202の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
Further, the
また、操作検出制御の実行により、主制御部220は、操作部207を通じたユーザ操作を検出したり、操作パネル203を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、あるいは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
In addition, by executing the operation detection control, the
更に、操作検出制御の実行により主制御部220は、操作パネル203に対する操作位置が、表示パネル202に重なる重畳部分(表示領域)か、それ以外の表示パネル202に重ならない外縁部分(非表示領域)かを判定し、操作パネル203の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
Further, by executing the operation detection control, the
また、主制御部220は、操作パネル203に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
The
カメラ部208は、図1に示したデジタルカメラにおける外部メモリ制御部20、記録媒体21、表示制御部22、表示部23、及び操作部14以外の構成を含む。
The
カメラ部208によって生成された撮像画像データは、記憶部212に記録したり、入出力部213や無線通信部210を通じて出力したりすることができる。
The captured image data generated by the
図10に示すスマートフォン200において、カメラ部208は表示入力部204と同じ面に搭載されているが、カメラ部208の搭載位置はこれに限らず、表示入力部204の背面に搭載されてもよい。
In the
また、カメラ部208はスマートフォン200の各種機能に利用することができる。例えば、表示パネル202にカメラ部208で取得した画像を表示することや、操作パネル
203の操作入力のひとつとして、カメラ部208の画像を利用することができる。The
また、GPS受信部214が位置を検出する際に、カメラ部208からの画像を参照して位置を検出することもできる。更には、カメラ部208からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン200のカメラ部208の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部208からの画像をアプリケーションソフトウェア内で利用することもできる。
Further, when the
その他、静止画又は動画の画像データにGPS受信部214により取得した位置情報、マイクロホン206により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部215により取得した姿勢情報等などを付加して記録部212に記録したり、入出力部213や無線通信部210を通じて出力したりすることもできる。
In addition, the position information acquired by the
以上のような構成のスマートフォン200においても、カメラ部208の撮像素子として固体撮像素子5を用い、主制御部220において図6、8に例示した処理を行うことで、連写モードにおける撮像品質を向上させることができる。
Even in the
以上説明してきたように、本明細書には以下の事項が開示されている。 As described above, the following items are disclosed in this specification.
開示された撮像装置は、フォーカスレンズを含む撮像光学系を通して被写体を撮像する撮像素子を有する撮像装置であって、上記撮像素子は、上記撮像光学系の瞳領域の異なる部分を通過した一対の光束の一方に応じた信号を検出する第1の信号検出部と、上記一対の光束の他方に応じた信号を検出する第2の信号検出部とを含み、上記フォーカスレンズを駆動して、主要被写体に合焦させる合焦制御を行う合焦制御部と、上記撮像素子により行われる撮像によって得られる上記第1の信号検出部の検出信号及び上記第2の信号検出部の検出信号の相関演算の結果に基づいて、主要被写体が結像される結像面と上記撮像素子の受光面とが一致する上記フォーカスレンズの位置であるフォーカスレンズ位置を求めるフォーカスレンズ位置生成部と、上記フォーカスレンズ位置生成部によって求められたフォーカスレンズ位置を、主要被写体と上記フォーカスレンズとの距離である被写体距離に換算する被写体距離換算部と、上記被写体距離換算部によって生成された時系列で連続する複数の撮像の各々に対応する上記被写体距離から、上記複数の撮像の最後の撮像の次に行われる撮像における被写体距離を予測する被写体距離予測部と、上記フォーカスレンズ位置生成部によって生成された時系列で連続する複数の撮像の各々に対応する上記フォーカスレンズ位置から、上記複数の撮像の最後の撮像の次に行われる撮像における上記フォーカスレンズ位置を予測するフォーカスレンズ位置予測部と、上記フォーカスレンズ位置生成部によって生成されるフォーカスレンズ位置に対する最大誤差の情報を取得する最大誤差情報取得部と、を備え、上記合焦制御部は、上記最後の撮像の次に行う撮像の前に行う合焦制御として、上記フォーカスレンズ位置生成部によって生成された時系列で連続する複数の撮像の各々に対応する上記フォーカスレンズ位置と上記最大誤差の情報とに基づき、上記レンズ位置予測部によって予測されたフォーカスレンズ位置にしたがって上記フォーカスレンズを駆動する第一の合焦制御と、上記被写体距離予測部によって予測された被写体距離にしたがって上記フォーカスレンズを駆動する第二の合焦制御のいずれかを選択するものである。 The disclosed imaging apparatus is an imaging apparatus having an imaging element that images a subject through an imaging optical system including a focus lens, and the imaging element is a pair of light beams that have passed through different parts of the pupil region of the imaging optical system. A first signal detection unit that detects a signal corresponding to one of the pair of light beams and a second signal detection unit that detects a signal corresponding to the other of the pair of light beams, and drives the focus lens to A focus control unit that performs focusing control to focus on the image, and a correlation calculation between the detection signal of the first signal detection unit and the detection signal of the second signal detection unit obtained by imaging performed by the imaging device Based on the result, a focus lens position generation unit that obtains a focus lens position that is a position of the focus lens where an imaging surface on which a main subject is imaged and a light receiving surface of the image sensor coincide with each other The focus lens position obtained by the focus lens position generation unit is converted into a subject distance that is the distance between the main subject and the focus lens, and the time series generated by the subject distance conversion unit Generated from the subject distance corresponding to each of a plurality of consecutive imagings by a subject distance prediction unit that predicts a subject distance in imaging performed after the last imaging of the plurality of imagings, and the focus lens position generation unit A focus lens position prediction unit that predicts the focus lens position in imaging performed after the last imaging of the plurality of imaging from the focus lens position corresponding to each of a plurality of continuous imaging in time series, and For the focus lens position generated by the focus lens position generator A maximum error information acquisition unit that acquires large error information, and the focus control unit generates the focus control performed by the focus lens position generation unit as a focus control performed after the last imaging. And driving the focus lens according to the focus lens position predicted by the lens position prediction unit based on the focus lens position corresponding to each of a plurality of consecutively taken images in time series and the information on the maximum error. One of the focusing control and the second focusing control for driving the focus lens according to the subject distance predicted by the subject distance prediction unit is selected.
開示された撮像装置は、上記合焦制御部は、上記被写体距離予測部によって予測された上記被写体距離から換算した上記フォーカスレンズ位置に上記最大誤差を加算及び減算して得られる位置を上記被写体距離換算部によって被写体距離に換算し、上記換算した2つの被写体距離の差が閾値を超える場合には上記第一の合焦制御を選択し、上記差が上記閾値以下の場合には上記第二の合焦制御を選択するものである。 In the disclosed imaging apparatus, the focus control unit determines a position obtained by adding and subtracting the maximum error to the focus lens position converted from the subject distance predicted by the subject distance prediction unit. When the difference between the two converted subject distances exceeds a threshold value, the first focusing control is selected. When the difference is equal to or less than the threshold value, the second distance is converted. Focus control is selected.
開示された撮像装置は、上記合焦制御部が、上記フォーカスレンズ位置生成部によって生成された時系列で連続する複数の撮像の各々に対応する上記フォーカスレンズ位置に上記最大誤差を加算して得られる位置から、上記複数の撮像の次に行われる撮像における第一の被写体距離を予測し、上記複数の撮像の各々に対応する上記フォーカスレンズ位置から上記最大誤差を減算して得られる位置から、上記複数の撮像の次に行われる撮像における第二の被写体距離を予測し、上記第一の被写体距離と上記第二の被写体距離の差が閾値を超える場合には上記第一の合焦制御を選択し、上記差が上記閾値以下の場合には上記第二の合焦制御を選択するものである。 In the disclosed imaging device, the focus control unit obtains the maximum error by adding the maximum error to the focus lens position corresponding to each of a plurality of time-series consecutive images generated by the focus lens position generation unit. From the position obtained by subtracting the maximum error from the focus lens position corresponding to each of the plurality of imaging, predicting the first subject distance in the imaging performed after the plurality of imaging, The second subject distance in the imaging performed next to the plurality of imaging is predicted, and the first focusing control is performed when the difference between the first subject distance and the second subject distance exceeds a threshold value. When the difference is less than or equal to the threshold value, the second focus control is selected.
開示された撮像装置は、上記撮像光学系が交換可能であり、上記撮像素子における上記第1の信号検出部又は上記第2の信号検出部の配置間隔の情報を記憶する記憶部と、装着された上記撮像光学系のF値の情報を取得するF値取得部と、を備え、上記最大誤差情報取得部は、上記記憶部に記憶されている上記配置間隔の情報と上記F値取得部によって取得されたF値の情報とから上記最大誤差を算出することで上記最大誤差の情報を取得するものである。 The disclosed image pickup apparatus is mounted with a storage unit that can exchange the image pickup optical system, and stores information on an arrangement interval of the first signal detection unit or the second signal detection unit in the image pickup device. An F value acquisition unit that acquires information on the F value of the imaging optical system, and the maximum error information acquisition unit is configured by the arrangement interval information stored in the storage unit and the F value acquisition unit. The maximum error information is acquired by calculating the maximum error from the acquired F value information.
開示された合焦制御方法は、フォーカスレンズを含む撮像光学系を通して被写体を撮像する撮像素子を有する撮像装置における合焦制御方法であって、上記撮像素子は、上記撮像光学系の瞳領域の異なる部分を通過した一対の光束の一方に応じた信号を検出する第1の信号検出部と、上記一対の光束の他方に応じた信号を検出する第2の信号検出部とを含み、上記撮像素子により行われる撮像によって得られる上記第1の信号検出部の検出信号及び上記第2の信号検出部の検出信号の相関演算の結果に基づいて、主要被写体が結像される結像面と上記撮像素子の受光面とが一致する上記フォーカスレンズの位置であるフォーカスレンズ位置を求めるフォーカスレンズ位置生成ステップと、上記フォーカスレンズ位置生成ステップで求めたフォーカスレンズ位置を、主要被写体と上記フォーカスレンズとの距離である被写体距離に換算する被写体距離換算ステップと、上記被写体距離換算ステップで生成した時系列で連続する複数の撮像の各々に対応する上記被写体距離から、上記複数の撮像の最後の撮像の次に行われる撮像における被写体距離を予測する被写体距離予測ステップと、上記フォーカスレンズ位置生成ステップで生成した時系列で連続する複数の撮像の各々に対応する上記フォーカスレンズ位置から、上記複数の撮像の最後の撮像の次に行われる撮像における上記フォーカスレンズ位置を予測するフォーカスレンズ位置予測ステップと、上記フォーカスレンズ位置生成ステップで生成されるフォーカスレンズ位置に対する最大誤差の情報を取得する最大誤差情報取得ステップと、上記最後の撮像の次に行われる撮像のために行う合焦制御として、上記フォーカスレンズ位置生成ステップで生成した時系列で連続する複数の撮像の各々に対応する上記フォーカスレンズ位置と上記最大誤差の情報とに基づき、上記フォーカスレンズ位置予測ステップで予測したフォーカスレンズ位置にしたがって上記フォーカスレンズを駆動する第一の合焦制御と、上記被写体距離予測ステップで予測した被写体距離にしたがって上記フォーカスレンズを駆動する第二の合焦制御のいずれかを選択し、選択した合焦制御をその撮像前に実行する合焦制御ステップと、を備えるものである。 The disclosed focus control method is a focus control method in an image pickup apparatus having an image pickup device that picks up an image of a subject through an image pickup optical system including a focus lens, and the image pickup device has different pupil regions of the image pickup optical system. A first signal detection unit that detects a signal corresponding to one of the pair of light beams that has passed through the portion; and a second signal detection unit that detects a signal corresponding to the other of the pair of light beams. Based on the result of the correlation calculation of the detection signal of the first signal detection unit and the detection signal of the second signal detection unit obtained by the imaging performed by the imaging, the imaging plane on which the main subject is imaged and the imaging A focus lens position generation step for obtaining a focus lens position, which is the position of the focus lens that matches the light receiving surface of the element, and a focus lens position obtained in the focus lens position generation step. The subject distance conversion step for converting the sagged lens position into a subject distance that is the distance between the main subject and the focus lens, and the subject distance corresponding to each of a plurality of continuous imagings generated in the subject distance conversion step To a subject distance prediction step for predicting a subject distance in an imaging performed after the last imaging of the plurality of imaging, and a plurality of time-sequential imagings generated in the focus lens position generation step. A focus lens position predicting step for predicting the focus lens position in the imaging performed after the last imaging of the plurality of imaging from the focus lens position, and a maximum for the focus lens position generated in the focus lens position generating step Maximum error information acquisition process for acquiring error information And the focus lens position corresponding to each of a plurality of time-sequentially generated images generated in the focus lens position generation step as focusing control performed for the image capturing performed after the last image capturing. Based on the information on the maximum error, the first focus control for driving the focus lens according to the focus lens position predicted at the focus lens position prediction step, and the subject distance predicted at the subject distance prediction step. A focus control step of selecting any one of the second focus controls for driving the focus lens and executing the selected focus control before the imaging.
本発明は、特にデジタルカメラ、スマートフォン等に適用して利便性が高く、有効である。 The present invention is particularly convenient and effective when applied to digital cameras, smartphones, and the like.
1 撮像レンズ
2 絞り
5 固体撮像素子
11 システム制御部
19 位相差AF処理部
52A,52B 位相差検出用画素DESCRIPTION OF
Claims (5)
前記撮像素子は、前記撮像光学系の瞳領域の異なる部分を通過した一対の光束の一方に応じた信号を検出する第1の信号検出部と、前記一対の光束の他方に応じた信号を検出する第2の信号検出部とを含み、
前記フォーカスレンズを駆動して、主要被写体に合焦させる合焦制御を行う合焦制御部と、
前記撮像素子により行われる撮像によって得られる前記第1の信号検出部の検出信号及び前記第2の信号検出部の検出信号の相関演算の結果に基づいて、主要被写体が結像される結像面と前記撮像素子の受光面とが一致する前記フォーカスレンズの位置であるフォーカスレンズ位置を求めるフォーカスレンズ位置生成部と、
前記フォーカスレンズ位置生成部によって求められたフォーカスレンズ位置を、主要被写体と前記フォーカスレンズとの距離である被写体距離に換算する被写体距離換算部と、
前記被写体距離換算部によって生成された時系列で連続する複数の撮像の各々に対応する前記被写体距離から、前記複数の撮像の最後の撮像の次に行われる撮像における被写体距離を予測する被写体距離予測部と、
前記フォーカスレンズ位置生成部によって生成された時系列で連続する複数の撮像の各々に対応する前記フォーカスレンズ位置から、前記複数の撮像の最後の撮像の次に行われる撮像における前記フォーカスレンズ位置を予測するフォーカスレンズ位置予測部と、
前記フォーカスレンズ位置生成部によって生成されるフォーカスレンズ位置に対する最大誤差の情報を取得する最大誤差情報取得部と、を備え、
前記合焦制御部は、前記被写体距離予測部によって予測された前記被写体距離から換算した前記フォーカスレンズ位置に前記最大誤差を加算及び減算して得られる位置をそれぞれ前記被写体距離換算部によって被写体距離に換算し、前記換算した2つの被写体距離の差が閾値を超える場合には、前記最後の撮像の次に行う撮像の前に行う合焦制御として第一の合焦制御を選択し、前記差が前記閾値以下の場合には前記最後の撮像の次に行う撮像の前に行う合焦制御として第二の合焦制御を選択し、
前記第一の合焦制御は、前記フォーカスレンズ位置予測部によって予測されたフォーカスレンズ位置にしたがって前記フォーカスレンズを駆動する制御であり、
前記第二の合焦制御は、前記被写体距離予測部によって予測された被写体距離にしたがって前記フォーカスレンズを駆動する制御である撮像装置。 An imaging apparatus having an imaging element that images a subject through an imaging optical system including a focus lens,
The image pickup device detects a signal corresponding to one of a pair of light beams that has passed through different parts of the pupil region of the image pickup optical system, and a signal corresponding to the other of the pair of light beams. A second signal detector that
A focus control unit that performs focus control to drive the focus lens to focus on a main subject;
An imaging plane on which a main subject is imaged based on a correlation calculation result of the detection signal of the first signal detection unit and the detection signal of the second signal detection unit obtained by imaging performed by the imaging device A focus lens position generation unit for obtaining a focus lens position that is a position of the focus lens at which a light receiving surface of the image sensor coincides with
A subject distance conversion unit that converts the focus lens position obtained by the focus lens position generation unit into a subject distance that is a distance between a main subject and the focus lens;
Subject distance prediction for predicting a subject distance in imaging performed next to the last imaging of the plurality of imaging from the subject distance corresponding to each of a plurality of continuous imagings generated in time series generated by the subject distance conversion unit And
Predicting the focus lens position in the imaging performed next to the last imaging of the plurality of imaging from the focus lens position corresponding to each of the plurality of time-sequential imagings generated by the focus lens position generation unit A focus lens position prediction unit to
A maximum error information acquisition unit that acquires information on the maximum error for the focus lens position generated by the focus lens position generation unit, and
The focus control unit converts the position obtained by adding and subtracting the maximum error from the focus lens position converted from the subject distance predicted by the subject distance prediction unit to the subject distance by the subject distance conversion unit, respectively. If the difference between the two converted subject distances exceeds a threshold value, the first focus control is selected as the focus control performed before the imaging performed after the last imaging, and the difference is When the threshold value is less than or equal to the threshold value, the second focus control is selected as the focus control performed before the imaging performed after the last imaging,
The first focusing control is a control for driving the focus lens according to the focus lens position predicted by the focus lens position prediction unit;
The second focusing control is an imaging apparatus which is a control for driving the focus lens in accordance with the subject distance predicted by the subject distance prediction unit .
前記撮像素子は、前記撮像光学系の瞳領域の異なる部分を通過した一対の光束の一方に応じた信号を検出する第1の信号検出部と、前記一対の光束の他方に応じた信号を検出する第2の信号検出部とを含み、
前記フォーカスレンズを駆動して、主要被写体に合焦させる合焦制御を行う合焦制御部と、
前記撮像素子により行われる撮像によって得られる前記第1の信号検出部の検出信号及び前記第2の信号検出部の検出信号の相関演算の結果に基づいて、主要被写体が結像される結像面と前記撮像素子の受光面とが一致する前記フォーカスレンズの位置であるフォーカスレンズ位置を求めるフォーカスレンズ位置生成部と、
前記フォーカスレンズ位置生成部によって求められたフォーカスレンズ位置を、主要被写体と前記フォーカスレンズとの距離である被写体距離に換算する被写体距離換算部と、
前記被写体距離換算部によって生成された時系列で連続する複数の撮像の各々に対応する前記被写体距離から、前記複数の撮像の最後の撮像の次に行われる撮像における被写体距離を予測する被写体距離予測部と、
前記フォーカスレンズ位置生成部によって生成された時系列で連続する複数の撮像の各々に対応する前記フォーカスレンズ位置から、前記複数の撮像の最後の撮像の次に行われる撮像における前記フォーカスレンズ位置を予測するフォーカスレンズ位置予測部と、
前記フォーカスレンズ位置生成部によって生成されるフォーカスレンズ位置に対する最大誤差の情報を取得する最大誤差情報取得部と、を備え、
前記合焦制御部は、前記フォーカスレンズ位置生成部によって生成された時系列で連続する複数の撮像の各々に対応する前記フォーカスレンズ位置に前記最大誤差を加算して得られる位置から、前記複数の撮像の次に行われる撮像における第一の被写体距離を予測し、前記複数の撮像の各々に対応する前記フォーカスレンズ位置から前記最大誤差を減算して得られる位置から、前記複数の撮像の次に行われる撮像における第二の被写体距離を予測し、前記第一の被写体距離と前記第二の被写体距離の差が閾値を超える場合には、前記最後の撮像の次に行う撮像の前に行う合焦制御として第一の合焦制御を選択し、前記差が前記閾値以下の場合には第二の合焦制御を選択し、
前記第一の合焦制御は、前記フォーカスレンズ位置予測部によって予測されたフォーカスレンズ位置にしたがって前記フォーカスレンズを駆動する制御であり、
前記第二の合焦制御は、前記被写体距離予測部によって予測された被写体距離にしたがって前記フォーカスレンズを駆動する制御である撮像装置。 An imaging apparatus having an imaging element that images a subject through an imaging optical system including a focus lens,
The image pickup device detects a signal corresponding to one of a pair of light beams that has passed through different parts of the pupil region of the image pickup optical system, and a signal corresponding to the other of the pair of light beams. A second signal detector that
A focus control unit that performs focus control to drive the focus lens to focus on a main subject;
An imaging plane on which a main subject is imaged based on a correlation calculation result of the detection signal of the first signal detection unit and the detection signal of the second signal detection unit obtained by imaging performed by the imaging device A focus lens position generation unit for obtaining a focus lens position that is a position of the focus lens at which a light receiving surface of the image sensor coincides with
A subject distance conversion unit that converts the focus lens position obtained by the focus lens position generation unit into a subject distance that is a distance between a main subject and the focus lens;
Subject distance prediction for predicting a subject distance in imaging performed next to the last imaging of the plurality of imaging from the subject distance corresponding to each of a plurality of continuous imagings generated in time series generated by the subject distance conversion unit And
Predicting the focus lens position in the imaging performed next to the last imaging of the plurality of imaging from the focus lens position corresponding to each of the plurality of time-sequential imagings generated by the focus lens position generation unit A focus lens position prediction unit to
A maximum error information acquisition unit that acquires information on the maximum error for the focus lens position generated by the focus lens position generation unit, and
The focusing control unit is configured to add the plurality of maximum errors to the focus lens position corresponding to each of a plurality of time-series consecutive images generated by the focus lens position generation unit, and Predicting the first subject distance in imaging performed after imaging, and subtracting the maximum error from the focus lens position corresponding to each of the plurality of imaging, next to the plurality of imaging When the second subject distance in the imaging to be performed is predicted, and the difference between the first subject distance and the second subject distance exceeds a threshold value, Select the first focus control as the focus control, if the difference is less than or equal to the threshold, select the second focus control,
The first focusing control is a control for driving the focus lens according to the focus lens position predicted by the focus lens position prediction unit;
The second focusing control is an imaging apparatus which is a control for driving the focus lens in accordance with the subject distance predicted by the subject distance prediction unit .
前記撮像光学系が交換可能であり、
前記撮像素子における前記第1の信号検出部又は前記第2の信号検出部の配置間隔の情報を記憶する記憶部と、
装着された前記撮像光学系のF値の情報を取得するF値取得部と、を備え、
前記最大誤差情報取得部は、前記記憶部に記憶されている前記配置間隔の情報と前記F値取得部によって取得されたF値の情報とから前記最大誤差を算出することで前記最大誤差の情報を取得する撮像装置。 The imaging apparatus according to claim 1 or 2 ,
The imaging optical system is replaceable;
A storage unit for storing information on an arrangement interval of the first signal detection unit or the second signal detection unit in the imaging device;
An F value acquisition unit that acquires information on the F value of the mounted imaging optical system,
The maximum error information acquisition unit calculates the maximum error from the arrangement interval information stored in the storage unit and the F value information acquired by the F value acquisition unit, thereby calculating the maximum error information. An imaging device that acquires
前記撮像素子は、前記撮像光学系の瞳領域の異なる部分を通過した一対の光束の一方に応じた信号を検出する第1の信号検出部と、前記一対の光束の他方に応じた信号を検出する第2の信号検出部とを含み、
前記フォーカスレンズを駆動して、主要被写体に合焦させる合焦制御を行う合焦制御ステップと、
前記撮像素子により行われる撮像によって得られる前記第1の信号検出部の検出信号及び前記第2の信号検出部の検出信号の相関演算の結果に基づいて、主要被写体が結像される結像面と前記撮像素子の受光面とが一致する前記フォーカスレンズの位置であるフォーカスレンズ位置を求めるフォーカスレンズ位置生成ステップと、
前記フォーカスレンズ位置生成ステップで求めたフォーカスレンズ位置を、主要被写体と前記フォーカスレンズとの距離である被写体距離に換算する被写体距離換算ステップと、
前記被写体距離換算ステップで生成した時系列で連続する複数の撮像の各々に対応する前記被写体距離から、前記複数の撮像の最後の撮像の次に行われる撮像における被写体距離を予測する被写体距離予測ステップと、
前記フォーカスレンズ位置生成ステップで生成した時系列で連続する複数の撮像の各々に対応する前記フォーカスレンズ位置から、前記複数の撮像の最後の撮像の次に行われる撮像における前記フォーカスレンズ位置を予測するフォーカスレンズ位置予測ステップと、
前記フォーカスレンズ位置生成ステップで生成されるフォーカスレンズ位置に対する最大誤差の情報を取得する最大誤差情報取得ステップと、を備え、
前記合焦制御ステップでは、前記被写体距離予測ステップによって予測された前記被写体距離から換算した前記フォーカスレンズ位置に前記最大誤差を加算及び減算して得られる位置をそれぞれ前記被写体距離換算ステップによって被写体距離に換算し、前記換算した2つの被写体距離の差が閾値を超える場合には、前記最後の撮像の次に行う撮像の前に行う合焦制御として第一の合焦制御を選択し、前記差が前記閾値以下の場合には前記最後の撮像の次に行う撮像の前に行う合焦制御として第二の合焦制御を選択し、
前記第一の合焦制御は、前記フォーカスレンズ位置予測ステップによって予測されたフォーカスレンズ位置にしたがって前記フォーカスレンズを駆動する制御であり、
前記第二の合焦制御は、前記被写体距離予測ステップによって予測された被写体距離にしたがって前記フォーカスレンズを駆動する制御である合焦制御方法。 A focusing control method in an imaging apparatus having an imaging element that images a subject through an imaging optical system including a focus lens,
The image pickup device detects a signal corresponding to one of a pair of light beams that has passed through different parts of the pupil region of the image pickup optical system, and a signal corresponding to the other of the pair of light beams. A second signal detector that
A focus control step for driving the focus lens to perform focus control to focus on the main subject;
An imaging plane on which a main subject is imaged based on a correlation calculation result of the detection signal of the first signal detection unit and the detection signal of the second signal detection unit obtained by imaging performed by the imaging device A focus lens position generation step for obtaining a focus lens position that is a position of the focus lens at which a light receiving surface of the imaging element coincides,
A subject distance conversion step of converting the focus lens position obtained in the focus lens position generation step into a subject distance that is a distance between a main subject and the focus lens;
A subject distance prediction step for predicting a subject distance in an imaging performed after the last imaging of the plurality of imaging from the subject distance corresponding to each of a plurality of time-sequential imagings generated in the subject distance conversion step; When,
Predicting the focus lens position in the imaging performed next to the last imaging of the plurality of imaging from the focus lens position corresponding to each of the plurality of time-sequential imagings generated in the focus lens position generation step A focus lens position prediction step;
A maximum error information acquisition step for acquiring information on a maximum error with respect to the focus lens position generated in the focus lens position generation step ,
In the focus control step, a position obtained by adding and subtracting the maximum error to the focus lens position converted from the subject distance predicted in the subject distance prediction step is set as a subject distance by the subject distance conversion step, respectively. If the difference between the two converted subject distances exceeds a threshold value, the first focus control is selected as the focus control performed before the imaging performed after the last imaging, and the difference is When the threshold value is less than or equal to the threshold value, the second focus control is selected as the focus control performed before the imaging performed after the last imaging,
The first focusing control is a control for driving the focus lens according to the focus lens position predicted by the focus lens position prediction step;
The second focus control is a focus control method in which the focus lens is driven according to the subject distance predicted by the subject distance prediction step .
前記撮像素子は、前記撮像光学系の瞳領域の異なる部分を通過した一対の光束の一方に応じた信号を検出する第1の信号検出部と、前記一対の光束の他方に応じた信号を検出する第2の信号検出部とを含み、
前記フォーカスレンズを駆動して、主要被写体に合焦させる合焦制御を行う合焦制御ステップと、
前記撮像素子により行われる撮像によって得られる前記第1の信号検出部の検出信号及び前記第2の信号検出部の検出信号の相関演算の結果に基づいて、主要被写体が結像される結像面と前記撮像素子の受光面とが一致する前記フォーカスレンズの位置であるフォーカスレンズ位置を求めるフォーカスレンズ位置生成ステップと、
前記フォーカスレンズ位置生成ステップで求めたフォーカスレンズ位置を、主要被写体と前記フォーカスレンズとの距離である被写体距離に換算する被写体距離換算ステップと、
前記被写体距離換算ステップで生成した時系列で連続する複数の撮像の各々に対応する前記被写体距離から、前記複数の撮像の最後の撮像の次に行われる撮像における被写体距離を予測する被写体距離予測ステップと、
前記フォーカスレンズ位置生成ステップで生成した時系列で連続する複数の撮像の各々に対応する前記フォーカスレンズ位置から、前記複数の撮像の最後の撮像の次に行われる撮像における前記フォーカスレンズ位置を予測するフォーカスレンズ位置予測ステップと、
前記フォーカスレンズ位置生成ステップで生成されるフォーカスレンズ位置に対する最大誤差の情報を取得する最大誤差情報取得ステップと、を備え、
前記合焦制御ステップでは、前記フォーカスレンズ位置生成ステップによって生成された時系列で連続する複数の撮像の各々に対応する前記フォーカスレンズ位置に前記最大誤差を加算して得られる位置から、前記複数の撮像の次に行われる撮像における第一の被写体距離を予測し、前記複数の撮像の各々に対応する前記フォーカスレンズ位置から前記最大誤差を減算して得られる位置から、前記複数の撮像の次に行われる撮像における第二の被写体距離を予測し、前記第一の被写体距離と前記第二の被写体距離の差が閾値を超える場合には、前記最後の撮像の次に行う撮像の前に行う合焦制御として第一の合焦制御を選択し、前記差が前記閾値以下の場合には第二の合焦制御を選択し、
前記第一の合焦制御は、前記フォーカスレンズ位置予測ステップによって予測されたフォーカスレンズ位置にしたがって前記フォーカスレンズを駆動する制御であり、
前記第二の合焦制御は、前記被写体距離予測ステップによって予測された被写体距離にしたがって前記フォーカスレンズを駆動する制御である合焦制御方法。 A focusing control method in an imaging apparatus having an imaging element that images a subject through an imaging optical system including a focus lens,
The image pickup device detects a signal corresponding to one of a pair of light beams that has passed through different parts of the pupil region of the image pickup optical system, and a signal corresponding to the other of the pair of light beams. A second signal detector that
A focus control step for driving the focus lens to perform focus control to focus on the main subject;
An imaging plane on which a main subject is imaged based on a correlation calculation result of the detection signal of the first signal detection unit and the detection signal of the second signal detection unit obtained by imaging performed by the imaging device A focus lens position generation step for obtaining a focus lens position that is a position of the focus lens at which a light receiving surface of the imaging element coincides,
A subject distance conversion step of converting the focus lens position obtained in the focus lens position generation step into a subject distance that is a distance between a main subject and the focus lens;
A subject distance prediction step for predicting a subject distance in an imaging performed after the last imaging of the plurality of imaging from the subject distance corresponding to each of a plurality of time-sequential imagings generated in the subject distance conversion step; When,
Predicting the focus lens position in the imaging performed next to the last imaging of the plurality of imaging from the focus lens position corresponding to each of the plurality of time-sequential imagings generated in the focus lens position generation step A focus lens position prediction step;
A maximum error information acquisition step for acquiring information on a maximum error with respect to the focus lens position generated in the focus lens position generation step ,
In the focus control step, from the position obtained by adding the maximum error to the focus lens position corresponding to each of a plurality of time-series consecutive images generated by the focus lens position generation step, Predicting the first subject distance in imaging performed after imaging, and subtracting the maximum error from the focus lens position corresponding to each of the plurality of imaging, next to the plurality of imaging When the second subject distance in the imaging to be performed is predicted, and the difference between the first subject distance and the second subject distance exceeds a threshold value, Select the first focus control as the focus control, if the difference is less than or equal to the threshold, select the second focus control,
The first focusing control is a control for driving the focus lens according to the focus lens position predicted by the focus lens position prediction step;
The second focus control is a focus control method in which the focus lens is driven according to the subject distance predicted by the subject distance prediction step .
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013201253 | 2013-09-27 | ||
JP2013201253 | 2013-09-27 | ||
PCT/JP2014/071744 WO2015045683A1 (en) | 2013-09-27 | 2014-08-20 | Imaging device and focusing control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5942043B2 true JP5942043B2 (en) | 2016-06-29 |
JPWO2015045683A1 JPWO2015045683A1 (en) | 2017-03-09 |
Family
ID=52742837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015539018A Active JP5942043B2 (en) | 2013-09-27 | 2014-08-20 | Imaging apparatus and focus control method |
Country Status (4)
Country | Link |
---|---|
US (1) | US9854151B2 (en) |
JP (1) | JP5942043B2 (en) |
CN (1) | CN105593736B (en) |
WO (1) | WO2015045683A1 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6664177B2 (en) * | 2015-09-28 | 2020-03-13 | キヤノン株式会社 | Focus detection device, prediction method, program, and storage medium |
JP6582153B2 (en) * | 2017-03-15 | 2019-09-25 | 富士フイルム株式会社 | Imaging apparatus, imaging method, and imaging program |
WO2019194922A1 (en) | 2018-04-02 | 2019-10-10 | Senko Advanced Components, Inc | Hybrid ingress protected connector and adapter assembly |
US10948664B2 (en) | 2018-05-08 | 2021-03-16 | Senko Advanced Components, Inc. | Ingress protected optical fiber connector having a reduced diameter with a removable retaining nut |
US11092756B2 (en) | 2018-10-10 | 2021-08-17 | Senko Advanced Components, Inc. | Ingress protected connector with an unitary orientation feature |
WO2020077313A1 (en) | 2018-10-11 | 2020-04-16 | Senko Advanced Components, Inc | Outdoor rated assembly configured to blind mate opposing fiber optic connectors therein with a safety spring assembly |
US11307359B2 (en) | 2019-02-07 | 2022-04-19 | Senko Advanced Components, Inc. | Ingress protected, outdoor rated connector with integrated optical connector plug frame |
US11906795B2 (en) | 2019-06-19 | 2024-02-20 | Senko Advanced Components, Inc. | Fiber optic connector assembly with crimp tube subassembly and method of use |
WO2021026482A1 (en) | 2019-08-08 | 2021-02-11 | Senko Advanced Components, Inc | Push pull mechanism for an outdoor rated connector assembly |
WO2021244550A1 (en) * | 2020-06-01 | 2021-12-09 | 王浩 | Automatic focusing apparatus and focusing method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001021794A (en) * | 1999-07-12 | 2001-01-26 | Canon Inc | Auto-focusing adjusting device, and optical instrument |
JP2009092747A (en) * | 2007-10-04 | 2009-04-30 | Sony Corp | Imaging device and method |
JP2009128614A (en) * | 2007-11-22 | 2009-06-11 | Olympus Imaging Corp | Camera and automatic focusing device for camera |
JP2011247979A (en) * | 2010-05-25 | 2011-12-08 | Fujifilm Corp | Photographic apparatus and shooting distance acquiring method |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100390596C (en) * | 2003-12-09 | 2008-05-28 | 松下电器产业株式会社 | Lens driver, imaging device, lens barrel used in the imaging device, and camera body |
JP2008009340A (en) * | 2006-06-30 | 2008-01-17 | Sony Corp | Autofocus device and method, and imaging apparatus |
JP2008009341A (en) * | 2006-06-30 | 2008-01-17 | Sony Corp | Autofocus device and method, and imaging apparatus |
JP5676988B2 (en) * | 2010-09-14 | 2015-02-25 | キヤノン株式会社 | Focus adjustment device |
JP6032879B2 (en) * | 2011-10-03 | 2016-11-30 | キヤノン株式会社 | Imaging information output device and lens device having the same |
WO2013094784A1 (en) * | 2011-12-20 | 2013-06-27 | (주)태극기전 | Method for automatically controlling focal point of digital optical device |
-
2014
- 2014-08-20 JP JP2015539018A patent/JP5942043B2/en active Active
- 2014-08-20 CN CN201480053409.8A patent/CN105593736B/en active Active
- 2014-08-20 WO PCT/JP2014/071744 patent/WO2015045683A1/en active Application Filing
-
2016
- 2016-03-25 US US15/080,903 patent/US9854151B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001021794A (en) * | 1999-07-12 | 2001-01-26 | Canon Inc | Auto-focusing adjusting device, and optical instrument |
JP2009092747A (en) * | 2007-10-04 | 2009-04-30 | Sony Corp | Imaging device and method |
JP2009128614A (en) * | 2007-11-22 | 2009-06-11 | Olympus Imaging Corp | Camera and automatic focusing device for camera |
JP2011247979A (en) * | 2010-05-25 | 2011-12-08 | Fujifilm Corp | Photographic apparatus and shooting distance acquiring method |
Also Published As
Publication number | Publication date |
---|---|
JPWO2015045683A1 (en) | 2017-03-09 |
CN105593736B (en) | 2017-12-05 |
WO2015045683A1 (en) | 2015-04-02 |
CN105593736A (en) | 2016-05-18 |
US9854151B2 (en) | 2017-12-26 |
US20160212324A1 (en) | 2016-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5942043B2 (en) | Imaging apparatus and focus control method | |
JP5948492B2 (en) | Imaging apparatus and focus control method | |
JP5799178B2 (en) | Imaging apparatus and focus control method | |
JP5750550B2 (en) | Imaging apparatus and focus control method | |
JP6307526B2 (en) | Imaging apparatus and focus control method | |
JP5872122B2 (en) | Imaging apparatus and focus control method | |
JP6251851B2 (en) | Focus control device, focus control method, focus control program, lens device, imaging device | |
JP5978411B2 (en) | Imaging apparatus and focus control method | |
JP6028112B2 (en) | Imaging apparatus and focus control method | |
WO2014080673A1 (en) | Imaging device and exposure determination method | |
JP6364560B2 (en) | Focus control device, imaging device, focus control method, and focus control program | |
WO2015141081A1 (en) | Imaging device and focus control method | |
JP5990665B2 (en) | Imaging apparatus and focus control method | |
JP6186498B2 (en) | Imaging apparatus and focus control method | |
WO2016038934A1 (en) | Image pickup device and focus control method | |
JP5978415B2 (en) | Imaging apparatus and focus control method | |
JP6236580B2 (en) | Focus control device, focus control method, focus control program, lens device, imaging device | |
WO2013145887A1 (en) | Imaging device and imaging method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20160414 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160426 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160523 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5942043 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |