JP6659100B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP6659100B2
JP6659100B2 JP2015156245A JP2015156245A JP6659100B2 JP 6659100 B2 JP6659100 B2 JP 6659100B2 JP 2015156245 A JP2015156245 A JP 2015156245A JP 2015156245 A JP2015156245 A JP 2015156245A JP 6659100 B2 JP6659100 B2 JP 6659100B2
Authority
JP
Japan
Prior art keywords
focus
lens
detecting
output
focus lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015156245A
Other languages
Japanese (ja)
Other versions
JP2017037103A (en
Inventor
木村 正史
正史 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015156245A priority Critical patent/JP6659100B2/en
Publication of JP2017037103A publication Critical patent/JP2017037103A/en
Application granted granted Critical
Publication of JP6659100B2 publication Critical patent/JP6659100B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像素子からの信号に基づいてフォーカスレンズの位置制御を行う撮像装置に関するものである。   The present invention relates to an imaging device that performs position control of a focus lens based on a signal from an imaging device.

近年、撮像素子の高機能化が進展しており、撮像素子でいわゆる位相差AF信号を検知可能なシステムが提案されている。従来より、撮像面での情報を焦点検出に活用する提案はなされており、特許文献1ではピント状態をフィードバックして光学系の調整(ピント調整)を行う提案がなされている。   2. Description of the Related Art In recent years, advanced functions of an image sensor have been developed, and systems capable of detecting a so-called phase difference AF signal with the image sensor have been proposed. Conventionally, proposals have been made to utilize information on an imaging surface for focus detection, and Patent Literature 1 proposes to adjust an optical system (focus adjustment) by feeding back a focus state.

一方で、光学系のズーム状態の変化に応じて光学系の調整を行う提案がなされている。特許文献2では光学系のズーム状態の変化に応じてフォーカスレンズを駆動することでピント状態を維持する提案がなされている。   On the other hand, proposals have been made to adjust the optical system according to changes in the zoom state of the optical system. Patent Literature 2 proposes maintaining a focused state by driving a focus lens according to a change in a zoom state of an optical system.

特開昭55−40447号公報JP-A-55-40447 特開昭52−114321号公報JP-A-52-114321

しかしながら、特許文献1においては、フィールドで使用する場合に、例えば位相差検出の2像の一致度が低下する、輝度飽和が急に発生するなどのエラーが発生した場合の処理について記されていないため、システムが不安定になりやすいという課題がある。   However, Patent Literature 1 does not describe a process when an error such as a decrease in coincidence between two images in phase difference detection or a sudden occurrence of luminance saturation occurs in a case where the image is used in a field. Therefore, there is a problem that the system is likely to be unstable.

また、特許文献2においては、像の焦点状態を検出せずに、ズーム状態の変化に応じてフォーカスレンズを駆動するため、レンズの位置決めに誤差が累積しやすいという課題がある。   Further, in Patent Literature 2, since the focus lens is driven according to a change in the zoom state without detecting the focus state of the image, there is a problem that errors are likely to be accumulated in the positioning of the lens.

本発明は上述した課題に鑑みてなされたものであり、その目的は、焦点検出のための信号にエラーが生じた場合でも、フォーカスレンズの位置制御を安定して行うことが可能な撮像装置を提供することである。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide an imaging apparatus capable of stably performing position control of a focus lens even when an error occurs in a signal for focus detection. To provide.

本発明に係わる撮像装置は、撮影光学系の焦点状態を検出する焦点検出手段と、前記撮影光学系のズーム位置を検知するズーム位置検知手段と、前記撮影光学系のフォーカスレンズの位置を検知するフォーカス位置検知手段と、前記撮影光学系のフォーカスレンズの位置を調整する調整手段と、前記ズーム位置の変化に応じて、同じ距離の被写体に対して焦点を合わせ続けるための前記フォーカスレンズの軌跡を記憶する記憶手段と、前記焦点検出手段の出力の信頼性を判定する判定手段と、前記焦点検出手段の出力に基づいて、前記ズーム位置の変化に応じた前記フォーカスレンズの位置の制御を行う第1の動作と、前記記憶手段に記憶されている前記フォーカスレンズの軌跡の情報に基づいて、前記ズーム位置の変化に応じた前記フォーカスレンズの位置の制御を行う第2の動作とを、前記判定手段の判定に応じて切り替える制御手段と、を備え、前記制御手段は、前記判定手段が前記焦点検出手段の出力に信頼性があると判定した場合に、前記第1の動作を行い、前記判定手段が前記焦点検出手段の出力に信頼性がないと判定した場合に、前記第2の動作を行い、前記第2の動作を行う場合に、前記判定手段が前記焦点検出手段の出力に信頼性がないと判定したタイミングよりも前に前記焦点検出手段により検出された複数の焦点状態の検出結果に基づいて被写体の位置を推定し、推定した被写体の位置と前記記憶手段に記憶されている前記フォーカスレンズの軌跡の情報とに基づいて、前記フォーカスレンズの位置の制御を行うことを特徴とする。 An imaging apparatus according to the present invention includes a focus detection unit that detects a focus state of a photographic optical system, a zoom position detection unit that detects a zoom position of the photographic optical system, and a position of a focus lens of the photographic optical system. Focus position detecting means, adjusting means for adjusting the position of the focus lens of the photographing optical system, and trajectory of the focus lens for keeping focusing on an object at the same distance according to the change of the zoom position. A storage unit for storing, a determination unit for determining the reliability of the output of the focus detection unit, and a control for controlling the position of the focus lens according to the change in the zoom position based on the output of the focus detection unit. 1 and the focus corresponding to a change in the zoom position based on the information on the trajectory of the focus lens stored in the storage means. A second operation for controlling the position of Surenzu, and a control means for switching in response to determination of said determination means, said control means, said determining means is reliable in the output of the focus detection unit When the determination is made, the first operation is performed. When the determination unit determines that the output of the focus detection unit is not reliable, the second operation is performed and the second operation is performed. In this case, the position of the subject is estimated based on a plurality of focus state detection results detected by the focus detection unit before the timing at which the determination unit determines that the output of the focus detection unit is unreliable. And controlling the position of the focus lens on the basis of the estimated position of the subject and the information of the trajectory of the focus lens stored in the storage means .

本発明によれば、焦点検出のための信号にエラーが生じた場合でも、フォーカスレンズの位置制御を安定して行うことが可能な撮像装置を提供することができる。   According to the present invention, it is possible to provide an imaging apparatus capable of stably controlling the position of a focus lens even when an error occurs in a signal for focus detection.

本発明の撮像装置の一実施形態であるカメラシステムの構成を示す図。FIG. 1 is a diagram illustrating a configuration of a camera system that is an embodiment of an imaging device of the present invention. 一実施形態の撮像装置の要部を示すブロック図。FIG. 1 is a block diagram illustrating a main part of an imaging device according to an embodiment. 基本的なズームトラッキング動作を説明する図。FIG. 3 is a diagram illustrating a basic zoom tracking operation. エラーが発生した場合のズームトラッキング動作を説明する図。FIG. 7 is a diagram illustrating a zoom tracking operation when an error occurs. 別のズームトラッキング動作を説明する図。The figure explaining another zoom tracking operation | movement. ピント検知部について説明する図。FIG. 3 is a diagram illustrating a focus detection unit. ピント検知のエラーが発生しやすい場面を説明する図。FIG. 4 is a diagram illustrating a scene in which an error in focus detection is likely to occur.

以下、本発明の一実施形態について、添付図面を参照して詳細に説明する。図1は、本発明の撮像装置の一実施形態であるカメラシステムの構成を示す図であり、図1(a)は中央断面図、図1(b)は電気的構成を示すブロック図である。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 is a diagram showing a configuration of a camera system which is an embodiment of the imaging apparatus of the present invention. FIG. 1 (a) is a central sectional view, and FIG. 1 (b) is a block diagram showing an electrical configuration. .

図1(a)において、カメラシステム100は、カメラ本体1と、カメラ本体1に着脱自在に装着されるレンズユニット2を備えて構成されている。カメラ本体1は、撮像素子6、メカシャッタ14、背面表示部9a、電子ビューファインダ9b、レンズユニット2との電気接点11を備えている。また、レンズユニット2は、光軸4に沿って複数のレンズからなる撮影光学系3が配置されて構成されている。レンズユニット2は、各レンズ群の位置を検出し、各レンズ群の位置検出信号を出力するレンズ位置センサ15を備えている。   In FIG. 1A, a camera system 100 includes a camera body 1 and a lens unit 2 that is detachably attached to the camera body 1. The camera body 1 includes an imaging element 6, a mechanical shutter 14, a rear display unit 9a, an electronic viewfinder 9b, and an electrical contact 11 with the lens unit 2. Further, the lens unit 2 is configured such that an imaging optical system 3 including a plurality of lenses is arranged along the optical axis 4. The lens unit 2 includes a lens position sensor 15 that detects a position of each lens group and outputs a position detection signal of each lens group.

図1(b)において、カメラ本体1は、電気的ブロックとして、カメラシステム制御回路5、画像処理部7、メモリ部8、操作検出部10、表示部9(背面表示部9a、電子ビューファインダ9bを含む)を備えている。また、レンズユニット2は、電気的ブロックとして、レンズシステム制御回路12、レンズ駆動部13を備えている。   In FIG. 1B, the camera body 1 includes, as electrical blocks, a camera system control circuit 5, an image processing unit 7, a memory unit 8, an operation detection unit 10, a display unit 9 (a back display unit 9a, an electronic viewfinder 9b). Including). The lens unit 2 includes a lens system control circuit 12 and a lens driving unit 13 as electric blocks.

カメラ本体1とレンズユニット2とからなるカメラシステム100は、大きく分けて、撮像部、画像処理部、記録再生部、制御部で構成される。撮像部は、撮影光学系3 、撮像素子6を含み、画像処理部は、画像処理部7を含む。また、記録再生部は、メモリ部8、表示部9を含み、制御部は、カメラシステム制御回路5、操作検出部10、およびレンズシステム制御回路12、レンズ駆動部13、レンズ位置センサ15を含む。カメラシステム制御回路5は、カメラ本体1およびレンズユニット2から得られる信号に基づいて、システム全体の制御を統括する。レンズ駆動部13は、フォーカスレンズ31、ブレ補正レンズ、絞りなどを駆動する。レンズ位置センサ15は、撮影光学系3を構成するズームレンズ群、フォーカスレンズ群などの各レンズ群の位置を検出する(ズーム位置検知、フォーカス位置検知)。またレンズ位置センサ15は、後述するズームトラッキングを行うのに適した精度を有している。   The camera system 100 including the camera body 1 and the lens unit 2 is roughly composed of an imaging unit, an image processing unit, a recording / reproducing unit, and a control unit. The imaging unit includes a photographing optical system 3 and an imaging element 6, and the image processing unit includes an image processing unit 7. The recording / reproducing unit includes a memory unit 8 and a display unit 9, and the control unit includes a camera system control circuit 5, an operation detecting unit 10, a lens system control circuit 12, a lens driving unit 13, and a lens position sensor 15. . The camera system control circuit 5 controls the entire system based on signals obtained from the camera body 1 and the lens unit 2. The lens driving unit 13 drives the focus lens 31, the shake correction lens, the diaphragm, and the like. The lens position sensor 15 detects the position of each lens group, such as a zoom lens group and a focus lens group, that constitute the imaging optical system 3 (zoom position detection, focus position detection). The lens position sensor 15 has an accuracy suitable for performing zoom tracking described later.

撮像部は、物体からの光を、撮影光学系3を介して撮像素子6の撮像面に結像させる。撮像素子6の信号からピント評価量および適切な露光量が得られるので、これらの信号に基づいて撮影光学系3が調整されることで、適切な光量の物体光を撮像素子6に露光させるとともに、撮像素子6の近傍に被写体像を結像させることができる。   The imaging unit forms light from an object on the imaging surface of the imaging device 6 via the imaging optical system 3. Since the focus evaluation amount and the appropriate exposure amount can be obtained from the signal of the imaging device 6, the imaging optical system 3 is adjusted based on these signals, so that the imaging device 6 is exposed with an appropriate amount of object light. In addition, a subject image can be formed near the image sensor 6.

画像処理部7は、内部にA/D変換器、ホワイトバランス調整回路、ガンマ補正回路、補間演算回路等を有しており、記録用の画像を生成する。色補間処理部は、この画像処理部7に備えられており、ベイヤ配列の信号に色補間(デモザイキング)処理を施してカラー画像を生成する。また、画像処理部7は、予め定められた方法を用いて画像、動画、音声などの圧縮を行う。さらには、画像処理部7は撮像素子6から得られた複数の画像間の比較に基づいてブレ検知信号を生成する。この動作については後述する。メモリ部8は画像データ等を記憶する。カメラシステム制御回路5は、画像データをメモリ部8へ出力するとともに、表示部9に送り、ユーザーに提示する画像を表示させる。   The image processing unit 7 includes an A / D converter, a white balance adjustment circuit, a gamma correction circuit, an interpolation operation circuit, and the like, and generates an image for recording. The color interpolation processing unit is provided in the image processing unit 7, and performs color interpolation (demosaicing) processing on the signals in the Bayer array to generate a color image. Further, the image processing unit 7 compresses an image, a moving image, a sound, and the like by using a predetermined method. Further, the image processing unit 7 generates a blur detection signal based on a comparison between a plurality of images obtained from the image sensor 6. This operation will be described later. The memory unit 8 stores image data and the like. The camera system control circuit 5 outputs image data to the memory unit 8 and sends the image data to the display unit 9 to display an image to be presented to the user.

カメラシステム制御回路5は撮像の際のタイミング信号などを生成して出力する。外部操作に応答して撮像部、画像処理部、記録再生部をそれぞれ制御する。例えば、不図示のシャッターレリーズボタンの押下を操作検出部10が検出して、撮像素子6の駆動、画像処理部7の動作、圧縮処理などを制御する。さらに表示部9による画像の表示を制御する。また、背面表示部9aはタッチパネルになっており、操作検出部10に接続されている。カメラ本体1はメカシャッタ14を備えており、カメラシステム制御回路5からの指令により撮像素子6の露光制御を行うことが可能である。   The camera system control circuit 5 generates and outputs a timing signal at the time of imaging. The image pickup unit, the image processing unit, and the recording / reproducing unit are respectively controlled in response to an external operation. For example, the operation detection unit 10 detects pressing of a shutter release button (not shown), and controls driving of the image sensor 6, operation of the image processing unit 7, compression processing, and the like. Further, it controls display of an image by the display unit 9. The rear display unit 9a is a touch panel, and is connected to the operation detection unit 10. The camera body 1 has a mechanical shutter 14, and can control the exposure of the image sensor 6 according to a command from the camera system control circuit 5.

次に、撮影光学系3の調整動作について説明する。カメラシステム制御回路5には画像処理部7が接続されており、撮像素子6からの信号に基づいて焦点位置、絞り位置を求める。カメラシステム制御回路5は、電気接点11を介してレンズシステム制御回路12に指令を出し、レンズシステム制御回路12はレンズ駆動部13を制御する。さらに、手ぶれ補正を行うモードにおいては、後述する撮像素子から得られた信号に基づいてレンズ駆動部13を介してブレ補正レンズを制御する。   Next, the adjustment operation of the photographing optical system 3 will be described. An image processing unit 7 is connected to the camera system control circuit 5, and obtains a focus position and an aperture position based on a signal from the image sensor 6. The camera system control circuit 5 issues a command to the lens system control circuit 12 via the electric contact 11, and the lens system control circuit 12 controls the lens driving unit 13. Further, in a mode in which camera shake correction is performed, the camera shake correction lens is controlled via the lens driving unit 13 based on a signal obtained from an image sensor described later.

メモリ部8にはズーム変化に対するフォーカスレンズの軌跡(詳細については後述する)が記録されている。また、カメラシステム制御回路5は、メモリ部8の情報及び、レンズ位置センサ15の情報から被写体の距離を計算し、ズーム変化が起こった場合の適切なフォーカスレンズの位置を計算する。これを、電子カムと呼ぶ。   In the memory unit 8, a locus of the focus lens with respect to the zoom change (details will be described later) is recorded. Further, the camera system control circuit 5 calculates the distance of the subject from the information of the memory unit 8 and the information of the lens position sensor 15, and calculates an appropriate position of the focus lens when a zoom change occurs. This is called an electronic cam.

また後述するように、撮像素子6からは位相差AFに必要な異なる視点からの複数の像が出力され、画像処理部7ではいわゆる相関演算がなされる。つまり、撮像素子6および画像処理部7でピント検知が行われる。そして、カメラシステム制御回路5、レンズシステム制御回路12およびレンズ駆動部13によってフォーカスレンズの位置制御が行われる。   Further, as described later, a plurality of images from different viewpoints necessary for the phase difference AF are output from the image sensor 6, and the image processing unit 7 performs a so-called correlation operation. That is, focus detection is performed by the image sensor 6 and the image processing unit 7. Then, the position control of the focus lens is performed by the camera system control circuit 5, the lens system control circuit 12, and the lens driving unit 13.

図2は、本実施形態のカメラシステムの要部を説明する図である。図2において、ピント検出部21は画像処理部7に設けられ、電子カム算出部22及び切替スイッチ23はカメラシステム制御回路5に設けられている。信頼性判定部24は切替スイッチ23の動作を制御する。ピント検知部21は、ピントに関する情報(主被写体が存在するとした領域のピントが合っているか否か、及び合っていない場合はその方向と量)を検出する。   FIG. 2 is a diagram illustrating a main part of the camera system according to the present embodiment. 2, the focus detection unit 21 is provided in the image processing unit 7, and the electronic cam calculation unit 22 and the changeover switch 23 are provided in the camera system control circuit 5. The reliability determination unit 24 controls the operation of the changeover switch 23. The focus detection unit 21 detects information about the focus (whether or not the area in which the main subject is present is in focus, and if not, the direction and amount thereof).

撮像素子6から出力される信号に基づいて、画像処理部7内のピント検知部21がピントに関する情報を求める。信頼性判定部24によって、ピント検知部21で検出した情報が適切であると判断される場合は、切替スイッチは図3に示した状態になり、ピント検知部21の信号に基づいてフォーカスレンズ31の位置制御が行われる。具体的には、主被写体にピントが合った状態を維持するように、フォーカスレンズ31に対してフィードバック制御が行われる。レンズシステム制御回路12は、レンズ駆動部13にこのフィードバック制御を行うための指令を出力する。   The focus detection unit 21 in the image processing unit 7 obtains information on focus based on a signal output from the image sensor 6. If the reliability determination unit 24 determines that the information detected by the focus detection unit 21 is appropriate, the changeover switch is set to the state shown in FIG. Is performed. Specifically, feedback control is performed on the focus lens 31 so that the main subject is kept in focus. The lens system control circuit 12 outputs a command for performing this feedback control to the lens driving unit 13.

一方で、信頼性判定部24によってピント検知部21において求めた信号が適切でないと判断された場合は、切替スイッチ23は電子カム算出部22に接続されるように切り替えられる。そして、電子カム算出部22の信号に基づいてフォーカスレンズ31の位置制御が行われる。具体的には、被写体の状態に関わらず直前のピント状態を維持するようにレンズシステム制御回路12からレンズ駆動部13に指令が出される。ズーム状態に変更がない場合はフォーカスレンズは停止したままとなり、ズーム状態に変化がある場合は、ズームトラッキングと呼ばれる制御を行う。ズームトラッキング動作については後述する。   On the other hand, when the reliability determination unit 24 determines that the signal obtained by the focus detection unit 21 is not appropriate, the changeover switch 23 is switched to be connected to the electronic cam calculation unit 22. Then, the position of the focus lens 31 is controlled based on a signal from the electronic cam calculation unit 22. Specifically, a command is issued from the lens system control circuit 12 to the lens driving unit 13 to maintain the focus state immediately before regardless of the state of the subject. When there is no change in the zoom state, the focus lens remains stopped, and when there is a change in the zoom state, control called zoom tracking is performed. The zoom tracking operation will be described later.

電子カム算出部22は、レンズ位置センサ15からフォーカスレンズ及びズームレンズの位置を取得して、フォーカス状態およびズーム状態に関する情報を得る。さらにはメモリ部8を参照して、フォーカスレンズの位置およびズームレンズの位置がレンズ位置センサ15が示す位置にある場合に対応する被写体距離を算出する。後述するようにズーム状態が変化した場合には、同じ距離の被写体にピント状態を維持するためには、フォーカスレンズを適切に駆動する必要がある。この動作をズームトラッキング動作と呼ぶ。   The electronic cam calculation unit 22 acquires the positions of the focus lens and the zoom lens from the lens position sensor 15 and obtains information on the focus state and the zoom state. Further, with reference to the memory unit 8, the object distance corresponding to the case where the position of the focus lens and the position of the zoom lens are at the position indicated by the lens position sensor 15 is calculated. When the zoom state changes as described later, it is necessary to appropriately drive the focus lens in order to maintain the focus state on the subject at the same distance. This operation is called a zoom tracking operation.

次に、信頼性判定部24がピント検知部21において求めた信号の適否を判断する方法について説明する。後述するように撮像素子6から位相差AFに必要な信号が得られる場合は、相関演算における2像の一致度を信頼性の判定に用いることが出来る。別の方法として、コントラストAFを用いる場合は、コントラストの変化量を輝度で無次元化した信号を用いることが出来る。さらに別の方法として、物体側での被写体の位置を時系列的に観測しておき、その連続性を用いることが出来る。上記のそれぞれの判定方法において、2像の一致度が低い場合、コントラスト信号の変化が小さい場合、および被写体の移動速度が速すぎる場合(遠近競合でピント位置が前後するような場合)は、ピント検知部21が検知した信号を用いることが不適切と判断する。そして、電子カム算出部22の信号に基づいた制御に切り替える。一方で、ピント検知部21の検知が適切になされていると判断される場合は、撮像素子6からの合焦状態を示す信号を用いることで、被写体の移動にも追従した適切なピント制御がなされる。   Next, a method in which the reliability determination unit 24 determines the suitability of the signal obtained by the focus detection unit 21 will be described. When a signal required for phase difference AF is obtained from the image sensor 6 as described later, the degree of coincidence of the two images in the correlation calculation can be used for determining reliability. As another method, when contrast AF is used, a signal in which the amount of change in contrast is made dimensionless by luminance can be used. As still another method, the position of the subject on the object side can be observed in time series, and its continuity can be used. In each of the above-described determination methods, when the degree of coincidence between the two images is low, when the change in the contrast signal is small, and when the moving speed of the subject is too fast (when the focus position fluctuates due to conflict between perspectives), focus is determined. It is determined that it is inappropriate to use the signal detected by the detection unit 21. Then, the control is switched to the control based on the signal of the electronic cam calculation unit 22. On the other hand, if it is determined that the focus detection unit 21 has properly performed the detection, the appropriate focus control that follows the movement of the subject can be performed by using the signal indicating the focus state from the image sensor 6. Done.

次に、図3を参照してズームトラッキングの基本的な動作について説明する。図3(a)はズームトラッキング動作の概念を説明する図、図3(b)は距離が変化しない被写体に対してズームトラッキングを行う様子を示す図、図3(c)は距離が変化する被写体に対してズームトラッキングを行う様子を示す図である。   Next, a basic operation of zoom tracking will be described with reference to FIG. FIG. 3A is a diagram for explaining the concept of the zoom tracking operation, FIG. 3B is a diagram showing how the zoom tracking is performed on a subject whose distance does not change, and FIG. 3C is a subject whose distance changes. FIG. 9 is a diagram illustrating a state in which zoom tracking is performed on the image.

図3において、横軸はズーム位置であり左側が広角(WIDE)側を、右側が望遠(TELE)側を示している。縦軸はフォーカスレンズの位置であり、下側がフォーカスレンズが像面に近づく方向を、上側がフォーカスレンズが被写体に近づく方向を示している。また図3(a),(b),(c)に示された複数の曲線は、それぞれ被写体距離が0.5m、1.0m、3.0m、無限遠の距離の被写体に対するズーム位置とフォーカスレンズ位置の対応を示している。   In FIG. 3, the horizontal axis indicates the zoom position, the left side indicates the wide angle (WIDE) side, and the right side indicates the telephoto (TELE) side. The vertical axis indicates the position of the focus lens, and the lower side indicates the direction in which the focus lens approaches the image plane, and the upper side indicates the direction in which the focus lens approaches the subject. A plurality of curves shown in FIGS. 3A, 3B, and 3C represent a zoom position and a focus for an object at an object distance of 0.5 m, 1.0 m, 3.0 m, and infinity, respectively. The correspondence of the lens position is shown.

図3に示すように、同じ距離の被写体にピントを合わせるためには、ズーム位置に応じてフォーカスレンズの位置を移動させる必要がある。この曲線に関する情報はメモリ部8に格納されている。電子カム算出部22において、ズーム変化に対して、撮影光学系3について撮像素子6と共役な位置にある物体側の面までの距離を変化させないためにフォーカスレンズ31を移動させる量が算出される。   As shown in FIG. 3, in order to focus on an object at the same distance, it is necessary to move the position of the focus lens according to the zoom position. Information on this curve is stored in the memory unit 8. The electronic cam calculation unit 22 calculates the amount by which the focus lens 31 is moved so as not to change the distance of the photographing optical system 3 to the object-side surface at a position conjugate with the image sensor 6 with respect to a zoom change. .

図3において、30はズームの開始点、40はズームの終了点、31はズーム位置30における3.0mの距離にある被写体にピントが合っている状態を示す点である。41はズーム状態40における3.0mの距離にある被写体にピントが合っている状態を示す点である。   In FIG. 3, reference numeral 30 denotes a zoom start point, reference numeral 40 denotes a zoom end point, and reference numeral 31 denotes a point indicating a state in which a subject at a distance of 3.0 m at the zoom position 30 is in focus. Reference numeral 41 denotes a point indicating a state in which a subject at a distance of 3.0 m in the zoom state 40 is in focus.

図3(a)を参照してズームトラッキングの基本的な動作についてさらに説明する。被写体が撮像装置から3.0mの位置にあるときに、ズームレンズがズーム位置30からズーム位置40に遷移する場合を考える。図3は時間の概念を表現していないが、ここでは時系列的にズーム位置30からズーム位置40に遷移したとする。ズーム位置30で3.0mの被写体にピントが合っている場合、31で示した位置にフォーカスレンズが存在する。ここでフォーカスレンズを停止させたままズーム位置を40に変化させたとすると、図3(a)の矢印32に沿って状態が変化し、状態33に至る。状態33は被写体距離3.0mと無限遠の間に位置しているので、3.0mよりも遠い被写体にピントが合った状態になっている。つまり3.0mの被写体のピントはぼけている。ズーム位置40において3.0mの被写体にピントを合わせるにはフォーカスレンズを41で示す位置に移動させる必要がある。   The basic operation of zoom tracking will be further described with reference to FIG. Consider a case where the zoom lens transitions from the zoom position 30 to the zoom position 40 when the subject is at a position 3.0 m from the imaging device. Although FIG. 3 does not express the concept of time, it is assumed here that the transition from the zoom position 30 to the zoom position 40 is made in a time series. When the object at 3.0 m is in focus at the zoom position 30, the focus lens exists at the position indicated by 31. Here, assuming that the zoom position is changed to 40 while the focus lens is stopped, the state changes along arrow 32 in FIG. Since the state 33 is located between the object distance of 3.0 m and infinity, the state is in focus on an object farther than 3.0 m. That is, the focus of the subject of 3.0 m is out of focus. In order to focus on a 3.0 m object at the zoom position 40, it is necessary to move the focus lens to the position indicated by 41.

図3(a)の例では、説明を分かりやすくするため、ズーム方向に大きく動かし、状態33に至った後に、状態41に遷移するように説明した。しかし、実際には、状態33と状態41で発生するデフォーカス量が許容値以下になるように制御することが好ましい。そのため、レンズ位置センサ15は図3(a)における状態33と状態41が許容値以下になるような分解能を持つことが望ましい。   In the example of FIG. 3A, in order to make the description easy to understand, it has been described that the state is largely moved in the zoom direction, and the state is shifted to the state 41 after reaching the state 33. However, in practice, it is preferable to control the defocus amount generated in the state 33 and the state 41 to be equal to or less than the allowable value. Therefore, it is desirable that the lens position sensor 15 has a resolution such that the state 33 and the state 41 in FIG.

何らかの方法でズーム動作に伴うピントの補償を行うことを本実施形態ではズームトラッキングと呼ぶ。ズームトラッキングには、第1のトラッキング方法として、ピント検知センサを用いてその信号をフィードバックしてズームトラッキングする方法がある。また、第2のトラッキング方法として、フォーカスレンズおよびズームレンズの位置に基づいてズームトラッキングする方法がある。   In this embodiment, performing focus compensation accompanying a zoom operation by some method is called zoom tracking. As a first tracking method, there is a zoom tracking method in which a signal is fed back using a focus detection sensor to perform zoom tracking. As a second tracking method, there is a method of performing zoom tracking based on the positions of a focus lens and a zoom lens.

本実施形態では、上記の第1のトラッキング方法と、第2のトラッキング方法を適宜使い分ける方法を用いる。第1のトラッキング方法は、ピント検知センサの信号(例えば位相差AFの検出信号)をフィードバックするため、誤差が累積しない、移動被写体も容易に追従できるという利点があるが、ピント検知センサの信号が不適当な場合にうまく動作しないなどの課題がある。一方で、第2のトラッキング方法は、位置センサの信号に基づくので、システムの構成は容易となる利点があるが、最終的な画像のピント位置を用いていないため、センサやレンズの位置決めなど誤差が累積しやすい課題がある。本実施形態では、高品位な画像を提供するため、第1のトラッキング方法の利点を生かしつつ、第2のトラッキング方法を適宜利用して欠点を補う。   In the present embodiment, a method of appropriately using the first tracking method and the second tracking method is used. Since the first tracking method feeds back a signal of the focus detection sensor (for example, a detection signal of the phase difference AF), there are advantages that errors do not accumulate and a moving subject can be easily followed. There are problems such as malfunctioning when improper. On the other hand, the second tracking method has an advantage that the system configuration is easy because it is based on the signal of the position sensor. However, since the focus position of the final image is not used, errors such as positioning of the sensor and the lens are required. There is a problem that tends to accumulate. In the present embodiment, in order to provide a high-quality image, while utilizing the advantages of the first tracking method, the disadvantages are compensated for by appropriately using the second tracking method.

図3(b)は、距離が変化しない被写体に対して適切にズームトラッキングがなされる様子を示した図である。第1のトラッキング方法では、ピント状態が常にインフォーカスの状態を保ちながらズーム動作させる(ズーム位置30からズーム位置40に遷移する)ので、状態が31→34→35→ … →41と変化して、適切なズームトラッキング動作がなされる。一方、第2のトラッキング方法では、ズーム状態が変化したことをズームセンサで検知するとともに、現在のフォーカスレンズの位置を検知する。ズーム位置の変化に応じて、同じ距離の被写体にピントを合わせるように、つまり、同一距離の被写体にピントが合うことを示した曲線に沿うように、フォーカスレンズを位置決め制御する。これにより適当なズームトラッキング動作がなされる。   FIG. 3B is a diagram illustrating a state in which zoom tracking is appropriately performed on a subject whose distance does not change. In the first tracking method, the zoom operation is performed while the focus state is always in the in-focus state (transition from the zoom position 30 to the zoom position 40), so that the state changes from 31 → 34 → 35 →. , An appropriate zoom tracking operation is performed. On the other hand, in the second tracking method, a change in the zoom state is detected by the zoom sensor, and the current position of the focus lens is detected. In accordance with the change in the zoom position, the focus lens is controlled so as to focus on a subject at the same distance, that is, along a curve indicating that the subject at the same distance is in focus. As a result, an appropriate zoom tracking operation is performed.

図3(c)は、距離が変化する被写体に対してズームトラッキングがなされる様子を示した図である。後述するように被写体距離が変化しているので、単純なズームトラッキングではなくズームトラッキングとピント合わせを同時に行う場合に該当する。第1のトラッキング方法では、図3(b)の例と同様に、常に被写体に対してピントが合った状態を保ちながらズーム動作がなされる(ズーム位置30からズーム位置40に遷移する)ので、状態が31→36→37→ … →42と変化して適切なズームトラッキング動作がなされる。一方で、第2のトラッキング方法では、同じ距離の被写体にピントを合わせようとするので単純に適用すると図3(b)の様に遷移して状態42に至ることはない。ただし、ズームトラッキング中の適当なタイミングでAF(オートフォーカス)を行ってトラッキング曲線の乗り移りを行うことで図3(c)に示すような制御も可能である。これにより適切なズームトラッキング動作がなされる。   FIG. 3C is a diagram illustrating a state in which zoom tracking is performed on a subject whose distance changes. Since the subject distance changes as will be described later, this corresponds to a case where zoom tracking and focusing are performed simultaneously instead of simple zoom tracking. In the first tracking method, as in the example of FIG. 3B, the zoom operation is performed while always keeping the subject in focus (transition from the zoom position 30 to the zoom position 40). The state changes from 31 → 36 → 37 →... → 42, and an appropriate zoom tracking operation is performed. On the other hand, in the second tracking method, since an attempt is made to focus on an object at the same distance, if the method is simply applied, the state does not transition to the state 42 as shown in FIG. However, the control as shown in FIG. 3C is also possible by performing the AF (autofocus) at an appropriate timing during the zoom tracking to change the tracking curve. As a result, an appropriate zoom tracking operation is performed.

図3を参照して説明したように、ズームトラッキングにおいては、光学系の結像状態に関する情報(ピント検知情報等)に基づいて制御を行うと、単純な制御(常にインフォーカス状態を保つ)で移動する被写体に対しても適切な動作を行うことが出来る。一方で、ピント検知という高度な処理を行う必要があるので、エラーが発生する場合がある。本実施形態では、この問題を解決する。   As described with reference to FIG. 3, in the zoom tracking, if control is performed based on information regarding the image formation state of the optical system (focus detection information or the like), simple control (always in an in-focus state) is performed. An appropriate operation can be performed on a moving subject. On the other hand, an advanced process called focus detection needs to be performed, so that an error may occur. This embodiment solves this problem.

図4を参照して、本実施形態の動作とその効果について説明する。図4は図3と同じ表記法を用いたグラフである。図4において図3と同じ意味を持つものは同じ番号を付した。図4は移動していない被写体に対してズームトラッキングを行っている最中に、エラーが発生した場合を示した図である。発生しやすいエラーについては後述するが、位相差AF(オートフォーカス)においては、2つの像の一致度が低下して本来対応すべきではない被写体間で像の一致を判定した場合などが挙げられる。   The operation of the present embodiment and its effects will be described with reference to FIG. FIG. 4 is a graph using the same notation as FIG. In FIG. 4, components having the same meaning as in FIG. 3 are given the same numbers. FIG. 4 is a diagram illustrating a case where an error occurs during zoom tracking of a subject that is not moving. Although errors that are likely to occur will be described later, phase difference AF (autofocus) includes a case where the degree of coincidence between two images is reduced and image coincidence is determined between subjects that should not be dealt with. .

図4において、50はピント検知が不適切になったズーム位置、51は不適切に得られたピント検知信号、51aは51の代わりに用いられる状態をそれぞれ示している。図4(a)のズーム位置50でピント検知が失敗して51で示すデータが得られたとする。つまり、被写体は移動していないにもかかわらず、ズーム位置50で被写体距離が無限遠の位置に移動したというピント検知結果が得られたとする。そのままフォーカスレンズの位置制御を行うと、状態は、31→34→51→ … →41と遷移し、ピント状態が途中で激しく変化して品位の低い画像になってしまう。   In FIG. 4, reference numeral 50 denotes a zoom position at which focus detection becomes inappropriate, 51 denotes a focus detection signal obtained inappropriately, and 51a denotes a state used in place of 51. It is assumed that focus detection has failed at the zoom position 50 in FIG. 4A and data indicated by 51 is obtained. That is, it is assumed that a focus detection result indicating that the subject distance has moved to the position at infinity at the zoom position 50 even though the subject has not moved. If the position control of the focus lens is performed as it is, the state changes from 31 → 34 → 51 →... → 41, and the focus state changes drastically on the way, resulting in an image of low quality.

ピント検知結果が不安定になる場合には、前述したように2像の一致度が低い、コントラスト信号の変化が小さい、被写体の移動速度が速すぎるというような結果が得られる。そこで、信頼性判定部24によってズーム位置50での演算結果51が不適切であると判断された場合には、ズームトラッキングは電子カム算出部22の出力に基づいて行われる。つまり直前の状態34を参照して、この時のフォーカス位置、ズーム位置から被写体距離を求める。ズーム位置50の時も被写体距離は変化していないものとして、フォーカスレンズの位置を求め、状態51aに遷移する。すなわち図4(b)に示すように、状態は、31→34→51a→ … →41と遷移する。このようにすることで滑らかなフォーカス制御がなされる。エラー発生時にも適切なレンズ制御が行われ安定して高品位な画像を得ることが出来る。   When the focus detection result becomes unstable, results such as a low degree of coincidence between the two images, a small change in the contrast signal, and a too fast moving speed of the subject are obtained as described above. Therefore, when the reliability determination unit 24 determines that the calculation result 51 at the zoom position 50 is inappropriate, zoom tracking is performed based on the output of the electronic cam calculation unit 22. That is, with reference to the immediately preceding state 34, the subject distance is obtained from the focus position and zoom position at this time. Assuming that the subject distance has not changed even at the zoom position 50, the position of the focus lens is determined, and the state transits to the state 51a. That is, as shown in FIG. 4B, the state transits from 31 → 34 → 51a →. In this way, smooth focus control is performed. Even when an error occurs, appropriate lens control is performed, and a high-quality image can be stably obtained.

次に、図5を参照して別の例について説明する。図5は図3および図4と同じ表記法を用いたグラフである。図5において図3及び図4と同じ意味を持つものは同じ番号を付した。   Next, another example will be described with reference to FIG. FIG. 5 is a graph using the same notation as in FIGS. In FIG. 5, those having the same meanings as in FIGS. 3 and 4 are given the same numbers.

図5(a)はエラー発生後に被写体の距離が変化している場合の処理の様子を示す図であり、図5(b)は移動する被写体に対してズームトラッキングを行っている最中に、エラーが発生した場合を示した図である。図5ではエラーが発生する前や後の信号を利用してどのような制御を行うかを説明する。ここで、図5は時間的な概念を表現していないグラフであるが、一定速度でズーム動作しており、ズーム方向の横軸は時間にも対応しているものとして説明を行う。   FIG. 5A is a diagram showing a state of processing when the distance to the subject changes after an error has occurred, and FIG. 5B shows a state in which zoom tracking is performed on a moving subject. FIG. 6 is a diagram illustrating a case where an error has occurred. FIG. 5 illustrates what kind of control is performed using signals before and after the occurrence of an error. Here, although FIG. 5 is a graph that does not express the concept of time, description will be made assuming that the zoom operation is performed at a constant speed, and the horizontal axis in the zoom direction also corresponds to time.

図5(a)の例は、ズーム状態50でエラーが発生した後、次のタイミングに被写体が1.0mに移動した場合を示す図である。図5(a)では、説明を分かりやすくするために1回のサンプリングで3.0m→1.0mに移動するようにしたが、これは一般的な被写体の移動速度としては非常に速いといえる。エラーの発生前後で被写体の距離が変化している場合の説明を分かりやすくするために便宜的にこのような値にしているに過ぎない。   The example of FIG. 5A is a diagram illustrating a case where the subject moves to 1.0 m at the next timing after an error occurs in the zoom state 50. In FIG. 5 (a), in order to make the explanation easy to understand, the sampling is moved from 3.0 m to 1.0 m in one sampling. However, this can be said to be very fast as the moving speed of a general subject. . For the sake of simplicity, it is merely such a value that the description of the case where the distance to the subject has changed before and after the occurrence of the error is easy to understand.

図5(a)において、エラー発生の次のタイミングで被写体距離が変化してピント状態52,53が得られたとする。本実施形態の動作では、図4を用いて説明した様に、エラーの直前の状態34を参照して、ズーム位置50の時も被写体距離は変化していないものとして、フォーカスレンズの位置51aを定める。次に正しく被写体距離が求められたときに、被写体距離は1.0mに変化している。この時に急に状態を51aから52に遷移させると、ピント変化が急激になり過ぎて品位の低い画像になってしまう。   In FIG. 5A, it is assumed that the subject distance changes at the timing next to the occurrence of the error and the focus states 52 and 53 are obtained. In the operation of the present embodiment, as described with reference to FIG. 4, with reference to the state 34 immediately before the error, it is assumed that the subject distance has not changed even at the zoom position 50, and the position 51a of the focus lens is changed. Determine. Next, when the subject distance is correctly obtained, the subject distance has changed to 1.0 m. At this time, if the state is suddenly changed from 51a to 52, the focus change becomes too sharp, resulting in an image of low quality.

そこで、エラー発生時に電子カム算出部22の信号でフォーカスレンズの制御を行った後に、ピント検知部21での制御に切り替える場合において、ピント検知部21の信号に加えてレンズ位置センサ15の信号も用いてフォーカスレンズの制御を行うようにする。具体的には、レンズ位置センサ15を参照しながら51a→52の差を数サンプリング時間かけて埋めるようにする。別の方法としては1サンプリングあたりの移動量を制限しても良い。図5(a)の例では状態51aの次に状態52に遷移するのではなく、レンズ位置センサ15の出力から得られる現在のフォーカスレンズ位置から離れすぎない点52aを設定し、この状態に遷移する。さらに状態53が検知されたときに状態53aに遷移する。図5(a)の例では状態が31→34→51a→52a→53a→ … →41と遷移する。   Therefore, when the focus lens is controlled by the signal of the electronic cam calculation unit 22 at the time of occurrence of the error and then the control is switched to the control of the focus detection unit 21, the signal of the lens position sensor 15 is also added to the signal of the focus detection unit 21. To control the focus lens. More specifically, the difference from 51a to 52 is filled with several sampling times while referring to the lens position sensor 15. As another method, the movement amount per sampling may be limited. In the example of FIG. 5A, instead of transitioning to the state 52 after the state 51a, a point 52a that is not too far from the current focus lens position obtained from the output of the lens position sensor 15 is set, and the state transits to this state. I do. When the state 53 is detected, the state transits to the state 53a. In the example of FIG. 5A, the state changes from 31 to 34 to 51a to 52a to 53a to 41.

図5(b)の例は、ズーム位置50でエラーが発生した時に、被写体が3.0mから1.0mに移動している途中である場合である。被写体が移動していることは、エラー発生前の状態から知ることが出来る。そこで、電子カム算出部22の信号でフォーカスレンズの制御を行う場合において、電子カム算出部22の信号に加えて、直前のピント検知部21の複数の信号を用いてフォーカスレンズの制御を行うようにする。具体的には、状態が31→54と遷移すると被写体が近づいてきていることが分かる。被写体の移動を判別するためには、直前のピント検知部21の複数の信号を用いれば良い。エラーが発生したズーム位置50での被写体位置を推定して(例えば等速運動していると仮定して位置を予測するなどの方法を用いる)その位置にピントが合うようにフォーカスレンズの位置を制御する。図5(b)の例では31→54→51b→ … →42と遷移する。   The example of FIG. 5B is a case where the subject is moving from 3.0 m to 1.0 m when an error occurs at the zoom position 50. The fact that the subject is moving can be known from the state before the error occurred. Therefore, when the focus lens is controlled by the signal of the electronic cam calculation unit 22, the focus lens is controlled by using a plurality of signals of the immediately preceding focus detection unit 21 in addition to the signal of the electronic cam calculation unit 22. To Specifically, when the state changes from 31 to 54, it is understood that the subject is approaching. In order to determine the movement of the subject, a plurality of signals from the immediately preceding focus detection unit 21 may be used. Estimate the position of the subject at the zoom position 50 where the error occurred (for example, using a method of estimating the position assuming that the object is moving at a constant speed), and adjust the position of the focus lens so that the position is in focus. Control. In the example of FIG. 5B, the transition is performed in the order of 31 → 54 → 51b →.

図4および図5ではズーム動作中にエラーが発生した場合について説明したが、ズーム動作中でない場合に本実施形態の動作を行っても不具合はない。すなわちズームトラッキング動作がなされないだけで、エラーによってピント状態が途中で激しく変化して品位の低い画像になることが回避されるという効果は同様である。つまりズーム動作中のみに行うというような場合分けは必要ない。   4 and 5 illustrate the case where an error occurs during the zoom operation, but there is no problem even if the operation of the present embodiment is performed when the zoom operation is not being performed. In other words, the same effect is obtained that the focus state does not change drastically on the way due to an error and a low-quality image is avoided only by not performing the zoom tracking operation. That is, there is no need to divide the case where the operation is performed only during the zoom operation.

次に、図6を参照してピント検知部21に信号を供給する撮像素子6の構成と、画像処理部7の動作について説明する。図6の例は撮像素子6でいわゆる位相差検出AF信号を得ることが出来る場合を示している。   Next, the configuration of the image sensor 6 that supplies a signal to the focus detection unit 21 and the operation of the image processing unit 7 will be described with reference to FIG. The example of FIG. 6 shows a case where a so-called phase difference detection AF signal can be obtained by the image sensor 6.

図6(a)は撮像素子6と座標系の関係を説明するための図、図6(b)は撮影光学系3の瞳面の分割状態を説明するための図、図6(c)は撮像素子6から得られる一方の視点からの像を説明する図である。また、図6(d)は撮像素子から得られる他方の視点からの像と位相差AFの方法を説明する図、図6(e)は位相差AFの検出状態を模式的に示した図である。   6A is a diagram for explaining the relationship between the image sensor 6 and the coordinate system, FIG. 6B is a diagram for explaining the state of division of the pupil plane of the photographing optical system 3, and FIG. FIG. 3 is a diagram illustrating an image from one viewpoint obtained from an imaging element. FIG. 6D is a diagram for explaining an image obtained from the other viewpoint from the image sensor and a method of phase difference AF, and FIG. 6E is a diagram schematically showing a detection state of the phase difference AF. is there.

図6(a)において、60は撮像素子6に設けられたマイクロレンズアレイ、61,62は1つのマイクロレンズに対応するように設けられた複数の画素、71,72は瞳面においてそれぞれ画素61,62に対応する領域をそれぞれ示している。また、81は瞳領域71に対応する画素で取得された画像、82は被写体、83は画像81中の着目領域、84は瞳領域72に対応する画素で取得された画像、85は着目領域83と画面内の位置が同一の領域をそれぞれ示している。また、86は探索することを模式的に示す矢印、87は画像81の領域83に対応する画像84中の領域、88は2つの視点から取得された画像を重ねて表示した画像、89は画像81中の領域83で検知されたベクトルをそれぞれ示している。   In FIG. 6A, reference numeral 60 denotes a microlens array provided on the image sensor 6, reference numerals 61 and 62 denote a plurality of pixels provided corresponding to one microlens, and reference numerals 71 and 72 denote pixels 61 on the pupil plane, respectively. , 62 are shown. Further, 81 is an image acquired by a pixel corresponding to the pupil region 71, 82 is a subject, 83 is a region of interest in the image 81, 84 is an image acquired by a pixel corresponding to the pupil region 72, and 85 is a region of interest 83 And the positions in the screen indicate the same area. Reference numeral 86 denotes an arrow schematically showing a search, 87 denotes an area in the image 84 corresponding to the area 83 of the image 81, 88 denotes an image obtained by superimposing images obtained from two viewpoints, and 89 denotes an image. Each vector detected in an area 83 in 81 is shown.

図6(a)に示すように、撮像素子6上にはマイクロレンズアレイ60が設けられており、マイクロレンズアレイ60の前側主点は撮影光学系3の結像面近傍になるように配置されている。図6(a)は撮像装置の横からと、正面からマイクロレンズアレイ60を見た状態を示しており、撮像装置正面から見るとマイクロレンズアレイ60のレンズが撮像素子6上の画素を覆うように配置されている。なお、図6(a)ではマイクロレンズアレイ60を構成する各マイクロレンズを見やすくするために、大きく記載したが、実際には各マイクロレンズは画素を2つ覆う程度の大きさである。   As shown in FIG. 6A, a microlens array 60 is provided on the image sensor 6, and the front principal point of the microlens array 60 is arranged so as to be in the vicinity of the imaging plane of the imaging optical system 3. ing. FIG. 6A illustrates a state in which the microlens array 60 is viewed from the side and the front of the imaging device. When viewed from the front of the imaging device, the lenses of the microlens array 60 cover the pixels on the imaging element 6. Are located in In FIG. 6A, each microlens constituting the microlens array 60 is illustrated in a large size so as to make it easy to see. However, each microlens is actually large enough to cover two pixels.

図6(b)は撮像素子6の1つのマイクロレンズとその下にある画素に着目し、マイクロレンズの光軸を含み撮像素子6の長手方向が図の横方向になるように切断した図である。図6(b)の61,62はそれぞれ撮像素子6の画素(1つの光電変換部)を示している。一方、図6(b)の上方に示した図は撮影光学系3の射出瞳面を示している。実際には、図6(b)の下方に示した撮像素子の図と方向を合わせると、射出瞳面は図6(b)の紙面垂直方向になるが、説明を分かりやすくするために投影方向を変化させている。   FIG. 6B is a diagram in which attention is paid to one micro lens of the image sensor 6 and a pixel below the image sensor 6, and the longitudinal direction of the image sensor 6 including the optical axis of the micro lens is cut in the horizontal direction in the drawing. is there. 6B indicate pixels (one photoelectric conversion unit) of the image sensor 6, respectively. On the other hand, the diagram shown above FIG. 6B shows the exit pupil plane of the imaging optical system 3. Actually, the exit pupil plane is in the direction perpendicular to the paper of FIG. 6B when the direction is matched with the direction of the image pickup device shown in the lower part of FIG. 6B. Is changing.

図6(b)の画素61,62はマイクロレンズ60によって共役な位置関係にある射出瞳面上の領域71,72とそれぞれ対応する位置関係にある。図6(b)に示すように、マイクロレンズ60によって各画素は撮影光学系3の射出瞳面上の特定の領域と共役になるように設計されている。すなわち画素61には撮影光学系3の射出瞳面上の領域71を通過した光束のみが入射し、画素62には撮影光学系3の射出瞳面上の領域72を通過した光束のみが入射する。   The pixels 61 and 62 in FIG. 6B have a positional relationship corresponding to the regions 71 and 72 on the exit pupil plane which are conjugated by the microlens 60. As shown in FIG. 6B, each pixel is designed to be conjugate with a specific area on the exit pupil plane of the imaging optical system 3 by the micro lens 60. That is, only the light beam that has passed through the region 71 on the exit pupil plane of the imaging optical system 3 enters the pixel 61, and only the light beam that has passed through the region 72 on the exit pupil surface of the imaging optical system 3 enters the pixel 62. .

瞳領域71を通過した光束のみを捉えている画素61と同じ対応関係にある画素のみ集めた画像と、瞳領域72を通過した光束のみを捉えている画素62と同じ対応関係にある画素のみ集めた画像を考えると視点の異なる像となっている。画素61と同じ対応関係にある画素のみ集めた画像は瞳領域71から見たような画像となっており、画素62と同じ対応関係にある画素のみ集めた画像は瞳領域72から見たような画像となっている。すなわち一度の露光を行い、信号を適切に並べると、同じタイミングで露光された視点の異なる画像が得られることになる。   An image in which only pixels having the same correspondence as the pixel 61 that captures only the light beam that has passed through the pupil region 71 is collected, and only pixels that have the same correspondence as the pixel 62 that captures only the light beam that has passed through the pupil region 72 are collected. Considering the images, the images have different viewpoints. An image obtained by collecting only the pixels having the same correspondence as the pixel 61 is an image as viewed from the pupil region 71, and an image obtained by collecting only the pixels having the same correspondence as the pixel 62 is obtained as viewed from the pupil region 72. It is an image. That is, if the exposure is performed once and the signals are appropriately arranged, images with different viewpoints exposed at the same timing can be obtained.

次に図6(c),(d),(e)を参照して異なる視点から取得された2つの画像を用いてピント検知(焦点状態の検知)を行う方法について説明する。図6(a),(b)を用いて説明したような光学系によって、異なる視点から取得された2つの画像81,84を取得する。そのうち一方の画像81内で被写体82が存在する領域83に着目する。この領域の大きさは任意に設定可能であるが例えば8x8画素などとすればよい。図6の例では説明を分かりやすくするために、枠は十分大きく示している。   Next, a method of performing focus detection (detection of a focus state) using two images acquired from different viewpoints will be described with reference to FIGS. 6C, 6D, and 6E. The optical system described with reference to FIGS. 6A and 6B acquires two images 81 and 84 acquired from different viewpoints. Attention is paid to an area 83 in one of the images 81 where the subject 82 exists. The size of this area can be arbitrarily set, but may be, for example, 8 × 8 pixels. In the example of FIG. 6, the frame is shown sufficiently large for easy understanding.

この領域83が画像84のどこに移動したかを差分絶対値(=SAD)などを基準に探索すればよい。具体的には画像84で画像内の位置が対応する領域85を中心に、予め定められた範囲について、矢印86のように領域をずらしながらSADを計算すればよい。この場合、領域をずらす方向を示す矢印86は図6(b)で示した2つの瞳領域の重心を結ぶ方向に設定すればよい。これは、いわゆるエピポーラ拘束があるためである。SADを基準に用いた場合は、最小となる位置が対応する領域87となる。結果として2つの画像の合成画像88において、領域83はベクトル89のように移動したことが分かる。このベクトル89の方向がピントを合わせる時に動かすべきフォーカスレンズの方向を、ベクトル89の長さがピントを合わせる時に動かすべきフォーカスレンズの量を、それぞれ示している。   The location of this area 83 in the image 84 may be searched based on the absolute difference value (= SAD) or the like. Specifically, the SAD may be calculated in a predetermined range around the area 85 corresponding to the position in the image 84 while shifting the area as indicated by an arrow 86. In this case, the arrow 86 indicating the direction in which the regions are shifted may be set in the direction connecting the centers of gravity of the two pupil regions shown in FIG. This is because there is a so-called epipolar constraint. When the SAD is used as a reference, the minimum position is the corresponding area 87. As a result, in the composite image 88 of the two images, it can be seen that the region 83 has moved like the vector 89. The direction of the vector 89 indicates the direction of the focus lens to be moved when focusing, and the length of the vector 89 indicates the amount of the focus lens to be moved when focusing.

図6(c),(d),(e)で説明した原理によってピント検知を行った場合、視点によって正反射光が異なって見える場合、遠方と近距離に類似する物体がある場合、繰り返しパターンを観察した場合などにエラーが発生しやすい。このような場合には2像の一致度が低下したり、類似するピークが複数見られ判断が付かないという現象がみられる。   When focus detection is performed according to the principle described with reference to FIGS. 6C, 6D, and 6E, when specularly reflected light looks different depending on the viewpoint, when there is an object similar to a distant object and at a short distance, a repetitive pattern Errors tend to occur when observing In such a case, a phenomenon occurs in which the degree of coincidence between the two images is reduced, or a plurality of similar peaks are observed, and the judgment cannot be made.

図6では、いわゆる位相差AFの原理に基づいてピント検知を行った。別の方法としてはコントラストAFに基づく方法も考えられる。これはフォーカスレンズを時系列的に微少駆動させて、着目領域のコントラスト変化を観察する方法である。コントラストが最大となるようにピントを制御する方法である。コントラストAFでは一般的には時系列的に信号を取り出すので、照明状態の変化がある場合、手振れ状態の変化がある場合、被写体が移動する場合などにエラーが発生しやすい。   In FIG. 6, focus detection is performed based on the so-called phase difference AF principle. As another method, a method based on contrast AF can be considered. This is a method in which a focus lens is minutely driven in a time series to observe a change in contrast in a region of interest. This is a method of controlling the focus so that the contrast is maximized. In contrast AF, signals are generally extracted in chronological order. Therefore, errors tend to occur when there is a change in the illumination state, when there is a change in the camera shake state, or when the subject moves.

次に、図7を参照してピント検知においてエラーが発生する場合の例について説明する。図7において、91は遠方と近距離に類似する個所をもった被写体が存在する画像の例、92,93は類似する領域を示す枠をそれぞれ示している。また、94は正反射光がある被写体が存在する画像の例、95は被写体、96は被写体上の正反射光をそれぞれ示している。   Next, an example in which an error occurs in focus detection will be described with reference to FIG. In FIG. 7, reference numeral 91 denotes an example of an image in which a subject having a location similar to a distant place and a close distance exists, and 92 and 93 each denote a frame indicating a similar area. Further, reference numeral 94 denotes an example of an image in which a subject having regular reflection light exists, 95 denotes a subject, and 96 denotes regular reflection light on the subject.

図7(a)は遠方と近距離に類似する個所をもった被写体が存在する画像を説明する図である。図6で説明したピント検知のための領域が93に設定されたとする。帽子と帽子のつばの境界付近である。後方の被写体も同じ色の帽子をかぶっている場合、領域92は類似した信号をもつ。ノイズなどの影響によって領域93と領域92が対応すると判断された場合はピント検知がエラーとなる。ただし、このような場合は、正しく対応した場合と見分けがつきにくいという情報が得られる。つまり、SADの極小値が2つありどちらも同程度に見えるという情報が得られる。本実施形態では、これを利用して信頼性判定部24でエラーが発生したと判定する。   FIG. 7A is a diagram illustrating an image in which a subject having a location similar to a distant place and a close place exists. It is assumed that the area for focus detection described with reference to FIG. It is near the border between the hats and the brim of the hat. If the rear subject also wears a hat of the same color, the area 92 has a similar signal. If it is determined that the areas 93 and 92 correspond to each other due to the influence of noise or the like, the focus detection results in an error. However, in such a case, information is obtained that it is difficult to distinguish the case from the case in which the case is correctly handled. That is, there is obtained information that there are two local minimum values of the SAD and both of them seem to be almost the same. In the present embodiment, the reliability determination unit 24 determines that an error has occurred using this.

図7(b)は正反射光がある被写体が存在する画像を説明する図である。被写体95に対して太陽光のような強力な光源の光が当たると、正反射光96の信号は強く表れる。球体など曲率を持った面の場合、この正反射光成分は視点によって被写体95上で別の位置に観察される。このため、正反射光成分によって位相差AFの検出が行われると、ピント検知がエラーとなる。ただし、このような場合は、被写体の輪郭部分と正反射光で位置が異なって観測されるので、2像の一致度が低下するという情報が得られる。本実施形態では、これを利用して信頼性判定部24でエラーが発生したと判定する。   FIG. 7B is a diagram illustrating an image in which a subject having specularly reflected light exists. When the light of a strong light source such as sunlight shines on the subject 95, the signal of the regular reflection light 96 appears strongly. In the case of a surface having a curvature such as a sphere, the specularly reflected light component is observed at another position on the subject 95 from the viewpoint. For this reason, if the phase difference AF is detected based on the specular reflected light component, the focus detection becomes an error. However, in such a case, since the position is observed differently between the contour portion of the subject and the specular reflection light, information indicating that the degree of coincidence between the two images is reduced is obtained. In the present embodiment, the reliability determination unit 24 determines that an error has occurred using this.

上記のような、実動作環境においてエラーが発生しやすい状況においては、AFが不安定になる場合が想定され、そのような場合に本実施形態の動作を行うことにより、フォーカスレンズの位置制御を安定に行うことが出来る。   In a situation where an error is likely to occur in the actual operating environment as described above, it is assumed that the AF becomes unstable. In such a case, the operation of the present embodiment is performed to control the position of the focus lens. It can be performed stably.

以上説明したように、本実施形態によれば、撮像面の信号を利用してピント調整を行うシステムにおいて、焦点検出のエラー発生時にも適切なレンズ制御を行うことができ、安定して高品位な画像を提供することが可能となる。   As described above, according to the present embodiment, in a system that performs focus adjustment using a signal on an imaging surface, appropriate lens control can be performed even when a focus detection error occurs, and stable high quality It is possible to provide a perfect image.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. This processing can be realized. Further, it can be realized by a circuit (for example, an ASIC) that realizes one or more functions.

3:撮影光学系、5:カメラシステム制御回路、6:撮像素子、7:画像処理部、8:メモリ部、12:レンズシステム制御回路、13:レンズ駆動部、15:レンズ位置センサ、21:ピント検知部、22:電子カム算出部、23:切替スイッチ、24:信頼性判定部 3: photographing optical system, 5: camera system control circuit, 6: image sensor, 7: image processing unit, 8: memory unit, 12: lens system control circuit, 13: lens drive unit, 15: lens position sensor, 21: Focus detection unit, 22: electronic cam calculation unit, 23: changeover switch, 24: reliability determination unit

Claims (8)

撮影光学系の焦点状態を検出する焦点検出手段と、
前記撮影光学系のズーム位置を検知するズーム位置検知手段と、
前記撮影光学系のフォーカスレンズの位置を検知するフォーカス位置検知手段と、
前記撮影光学系のフォーカスレンズの位置を調整する調整手段と、
前記ズーム位置の変化に応じて、同じ距離の被写体に対して焦点を合わせ続けるための前記フォーカスレンズの軌跡を記憶する記憶手段と、
前記焦点検出手段の出力の信頼性を判定する判定手段と、
前記焦点検出手段の出力に基づいて、前記ズーム位置の変化に応じた前記フォーカスレンズの位置の制御を行う第1の動作と、前記記憶手段に記憶されている前記フォーカスレンズの軌跡の情報に基づいて、前記ズーム位置の変化に応じた前記フォーカスレンズの位置の制御を行う第2の動作とを、前記判定手段の判定に応じて切り替える制御手段と、を備え
前記制御手段は、
前記判定手段が前記焦点検出手段の出力に信頼性があると判定した場合に、前記第1の動作を行い、前記判定手段が前記焦点検出手段の出力に信頼性がないと判定した場合に、前記第2の動作を行い、
前記第2の動作を行う場合に、前記判定手段が前記焦点検出手段の出力に信頼性がないと判定したタイミングよりも前に前記焦点検出手段により検出された複数の焦点状態の検出結果に基づいて被写体の位置を推定し、推定した被写体の位置と前記記憶手段に記憶されている前記フォーカスレンズの軌跡の情報とに基づいて、前記フォーカスレンズの位置の制御を行うことを特徴とする撮像装置。
Focus detection means for detecting the focus state of the imaging optical system,
Zoom position detecting means for detecting a zoom position of the imaging optical system,
Focus position detection means for detecting the position of the focus lens of the imaging optical system,
Adjusting means for adjusting the position of the focus lens of the imaging optical system;
Storage means for storing a trajectory of the focus lens for keeping focusing on a subject at the same distance in accordance with a change in the zoom position;
Determining means for determining the reliability of the output of the focus detecting means;
A first operation for controlling the position of the focus lens in accordance with a change in the zoom position based on an output of the focus detection unit, and information on a trajectory of the focus lens stored in the storage unit Controlling means for controlling the position of the focus lens in accordance with the change in the zoom position, and a control means for switching in accordance with the determination of the determination means ,
The control means includes:
When the determination unit determines that the output of the focus detection unit is reliable, performs the first operation, when the determination unit determines that the output of the focus detection unit is unreliable, Performing the second operation,
When performing the second operation, based on detection results of a plurality of focus states detected by the focus detection unit before the timing at which the determination unit determines that the output of the focus detection unit is unreliable. An imaging apparatus for estimating a position of a subject based on the estimated position of the subject and controlling the position of the focus lens based on information of a locus of the focus lens stored in the storage unit. .
前記制御手段は、前記第1の動作を行う場合に、前記焦点検出手段の出力に加えて、前記フォーカス位置検知手段の出力を用いて前記フォーカスレンズの位置の制御を行うことを特徴とする請求項に記載の撮像装置。 The control unit controls the position of the focus lens by using an output of the focus position detection unit in addition to an output of the focus detection unit when performing the first operation. Item 2. The imaging device according to Item 1 . 前記判定手段は、位相差検出により前記撮影光学系の焦点状態を検出する場合に、位相差を検出する2像の一致度が低い場合に、前記焦点検出手段の出力に信頼性がないと判定することを特徴とする請求項1又は2に記載の撮像装置。 The determination means determines that the output of the focus detection means is unreliable if the degree of coincidence between the two images for detecting the phase difference is low when detecting the focus state of the imaging optical system by detecting the phase difference. the imaging apparatus according to claim 1 or 2, characterized in that. 前記判定手段は、位相差検出により前記撮影光学系の焦点状態を検出する場合に、位相差を検出する像に複数のピークが存在する場合に、前記焦点検出手段の出力に信頼性がないと判定することを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。 The determination means, when detecting the focus state of the imaging optical system by phase difference detection, when there is a plurality of peaks in the image for detecting the phase difference, if the output of the focus detection means is not reliable the imaging apparatus according to any one of claims 1 to 3, wherein the determining. 前記判定手段は、画像に正反射光がある被写体が存在する場合に、前記焦点検出手段の出力に信頼性がないと判定することを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。 Said determining means, when the regular reflection light subject is present in the image, according to any one of claims 1 to 4, characterized in that determining that there is no reliability in the output of the focus detection unit Imaging device. 撮像装置を制御する方法であって、
撮影光学系の焦点状態を検出する焦点検出工程と、
前記撮影光学系のズーム位置を検知するズーム位置検知工程と、
前記撮影光学系のフォーカスレンズの位置を検知するフォーカス位置検知工程と、
前記撮影光学系のフォーカスレンズの位置を調整する調整工程と、
前記ズーム位置の変化に応じて、同じ距離の被写体に対して焦点を合わせ続けるための前記フォーカスレンズの軌跡を記憶する記憶工程と、
前記焦点検出工程の出力の信頼性を判定する判定工程と、
前記焦点検出工程の出力に基づいて、前記ズーム位置の変化に応じた前記フォーカスレンズの位置の制御を行う第1の動作と、前記記憶工程において記憶された前記フォーカスレンズの軌跡の情報に基づいて、前記ズーム位置の変化に応じた前記フォーカスレンズの位置の制御を行う第2の動作とを、前記判定工程の判定に応じて切り替える制御工程と、を有し、
前記制御工程では、
前記判定工程で前記焦点検出工程の出力に信頼性があると判定した場合に、前記第1の動作を行い、前記判定工程で前記焦点検出工程の出力に信頼性がないと判定した場合に、前記第2の動作を行い、
前記第2の動作を行う場合に、前記判定工程で前記焦点検出工程の出力に信頼性がないと判定したタイミングよりも前に前記焦点検出工程により検出された複数の焦点状態の検出結果に基づいて被写体の位置を推定し、推定した被写体の位置と前記記憶工程で記憶された前記フォーカスレンズの軌跡の情報とに基づいて、前記フォーカスレンズの位置の制御を行うことを特徴とする撮像装置の制御方法。
A method for controlling an imaging device, comprising:
A focus detection step of detecting a focus state of the imaging optical system,
A zoom position detecting step of detecting a zoom position of the imaging optical system,
A focus position detecting step of detecting a position of a focus lens of the imaging optical system,
An adjusting step of adjusting a position of a focus lens of the imaging optical system,
A storage step of storing a trajectory of the focus lens for keeping focusing on a subject at the same distance in accordance with the change in the zoom position;
A determination step of determining the reliability of the output of the focus detection step;
A first operation of controlling the position of the focus lens according to a change in the zoom position based on an output of the focus detection step, and information on a trajectory of the focus lens stored in the storage step and a second operation for control of the position of the focus lens in response to changes in the zoom position, have a, and a control step of switching in accordance with the determination of the determining step,
In the control step,
When it is determined in the determination step that the output of the focus detection step is reliable, the first operation is performed, and when it is determined that the output of the focus detection step is not reliable in the determination step, Performing the second operation,
When performing the second operation, based on the detection results of the plurality of focus states detected by the focus detection step before the timing at which the output of the focus detection step is determined to be unreliable in the determination step The position of the focus lens is controlled based on the estimated position of the subject and the information on the trajectory of the focus lens stored in the storage step . Control method.
請求項に記載の制御方法の各工程をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute each step of the control method according to claim 6 . 請求項に記載の制御方法の各工程をコンピュータに実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium storing a program for causing a computer to execute each step of the control method according to claim 6 .
JP2015156245A 2015-08-06 2015-08-06 Imaging device Expired - Fee Related JP6659100B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015156245A JP6659100B2 (en) 2015-08-06 2015-08-06 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015156245A JP6659100B2 (en) 2015-08-06 2015-08-06 Imaging device

Publications (2)

Publication Number Publication Date
JP2017037103A JP2017037103A (en) 2017-02-16
JP6659100B2 true JP6659100B2 (en) 2020-03-04

Family

ID=58047591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015156245A Expired - Fee Related JP6659100B2 (en) 2015-08-06 2015-08-06 Imaging device

Country Status (1)

Country Link
JP (1) JP6659100B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7024790B2 (en) 2017-06-27 2022-02-24 ソニーグループ株式会社 Interchangeable lens equipment, imaging equipment, imaging systems, and methods, and programs
JP2020140201A (en) * 2019-02-27 2020-09-03 キヤノン株式会社 Imaging apparatus and control method of imaging apparatus
EP3703357A3 (en) * 2019-02-27 2020-10-21 Canon Kabushiki Kaisha Imaging apparatus and method for controlling the same
CN116699796B (en) * 2023-08-07 2023-10-13 西安信飞特信息科技有限公司 Lens and method capable of feeding back focal length position

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5157432A (en) * 1988-09-09 1992-10-20 Minolta Camera Kabushiki Kaisha Camera having a zoom lens unit
JPH0273320A (en) * 1988-09-09 1990-03-13 Minolta Camera Co Ltd Autofocusing device
JP2920383B2 (en) * 1989-04-18 1999-07-19 コニカ株式会社 camera
JPH06197367A (en) * 1992-07-02 1994-07-15 Konica Corp Zoom lens device
KR101129385B1 (en) * 2005-05-24 2012-03-26 삼성전자주식회사 Zoom tracking method and image processing device executing the same
JP2011130256A (en) * 2009-12-18 2011-06-30 Canon Inc Imaging apparatus
KR101624654B1 (en) * 2010-03-15 2016-05-26 삼성전자주식회사 Focusing apparatus and Focusing method
JP6127730B2 (en) * 2013-05-31 2017-05-17 株式会社ニコン Imaging device

Also Published As

Publication number Publication date
JP2017037103A (en) 2017-02-16

Similar Documents

Publication Publication Date Title
US20120268613A1 (en) Image capturing apparatus and control method thereof
US20140184883A1 (en) Imaging device, semiconductor integrated circuit and imaging method
CN106998413B (en) Image processing apparatus, image capturing apparatus, image processing method, and medium
JP5676988B2 (en) Focus adjustment device
JP2015194706A (en) Focus detection device and control method thereof
JP2009168995A (en) Range-finding device and imaging apparatus
JP2008026802A (en) Imaging apparatus
JP2016142925A (en) Imaging apparatus, method of controlling the same, program, and storage medium
JP6659100B2 (en) Imaging device
JP2017211487A (en) Imaging apparatus and automatic focus adjustment method
JP6486098B2 (en) Imaging apparatus and control method thereof
US8379135B2 (en) Zoom lens and imaging apparatus including focus cam for converting rotation amounts into focus lens group movement
JP6381434B2 (en) FOCUS CONTROL DEVICE, OPTICAL DEVICE, AND FOCUS CONTROL METHOD
JP2018148383A (en) Imaging apparatus and imaging unit
US11924542B2 (en) Accuracy estimation apparatus, image capturing apparatus, accuracy estimation method, control method, and storage medium
US20100182488A1 (en) Photographing apparatus and focus detecting method using the same
JP2017118212A (en) Imaging apparatus
US9742983B2 (en) Image capturing apparatus with automatic focus adjustment and control method thereof, and storage medium
JP5418010B2 (en) Imaging apparatus and tracking method
JP4740477B2 (en) Stereoscopic imaging adapter lens and stereoscopic imaging system
JP6590899B2 (en) Imaging apparatus, imaging method, and program
JP2016099432A (en) Focus detection device, and method, program and storage medium
JP2005164983A (en) Digital camera
JP2010183353A (en) Photographing device
JP5943693B2 (en) Imaging device, control method thereof, and control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200204

R151 Written notification of patent or utility model registration

Ref document number: 6659100

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees