JP2018180135A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2018180135A
JP2018180135A JP2017076344A JP2017076344A JP2018180135A JP 2018180135 A JP2018180135 A JP 2018180135A JP 2017076344 A JP2017076344 A JP 2017076344A JP 2017076344 A JP2017076344 A JP 2017076344A JP 2018180135 A JP2018180135 A JP 2018180135A
Authority
JP
Japan
Prior art keywords
optical system
defocus value
distant
image
photoelectric conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017076344A
Other languages
Japanese (ja)
Inventor
啓仁 甲斐
Hirohito Kai
啓仁 甲斐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017076344A priority Critical patent/JP2018180135A/en
Publication of JP2018180135A publication Critical patent/JP2018180135A/en
Pending legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a focus detector which has an object resolution increased by using a two-dimensional area sensor with a finer pitch than the pitch of an existing AF line sensor and can obtain an appropriate result of measuring a distance if the object is perspective-competing.SOLUTION: The imaging device includes: photoelectric conversion pixels in a focus detection optical system formed as a two-dimensional area sensor; defocus value detection means; distant-view object region extraction means for extracting a distant-view object region from the result of detecting the defocus value. On the basis of the result of extraction of the distant-view object region in one of two directions substantially perpendicular to each other, the imaging device re-detects a defocus value in the other direction with the number of photoelectric conversion pixels in the other direction being limited, and detects the defocus value of the imaging lens based on the obtained results of detecting the defocus values in the two directions.SELECTED DRAWING: Figure 9

Description

本発明は、撮像装置及びその制御方法に関し、特に、自動焦点調節が可能な撮像装置及びその制御方法に関する。   The present invention relates to an imaging apparatus and its control method, and more particularly to an imaging apparatus capable of automatic focusing and its control method.

一眼レフカメラには、交換レンズ内の撮像光学系を通った光によって形成された一対の像信号の位相差から撮像光学系のデフォーカス値を検出する位相差検出方式による焦点検出システムが搭載されていることが多い。このような位相差検出方式では、撮影時の環境などの影響や、被写体の影響により、合焦位置を正確に検出できないおそれがある。   A single-lens reflex camera is equipped with a focus detection system based on a phase difference detection method that detects the defocus value of the imaging optical system from the phase difference between a pair of image signals formed by light passing through the imaging optical system in the interchangeable lens. Often In such a phase difference detection method, there is a possibility that the in-focus position can not be accurately detected due to the influence of the environment at the time of shooting or the influence of the subject.

このような問題を解決するために、特許文献1は、撮像素子で注目被写体を検出し、注目被写体の位置に基いて、測距点を設定する撮像装置を開示している。   In order to solve such a problem, Patent Document 1 discloses an imaging device that detects a subject of interest with an imaging device and sets a distance measurement point based on the position of the subject of interest.

特開2014−137567号公報JP 2014-137567 A

しかしながら、特許文献1は、注目被写体の近傍の測距点で測距するという点にしか言及しておらず、測距結果の信頼性を高める特別な解決手段は提案していない。   However, Patent Document 1 only mentions the point that distance measurement is performed at a distance measurement point near the subject of interest, and does not propose a special solution for enhancing the reliability of the distance measurement result.

そこで、本発明は、従来のAFラインセンサよりも微細ピッチとした2次元エリアセンサを用いることで、被写体分解能を向上し、遠近競合した被写体であっても適切な測距結果を得ることができる焦点検出装置を提供することを目的とする。   Therefore, according to the present invention, by using a two-dimensional area sensor with a finer pitch than the conventional AF line sensor, the object resolution can be improved, and appropriate distance measurement results can be obtained even for objects that are in perspective competition. An object of the present invention is to provide a focus detection device.

上記の目的を達成するために、本発明に係る焦点検出装置は、
所定の範囲内の被写体像を、第一の方向と、第一の方向に略直交する第二の方向とにそれぞれ対となる二領域ずつに分割し、各領域を通過する光束を光電変換画素上に結像させる焦点検出光学系と、
前記光電変換画素は、前記の対となる方向と、それに略直交する方向とに配列された二次元エリアセンサとして構成され、
前記第一の方向と前記第二の方向それぞれについて、前記焦点検出光学系を通過した光電変換画素上の光学像の前記の対となる方向の位置関係から、前記の対と略直交する方向にそれぞれ前記所定の範囲内におけるデフォーカス値を検出するデフォーカス値検出手段と、
前記被写体距離検出の結果から、前記の対と略直交する方向に遠景被写体領域を抽出する遠景被写体領域抽出手段と、を持ち、
前記第一の方向における前記遠景被写体領域抽出結果をもとに、第二の方向における光電変換画素数を限定した上で第二の方向におけるデフォーカス値再検出を行い、
前記第二の方向における前記遠景被写体領域抽出結果をもとに、第一の方向における光電変換画素数を限定した上で第一の方向におけるデフォーカス値再検出を行い、
得られた第一の方向および第二の方向のデフォーカス値再検出結果から、前記撮影レンズのデフォーカス値の検出を行うことを特徴とする。
In order to achieve the above object, the focus detection device according to the present invention is
A subject image within a predetermined range is divided into two regions, each forming a pair in a first direction and a second direction substantially orthogonal to the first direction, and a light beam passing through each region is photoelectrically converted A focus detection optical system for forming an image on the upper side,
The photoelectric conversion pixels are configured as a two-dimensional area sensor arranged in the pairing direction and a direction substantially orthogonal thereto.
For each of the first direction and the second direction, in the direction substantially orthogonal to the pair, from the positional relationship of the pairwise direction of the optical image on the photoelectric conversion pixel that has passed through the focus detection optical system Defocus value detection means for detecting defocus values within the predetermined range;
The distant view subject area extraction means for extracting a distant view subject area in a direction substantially orthogonal to the pair from the result of the subject distance detection;
The defocus value redetection in the second direction is performed after limiting the number of photoelectric conversion pixels in the second direction based on the distant-view object region extraction result in the first direction,
The defocus value redetection in the first direction is performed after limiting the number of photoelectric conversion pixels in the first direction based on the distant-view object region extraction result in the second direction,
The defocus value of the photographing lens is detected from the obtained defocus value re-detection results of the first direction and the second direction.

本発明によれば、背景のコントラストによって背景に合焦してしまう恐れを低減し、遠近競合したシーンでも主被写体に適切に合焦する焦点検出装置を提供することができる。   According to the present invention, it is possible to provide a focus detection apparatus capable of reducing the possibility of focusing on the background by the contrast of the background and appropriately focusing on the main subject even in a scene in which there is a distant competition.

カメラ全体構成の説明図Explanatory drawing of the whole camera configuration 焦点検出光学系における主要部分構成の説明図Explanatory view of the main parts of the focus detection optical system 絞りの平面図Top view of the aperture エリアセンサ受光面の平面図Plan of the area sensor light receiving surface 撮影範囲と合焦範囲の説明図Explanation of shooting range and focusing range センサ上における被写界像の説明図An illustration of the image of the field on the sensor 縦目光学系における選択画素ラインの説明図Explanatory view of selected pixel line in vertical eye optical system センサ出力値より相関演算する説明図Explanatory diagram to calculate correlation from sensor output value 縦目光学系と横目光学系結果からデフォーカス値選択するまでのフローチャートFlow chart for selecting defocus value from vertical eye optics and horizontal eye optics results

以下、添付図面を参照して本発明を実施するための形態を詳細に説明する。ただし、本形態において例示される構成部品の寸法、形状、それらの相対配置などは、本発明が適用される装置の構成や各種条件により適宜変更されるべきものであり、本発明がそれらの例示に限定されるものではない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings. However, the dimensions and shapes of the components exemplified in the present embodiment, their relative positions, and the like should be appropriately changed according to the configuration of the apparatus to which the present invention is applied and various conditions, and the present invention is an example of them. It is not limited to

以下、図1〜9を参照して、本発明の第1の実施例による、焦点検出装置について説明する。   Hereinafter, a focus detection apparatus according to a first embodiment of the present invention will be described with reference to FIGS.

本発明の実施例1においては、上記した本発明を適用してカメラシステムを構成した。図1に、本実施例のカメラシステムにおけるカメラ全体の構成を示す。   In Example 1 of the present invention, a camera system is configured by applying the above-described present invention. FIG. 1 shows the configuration of the entire camera in the camera system of this embodiment.

図1において、1はレンズ鏡筒である。2は撮像光学系、3はレンズ駆動手段、4はレンズ状態検出手段、5はレンズ制御手段、6は記憶手段であり、これらがレンズ鏡筒1の内部に設けられている。   In FIG. 1, reference numeral 1 denotes a lens barrel. An imaging optical system 2, a lens driving unit 3, a lens state detecting unit 4, a lens control unit 5 and a storage unit 6 are provided inside the lens barrel 1.

撮像光学系2は1つ又は複数のレンズ群から構成され、その全てもしくは一部を移動させることで焦点距離やフォーカスを変化させることが可能である。また、レンズ駆動手段3は撮像光学系2のレンズの全てもしくは一部を移動させて焦点状態を調整するように構成されている。   The imaging optical system 2 is composed of one or more lens groups, and it is possible to change the focal length and the focus by moving all or part of the lens group. Further, the lens driving means 3 is configured to move all or part of the lens of the imaging optical system 2 to adjust the focus state.

また、レンズ状態検出手段4は撮像光学系2の焦点距離、即ちズーム状態およびフォーカス状態を検出し、記憶手段6はROMのような記憶手段からなり、それらをレンズ制御手段5によって制御するように構成されている。   The lens state detection means 4 detects the focal length of the imaging optical system 2, that is, the zoom state and the focus state, and the storage means 6 comprises storage means such as a ROM, and these are controlled by the lens control means 5. It is configured.

ここで、前記レンズ状態検出手段4は、公知の方法、例えば撮像光学系2の焦点距離を変化させる為に回転または移動する鏡筒に設けられたエンコーダ用の電極とそれに接する検出用の電極等を用いることにより、前記撮像光学系2の焦点距離(ズーム状態)及びフォーカスを変化させる際に移動するレンズの移動状態、または移動状態を特徴付ける量を検出している。   Here, the lens state detection means 4 is a known method, for example, an electrode for an encoder provided on a lens barrel that rotates or moves to change the focal length of the imaging optical system 2 and a detection electrode etc. By using the above, the focal length (zoom state) of the imaging optical system 2 and the movement state of the lens moving when changing the focus or the amount characterizing the movement state is detected.

レンズ制御手段5には、撮像光学系2の焦点距離や開放絞り値等の性能情報、撮像光学系2の撮影レンズを識別するための固有の情報であるレンズID(識別)情報を記憶するメモリ(不図示)が設けられている。メモリは、カメラ制御部21から通信により受け取った情報も記憶する。なお、性能情報及びレンズID情報は、撮像装置8への撮影レンズ装着時における初期通信によりカメラ制御部21に送信され、カメラ制御部21はこれらを記憶装置14に記憶させる。   The lens control means 5 is a memory for storing performance information such as focal length and open aperture value of the imaging optical system 2 and lens ID (identification) information which is unique information for identifying the imaging lens of the imaging optical system 2 (Not shown) is provided. The memory also stores information received from the camera control unit 21 by communication. The performance information and the lens ID information are transmitted to the camera control unit 21 through initial communication when the taking lens is attached to the imaging device 8, and the camera control unit 21 stores these in the storage device 14.

8はカメラボディである。9は主ミラー、16は物体像が形成される焦点板、17は像反転用のペンタプリズム、18は接眼光学系であり、これらにより構成されたファインダ系がカメラボディ8内に設けられている。   8 is a camera body. 9 is a main mirror, 16 is a focusing plate on which an object image is formed, 17 is a pentaprism for image inversion, and 18 is an eyepiece optical system, and a finder system composed of these is provided in the camera body 8 .

また、ペンタプリズム17の接眼光学系18側の射出面上方には前記焦点板16上に形成されている被写体像の光量を検出し、撮影時の撮像光学系の絞り値及びカメラのシャッタースピードを決定する為の測光手段として測光レンズ19及び測光センサ20を配置している。   The light quantity of the object image formed on the focusing screen 16 is detected above the exit surface of the pentaprism 17 on the eyepiece optical system 18 side, and the aperture value of the imaging optical system at the time of shooting and the shutter speed of the camera are calculated. A photometric lens 19 and a photometric sensor 20 are disposed as photometric means for determining.

測光センサ20は、ユーザーが観察する角度とは異なる角度から焦点板16で拡散された被写体像を検出する。測光センサ20は、RGB各色のカラーフィルターを有した画素から構成されており、光電変換によってRGBそれぞれのフィルターを有する画素が検出する光を電気信号に変換する。この電気信号を基に被写体の色を数値化した色比をカメラ制御部21が算出することで被写体の色及び光源を判定する。被写体の色や光源が変化すると、撮像光学系2の色収差の影響により、後述する焦点検出光学系12はあたかも焦点が変動したかのように検出してしまうため、焦点検出誤差が生じる。そのため、色比というパラメータによって、焦点検出光学系12の焦点検出誤差と比例関係となるような式によって補正される。   The photometric sensor 20 detects an object image diffused by the focusing screen 16 from an angle different from the angle observed by the user. The photometric sensor 20 is composed of pixels having color filters of RGB colors, and converts light detected by the pixels having filters of RGB into electric signals by photoelectric conversion. The camera control unit 21 determines the color and light source of the subject by calculating the color ratio in which the color of the subject is digitized based on the electric signal. When the color of the subject or the light source changes, the focus detection optical system 12 described later is detected as if the focus has changed due to the influence of the chromatic aberration of the imaging optical system 2, and thus a focus detection error occurs. Therefore, it is corrected by an equation that is proportional to the focus detection error of the focus detection optical system 12 by the parameter of the color ratio.

10は主ミラー9を透過してきた光束を焦点検出光学系12に導くサブミラー、11は撮像光学系2が形成する被写体像を撮影する撮像素子、12は焦点検出光学系、21はカメラ制御手段、13は操作検出部、14は記憶装置、15は表示部であり、これらも同様にカメラボディ8内に設けられている。主ミラー9は、撮影光路内に光軸に対して斜めに配置され、被写体からの光束を上方のファインダ光学系に導く第1の位置(図示した位置)と、撮影光路外に退避する第2の位置とに移動が可能である。また、主ミラー9の中央部はハーフミラーになっており、主ミラー9が第1の位置にミラーダウンしているときには、被写体からの光束の一部がハーフミラー部を透過する。そして、この透過した光束は、主ミラー9の背面側に設けられたサブミラー10で反射され、焦点検出光学系12に導かれる。   10 is a sub mirror for guiding the light flux transmitted through the main mirror 9 to the focus detection optical system 12, 11 is an image pickup element for photographing an object image formed by the imaging optical system 2, 12 is a focus detection optical system, 21 is a camera control means, Reference numeral 13 denotes an operation detection unit, reference numeral 14 denotes a storage device, and reference numeral 15 denotes a display unit, which are similarly provided in the camera body 8. The main mirror 9 is disposed at an angle with respect to the optical axis in the imaging light path, and is a first position (the illustrated position) for guiding the light flux from the subject to the upper finder optical system and a second position for retracting outside the imaging light path. It is possible to move to the position of. The central portion of the main mirror 9 is a half mirror, and when the main mirror 9 is down to the first position, a part of the light flux from the subject passes through the half mirror portion. Then, the transmitted light flux is reflected by the sub mirror 10 provided on the back side of the main mirror 9 and is guided to the focus detection optical system 12.

主ミラー9が第2の位置にミラーアップした際には、サブミラー10も主ミラー9と共に折り畳まれて撮影光路外に退避する。これにより、撮影レンズ光学系を通過した光束は、メカシャッタであるフォーカルプレーンシャッタ23を通過し、撮像素子11に至る。フォーカルプレーンシャッタ23は、撮像素子11に入射する光量を制限する。撮像素子11は、撮像光学系2により形成された被写体像を光電変換して撮影画像を生成するための電気信号を出力し、CCDセンサやCMOSセンサ等の光電変換素子等を用いて構成される。   When the main mirror 9 mirrors up to the second position, the sub mirror 10 is also folded together with the main mirror 9 and retracted out of the photographing optical path. As a result, the light flux that has passed through the photographing lens optical system passes through the focal plane shutter 23 which is a mechanical shutter and reaches the image pickup device 11. The focal plane shutter 23 limits the amount of light incident on the imaging device 11. The imaging element 11 outputs an electrical signal for photoelectrically converting an object image formed by the imaging optical system 2 to generate a photographed image, and is configured using a photoelectric conversion element such as a CCD sensor or a CMOS sensor. .

カメラ制御部21は、撮像装置8における各種演算や各種動作の制御を行うコントローラであり、後述する遠景被写体領域抽出手段22の結果に基づいて遠景被写体領域を記憶装置14に記憶させる。カメラ制御部21は、電気接点ユニット7を介して、撮像光学系2内のレンズ制御手段5と通信を行う。カメラ制御部21は、焦点検出光学系12が生成した一対の像信号を基にデフォーカス値の検出を行う。レンズ制御手段5は、カメラ制御部21からの制御信号に応じて、撮像光学系2内のフォーカスレンズを光軸方向に駆動して焦点調節を行うレンズ駆動手段3を制御する。レンズ駆動手段3は、ステッピングモータを駆動源として有する。   The camera control unit 21 is a controller that controls various calculations and various operations in the imaging device 8, and stores the distant view subject region in the storage device 14 based on the result of the distant view subject region extraction unit 22 described later. The camera control unit 21 communicates with the lens control unit 5 in the imaging optical system 2 via the electrical contact unit 7. The camera control unit 21 detects the defocus value based on the pair of image signals generated by the focus detection optical system 12. The lens control means 5 controls the lens drive means 3 for driving the focus lens in the imaging optical system 2 in the optical axis direction to perform focusing in accordance with the control signal from the camera control unit 21. The lens drive means 3 has a stepping motor as a drive source.

また、カメラ制御部21には、記憶装置14が接続されている。カメラ制御部21は後述するデフォーカス値検出手段とデフォーカス値検出結果の信頼性を判定する信頼性判定手段の機能を有している。   Further, a storage device 14 is connected to the camera control unit 21. The camera control unit 21 has functions of a defocus value detection unit to be described later and a reliability determination unit that determines the reliability of the defocus value detection result.

記憶装置14には、撮像装置8を制御する上で調整が必要なパラメータや、撮像装置8の個体識別を行うためのカメラID(識別)情報や、基準レンズを用いて予め調整された、撮影に関するパラメータの工場調整値等が記憶されている。   In the storage device 14, parameters required to be adjusted in controlling the imaging device 8, camera ID (identification) information for performing individual identification of the imaging device 8, and imaging previously adjusted using a reference lens The factory adjustment value etc. of the parameter regarding are stored.

遠景被写体領域抽出手段22は、撮影者が撮像しようとした被写体に対して遠景被写体と主要被写体を各画素ラインで切り分ける。この結果は、記憶装置14に記憶される。   The distant view subject area extraction means 22 divides the distant view subject and the main subject in each pixel line with respect to the subject that the photographer intends to image. The result is stored in the storage unit 14.

操作検出部13は、不図示のレリーズボタンや、選択ボタンなどの操作を検出する。   The operation detection unit 13 detects an operation such as a release button or a selection button (not shown).

表示部15は、撮像素子11により撮像された画像データを表示したり、ユーザーが設定する項目を表示したりするための装置であり、一般にはカラーの液晶表示素子により構成される。   The display unit 15 is a device for displaying image data captured by the imaging device 11 and displaying items set by the user, and is generally configured by a color liquid crystal display device.

焦点検出光学系12は、いわゆる位相差検出方式で焦点検出を行う焦点検出光学系である。この焦点検出光学系12は撮像光学系2の瞳を複数の領域に分割し、各領域を通過する光束を用いて複数の被写体像に関する光量分布を形成する。焦点検出光学系12は、これら複数の光量分布の相対的な位置関係を求めることにより、撮像光学系2の合焦状態を撮影範囲中の複数の領域に対して検出する検出方式であり、撮像光学系2のレンズの全てもしくは一部のレンズの合焦位置まで移動する距離を検出する手段として用いられる。   The focus detection optical system 12 is a focus detection optical system that performs focus detection by a so-called phase difference detection method. The focus detection optical system 12 divides the pupil of the imaging optical system 2 into a plurality of areas, and forms light quantity distributions of a plurality of object images using light fluxes passing through the respective areas. The focus detection optical system 12 is a detection method for detecting the in-focus state of the imaging optical system 2 with respect to a plurality of areas in the imaging range by obtaining the relative positional relationship of the plurality of light quantity distributions. It is used as a means for detecting the distance of movement to the in-focus position of all or part of the lenses of the optical system 2.

図2は、図1に示した本実施例のカメラシステムにおける焦点検出光学系12の主要部分の構成を説明する図である。図2において、30は撮像光学系の光軸を示す。300は前記サブミラー10による撮像素子(撮像面)11に共役な近軸的結像面、12は以下の31から36を含んでいる。   FIG. 2 is a view for explaining the configuration of the main part of the focus detection optical system 12 in the camera system of the present embodiment shown in FIG. In FIG. 2, reference numeral 30 denotes an optical axis of the imaging optical system. Reference numeral 300 denotes a paraxial imaging plane conjugate to the imaging element (imaging plane) 11 by the sub mirror 10, and 12 includes the following 31 to 36.

31はフィールドレンズ、32は反射ミラー、33は赤外カットフィルタである。34は絞りであり、図3に示すように4つの開口34−1、34−2、34−3、34−4を有している。開口34−1、34-2は所定の範囲内の被写体像を第1の方向に分割して対となっている一方で、開口34−3、34-4は第1の方向に略直交する第2の方向に分割して対となっている。   31 is a field lens, 32 is a reflection mirror, and 33 is an infrared cut filter. Reference numeral 34 denotes a stop, which has four openings 34-1, 34-2, 34-3, 34-4 as shown in FIG. The openings 34-1 and 34-2 divide an object image within a predetermined range into a first direction to form a pair, while the openings 34-3 and 34-4 are substantially orthogonal to the first direction. It is divided in the second direction to form a pair.

35は2次結像レンズであり、絞り34の4つの開口34−1、34−2、34−3、34−4に対応して配置された4つのレンズ35−1、35−2、35−3、35−4を有している。36は光電変換画素からなるエリアセンサであって、絞り34の4つの開口34−1、34−2、34−3、34−4それぞれに対応して配置された4つのエリアセンサ36−1、36−2、36−3、36−4であり、所定の範囲内の被写体像を有している。   Reference numeral 35 denotes a secondary imaging lens, which includes four lenses 35-1, 35-2, 35 arranged corresponding to the four apertures 34-1, 34-2, 34-3, 34-4 of the diaphragm 34. -3 and 35-4. Reference numeral 36 denotes an area sensor composed of photoelectric conversion pixels, and includes four area sensors 36-1 arranged corresponding to the four openings 34-1, 34-2, 34-3, 34-4 of the diaphragm 34, 36-2, 36-3, 36-4, which have subject images within a predetermined range.

フィールドレンズ31は、絞り34の4つの開口を撮像素子(撮像面)11に共役な近軸的結像面から100mm位置に配置されたAF瞳面に結像させる。反射ミラー32にはアルミニウムや銀等の金属膜が蒸着されていて、センサ36上に入射する迷光を減少させるため、必要最低限の領域のみが蒸着されている。   The field lens 31 images the four apertures of the diaphragm 34 on an AF pupil plane disposed at a position 100 mm away from the paraxial imaging plane conjugate to the imaging device (imaging plane) 11. A metal film of aluminum, silver or the like is vapor-deposited on the reflection mirror 32, and only a minimal area is vapor-deposited in order to reduce stray light incident on the sensor 36.

図3は、図2に示した絞り34の平面図である。絞り34は、横長の2つの開口34−1、34−2、縦長の2つの開口34−3、34−4を開口幅の狭い方向に並べた構成となっている。図中、点線で示されているのは、絞り34の開口34−1、34−2、34−3、34−4に対応してその後方に配置されている2次結像レンズ35の各光学系35−1、35−2、35−3、35−4の領域を示している。ここで、それぞれ絞り34の開口34−1、34−2と2次結像レンズ35の各光学系35−1、35−2を通ってセンサ36上に結像する光学系を縦目光学系と称する。同様に、絞り34の開口34−3、34−4と2次結像レンズ35の各光学系35−3、35−4を通ってセンサ36上に結像する光学系を横目光学系と称する。   FIG. 3 is a plan view of the diaphragm 34 shown in FIG. The diaphragm 34 has a configuration in which two horizontally long openings 34-1 and 34-2 and two vertically long openings 34-3 and 34-4 are arranged in the narrow direction of the opening width. In the figure, dotted lines indicate each of the secondary imaging lenses 35 disposed behind the apertures 34-1, 34-2, 34-3, 34-4 of the diaphragm 34. Areas of optical systems 35-1, 35-2, 35-3, 35-4 are shown. Here, the optical system for forming an image on the sensor 36 through the respective optical systems 35-1 and 35-2 of the apertures 34-1 and 34-2 of the diaphragm 34 and the secondary imaging lens 35 is a longitudinal optical system It is called. Similarly, an optical system which forms an image on the sensor 36 through the openings 34-3 and 34-4 of the stop 34 and the optical systems 35-3 and 35-4 of the secondary imaging lens 35 is referred to as a transverse optical system. .

図4は、図2に示したセンサ36の平面図である。図4で示した4つのエリアセンサ36−1、36−2、36−3、36−4は、この図に示すように2次元的に画素を配列したエリアセンサを4つ配置したものである。ここでは、4つのエリアセンサ36を配置したがセンサ面上の全面がエリアセンサ36になっていてもかまわない。36−1、36−2にはそれぞれ、絞り34の開口34−1、34−2を通過した光束がセンサ上に結像するので、これらを縦目光学系とする。とりわけ、36−1に結像する光学像を縦目光学系のA像、36−2に結像する光学像を縦目光学系のB像と称する。同様に、36−3、36−4にはそれぞれ、絞り34の開口34−3、34−4を通過した光束が結像するので、これらを横目光学系とし、36−3に結像する光学像を横目光学系のA像、36−4に結像する光学像を横目光学系のB像と称する。また、1対の被写体像同士の相対的な位置が変化する方向を相関方向とし、相関方向と直交する方向を相関直交方向とする。縦目光学系では、36−1と36−2が相関方向であり、横目光学系では36−3と36−4が相関方向である。前記エリアセンサは、光電変換画素から構成されており、該画素は相関方向と相関直交方向とに配列されている。   FIG. 4 is a plan view of the sensor 36 shown in FIG. Four area sensors 36-1, 36-2, 36-3, 36-4 shown in FIG. 4 are four area sensors in which pixels are two-dimensionally arrayed as shown in this figure. . Here, the four area sensors 36 are disposed, but the entire area on the sensor surface may be the area sensor 36. The luminous fluxes passing through the openings 34-1 and 34-2 of the diaphragm 34 are imaged on the sensor at 36-1 and 36-2, respectively, and these are assumed to be longitudinal optical systems. In particular, an optical image forming an image 36-1 is referred to as an A image of the longitudinal optical system, and an optical image forming an image 36-2 as a B image of the longitudinal optical system. Similarly, since the light beams having passed through the apertures 34-3 and 34-4 of the diaphragm 34 are imaged on the 36-3 and 36-4, respectively, these are made to be a lateral optical system, and an optical for imaging the 36-3 An optical image for forming an image on an A image of the lateral eye optical system and an optical image forming an image 36-4 is referred to as a B image of the lateral eye optical system. Further, a direction in which the relative position of a pair of subject images changes is referred to as a correlation direction, and a direction orthogonal to the correlation direction is referred to as a correlation orthogonal direction. In the vertical-eye optical system, 36-1 and 36-2 are the correlation directions, and in the horizontal-eye optical system, 36-3 and 36-4 are the correlation directions. The area sensor is composed of photoelectric conversion pixels, and the pixels are arranged in the correlation direction and the correlation orthogonal direction.

以上の構成要素を有する焦点検出系において、図2に示すように、撮像光学系2からの光束37−1、37−2は、主ミラー9のハーフミラー面を透過後、サブミラー10により反射され、反射ミラー32によって再び方向を変えられた後、赤外カットフィルタ33を介して絞り34の4つの開口34−1、34−2、34−3、34−4を経て、2次結像レンズ35の各光学系35−1、35−2、35−3、35−4により集光され、センサ36の各エリアセンサ36−1、36−2、36−3、36−4上にそれぞれ到達する。   In the focus detection system having the above components, as shown in FIG. 2, light beams 37-1 and 37-2 from the imaging optical system 2 are reflected by the sub mirror 10 after being transmitted through the half mirror surface of the main mirror 9. After changing the direction again by the reflection mirror 32, through the infrared cut filter 33, through the four openings 34-1, 34-2, 34-3, 34-4 of the diaphragm 34, a secondary imaging lens The light is collected by each of the 35 optical systems 35-1, 35-2, 35-3, 35-4 and reaches the area sensors 36-1, 36-2, 36-3, 36-4 of the sensor 36, respectively. Do.

図2中の光束37−1、37−2はセンサ36受光面上の縦目光学系に結像する光束を示したものであり、横目光学系についても同様の経路を経て、センサ36に達し、全体として、所定の2次元領域に対応する被写体像に関する4つの光量の分布がセンサ36の各エリアセンサ36−1、36−2、36−3、36−4上に形成される。   The light beams 37-1 and 37-2 in FIG. 2 indicate the light beams forming an image on the longitudinal optical system on the light receiving surface of the sensor 36. The horizontal optical system also reaches the sensor 36 through the same path. As a whole, the distribution of four light quantities related to the subject image corresponding to a predetermined two-dimensional area is formed on each of the area sensors 36-1, 36-2, 36-3, 36-4 of the sensor 36.

図1における焦点検出光学系12は、上記のようにして得られた4つの被写体像に関する光量分布に対して、公知の焦点検出方法と同様の検出原理に基づきデフォーカス値を検出し、焦点はずれ量Dを算出している。即ち図6に示す4つの被写体像2203−aと2203−b、2303−aと2303−bの相対的位置関係を、エリアセンサ36−1と36−2、36−3と36−4の各画素の検出結果を用いてデフォーカス値を検出し、その結果を焦点はずれ量Dとして算出する。   The focus detection optical system 12 in FIG. 1 detects defocus values based on the same detection principle as the known focus detection method for the light quantity distributions of the four object images obtained as described above, and the focus is shifted. The quantity D is calculated. That is, the relative positional relationship between the four object images 2203-a and 2203-b and 2303-a and 2303-b shown in FIG. 6 can be compared with each of the area sensors 36-1 and 36-2, 36-3 and 36-4. The defocus value is detected using the detection result of the pixel, and the result is calculated as the defocus amount D.

36−1は36−1−1、36−1−2、36−1−3のように配列数分だけ画素ラインが存在し、それぞれの画素ラインがデフォーカス値を有しており、それに伴って焦点はずれ量Dを算出している。   36-1 has pixel lines corresponding to the number of arrangement like 36-1-1, 36-1-2, 36-1-3, and each pixel line has a defocus value, accordingly The out-of-focus amount D is calculated.

ここで、デフォーカス値の検出に用いる光電変換画素の画素数について説明する。相関方向の被写体像の位置ずれ量からデフォーカス値を検出する演算を相関演算と呼ぶ。相関演算は、相関方向に並んだ2つの画素ライン出力をもとに、それぞれのセンサに到達する被写体像の相対位置ずれ量を検出するが、画素ラインの中で相関演算に用いる画素数及び画素範囲は自由に選択可能である。例として、演算負荷を低減するために、より広角側のレンズを用いる場合には被写体像は焦点検出領域に対して小さく写っていると想定し画素数を低減するなど、レンズの焦点距離に応じて演算画素数を変えるといった仕様が考えられる。   Here, the number of photoelectric conversion pixels used to detect the defocus value will be described. An operation for detecting the defocus value from the positional deviation amount of the subject image in the correlation direction is called a correlation operation. The correlation operation detects the relative positional deviation amount of the subject image reaching each sensor based on the two pixel line outputs arranged in the correlation direction, but the number of pixels and pixels used for the correlation operation in the pixel line The range is freely selectable. As an example, in order to reduce the calculation load, when using a lens on the wide-angle side, it is assumed that the subject image is small with respect to the focus detection area, and the number of pixels is reduced. There is a possibility that the calculation pixel number is changed.

上記が焦点検出光学系12における光学系の説明である。   The above is the description of the optical system in the focus detection optical system 12.

図5は撮影範囲と合焦範囲を表している。ここで、2101は被写体側での撮影範囲を表しており、2102は該撮影範囲2101内のうち焦点検出が可能な範囲を表している。2103は主要被写体を表している。このような撮影シーンにおいて焦点検出光学系12を用いて焦点検出を行おうとした場合にはセンサ36には図6に示しているように、センサ36−1、36−2、36−3、36−4上には前記2102の範囲の像が形成されており、それぞれ前記主用被写体2103の像2203−a、2203−b、2303−a、2303−bが形成されている。   FIG. 5 shows a photographing range and a focusing range. Here, reference numeral 2101 denotes a shooting range on the subject side, and reference numeral 2102 denotes a range in which the focus detection is possible within the shooting range 2101. Reference numeral 2103 denotes a main subject. When focus detection is to be performed using the focus detection optical system 12 in such a photographing scene, the sensors 36-1, 36-2, 36-3, 36, as shown in FIG. An image in the range of the above-mentioned 2102 is formed on the -4, and images 2203-a, 2203-b, 2303-a, and 2303-b of the subject 2103 for the main subject are formed, respectively.

図7は、主要被写体2103にピント合せを行おうとして縦目光学系の相関演算を行う領域を2301−1及び2301−2とした場合を示す。また、2301−1、2301−2からのセンサの出力は図8のようになる。(A)は2301−1の出力を、(B)は2301−2の出力を表しており、それぞれの出力を用いて相関演算を行っている。センサライン上の出力読み出し開始位置が例えば上からの場合(図7)、センサ出力が高くなるのは髪と額の境界、額とまゆ毛の境界、目と頬の境界、頬と口の境界などである。像間隔を算出する際の特徴としてコントラストが高い方が高精度にデフォーカス値を検出することが可能であるので、2301−1及び2301−2の画素ラインで示したような髪と額の境界部等はデフォーカス値を検出するのに適している。   FIG. 7 shows a case where the correlation calculation of the vertical-eye optical system is performed to set the main subject 2103 as 2301-1 and 2301-2. Also, the outputs of the sensors from 2301-1 and 2301-2 are as shown in FIG. (A) represents the output of 2301-1 and (B) represents the output of 2301-2, and the correlation operation is performed using the respective outputs. For example, when the output reading start position on the sensor line is from above (Fig. 7), the sensor output becomes higher at the hair-forehead boundary, the forehead-eyebrow boundary, the eye-cheek boundary, the cheek-mouth boundary, etc. It is. As a feature in calculating the image interval, it is possible to detect the defocus value with high accuracy if the contrast is high, so the boundary between the hair and the forehead as indicated by the pixel line 2301-1 and 2301-2. A part or the like is suitable for detecting the defocus value.

次に遠近競合している被写界から遠景被写体と主要被写体を判別する説明をする。焦点検出光学系12は、縦目光学系と横目光学系のそれぞれで相関方向にデフォーカス値を検出する。遠景被写体領域抽出手段22である遠景被写体領域抽出部は、デフォーカス値検出結果から、縦目光学系と横目光学系のそれぞれで対となる方向に遠景被写体領域を抽出する。例えば、縦目光学系の場合、連続した各画素ラインそれぞれの結果から横方向に遠景被写体がどこにあるかを判定することで遠景被写体領域を抽出する。すなわち、ある画素ラインAとそれより遠方にある画素ラインBの焦点はずれ量Dの差分が遠近判別閾値Xよりも大きいとき、画素ラインBの領域の被写体を遠景被写体と判定し、画素ラインAの領域の被写体を主被写体であると判定する。同様に横目光学系なら縦方向に遠景被写体領域を抽出する。   Next, a description will be made to distinguish between a distant subject and a main subject from a far-and-far conflicting object scene. The focus detection optical system 12 detects the defocus value in the correlation direction in each of the vertical eye optical system and the horizontal eye optical system. The distant view object area extraction unit, which is the distant view object area extraction unit 22, extracts a distant view object area in the direction in which the vertical-eye optical system and the horizontal-eye optical system are paired, from the defocus value detection result. For example, in the case of the vertical-eye optical system, the distant subject area is extracted by determining where the distant subject is in the horizontal direction from the result of each continuous pixel line. That is, when the difference between the defocus amount D between a pixel line A and a pixel line B located farther than that is greater than the perspective determination threshold X, the subject in the pixel line B region is determined to be a distant subject, and the pixel line A It is determined that the subject in the area is the main subject. Similarly, in the case of the horizontal-eye optical system, a distant subject area is extracted in the vertical direction.

ここで、該遠近判定閾値Xは、記憶装置14に工場出荷時に記憶されている固定値、あるいは、ユーザーが操作検出部13により独自に設定してもよい。   Here, the distance determination threshold X may be a fixed value stored in the storage device 14 at the time of shipment from the factory, or the user may uniquely set it by the operation detection unit 13.

ここで、縦目光学系のデフォーカス値から遠景被写体領域を検出した例を示す。縦目光学系は、図6の2203−aおよび2203−bに示すように縦方向に並んだ二像の位置ずれ量から焦点はずれ量Dを算出する。縦目光学系の焦点検出画素は横に並んだ各列で焦点はずれ量Dを算出するため、焦点はずれ量Dの各画素ライン間の差分が遠近判定閾値Xを超えるとき、焦点はずれ量Dの値から近景領域と遠景領域とを列の並ぶ横方向に抽出することが出来る。このとき、図6の2303−aおよび2303−bに示す横目光学系で同様の被写体領域についてデフォーカス値の検出を行うと、横目光学系の相関演算画素ラインは遠景被写体と近景被写体の両者を像ずれ量を同時に見ながらデフォーカス値の検出および焦点はずれ量Dの算出を行うこととなる。これに対し本発明では、縦目光学系によって抽出された横方向の遠景領域については、横目光学系において相関演算に用いる画素から排除し、主被写体の像のみでデフォーカス値の検出および焦点はずれ量Dの算出を行う。これにより、相関演算において背景である遠景被写体の影響を低下することができ、より高精度な焦点はずれ量Dの算出が可能となる。   Here, an example is shown in which the distant subject region is detected from the defocus value of the vertical-eye optical system. The longitudinal optical system calculates the defocus amount D from the misregistration amounts of the two images aligned in the longitudinal direction as shown by 2203-a and 2203-b in FIG. The focus detection pixels of the vertical-eye optical system calculate the defocus amount D in each row arranged horizontally, so when the difference between the pixel lines of the defocus amount D exceeds the distance determination threshold X, the defocus amount D From the values, the near view area and the far view area can be extracted in the horizontal direction in which the rows are arranged. At this time, if defocus values are detected for similar subject areas by the horizontal eye optical systems shown in 2303-a and 2303-b in FIG. 6, the correlation calculation pixel line of the horizontal eye optical system detects both distant subjects and near subjects Detection of the defocus value and calculation of the defocus amount D will be performed while simultaneously looking at the image misalignment amount. On the other hand, in the present invention, the horizontal distant view area extracted by the vertical-eye optical system is excluded from the pixels used for the correlation operation in the horizontal-eye optical system, and the defocus value is detected and out of focus only with the main subject image. Calculate the quantity D. This makes it possible to reduce the influence of the distant subject which is the background in the correlation calculation, and it becomes possible to calculate the defocus amount D with higher accuracy.

縦目光学系と横目光学系のデフォーカス値を選択するまでのフローチャートを、図9を用いて説明する。   A flowchart up to selection of defocus values of the vertical eye optical system and the horizontal eye optical system will be described with reference to FIG.

撮影者が遠景被写体と主要被写体が混在した像について焦点検出(AF)を行うとき、まずステップ1で、縦目光学系の各画素ラインでデフォーカス値を検出し、その値を焦点はずれ量Dとして記憶装置14に記憶してステップ2に移行する。   When the photographer performs focus detection (AF) on an image in which a distant subject and a main subject are mixed, first, in step 1, the defocus value is detected in each pixel line of the vertical-eye optical system, and the value is used as the defocus amount D As the storage unit 14 and the process proceeds to step 2.

ステップ2では、前述のように、焦点はずれ量Dの各画素ライン間の差分と遠近判定閾値Xとを比較し、AF範囲内に遠景被写体を含むか否かを判定する。さらに、遠景被写体を含むときには、遠景と判断される領域を横方向に抽出し、範囲<a>として記憶装置14に記憶し、ステップ3に移行する。このとき、遠景被写体を含まないと判定されたら、範囲<a>は領域なしとして記憶装置14に記憶される。   In step 2, as described above, the difference between the pixel lines of the defocus amount D is compared with the distance determination threshold X to determine whether a distant subject is included in the AF range. Furthermore, when the distant view subject is included, an area determined to be distant view is extracted in the horizontal direction, and stored in the storage device 14 as the range <a>, and the process shifts to step 3. At this time, if it is determined that the distant view subject is not included, the range <a> is stored in the storage device 14 as no area.

ステップ3では、横目光学系の各画素ラインでデフォーカス値を検出する。その際、前述の範囲<a>に基づいて、相関演算画素数を限定する。これは、背景である遠景領域と主要被写体である近景領域とが混在した領域の像ずれ量からデフォーカス値を検出するのに対して、近景領域のみに限定した領域の像ずれ量からデフォーカス値を検出するほうが、像ずれの算出に際して遠景領域の影響が小さく、より高精度な測距が可能となるためである。デフォーカス値の検出を終え、各ラインにおける焦点はずれ量Dを記憶装置14に記憶した後に、ステップ4に移行する。   In step 3, the defocus value is detected at each pixel line of the horizontal optical system. At this time, the number of correlation calculation pixels is limited based on the above-mentioned range <a>. This is because the defocus value is detected from the image shift amount of the area where the distant view area which is the background and the near view area which is the main subject are mixed, while the defocus amount is detected based on the image shift amount of the area limited to only the near view area. It is because the influence of the distant view area is small when the image shift is calculated when the value is detected, and the distance measurement with higher accuracy can be performed. After detecting the defocus value and storing the defocus amount D in each line in the storage device 14, the process proceeds to step 4.

ステップ4では、縦目光学系においてステップ2として行ったのと同様に、横目光学系について焦点はずれ量Dの各画素ライン間の差分と遠近判定閾値Xとを比較し、AF範囲内に遠景被写体を含むか否かを判定する。さらに、遠景被写体を含むときには、遠景と判断される領域を縦方向に抽出し、範囲<b>として記憶装置14に記憶し、ステップ5に移行する。このとき、遠景被写体を含まないと判定されたら、範囲<b>は領域なしとして記憶装置14に記憶される。   In step 4, as with step 2 in the vertical-eye optical system, the difference between the pixel lines of defocus amount D for the horizontal-eye optical system is compared with the distance determination threshold X, and the distant view object within the AF range It is determined whether it contains or not. Furthermore, when the distant view subject is included, an area determined to be distant view is extracted in the vertical direction, stored as the range <b> in the storage device 14, and the process proceeds to step 5. At this time, if it is determined that the distant view subject is not included, the range <b> is stored in the storage device 14 as no area.

ステップ5では、縦目光学系の前述の範囲<a>外における近景領域の画素ラインについて、横目光学系でステップ3において行ったのと同様に、前述の範囲<b>に基づいて相関演算画素数を限定し、デフォーカス値を検出する。デフォーカス値の検出を終え、各ラインにおける焦点はずれ量Dを記憶装置14に記憶した後に、ステップ6に移行する。この際、焦点はずれ量Dの記憶については、ステップ1で記憶した焦点はずれ量Dを更新して記憶しても良いし、別の値として記憶しても良い。   In step 5, for pixel lines in the near view area outside the above-described range <a> of the longitudinal optical system, as in the case of step 3 in the lateral-eye optical system, correlation operation pixels are calculated based on the above range <b> Limit the number and detect the defocus value. After the detection of the defocus value is completed and the defocus amount D in each line is stored in the storage device 14, the process proceeds to step 6. At this time, regarding the storage of the defocus amount D, the defocus amount D stored in step 1 may be updated and stored, or may be stored as another value.

ステップ6では、ステップ5で記憶した縦目光学系の範囲<a>外における測距結果と、ステップ3で記憶した横目光学系の範囲<b>外における測距結果から、最終的な焦点はずれ量Dとして適切な値を算出する。この算出方法については、縦目光学系・横目光学系のそれぞれの画素ラインについて最も信頼性の高い画素ラインを選択する、縦目光学系での測距結果と横目光学系での測距結果を平均する、といったいくつかの方法が考えられ、本実施例において限定されるものではない。   In step 6, the final focus deviation is based on the distance measurement results outside the range <a> of the vertical-eye optical system stored in step 5 and the distance measurement results outside the range <b> of the horizontal-eye optical system stored in step 3. Calculate an appropriate value as the amount D. Regarding this calculation method, the distance measurement result with the vertical eye optical system and the distance measurement result with the horizontal eye optical system are selected, in which the pixel line with the highest reliability is selected for each pixel line of the vertical eye optical system and horizontal eye optical system. Several methods, such as averaging, are conceivable and are not limited in the present embodiment.

また、本実施例では画素限定しない縦目光学系でのデフォーカス値検出を先行する例を示したが、横目光学系でのデフォーカス値検出を画素限定せずに先行して行い縦目光学系でのデフォーカス値検出を画素限定して行っても良い。最終的に遠景領域の画素を排除して相関演算を行うのであれば、縦目光学系・横目光学系の演算順序は限定されない。   In this embodiment, an example is shown in which the defocus value detection in the longitudinal optical system not limited to pixels is preceded, but the defocus value detection in the horizontal optical system is preceded without pixel limitation, and the longitudinal optical is performed. The defocus value detection in the system may be performed with pixel limitation. If the correlation calculation is finally performed excluding the pixels in the distant view area, the calculation order of the vertical-eye optical system / horizontal-eye optical system is not limited.

以上が、撮影時の縦目光学系と横目学系のデフォーカス値選択時のフローチャートである。   The above is the flow chart when selecting the defocus value of the vertical-eye optical system and the horizontal-vision optical system at the time of shooting.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although the preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

12 焦点検出光学系デ、21 フォーカス値検出手段、
22 遠景被写体領域抽出手段、36 光電変換画素
12 focus detection optical system de, 21 focus value detection means,
22 distant subject area extraction means, 36 photoelectric conversion pixels

Claims (1)

所定の範囲内の被写体像を、第一の方向と、第一の方向に直交する第二の方向とにそれぞれ対となる二領域ずつに分割し、各領域を通過する光束を光電変換画素上に結像させる焦点検出光学系と、
前記光電変換画素は、前記の対となる方向と、それに直交する方向とに配列された二次元エリアセンサとして構成され、
前記第一の方向と前記第二の方向それぞれについて、前記焦点検出光学系を通過した光電変換画素上の光学像の前記の対となる方向の位置関係から、前記の対と直交する方向にそれぞれ前記所定の範囲内におけるデフォーカス値を検出するデフォーカス値検出手段と、
前記被写体距離検出の結果から、前記の対と直交する方向に遠景被写体領域を抽出する遠景被写体領域抽出手段と、
を持ち、
前記第一の方向における前記遠景被写体領域抽出結果をもとに、第二の方向における光電変換画素数を限定した上で第二の方向におけるデフォーカス値再検出を行い、
前記第二の方向における前記遠景被写体領域抽出結果をもとに、第一の方向における光電変換画素数を限定した上で第一の方向におけるデフォーカス値再検出を行い、
得られた第一の方向および第二の方向のデフォーカス値再検出結果から、前記撮影レンズのデフォーカス値の検出を行うことを特徴とする焦点検出装置。
A subject image within a predetermined range is divided into two regions, each forming a pair in a first direction and a second direction orthogonal to the first direction, and the light flux passing through each region is on a photoelectric conversion pixel A focus detection optical system for forming an image on the
The photoelectric conversion pixel is configured as a two-dimensional area sensor arranged in the pairing direction and a direction orthogonal thereto.
For each of the first direction and the second direction, based on the positional relationship of the pairwise direction of the optical image on the photoelectric conversion pixel that has passed through the focus detection optical system, each in the direction orthogonal to the pair Defocus value detection means for detecting the defocus value within the predetermined range;
A distant view object area extraction unit that extracts a distant view object area in the direction orthogonal to the pair from the result of the object distance detection;
Have
The defocus value redetection in the second direction is performed after limiting the number of photoelectric conversion pixels in the second direction based on the distant-view object region extraction result in the first direction,
The defocus value redetection in the first direction is performed after limiting the number of photoelectric conversion pixels in the first direction based on the distant-view object region extraction result in the second direction,
A focus detection device characterized by performing detection of a defocus value of the photographing lens from the obtained defocus value re-detection results of the first direction and the second direction.
JP2017076344A 2017-04-07 2017-04-07 Imaging device Pending JP2018180135A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017076344A JP2018180135A (en) 2017-04-07 2017-04-07 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017076344A JP2018180135A (en) 2017-04-07 2017-04-07 Imaging device

Publications (1)

Publication Number Publication Date
JP2018180135A true JP2018180135A (en) 2018-11-15

Family

ID=64275231

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017076344A Pending JP2018180135A (en) 2017-04-07 2017-04-07 Imaging device

Country Status (1)

Country Link
JP (1) JP2018180135A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109633668A (en) * 2018-12-26 2019-04-16 中国科学院长春光学精密机械与物理研究所 Laser ranging system
CN117455921A (en) * 2023-12-26 2024-01-26 菲特(天津)检测技术有限公司 Large-depth-of-field imaging detection method and system based on small-field lens

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109633668A (en) * 2018-12-26 2019-04-16 中国科学院长春光学精密机械与物理研究所 Laser ranging system
CN117455921A (en) * 2023-12-26 2024-01-26 菲特(天津)检测技术有限公司 Large-depth-of-field imaging detection method and system based on small-field lens
CN117455921B (en) * 2023-12-26 2024-04-02 菲特(天津)检测技术有限公司 Large-depth-of-field imaging detection method and system based on small-field lens

Similar Documents

Publication Publication Date Title
JP5211714B2 (en) Imaging device
KR101395015B1 (en) Camera, focus detection method and control method
US20090115882A1 (en) Image-pickup apparatus and control method for image-pickup apparatus
JP2007233032A (en) Focusing device and imaging apparatus
JP2007233034A (en) Imaging apparatus
JP5857547B2 (en) Focus detection device and focus adjustment device
JP5256675B2 (en) Imaging device
JP2015152749A (en) Imaging device and control method of the same
JP2010128205A (en) Imaging apparatus
JP2018180135A (en) Imaging device
JP5157073B2 (en) Focus adjustment device and imaging device
JP2016200629A (en) Image pickup apparatus, and control method, and program for the same
JP2002023044A (en) Focus detector, range-finding device and camera
JP2006215398A (en) Image pickup device
JP5610005B2 (en) Imaging device
JP2014194502A (en) Imaging apparatus and imaging system
JP2005308960A (en) Imaging apparatus provided with automatic focusing device
JP2009081522A (en) Imaging apparatus
JP5332384B2 (en) Correlation calculation device, focus detection device, and imaging device
JP5338119B2 (en) Correlation calculation device, focus detection device, and imaging device
JP2018180134A (en) Imaging device
JP5399627B2 (en) Focus detection device, focus adjustment device, and imaging device
JP6530610B2 (en) Focusing device, imaging device, control method of focusing device, and program
JP2019074634A (en) Imaging apparatus
JP7207874B2 (en) CONTROL DEVICE, IMAGING DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20191125