JP2006322970A - Focus detector - Google Patents

Focus detector Download PDF

Info

Publication number
JP2006322970A
JP2006322970A JP2005143684A JP2005143684A JP2006322970A JP 2006322970 A JP2006322970 A JP 2006322970A JP 2005143684 A JP2005143684 A JP 2005143684A JP 2005143684 A JP2005143684 A JP 2005143684A JP 2006322970 A JP2006322970 A JP 2006322970A
Authority
JP
Japan
Prior art keywords
sensor
focus detection
shooting screen
pair
distance measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005143684A
Other languages
Japanese (ja)
Other versions
JP4642547B2 (en
Inventor
Tetsuhisa Kikuchi
哲央 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2005143684A priority Critical patent/JP4642547B2/en
Publication of JP2006322970A publication Critical patent/JP2006322970A/en
Application granted granted Critical
Publication of JP4642547B2 publication Critical patent/JP4642547B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a focus detector capable of reducing a reference two-image interval value while achieving wide field. <P>SOLUTION: By excluding range-finding points near four corners of a photographic image plane corresponding to range-finding points which are not used for photography so much, a sensor train is arranged to come nearer to the center direction of the photographic image plane by as much as the space spared. The shape of the aperture part of a field mask is changed in accordance with the arrangement of the sensor train. Thus, the two-image interval value is shortened while maintaining the wide field. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、焦点検出装置に関し、特に撮影画面内における複数の測距点の焦点状態を検出可能な焦点検出装置に関する。   The present invention relates to a focus detection apparatus, and more particularly to a focus detection apparatus capable of detecting the focus state of a plurality of distance measuring points in a shooting screen.

撮影画面に対し複数の測距点を配置することで、撮影画面内の複数の点に対する焦点状態検出を行うことができるカメラの焦点検出装置が種々提案されている。例えば、特許文献1は、位相差方式における5点測距を実現した例である。   Various focus detection devices for cameras that can detect a focus state for a plurality of points in a shooting screen by arranging a plurality of distance measuring points on the shooting screen have been proposed. For example, Patent Document 1 is an example in which five-point distance measurement in the phase difference method is realized.

また、特許文献2では、撮影画面内の水平方向の焦点検出領域に対応する水平センサ列対と、撮影画面内の垂直方向の焦点検出領域に対応する垂直センサ列対とを用いることにより、位相差方式における多点測距と焦点検出の精度の向上とを実現している。
特開平5−100159号公報 特開平9−184965号公報
Further, in Patent Document 2, a horizontal sensor row pair corresponding to a horizontal focus detection region in a shooting screen and a vertical sensor row pair corresponding to a vertical focus detection region in a shooting screen are used, thereby The multi-point distance measurement and the accuracy of focus detection in the phase difference method are realized.
Japanese Patent Laid-Open No. 5-100159 JP-A-9-184965

近年、更なる多点測距及び広視野化の実現のため、測距点の数は、増加の一途をたどっている。また、高精度の焦点検出を実現するためには、全測距点において、水平方向の焦点検出と垂直方向の焦点検出とを行う必要がある。ここで、特許文献1の手法は、黄金分割や3等分割を得るための測距点配置であり、水平方向の焦点検出と垂直方向の焦点検出を行っているのは、中央の測距点のみである。また、特許文献2の手法は、水平センサ列と垂直センサ列の射出瞳における被写体光束の位置が異なっており、水平センサ列のほうが垂直センサ列に比べて焦点検出精度が高い。しかしながら、水平センサ列は、撮影画面内の中央付近の焦点状態のみを検出するものである。   In recent years, the number of ranging points has been steadily increasing in order to realize further multi-point ranging and wide field of view. In order to realize high-precision focus detection, it is necessary to perform horizontal focus detection and vertical focus detection at all distance measurement points. Here, the technique of Patent Document 1 is a distance measuring point arrangement for obtaining golden division or third equal division, and horizontal focus detection and vertical focus detection are performed at the center distance measurement point. Only. In the method of Patent Document 2, the positions of the subject light fluxes at the exit pupils of the horizontal sensor row and the vertical sensor row are different, and the horizontal sensor row has higher focus detection accuracy than the vertical sensor row. However, the horizontal sensor row detects only the focus state near the center in the shooting screen.

これらに対し、更なる広視野化を行う場合には、焦点検出装置に設けられたAF光学系における2次結像系の光路長が増大する。この理由を以下に説明する。   On the other hand, when the field of view is further increased, the optical path length of the secondary imaging system in the AF optical system provided in the focus detection apparatus increases. The reason for this will be described below.

例えば、図17のような23点の測距点の焦点状態を水平センサ列と垂直センサ列とを用いて検出するためのAFセンサのセンサ列の配置は図18に示すものとなる。図18のようなセンサ列の配置において、視野マスクの開口部の形状を図19のような矩形とした場合には、図18の破線枠の範囲(水平方向ls横、垂直方向ls縦の範囲)に視野マスクの開口部を通過した被写体光束が照射される。ここで、広視野を実現するためには、視野マスクの開口部を通過した被写体光束がセンサ面上に到達する範囲(即ち、図18の破線枠の範囲)を広くする必要がある。ここで、図18の破線枠の範囲を広げる場合、水平センサ列同士と垂直センサ列同士において迷光が発生しないようにするためには、合焦時の2像間隔である基準2像間隔値(図18の水平方向lz横及び垂直方向lz縦)を長くする必要がある。   For example, the arrangement of AF sensor arrays for detecting the focus states of 23 distance measuring points as shown in FIG. 17 using a horizontal sensor array and a vertical sensor array is as shown in FIG. In the arrangement of sensor rows as shown in FIG. 18, when the shape of the opening of the field mask is rectangular as shown in FIG. 19, the range of the broken line frame in FIG. 18 (horizontal direction ls horizontal, vertical direction ls vertical range) ) Is irradiated with the subject luminous flux that has passed through the opening of the field mask. Here, in order to realize a wide field of view, it is necessary to widen the range in which the subject luminous flux that has passed through the opening of the field mask reaches the sensor surface (that is, the range of the broken line frame in FIG. 18). Here, when the range of the broken line frame in FIG. 18 is expanded, in order to prevent stray light from being generated between the horizontal sensor rows and between the vertical sensor rows, a reference two-image interval value (two image intervals at the time of focusing) ( It is necessary to lengthen the horizontal direction lz horizontal and the vertical direction lz vertical in FIG.

図20は、AF光学系の2次結像系を模式的に示した図である。基準2像間隔値lzは、コンデンサレンズ117から射出される被写体光束の射出角度θによってほぼ決定される。また、コンデンサレンズ117から射出される被写体光束の射出角度θは、被写体光束が撮影レンズを通過するときの射出瞳位置における被写体光束の位置lpと撮影レンズとAF光学系の1次結像面との距離(光路長)Ltとでほぼ決定される。ここで、被写体光束の瞳位置lpと光路長Ltとは、交換レンズの設計時に確定される値であり、交換レンズの製造後は変更できるものではない。したがって、位置lpと光路長Ltを変更することによって角度θを変更することはできない。なお、AF光学系の構成によっては、例えばコンデンサレンズ117のパワーにより角度θを微小に変更することができる。しかしながら、被写体光束は図20に示すようにコンデンサレンズ117の近軸上を通過するため、ほとんど被写体光束の屈折は起こらない。したがって、角度θを大きく変更することは不可能である。即ち、基準2像間隔値lzを長くするためには、2次結像系の光路長Lを長くするしかない。   FIG. 20 is a diagram schematically showing a secondary imaging system of the AF optical system. The reference two-image interval value lz is substantially determined by the emission angle θ of the subject light beam emitted from the condenser lens 117. The exit angle θ of the subject luminous flux emitted from the condenser lens 117 is determined by the position lp of the subject luminous flux at the exit pupil position when the subject luminous flux passes through the photographing lens, the primary imaging plane of the photographing lens and the AF optical system. And the distance (optical path length) Lt. Here, the pupil position lp of the subject light flux and the optical path length Lt are values determined at the time of designing the interchangeable lens, and cannot be changed after the interchangeable lens is manufactured. Therefore, the angle θ cannot be changed by changing the position lp and the optical path length Lt. Depending on the configuration of the AF optical system, for example, the angle θ can be minutely changed by the power of the condenser lens 117. However, since the subject light flux passes on the paraxial axis of the condenser lens 117 as shown in FIG. 20, the subject light flux hardly refracts. Therefore, it is impossible to largely change the angle θ. That is, the only way to increase the reference two-image interval value lz is to increase the optical path length L of the secondary imaging system.

このように、2次結像系の光路長Lは、基準2像間隔値によりほぼ決定されるので、焦点検出装置の小型化のためには、基準2像間隔値を低減する必要がある。   Thus, since the optical path length L of the secondary imaging system is substantially determined by the reference two-image interval value, it is necessary to reduce the reference two-image interval value in order to reduce the size of the focus detection device.

本発明は、上記の事情に鑑みてなされたものであり、広視野化を実現しつつ、基準2像間隔値を低減することができる焦点検出装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a focus detection apparatus capable of reducing the reference two-image interval value while realizing a wide field of view.

上記の目的を達成するために、本発明の第1の態様による焦点検出装置は、撮影画面内の複数の測距点における被写体の焦点状態を検出する焦点検出装置において、上記撮影画面の略水平方向の焦点検出領域に対応する一対の第1のセンサ列と、上記撮影画面の略垂直方向の焦点検出領域に対応する一対の第2のセンサ列とを含む焦点検出用センサを具備し、上記第1のセンサ列と上記第2のセンサ列とは、一方の一対のセンサ列同士の間に他方の一対のセンサ列が配置されて構成されていることを特徴とする。   In order to achieve the above object, a focus detection apparatus according to a first aspect of the present invention is a focus detection apparatus that detects a focus state of a subject at a plurality of distance measuring points in a shooting screen. A focus detection sensor including a pair of first sensor arrays corresponding to a focus detection area in a direction and a pair of second sensor arrays corresponding to a focus detection area in a substantially vertical direction of the shooting screen, The first sensor array and the second sensor array are configured such that the other pair of sensor arrays is arranged between the pair of sensor arrays.

また、上記の目的を達成するために、本発明の第2の態様による焦点検出装置は、撮影画面内の複数の測距点における被写体の焦点状態を検出する焦点検出装置において、上記撮影画面の略水平方向の焦点検出領域に対応する一対の第1のセンサ列と、上記撮影画面の略垂直方向の焦点検出領域に対応する一対の第2のセンサ列とを含む焦点検出用センサを具備し、上記撮影画面内の複数の測距点は、上記撮影画面の4隅近傍には配置されておらず、上記撮影画面内の複数の測距点における上端と下端の測距点の焦点状態を検出する上記第1のセンサ列と上記第2のセンサ列とは、光学的に、一方の一対のセンサ列同士の間に他方の一対のセンサ列が配置されるようにして構成されていることを特徴とする。   In order to achieve the above object, a focus detection apparatus according to a second aspect of the present invention is a focus detection apparatus that detects a focus state of a subject at a plurality of distance measuring points in a shooting screen. A focus detection sensor including a pair of first sensor rows corresponding to a substantially horizontal focus detection region and a pair of second sensor rows corresponding to a substantially vertical focus detection region of the photographing screen; The plurality of distance measuring points in the shooting screen are not arranged near the four corners of the shooting screen, and the focus states of the upper and lower distance measuring points at the plurality of distance measuring points in the shooting screen are determined. The first sensor row and the second sensor row to be detected are configured such that the other pair of sensor rows is optically disposed between the pair of sensor rows. It is characterized by.

これら第1及び第2の態様によれば、広視野化を実現しつつ、基準2像間隔値を低減することができる。   According to these first and second aspects, it is possible to reduce the reference two-image interval value while realizing a wide field of view.

本発明によれば、広視野化を実現しつつ、基準2像間隔値を低減することができる焦点検出装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the focus detection apparatus which can reduce a reference | standard 2 image interval value can be provided, implement | achieving a wide visual field.

以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態に係る焦点検出装置を有するカメラにおける、焦点状態検出動作に関する構成について示した図である。ここで、図1はレンズ交換式の一眼レフレクスカメラを想定して図示したものである。即ち、図1のカメラは、交換レンズ101とカメラボディ110とから構成されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a configuration related to a focus state detection operation in a camera having a focus detection apparatus according to an embodiment of the present invention. Here, FIG. 1 illustrates a lens interchangeable single-lens reflex camera. That is, the camera shown in FIG. 1 includes an interchangeable lens 101 and a camera body 110.

交換レンズ101は、カメラボディ110の前面に設けられた図示しないカメラマウントを介してカメラボディ110に着脱自在に構成されている。この交換レンズ101の内部には、フォーカスレンズ102と、レンズ駆動部103と、レンズCPU104とが設けられている。   The interchangeable lens 101 is configured to be detachable from the camera body 110 via a camera mount (not shown) provided on the front surface of the camera body 110. Inside the interchangeable lens 101, a focus lens 102, a lens driving unit 103, and a lens CPU 104 are provided.

撮影レンズとしてのフォーカスレンズ102は、撮影光学系に含まれる焦点調節用のレンズであり、レンズ駆動部103内の図示しないモータによってその光軸方向(図1の矢印方向)に駆動される。ここで、実際の撮影光学系は複数のレンズから構成されているが、図1ではフォーカスレンズ102のみを図示している。レンズ駆動部103は、モータとその駆動回路(モータドライバ)とから構成されている。レンズCPU104は、レンズ駆動部103の制御などを行う制御回路である。このレンズCPU104は、通信コネクタ105を介してカメラボディ110内のAFコントローラ122と通信可能に構成されている。レンズCPU104からAFコントローラ122へは、例えばレンズCPU104に予め記憶された、フォーカスレンズの製造ばらつき情報やフォーカスレンズの収差情報などのレンズデータが通信される。   A focus lens 102 as a photographing lens is a focus adjusting lens included in the photographing optical system, and is driven in an optical axis direction (arrow direction in FIG. 1) by a motor (not shown) in the lens driving unit 103. Here, the actual photographing optical system is composed of a plurality of lenses, but only the focus lens 102 is shown in FIG. The lens driving unit 103 includes a motor and its driving circuit (motor driver). The lens CPU 104 is a control circuit that performs control of the lens driving unit 103 and the like. The lens CPU 104 is configured to be able to communicate with the AF controller 122 in the camera body 110 via the communication connector 105. For example, lens data such as focus lens manufacturing variation information and focus lens aberration information stored in advance in the lens CPU 104 is communicated from the lens CPU 104 to the AF controller 122.

また、カメラボディ110は、以下のように構成されている。
メインミラー111は、回動可能に構成され、その中央部がハーフミラーで構成されたミラーである。メインミラー111がダウン位置(図示の位置)にあるときには、交換レンズ101内のフォーカスレンズ102を介してカメラボディ110内に入射した図示しない被写体からの光束の一部が、メインミラー111で反射されて、フォーカシングスクリーン112、ペンタプリズム113を介して接眼レンズ114に至る。これにより、図示しない被写体の状態を観察することができる。
The camera body 110 is configured as follows.
The main mirror 111 is a mirror that is configured to be rotatable and that has a central portion formed of a half mirror. When the main mirror 111 is in the down position (shown position), a part of the light beam from a subject (not shown) that enters the camera body 110 via the focus lens 102 in the interchangeable lens 101 is reflected by the main mirror 111. Thus, the eyepiece lens 114 is reached through the focusing screen 112 and the pentaprism 113. Thereby, it is possible to observe the state of a subject (not shown).

また、メインミラー111に入射した光束の一部はハーフミラー部を透過して、メインミラー111の背面に設置されたサブミラー115で反射されて自動焦点検出(AF)を行うためのAF光学系に導かれる。AF光学系は、視野マスク116と、コンデンサレンズ117と、全反射ミラー118と、セパレータ絞り119と、セパレータレンズ120とから構成されている。また、AF光学系の後方には、AFセンサ121が配置されている。   Further, a part of the light beam incident on the main mirror 111 is transmitted through the half mirror part and reflected by the sub mirror 115 installed on the back surface of the main mirror 111 to be used in an AF optical system for performing automatic focus detection (AF). Led. The AF optical system includes a field mask 116, a condenser lens 117, a total reflection mirror 118, a separator diaphragm 119, and a separator lens 120. An AF sensor 121 is disposed behind the AF optical system.

図2は、図1のカメラで用いられるAF光学系の2次結像系を模式的に示した図である。サブミラー115で反射された光束は1次結像面上に結像される。この1次結像面上に、視野マスク116が配置されている。視野マスク116では、入射した光束のAFセンサ121への照射範囲が規制される。この視野マスク116については後で詳しく説明する。   FIG. 2 is a diagram schematically showing a secondary imaging system of the AF optical system used in the camera of FIG. The light beam reflected by the sub mirror 115 forms an image on the primary image forming surface. A field mask 116 is disposed on the primary imaging plane. In the field mask 116, the irradiation range of the incident light flux to the AF sensor 121 is regulated. The field mask 116 will be described in detail later.

視野マスク116を介して入射した被写体の光束は、コンデンサレンズ117において集光され、全反射ミラー118で反射された後、図示しないセパレータ絞りにおいて瞳分割される。セパレータ絞りで瞳分割された被写体の光束は、セパレータレンズ120によって集光されてAF光学系の後方に配置された焦点検出用センサとしてのAFセンサ121の所定領域に入射する。このAFセンサ121については後で詳しく説明する。   The light beam of the subject incident through the field mask 116 is collected by the condenser lens 117, reflected by the total reflection mirror 118, and then divided into pupils by a separator stop (not shown). The luminous flux of the subject divided into pupils by the separator diaphragm is collected by the separator lens 120 and enters a predetermined area of the AF sensor 121 as a focus detection sensor disposed behind the AF optical system. The AF sensor 121 will be described in detail later.

AFセンサ121においては、被写体からの光束が光電変換によってアナログの電気信号に変換される。AFセンサ121の出力は、AFコントローラ122に入力される。AFコントローラ122では、デフォーカス量の演算が行われる。このAFコントローラ122の動作制御はシステムコントローラ123によって行われる。   In the AF sensor 121, the light flux from the subject is converted into an analog electric signal by photoelectric conversion. The output of the AF sensor 121 is input to the AF controller 122. The AF controller 122 calculates the defocus amount. The operation control of the AF controller 122 is performed by the system controller 123.

また、AFコントローラ122で得られたデフォーカス量はレンズCPU104に通信される。レンズCPU104では、通信されたデフォーカス量に基づいてフォーカスレンズ102を駆動するためのモータの駆動量が演算される。このモータの駆動量に基づいてレンズ駆動部103を介してフォーカスレンズ102が合焦駆動される。   Further, the defocus amount obtained by the AF controller 122 is communicated to the lens CPU 104. The lens CPU 104 calculates a drive amount of a motor for driving the focus lens 102 based on the communicated defocus amount. The focus lens 102 is driven to focus through the lens driving unit 103 based on the driving amount of the motor.

また、図1において、メインミラー111がフォーカスレンズ102の光路上から退避するアップ位置にある時には、フォーカスレンズ102を介して入射した被写体からの光束が撮像素子124に結像して光電変換される。これによって得られた信号がシステムコントローラ123に入力されて所定の画像処理が施される。   In FIG. 1, when the main mirror 111 is at the up position where it is retracted from the optical path of the focus lens 102, the light flux from the subject incident through the focus lens 102 forms an image on the image sensor 124 and is photoelectrically converted. . The signal thus obtained is input to the system controller 123 and subjected to predetermined image processing.

次に、AFセンサについて説明する。図3は、本発明の一実施形態に係る焦点検出装置におけるAFセンサのセンサ列配置について示した図である。図3に示すAFセンサは、撮影画面の水平方向に沿って配置された水平方向基準部センサ列A200a及び水平方向参照部センサ列B200bからなる第1のセンサ列としての水平方向センサ列と、撮影画面の垂直方向に沿って配置された垂直方向基準部センサ列C200c及び垂直方向参照部センサ列D200dからなる第2のセンサ列としての垂直方向センサ列とから構成されている。ここで、第1のセンサ列を構成する水平方向基準部センサ列A200a及び水平方向参照部センサ列B200bはそれぞれ、n=1〜19の19個のアイランドから構成されている。このアイランドは、撮影画面内の各測距点に対応するセンサ領域である。各アイランドは、数10程度の画素が横並びに配置されたラインセンサを、画素の並び方向と垂直な方向に3列有している。また、後述するように、この3列のラインセンサは、精度向上のために互いに1/2画素分ずつずらして配置されている(図10)。また、第2のセンサ列を構成する垂直方向基準部センサ列C200c及び垂直方向参照部センサ列D200dはそれぞれ、n=20〜38の19個のアイランドから構成されている。ここで、図3のセンサ列は図18に対して撮影画面の4隅を検出するための4隅のアイランドが除外されており、これによって生じた空き部分だけ、各センサ列を撮影画面中央部方向によせて配置するようにして、基準2像間隔値(lz横とlz縦)を短くするようにしている。なお、ls横とls縦の長さは、図18と変わらない。これは、水平方向センサ列対に入射する被写体光束がフォーカスレンズ102を通過するときの射出瞳径と垂直方向センサ対に入射する被写体光束がフォーカスレンズ102を通過するときの射出瞳径とが等しくなることを意味している。   Next, the AF sensor will be described. FIG. 3 is a diagram showing a sensor array arrangement of AF sensors in the focus detection apparatus according to the embodiment of the present invention. The AF sensor shown in FIG. 3 includes a horizontal sensor row as a first sensor row including a horizontal reference portion sensor row A200a and a horizontal reference portion sensor row B200b arranged along the horizontal direction of the shooting screen, and shooting. It is composed of a vertical sensor row as a second sensor row comprising a vertical direction reference portion sensor row C200c and a vertical direction reference portion sensor row D200d arranged along the vertical direction of the screen. Here, each of the horizontal reference portion sensor row A200a and the horizontal reference portion sensor row B200b constituting the first sensor row is composed of 19 islands of n = 1 to 19. This island is a sensor area corresponding to each ranging point in the photographing screen. Each island has three lines of line sensors in which about several tens of pixels are arranged side by side in a direction perpendicular to the pixel arrangement direction. Further, as will be described later, the three rows of line sensors are arranged so as to be shifted from each other by ½ pixel in order to improve accuracy (FIG. 10). Further, each of the vertical direction reference portion sensor row C200c and the vertical direction reference portion sensor row D200d constituting the second sensor row is composed of 19 islands of n = 20 to 38. Here, the sensor array of FIG. 3 excludes islands at the four corners for detecting the four corners of the shooting screen with respect to FIG. The reference two-image interval values (lz horizontal and lz vertical) are shortened so as to be arranged according to the direction. Note that the lengths of ls horizontal and ls vertical are the same as in FIG. This is because the exit pupil diameter when the subject light flux incident on the horizontal sensor array pair passes through the focus lens 102 and the exit pupil diameter when the subject light flux incident on the vertical sensor pair pass through the focus lens 102 are equal. Is meant to be.

図4(a)及び図4(b)は、図3のセンサ列配置で焦点検出可能な測距点の配置について示した図である。   FIGS. 4A and 4B are diagrams showing the arrangement of distance measuring points that can be detected by the sensor array arrangement of FIG.

まず、図4(a)は、撮影画面の4隅近傍を除く19点を測距点とする例である。ここで、撮影画面の4隅近傍の測距点は、実際の写真撮影時には余り必要とされない点であり、これらの測距点を除外しても、実際の写真撮影においては余り影響がないと考えられる。なお、図4(a)の例では19点の全ての焦点状態を水平方向センサ列と垂直方向センサ列の両方のセンサ列を用いて検出することができる。   First, FIG. 4A shows an example in which 19 points excluding the vicinity of the four corners of the shooting screen are used as distance measuring points. Here, the distance measuring points in the vicinity of the four corners of the shooting screen are points that are not so necessary at the time of actual photography, and even if these distance measurement points are excluded, there is not much influence on actual photography. Conceivable. In the example of FIG. 4A, all 19 focus states can be detected using both the horizontal sensor row and the vertical sensor row.

また、図4(b)は撮影画面の4隅近傍に対応する測距点を除外する点は図4(a)と同様であるが、その分だけ撮影画面上端及び下端の測距点を撮影画面中央付近に集めることによって多点測距(例では25点)を行うようにしている。ただし、水平方向センサ列と垂直方向センサ列とは、ともにアイランドの数が19個なので、図4(b)に示す一部の測距点の焦点状態は水平方向センサ列のアイランド若しくは垂直方向センサ列のアイランドの何れか一方のみで検出する。   4B is the same as FIG. 4A in that the distance measuring points corresponding to the vicinity of the four corners of the photographing screen are excluded, but the distance measuring points at the upper and lower ends of the photographing screen are accordingly photographed. Multi-point distance measurement (in the example, 25 points) is performed by collecting near the center of the screen. However, since both the horizontal sensor array and the vertical sensor array have 19 islands, the focus state of some distance measuring points shown in FIG. 4B is the island of the horizontal sensor array or the vertical sensor array. Detect only on one of the islands in the row.

ここで、図3では、4つのセンサ列をそれぞれ撮影画面の中央方向に近づけているので、視野マスク116の開口部形状を従来のような矩形とすると、迷光が発生してしまうおそれがある。そこで、本一実施形態では、視野マスク116の開口部を通過した被写体光束の照射範囲が図3の破線枠で示した形状になるように視野マスク116の開口部の形状を決定している。即ち、本一実施形態では、図3の破線枠で示した形状と略一致するような、図5(a)に示す開口部116aを有する視野マスク116を用いる。   Here, in FIG. 3, the four sensor rows are brought close to the center direction of the imaging screen, so stray light may be generated if the shape of the opening of the field mask 116 is a conventional rectangle. Therefore, in the present embodiment, the shape of the opening of the field mask 116 is determined so that the irradiation range of the subject light flux that has passed through the opening of the field mask 116 has the shape shown by the broken line frame in FIG. That is, in the present embodiment, the field mask 116 having the opening 116a shown in FIG. 5A that substantially matches the shape shown by the broken line frame in FIG. 3 is used.

なお、図4(a)の測距点の場合には、図5(a)に示したような形状の他に、図5(b)に示すような略六角形状の開口部116bを有する視野マスク116を用いても良いし、図5(c)に示すような略楕円形状の開口部116cを有する視野マスク116を用いても良い。これは、AFセンサ面上における被写体像は、2次結像系の収差などによりボケがあるので、視野マスクの開口部形状をアイランドの形状と同一とする必要がないためである。   4A, in addition to the shape shown in FIG. 5A, the field of view having a substantially hexagonal opening 116b as shown in FIG. 5B. A mask 116 may be used, or a field mask 116 having a substantially elliptical opening 116c as shown in FIG. 5C may be used. This is because the subject image on the AF sensor surface is blurred due to the aberration of the secondary imaging system, etc., so that the shape of the opening of the field mask does not need to be the same as the shape of the island.

また、セパレータ絞り119の開口部119aの形状は、図6のような矩形で良い。これは、セパレータ絞り119が不要な被写体光束がセパレータレンズ120に入射することを防止するための機能を持つだけであり、視野マスク116の開口部の形状と一致させる必要がないためである。ただし、セパレータ絞り119の配置位置により、開口部の位置や大きさは適宜決定する必要がある。   The shape of the opening 119a of the separator aperture 119 may be a rectangle as shown in FIG. This is because the separator aperture 119 only has a function for preventing the subject light flux that does not need to enter the separator lens 120 and does not need to match the shape of the opening of the field mask 116. However, the position and size of the opening need to be appropriately determined depending on the position of the separator diaphragm 119.

図7は、本発明の一実施形態に係る焦点検出装置における2像間隔値と光路長との関係と従来例の2像間隔値と光路長との関係を比較して示す図である。ここで、図7の関係は、水平方向センサ列と垂直方向センサ列ともに共通の関係となる。以上説明したようなセンサ列配置、視野マスクを用いることによって、基準部のセンサ列と参照部のセンサ列とを参照符号121bで示した状態から参照符号121aで示した状態まで近づけることができる。これにより、lsの値を変えずに2像間隔値を例えば図7のlzからlzまで短くすることができる。この場合には、広視野を維持しつつ、2次結像系の光路長をL2からL1まで短くすることができる。例えば、図3の例に示すセンサ列配置では、図18の例よりも約9%光路長を短縮することが可能である。 FIG. 7 is a diagram comparing the relationship between the two-image interval value and the optical path length and the relationship between the conventional two-image interval value and the optical path length in the focus detection apparatus according to the embodiment of the present invention. Here, the relationship of FIG. 7 is common to both the horizontal direction sensor row and the vertical direction sensor row. By using the sensor array arrangement and the field mask as described above, the sensor array of the standard part and the sensor array of the reference part can be brought closer to the state indicated by the reference numeral 121a from the state indicated by the reference numeral 121a. As a result, the two-image interval value can be shortened from, for example, lz 2 to lz 1 in FIG. 7 without changing the value of ls. In this case, the optical path length of the secondary imaging system can be shortened from L2 to L1 while maintaining a wide field of view. For example, in the sensor array arrangement shown in the example of FIG. 3, the optical path length can be shortened by about 9% compared to the example of FIG.

図8は、図3の水平方向基準部センサ列A200aと水平方向参照部センサ列B200bの一部(それぞれ5個のアイランドからなる)のセンサ回路構成について示す図である。ここで、図8に示すnは図3のnに対応している。なお、図3において、図8に示す部分以外のセンサ回路は、アイランドの番号が異なる以外は図8の回路構成と同じものである。   FIG. 8 is a diagram showing a sensor circuit configuration of a part (each of five islands) of the horizontal direction reference portion sensor row A200a and the horizontal direction reference portion sensor row B200b of FIG. Here, n shown in FIG. 8 corresponds to n in FIG. In FIG. 3, sensor circuits other than those shown in FIG. 8 have the same circuit configuration as that of FIG. 8 except that island numbers are different.

図8に示すように、本一実施形態では1つのアイランド当たり3つのラインセンサ201〜203が平行に配置されている。また、3つのラインセンサは、図10に示すように、ラインセンサ202を他のラインセンサよりも1/2画素分ずらして配置するようにしている。このように各アイランドにおける3つのラインセンサを千鳥状に配置することにより、焦点検出の精度を向上させることができる。また、図8に示すように、ラインセンサ202とラインセンサ203との間には、モニタ用のフォトダイオード部204が配置されている。   As shown in FIG. 8, in this embodiment, three line sensors 201 to 203 are arranged in parallel per island. In addition, as shown in FIG. 10, the three line sensors are arranged such that the line sensor 202 is shifted by 1/2 pixel from the other line sensors. Thus, the accuracy of focus detection can be improved by arranging the three line sensors in each island in a staggered manner. Further, as shown in FIG. 8, a monitoring photodiode unit 204 is disposed between the line sensor 202 and the line sensor 203.

また、図8において、各アイランドには、複数のフォトダイオードから構成されるフォトダイオード部201−1が設けられている。各フォトダイオードは、画素を構成するものであり、フォトダイオード部201−1では、各フォトダイオードに入射した被写体の光束の光量に応じた電荷が得られる。フォトダイオード部201−1で得られた光電荷は電荷蓄積部201−2に蓄積される。   In FIG. 8, each island is provided with a photodiode portion 201-1 including a plurality of photodiodes. Each photodiode constitutes a pixel, and the photodiode unit 201-1 obtains a charge corresponding to the amount of light flux of the subject incident on each photodiode. The photoelectric charge obtained by the photodiode unit 201-1 is accumulated in the charge accumulation unit 201-2.

ここで、電荷蓄積部201−2の電荷蓄積量は、モニタ用のフォトダイオード部204によってモニタされている。このモニタ用のフォトダイオード部204の出力は、積分時間制御回路209に出力される。積分時間制御回路209は、モニタ用のフォトダイオード部204の出力が所定の閾値以上になったか否かを判定して、モニタ用のフォトダイオード部204の出力が閾値以上になった場合に電荷蓄積(積分動作)を終了させる。また、モニタ用のフォトダイオード部204の出力が閾値以上でなくとも所定の積分時間を計時した場合にも電荷蓄積を終了させる。なお、電荷蓄積を終了させるための閾値や積分時間は変更可能である。   Here, the charge accumulation amount of the charge accumulation unit 201-2 is monitored by the monitoring photodiode unit 204. The output of the monitoring photodiode unit 204 is output to the integration time control circuit 209. The integration time control circuit 209 determines whether or not the output of the monitoring photodiode unit 204 is equal to or higher than a predetermined threshold, and stores the charge when the output of the monitoring photodiode unit 204 exceeds the threshold. End (integration operation). Even if the output of the monitoring photodiode unit 204 is not equal to or greater than the threshold value, the charge accumulation is also terminated when a predetermined integration time is measured. Note that the threshold and the integration time for ending charge accumulation can be changed.

電荷蓄積が終了すると、電荷蓄積部201−2の後段に接続された転送スイッチ201−3が閉じられて電荷蓄積部201−2に蓄積された光電荷が電荷転送路205に転送される。   When the charge accumulation ends, the transfer switch 201-3 connected to the subsequent stage of the charge accumulation unit 201-2 is closed, and the photocharge accumulated in the charge accumulation unit 201-2 is transferred to the charge transfer path 205.

電荷転送路205においてはシフトパルスが印加される毎に、光電荷が1画素ずつ電荷・電圧変換アンプ206に転送されて電圧信号に変換される。電荷・電圧変換アンプ206において変換された電圧信号は増幅回路(図ではAMPと示している)207において所定の増幅率(例えば、1倍、2倍、4倍、8倍の何れかが選択される)で増幅された後、出力選択回路208に入力される。   In the charge transfer path 205, each time a shift pulse is applied, the photocharge is transferred to the charge / voltage conversion amplifier 206 pixel by pixel and converted into a voltage signal. A voltage signal converted by the charge / voltage conversion amplifier 206 is selected at a predetermined amplification factor (for example, 1 ×, 2 ×, 4 ×, or 8 ×) in an amplifier circuit (shown as AMP in the figure) 207. And then input to the output selection circuit 208.

出力選択回路208においては、画素単位で入力されてきた電圧信号が温度センサ210で検出された温度に基づいて温度補償され、これによって得られた出力電圧VNが後段のAFコントローラ122に出力される。   In the output selection circuit 208, the voltage signal input in units of pixels is temperature-compensated based on the temperature detected by the temperature sensor 210, and the output voltage VN obtained thereby is output to the AF controller 122 at the subsequent stage. .

次に、デフォーカス量の演算手法について説明する。まず、デフォーカス量の演算に先立って相関演算が行われる。この相関演算は、アイランドを複数の相関演算枠に分割して行う。図9に相関演算枠の分割の概念図を示す。ここで、図9(a)は水平方向センサ列内のアイランドにおける分割の様子を示し、図9(b)は垂直方向センサ列内のアイランドにおける分割の様子を示している。図9(a)及び図9(b)の例では、1つのアイランドを中央相関演算枠301、右相関演算枠302、及び左相関演算枠303の3つに分割している。このように分割して相関演算を行う理由は、1つのアイランド内に複数の遠近混在した被写体の光束が入射した場合でも正しく相関演算を行えるようにするためである。   Next, a method for calculating the defocus amount will be described. First, correlation calculation is performed prior to calculation of the defocus amount. This correlation calculation is performed by dividing the island into a plurality of correlation calculation frames. FIG. 9 shows a conceptual diagram of the division of the correlation calculation frame. Here, FIG. 9A shows a state of division in the islands in the horizontal sensor row, and FIG. 9B shows a state of division in the islands in the vertical direction sensor row. In the example of FIGS. 9A and 9B, one island is divided into a central correlation calculation frame 301, a right correlation calculation frame 302, and a left correlation calculation frame 303. The reason for performing the correlation calculation by dividing in this way is to enable the correlation calculation to be performed correctly even when a plurality of light beams of a subject mixed in perspective are incident on one island.

また、上述したように本一実施形態では、各アイランドを、3つのラインセンサ201〜203を千鳥状に配置して構成している。このような場合、隣り合う2ライン(ラインセンサ201とラインセンサ202、ラインセンサ202とラインセンサ203)を1組として考えることができる。   Further, as described above, in this embodiment, each island is configured by arranging the three line sensors 201 to 203 in a staggered manner. In such a case, two adjacent lines (line sensor 201 and line sensor 202, line sensor 202 and line sensor 203) can be considered as one set.

1組のラインセンサにおける同一相関演算枠内に被写体の同一部位からの光束が入射している場合には、該1組のラインセンサを1つのラインセンサと見なすことができる。この場合には、1画素毎交互にセンサデータを読み出して相関演算を行うようにする。以後、このような演算の手法を千鳥演算と称することにする。   When light beams from the same part of the subject are incident on the same correlation calculation frame in one set of line sensors, the one set of line sensors can be regarded as one line sensor. In this case, the sensor data is alternately read out for each pixel to perform the correlation calculation. Hereinafter, such a calculation method is referred to as a staggered calculation.

図10は、千鳥演算を行う場合のセンサデータの読み出し順の考え方について示した図である。千鳥演算を行う場合には、まずラインセンサ201とラインセンサ202を1つのラインセンサと見なして1画素毎交互にセンサデータの読み出しを行う。図10の場合では、画素1、画素2、画素4、画素5…画素11、画素13、画素14…の順で読み出しを行う。ラインセンサ201とラインセンサ202の組のセンサデータを読み出した後は、ラインセンサ202とラインセンサ203を1つのラインセンサと見なして1画素毎交互にセンサデータの読み出しを行う。図10の場合では、画素2、画素3、画素5、画素6…画素12、画素14、画素15…の順で読み出しを行う。   FIG. 10 is a diagram illustrating the concept of the reading order of sensor data when performing zigzag calculation. When performing the staggered calculation, first, the line sensor 201 and the line sensor 202 are regarded as one line sensor, and sensor data is read alternately for each pixel. In the case of FIG. 10, reading is performed in the order of pixel 1, pixel 2, pixel 4, pixel 5... Pixel 11, pixel 13, pixel 14. After reading the sensor data of the pair of the line sensor 201 and the line sensor 202, the line sensor 202 and the line sensor 203 are regarded as one line sensor, and the sensor data is alternately read for each pixel. In the case of FIG. 10, readout is performed in the order of pixel 2, pixel 3, pixel 5, pixel 6... Pixel 12, pixel 14, pixel 15.

また、1組のラインセンサにおける同一相関演算枠内に被写体の同一部位からの光束が入射していない場合には、該1組のラインセンサを1つのラインセンサと見なすことができないので、ラインセンサ201〜ラインセンサ203をそれぞれ別のラインセンサとしてセンサデータの読み出しを行う。図10の場合では、画素1、画素4、画素7、画素10、画素13…の順で読み出しを行う。その後、同様にしてラインセンサ202、ラインセンサ203のセンサデータの読み出しを行う。   In addition, when the light beam from the same part of the subject is not incident on the same correlation calculation frame in one set of line sensors, the one set of line sensors cannot be regarded as one line sensor. The sensor data is read by using 201 to line sensors 203 as separate line sensors. In the case of FIG. 10, reading is performed in the order of pixel 1, pixel 4, pixel 7, pixel 10, pixel 13. Thereafter, the sensor data of the line sensor 202 and the line sensor 203 are read in the same manner.

図11は、千鳥ラインセンサのセンサデータ処理の手順について示すフローチャートである。この処理は、AFコントローラ122内部及びシステムコントローラ123内部で行われる。   FIG. 11 is a flowchart showing a procedure of sensor data processing of the staggered line sensor. This process is performed inside the AF controller 122 and the system controller 123.

図11の処理においては、図3のn番目のアイランドを構成する3つのラインセンサのライン番号を示すパラメータkに1をセットする(ステップS1)。即ち、kは1〜3をとるパラメータであり、本一実施形態の例では、k=1がラインセンサ201、k=2がラインセンサ202、k=3がラインセンサ203に対応する。   In the process of FIG. 11, 1 is set to the parameter k indicating the line numbers of the three line sensors constituting the nth island of FIG. 3 (step S1). That is, k is a parameter that takes 1 to 3. In the example of this embodiment, k = 1 corresponds to the line sensor 201, k = 2 corresponds to the line sensor 202, and k = 3 corresponds to the line sensor 203.

kに1をセットした後、被写体に類似性があるか又は被写体距離が異なっているか否かを示すパラメータNGを0にリセットする(ステップS2)。次に、隣り合う1組のラインセンサ(k番目のラインセンサとk+1番目のラインセンサ 初回はラインセンサ201とラインセンサ202となる)のセンサデータに類似性があるか否かを判定する(ステップS3)。この類似性の判定は、各相関演算枠内において、隣り合う1組のラインセンサ同士で相関演算を行い、この相関演算の結果、最大の相関が成り立つ相関値の信頼性を判定することにより行う。ここで、相関演算は、

Figure 2006322970
After setting 1 to k, a parameter NG indicating whether the subject is similar or the subject distance is different is reset to 0 (step S2). Next, it is determined whether or not there is similarity in the sensor data of a pair of adjacent line sensors (k-th line sensor and k + 1-th line sensor, the first time being the line sensor 201 and the line sensor 202) (step S3). This similarity determination is performed by performing a correlation calculation between a pair of adjacent line sensors within each correlation calculation frame, and determining the reliability of the correlation value that provides the maximum correlation as a result of this correlation calculation. . Here, the correlation calculation is
Figure 2006322970

の式において、シフト量−4〜+4の範囲における相関値Fの最小値を求めれば良い。なお、(式1)のD(i)はk番目のラインセンサのセンサデータであり、Dk+1(i)はk+1番目のラインセンサのセンサデータである。 In this equation, the minimum value of the correlation value F in the range of the shift amount −4 to +4 may be obtained. In Equation (1), D k (i) is sensor data of the k-th line sensor, and D k + 1 (i) is sensor data of the k + 1-th line sensor.

例えば、k番目のラインセンサのセンサデータが図12(a)の参照符号401−1に示すものであり、k+1番目のラインセンサのセンサデータが図12(a)の参照符号401−2に示すものである場合には、シフト量が+1のときに(式1)で演算される相関値Fが最小となる。このとき、図12(b)に示す相関量が最も高くなる。   For example, the sensor data of the k-th line sensor is indicated by reference numeral 401-1 in FIG. 12A, and the sensor data of the k + 1-th line sensor is indicated by reference numeral 401-2 of FIG. If it is, the correlation value F calculated by (Equation 1) becomes the minimum when the shift amount is +1. At this time, the correlation amount shown in FIG.

また、信頼性は、被写体が高コントラストであり、また繰り返しパターンでなく、かつ(式1)の最小値が所定の閾値よりも小さい場合に、信頼性が高く、隣り合う1組のラインセンサのセンサデータには類似性があると判定される。   The reliability is high when the subject has high contrast, is not a repetitive pattern, and the minimum value of (Equation 1) is smaller than a predetermined threshold value. It is determined that the sensor data has similarity.

ステップS3の判定において、隣り合う1組のラインセンサのセンサデータに類似性がある場合には、ステップS3をステップS4に分岐して、隣り合う1組のラインセンサのそれぞれで得られた2像間隔値が同一であるか否かを判定する(ステップS4)。このために、k番目のラインセンサとk+1でそれぞれ個別に2像間隔値を演算する。この2像間隔値は、上記(式1)と同様の相関演算を基準部のアイランドと参照部のアイランドとの間で行ったときに最大相関が得られるシフト量から求めることができる。即ち、

Figure 2006322970
If it is determined in step S3 that the sensor data of a pair of adjacent line sensors is similar, step S3 is branched to step S4, and two images obtained by each of the adjacent pair of line sensors are obtained. It is determined whether or not the interval values are the same (step S4). For this purpose, the two-image interval value is individually calculated by the kth line sensor and k + 1. The two-image interval value can be obtained from the shift amount that provides the maximum correlation when the same correlation calculation as in the above (Equation 1) is performed between the standard part island and the reference part island. That is,
Figure 2006322970

の式において最大相関が得られるシフト量((式2)の相関値Fが最小となるシフト量)を求めればよい。なお、(式2)の場合にはシフト量の範囲を相関演算枠の範囲内とする。また、(式2)のDL(i)は基準部のアイランドのセンサデータであり、DR(i)は参照部のアイランドのセンサデータである。 What is necessary is just to obtain | require the shift amount (shift amount which the correlation value F of (Formula 2) becomes the minimum) in which the maximum correlation is obtained. In the case of (Expression 2), the range of the shift amount is set within the range of the correlation calculation frame. In addition, DL (i) in (Expression 2) is sensor data for the island in the reference portion, and DR (i) is sensor data for the island in the reference portion.

2像間隔値をラインセンサ毎に求めた後、k番目のラインセンサで得られた2像間隔値とk+1番目のラインセンサで得られた2像間隔値とが同一であるか否かを判定する。この判定は、まずk番目のラインセンサで得られた2像間隔値とk+1番目のラインセンサで得られた2像間隔値の平均値を演算し、この平均値とラインセンサ毎に求めたそれぞれの2像間隔値との差分が、所定の閾値よりも小さいか否かを判定することにより行う。   After obtaining the two-image interval value for each line sensor, it is determined whether or not the two-image interval value obtained by the k-th line sensor and the two-image interval value obtained by the k + 1-th line sensor are the same. To do. In this determination, first, the average value of the two image interval values obtained by the k-th line sensor and the two image interval values obtained by the (k + 1) -th line sensor is calculated, and each of the average value and each line sensor obtained is calculated. This is performed by determining whether or not the difference between the two image interval values is smaller than a predetermined threshold value.

ステップS4の判定において、2像間隔値が同一である場合には、ステップS4をステップS5に分岐して、k番目のラインセンサのセンサデータとk+1番目のラインセンサのセンサデータとを合成して基準部と参照部との間で相関演算を行い、合成の2像間隔値を算出する(ステップS5)。このセンサデータの合成は、図13に示すようにしてステップS1の類似性判定の際に得られたシフト量分だけ一方のセンサデータをずらして合成することにより行う。このように合成を行うことにより、見かけ上の画素ピッチを合成前の1/2にすることができる。なお、相関演算の後には、ステップS3の手法と同様にして信頼性を判定するようにすることが好ましい。   If it is determined in step S4 that the two image interval values are the same, step S4 is branched to step S5, and the sensor data of the kth line sensor and the sensor data of the k + 1th line sensor are combined. A correlation operation is performed between the reference portion and the reference portion, and a composite two-image interval value is calculated (step S5). The sensor data is synthesized by shifting and synthesizing one sensor data by the shift amount obtained at the time of similarity determination in step S1, as shown in FIG. By performing synthesis in this way, the apparent pixel pitch can be halved before synthesis. Note that it is preferable to determine the reliability after the correlation calculation in the same manner as the method of step S3.

また、ステップS3の判定において隣り合う1組のラインセンサのセンサデータに類似性がない場合又はステップS4の判定において隣り合う1組のラインセンサでそれぞれ得られた2像間隔値が同一でない場合には、ステップS6に分岐して、NGに1を加えた後(ステップS6)、ステップS4の判定のときと同様にしてk番目のラインセンサとk+1番目のラインセンサのそれぞれで2像間隔値を算出する(ステップS7)。この場合も相関演算の後には、ステップS3の手法と同様にして信頼性を判定するようにすることが好ましい。ただし、ステップS7の信頼性判定における所定閾値は、ステップS5の信頼性判定における所定閾値よりも小さいものを用いるようにする。   Further, when there is no similarity in the sensor data of the adjacent pair of line sensors in the determination in step S3, or when the two image interval values respectively obtained by the adjacent pair of line sensors in the determination in step S4 are not the same. After branching to step S6 and adding 1 to NG (step S6), the two image interval values are respectively determined for the k-th line sensor and the k + 1-th line sensor in the same manner as in the determination of step S4. Calculate (step S7). Also in this case, it is preferable to determine the reliability after the correlation calculation in the same manner as the method of step S3. However, the predetermined threshold in the reliability determination in step S7 is smaller than the predetermined threshold in the reliability determination in step S5.

以上の処理の後にkに1を加え(ステップS8)、kが3になったか否か、即ち全ラインについて処理が終了したか否かを判定する(ステップS9)。ステップS9の判定において、kが3でない場合には、ステップS3に戻り、次の隣り合う1組のラインセンサ(つまりラインセンサ202とラインセンサ203)についてステップS3〜ステップS7の処理を行う。一方、ステップS9の判定において、kが3である場合には、ステップS9をステップS10に分岐して、NGが0であるか否かを判定する(ステップS10)。   After the above processing, 1 is added to k (step S8), and it is determined whether or not k has become 3, that is, whether processing has been completed for all lines (step S9). If it is determined in step S9 that k is not 3, the process returns to step S3, and the process from step S3 to step S7 is performed on the next set of adjacent line sensors (that is, the line sensor 202 and the line sensor 203). On the other hand, if it is determined in step S9 that k is 3, step S9 is branched to step S10, and it is determined whether NG is 0 (step S10).

ステップS10の判定においてNGが0である場合には、ラインセンサ201とラインセンサ202、ラインセンサ202とラインセンサ203の両方の組で千鳥演算が行われている場合である。この場合には、2回の演算によって求められた2つの合成の2像間隔値を信頼性で加重加算平均して最終的な2像間隔値を求める(ステップS11)。つまり、

Figure 2006322970
If NG is 0 in the determination in step S10, it means that the staggered calculation is being performed on both the line sensor 201 and the line sensor 202, and both the line sensor 202 and the line sensor 203. In this case, the final two-image interval value is obtained by performing weighted addition averaging of the two combined two-image interval values obtained by the two operations with reliability (step S11). That means
Figure 2006322970

の演算を行う。なお、ステップS11の演算は、加重加算平均ではなく、2つの合成の2像間隔値を単に平均するだけでも良い。加重加算平均を行うか単なる加算平均を行うかはシステムコントローラ123において決定される。 Perform the operation. Note that the calculation in step S11 is not a weighted average, but may simply average two composite two-image interval values. The system controller 123 determines whether to perform a weighted average or a simple average.

このように組となるラインセンサのセンサデータを合成して2像間隔値を求め、更に、2つの合成の2像間隔値を平均化することにより、1ラインのみで2像間隔値を求めたときに比べて2倍の精度向上を実現できる。   By combining the sensor data of the paired line sensors in this way to obtain the two-image interval value, and further averaging the two combined two-image interval values, the two-image interval value was obtained with only one line. Compared to the case, the accuracy can be improved by a factor of two.

また、ステップS10の判定においてNGが0でない場合には、ラインセンサ201とラインセンサ202、ラインセンサ202とラインセンサ203の少なくとも何れか一方の組で千鳥演算が行われていない。この場合には、ラインセンサ201〜ラインセンサ203の中で最至近を示す被写体の光束が入射したラインセンサで求められた2像間隔値を最終的な2像間隔値とする(ステップS12)。   If NG is not 0 in the determination in step S10, the staggered calculation is not performed on at least one of the line sensor 201 and the line sensor 202, and the line sensor 202 and the line sensor 203. In this case, the two-image interval value obtained by the line sensor in which the luminous flux of the closest object among the line sensors 201 to 203 is incident is set as the final two-image interval value (step S12).

以上のような処理により、2像間隔値を求めることができる。2像間隔値が求められた後は、デフォーカス量を演算する。   The two-image interval value can be obtained by the processing as described above. After the two-image interval value is obtained, the defocus amount is calculated.

まず、相関演算枠の選択を行う。ここでは、求められた2像間隔値の信頼性が高く、かつ複数ラインセンサで同一被写体を受光している相関演算枠を優先的に選択するようにする。このような相関演算枠を選択することにより、より高精度に焦点状態を検出することができる。   First, a correlation calculation frame is selected. Here, a correlation calculation frame in which the obtained two-image interval value is highly reliable and a plurality of line sensors receive the same subject is preferentially selected. By selecting such a correlation calculation frame, the focus state can be detected with higher accuracy.

相関演算枠を選択した後、測距点の選択を行う。この測距点の選択は測距点の選択モードに応じて行われる。例えば、測距点選択モードがシングルポイントモードの場合には、撮影者によって指定された1点の2像間隔値を使用する。また、測距点選択モードがマルチモードの場合には、全測距点の中で信頼性の高いセンサデータを出力する測距点を選択し、更に選択された測距点の中で最至近の測距点を選択して、この測距点における2像間隔値をデフォーカス量の算出に使用する。ここで、最至近として選択された測距点の2像間隔値とほぼ同一な2像間隔値を持つ測距点が複数存在する場合には、これらの測距点の像は同一の被写体の像であると見なして、同一の2像間隔値を持つ複数の測距点の2像間隔値の平均値をデフォーカス量の算出に使用する。   After selecting the correlation calculation frame, the distance measuring point is selected. This distance measuring point selection is performed according to the distance measuring point selection mode. For example, when the distance measuring point selection mode is the single point mode, the two-image interval value specified by the photographer is used. In addition, when the AF point selection mode is multi-mode, the AF points that output sensor data with high reliability are selected from all AF points, and the closest AF points are selected. This distance measuring point is selected, and the two-image interval value at this distance measuring point is used to calculate the defocus amount. Here, when there are a plurality of distance measuring points having two image interval values that are substantially the same as the two image interval values of the distance measuring point selected as the closest object, the images of these distance measuring points are the same as those of the same subject. Assuming that the image is an image, the average value of the two image interval values of a plurality of distance measuring points having the same two image interval values is used to calculate the defocus amount.

このような測距点の選択の結果、得られた2像間隔値から、光学的に算出されたデフォーカス係数により、デフォーカス量を算出する。このようにして得られたデフォーカス量に対し、温度によるばらつきや、製造時のボディばらつき、製造時のフォーカスレンズのばらつきなどによるデフォーカス量の誤差の補正を行って、最終的なデフォーカス量を演算する。   As a result of such a distance measurement point selection, the defocus amount is calculated from the obtained two-image interval value by the optically calculated defocus coefficient. The final defocus amount is corrected by correcting the defocus amount error due to variations in temperature, body variations during manufacturing, focus lens variations during manufacturing, etc. Is calculated.

デフォーカス量が算出された後は、算出されたデフォーカス量がレンズCPU104に送信される。この送信されたデフォーカス量に基づいてレンズCPU104によってレンズ駆動部103が制御されることにより、フォーカスレンズ102の合焦駆動が行われる。   After the defocus amount is calculated, the calculated defocus amount is transmitted to the lens CPU 104. The focus driving of the focus lens 102 is performed by controlling the lens driving unit 103 by the lens CPU 104 based on the transmitted defocus amount.

次に、本一実施形態に係る焦点検出装置を搭載したカメラの電気回路構成について図14を参照して説明する。
図14は、本一実施形態に係る焦点検出装置を有するカメラの全体的な電気回路構成を示すブロック構成図である。なお、図14は交換レンズとカメラボディとを区別せずに図示したものである。
Next, an electric circuit configuration of a camera equipped with the focus detection apparatus according to the present embodiment will be described with reference to FIG.
FIG. 14 is a block configuration diagram showing an overall electrical circuit configuration of a camera having the focus detection apparatus according to the present embodiment. FIG. 14 shows the interchangeable lens and the camera body without distinction.

図14において、カメラの所定位置には上記フォーカスレンズを含むズームレンズ系501が配設されている。このズームレンズ系501は、上記フォーカスレンズを含む撮影光学系を1つのレンズによって代表して図示したものである。このズームレンズ系501はレンズ駆動部502によって駆動される。レンズ駆動部502はレンズCPU503によって制御される。   In FIG. 14, a zoom lens system 501 including the focus lens is disposed at a predetermined position of the camera. The zoom lens system 501 represents a photographic optical system including the focus lens as a representative lens. The zoom lens system 501 is driven by a lens driving unit 502. The lens driving unit 502 is controlled by the lens CPU 503.

ズームレンズ系501の入射光の光路上にはCCD等の撮像素子504が配設されている。この撮像素子504は、撮像回路505、A/Dコンバータ506を介してバスライン507に接続されている。バスライン507には、システムコントローラ508とAFコントローラ509が接続されている。また、AFコントローラ509にはAFセンサ510が接続されている。更に、バスライン507には、各種の制御プログラムや各種データ処理用の情報等を記憶したROM511、データの一時記憶用のRAM512、ドライブコントローラ513及びメディアドライブ514を介してディスク状又はカード状の記録媒体515が接続され、外部I/F部516を介して外部入出力端子517が接続され、ビデオエンコーダ518を介してビデオ出力端子519が接続され、ビデオエンコーダ518及びLCDドライバ520を介してLCD表示部521が接続されている。   An imaging element 504 such as a CCD is disposed on the optical path of incident light of the zoom lens system 501. The imaging element 504 is connected to the bus line 507 via the imaging circuit 505 and the A / D converter 506. A system controller 508 and an AF controller 509 are connected to the bus line 507. An AF sensor 510 is connected to the AF controller 509. Further, the bus line 507 has a disk 511 or a card-like recording via a ROM 511 storing various control programs and various data processing information, a RAM 512 for temporarily storing data, a drive controller 513 and a media drive 514. The medium 515 is connected, the external input / output terminal 517 is connected via the external I / F unit 516, the video output terminal 519 is connected via the video encoder 518, and the LCD display is displayed via the video encoder 518 and the LCD driver 520. The part 521 is connected.

また、システムコントローラ508はカメラ全体の制御を司るものであり、レンズCPU503と通信可能に構成されている。更に、システムコントローラ508は、操作部ドライバ522を介してモード設定などのカメラに対して各指示の入力を行う操作部の操作状態を検出するためのダイヤル部523及びスイッチ部524、各部に電源を供給する電源部525とも接続されている。   A system controller 508 controls the entire camera, and is configured to be communicable with the lens CPU 503. Furthermore, the system controller 508 supplies power to the dial unit 523 and the switch unit 524 for detecting the operation state of the operation unit that inputs each instruction to the camera such as mode setting via the operation unit driver 522. A power supply unit 525 to be supplied is also connected.

また、電源部525には、外部からの電源供給を受けるための外部電源入力端子526が設けられている。更に、システムコントローラ508には閃光発光を行うためのストロボ発光部527が接続されている。   The power supply unit 525 is provided with an external power input terminal 526 for receiving external power supply. Further, a strobe light emission unit 527 for performing flash emission is connected to the system controller 508.

このような構成において、AFセンサ510からのセンサ出力がAFコントローラ509に入力されると、AFコントローラ509において上記したような各種演算が行われてデフォーカス量が算出され、算出されたデフォーカス量に基づいてレンズCPU503を介してレンズ駆動部502が制御されて、ズームレンズ系501内のフォーカスレンズのフォーカス駆動が行われる。   In such a configuration, when the sensor output from the AF sensor 510 is input to the AF controller 509, the AF controller 509 performs various calculations as described above to calculate the defocus amount, and the calculated defocus amount. Based on this, the lens driving unit 502 is controlled via the lens CPU 503, and the focus lens in the zoom lens system 501 is driven.

また、図示しない被写体の像がズームレンズ系501を介して撮像素子504に結像すると、この被写体像が光電変換された撮像信号として撮像素子504から出力される。この撮像信号が、後段の撮像回路505において処理され、更に、A/Dコンバータ506においてデジタルの画像データに変換される。このデジタル画像データが、バスライン507を介してシステムコントローラ508に入力される。システムコントローラ508では、入力された画像データのJPEG圧縮伸張処理等の各種信号処理等が行われる。ここで、システムコントローラ508による信号処理の際やAFコントローラ509におけるAF演算の際には、各種データの一時的記憶用としてRAM512が用いられる。   In addition, when an image of a subject (not shown) is formed on the image sensor 504 via the zoom lens system 501, the subject image is output from the image sensor 504 as an imaging signal obtained by photoelectric conversion. This image pickup signal is processed in the image pickup circuit 505 in the subsequent stage, and further converted into digital image data in the A / D converter 506. This digital image data is input to the system controller 508 via the bus line 507. The system controller 508 performs various signal processing such as JPEG compression / decompression processing of input image data. Here, the RAM 512 is used for temporary storage of various data during signal processing by the system controller 508 and AF calculation by the AF controller 509.

また、画像データ等の記録用のディスク状又はカード状の記録媒体515がメディアドライブ514に装着されると、当該記録媒体515に画像データが記録され、或いは画像データが読み込まれることになる。このとき、ドライブコントローラ513により、メディアドライブ514の動作が制御される。記録媒体515から画像データが読み込まれた場合には、読み込まれた画像データがバスライン507を介してシステムコントローラ508に送られ、上記したのと同様の信号処理がなされる。   In addition, when a disk-like or card-like recording medium 515 for recording image data or the like is loaded into the media drive 514, the image data is recorded on the recording medium 515 or the image data is read. At this time, the operation of the media drive 514 is controlled by the drive controller 513. When image data is read from the recording medium 515, the read image data is sent to the system controller 508 via the bus line 507, and the same signal processing as described above is performed.

また、パソコン等の周辺機器は、外部入出力端子(例えばUSB端子)517、外部I/F部516を介してバスライン507に接続される。周辺機器の保持する画像データ等は、外部入出力端子517、外部I/F部516を介して取り込まれ、ドライブコントローラ513の制御の下、メディアドライブ514が駆動され、記録媒体515に記録されるようになっている。   Peripheral devices such as a personal computer are connected to the bus line 507 via an external input / output terminal (for example, a USB terminal) 517 and an external I / F unit 516. Image data and the like held by the peripheral device are captured via the external input / output terminal 517 and the external I / F unit 516, and the media drive 514 is driven and recorded on the recording medium 515 under the control of the drive controller 513. It is like that.

更に、ビデオエンコーダ518では、A/Dコンバータ506でA/D変換された画像信号、又は記録媒体515から読み出されシステムコントローラ508でJPEG伸長処理された画像信号がエンコードされ、LCD表示部521において所定の表示がなされる。このとき、LCDドライバ520によりLCD表示部521が駆動される。更に、このカメラでは、ビデオ出力端子519を介して映像信号の外部出力も可能となっている。   Further, the video encoder 518 encodes the image signal A / D converted by the A / D converter 506 or the image signal read from the recording medium 515 and subjected to JPEG decompression processing by the system controller 508, and is displayed on the LCD display unit 521. A predetermined display is made. At this time, the LCD display unit 521 is driven by the LCD driver 520. Furthermore, this camera can also output a video signal externally via a video output terminal 519.

以上説明したように本一実施形態によれば、撮影に余り利用されない測距点に対応する撮影画面の4隅近傍の測距点を除外し、その空き分だけセンサ列を撮影画面の中央方向によせて配置することで、広視野を維持しつつ2像間隔値を短くすることができる。これにより、2次光学系の光路長を短くすることができ、焦点検出装置を小型化することができる。   As described above, according to the present embodiment, the distance measuring points near the four corners of the shooting screen corresponding to the distance measuring points that are rarely used for shooting are excluded, and the sensor array is arranged in the center direction of the shooting screen by the empty space. Therefore, the two-image interval value can be shortened while maintaining a wide field of view. Thereby, the optical path length of a secondary optical system can be shortened, and a focus detection apparatus can be reduced in size.

以上実施形態に基づいて本発明を説明したが、本発明は上記した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。例えば、上記した実施形態では千鳥ラインセンサのラインセンサ数を3つとしているが、この数を増やしても良い。   Although the present invention has been described based on the above embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention. For example, in the above-described embodiment, the number of line sensors of the staggered line sensor is three, but this number may be increased.

また、測距点の配置の仕方も図4に示したものに限るものではない。例えば、測距点を図15に示す9点とした場合には、図3のn=1、n=3、n=4、n=7、n=8、n=12、n=13、n=16、n=17、n=19と、n=20、n=21、n=22、n=23、n=25、n=33、n=35、n=36、n=37、n=38のアイランドを除外するようにし、また視野マスクの開口部の形状を図16に示すような略菱形形状とすれば良い。このようにすれば、視野は狭くなるが更なる光路長の短縮を実現することができる。   Further, the way of arranging the distance measuring points is not limited to that shown in FIG. For example, when the distance measuring points are nine as shown in FIG. 15, n = 1, n = 3, n = 4, n = 7, n = 8, n = 12, n = 13, n in FIG. = 16, n = 17, n = 19, n = 20, n = 21, n = 22, n = 23, n = 25, n = 33, n = 35, n = 36, n = 37, n = 38 islands may be excluded, and the shape of the opening of the field mask may be a substantially rhombus shape as shown in FIG. In this way, although the field of view is narrowed, the optical path length can be further shortened.

さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and the effect described in the column of the effect of the invention Can be extracted as an invention.

本発明の一実施形態に係る焦点検出装置を有するカメラにおける、焦点状態検出動作に関する構成について示した図である。It is the figure shown about the structure regarding a focus state detection operation | movement in the camera which has the focus detection apparatus which concerns on one Embodiment of this invention. 図1のカメラで用いられるAF光学系の2次結像系を模式的に示した図である。It is the figure which showed typically the secondary image formation system of AF optical system used with the camera of FIG. 本発明の一実施形態に係る焦点検出装置としてのAFセンサのセンサ列配置の例を示す図である。It is a figure which shows the example of sensor row | line | column arrangement | positioning of AF sensor as a focus detection apparatus which concerns on one Embodiment of this invention. 図3のAFセンサの検出する測距点について示した図である。It is the figure shown about the ranging point which the AF sensor of FIG. 3 detects. 視野マスクの開口部の形状について示す図である。It is a figure shown about the shape of the opening part of a visual field mask. セパレータ絞りの開口部の形状について示す図である。It is a figure shown about the shape of the opening part of a separator aperture_diaphragm | restriction. 本発明の一実施形態の2像間隔値と光路長との関係と従来例の2像間隔値と光路長との関係の比較図である。It is a comparison figure of the relationship between 2 image interval value and optical path length of one Embodiment of this invention, and the relationship between 2 image interval value and optical path length of a prior art example. 図3の水平方向基準部センサ列と水平方向参照部センサ列の一部のセンサ回路構成について示す図である。It is a figure shown about a part of sensor circuit structure of the horizontal direction reference | standard part sensor row | line and horizontal direction reference | standard part sensor row | line | column of FIG. 相関演算枠の分割の概念図である。It is a conceptual diagram of the division | segmentation of a correlation calculation frame. センサデータの読み出し順の考え方について示した図である。It is the figure shown about the view of the reading order of sensor data. 千鳥ラインセンサのセンサデータ処理の手順について示すフローチャートである。It is a flowchart shown about the procedure of the sensor data process of a staggered line sensor. 相関演算について説明するための図である。It is a figure for demonstrating a correlation calculation. センサデータの合成について説明するための図である。It is a figure for demonstrating composition of sensor data. 本発明の一実施形態に係る焦点検出装置を有するカメラの全体的な電気回路構成を示すブロック構成図である。It is a block block diagram which shows the whole electric circuit structure of the camera which has the focus detection apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態の変形例における測距点配置について示す図である。It is a figure shown about ranging point arrangement | positioning in the modification of one Embodiment of this invention. 本発明の一実施形態の変形例における視野マスクの開口部の形状について示す図である。It is a figure shown about the shape of the opening part of the visual field mask in the modification of one Embodiment of this invention. 従来例における測距点配置について示す図である。It is a figure shown about the ranging point arrangement | positioning in a prior art example. 従来例におけるセンサ列配置について示す図である。It is a figure shown about the sensor array arrangement | positioning in a prior art example. 従来例における視野マスクの開口部の形状について示す図である。It is a figure shown about the shape of the opening part of the visual field mask in a prior art example. 従来例の2像間隔値と光路長との関係について示す図である。It is a figure shown about the relationship between the 2 image interval value and optical path length of a prior art example.

符号の説明Explanation of symbols

101…交換レンズ、102…フォーカスレンズ、103…レンズ駆動部、104…レンズCPU、105…通信コネクタ、110…カメラボディ、111…メインミラー、112…フォーカシングスクリーン、113…ペンタプリズム、114…接眼レンズ、115…サブミラー、116…視野マスク、116a〜116c…開口部、117…コンデンサレンズ、118…全反射ミラー、119…セパレータ絞り、120…セパレータレンズ、121…AFセンサ、122…AFコントローラ、123…システムコントローラ、124…撮像素子   DESCRIPTION OF SYMBOLS 101 ... Interchangeable lens, 102 ... Focus lens, 103 ... Lens drive part, 104 ... Lens CPU, 105 ... Communication connector, 110 ... Camera body, 111 ... Main mirror, 112 ... Focusing screen, 113 ... Pentaprism, 114 ... Eyepiece , 115 ... sub-mirror, 116 ... field mask, 116 a to 116 c ... aperture, 117 ... condenser lens, 118 ... total reflection mirror, 119 ... separator diaphragm, 120 ... separator lens, 121 ... AF sensor, 122 ... AF controller, 123 ... System controller 124 ... Imaging device

Claims (5)

撮影画面内の複数の測距点における被写体の焦点状態を検出する焦点検出装置において、
上記撮影画面の略水平方向の焦点検出領域に対応する一対の第1のセンサ列と、上記撮影画面の略垂直方向の焦点検出領域に対応する一対の第2のセンサ列とを含む焦点検出用センサを具備し、
上記第1のセンサ列と上記第2のセンサ列とは、一方の一対のセンサ列同士の間に他方の一対のセンサ列が配置されて構成されていることを特徴とする焦点検出装置。
In a focus detection device that detects a focus state of a subject at a plurality of distance measuring points in a shooting screen,
For focus detection including a pair of first sensor rows corresponding to a focus detection region in a substantially horizontal direction of the shooting screen and a pair of second sensor rows corresponding to a focus detection region in a substantially vertical direction of the shooting screen. Equipped with a sensor,
The focus detection apparatus, wherein the first sensor array and the second sensor array are configured such that the other pair of sensor arrays is disposed between the pair of sensor arrays.
撮影光学系の1次結像面上に設けられ、上記撮影光学系を通過した被写体光束の上記焦点検出用センサへの照射範囲を規制する開口部を有する視野マスクを含み、
上記視野マスクの開口部の形状は、略楕円形状、略六角形状、及び略菱形形状の何れかを含むことを特徴とする請求項1に記載の焦点検出装置。
A field mask having an opening provided on a primary imaging plane of the photographing optical system and having an opening for restricting an irradiation range of the subject light flux that has passed through the photographing optical system to the focus detection sensor;
The focus detection apparatus according to claim 1, wherein the shape of the opening of the field mask includes any one of a substantially elliptical shape, a substantially hexagonal shape, and a substantially rhombus shape.
上記第1のセンサ列に入射する被写体光束が上記撮影光学系を通過するときの射出瞳径は、上記第2のセンサ列に入射する被写体光束が上記撮影光学系を通過するときの射出瞳径に等しいことを特徴とする請求項2に記載の焦点検出装置。   The exit pupil diameter when the subject luminous flux incident on the first sensor array passes through the imaging optical system is the exit pupil diameter when the subject luminous flux incident on the second sensor array passes through the imaging optical system. The focus detection apparatus according to claim 2, wherein 上記撮影画面内の複数の測距点は、上記撮影画面の4隅近傍に配置されていないことを特徴とする請求項1乃至3に記載の焦点検出装置。   The focus detection apparatus according to any one of claims 1 to 3, wherein a plurality of distance measuring points in the shooting screen are not arranged near four corners of the shooting screen. 撮影画面内の複数の測距点における被写体の焦点状態を検出する焦点検出装置において、
上記撮影画面の略水平方向の焦点検出領域に対応する一対の第1のセンサ列と、上記撮影画面の略垂直方向の焦点検出領域に対応する一対の第2のセンサ列とを含む焦点検出用センサを具備し、
上記撮影画面内の複数の測距点は、上記撮影画面の4隅近傍には配置されておらず、
上記撮影画面内の複数の測距点における上端と下端の測距点の焦点状態を検出する上記第1のセンサ列と上記第2のセンサ列とは、光学的に、一方の一対のセンサ列同士の間に他方の一対のセンサ列が配置されるようにして構成されていることを特徴とする焦点検出装置。
In a focus detection device that detects a focus state of a subject at a plurality of distance measuring points in a shooting screen,
For focus detection including a pair of first sensor rows corresponding to a focus detection region in a substantially horizontal direction of the shooting screen and a pair of second sensor rows corresponding to a focus detection region in a substantially vertical direction of the shooting screen. Equipped with a sensor,
The plurality of distance measuring points in the shooting screen are not arranged near the four corners of the shooting screen,
The first sensor array and the second sensor array for detecting the focus states of the upper and lower distance measuring points at the plurality of distance measuring points in the photographing screen are optically one pair of sensor arrays. A focus detection apparatus characterized in that the other pair of sensor rows are arranged between each other.
JP2005143684A 2005-05-17 2005-05-17 Focus detection device Expired - Fee Related JP4642547B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005143684A JP4642547B2 (en) 2005-05-17 2005-05-17 Focus detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005143684A JP4642547B2 (en) 2005-05-17 2005-05-17 Focus detection device

Publications (2)

Publication Number Publication Date
JP2006322970A true JP2006322970A (en) 2006-11-30
JP4642547B2 JP4642547B2 (en) 2011-03-02

Family

ID=37542729

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005143684A Expired - Fee Related JP4642547B2 (en) 2005-05-17 2005-05-17 Focus detection device

Country Status (1)

Country Link
JP (1) JP4642547B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012078754A (en) * 2010-10-06 2012-04-19 Pentax Ricoh Imaging Co Ltd Automatic focus detection device and camera equipped with the same device
JP2013101382A (en) * 2013-01-18 2013-05-23 Pentax Ricoh Imaging Co Ltd Focus detection device
US9462178B2 (en) 2014-01-21 2016-10-04 Canon Kabushiki Kaisha Imaging apparatus
US9531941B2 (en) 2014-01-21 2016-12-27 Canon Kabushiki Kaisha Imaging apparatus

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH085901A (en) * 1994-06-23 1996-01-12 Nikon Corp Focus detecting device
JPH1114896A (en) * 1997-06-20 1999-01-22 Canon Inc Focus detector
JPH11281878A (en) * 1998-03-30 1999-10-15 Minolta Co Ltd Focus position detecting device
JP2001208962A (en) * 2000-01-27 2001-08-03 Nikon Corp Focus detector
JP2002296486A (en) * 2001-03-29 2002-10-09 Minolta Co Ltd Focus detector for camera, and autofocusing camera
JP2004246156A (en) * 2003-02-14 2004-09-02 Nikon Corp Focus detecting device
JP2006039396A (en) * 2004-07-29 2006-02-09 Kyocera Corp Photoelectric conversion system, focal point detecting device, focal point detecting method, and imaging apparatus
JP2006065070A (en) * 2004-08-27 2006-03-09 Canon Inc Device and method for focus detection

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH085901A (en) * 1994-06-23 1996-01-12 Nikon Corp Focus detecting device
JPH1114896A (en) * 1997-06-20 1999-01-22 Canon Inc Focus detector
JPH11281878A (en) * 1998-03-30 1999-10-15 Minolta Co Ltd Focus position detecting device
JP2001208962A (en) * 2000-01-27 2001-08-03 Nikon Corp Focus detector
JP2002296486A (en) * 2001-03-29 2002-10-09 Minolta Co Ltd Focus detector for camera, and autofocusing camera
JP2004246156A (en) * 2003-02-14 2004-09-02 Nikon Corp Focus detecting device
JP2006039396A (en) * 2004-07-29 2006-02-09 Kyocera Corp Photoelectric conversion system, focal point detecting device, focal point detecting method, and imaging apparatus
JP2006065070A (en) * 2004-08-27 2006-03-09 Canon Inc Device and method for focus detection

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012078754A (en) * 2010-10-06 2012-04-19 Pentax Ricoh Imaging Co Ltd Automatic focus detection device and camera equipped with the same device
JP2013101382A (en) * 2013-01-18 2013-05-23 Pentax Ricoh Imaging Co Ltd Focus detection device
US9462178B2 (en) 2014-01-21 2016-10-04 Canon Kabushiki Kaisha Imaging apparatus
US9531941B2 (en) 2014-01-21 2016-12-27 Canon Kabushiki Kaisha Imaging apparatus

Also Published As

Publication number Publication date
JP4642547B2 (en) 2011-03-02

Similar Documents

Publication Publication Date Title
US8730374B2 (en) Focus detection apparatus
JP5751946B2 (en) Focus adjustment apparatus and control method thereof
JP5967916B2 (en) FOCUS DETECTION SENSOR AND OPTICAL DEVICE USING FOCUS DETECTION SENSOR
JP2013054135A (en) Imaging device and control method thereof
JP2009244429A (en) Imaging apparatus
CN101312503A (en) Image sensing apparatus and control method for the same
US9900493B2 (en) Focus detecting apparatus, and method of prediction for the same
US20160065835A1 (en) Focus-detection device, method for controlling the same, and image capture apparatus
JP2008216478A (en) Device for detecting focus
JP5609098B2 (en) Imaging device
JP4642547B2 (en) Focus detection device
JP5852356B2 (en) Imaging device
JP4567712B2 (en) Imaging device
JP2006071741A (en) Focus detecting device
JP2009128438A (en) Focus detecting device for camera
JP4967826B2 (en) Focus detection apparatus and imaging apparatus
JP5962830B2 (en) Focus detection device
JP2015191046A (en) Focus detection device and control method of the same, and imaging device
JP6609910B2 (en) Imaging device
JP2006133515A (en) Camera having focus detector
JP6234094B2 (en) Focus detection apparatus and imaging apparatus
JP5804104B2 (en) Focus adjustment device
JP4576157B2 (en) Camera focus detection device
JP2020113948A (en) Imaging element, imaging apparatus, control method, and program
JP2009053540A (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101116

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101201

R151 Written notification of patent or utility model registration

Ref document number: 4642547

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees