JP2001100088A - Multispot automatic focus detecting device - Google Patents

Multispot automatic focus detecting device

Info

Publication number
JP2001100088A
JP2001100088A JP28105099A JP28105099A JP2001100088A JP 2001100088 A JP2001100088 A JP 2001100088A JP 28105099 A JP28105099 A JP 28105099A JP 28105099 A JP28105099 A JP 28105099A JP 2001100088 A JP2001100088 A JP 2001100088A
Authority
JP
Japan
Prior art keywords
focus detection
correction
sensor
area
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP28105099A
Other languages
Japanese (ja)
Inventor
Toshiyuki Matsumoto
寿之 松本
Masataka Ide
昌孝 井出
Koichi Nakada
康一 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP28105099A priority Critical patent/JP2001100088A/en
Publication of JP2001100088A publication Critical patent/JP2001100088A/en
Pending legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a multispot focus detecting device which suppresses an increase in memory capacity needed for sensor system unevenness correction even when the number of focus detection areas is increased. SOLUTION: The multispot focus detecting device which has focus detection areas distributed at the center part and peripheral part of a focus detection picture plane is equipped with a focus detection sensor which has multiple pixels and photodetects a couple of optical images formed by a focus detection optical system, a correcting means which corrects variance of the focus detection sensor output when a uniform luminance plane is observed, and a memory means which stores correction data that the correcting means refers to when corrected; and the correcting means has different correcting modes between the center part and peripheral part of the focus detection picture plane.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】 本発明は自動焦点検出装置
に関し、さらに詳しくは、複数の測距点を有するカメラ
の多点自動焦点検出装置に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an automatic focus detection device, and more particularly, to a multi-point automatic focus detection device for a camera having a plurality of ranging points.

【0002】[0002]

【従来の技術】 近年、撮影画面内に複数の測距点を有
する自動焦点カメラが数多く提供されている。所謂位相
差検出法を用いた一眼レフカメラでは画面中央部とその
左右の3点や、上下2点をさらに加えた5点の焦点検出
領域を備えたものが多いが、5点を超える測距点を有す
るものもある。こうした自動焦点カメラにあっては、そ
の使い勝手を向上するため、上記測距点はますます増加
する傾向を示し、将来的には全画面いたるところに測距
点が配置される可能性もある。
2. Description of the Related Art In recent years, many autofocus cameras having a plurality of distance measuring points in a shooting screen have been provided. Many single-lens reflex cameras using the so-called phase difference detection method have a focus detection area of five points including the central part of the screen and three points at the left and right, and two points at the top and bottom, but a distance measurement exceeding five points Some have dots. In such an autofocus camera, the ranging points tend to increase more and more in order to improve the usability, and there is a possibility that ranging points will be arranged throughout the entire screen in the future.

【0003】撮影レンズの通過光束を用いるTTL位相
差検出方式の焦点検出装置では焦点検出センサとして一
般的にCCD素子等の複数の画素を有する光電変換素子
列が用いられている。これら光電変換素子列は、同一の
半導体基板上に形成されているが、全素子が全て同一の
光電変換特性を有するとは限らず、画素間でオフセット
バラツキや、感度バラツキが少なからず存在する。さら
に、焦点検出センサに光を導く焦点検出光学系において
は、光学設計上の制約その他により、均一輝度面を観察
しても焦点検出センサ上の照度分布が一様でなく、特に
周辺部で減光が発生しやすいことが知られている。
In a focus detection device of a TTL phase difference detection system using a light beam passing through a photographing lens, a photoelectric conversion element array having a plurality of pixels such as a CCD element is generally used as a focus detection sensor. These photoelectric conversion element arrays are formed on the same semiconductor substrate, but not all elements have the same photoelectric conversion characteristics, and there are considerable offset variations and sensitivity variations between pixels. Furthermore, in a focus detection optical system that guides light to the focus detection sensor, the illuminance distribution on the focus detection sensor is not uniform even when observing a uniform luminance surface due to restrictions on optical design and other factors, and the illuminance distribution is reduced particularly at the periphery. It is known that light is easily generated.

【0004】自動焦点検出装置は、焦点検出センサから
の出力信号に基づいて焦点検出を行うため、一様な輝度
面を観察した場合に、センサ出力がフラットでなければ
ならないことは言うまでもない。そのため、一様な輝度
面を観察した場合に、センサ出力をフラットにするよう
に電気的補正を行い、補正後のセンサデータに基づいて
焦点検出を行うことが一般に行われている。
Since the automatic focus detection device performs focus detection based on an output signal from a focus detection sensor, it is needless to say that the sensor output must be flat when a uniform luminance surface is observed. Therefore, when a uniform luminance surface is observed, it is common practice to perform electrical correction so as to make the sensor output flat, and to perform focus detection based on the corrected sensor data.

【0005】図17(a)〜(d)は、以上述べた焦点
検出系の問題点であるセンサバラツキと周辺減光とに関
する不均一性と、それを補正するようすを概略的に示し
ている。TTL位相差検出方式ゆえ、焦点検出センサは
左右に一対の光電変換素子列を有し、図上に付された
L、Rはそれぞれ左と右の光電変換素子列を示す。横軸
は光電変換素子列(画素列)の並び順であり、縦軸は画
素毎の出力信号であって、受光面照度が高いほど出力レ
ベルも高くなる場合を例示している。
FIGS. 17A to 17D schematically show non-uniformity relating to sensor variation and vignetting, which are problems of the focus detection system described above, and how to correct it. . Because of the TTL phase difference detection method, the focus detection sensor has a pair of photoelectric conversion element rows on the left and right, and L and R attached on the drawing indicate left and right photoelectric conversion element rows, respectively. The horizontal axis indicates the order of arrangement of the photoelectric conversion element rows (pixel rows), and the vertical axis indicates the output signal for each pixel, and illustrates an example in which the higher the illuminance on the light receiving surface, the higher the output level.

【0006】図17(a)は、センサ自身のバラツキが
ないと仮定した場合の、焦点検出光学系の周辺減光によ
る影響の一例を示し、図17(b)は、センサの画素間
感度バラツキの一例を示している。図17(c)は、図
17(a)、(b)を合成したものであり、均一輝度面
を観察した際のセンサ出力を例示している。そして、図
17(c)に補正を行い、図17(d)のようにフラッ
トなセンサデータとする。この補正を「照度補正」と称
する。
FIG. 17 (a) shows an example of the effect of peripheral dimming of the focus detection optical system when it is assumed that there is no variation in the sensor itself, and FIG. 17 (b) shows the sensitivity variation between pixels of the sensor. An example is shown. FIG. 17C is a composite of FIGS. 17A and 17B, and illustrates a sensor output when observing a uniform luminance surface. Then, the correction is performed as shown in FIG. 17C to obtain flat sensor data as shown in FIG. 17D. This correction is referred to as “illuminance correction”.

【0007】図17(e)は、センサの積分時間と出力
レベルとの関係の一例を示す。センサの全画素が時間T
1の積分動作を行った場合、全画素中の最大出力を示す
画素をaとし、その他をbとしている。上記照度補正と
は均一輝度面を観察して時間T1の積分を行った際に、
全画素の出力レベルをD1に合せ込む補正を行うもので
あり、時間軸に対する傾きを補正する。その補正式とし
ては、例えば以下のものが知られている。
FIG. 17E shows an example of the relationship between the integration time of the sensor and the output level. Time T for all pixels of the sensor
When the integration operation of 1 is performed, the pixel indicating the maximum output among all the pixels is set to a, and the others are set to b. The illuminance correction is performed when the time T1 is integrated by observing a uniform luminance surface.
The correction is performed so that the output levels of all the pixels are adjusted to D1, and the inclination with respect to the time axis is corrected. For example, the following correction formulas are known.

【0008】 D’(i)={H(i)/k+1}*D(i) 式(1) ここで、記号の意味は次の通りである。 D’(i);補正後のセンサデータ、 H(i);装置製造時に書込む補正値(例えば1画素に
つき4ビット)、 k;光学系とセンサ感度バラツキによって定まる定数、 D(i);補正前のセンサデータ。
D ′ (i) = {H (i) / k + 1} * D (i) Equation (1) Here, the meanings of the symbols are as follows. D '(i): corrected sensor data, H (i): correction value to be written at the time of manufacturing the device (for example, 4 bits per pixel), k: constant determined by variation in optical system and sensor sensitivity, D (i); Sensor data before correction.

【0009】このほか、不均一性の補正として各画素毎
のオフセット誤差を補正するための「オフセット補正」
も知られている。これは、100μ秒程度の積分開始直
後の微小時間におけるセンサ出力レベルのバラツキを補
正するものであり、時間依存性はない。
In addition, "offset correction" for correcting an offset error for each pixel as non-uniformity correction.
Is also known. This is for correcting variations in the sensor output level in a very short time immediately after the start of integration of about 100 μs, and has no time dependency.

【0010】図18は、積分開始直後の微小時間におけ
るセンサ出力の例を示している。図中cは、全画素中最
低の積分値を示し、同じくdは、その他の画素の積分値
を示している。cの出力D3を共通オフセット値とし、
dの出力D4を画素固有のオフセット値とすると、オフ
セット補正後の出力は次式で与えられる。
FIG. 18 shows an example of a sensor output in a short time immediately after the start of integration. In the figure, c indicates the lowest integrated value of all the pixels, and d indicates the integrated values of the other pixels. c as the common offset value,
Assuming that the output D4 of d is a pixel-specific offset value, the output after offset correction is given by the following equation.

【0011】 D”(i)=D(i)−D3−D4(i) 式(2) ここで、記号の意味は次の通りである。 D”(i);補正後のセンサデータ、 D(i);補正前のセンサデータ、 D4(i);各画素固有のオフセット値。D ″ (i) = D (i) −D3−D4 (i) Equation (2) Here, the meanings of the symbols are as follows: D ″ (i): corrected sensor data, D (I): sensor data before correction D4 (i): offset value unique to each pixel.

【0012】これら照度補正とオフセット補正とを複数
の焦点検出領域を有するカメラに適用した技術として
は、照度補正に関して全焦点検出領域の出力が均一にな
るように補正するようにした特開平6−331885号
公報や、オフセット補正に関してセンサ出力を複数のブ
ロックに分割して、それぞれのオフセット値を記憶する
ようにした特開平8−75996号公報等が知られてい
る。
As a technique in which the illuminance correction and the offset correction are applied to a camera having a plurality of focus detection areas, Japanese Patent Laid-Open No. Hei 6 (1996) -1994 discloses a technique for correcting the illuminance so that the outputs of all the focus detection areas become uniform. For example, Japanese Patent Application Laid-Open No. 331885 and Japanese Patent Application Laid-Open No. H8-75996 which divide a sensor output into a plurality of blocks for offset correction and store each offset value are known.

【0013】[0013]

【発明が解決しようとする課題】 しかしながら、上述
した照度補正とオフセット補正とを実施するためには、
センサ画素毎の照度補正値とオフセット補正値とをそれ
ぞれ記憶する記憶手段が必要となる。この記憶手段とし
て一般的に不揮発性メモリが用いられるが、現実には一
つの不揮発性メモリの容量には限界値があるため、画素
数が増大すると、不揮発性メモリを多数個使用する必要
がある。
However, in order to perform the illuminance correction and the offset correction described above,
A storage unit for storing the illuminance correction value and the offset correction value for each sensor pixel is required. Generally, a non-volatile memory is used as the storage means. However, since the capacity of one non-volatile memory has a limit value, when the number of pixels increases, a large number of non-volatile memories must be used. .

【0014】例えば、1つの焦点検出領域に150画素
を有し、この焦点検出領域を15個所備えた多点焦点検
出装置を想定する。いま、照度補正用として1画素につ
き4ビットの補正データを与えると、9000ビット必
要となり(150*15*4=9000)、さらにオフ
セット補正用として1画素につき2ビットの補正データ
を与えると、同様にして4500ビット必要となる。両
者を合計すれば13500ビットの補正データが必要に
なる。焦点検出領域を5個所に限定しても、トータルで
は4500ビット必要である。ところが、ワンチップで
大容量の不揮発性メモリは供給されていないため、これ
を多数個使用する必要がある。このように不揮発性メモ
リを多数個使用すると、装置の小型化が困難である。さ
らに、多点焦点検出装置を組込んだ装置の製造段階で上
記不揮発性メモリへの書き込み工程に要する時間も増大
する。
For example, assume a multi-point focus detection device having 150 pixels in one focus detection area and 15 focus detection areas. Now, if 4-bit correction data for one pixel is given for illuminance correction, 9000 bits are required (150 * 15 * 4 = 9000), and if 2-bit correction data for one pixel is given for offset correction, the same applies. Thus, 4500 bits are required. If they are added together, 13500 bits of correction data are required. Even if the focus detection area is limited to five locations, a total of 4500 bits are required. However, since a large-capacity nonvolatile memory is not supplied in one chip, it is necessary to use a large number of such memories. When a large number of nonvolatile memories are used, it is difficult to reduce the size of the device. Further, the time required for the writing process to the nonvolatile memory in the manufacturing stage of the device incorporating the multipoint focus detection device also increases.

【0015】本発明は、斯かる技術課題に鑑みてなされ
たものであって、その目的とする所は、焦点検出領域数
を多くしてもセンサ系不均一性補正に要するメモリ容量
の増加を抑えた多点焦点検出装置を提供することにあ
る。
The present invention has been made in view of the above technical problem, and an object of the present invention is to increase the memory capacity required for correcting the sensor system non-uniformity even if the number of focus detection areas is increased. It is an object of the present invention to provide a multi-point focus detection device that is suppressed.

【0016】[0016]

【課題を解決するための手段】 上記技術課題を解決す
るために、本発明請求項1に記載の多点焦点検出装置
は、焦点検出画面中央部と周辺部とに分布する複数の焦
点検出領域を有する多点自動焦点検出装置であって、複
数画素を有し、焦点検出光学系により結像される対の光
学像を受光する焦点検出センサと、均一輝度面を観察し
たときの上記焦点検出センサ出力のバラツキを補正する
補正手段と、上記補正手段が補正時に参照する補正デー
タを格納するメモリ手段とを具備し、上記補正手段は、
上記焦点検出画面中央部と周辺部とで補正態様が異なる
ことを特徴とする。
In order to solve the above-mentioned technical problem, a multi-point focus detection apparatus according to claim 1 of the present invention comprises a plurality of focus detection areas distributed in a central portion and a peripheral portion of a focus detection screen. A focus detection sensor having a plurality of pixels and receiving a pair of optical images formed by a focus detection optical system, and the focus detection when observing a uniform luminance surface Correction means for correcting variations in sensor output, and memory means for storing correction data referred to by the correction means at the time of correction, wherein the correction means
The correction mode is different between the central part and the peripheral part of the focus detection screen.

【0017】また、本発明請求項2に記載の多点焦点検
出装置は、請求項1に記載の多点自動焦点検出装置にお
いて、上記補正手段は、上記焦点検出光学系に起因する
上記焦点検出センサ受光面上の周辺減光と、上記焦点検
出センサ自身の画素間感度バラツキとを補正することを
特徴とする。
According to a second aspect of the present invention, there is provided a multi-point automatic focus detecting apparatus according to the first aspect, wherein the correcting means comprises the focus detecting optical system. The present invention is characterized in that peripheral dimming on the light receiving surface of the sensor and sensitivity variation between pixels of the focus detection sensor itself are corrected.

【0018】さらに、本発明請求項3に記載の多点焦点
検出装置は、請求項1または請求項2のいずれかに記載
の多点自動焦点検出装置において、上記補正データは、
上記焦点検出画面中央付近の焦点検出領域に対応する1
つの補正データ、または上記焦点検出センサの全検出領
域の補正データの平均値のいずれかであることを特徴と
する。
Further, according to a third aspect of the present invention, in the multi-point automatic focus detecting device according to the first or second aspect, the correction data is:
1 corresponding to the focus detection area near the center of the focus detection screen
One of the two correction data or the average value of the correction data of all the detection areas of the focus detection sensor.

【0019】[0019]

【発明の実施の形態】 以下、図面を参照して本発明の
実施形態を説明する。図1は、本発明の実施形態である
多点自動焦点検出装置たる焦点制御部1の概略構成を示
すブロック図である。焦点検出部2は、焦点検出光学系
と焦点検出センサとを含み、焦点演算部3に接続されて
いる。焦点演算部3は、焦点検出部2と測距点選択部4
と不均一性補正部5とに接続されている。不均一性補正
部5は、焦点演算部3の他に不均一性補正データ記憶部
6にも接続されている。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of a focus control unit 1 which is a multipoint automatic focus detection device according to an embodiment of the present invention. The focus detection unit 2 includes a focus detection optical system and a focus detection sensor, and is connected to the focus calculation unit 3. The focus calculation unit 3 includes a focus detection unit 2 and a ranging point selection unit 4
And the non-uniformity correction unit 5. The non-uniformity correction unit 5 is connected to the non-uniformity correction data storage unit 6 in addition to the focus calculation unit 3.

【0020】図1において、焦点検出部2は、焦点検出
に必要な像信号を出力し、焦点演算部3は、焦点検出部
2と不均一性補正部5とからデータを入力して、これら
データに基づき複数の測距領域に対する焦点検出演算を
行う。測距点選択部4は、上記焦点演算部3から出力さ
れる複数の焦点検出領域のうち一つの検出領域を選択し
て、測距結果を外部に出力する。不均一性補正部5は、
焦点検出部3が上記演算を行うに先立って焦点検出部2
に起因する不均一性を補正する。不均一性補正データ記
憶部6は、不均一性補正部5による補正を行うに際して
参照される補正データを格納している。
In FIG. 1, a focus detection unit 2 outputs an image signal necessary for focus detection, and a focus calculation unit 3 inputs data from the focus detection unit 2 and the non-uniformity correction unit 5 and Focus detection calculation is performed for a plurality of distance measurement areas based on the data. The ranging point selection section 4 selects one of the plurality of focus detection areas output from the focus calculation section 3 and outputs the ranging result to the outside. The non-uniformity correction unit 5
Before the focus detection unit 3 performs the above calculation, the focus detection unit 2
To correct the non-uniformity caused by the The non-uniformity correction data storage unit 6 stores correction data referred to when performing correction by the non-uniformity correction unit 5.

【0021】図2は、本発明の多点自動焦点検出装置を
一実施形態として適用した一眼レフカメラの断面図を示
している。以下、このカメラの光路に沿って主要な構成
要素を説明する。カメラボディ20のミラーボックス下
部には焦点検出部21が配置され、撮影レンズ22を通
過した被写体光束は、カメラボディ20内のメインミラ
ー23によって一部がその上方に反射され、残りの光束
は透過する。メインミラー23で反射された光束は、ペ
ンタプリズムを介してファインダ接眼部24に導かれて
観察者の眼に入る。一方、メインミラー23を透過した
光束は、サブミラー25によりミラーボックス下方に反
射され、焦点検出部21に至る。
FIG. 2 is a cross-sectional view of a single-lens reflex camera to which the multipoint automatic focus detection device of the present invention is applied as one embodiment. Hereinafter, main components along the optical path of the camera will be described. A focus detection unit 21 is disposed below the mirror box of the camera body 20, and a part of the subject light beam that has passed through the photographing lens 22 is reflected upward by a main mirror 23 in the camera body 20, and the remaining light beam is transmitted. I do. The light beam reflected by the main mirror 23 is guided to the finder eyepiece 24 via the pentaprism and enters the observer's eye. On the other hand, the light beam transmitted through the main mirror 23 is reflected below the mirror box by the sub-mirror 25 and reaches the focus detection unit 21.

【0022】この焦点検出部21は、撮影レンズ22を
通過した被写体光束を制限する視野マスク27と、赤外
光成分を除去する赤外カットフィルタ28と、集光レン
ズであるコンデンサレンズ29と、全反射ミラー30
と、入射光束を対に分割する瞳マスク31と、分割され
た光束をそれぞれエリアセンサ33の光電変換素子群P
上に再結像させる再結像レンズ32と、光電変換素子群
およびその処理回路を含むエリアセンサ33とから構成
されている。
The focus detecting section 21 includes a field mask 27 for limiting the luminous flux of the object passing through the photographing lens 22, an infrared cut filter 28 for removing infrared light components, a condenser lens 29 as a condenser lens, Total reflection mirror 30
And a pupil mask 31 for splitting the incident light beam into pairs, and a photoelectric conversion element group P of the area sensor 33 for each of the split light beams.
It comprises a re-imaging lens 32 for re-imaging, and an area sensor 33 including a photoelectric conversion element group and its processing circuit.

【0023】この一眼レフカメラにおいて、撮影時には
メインミラー23およびサブミラー25を図中破線で示
すようにミラーボックス上面部に退避させ(ミラーアッ
プ)、フォーカルプレーンシャッタ34を所定時間だけ
開いて写真フィルム35に露光を与える。
In this single-lens reflex camera, at the time of photographing, the main mirror 23 and the sub-mirror 25 are retracted to the upper surface of the mirror box as shown by a broken line in the figure (mirror up), and the focal plane shutter 34 is opened for a predetermined time to make a photographic film 35. Exposure.

【0024】図3(a)、(b)はそれぞれ焦点検出光
学系を模式的に示している。図3(a)は、撮影レンズ
22からエリアセンサ33の光電変換素子群Pに至る光
束の様子が示されている(全反射ミラー30は省略され
ている)。同図中の破線Gは、フィルム面との共役面で
ある一次結像面であって、直線群で示される光束は、撮
影レンズ22の一方の射出瞳Haから光電変換素子群P
上に形成される再結像R1までを示しているが、実際
は、撮影レンズ22の他方の射出瞳Hbから光電変換素
子群P上の再結像R2までの直線群で示される他方の光
束が存在しており、エリアセンサ33の光電変換素子群
Pには対の被写体像が形成される。図3(b)は、図3
(a)の斜視図である。
FIGS. 3A and 3B schematically show a focus detection optical system. FIG. 3A shows the state of a light beam from the taking lens 22 to the photoelectric conversion element group P of the area sensor 33 (the total reflection mirror 30 is omitted). A dashed line G in the figure is a primary imaging plane which is a conjugate plane with the film surface, and a light flux indicated by a straight line group is transmitted from one exit pupil Ha of the photographing lens 22 to the photoelectric conversion element group P
Up to the re-imaging R1 formed above, the other light flux indicated by a straight line group from the other exit pupil Hb of the taking lens 22 to the re-imaging R2 on the photoelectric conversion element group P is actually A pair of subject images is formed on the photoelectric conversion element group P of the area sensor 33. FIG.
It is a perspective view of (a).

【0025】図3(a)に示すごとく、焦点検出光学系
の光路中には視野範囲を規定する視野マスク27と、コ
ンデンサレンズ29と、撮影レンズ光軸Oに関して略対
称に配置された開口部31a、31bを有し、光束を対
に分割する瞳マスク31とが設けられ、これら開口部3
1a、31bの後方には再結像レンズ32a、32bが
それぞれ設けられている。撮影レンズ22の射出瞳H
a、Hbを通過した光束は、視野マスク27、コンデン
サレンズ29、瞳マスク31の開口部31a、31b、
および再結像レンズ32a、32bをそれぞれ通過し、
エリアセンサ33の領域33a、33bの光電変換素子
群P上に再結像される。
As shown in FIG. 3A, in the optical path of the focus detecting optical system, a field mask 27 for defining a field of view, a condenser lens 29, and an opening arranged substantially symmetrically with respect to the optical axis O of the photographing lens. And a pupil mask 31 for splitting the light beam into pairs.
Reimaging lenses 32a and 32b are provided behind 1a and 31b, respectively. Exit pupil H of taking lens 22
a, Hb pass through the field mask 27, the condenser lens 29, the openings 31a, 31b of the pupil mask 31,
And re-imaging lenses 32a and 32b, respectively,
An image is formed again on the photoelectric conversion element group P in the areas 33a and 33b of the area sensor 33.

【0026】いま、撮影レンズ22が「合焦」、即ち一
次結像面G上に被写体像Iが形成される場合、当該被写
体像Iは、図3(a)のI1、I2となる。また、撮影
レンズ22が「前ピン」、即ち、結像面Gの前方に被写
体像Fが形成される場合、当該被写体像Fは図3(a)
のF1、F2となる。さらに、撮影レンズ22が「後ピ
ン」、即ち、結像面Gの後方に被写体像Rが形成される
場合、当該被写体像Rは図3(a)のR1、R2とな
る。
Now, when the taking lens 22 is "focused", that is, when the subject image I is formed on the primary imaging plane G, the subject images I become I1 and I2 in FIG. When the photographing lens 22 is “front-focused”, that is, when the subject image F is formed in front of the image plane G, the subject image F is shown in FIG.
F1 and F2. Further, when the photographing lens 22 is “back-focused”, that is, when the subject image R is formed behind the image forming plane G, the subject images R become R1 and R2 in FIG.

【0027】従って、これら第1の像と第2の像との相
対間隔を測定することにより、撮影レンズ22の焦点調
節状態を検出することができる。具体的には第1の像と
第2の像との光強度分布をそれぞれエリアセンサ33か
らの被写体像信号より求め、上記二像間隔を測定してい
る。
Therefore, by measuring the relative distance between the first image and the second image, it is possible to detect the focus adjustment state of the photographing lens 22. Specifically, the light intensity distribution of the first image and the light intensity distribution of the second image are obtained from the subject image signal from the area sensor 33, and the above-mentioned two image interval is measured.

【0028】図4は、図2のカメラの電気制御系の機能
を示すブロック図である。コントローラ40は、このカ
メラの統括的制御手段として機能し、その内部にはCP
U(中央処理装置)41と、ROM(読み出し専用メモ
リ)42と、RAM(読書きメモリ)43と、ADC
(A/D変換器)44と、EEPROM(書換え可能な
不揮発性メモリ)45とを含んでいる。コントローラ4
0は、ROM42に格納されたカメラシーケンスプログ
ラムに従ってこのカメラの一連の動作を制御する。EE
PROM45には焦点検出や測光に関する調整値や、焦
点検出系の不均一性を補正するための補正データがカメ
ラボディ毎の固有情報としてこのカメラ製造段階で書込
まれ、カメラ使用状態にあっては、フィルム撮影駒数等
の電池交換時にも保存すべき一時データも書込まれる。
FIG. 4 is a block diagram showing functions of the electric control system of the camera shown in FIG. The controller 40 functions as an overall control unit of the camera, and includes a CP
U (central processing unit) 41, ROM (read only memory) 42, RAM (read / write memory) 43, ADC
(A / D converter) 44 and EEPROM (rewritable nonvolatile memory) 45. Controller 4
0 controls a series of operations of this camera according to the camera sequence program stored in the ROM 42. EE
Adjustment values for focus detection and photometry and correction data for correcting non-uniformity of the focus detection system are written in the PROM 45 as unique information for each camera body during this camera manufacturing stage. Temporary data such as the number of film frames to be stored when the battery is replaced is also written.

【0029】コントローラ40には、エリアセンサ3
3、レンズ駆動部46、エンコーダ47、測光部49、
シャッタ駆動部50、絞り駆動部51、およびフィルム
駆動部52が相互通信可能に接続され、操作スイッチで
ある1RSW、2RSWも接続されている。
The controller 40 includes the area sensor 3
3, lens driving unit 46, encoder 47, photometric unit 49,
The shutter drive unit 50, the aperture drive unit 51, and the film drive unit 52 are connected so as to be able to communicate with each other, and the operation switches 1RSW and 2RSW are also connected.

【0030】レンズ駆動部46は、駆動源であるモータ
ML48に接続され、コントローラ40の制御に応答し
て撮影レンズ22中のフォーカシングレンズ22aを駆
動する。エンコーダ47には、フォーカシングレンズ2
2aの移動に応答したパルス列が発生し、コントローラ
40がこのパルス列を計数してレンズ駆動が制御され
る。
The lens driving section 46 is connected to a motor ML 48 as a driving source, and drives the focusing lens 22 a in the taking lens 22 in response to the control of the controller 40. The encoder 47 has a focusing lens 2
A pulse train is generated in response to the movement of 2a, and the controller 40 counts this pulse train and controls lens driving.

【0031】測光部49は、カメラの撮影領域に対応し
た視野範囲を有するSPD(シリコンフォトダイオー
ド)を含み、被写界輝度情報を出力する。測光部49の
出力は、コントローラ40によりADC44でデジタル
値に変換された後、RAM43に記憶される。シャッタ
駆動部50および絞り駆動部51は、コントローラ40
からの制御信号に応答して作動し、それぞれフォーカル
プレーンシャッタ34、不図示の絞り機構を駆動してフ
ィルム露光量を制御する。フィルム駆動部52は、コン
トローラ40からの制御信号に応じてフィルムのオート
ローディング、巻上げ、および巻戻し動作を行う。
The photometric unit 49 includes an SPD (silicon photodiode) having a field of view corresponding to the photographing area of the camera, and outputs field luminance information. The output of the photometric unit 49 is converted into a digital value by the ADC 44 by the controller 40 and then stored in the RAM 43. The shutter driving unit 50 and the aperture driving unit 51
And operates the focal plane shutter 34 and the aperture mechanism (not shown) to control the film exposure amount. The film driving unit 52 performs an automatic loading, winding, and rewinding operation of the film according to a control signal from the controller 40.

【0032】1RSW(ファーストレリーズスイッチ)
と2RSW(セカンドレリーズスイッチ)は、このカメ
ラのレリーズ釦に連動した2段ストロークを有するスイ
ッチであり、第1段階の押し下げ操作に応じて、まず1
RSWのみがオンし、続く第2段階の押し下げ操作に応
じて2RSWもオンする。コントローラ40は、ROM
42に記憶されたカメラシーケンスに従って、1RSW
オンに応答して測光ならびに焦点調節を行い、2RSW
オンに応答してフィルム露光動作を開始し、露光終了後
にはフィルム給送を行う。
1RSW (fast release switch)
And 2RSW (second release switch) are switches having a two-step stroke interlocked with the release button of the camera.
Only the RSW is turned on, and the 2RSW is also turned on in response to the subsequent second-step pressing operation. The controller 40 is a ROM
1RSW according to the camera sequence stored in
Performs photometry and focus adjustment in response to
A film exposure operation is started in response to ON, and after the exposure is completed, the film is fed.

【0033】図5は、エリアセンサ33の内部回路ブロ
ックを示している。このエリアセンサ33の光電変換素
子群である画素部300には、画素ユニット301が規
則正しく二次元配列されている。蓄積制御部313は、
コントローラ40からの制御信号に応じて全部の画素ユ
ニット301の積分動作を制御する。垂直シフトレジス
タ308と水平シフトレジスタ309とにより特定の画
素ユニット301の一つの出力Voが出力バッファ31
0に入力される。出力バッファ310の出力SDATA
は、コントローラ40内部のADC44に入力され、デ
ジタル値に変換された後、RAM43に記憶される。
FIG. 5 shows an internal circuit block of the area sensor 33. Pixel units 301 are regularly and two-dimensionally arranged in the pixel unit 300, which is a photoelectric conversion element group of the area sensor 33. The accumulation control unit 313
The integration operation of all the pixel units 301 is controlled according to a control signal from the controller 40. One output Vo of a specific pixel unit 301 is output from the output buffer 31 by the vertical shift register 308 and the horizontal shift register 309.
Input to 0. Output SDATA of output buffer 310
Is input to the ADC 44 inside the controller 40, converted into a digital value, and stored in the RAM 43.

【0034】画素ユニットのもう一つの出力Vmは、所
定個数のVm同士を共通接続して、スイッチMSL1〜
MSLnを介して出力バッファ312に入力される。エ
リアセンサ上の一つのエリア311内のVm信号ライン
Mは、複数の画素ユニット301の出力Vmnうちのピ
ーク値Vp相当のレベルとなる。従って、スイッチMS
L1〜MSLnを順次排他的にオンさせていくと、バッ
ファ312の出力MDATAにより各エリア311内の
ピークレベルVpをモニタすることができる。このMD
ATAもSDATAと同様にコントローラ40内部のA
DC44に入力され、デジタル値に変換される。
Another output Vm of the pixel unit is formed by connecting a predetermined number of Vm to each other and connecting the switches MSL1 to MSL1 to MSL1.
The data is input to the output buffer 312 via the MSLn. The Vm signal line M in one area 311 on the area sensor has a level corresponding to the peak value Vp of the outputs Vmn of the plurality of pixel units 301. Therefore, the switch MS
When L1 to MSLn are sequentially turned on exclusively, the peak level Vp in each area 311 can be monitored by the output MDATA of the buffer 312. This MD
ATA is the same as SDATA,
The signal is input to the DC 44 and converted into a digital value.

【0035】図6は、画素ユニット301内部の回路構
成を示している。画素ユニット301はフォトダイオー
ド302、キャパシタ303、増幅器304、スイッチ
305、306、およびNMOSトランジスタ307を
含み、これらは図示のごとく接続されている。光電変換
素子であるフォトダイオード302は、入射光量に応じ
て信号電荷を発生し、増幅器304によりこの信号電荷
がキャパシタ303に蓄積される。増幅器304の出力
は、それぞれ水平シフトレジスタ309の信号Xnによ
り制御されるスイッチ305と垂直シフトレジスタ30
8の信号Ynにより制御されるスイッチ306との直列
体を介して出力Voに接続されている。
FIG. 6 shows a circuit configuration inside the pixel unit 301. The pixel unit 301 includes a photodiode 302, a capacitor 303, an amplifier 304, switches 305 and 306, and an NMOS transistor 307, which are connected as shown. The photodiode 302 serving as a photoelectric conversion element generates a signal charge according to the amount of incident light, and the signal charge is accumulated in the capacitor 303 by the amplifier 304. The output of the amplifier 304 is connected to the switch 305 and the vertical shift register 30 controlled by the signal Xn of the horizontal shift register 309, respectively.
8 is connected to the output Vo via a series body with a switch 306 controlled by the signal Yn.

【0036】また、増幅器304の出力は、NMOSト
ランジスタ307によるソースフォロワ回路にも入力さ
れ、ソースフォロワ出力はモニタ端子Vmに接続されて
いる。なお、増幅器304とキャパシタ303とによる
積分回路は信号電荷の蓄積が進行するにつれて出力レベ
ルが上昇するものと仮定している。モニタ出力Vmは、
所定の複数画素ユニット同士が共通接続されるため、結
果的にはその中で最大の出力レベルにより支配される。
The output of the amplifier 304 is also input to a source follower circuit formed by an NMOS transistor 307, and the output of the source follower is connected to a monitor terminal Vm. It is assumed that the output level of the integrating circuit including the amplifier 304 and the capacitor 303 increases as the accumulation of the signal charge progresses. The monitor output Vm is
Since a predetermined plurality of pixel units are connected in common, as a result, they are governed by the maximum output level among them.

【0037】図7は、カメラの撮影画面内に配された焦
点検出領域であるエリア1〜エリアnを示している。上
述のモニタエリア選択スイッチMSL1〜MSLnは上
記エリア1〜エリアnに対応付けられており、スイッチ
MSLmをオンさせることにより、エリアm内のピーク
レベルVpmをモニタすることができる。なお、例えば
複数のモニタエリア選択スイッチを同時にオンすると、
複数エリア内のピークレベルをモニタすることもでき、
全部のモニタエリア選択スイッチを一括してオンすれ
ば、エリアセンサ33の全エリア内のピークレベルをモ
ニタすることも可能である。
FIG. 7 shows areas 1 to n which are focus detection areas arranged in the photographing screen of the camera. The above-described monitor area selection switches MSL1 to MSLn are associated with the above-described areas 1 to n. By turning on the switch MSLm, the peak level Vpm in the area m can be monitored. If, for example, multiple monitor area selection switches are turned on at the same time,
You can monitor peak levels in multiple areas,
If all the monitor area selection switches are turned on collectively, the peak level in the entire area of the area sensor 33 can be monitored.

【0038】図8は、エリアセンサ33の蓄積動作制御
の概要を示すタイミングチャートであり、説明を簡略化
するために、エリア5〜7のみについて例示している。
コントローラ40は、積分開始信号INTSを出力して
エリアセンサ33の蓄積動作を開始させ、各エリア毎に
モニタレベルを監視する。このとき、最も速くレベルが
上昇するエリアを優先的に参照する。そして、各モニタ
レベルが所定の適正蓄積レベルに達すると、コントロー
ラ40は、積分終了信号を出力してエリア毎に蓄積動作
を終了させる。図示の例では、エリア6、5、7の順に
蓄積動作が終了している。
FIG. 8 is a timing chart showing the outline of the accumulation operation control of the area sensor 33, and exemplifies only the areas 5 to 7 in order to simplify the explanation.
The controller 40 outputs the integration start signal INTS to start the accumulation operation of the area sensor 33, and monitors the monitor level for each area. At this time, the area in which the level rises fastest is preferentially referred to. Then, when each monitor level reaches a predetermined appropriate accumulation level, the controller 40 outputs an integration end signal to end the accumulation operation for each area. In the illustrated example, the accumulation operation is completed in the order of the areas 6, 5, and 7.

【0039】このとき、図9(a)、(b)に示すよう
に、エリアセンサの2つの領域33a、33bのエリ
ア、例えばエリア5に対応するa5、b5を同時に蓄積
終了させている。なお、am、bmで規定される1個の
エリアmに関して、図10(a)、(b)には対応する
フォトダイオードの配列を一次元的に示している。一方
のエリアセンサ33aを構成するフォトダイオード列a
mは、L(1)、L(2)、L(3)、・・・、L(6
4)と表せ、他方のエリアセンサ33bを構成するフォ
トダイオード列bmは、R(1)、R(2)、R
(3)、・・・、R(64)と表せ、その被写体像信号
も一次元的に処理することができる。
At this time, as shown in FIGS. 9A and 9B, the accumulation of two areas 33a and 33b of the area sensor, for example, a5 and b5 corresponding to area 5, are simultaneously terminated. In addition, for one area m defined by am and bm, FIGS. 10A and 10B show a one-dimensional array of corresponding photodiodes. Photodiode row a forming one area sensor 33a
m is L (1), L (2), L (3),..., L (6
4), and the photodiode array bm forming the other area sensor 33b has R (1), R (2), R
(3),..., R (64), and the subject image signal can also be processed one-dimensionally.

【0040】蓄積制御が終了すると、コントローラ40
は、読み出しクロック信号CLKを出力する。エリアセ
ンサ33の蓄積制御部313は、読み出しクロック信号
CLKに応じて水平シフトレジスタ309、垂直シフト
レジスタ308を制御して、信号出力端子SDATAか
ら被写体像信号であるセンサデータを順次出力させる。
このセンサデータをコントローラ40内部のADC44
に入力し、当該データをデジタル変換した後、RAM4
2に格納させる。かくして、コントローラ40は特定の
焦点検出エリアのセンサデータのみを読み出すことがで
きる。
When the accumulation control is completed, the controller 40
Outputs a read clock signal CLK. The accumulation control unit 313 of the area sensor 33 controls the horizontal shift register 309 and the vertical shift register 308 in accordance with the read clock signal CLK to sequentially output sensor data as a subject image signal from the signal output terminal SDATA.
This sensor data is stored in the ADC 44 inside the controller 40.
And converts the data into digital data.
2 Thus, the controller 40 can read out only the sensor data of the specific focus detection area.

【0041】図11は、上記カメラを制御するコントロ
ーラ40の概略動作シーケンスであるメインルーチンを
示すフローチャートである。カメラの作動が開始される
と、まず、カメラシステム各部の初期化として各部機構
をそれぞれ初期位置に駆動して撮影可能状態とする(S
1)。次に測光部49により被写界輝度を測定し、フィ
ルム感度情報を勘案して露光時の制御条件を演算し(S
2)、エリアセンサ33のセンサデータとEEPROM
45の補正データとに基づいて撮影レンズ22のピント
状態検出を行い(S3)、不図示のレリーズ釦が操作さ
れ1RSWがオンしているか判定する(S4)。1RS
Wがオンされていないと判定した場合、S2に戻り、1
RSWのオンを待つ。1RSWがオンされていると判定
した場合、撮影レンズ22が既に合焦しているか判定し
(S5)、合焦していなければレンズ駆動部46により
レンズ駆動を行う(S6)。
FIG. 11 is a flowchart showing a main routine which is a schematic operation sequence of the controller 40 for controlling the camera. When the operation of the camera is started, first, as initialization of each part of the camera system, each mechanism is driven to an initial position to set a photographable state (S
1). Next, the luminance of the field is measured by the photometric unit 49, and the control condition at the time of exposure is calculated in consideration of the film sensitivity information (S
2), sensor data of area sensor 33 and EEPROM
The focus state of the taking lens 22 is detected based on the 45 correction data (S3), and it is determined whether the release button (not shown) is operated and the 1RSW is turned on (S4). 1RS
If it is determined that W is not turned on, the process returns to S2, and 1
Wait for RSW to turn on. If it is determined that the 1RSW is turned on, it is determined whether the photographing lens 22 is already in focus (S5). If not, the lens driving unit 46 drives the lens (S6).

【0042】続いて2RSWがオンしているか判定し
(S7)、2RSWのオンが検出されれば、メインミラ
ー23、およびサブミラー25の退避を行う(S9)。
S7で2RSWのオンが検出されないときは、1RSW
のオンを再確認し(S8)、1RSWがオンしていれ
ば、S7に戻って2RSWオンを待ち、1RSWもオン
していなければS2に戻る。ミラー退避に続いて、絞り
駆動部51とシャッタ駆動部50とにより絞り機構とフ
ォーカルプレーンシャッタ34とをS3による設定値に
制御してフィルム35の露光を行い(S10)、露光終
了後に退避していたミラーを元に戻し(S11)、フォ
ーカルプレーンシャッタ34をチャージする(S1
2)。その後、フィルム駆動部52によりフィルム35
を1駒送り(S13)、S2に戻る。
Subsequently, it is determined whether or not the 2RSW is turned on (S7). If the 2RSW is turned on, the main mirror 23 and the sub mirror 25 are retracted (S9).
If the ON of 2RSW is not detected in S7, 1RSW
Is turned on again (S8). If 1RSW is on, the process returns to S7 to wait for 2RSW on, and if 1RSW is not on, returns to S2. Subsequent to the mirror retraction, the aperture driving unit 51 and the shutter driving unit 50 control the aperture mechanism and the focal plane shutter 34 to the set values set in S3 to perform exposure of the film 35 (S10). The mirror is returned to its original position (S11), and the focal plane shutter 34 is charged (S1).
2). Thereafter, the film 35 is moved by the film driving unit 52.
Is advanced by one frame (S13), and the process returns to S2.

【0043】図12は、図11に示したメインルーチン
の測距(S3)の動作を展開した測距ルーチンを示すフ
ローチャートである。測距ルーチンが起動すると、図8
を参照して説明した要領にてエリアセンサ33の積分制
御を行う(S20)。続いて全ての焦点検出領域での積
分動作が終了しているかを判定し、全領域の積分動作が
終了するまでS20に戻って制御を続ける(S21)。
FIG. 12 is a flowchart showing a distance measuring routine in which the operation of the distance measuring (S3) of the main routine shown in FIG. 11 is developed. When the distance measurement routine starts, FIG.
The integral control of the area sensor 33 is performed in the manner described with reference to (S20). Subsequently, it is determined whether or not the integration operation in all the focus detection areas has been completed, and the process returns to S20 to continue the control until the integration operation in all the areas has been completed (S21).

【0044】全領域の積分動作が終了した場合、エリア
センサ33のセンサデータをAD変換してRAM43に
格納する(S22)。続いてRAM43に格納したデー
タに照度補正を行い(S23)、さらにオフセット補正
を行う(S24)。これら照度補正、オフセット補正の
詳細は後述する。補正を行った全ての焦点検出領域のセ
ンサデータに基づき公知の相関演算を行い、これら相関
演算結果から、例えば最至近データを選択する等により
主要被写体が存在するであろう焦点検出領域を選択し
(S25)、この選択された焦点検出領域における撮影
レンズ22のデフォーカス量を演算する(S26)。
When the integration operation of all areas is completed, the sensor data of the area sensor 33 is AD-converted and stored in the RAM 43 (S22). Subsequently, illuminance correction is performed on the data stored in the RAM 43 (S23), and offset correction is further performed (S24). Details of these illuminance correction and offset correction will be described later. A known correlation operation is performed based on the corrected sensor data of all the focus detection regions, and a focus detection region where a main subject is likely to be present is selected from these correlation operation results, for example, by selecting closest data. (S25), the defocus amount of the photographing lens 22 in the selected focus detection area is calculated (S26).

【0045】続いて撮影レンズ22の収差を公知の演算
により補正する(S27)。ここでいう収差とは、撮影
レンズ22の焦点距離に応じてデフォーカス量が変化す
る変化量を指している。求められたデフォーカス量が所
定値以内であるか判定し、撮影レンズ22がすでに被写
体に対して合焦しているかを判定する。合焦状態であれ
ばこのルーチンを終了する(S29)。非合焦であれば
撮影レンズ22を合焦させるために必要な駆動量を演算
して、エンコーダ47のパルス数に変換し(S30)、
このルーチンを終了してメインルーチンに戻る。
Subsequently, the aberration of the photographing lens 22 is corrected by a known calculation (S27). Here, the aberration indicates a change amount in which the defocus amount changes according to the focal length of the photographing lens 22. It is determined whether the obtained defocus amount is within a predetermined value, and it is determined whether the photographing lens 22 is already focused on the subject. If the camera is in the in-focus state, this routine ends (S29). If out of focus, the amount of drive required to focus the taking lens 22 is calculated and converted into the number of pulses of the encoder 47 (S30),
This routine ends and returns to the main routine.

【0046】ここで、上記S23、S24の補正につい
て詳述する。本実施形態では、撮影画面内に分布する複
数の焦点検出領域を、便宜上、中央付近領域(例えば、
図7のエリア7〜9、12〜14、17〜19)と周辺
領域(同図、エリア1〜5、6、10、11、15、1
6、20〜25)とに区別している。そして、中央付近
領域のセンサデータに対しては従来技術で述べたと同様
の照度補正、オフセット補正を行うが、周辺領域のセン
サデータに対しては、斯かる補正の実施を省略してい
る。何故なら、一般に、撮影レンズ22の解像力は周辺
部では中央部に比して低いため、このように設定しても
写真プリント上ではピントの適否がさほど問題とはなら
ないためである。こうして、本実施形態ではセンサ関連
補正データのサイズを大幅に減少させることができる。
Here, the correction in S23 and S24 will be described in detail. In the present embodiment, for the sake of convenience, a plurality of focus detection areas distributed in the shooting screen are defined as areas near the center (for example,
Areas 7 to 9, 12 to 14, 17 to 19 in FIG. 7 and peripheral areas (areas 1 to 5, 6, 10, 11, 15, 15, 1 in FIG. 7).
6, 20 to 25). Then, illuminance correction and offset correction similar to those described in the related art are performed on the sensor data in the vicinity of the center, but such correction is not performed on the sensor data in the peripheral region. This is because, in general, the resolving power of the photographing lens 22 is lower at the peripheral portion than at the central portion, and thus, even if set in this way, the suitability of focusing on a photographic print does not matter much. Thus, in the present embodiment, the size of the sensor-related correction data can be significantly reduced.

【0047】図13は、図12に示した測距ルーチンの
照度補正(S23)の動作を展開した照度補正ルーチン
を示すフローチャートである。照度補正ルーチンが起動
すると、まず補正を行う領域が上記周辺領域(例えば、
図7のエリア1〜5、6、10、11、15、16、2
0〜25)であるかを判定し、周辺であれば、何もせず
本ルーチンを終了する(S50)。周辺領域でない場
合、式(1)で説明した補正値H(i)をEEPROM
45からRAM43にコピーし(S51)、変数iの初
期値を補正領域のセンサデータの先頭画素番号とする
(S52)。その後、センサデータD(i)をRAM4
3の作業領域にコピーし(S53)、式(1)に従って
補正後センサデータD’(i)を求める(S54)。変
数iが当該焦点検出領域の最終画素番号であるか判定
し、最終画素番号であれば終了につき、本ルーチンを終
了してメインルーチンに戻る(S55)。最終画素番号
でなければ、変数iを1つ増加してS54に戻り、補正
演算を繰返す(S56)。
FIG. 13 is a flowchart showing an illuminance correction routine in which the operation of the illuminance correction (S23) of the distance measurement routine shown in FIG. 12 is developed. When the illuminance correction routine is started, first, the area to be corrected is the peripheral area (for example,
Areas 1 to 5, 6, 10, 11, 15, 16, 2 in FIG.
0 to 25), and if it is in the vicinity, this routine is terminated without doing anything (S50). If it is not the peripheral area, the correction value H (i) described in the equation (1) is stored in the EEPROM.
45 to the RAM 43 (S51), and the initial value of the variable i is set as the head pixel number of the sensor data in the correction area (S52). After that, the sensor data D (i) is stored in the RAM 4
3 (S53), and the corrected sensor data D '(i) is obtained according to the equation (1) (S54). It is determined whether or not the variable i is the last pixel number of the focus detection area. If the variable i is the last pixel number, this routine ends and the process returns to the main routine (S55). If it is not the last pixel number, the variable i is increased by one and the process returns to S54, and the correction operation is repeated (S56).

【0048】図14は、図12に示した測距ルーチンの
オフセット補正(S24)の動作を展開したオフセット
補正ルーチンを示すフローチャートである。オフセット
補正ルーチンが起動すると、まず補正を行う領域が上記
周辺領域(例えば、図7のエリア1〜5、6、10、1
1、15、16、20〜25)であるかを判定し、周辺
であれば、何もせず本ルーチンを終了する(S60)。
周辺領域でない場合、式(2)で説明した共通オフセッ
ト補正値D3と各画素固有の補正値D4(i)とをそれ
ぞれEEPROM45からRAM43にコピーし(S6
1)、変数iの初期値を補正領域のセンサデータの先頭
画素番号とする(S62)。その後、センサデータD
(i)をRAM43の作業領域にコピーし(S63)、
式(2)に従って補正後センサデータD”(i)を求め
る(S64)。変数iが当該焦点検出領域の最終画素番
号であるか判定し、最終画素番号であれば終了につき、
本ルーチンを終了してメインルーチンに戻る(S6
5)。最終画素番号でなければ、変数iを1つ増加して
S64に戻り、補正演算を繰返す(S66)。
FIG. 14 is a flowchart showing an offset correction routine in which the operation of offset correction (S24) of the distance measurement routine shown in FIG. 12 is developed. When the offset correction routine is started, first, the area to be corrected is the peripheral area (for example, areas 1 to 5, 6, 10, 1 in FIG. 7).
1, 15, 16 and 20 to 25), and if it is in the vicinity, the routine ends without doing anything (S60).
If it is not the peripheral area, the common offset correction value D3 and the correction value D4 (i) unique to each pixel described in Expression (2) are copied from the EEPROM 45 to the RAM 43 (S6).
1) The initial value of the variable i is set as the head pixel number of the sensor data in the correction area (S62). Then, the sensor data D
(I) is copied to the work area of the RAM 43 (S63),
The corrected sensor data D ″ (i) is obtained according to the equation (2) (S64). It is determined whether the variable i is the last pixel number of the focus detection area.
This routine ends and returns to the main routine (S6)
5). If it is not the last pixel number, the variable i is increased by one and the process returns to S64, and the correction operation is repeated (S66).

【0049】このように、本実施形態によれば、センサ
データに対する照度補正、オフセット補正を周辺領域に
おいて省略しているから、焦点検出センサ関連補正デー
タのサイズを減少させることができ、大容量の不揮発性
メモリを要せず、カメラ製造原価ならびに生産工程にお
ける調整データ書き込み工数を削減することができる。
As described above, according to this embodiment, since the illuminance correction and the offset correction for the sensor data are omitted in the peripheral area, the size of the focus detection sensor related correction data can be reduced, and The non-volatile memory is not required, and the manufacturing cost of the camera and the man-hour for writing adjustment data in the production process can be reduced.

【0050】続いて、本発明の第2実施形態を説明す
る。第2実施形態は、図13に示した第1実施形態の照
度補正ルーチンのみを改めたものである。第1実施形態
では周辺領域のセンサデータに対する照度補正、および
オフセット補正を省略しているが、第2実施形態では周
辺領域のセンサデータに対して適宜な1つの補正データ
を与えるようにしている。照度補正ルーチン以外は第1
実施形態と同様であるので、重複する説明を省略し、第
2実施形態の照度補正ルーチンを説明する。
Next, a second embodiment of the present invention will be described. In the second embodiment, only the illuminance correction routine of the first embodiment shown in FIG. 13 is modified. In the first embodiment, the illuminance correction and the offset correction for the sensor data in the peripheral area are omitted, but in the second embodiment, one appropriate correction data is given to the sensor data in the peripheral area. Other than the illumination correction routine, the first
Since the configuration is the same as that of the embodiment, the duplicate description will be omitted, and the illuminance correction routine of the second embodiment will be described.

【0051】図15は、第2実施形態の照度補正ルーチ
ンを示すフローチャートである。この照度補正ルーチン
が起動すると、まず補正を行う領域が上記周辺領域(例
えば、図7のエリア1〜5、6、10、11、15、1
6、20〜25)であるかを判定し、周辺であればS7
7に進む(S70)。周辺領域でない場合、式(1)で
説明した補正値H(i)をEEPROM45からRAM
43にコピーし(S71)、変数iの初期値を補正領域
のセンサデータの先頭画素番号とする(S72)。その
後、センサデータD(i)をRAM43の作業領域にコ
ピーし(S73)、式(1)に従って補正後センサデー
タD’(i)を求める(S74)。変数iが当該焦点検
出領域の最終画素番号であるか判定し、最終画素番号で
あれば終了につき、本ルーチンを終了してメインルーチ
ンに戻る(S75)。最終画素番号でなければ、変数i
を1つ増加してS54に戻り、補正演算を繰返す(S7
6)。S70で周辺領域であると判定された場合、周辺
部に対する照度補正値H(i)をEEPROM45から
RAM43にコピーし、S72に進む(S77)。
FIG. 15 is a flowchart showing an illuminance correction routine according to the second embodiment. When the illuminance correction routine is started, first, the area to be corrected is the peripheral area (for example, the areas 1 to 5, 6, 10, 11, 15, 1 and 1 in FIG. 7).
6, 20 to 25), and if it is in the vicinity, S7
Go to 7 (S70). If it is not the peripheral area, the correction value H (i) described in the equation (1) is stored in the RAM from the EEPROM 45.
43 (S71), and the initial value of the variable i is set as the head pixel number of the sensor data in the correction area (S72). Thereafter, the sensor data D (i) is copied to the work area of the RAM 43 (S73), and the corrected sensor data D '(i) is obtained according to the equation (1) (S74). It is determined whether or not the variable i is the last pixel number of the focus detection area. If the variable i is the last pixel number, this routine ends and the process returns to the main routine (S75). If it is not the last pixel number, the variable i
Is incremented by one, the process returns to S54, and the correction operation is repeated (S7
6). If it is determined in S70 that the area is the peripheral area, the illuminance correction value H (i) for the peripheral area is copied from the EEPROM 45 to the RAM 43, and the process proceeds to S72 (S77).

【0052】ここで、図16を参照して本実施形態にお
ける周辺部に対する照度補正値H(i)について詳述す
る。図16(a)〜図16(c)は、センサ補正に係る
EEPROM45のメモリ空間を例示している。図16
(a)は、全ての焦点検出領域(図7のエリア1〜2
5)の全画素に補正値を与えた場合であり、これが従来
技術で必要なメモリ空間である。図16(b)は、第1
実施形態に対応するメモリ空間であり、中央部領域のみ
の補正値が記憶されている。図16(c)は、第2実施
形態に対応するメモリ空間であり、中央部領域の補正の
ほかに1つだけ周辺用補正値を持っている。この1つの
周辺用補正値が、第2実施形態の周辺用補正値H(i)
にほかならない。
Here, the illuminance correction value H (i) for the peripheral portion in the present embodiment will be described in detail with reference to FIG. FIGS. 16A to 16C illustrate a memory space of the EEPROM 45 related to sensor correction. FIG.
(A) shows all the focus detection areas (areas 1 to 2 in FIG. 7).
This is the case where correction values are given to all the pixels in 5), which is the memory space required in the prior art. FIG. 16B shows the first
This is a memory space corresponding to the embodiment, and stores correction values only for the central region. FIG. 16C shows a memory space corresponding to the second embodiment, which has only one peripheral correction value in addition to the correction of the central area. This one peripheral correction value is the peripheral correction value H (i) of the second embodiment.
It is nothing less than.

【0053】この周辺用補正値として具体的には、例え
ば、中央部の1つのエリアに対する補正値を1つ与え
る。こうすると、感度バラツキに対しては補正できない
が、照度補正に関してみれば、周辺減光に対して補正が
できる。また、周辺用補正値として焦点検出センサの全
画素に対する平均的な補正値を求め、それを代表値とし
て1つ与えてもよい。
Specifically, for example, one correction value for one central area is given as the peripheral correction value. In this case, sensitivity variation cannot be corrected, but in terms of illuminance correction, it is possible to correct for peripheral dimming. Alternatively, an average correction value for all pixels of the focus detection sensor may be obtained as a peripheral correction value, and one of the correction values may be given as a representative value.

【0054】オフセット補正に関しては、照度補正と同
様に周辺用補正値として代表値として1つ与えても良
く、あるいは第1実施形態と同様に省略しても良い。第
2実施形態によれば、センサデータに対する照度補正を
周辺領域において省略せず、1組の補正データにより簡
略化実施しているから、焦点検出センサ関連補正データ
のサイズの増大を防ぐことができ、大容量の不揮発性メ
モリを要せず、カメラ製造原価ならびに生産工程におけ
る調整データ書き込み工数を削減することができる。ま
た、周辺部検出領域に対して不十分ながらも補正がなさ
れるため、焦点検出精度の劣化が防止できる。
Regarding the offset correction, one representative value may be given as a peripheral correction value in the same manner as in the illuminance correction, or may be omitted as in the first embodiment. According to the second embodiment, the illuminance correction for the sensor data is not omitted in the peripheral area and is simplified by a set of correction data, so that an increase in the size of the focus detection sensor-related correction data can be prevented. In addition, a large-capacity nonvolatile memory is not required, and the cost of manufacturing the camera and the number of steps for writing adjustment data in the production process can be reduced. In addition, since the correction is performed on the peripheral detection area although it is insufficient, it is possible to prevent the focus detection accuracy from deteriorating.

【0055】なお、上述した実施形態では本願発明の多
点自動焦点検出装置を一眼レフカメラに適用したTTL
位相差検出方式を例示しているが、レンズシャッタカメ
ラ等に適用される外光式位相差検出方式であっても良
い。さらに、焦点検出センサとしてエリアセンサを用い
た例を示しているが、ラインセンサを複数列並置したも
のであっても良い。そのように変形した場合には、周辺
部と中央部とをどこで区切るかがポイントになるが、焦
点検出光学系や、使用する焦点検出センサの仕様に応じ
て適宜設定すれば良い。
In the above-described embodiment, the TTL in which the multipoint automatic focus detection device of the present invention is applied to a single-lens reflex camera
Although the phase difference detection method is illustrated, an external light type phase difference detection method applied to a lens shutter camera or the like may be used. Furthermore, although an example in which an area sensor is used as a focus detection sensor is shown, a plurality of line sensors may be arranged in parallel. In the case of such a deformation, the point is to determine where the peripheral part and the central part are separated, but it may be appropriately set according to the specifications of the focus detection optical system and the focus detection sensor to be used.

【0056】上述した本発明の実施形態には以下の構成
が含まれる。 (1) 複数の焦点検出領域を有する多点自動焦点検出
装置において、上記複数の焦点検出領域をカバーするた
めの複数画素を有する焦点検出センサと、均一輝度面に
対する上記焦点検出センサの少なくとも略中央部の焦点
検出領域からの出力に対して均一化補正を行い、周辺の
焦点検出領域からの出力に対しては中央部とは異なる補
正を行う均一化手段と、上記均一化手段が参照する補正
データを格納するメモリ手段とを具備したことを特徴と
する多点自動焦点検出装置。 (2) 上記均一化手段は、上記焦点検出センサに光を
導く焦点検出光学系の周辺減光と上記焦点検出センサの
画素間バラツキとを補正する照度補正であることを特徴
とする(1)に記載の多点自動焦点検出装置。 (3) 上記均一化手段は、上記焦点検出センサの画素
間オフセット誤差を補正するオフセット補正であること
を特徴とする(1)に記載の多点自動焦点検出装置。 (4) 上記均一化手段は、上記周辺部の焦点検出領域
に対する均一化補正を行わないことを特徴とする(1)
に記載の多点自動焦点検出装置。 (5) 上記メモリ手段に格納され、上記周辺の焦点検
出領域に対する補正で使用する補正データは、所定の補
正データである(1)に記載の多点自動焦点検出装置。 (6) 上記所定の補正データは、上記略中央付近の焦
点検出領域に対応する補正データ、または上記焦点検出
センサの全焦点検出領域の平均補正データのいずれかで
あることを特徴とする(5)に記載の多点自動焦点検出
装置。
The above-described embodiment of the present invention includes the following configuration. (1) In a multi-point automatic focus detection device having a plurality of focus detection areas, a focus detection sensor having a plurality of pixels for covering the plurality of focus detection areas, and at least approximately a center of the focus detection sensor with respect to a uniform luminance plane. Uniformizing means for performing an equalization correction on the output from the focus detection area of the unit, and performing a correction different from that of the center part on the output from the peripheral focus detection area, and a correction referred to by the uniformization means A multi-point automatic focus detection device comprising: a memory unit for storing data. (2) The uniformizing means is illuminance correction for correcting peripheral dimming of a focus detection optical system that guides light to the focus detection sensor and variation between pixels of the focus detection sensor. 2. The multi-point automatic focus detection device according to item 1. (3) The multi-point automatic focus detection apparatus according to (1), wherein the uniformization means is an offset correction for correcting an offset error between pixels of the focus detection sensor. (4) The equalizing means does not perform the equalization correction on the focus detection area in the peripheral portion. (1)
2. The multi-point automatic focus detection device according to item 1. (5) The multi-point automatic focus detection device according to (1), wherein the correction data stored in the memory means and used in the correction of the peripheral focus detection area is predetermined correction data. (6) The predetermined correction data is either correction data corresponding to the focus detection area near the center or average correction data of all the focus detection areas of the focus detection sensor. The multi-point automatic focus detection device according to (1).

【0057】[0057]

【発明の効果】以上説明したように、本発明によれば、
焦点検出光学系や焦点検出センサに起因する不均一性補
正を周辺部検出領域で省略もしくは簡略化しているか
ら、焦点検出領域数を多くしてもセンサ系不均一性補正
に要するメモリ容量の増加を抑えた多点焦点検出装置を
提供することができる。
As described above, according to the present invention,
Non-uniformity correction due to the focus detection optical system and focus detection sensor is omitted or simplified in the peripheral detection area, so even if the number of focus detection areas is increased, the memory capacity required for sensor system non-uniformity correction increases. Thus, it is possible to provide a multipoint focus detection device in which the number of focus points is reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明実施例に係る構成の概要を示すブロック
図、
FIG. 1 is a block diagram showing an outline of a configuration according to an embodiment of the present invention;

【図2】実施例の多点自動焦点検出装置を適用した一眼
レフカメラの断面図、
FIG. 2 is a cross-sectional view of a single-lens reflex camera to which the multipoint automatic focus detection device according to the embodiment is applied;

【図3】(a)は、位相差式焦点検出光学系の光路を示
す説明図、(b)は、(a)の斜視図、
3A is an explanatory view showing an optical path of a phase difference type focus detection optical system, FIG. 3B is a perspective view of FIG.

【図4】図2のカメラの電気的構成を示すブロック図、FIG. 4 is a block diagram showing an electrical configuration of the camera in FIG. 2;

【図5】実施例のエリアセンサの内部構成を示すブロッ
ク図、
FIG. 5 is a block diagram showing an internal configuration of an area sensor according to the embodiment;

【図6】図5に示すエリアセンサの単位画素の構成を示
すブロック図、
6 is a block diagram showing a configuration of a unit pixel of the area sensor shown in FIG.

【図7】カメラの撮影画面と焦点検出領域との関係を示
す説明図、
FIG. 7 is an explanatory diagram showing a relationship between a photographing screen of a camera and a focus detection area;

【図8】エリアセンサの積分制御動作の一例を示すタイ
ミングチャート、
FIG. 8 is a timing chart showing an example of the integral control operation of the area sensor;

【図9】(a)は、エリアセンサの一方の受光領域、
(b)は、エリアセンサの他方の受光領域を示す説明
図、
FIG. 9A shows one light receiving area of an area sensor;
(B) is an explanatory view showing the other light receiving area of the area sensor,

【図10】(a)は、図9(a)内部の一つの焦点検出
領域を構成するエリアセンサの受光部、(b)は、図9
(b)内部の一つの焦点検出領域を構成するエリアセン
サの受光部を示す説明図、
10A is a light receiving section of an area sensor constituting one focus detection area inside FIG. 9A, and FIG.
(B) Explanatory diagram showing a light receiving section of an area sensor constituting one internal focus detection area,

【図11】図2のカメラのCPU41のメインルーチン
を示すフローチャート、
11 is a flowchart showing a main routine of a CPU 41 of the camera in FIG. 2;

【図12】図11の測距ルーチンを展開したサブルーチ
ンを示すフローチャート、
12 is a flowchart showing a subroutine developed from a distance measurement routine of FIG. 11;

【図13】図11の照度補正ルーチンを展開した第1実
施形態のサブルーチンを示すフローチャート、
FIG. 13 is a flowchart showing a subroutine of the first embodiment in which the illuminance correction routine of FIG. 11 is developed;

【図14】図11のオフセット補正ルーチンを展開した
サブルーチンを示すフローチャート、
FIG. 14 is a flowchart showing a subroutine developed from the offset correction routine of FIG. 11;

【図15】図11の照度補正ルーチンを展開した第2実
施形態のサブルーチンを示すフローチャート、
FIG. 15 is a flowchart showing a subroutine of a second embodiment in which the illuminance correction routine of FIG. 11 is developed;

【図16】図2のカメラのEEPROM45の補正デー
タに要するメモリ空間の例であり、それぞれ(a)は、
従来技術を示し(b)は、第1実施形態を示し(c)
は、第2実施形態を示す、
16 is an example of a memory space required for correction data in an EEPROM 45 of the camera in FIG. 2;
(B) shows the prior art, and (c) shows the first embodiment.
Indicates a second embodiment.

【図17】(a)は、エリアセンサ上の照度分布の一例
を示し、(b)は、エリアセンサ自身の感度バラツキの
一例を示し、(c)は、(a)、(b)を合成したもの
で、エリアセンサ出力レベルに相当し、(d)は、照度
補正、感度バラツキ補正を行った後のセンサ出力(e)
は、エリアセンサの感度バラツキを説明するためのグラ
フ、
17A illustrates an example of an illuminance distribution on an area sensor, FIG. 17B illustrates an example of sensitivity variation of the area sensor itself, and FIG. 17C illustrates a combination of (a) and (b). (D) is the sensor output after performing illuminance correction and sensitivity variation correction (e).
Is a graph for explaining the sensitivity variation of the area sensor,

【図18】エリアセンサのオフセットバラツキを説明す
るためのグラフ。
FIG. 18 is a graph for explaining offset variation of an area sensor.

【符号の説明】[Explanation of symbols]

1 焦点制御部、 2 焦点検出部、 3 焦点演算部、 4 測距点選択部、 5 不均一性補正部、 6 不均一性補正データ記憶部。 1 focus control unit, 2 focus detection unit, 3 focus calculation unit, 4 ranging point selection unit, 5 non-uniformity correction unit, 6 non-uniformity correction data storage unit.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2H011 AA01 BA23 BB02 BB04 DA01 2H051 BA04 CD06 DA07 DA10 DA22 EB01 GB12  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 2H011 AA01 BA23 BB02 BB04 DA01 2H051 BA04 CD06 DA07 DA10 DA22 EB01 GB12

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 焦点検出画面中央部と周辺部とに分布す
る複数の焦点検出領域を有する多点自動焦点検出装置で
あって、 複数画素を有し、焦点検出光学系により結像される対の
光学像を受光する焦点検出センサと、 均一輝度面を観察したときの上記焦点検出センサ出力の
バラツキを補正する補正手段と、 上記補正手段が補正時に参照する補正データを格納する
メモリ手段とを具備し、 上記補正手段は、上記焦点検出画面中央部と周辺部とで
補正態様が異なることを特徴とする多点自動焦点検出装
置。
1. A multi-point automatic focus detection device having a plurality of focus detection areas distributed in a central portion and a peripheral portion of a focus detection screen, comprising a plurality of pixels, and a pair formed by a focus detection optical system. A focus detection sensor that receives the optical image of the above, correction means for correcting variations in the output of the focus detection sensor when observing a uniform luminance surface, and memory means for storing correction data that the correction means refers to at the time of correction. The multi-point automatic focus detection device, wherein the correction means has different correction modes between a central portion and a peripheral portion of the focus detection screen.
【請求項2】 上記補正手段は、上記焦点検出光学系に
起因する上記焦点検出センサ受光面上の周辺減光と、上
記焦点検出センサ自身の画素間感度バラツキとを補正す
ることを特徴とする請求項1に記載の多点自動焦点検出
装置。
2. The method according to claim 1, wherein the correction unit corrects a peripheral dimming on the light receiving surface of the focus detection sensor due to the focus detection optical system and a variation in sensitivity between pixels of the focus detection sensor itself. The multipoint automatic focus detection device according to claim 1.
【請求項3】 上記周辺部で使用する補正データは、上
記焦点検出画面中央付近の焦点検出領域に対応する1つ
の補正データ、上記焦点検出センサの全検出領域の補正
データの平均値、または零の補正データのいずれかであ
ることを特徴とする請求項1または請求項2のいずれか
に記載の多点自動焦点検出装置。
3. The correction data used in the peripheral portion is one correction data corresponding to a focus detection area near the center of the focus detection screen, an average value of correction data of all the detection areas of the focus detection sensor, or zero. 3. The multi-point automatic focus detection device according to claim 1, wherein the correction data is any one of the following correction data.
【請求項4】 上記補正手段は、上記焦点検出画面周辺
部に対する補正を省略することを特徴とする請求項1ま
たは請求項2のいずれかに記載の多点自動焦点検出装
置。
4. The multi-point automatic focus detection device according to claim 1, wherein the correction unit omits correction for a peripheral portion of the focus detection screen.
JP28105099A 1999-10-01 1999-10-01 Multispot automatic focus detecting device Pending JP2001100088A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28105099A JP2001100088A (en) 1999-10-01 1999-10-01 Multispot automatic focus detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28105099A JP2001100088A (en) 1999-10-01 1999-10-01 Multispot automatic focus detecting device

Publications (1)

Publication Number Publication Date
JP2001100088A true JP2001100088A (en) 2001-04-13

Family

ID=17633618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28105099A Pending JP2001100088A (en) 1999-10-01 1999-10-01 Multispot automatic focus detecting device

Country Status (1)

Country Link
JP (1) JP2001100088A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006017933A (en) * 2004-06-30 2006-01-19 Olympus Corp Focus arithmetic unit of camera
WO2006123755A1 (en) * 2005-05-19 2006-11-23 Olympus Corporation Focus information acquisition device
JP5629832B2 (en) * 2011-09-30 2014-11-26 富士フイルム株式会社 Imaging device and method for calculating sensitivity ratio of phase difference pixel

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006017933A (en) * 2004-06-30 2006-01-19 Olympus Corp Focus arithmetic unit of camera
JP4615912B2 (en) * 2004-06-30 2011-01-19 オリンパス株式会社 Camera focus calculation device
WO2006123755A1 (en) * 2005-05-19 2006-11-23 Olympus Corporation Focus information acquisition device
JP2006323172A (en) * 2005-05-19 2006-11-30 Olympus Corp Focusing information obtaining apparatus
JP5629832B2 (en) * 2011-09-30 2014-11-26 富士フイルム株式会社 Imaging device and method for calculating sensitivity ratio of phase difference pixel

Similar Documents

Publication Publication Date Title
JP5147645B2 (en) Imaging device
US7822334B2 (en) Imaging device and in-focus control method
US7616251B2 (en) Camera having focus detection device
US9467613B2 (en) Focusing apparatus and method of controlling focusing apparatus
US6311019B1 (en) Automatic focus adjusting system capable of adjusting focus of moving subject
US9900493B2 (en) Focus detecting apparatus, and method of prediction for the same
JP4348118B2 (en) Solid-state imaging device and imaging device
JPH0915491A (en) Automatic focusing device
US9921454B2 (en) Imaging apparatus capable of generating an image with a weight of a signal corresponding to each type of spectral sensitivity characteristics and method of controlling the apparatus
JP5852356B2 (en) Imaging device
US8355626B2 (en) Lens-interchangeable camera performing focus control, lens barrel, and program
JP4642547B2 (en) Focus detection device
JP2001100088A (en) Multispot automatic focus detecting device
JP2001305422A (en) Range finder
JP4967826B2 (en) Focus detection apparatus and imaging apparatus
JP4865275B2 (en) Focus detection apparatus and imaging apparatus
JP2000171685A (en) Focus detector
JP2004012493A (en) Focus detector
JP2015166780A (en) Imaging device and control method of the same
JP4928236B2 (en) Imaging apparatus and imaging system
JP2012063681A (en) Focus detecting device and camera
JP2008203407A (en) Imaging apparatus, lens device and imaging system
JP4262034B2 (en) Optical device and camera
US9936125B2 (en) Image pickup apparatus including mirror unit and method of controlling the same
US6470149B1 (en) Distance measuring apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20060706

Free format text: JAPANESE INTERMEDIATE CODE: A621

A977 Report on retrieval

Effective date: 20090611

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090616

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090805

A131 Notification of reasons for refusal

Effective date: 20090915

Free format text: JAPANESE INTERMEDIATE CODE: A131

A521 Written amendment

Effective date: 20091006

Free format text: JAPANESE INTERMEDIATE CODE: A523

A131 Notification of reasons for refusal

Effective date: 20091117

Free format text: JAPANESE INTERMEDIATE CODE: A131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100309