JPH0553042A - Focusing device - Google Patents
Focusing deviceInfo
- Publication number
- JPH0553042A JPH0553042A JP3868191A JP3868191A JPH0553042A JP H0553042 A JPH0553042 A JP H0553042A JP 3868191 A JP3868191 A JP 3868191A JP 3868191 A JP3868191 A JP 3868191A JP H0553042 A JPH0553042 A JP H0553042A
- Authority
- JP
- Japan
- Prior art keywords
- peak
- mtf
- lens
- photographic lens
- focus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Lens Barrels (AREA)
- Automatic Focus Adjustment (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は画面の位置の領域に対す
る焦点検出が可能な装置において、収差(特に非点収
差)による焦点検出誤差の補正に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to correction of focus detection error due to aberration (particularly astigmatism) in an apparatus capable of detecting focus on a region of a screen position.
【0002】[0002]
【従来の技術】特開昭63−172209号公報及び特
開昭63−47711号公報に開示された合焦装置は、
撮影画面を複数の領域に分割してそれぞれの領域に配置
された複数個の自動焦点検出素子と、前記複数の焦点検
出素子の出力を所定のアルゴリズムにしたがって演算処
理して焦点検出信号を出力する演算手段と、交換可能な
撮影レンズに内蔵されている上記複数の領域に分割され
た撮影画面の各領域に対応した撮影レンズの収差に関す
る複数の補正データを出力する手段と、上記演算手段よ
り出力される焦点検出信号を上記収差に関する補正デー
タにより補正する補正演算手段とを具備し、外部より入
力される所定の情報に応じて前記焦点信号を補正すると
きの補正データの重みづけを可変とするものである。2. Description of the Related Art Focusing devices disclosed in JP-A-63-172209 and JP-A-63-47711 include:
The shooting screen is divided into a plurality of areas and a plurality of automatic focus detection elements arranged in the respective areas, and outputs of the plurality of focus detection elements are arithmetically processed according to a predetermined algorithm to output a focus detection signal. A calculating means, a means for outputting a plurality of correction data relating to the aberration of the photographing lens corresponding to each area of the photographing screen divided into the plurality of areas built in the interchangeable photographing lens, and output from the calculating means Correction calculation means for correcting the focus detection signal by the correction data relating to the aberration, and variable the weighting of the correction data when correcting the focus signal according to predetermined information input from the outside. It is a thing.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、従来の
合焦装置は以下の欠点を有する。However, the conventional focusing device has the following drawbacks.
【0004】(1) 画面の複数領域に応じて収差の補正係
数を記憶する必要があるので、領域の数、レンズの種類
が多くなると補正係数が膨大になり係数を決めるための
工数がたいへんなこととROM容量が大変大きくなる。 (2) 画面の所定領域の一方向の画像信号を抽出して焦点
検出を行うので、被写体によっては焦点検出精度が悪く
なる。(1) Since it is necessary to store the correction coefficient of the aberration in accordance with a plurality of areas of the screen, the correction coefficient becomes huge when the number of areas and the number of lens types increase, and the man-hour for determining the coefficient is very large. In addition, the ROM capacity becomes very large. (2) Since focus detection is performed by extracting an image signal in one direction of a predetermined area of the screen, focus detection accuracy is degraded depending on the subject.
【0005】本発明の合焦装置は、このような課題に着
目してなされたもので、その目的とするところは、複雑
で膨大な補正データをもつことなく、画面の任意の領域
の最良ピント位置を、簡単な構成で高精度に求めること
を目的とする。The focusing device of the present invention has been made in view of such a problem, and its purpose is to obtain the best focus of an arbitrary area of the screen without complicated and enormous correction data. The purpose is to obtain the position with high accuracy with a simple configuration.
【0006】[0006]
【課題を解決するための手段】上記の課題を解決するた
めに、本発明の合焦装置は、撮影レンズを通過した被写
体光束を受光し、2方向に直交するセンサ手段と、この
センサ手段の2種類の出力を基にMTF値のピ−クを求
める演算手段と、上記MTF値のピ−クを基に上記撮影
レンズの駆動制御を行う駆動制御手段とを具備する。In order to solve the above-mentioned problems, a focusing device of the present invention receives a light flux of a subject which has passed through a photographing lens, and sensor means which are orthogonal to each other in two directions. It comprises an arithmetic means for obtaining a peak of the MTF value based on the two kinds of outputs, and a drive control means for controlling the drive of the photographing lens based on the peak of the MTF value.
【0007】[0007]
【作用】本発明によれば、画面の所定領域の直交する2
方向のMTF値を所定のデフォーカス間隔ごとに演算す
るとともに、画面の2方向のMTFのピーク位置を検出
して、上記2つのピーク位置から最良ピント位置を求め
るものである。According to the present invention, the two predetermined areas of the screen are orthogonal to each other.
The MTF value in the direction is calculated for each predetermined defocus interval, the peak positions of the MTF in the two directions of the screen are detected, and the best focus position is obtained from the two peak positions.
【0008】[0008]
【実施例】まず、本発明に係る合焦装置の基本的概念を
説明する。本発明は、図1に示すように、2方向に直交
する直交センサ3によって、撮影レンズ2を通過した被
写体光束を受光し、このセンサ3の2種類の出力を基に
MTF(Modulation Transfer Function) 値のピ−クを
求める演算部17と、上記MTF値のピ−クを基に上記
撮影レンズの駆動制御を行う駆動制御部14とを具備す
るものである。ここで、直交センサ3は後述する撮像素
子としてのCCDに相当し、演算部17は後述するCP
U15とデジタルフィルタ8を含み、駆動制御部14は
後述するモ−タ駆動回路に相当する。以下、図2乃至図
13を参照して本発明の実施例を説明する。First, the basic concept of the focusing device according to the present invention will be described. As shown in FIG. 1, the present invention receives an object light flux that has passed through a photographing lens 2 by an orthogonal sensor 3 which is orthogonal to two directions, and based on two kinds of outputs of this sensor 3, an MTF (Modulation Transfer Function). A calculation unit 17 for obtaining a peak of a value and a drive control unit 14 for controlling the driving of the photographing lens based on the peak of the MTF value are provided. Here, the orthogonal sensor 3 corresponds to a CCD as an image pickup device described later, and the calculation unit 17 is a CP described later.
The U15 and the digital filter 8 are included, and the drive control unit 14 corresponds to a motor drive circuit described later. Embodiments of the present invention will be described below with reference to FIGS.
【0009】図2は、本発明の一実施例を示す合焦装置
の電子回路のブロック構成図である。図において、絞り
1と、モータ駆動回路14によってその合焦位置に移動
せしめられる撮影レンズ2とを通過した被写体光は、C
CD駆動回路15によって駆動される撮像素子としての
CCD3上に結像する。そして、該CCD3で光電変換
された撮像信号はAGC回路4でレベルの安定化処理が
行なわれる。更に、映像信号処理回路5で色分離、ホワ
イトバランス、γ補正等の処理が施され、映像信号記録
回路6、および電子ビューファインダ(EVFと称す)
7に送られる。なお、本実施例は電子的撮像カメラに適
用した場合であるが、従来の銀塩カメラに適用する場合
には上記映像信号記録回路6は不要である。FIG. 2 is a block diagram of an electronic circuit of a focusing device showing an embodiment of the present invention. In the figure, the subject light that has passed through the diaphragm 1 and the taking lens 2 that is moved to the in-focus position by the motor drive circuit 14 is C
An image is formed on the CCD 3 as an image pickup element driven by the CD drive circuit 15. Then, the image pickup signal photoelectrically converted by the CCD 3 is subjected to level stabilization processing by the AGC circuit 4. Further, the video signal processing circuit 5 performs processes such as color separation, white balance, and γ correction, and the video signal recording circuit 6 and an electronic viewfinder (referred to as EVF).
Sent to 7. Although the present embodiment is applied to an electronic image pickup camera, the video signal recording circuit 6 is not necessary when applied to a conventional silver halide camera.
【0010】上記AGC回路4の映像信号は、A/D変
換回路9によりディジタル化されビデオRAM10のメ
モリにストアされる。フォーカスフレーム選択回路11
によって選択されたフォーカスフレーム、例えば図3の
フレーム(FR)に対応する映像信号がCPU15を介
してデジタルフィルタ8に送られる。デジタルフィルタ
8は映像信号から焦点検出に適した帯域周波数の信号を
分離するための回路である。デジタルフィルタ8により
フィルタリングされた映像信号は再びCPU15に入力
され、後述する焦点検出演算が行われる。本実施例にお
ける合焦検出方式は、公知のコントラスト方式の基本方
式である所謂、山登り方式を用いる。即ち、撮影レンズ
2を駆動しながら、デジタルフィルタを通過した映像信
号の積分値(以下これをMTF信号と称す)がピークに
なる位置を検出し、その位置で撮影レンズ2を停止させ
て合焦位置とする方式である。エンコーダ回路13はモ
ータ駆動回路14で駆動される撮影レンズ2の駆動量を
パルス数に変換する回路である。CPU15はエンコー
ダ回路から送られるパルス数を数えることにより現在の
レンズ位置を知ることができる。The video signal of the AGC circuit 4 is digitized by the A / D conversion circuit 9 and stored in the memory of the video RAM 10. Focus frame selection circuit 11
A video signal corresponding to the focus frame selected by, for example, the frame (FR) in FIG. 3 is sent to the digital filter 8 via the CPU 15. The digital filter 8 is a circuit for separating a signal having a band frequency suitable for focus detection from a video signal. The video signal filtered by the digital filter 8 is input to the CPU 15 again, and the focus detection calculation described later is performed. As the focus detection method in this embodiment, a so-called hill climbing method, which is a basic method of a known contrast method, is used. That is, while driving the taking lens 2, the position where the integrated value of the video signal that has passed through the digital filter (hereinafter referred to as the MTF signal) reaches a peak is detected, and the taking lens 2 is stopped at that position to focus. It is a position-based method. The encoder circuit 13 is a circuit that converts the drive amount of the taking lens 2 driven by the motor drive circuit 14 into a pulse number. The CPU 15 can know the current lens position by counting the number of pulses sent from the encoder circuit.
【0011】上記EVF7にはフォーカスフレーム選択
回路11によって選択されたフォーカスフレームがフォ
ーカスフレーム表示回路13によって指定され表示され
る。図4に非点収差図を示す。横軸は近軸焦点よりのズ
レ、縦軸は光軸をCCD3との交点0からの高さであ
る。図4に示すように、焦点位置はメリジオナル面
(M)とサジタル面(S)で異なるのでCCD3の画素
配列によってメリジオナル面にピントが合ったり、サジ
タル面にピントが合ったり、あるいはその中間位置にピ
ントが合ったりする。例えば、図4のS方向に配列され
たセンサー出力のMTFピーク位置にピントを合わせる
とM方向のピントが合わなくなることがある。またS方
向の像のコントラストが低いとS方向そのもののピント
精度も悪くなってしまう。この点に鑑み、本発明は画面
の所定領域内の直交する2方向のMTFピーク位置によ
り最良ピント位置を求めるものである。The focus frame selected by the focus frame selection circuit 11 is designated and displayed on the EVF 7 by the focus frame display circuit 13. FIG. 4 shows an astigmatism diagram. The horizontal axis is the deviation from the paraxial focus, and the vertical axis is the height from the intersection 0 of the optical axis with the CCD 3. As shown in FIG. 4, since the focus position is different between the meridional surface (M) and the sagittal surface (S), the meridional surface is in focus, the sagittal surface is in focus, or an intermediate position depending on the pixel arrangement of the CCD 3. It is in focus. For example, if the MTF peak position of the sensor output arranged in the S direction in FIG. 4 is focused, the M direction may be out of focus. Further, if the image contrast in the S direction is low, the focusing accuracy in the S direction itself will be poor. In view of this point, the present invention seeks the best focus position from the MTF peak positions in two orthogonal directions within a predetermined area of the screen.
【0012】図5は横軸をレンズ位置、縦軸をMTFと
したMTF曲線である。図5のうち実線1はメリジオナ
ル面のMTF、実線2はサジタル面のMTF、点線3は
X方向(図5参照)のMTF、点線4はY方向のMTF
を表わす。1の曲線と2の曲線のピーク位置に所定の係
数をかけ最良ピント位置(lo )を求める。しかしなが
ら、一般にセンサーの配列を図5のM方向、S方向に配
列するのは難しいので、実際は図5のX方向、Y方向の
直交する2方向のMTFピーク位置lx ,lyを求め、
これにより最良ピント位置(lo )を求めている。FIG. 5 is an MTF curve in which the horizontal axis is the lens position and the vertical axis is the MTF. In FIG. 5, solid line 1 is the MTF of the meridional surface, solid line 2 is the MTF of the sagittal surface, dotted line 3 is the MTF in the X direction (see FIG. 5), and dotted line 4 is the MTF in the Y direction.
Represents. The best focus position over a predetermined coefficient peak position of the first curve and second curve Request (l o). However, since it is generally difficult to arrange the sensors in the M direction and the S direction in FIG. 5, actually, the MTF peak positions l x and l y in two directions orthogonal to each other in the X direction and the Y direction in FIG.
In this way, the best focus position (l o ) is obtained.
【0013】図6はフォーカスフレーム選択回路によっ
て選択されたフォーカスフレームの位置を示す図であ
り、図7は図5に示すフォーカスフレーム内のX方向の
画素配列(x1 ,x2 …xn )とY方向の画素配列(y
1 ,y2 …yn )を示す。FIG. 6 is a diagram showing the position of the focus frame selected by the focus frame selection circuit, and FIG. 7 is a pixel array (x 1 , x 2 ... x n ) in the X direction in the focus frame shown in FIG. And the pixel array in the Y direction (y
1 , y 2 ... Y n ).
【0014】図7はセンサー出力の抽出方法を示す他の
実施例である。2次元の画素信号Sijをそれぞれn画素
分X方向Y方向に加算し、それぞれY方向,X方向の1
画素分の出力に対応させる。以下、図8〜図12のフロ
ーチャートを参照して焦点検出手順を詳細に説明する。FIG. 7 shows another embodiment showing a method for extracting a sensor output. The two-dimensional pixel signals S ij are added in the amount of n pixels in the X direction and the Y direction to obtain 1 in the Y direction and the X direction, respectively.
Corresponds to output for pixels. Hereinafter, the focus detection procedure will be described in detail with reference to the flowcharts of FIGS.
【0015】図8のステップS1において、自動復帰型
スイッチSW1をオンすると、焦点検出動作(以後AF
動作と称す)がスタートする。次にCPU15によりモ
ータ駆動回路14を起動することにより、撮影レンズ2
が駆動開始される(ステップS2)。次に、CPU15
によりフォーカスフレーム選択回路11により指定され
たフォーカスフレームの位置を読み取る(ステップS
3)。次に、ビデオRAM10の中からフォーカスフレ
ーム内のビデオ信号をCPUのRAMに順次読み取る
(ステップS4)。例えば、図7の抽出の仕方であれば
まずX方向のx1 ,x2 …xn を順次読み取る。次にC
PU15はこの信号をデジタルフィルタ8に送出し、フ
ィルタリングしたのち再びCPU15にフィルタ出力信
号x´1 ,x´2 …x´n を入力する(ステップS
5)。In step S1 of FIG. 8, when the automatic return type switch SW1 is turned on, focus detection operation (hereinafter referred to as AF
(Referred to as operation) starts. Next, the CPU 15 activates the motor drive circuit 14 so that the photographing lens 2
Is started (step S2). Next, the CPU 15
The position of the focus frame designated by the focus frame selection circuit 11 is read by (step S
3). Next, the video signals in the focus frame are sequentially read from the video RAM 10 into the RAM of the CPU (step S4). For example, in the case of the extraction method of FIG. 7, first , x 1 , x 2 ... X n in the X direction are sequentially read. Then C
The PU 15 sends this signal to the digital filter 8 and, after filtering, inputs the filter output signals x ′ 1 , x ′ 2 ... X ′ n to the CPU 15 again (step S
5).
【0016】次にCPU15では、x´1 ,x´2 …x
´n の加算出力、Xt =Σx´i を求める(ステップS
6)。これがX方向のMTF出力である。Y方向もデジ
タルフィルタリングして(ステップS7)、MTF出
力、Yt =Σy´i を求める(ステップS8)。[0016] Next, in CPU15, x'1, x'2 ... x
′ N addition output, X t = Σx ′ i is obtained (step S
6). This is the MTF output in the X direction. The Y direction is also digitally filtered (step S7), and the MTF output, Y t = Σy ′ i is obtained (step S8).
【0017】次にXt のピーク値Xptを検出する(ステ
ップ9)。もしXt のピーク値を検出していればXptが
得られたレンズ位置lx をCPU15内のRAMにメモ
リしておく(ステップS10)。もし、ステップS9
で、Xt のピーク値Xptが検出されなければ次にYt の
ピーク値Yptの検出を行ない(ステップS11)、ここ
でYt のピーク値を検出していればYp のレンズ位置l
y をCPU15内にメモリしておく(ステップS1
2)。もしステップS11でYt のピーク値が検出され
なければ、再びステップS4に戻る。一方、ステップS
13でYt のピークYptが検出済であれば、2方向のレ
ンズのピーク位置が検出されたので次にレンズ駆動を停
止する(ステップS15)。ステップS13で、Ytの
ピークYptのピーク位置がまだ検出されてなければステ
ップS11に進む。またステップS14でXt のピーク
Xptが検出済であれば同様に次にレンズ駆動を停止し、
ステップS14でXptが検出されていなければステップ
S4に戻る。[0017] Next, detecting a peak value X pt of X t (step 9). If the peak value of X t is detected, the lens position l x at which X pt is obtained is stored in the RAM in the CPU 15 (step S10). If step S9
In, X peak value X pt of t is subjected to detection of a peak value Ypt the next Y t is not detected (step S11), and wherein Y t lens position l of if Y p long by detecting the peak value of
y is stored in the CPU 15 (step S1)
2). If the Y t peak value is not detected in step S11, the process returns to step S4. On the other hand, step S
If the peak Y pt of Y t is already detected in 13, the lens peak positions in the two directions are detected, and the lens drive is stopped next (step S15). In step S13, if no peak position of the peak Y pt of Y t is still detected, the processing proceeds to step S11. If the peak X pt of X t has been detected in step S14, the lens driving is similarly stopped next,
If Xpt is not detected in step S14, the process returns to step S4.
【0018】いま、レンズ駆動が停止されたとすると、
図10のS16で(Xpt≦Co かつYpt≦Co )か否か
を判別する。もし(Xpt≦Co かつYpt≦Co)であれ
ば、コントラストがたいへん低く、焦点検出の信頼性が
低いとしてEVF7に合焦不能表示を行う(ステップS
17)。ここで、(Xpt≦Co かつYpt≦Co )でない
ときは、ステップS18で(Xpt≦Co かつYpt>
Co )かどうかを判断し、成立するときは、Y方向のM
TFのみが信頼できるとしてレンズをly の位置に駆動
する(ステップS19)。もし、ステップS18で(X
pt≦Co かつYpt>Co )でないときは、ステップS2
0で(Xpt>Co かつYpt≦Co )か否かを判別する。
(Xpt>Co かつYpt≦Co )のときは、レンズをlx
の位置に駆動する(ステップS21)。以上においてレ
ンズがlx又はly に駆動されたとき、レリーズスイッ
チSW2がオンされているか否かを判別し(ステップS
22)、レリーズされていれば以後露出制御の動作を行
う。なお、ビデオカメラにおいては、ステップS22以
後の露出制御の動作は不要である。Now, if the lens drive is stopped,
In S16 of FIG. 10, it is determined whether (X pt ≤C o and Y pt ≤C o ). If (X pt ≤C o and Y pt ≤C o ), the contrast is very low and the reliability of focus detection is low, and an unfocusable display is displayed on the EVF 7 (step S).
17). If (X pt ≤C o and Y pt ≤C o ), then (X pt ≤C o and Y pt > in step S18.
C o ), if yes, M in Y direction
TF only drives the lens as reliable location of l y (step S19). If in step S18 (X
If pt ≤C o and Y pt > C o ), step S2
It is determined whether 0 (X pt > C o and Y pt ≦ C o ).
When (X pt > C o and Y pt ≦ C o ), set the lens to l x
Is driven to the position (step S21). As described above, when the lens is driven to l x or l y , it is determined whether or not the release switch SW2 is turned on (step S
22) If it is released, the exposure control operation is performed thereafter. It should be noted that the video camera does not require the exposure control operation after step S22.
【0019】一方、ステップS20で(Xpt>Co かつ
Ypt≦Co )でないとき、すなわち、(Xpt>Co かつ
Yp +>Co )のときは、図11に示すように、レンズ
を、(lx +ly )/2の位置に駆動する(ステップS
25)。図12は図11の他の実施例で、重心位置(X
pt・ly +Ypt・lx )/(Xpt+Ypt)の位置にレン
ズを駆動する(ステップS26)。On the other hand, if it is not (X pt > C o and Y pt ≤C o ) in step S20, that is, (X pt > C o and Y p +> C o ), as shown in FIG. , The lens is driven to the position of (l x + l y ) / 2 (step S
25). FIG. 12 shows another embodiment of FIG. 11 in which the position of the center of gravity (X
pt · l y + Y pt · l x) / ( driving the X pt + Y pt) lens at the position of (step S26).
【0020】なお、図10のステップS22以後のフロ
ーで、ステップS23の露出制御終了後はフォーカスフ
レームの位置を画面中央付近に自動的に復帰させる(ス
テップS24)。図12は本発明の他の実施例である。
これは図5に示すX方向とY方向のMTF出力の加算値
のピーク位置にレンズを駆動する方法である。In the flow after step S22 in FIG. 10, the position of the focus frame is automatically returned to near the center of the screen after the exposure control in step S23 is completed (step S24). FIG. 12 shows another embodiment of the present invention.
This is a method of driving the lens to the peak position of the added value of the MTF outputs in the X and Y directions shown in FIG.
【0021】(SW1オン)から(フィルタ出力加算、
Yt =Σyi )までは図8と同じであるので説明を省略
する。図12のステップST9でXt +Yt のピーク値
を検出していなければ再びステップST4に戻る。い
ま、ステップST9でXt +Yy のピーク値を検出して
いれば、Xt +Yt がピークとなるレンズ位置lx ,y
をCPUのRAMに記憶し(ステップST10)、レン
ズ駆動を停止する(ステップST11)。次に、ステッ
プST12でXt +Yt ≦Co であるか否かを検出し、
もしXt +Yt ≦Co であれば合焦不能表示をEVFに
表示し(ステップST13)、フォーカスフレームの初
期化(フォーカスフレームを画面の中央付近に復帰させ
る)を行なう(ステップST14)。From (SW1 ON) to (filter output addition,
Up to Y t = Σy i ) is the same as in FIG. If not detecting a peak value of X t + Y t in step ST9 of FIG. 12 returns to step ST4. Now, if the detected peak value of X t + Y y in step ST9, X t + Y t is the peak lens position l x, y
Is stored in the RAM of the CPU (step ST10), and the lens driving is stopped (step ST11). Next, in step ST12, it is detected whether or not X t + Y t ≤C o ,
If X t + Y t ≤C o , the unfocusable display is displayed on the EVF (step ST13), and the focus frame is initialized (the focus frame is returned to the vicinity of the center of the screen) (step ST14).
【0022】ステップST12でXt +Yt ≦Co でな
ければ、次に、レンズをlx,y の位置に駆動する(ステ
ップST15)。つぎに、ステップST16において、
レリーズスイッチSW2がオンしていれば、露出制御を
行った後(ステップS17)、フォーカスフレームの初
期化を行ない終了する。図12の実施例においては図9
の実施例のようにX方向,Y方向のMTFピーク位置を
個別に検出する必要がなく、制御が行ない易くなる。If X t + Y t ≤C o is not satisfied in step ST12, then the lens is driven to the position of l x, y (step ST15). Next, in step ST16,
If the release switch SW2 is turned on, after exposure control is performed (step S17), the focus frame is initialized and the process ends. In the embodiment of FIG. 12, FIG.
It is not necessary to individually detect the MTF peak positions in the X direction and the Y direction as in the embodiment described above, which facilitates control.
【0023】なお、上記の実施例においては、焦点検出
方式としてコントラスト法を用いたが、公知の位相差方
式においても直交する2方向の2像の位相差より2方向
の最良ピント位置を求め、本発明の方法により最良ピン
ト位置を求めることができる。Although the contrast method is used as the focus detection method in the above embodiment, the best focus position in two directions is obtained from the phase difference between two images in two orthogonal directions even in the known phase difference method. The best focus position can be determined by the method of the present invention.
【0024】[0024]
【発明の効果】以上、詳述したように、本発明によれ
ば、複雑で膨大な補正データをもつ必要がなく、画面の
任意の領域の最良ピント位置を簡単な構成で高精度に求
めることが可能な合焦装置を提供することができる。As described above in detail, according to the present invention, it is not necessary to have complicated and enormous correction data, and the best focus position of an arbitrary area of the screen can be obtained with high accuracy by a simple structure. It is possible to provide a focusing device capable of performing the above.
【図1】本発明の基本的概念を示すブロック図。FIG. 1 is a block diagram showing the basic concept of the present invention.
【図2】本発明の一実施例にかかる合焦装置の電子回路
のブロック図。FIG. 2 is a block diagram of an electronic circuit of a focusing device according to an embodiment of the present invention.
【図3】選択されたフォ−カスフレ−ムの一例を示す
図。FIG. 3 is a diagram showing an example of a selected focus frame.
【図4】非点収差を示す図。FIG. 4 is a diagram showing astigmatism.
【図5】横軸をレンズ位置、縦軸をMTFとしたMTF
曲線を示す図。FIG. 5 is an MTF in which the horizontal axis is the lens position and the vertical axis is the MTF.
The figure which shows a curve.
【図6】フォ−カスフレ−ム選択回路によって選択され
たフォ−カスフレ−ムの位置を示す図。FIG. 6 is a diagram showing a position of a focus frame selected by a focus frame selection circuit.
【図7】図6に示すフォ−カスフレ−ム内のX方向の画
素配列とY方向の画素配列を示す図。7 is a diagram showing a pixel array in the X direction and a pixel array in the Y direction in the focus frame shown in FIG.
【図8】センサ出力の抽出方法の他の例を示す図。FIG. 8 is a diagram showing another example of a sensor output extraction method.
【図9】本発明による焦点検出手順を説明するためのフ
ロ−チャ−トの一部。FIG. 9 is a part of a flowchart for explaining a focus detection procedure according to the present invention.
【図10】本発明による焦点検出手順を説明するための
フロ−チャ−トの一部。FIG. 10 is a part of a flowchart for explaining a focus detection procedure according to the present invention.
【図11】図10のフロ−チャ−トの一部を変形した実
施例を示す図。FIG. 11 is a diagram showing an embodiment in which a part of the flowchart of FIG. 10 is modified.
【図12】図9のフロ−チャ−トの一部を変形した実施
例を示す図。FIG. 12 is a diagram showing an embodiment in which a part of the flowchart of FIG. 9 is modified.
【図13】本発明による焦点検出手順の他の実施例を説
明するためのフロ−チャ−ト。FIG. 13 is a flowchart for explaining another embodiment of the focus detection procedure according to the present invention.
1…絞り、2…撮影レンズ、3…直交センサ(CC
D)、4…AGC回路、5…映像信号処理回路、6…映
像信号記録回路、7…EVF、8…デジタルフィルタ、
9…A/D変換回路、10…ビデオRAM、11…フォ
−カスフレ−ム選択回路、12…フォ−カスフレ−ム表
示回路、13…エンコ−ダ回路、14…駆動制御部(モ
−タ駆動回路)、15…CPU、16…CCD駆動回
路、17…演算部。1 ... Aperture, 2 ... Shooting lens, 3 ... Quadrature sensor (CC
D), 4 ... AGC circuit, 5 ... video signal processing circuit, 6 ... video signal recording circuit, 7 ... EVF, 8 ... digital filter,
9 ... A / D conversion circuit, 10 ... Video RAM, 11 ... Focus frame selection circuit, 12 ... Focus frame display circuit, 13 ... Encoder circuit, 14 ... Drive control section (motor drive) Circuit), 15 ... CPU, 16 ... CCD drive circuit, 17 ... arithmetic unit.
Claims (1)
し、2方向に直交するセンサ手段と、 このセンサ手段の2種類の出力を基にMTF値のピ−ク
を求める演算手段と、 上記MTF値のピ−クを基に上記撮影レンズの駆動制御
を行う駆動制御手段とを具備したことを特徴とする合焦
装置。1. A sensor means for receiving a light flux of a subject which has passed through a taking lens, orthogonal to two directions, an arithmetic means for obtaining a peak of an MTF value based on two kinds of outputs of the sensor means, and the MTF. A focusing device comprising: a drive control means for controlling the drive of the taking lens based on a value peak.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3868191A JPH0553042A (en) | 1991-03-05 | 1991-03-05 | Focusing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3868191A JPH0553042A (en) | 1991-03-05 | 1991-03-05 | Focusing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0553042A true JPH0553042A (en) | 1993-03-05 |
Family
ID=12532029
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3868191A Withdrawn JPH0553042A (en) | 1991-03-05 | 1991-03-05 | Focusing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0553042A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6305970B1 (en) | 1999-11-29 | 2001-10-23 | Yazaki Corporation | Terminal end structure of flat circuitry and branch connection structure constituted by the same |
JP2006189580A (en) * | 2005-01-05 | 2006-07-20 | Pentax Corp | Focusing controller for camera |
US20110261252A1 (en) * | 2010-04-21 | 2011-10-27 | Hon Hai Precision Industry Co., Ltd. | Imaging system and method of operating the same |
-
1991
- 1991-03-05 JP JP3868191A patent/JPH0553042A/en not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6305970B1 (en) | 1999-11-29 | 2001-10-23 | Yazaki Corporation | Terminal end structure of flat circuitry and branch connection structure constituted by the same |
JP2006189580A (en) * | 2005-01-05 | 2006-07-20 | Pentax Corp | Focusing controller for camera |
US20110261252A1 (en) * | 2010-04-21 | 2011-10-27 | Hon Hai Precision Industry Co., Ltd. | Imaging system and method of operating the same |
US8325265B2 (en) * | 2010-04-21 | 2012-12-04 | Hon Hai Precision Industry Co., Ltd. | Camera module having extended depth of focus mode and autofocus mode and method of operating the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1684503B1 (en) | Camera and autofocus control method therefor | |
EP2168005B1 (en) | Focus control apparatus, image sensing apparatus, and control method therefor | |
JP6062656B2 (en) | Imaging apparatus, control method, and program | |
US9906708B2 (en) | Imaging apparatus, imaging method, and non-transitory storage medium storing imaging program for controlling an auto-focus scan drive | |
CN108712601B (en) | Image blur correction apparatus, control method, image pickup apparatus, and lens apparatus | |
JP4543602B2 (en) | camera | |
JPH05257062A (en) | Automatic focusing device | |
JP5115302B2 (en) | Focus detection apparatus and focus detection method | |
JP6932531B2 (en) | Image blur correction device, image pickup device, control method of image pickup device | |
JP4819318B2 (en) | Method and apparatus for automatic focusing of camera | |
JP2000155257A (en) | Method and device for autofocusing | |
US11092774B2 (en) | Lens apparatus, image capturing apparatus, control method of lens apparatus, and control method of image capturing apparatus | |
JP2001119623A (en) | Focusing device | |
JP3564050B2 (en) | Camera, focus adjustment device, focus adjustment method, medium for providing focus adjustment program | |
JPH0553042A (en) | Focusing device | |
JP2003075716A (en) | Imaging device | |
JP5070856B2 (en) | Imaging device | |
JPH089242A (en) | Exposure controller for still video camera | |
JP3356229B2 (en) | Optical detection device and focus control device | |
JP4967826B2 (en) | Focus detection apparatus and imaging apparatus | |
JP2003241066A (en) | Camera | |
JP5415208B2 (en) | Imaging device | |
JP2006243609A (en) | Autofocus device | |
JP2006330160A (en) | Autofocus camera | |
JP7551315B2 (en) | Image capture device, image capture device control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 19980514 |