JPH0320709A - Camera system - Google Patents

Camera system

Info

Publication number
JPH0320709A
JPH0320709A JP2002200A JP220090A JPH0320709A JP H0320709 A JPH0320709 A JP H0320709A JP 2002200 A JP2002200 A JP 2002200A JP 220090 A JP220090 A JP 220090A JP H0320709 A JPH0320709 A JP H0320709A
Authority
JP
Japan
Prior art keywords
signal
image
circuit
lens
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002200A
Other languages
Japanese (ja)
Inventor
Shinichi Kodama
児玉 晋一
Takeshi Yamichi
剛 八道
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP2002200A priority Critical patent/JPH0320709A/en
Publication of JPH0320709A publication Critical patent/JPH0320709A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To eliminate an unpleasant feeling given to a photographer at the time of detecting a focal point and to detect a focal point highly speedily and accurately by processing an image signal formed by means of a photoelectric conversion means, detecting the focal point, and monitoring a video. CONSTITUTION:The image of a photographic zoom lens 101 is converted into an electric signal, and it is supplied to a signal processing circuit 103 and an A/D converting circuit 104. The circuit 103 inputs a focal point detecting signal, which is divided into spatial frequencies, to a main CPU 107 which sends a lens driving signal to a circuit 109 based on the focal point detecting signal, an image analysis signal from a CPU 105 dedicated to signal processing, and a lens information signal from the lens control circuit 109. At the same time, an image signal which is transmitted to a video signal output circuit 110, is sent out to the CPU 105. The circuit 109 monitors the information on the lens 101, and also varies a lens position, diaphragm, and zoom value. Thus, the focal point can be highly speedily and accurately detected without giving the photographer an unpleasant feeling at the time of focusing.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明はカメラシステム、詳しくはイメージセンサ等の
光電変換手段上に結像された被写体像からの映像信号を
演算処理することにより合焦検出を行うと共に、上記映
像信号をモニタ可能としたカメラシステムに関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a camera system, specifically, a focus detection method by calculating a video signal from a subject image formed on a photoelectric conversion means such as an image sensor. The present invention relates to a camera system capable of monitoring the video signal.

[従来の技術] 周知のように、イメージセンサ等の光電変換手段上に結
像された被写体像から得られる映像信号を演算処理して
合焦検出をするカメラ等の合焦点検出方式には、大きく
分けて、被写体の輝度分布情報に基づいて合焦検出をす
るパッシブ方式と、被写体に対し赤外光や超音波等のビ
ームを投射し、その反射信号に基づいて合焦検出するア
クティブ方式とがある。上記パッシブ方式に属するもの
としては、例えば複数の光路のデータからデフォーカス
方向と大体のデフォーカス量を検出する位相差検出方式
と、合焦の度合を示す値が大きくなる方向に撮影レンズ
を移動させ、ピーク位置を検出したら、そこで停止する
ように構成されたコントラスト検出方式等が知られてい
る。
[Prior Art] As is well known, in-focus point detection methods for cameras, etc., which perform focus detection by processing a video signal obtained from a subject image formed on a photoelectric conversion means, such as an image sensor, include: Broadly speaking, there are passive methods that detect focus based on brightness distribution information of the subject, and active methods that project a beam of infrared light or ultrasonic waves onto the subject and detect focus based on the reflected signal. There is. Examples of methods that belong to the above passive method include a phase difference detection method that detects the defocus direction and approximate amount of defocus from data on multiple optical paths, and a method that moves the photographing lens in the direction that increases the value indicating the degree of focus. There is a known contrast detection method that is configured to detect a peak position and then stop there.

このコントラスト検出方式は、画像の周波数成分に着目
した方式で、撮像光学系の一部、またはセンサ系を動か
して合焦点を検出する等に分類され、NHK技報第17
巻第1号に石田氏他により発表された“山登りサーボ方
式によるテレビカメラの自動焦点調整”や、1986年
テレビジョン学会全国大会資料P85−864−7に豊
田氏他により発表された“テレビカメラ用オートフォー
カスシステム”等が提供されている。
This contrast detection method is a method that focuses on the frequency components of an image, and is classified as detecting a focused point by moving a part of the imaging optical system or a sensor system.
"Automatic focus adjustment of television cameras using mountain-climbing servo system" published by Mr. Ishida et al. in Vol. "Autofocus system" etc. are provided.

上記NHK技報に発表された“山登りサーボ方式による
テレビカメラの自動焦点調整”は、映像信号中の高域威
分によって画面の精細度を検出し、精細度が最大になる
ように山登り制御を行って、自動的にテレビカメラの光
学焦点調整を行う装置の原理と回路設計条件を述べたも
のである。そして、二次元面被写体に対する実験回路の
応答測定およびアナログ計算機によるシミュレーション
実験によって山登りサーボ方式による焦点合わせの精度
を左右するのは、レンズ絞りや焦点距離によって変化す
る山登り曲線の形であり、制御系の利得を大にし、峙間
遅れ要素の時定数を小とすることによって精度が上がり
、制御系の検波およびホールド回路の時定数をそれぞれ
0.[)1秒に選べば、山登り曲線の高さと勾配の各々
の4倍の変化に対して、焦点合わせの精度5%を得るこ
とができることが開示されている。更に山登り曲線の形
を検出して制御系の利得を制御する適応制御とすれば、
制御範囲の拡大と精度の向上を図ることが可能であるこ
とも開示されている。
The "automatic focus adjustment of TV cameras using a mountain-climbing servo system" announced in the above NHK technical report detects the definition of the screen based on the high frequency content of the video signal, and performs hill-climbing control to maximize the definition. This paper describes the principles and circuit design conditions of a device that automatically adjusts the optical focus of a television camera. Based on measurements of the response of an experimental circuit to a two-dimensional object and simulation experiments using an analog computer, we found that the shape of the hill-climbing curve, which changes depending on the lens aperture and focal length, determines the accuracy of focusing using the hill-climbing servo system. Accuracy is improved by increasing the gain of the control system and decreasing the time constant of the delay element, and the time constants of the detection and hold circuits in the control system are set to 0. It is disclosed that if one second is selected, a focusing accuracy of 5% can be obtained for a fourfold change in each of the height and slope of the hill-climbing curve. Furthermore, if we use adaptive control to detect the shape of the hill-climbing curve and control the gain of the control system,
It is also disclosed that it is possible to expand the control range and improve accuracy.

また、上記テレビジョン学会で発表された″テレビカメ
ラ用オートフォーカスシステム”では、センサ側を機械
的に微変動させることにより焦点外れ量を常に一定周期
で変え、これに応答して映像信号の高周波数成分は振幅
変調を受けるが、この振輻変調成分は焦点外れの方向が
前ビン側か後ビン側かによって位相が180度変わり、
合焦しているときは振幅が零になる。従って、この振幅
変調成分を用いて、レンズの焦点位置を制御することに
よって、合焦精度を高めるようにしている。
In addition, in the ``autofocus system for television cameras'' announced at the above-mentioned Television Society, the amount of out-of-focus is constantly changed at a constant cycle by mechanically making small fluctuations on the sensor side, and in response, the video signal increases. The frequency component undergoes amplitude modulation, but the phase of this vibration modulation component changes by 180 degrees depending on whether the direction of defocus is toward the front bin or the rear bin.
When in focus, the amplitude is zero. Therefore, focusing accuracy is improved by controlling the focal position of the lens using this amplitude modulation component.

位相差検出方式は、フォーカスエリア内の出力が最適化
されるように、モニタ機能を設けて積分制御を行ってい
る。
The phase difference detection method provides a monitor function and performs integral control so that the output within the focus area is optimized.

[発明が解決しようとする課題] ところで、このコントラスト検出方式で合焦点を検出す
る場合は、最初撮影レンズを駆動する方向が不明なため
、最初に一度撮像光学系の一部、特に撮影レンズを動か
して周波数のパワー変化を検出し、これによって合焦方
向の検出を行っている。しかしながら、撮影レンズを合
焦点と逆方向に初期動作させてしまった場合には、AF
カメラのファインダを覗き込んでいる撮影者にとっては
、本来、ファインダ視野枠内の被写体像は、そのピント
が合う方向に移動すべきであるにも拘わらず、一度被写
体像のピントがずれる方向に移動した後、合焦動作に移
るので、撮影者に対して不快感を与えることになってし
まう。
[Problems to be Solved by the Invention] By the way, when detecting a focused point using this contrast detection method, since the direction in which the photographic lens is to be driven is unknown at first, it is necessary to first move a part of the imaging optical system, especially the photographic lens. By moving the lens, changes in frequency power are detected, and the focusing direction is detected based on this. However, if the photographic lens is initially operated in the direction opposite to the in-focus point, the AF
For the photographer looking through the camera's viewfinder, the subject image within the viewfinder field of view should originally move in the direction that it is in focus, but once it moves in the direction that the subject image is out of focus. After that, the camera moves on to the focusing operation, which causes discomfort to the photographer.

そこで、上記豊田氏他の提案による“テレビカメラ用オ
ートフォーカスシステム”では、撮像素子を機械的に微
振動させて合焦方向の検出を行うようにしている。即ち
、コントラスト検出方式における焦点整合位置に対する
高城周波数成分の特性を示す第11図において、撮像素
子を例えばモ一夕等によってa1あるいはa2のように
正弦波状に微変動させる。微変動a1は撮影レンズが合
焦位置d より近距離側の位置d2にある場合のl 撮像素子の微変動で、このときの高城周波数成分は、上
記微変動a1によるフォーカス変化によりb1に示すよ
うな振輻変調を受ける。また、撮影レンズが合焦位置d
 より遠距離側の位置d3にl あると、微変動a2によるフォーカス変化のためb2に
示すように振幅変調される。
Therefore, in the above-mentioned "autofocus system for television cameras" proposed by Mr. Toyoda et al., the focusing direction is detected by mechanically vibrating the image sensor. That is, in FIG. 11, which shows the characteristics of the Takagi frequency component with respect to the focus matching position in the contrast detection method, the image pickup element is slightly varied in a sinusoidal manner as a1 or a2 by, for example, a motor. The fine fluctuation a1 is the fine fluctuation of the image sensor when the photographing lens is at a position d2 which is closer than the focus position d, and the Takagi frequency component at this time is as shown in b1 due to the focus change due to the fine fluctuation a1. undergoes vibrational modulation. Also, the photographing lens is at the focus position d.
If l is located at a position d3 on the far side, the amplitude is modulated as shown in b2 due to the focus change due to the slight fluctuation a2.

b t = b 2の振幅変調は、図から明らかなよう
に合焦位置d1より近距離側にあるか遠距離側にあるか
によって、その位相が反転する。従って、b1に示す振
幅変調された信号を基準周波数信号で同期検波し、この
同期検波した信号でモータが矢印C1の方向に、またb
2で矢印c2の方向に、それぞれ駆動するようにすれば
、合焦方向の検出が可能となり、これによって高城周波
数成分が最大になる点、つまり合焦点で安定することに
なる。
As is clear from the figure, the phase of the amplitude modulation b t = b 2 is reversed depending on whether the focus position d1 is near or far from the focus position d1. Therefore, the amplitude modulated signal shown at b1 is synchronously detected with the reference frequency signal, and this synchronously detected signal moves the motor in the direction of arrow C1, and b
2 in the direction of the arrow c2, it becomes possible to detect the focusing direction, thereby stabilizing the point where the Takagi frequency component is maximum, that is, the focused point.

しかしながら、被写体輝度が低コントラストの場合、第
11図に示す微変動ai,a2を撮像素子に与えても高
城周波数成分の振輻変調された信号bt,b2が非常に
微弱なので、これら信号b1,b2を基準周波数信号で
同明検波しても撮影レンズの駆動方向つまり合焦方向を
確定できない。従って、AFカメラのファインダ視野枠
を覗き込んでいるカメラの撮影者に対しては、やはり不
快感を与えることになってしまう。
However, when the subject brightness is low contrast, even if the slight fluctuations ai and a2 shown in FIG. Even if b2 is detected using the reference frequency signal, the driving direction of the photographing lens, that is, the focusing direction cannot be determined. Therefore, the camera photographer who is looking into the viewfinder field frame of the AF camera will feel uncomfortable.

また、エリアセンサを用いた位相差検出方式においても
、エリアセンサ内のフォーカスエリアでフォーカスエリ
ア内のデータを最適化する必要があり、フォーカスエリ
ア内が全画面に対して明るさが大きく異なるときには、
フォーカスエリアの積分時間が最適になるように制御す
るため、フォーカスエリア以外の画面は画質がつぶれる
等の不快感を与えることになる。
In addition, even in the phase difference detection method using an area sensor, it is necessary to optimize the data within the focus area in the focus area of the area sensor, and when the brightness within the focus area differs greatly from the entire screen,
Since the integration time of the focus area is controlled to be optimal, the image quality of the screen outside the focus area may be degraded, giving an unpleasant feeling.

そこで、本発明の目的は、上述の問題点を解消し、電子
ビューファインダのようなモニタ手段を有し、合焦点を
検出するカメラにおける合焦点検出時の不快な表示をカ
メラの撮影者に見せないようにしたカメラシステムを提
供するにある。
SUMMARY OF THE INVENTION Therefore, an object of the present invention is to solve the above-mentioned problems and to provide a camera that has a monitor means such as an electronic viewfinder so as to show the camera operator an unpleasant display when detecting a focus point in a camera that detects the focus point. There is no need to provide a camera system.

[課題を解決するための手段および作用コ本発明のカメ
ラシステムは、撮像光学系により導かれた被写体光を電
気信号に変換する撮像素子を有し、上記撮像素子の電気
信号から、上記撮像光学系の合焦方向および合焦点を検
出する焦点検出手段を具備するカメラシステムであって
、該カメラシステムは、上記焦点検出動作の開始に先だ
って、上記電気信号を蓄積する信号蓄積手段と、上記撮
像素子からの電気信号と上記信号蓄積手段に蓄積された
電気信号のどちらか一方を選択する電気信号選択手段と
、上記選択された電気信号を映像化するモニタ手段と、
上記焦点検出期間には、上記電気信号選択手段に対して
上記蓄積された電気信号を選択するよう制御する制御手
段と、を具備することを特徴とするものである。
[Means and Effects for Solving the Problems] The camera system of the present invention includes an image sensor that converts subject light guided by an imaging optical system into an electrical signal, and converts the electrical signal of the imaging device into an electric signal. A camera system comprising a focus detection means for detecting a focus direction and a focus point of the system, the camera system comprising: a signal accumulation means for accumulating the electric signal; and a signal accumulation means for accumulating the electric signal; an electric signal selection means for selecting either the electric signal from the element or the electric signal accumulated in the signal accumulation means; and a monitor means for visualizing the selected electric signal;
The present invention is characterized in that it includes a control means for controlling the electric signal selection means to select the accumulated electric signal during the focus detection period.

[実 施 例] 以下、図面を参照して本発明を具体的に説明する。[Example] Hereinafter, the present invention will be specifically described with reference to the drawings.

第1図は、本発明のカメラシステムを機能面から捉えた
概念的ブロック系統図である。図において、撮像光学系
11の信号を撮像素子12で電気信号に変換し、この電
気信号を順次信号蓄積素子14に取り込む。上記撮像素
子12で光電変換された電気信号は、信号処理系16に
も供給され、同処理系16で信号処理されて周波数に対
応したパワーが検出される。と同時に、駆動制御系13
を駆動しながらパワーの変化量を検出することにより、
合焦方向を検出するようになっている。この合焦方向を
検出している期間中は、駆動制御系13を駆動する直前
の信号蓄積素子14の出力のみを読み出し系15で読み
出し、この読み出した信号をモニタ手段17へ出力する
。これによって、カメラの撮影者に駆動制御系13の駆
動中の像の変動を見せないようにすることができるので
、撮影者に不快感を与えることなしに合焦方向の検出が
可能となる。
FIG. 1 is a conceptual block diagram showing the camera system of the present invention from a functional perspective. In the figure, a signal from an imaging optical system 11 is converted into an electrical signal by an imaging element 12, and this electrical signal is sequentially taken into a signal storage element 14. The electrical signal photoelectrically converted by the image sensor 12 is also supplied to a signal processing system 16, where the signal is processed and the power corresponding to the frequency is detected. At the same time, the drive control system 13
By detecting the amount of change in power while driving the
The focus direction is detected. During the period in which the focusing direction is being detected, only the output of the signal storage element 14 immediately before driving the drive control system 13 is read out by the readout system 15, and this read signal is output to the monitor means 17. As a result, it is possible to prevent the photographer of the camera from seeing fluctuations in the image while the drive control system 13 is being driven, so that it is possible to detect the focusing direction without causing discomfort to the photographer.

第2図は、本発明の一実施例を示すカメラシステムの具
体的なブロック系統図である。この第2図における信号
処理回路103の更に詳細な構成を示すブロック系統図
を第3図(A)に、この第3図(A)におけるバンドバ
スフィルタで決定される特定周波数におけるレンズ位置
に対ずるバワーをプロットした線図を第4図(A) .
 (B)に、上記第2図におけるDCPU105と画像
メモリ106との詳細な構成を第5図にそれぞれ示す。
FIG. 2 is a concrete block system diagram of a camera system showing one embodiment of the present invention. A block system diagram showing a more detailed configuration of the signal processing circuit 103 in FIG. 2 is shown in FIG. 3(A). A diagram plotting the shear power is shown in Figure 4 (A).
In (B), the detailed configurations of the DCPU 105 and the image memory 106 in FIG. 2 are shown in FIG. 5, respectively.

これらの第2〜5図によって本実施例の構或を以下に説
明する。
The structure of this embodiment will be explained below with reference to FIGS. 2 to 5.

第2図において、撮影ズームレンズ101を通過した被
写体像は、撮像回路102で電気信号に変換されて信号
処理回路103とA/D変換回路104に供給される。
In FIG. 2, a subject image that has passed through a photographing zoom lens 101 is converted into an electrical signal by an imaging circuit 102 and supplied to a signal processing circuit 103 and an A/D conversion circuit 104.

上記信号処理回路103では、各空間周波数に分割した
焦点検出用信号をメインCPU (以後、MCPUと略
記する)107に供給する。上記A/D変換回路104
では、アナログ信号をディジタル信号に変換し、信号処
理専用CPU (以後、DCPtJと略記する)105
に供給する。
The signal processing circuit 103 supplies the focus detection signal divided into each spatial frequency to the main CPU (hereinafter abbreviated as MCPU) 107 . The above A/D conversion circuit 104
Then, the analog signal is converted to a digital signal, and a dedicated signal processing CPU (hereinafter abbreviated as DCPtJ) 105
supply to.

このDCPU105は、画像メモリ106に対する画像
信号の双方向転送の管理,画像解析,MCPU107と
の双方向通信,映像信号出力回路110への画像信号の
転送等を司るようになっている。また、MCPU107
は、信号処理回路103からの焦点検出用信号,DCP
U105からの画像解析信号.レンズ制御回路109か
らのレンズ位置信号,レンズ絞り信号,ズーム値信号等
に基づいてレンズ駆動信号をレンズ制御回路109に送
出する。これと同時に、MCPUl07は、DCPU1
05に対し映像信号出力回路110に転送する画像デー
タの内容を決める信号を送出する。
The DCPU 105 manages bidirectional transfer of image signals to the image memory 106, image analysis, bidirectional communication with the MCPU 107, transfer of image signals to the video signal output circuit 110, and the like. Also, MCPU107
is the focus detection signal from the signal processing circuit 103, DCP
Image analysis signal from U105. A lens drive signal is sent to the lens control circuit 109 based on the lens position signal, lens aperture signal, zoom value signal, etc. from the lens control circuit 109. At the same time, MCPU107
05, a signal determining the content of image data to be transferred to the video signal output circuit 110 is sent.

レンズ制御回路109は、撮影ズームレンズ101のレ
ンズ位置.絞り位置,ズーム値をモニタする機能を有す
ると共に、MCPU107から供給されるレンズ駆動信
号によりモータ108を駆動する。このモータ108は
、撮影ズームレンズ101のレンズ位置,絞り値,ズー
ム値を変えることができる。
The lens control circuit 109 controls the lens position of the photographing zoom lens 101. It has a function of monitoring the aperture position and zoom value, and drives the motor 108 using a lens drive signal supplied from the MCPU 107. This motor 108 can change the lens position, aperture value, and zoom value of the photographing zoom lens 101.

第3図(A)は、第2図に示す信号処理回路103の詳
細な構成を示すブロック系統図で、この第3図(A)に
示す回路が空間周波数の帯域別に複数個組合わされて第
2図に示す信号処理回路]03が構成されるようになっ
ている。この第3図(A)において、ゲート回路121
と同期分離回路126に、第2図に示す撮像回路102
で光電変換された電気信号が供給されると、同期分離回
路126とゲート制御回路127では、アナログ画像信
号に対してゲートをかける位置信号をゲート回路121
に出力する。このアナログ画像信号にゲートをかける位
置は任意に選択できるが、第3図(B)に示すように、
アナログ画像128に対しその中央に位置する複数個の
画素からなる領域129を指定して位置信号を形成する
のが一般的である。上記ゲート制御回路127の信号に
よりゲート回路121でゲートされたアナログ画像信号
は、バンドバスフィルタ(以下、B−P−Fと略記する
)122で特定の周波数成分だけが抜き出されて検波回
路123で検波され、積分回路124で積分された後、
A/D変換回路125でA/D変換されてディジタル値
となり第2図に示すMCPU107へ出力されるように
なっている。
FIG. 3(A) is a block system diagram showing the detailed configuration of the signal processing circuit 103 shown in FIG. 2. A plurality of circuits shown in FIG. 3(A) are combined for each spatial frequency band. The signal processing circuit] 03 shown in FIG. 2 is configured. In this FIG. 3(A), the gate circuit 121
and the synchronous separation circuit 126, the imaging circuit 102 shown in FIG.
When the electrical signal photoelectrically converted is supplied, the synchronization separation circuit 126 and the gate control circuit 127 transmit a position signal for applying a gate to the analog image signal to the gate circuit 121.
Output to. The position where the gate is applied to this analog image signal can be selected arbitrarily, but as shown in Fig. 3 (B),
Generally, a position signal is generated by specifying a region 129 consisting of a plurality of pixels located at the center of the analog image 128. The analog image signal gated by the gate circuit 121 based on the signal from the gate control circuit 127 is filtered by a bandpass filter (hereinafter abbreviated as B-P-F) 122 to extract only a specific frequency component, and then sent to the detection circuit 122. After being detected by and integrated by the integrating circuit 124,
The A/D conversion circuit 125 performs A/D conversion to obtain a digital value, which is output to the MCPU 107 shown in FIG.

第4図(A) . (B)は、低周波領域に通常帯域を
有するB−P−Fと高周波領域に通常帯域を有するB−
P−Fのそれぞれについて、そのレンズ位置とパワーの
関係を示した線図である。図から明らかなように、低周
波成分をバンドバスするBPFを使用した場合は、第4
図(A)に示すように、レンズ位置の変化に対するパワ
ー変化がブロードなのに対し、高周波成分をバンドバス
するB−P・Fを使用した場合は、第4図(B)に示す
ようにレンズ位置の変化に対するパワー変化がシャープ
になることが解る。このような低周波成分および高周波
成分をバンドパスするB−P◆F122(第3図参照)
を通過した信号は、検波,積分された後A/D変換回路
125でA/D変換されて、第2図に示すMCPU10
7に供給されるようになっている。
Figure 4 (A). (B) is B-P-F, which has a normal band in the low frequency region, and B-P-F, which has a normal band in the high frequency region.
FIG. 3 is a diagram showing the relationship between lens position and power for each of P-F. As is clear from the figure, when using a BPF that bandpasses low frequency components, the fourth
As shown in Figure 4 (A), the power changes with respect to changes in the lens position are broad, whereas when using B-P/F, which bandpasses high frequency components, the lens position changes as shown in Figure 4 (B). It can be seen that the power change with respect to the change in becomes sharp. B-P◆F122, which band-passes such low frequency components and high frequency components (see Figure 3)
The signal that has passed through is detected and integrated, and then A/D converted by the A/D conversion circuit 125, and then sent to the MCPU 10 shown in FIG.
7.

第5図は、上記第2図に示すDCPU105と画像メモ
リ106との更に詳細な構成を示すブロック系統図であ
る。図において、画像信号をセーブする第1の画像信号
RAMI 3 1は、その人力端に人力されるA/D変
換回路104(第2図参照)からのディジタル信号を、
MCPU107の制御信号に基づいてセーブする。この
第1の画像信号RAM131に格納された画像信号は、
例えばアナログスイッチ等で構成された制御部130を
介し、画像信号をセーブする第2の画像信号RAM13
2に供給されてセーブされる。この第2の画像信号RA
M132では、MCPU107(第2図参照)から供給
される制御信号に乱づき、縦,横におけるフーリエ変換
133、データの2値化134,重心検出135、画像
比較136等の処理を高速で行ない結果をMCPU10
7へ送出する。
FIG. 5 is a block system diagram showing a more detailed configuration of the DCPU 105 and image memory 106 shown in FIG. 2 above. In the figure, the first image signal RAMI 3 1 that saves the image signal converts the digital signal from the A/D conversion circuit 104 (see FIG. 2) that is manually input into the input terminal.
The data is saved based on the control signal of the MCPU 107. The image signal stored in this first image signal RAM 131 is
A second image signal RAM 13 that saves image signals via a control unit 130 configured with an analog switch, etc., for example.
2 and is saved. This second image signal RA
M132 disturbs the control signal supplied from the MCPU 107 (see Fig. 2) and performs high-speed processing such as vertical and horizontal Fourier transform 133, data binarization 134, center of gravity detection 135, image comparison 136, and the results. MCPU10
Send to 7.

上記画像信号をセーブする第1の画像信号RAM131
から読出された画像信号は、第2図に示す画像メモリ1
06にも供給されている。この画像メモリ106は、焦
点検出動作の開始に先立ってセーブされた画像信号を蓄
積する第1のメモリ106aと、焦点検出動作中におけ
る画像信号を逐次蓄積し、結果として直近の画像信号が
蓄積されている第2のメモリ106bとから構成されて
いる。また、上記制御部130は、MCPUl07から
の制御信号に基づき上記第1の画像信号RAM131あ
るいは画像メモリ106の何れかから出力された画像信
号を、上記第2の画像信号RAM132に供給するか映
像信号出力回路(第2図参照)110に供給するかを選
択する切換スイッチとして作動するようになっている。
First image signal RAM 131 for saving the above image signal
The image signal read out from the image memory 1 shown in FIG.
It is also supplied to 06. This image memory 106 includes a first memory 106a that stores image signals saved prior to the start of the focus detection operation, and a first memory 106a that stores image signals during the focus detection operation, and as a result, the most recent image signal is stored. and a second memory 106b. Further, the control unit 130 supplies the image signal outputted from either the first image signal RAM 131 or the image memory 106 to the second image signal RAM 132 based on the control signal from the MCPUl07, or supplies the image signal to the second image signal RAM 132. It operates as a changeover switch for selecting whether or not to supply to the output circuit (see FIG. 2) 110.

次に、このように構成された本実施例の動作を第6図に
示すフローチャートに基づいて以下に説明する。この第
6図は、図の中央部にステップ81〜S16からなるM
CPU107のフローを、図の左側部にステップS21
〜S25からなるDCPυ105のフローを、図の右側
部にステップS31〜833からなる信号処理回路10
3のフローを、それぞれ並記して示したAFスタートか
ら合焦判定までのフローチャートである。
Next, the operation of this embodiment configured as described above will be explained below based on the flowchart shown in FIG. This FIG. 6 shows M consisting of steps 81 to S16 in the center of the figure
The flow of the CPU 107 is shown in step S21 on the left side of the diagram.
The flow of the DCPυ 105 consisting of steps S25 to S25 is shown on the right side of the figure.
3 is a flowchart from AF start to focus determination showing the flowcharts shown in FIG. 3 in parallel.

カメラ動作がスタートすると、ステップS21に進んで
DCPU105による通常の画像信号処理が行なわれる
。即ち、通常は上記第2図に示すA/D変換回路104
でディジタル値に変換された画像信号を上記第5図に示
す第1の画像信号RAMI31に取込み、映像信号出力
回路110(第2図参照)を介してモニタ手段17(第
1図参照)に出力することにより連続してモニタ表示し
ている。
When the camera operation starts, the process advances to step S21, where the DCPU 105 performs normal image signal processing. That is, normally the A/D conversion circuit 104 shown in FIG.
The image signal converted into a digital value is taken into the first image signal RAMI 31 shown in FIG. By doing so, it is displayed continuously on the monitor.

図示しないレリーズ釦が押下されると、ステップS1に
進んで“AF動作信号がオン゛される。
When a release button (not shown) is pressed, the process proceeds to step S1 where "the AF operation signal is turned on."

すると、ステップS22に進んでDCPU105はこの
AF動作信号がオンされた瞬間に第1の画像信号RAM
I31に取込まれていた画像信号の映像信号出力回路1
10への供給を停止して画像メモリ106の第1のメモ
リ106aに格納する。
Then, the process advances to step S22, and the DCPU 105 reads the first image signal RAM at the moment this AF operation signal is turned on.
Video signal output circuit 1 for the image signal taken into I31
10 and stores it in the first memory 106a of the image memory 106.

そして、この第1のメモリ106aに格納された画像信
号を映像信号出力回路110へ出力してモニタ手段17
上に画像表示する。この第1のメモリ106aに格納さ
れたAF動作信号オン時の画像信号より後に供給される
画像信号は、第2のメモリ106bに書込まれる。この
第2のメモリ106bに格納された画像信号は、その都
度、書換えられて常に最新の画像信号が格納されるよう
になっている。
Then, the image signal stored in this first memory 106a is outputted to the video signal output circuit 110 to be output to the monitor means 17.
Display the image above. An image signal supplied after the image signal when the AF operation signal is on, which is stored in the first memory 106a, is written into the second memory 106b. The image signal stored in this second memory 106b is rewritten each time so that the latest image signal is always stored.

つまり、新しい画像信号は、画像メモリ106の第2の
メモリ106bへ入力され、既にこの第2のメモリ10
6bに記録されている画像信号を消去して書込まれるが
、映像信号出力回路110へ出力されることはない。同
出力回路110へ出力される画像信号は、上述のように
この焦点検出動作の開始に先立って第1のメモリ106
aにセーブされた画像信号である。この第1のメモリ1
06aが所謂、本発明における信号蓄積手段で、このス
テップS22のフローが電気信号選択手段を構成してい
る。
That is, a new image signal is input to the second memory 106b of the image memory 106, and the new image signal is already input to the second memory 106b of the image memory 106.
Although the image signal recorded in 6b is erased and written, it is not output to the video signal output circuit 110. As described above, the image signal output to the output circuit 110 is stored in the first memory 106 prior to the start of this focus detection operation.
This is the image signal saved in a. This first memory 1
06a is a so-called signal storage means in the present invention, and the flow of step S22 constitutes an electric signal selection means.

以上は、AF動作信号がオンされたときのDCPU10
5の動作であるが、次にステップS31における信号処
理回路103の動作と、ステップS2におけるMCPU
107の動作を説明する。
The above is the DCPU 10 when the AF operation signal is turned on.
5, the operation of the signal processing circuit 103 in step S31 and the operation of the MCPU in step S2 are as follows.
The operation of 107 will be explained.

ステップS31に進むと、第3図に示す信号処理回路1
03のB−P−F122でその通過帯域が規定された特
定周波数の“パワー検出”が行なわれる。′と同時に、
ステップS2に進むと、MCPU107は“AFモータ
駆動”を指令し、これによって撮影レンズが微小量駆動
する。そしてステップS3に進むと、上記撮影レンズの
微小量移動から1回目の合焦“方向検出”が行われる。
Proceeding to step S31, the signal processing circuit 1 shown in FIG.
03 B-P-F 122 performs "power detection" of a specific frequency whose passband is defined. 'At the same time,
Proceeding to step S2, the MCPU 107 commands "AF motor drive", thereby driving the photographing lens by a minute amount. Then, in step S3, the first focusing "direction detection" is performed after the photographic lens is moved by a minute amount.

上記ステップS3における操作で合焦方向が検出されれ
ば、ステップS6に進んで、“AF動作信号をオフ“す
るし、合焦方向が検出できなければステップS4に進ん
でMCPU107よりDCPU105に向け“データ処
理信号”を発信する。DCPU105はこのデータ処理
信号を受信すると、上記第5図に示した画像メモリ10
6の第1のメモリ106a,第2のメモリ106bにそ
れぞれ格納されている画像信号を第2の画像信号RAM
132に転送し、同RAMi32でフーリエ展開等のデ
ータ処理を行う。この処理データに基づいて、ステップ
S5に進んでMCPU107による2回目の合焦“方向
検出”が行われ、“方向検出“されれば上記ステップS
6に進んで“AF動作信号をオフ“するし、この2回目
の合焦“方向検出゛でも合焦方向が定まらなければ、次
のステップS7に進む。
If the focusing direction is detected by the operation in step S3 above, the process proceeds to step S6, and the AF operation signal is turned off. If the focusing direction cannot be detected, the process proceeds to step S4, where the MCPU 107 directs the AF operation signal to the DCPU 105. The data processing signal is transmitted. When the DCPU 105 receives this data processing signal, the image memory 10 shown in FIG.
The image signals stored in the first memory 106a and the second memory 106b of 6 are transferred to the second image signal RAM.
132, and the RAMi 32 performs data processing such as Fourier expansion. Based on this processing data, the process proceeds to step S5, where the MCPU 107 performs a second focusing "direction detection", and if "direction detection" is achieved, the step S5 is performed.
The process proceeds to step S6 to turn off the AF operation signal, and if the in-focus direction is not determined even after this second focusing ``direction detection'', the process proceeds to the next step S7.

上述した2回目の合焦方向検出でも合焦方向が定まらな
いのは、多くはフントラストが全くない被写体像の場合
等なので、絞り情報,レンズ情報距離情報等で決まるA
Fモータの所定駆動量Mxに達するまで上記ステップS
2にリターンして“AFモータ駆動”が行われる。そし
て、1回目,2回目の合焦“方向検出“が繰返し行われ
るが、なお“方向検出”されないままAFモータ駆動が
その所定駆動11 M xに達すると、ステップS16
にジャンプしてAFモータを“所定位置に停止″させエ
ンドとなる。
The reason why the focusing direction is not determined even after the second focusing direction detection described above is often because the subject image has no fundus, so A is determined by the aperture information, lens information, distance information, etc.
The above step S until the predetermined drive amount Mx of the F motor is reached.
Returning to step 2, "AF motor drive" is performed. Then, the first and second focusing "direction detection" is repeated, but when the AF motor drive reaches its predetermined drive 11Mx without "direction detection", step S16
The process jumps to "stops the AF motor at a predetermined position" and ends.

上記ステップS3における1回目の合焦“方向検出”.
ステップS5における2回目の合焦“方向検出″の何れ
かで“方向検出”され、この結果としてステップS6で
“AF動作信号がオフ“になると、ステップS24に進
む。このステップS24では、DCPU105は上記第
5図に示す第1のメモリ106a,第2のメモリ106
bにそれぞれセーブされている画像信号を消去″したう
えで、第1の画像信号RAM131にセーブされた画像
信号を映像信号出力回路110へ出力してモニタ表示し
、通常動作に戻ることになる。
First focusing "direction detection" in step S3 above.
When "direction detection" is performed during the second focusing "direction detection" in step S5, and as a result, "AF operation signal is turned off" in step S6, the process proceeds to step S24. In this step S24, the DCPU 105 stores the first memory 106a and the second memory 106 shown in FIG.
After erasing the image signals saved in each of the first image signal RAM 131, the image signals saved in the first image signal RAM 131 are outputted to the video signal output circuit 110 for display on the monitor, and normal operation is resumed.

即ち、上記ステップS22における“映像信号出力回路
へ第1のメモリの内容を出力″から上記ステップS24
における“第1.第2のメモリの画像信号を清去″し“
第1の画像信号RAMにセーブされた画像信号を映像信
号出力回路へ出力“するまでのフローが制御手段を構或
している。そして、上記ステップS22における電気信
号選択手段と、同ステップS22からこのステップS2
4までのフローで形成される制御手段により、合焦動作
初期の合焦方向検出時における不快なレンズ駆動をカメ
ラの撮影者に見せないようにするのが本発明の要旨であ
る。
That is, from "outputting the contents of the first memory to the video signal output circuit" in step S22 above to step S24
"Cleaning the image signal of the first and second memory" in "
The flow up to outputting the image signal saved in the first image signal RAM to the video signal output circuit constitutes the control means.The electric signal selection means in step S22 and the flow from step S22 to This step S2
The gist of the present invention is to prevent the photographer of the camera from seeing uncomfortable lens driving during focusing direction detection at the initial stage of the focusing operation by means of the control means formed through the steps up to step 4.

上記ステップS24におけるDCPUI○5の動作と並
行して、MCPυ107はステップS8における“AF
モータ駆動”を行い、また信号処理回路103はステッ
プS32で上記“AFモータ駆動”による撮影レンズ移
動に伴う特定空間周波数における“パワー検出“を行な
う。すると、.前記第4図(A) . (B)に示した
ようにレンズ位置の移動に伴うパワーの山、つまり合焦
点がステップS9における第1の合焦状態を示す1合焦
1”で求まることになる。このステップS9における“
合焦1”が求まらないとき、即ち、撮影レンズを一方向
に移動させると、パワーが増大し続けるときは未だ合焦
点に達していないので、上記ステップS24,S8,S
32にリターンして、“合焦1”が検出されるまでこれ
らステップを繰返す。
In parallel with the operation of the DCPUI○5 in step S24, the MCPυ107 performs the "AF" operation in step S8.
In step S32, the signal processing circuit 103 performs "power detection" at a specific spatial frequency accompanying the movement of the photographing lens by the "AF motor drive".Then, as shown in FIG. 4(A). As shown in B), the peak of the power accompanying the movement of the lens position, that is, the in-focus point is found at 1 in-focus 1'', which indicates the first in-focus state in step S9. In this step S9 “
When focus 1'' cannot be obtained, that is, when the photographic lens is moved in one direction and the power continues to increase, the focus has not yet been reached, so step S24, S8, and S
Returning to step 32, these steps are repeated until "focus 1" is detected.

ステップS9における“合焦1#は合焦精度が甘いが、
これが検出されると同時にAFモータを停止してステッ
プS10に進み“合焦動作信号をオン2する。すると、
DCPU105は、ステップS25で合焦1のときの画
像信号を、第1の画像信号RAM131から第1のメモ
リ106aに転送し、この第1のメモリ]06aの内容
を映像信号出力回路110に出力してモニタ表示する。
“Focus 1# in step S9 has poor focusing accuracy, but
At the same time as this is detected, the AF motor is stopped and the process proceeds to step S10, where "the focusing operation signal is turned on 2."
The DCPU 105 transfers the image signal at focus 1 from the first image signal RAM 131 to the first memory 106a in step S25, and outputs the contents of this first memory 06a to the video signal output circuit 110. and display it on the monitor.

また、ステップSllに進むと、〜fcPUI.07は
、ズームモータ108(第2図参照)を駆動して、前記
第3図(B)に示すファインダ視野枠128の273の
面積に相当する中心部129を撮1象回路102(第2
図参!!α)全体に写るように、つまり372倍に画角
を拡大する。通常、主要被写体は画面の2/3に殆ど含
まれているから、この部分をさらに微細化してパワー検
出を行うことにより精度を向上した合焦検出を行おうと
するものである。
Further, when proceeding to step Sll, ~fcPUI. 07 drives the zoom motor 108 (see FIG. 2) to take a picture of the center part 129 corresponding to the area 273 of the finder field frame 128 shown in FIG. 3(B).
Reference! ! α) Enlarge the angle of view 372 times so that the entire image is captured. Normally, the main subject is almost included in two-thirds of the screen, so by further miniaturizing this part and performing power detection, focus detection with improved accuracy is attempted.

ステップ512,533は、上記ステップS8S32で
説明したと同じく “AFモータを駆動“して“パワー
検出”するフローである。ステップ813に進んで第2
の合焦状態を示す“合焦2”に達したか否かをチェック
する。このステップS13における合焦2は、上記ステ
ップSllにおけるズームモータ駆動による画角の拡大
に応じて上記ステップS9における“合焦1″よりその
合焦精度が向上している。このステップS13における
“合焦2”が成立するまで上記ステップS12,933
を繰返し、合焦するとステップS14に進む。
Steps 512 and 533 are the flow of "driving the AF motor" and "detecting the power" as described in step S8S32 above. Proceed to step 813 and
It is checked whether "in-focus 2", which indicates the in-focus state of the camera, has been reached. Focusing 2 in step S13 has a higher focusing accuracy than "focusing 1" in step S9, in accordance with the enlargement of the angle of view by driving the zoom motor in step Sll. Until "focus 2" is established in step S13, the steps S12 and 933 are performed.
Repeat these steps, and when the image is in focus, proceed to step S14.

ステップS14では、再度ズームモー夕を駆動して撮影
画角を、上記ステップS11以前の状態に戻した後、ス
テップS15に進んで合焦動作信号をオフする。すると
、DCPU105は、ステップS26において、映像信
号出力回路110へ出力される画像信号を、第1の画像
信号RAM131 (第5図参照)にセーブされた信号
に戻した後、エンドとなる。
In step S14, the zoom mode is driven again to return the photographing angle of view to the state before step S11, and then the process proceeds to step S15, where the focusing operation signal is turned off. Then, in step S26, the DCPU 105 returns the image signal output to the video signal output circuit 110 to the signal saved in the first image signal RAM 131 (see FIG. 5), and then ends the process.

以上述べたように本実施例では、ディジタル的に信号処
理してメモリすることにより、カメラの撮影者に対して
円滑で高精度の焦点検出方式を提供しているが、アナロ
グ的に信号処理してメモリすることによっても実現可能
である。また、合焦精度を向上するためのズームレンズ
駆動は、撮像回路の直前に挿入してもよいこと勿論であ
る。
As described above, in this embodiment, a smooth and highly accurate focus detection method is provided to the camera operator by digitally processing the signal and storing it in memory. This can also be achieved by storing it in memory. Furthermore, it goes without saying that a zoom lens drive for improving focusing accuracy may be inserted just before the imaging circuit.

第7図〜第10図は、本発明の他の実施例を示したもの
である。この実施例のカメラシステムの概念も前記第1
図に示す通り、撮影光学系11の信号を撮像素子12で
電気信号に変換し、この電気信号を順次、信号蓄積素子
l4に取り込む。また、上記撮像素子12で光電変換さ
れた電気信号は信号処理系16にも供給される。そして
、同処理系16で積分モニタ値の検出とAF演算処理を
行って駆動制御系13へ移動量データを送る。
7 to 10 show other embodiments of the present invention. The concept of the camera system of this embodiment is also
As shown in the figure, signals from the photographing optical system 11 are converted into electrical signals by the image sensor 12, and these electrical signals are sequentially taken into the signal storage element l4. Further, the electrical signal photoelectrically converted by the image sensor 12 is also supplied to a signal processing system 16 . Then, the processing system 16 detects the integral monitor value and performs AF calculation processing, and sends the movement amount data to the drive control system 13.

また、上記AF演算のデータを得るために積分モニタ値
を基に積分時間を設定し、その設定積分時間およびAF
演算用データが信号処理系16に取り込まれるまでの期
間は、AF演算データ用積分に入る直前の信号蓄積素子
14の出力のみを読み出し系15で読み出し、この読み
出した信号をモニタ手段17へ出力する。
In addition, in order to obtain data for the AF calculation described above, an integral time is set based on the integral monitor value, and the set integral time and AF
During the period until the calculation data is taken into the signal processing system 16, only the output of the signal storage element 14 immediately before starting the integration for AF calculation data is read out by the readout system 15, and this read signal is output to the monitor means 17. .

これによってカメラの撮影者に平均測光によるバランス
のとれた像を見せることが可能となる。
This allows the photographer to see a well-balanced image based on average photometry.

第7図は、本実施例のカメラシステムの具体的?ブロッ
ク系統図を示したものである。
FIG. 7 shows the specific details of the camera system of this embodiment. It shows a block system diagram.

撮影レンズ201を透過した被写体光束は、図示されな
いハーフミラー等により分岐され、一方は光学式ファイ
ンダ(図示されず)光路へ、他方はAFレンズ202で
瞳分割され、撮像回路203内の光電変換素子に分割さ
れた像が重ならないように写される。
The subject light beam that has passed through the photographic lens 201 is split by a half mirror (not shown), one part goes to an optical finder (not shown), the other part is split into a pupil by the AF lens 202, and the other part goes to a photoelectric conversion element in the imaging circuit 203. The divided images are photographed so that they do not overlap.

この写された像の1つの電気信号をA/D変換回路20
4へ出力し、メインCPU (MCPU)205を介し
て画像メモリ208と映像信号出力回路209へ出力す
る。
The A/D conversion circuit 20 converts one electric signal of this photographed image into
4, and is output to an image memory 208 and a video signal output circuit 209 via a main CPU (MCPU) 205.

上記MCPU205は、撮像回路203,画像メモリ2
08,映像信号出力回路209の制御を行うものであっ
て、撮像回路203の一対になった2つの像の像ずれ量
検出、補開演算で合焦点を検出し、レンズ制御回路20
6へ駆動量データを送る。
The MCPU 205 includes an imaging circuit 203, an image memory 2
08. Controls the video signal output circuit 209, detects the amount of image shift between the two paired images of the imaging circuit 203, detects the in-focus point by compensation calculation, and controls the lens control circuit 20.
Send the driving amount data to 6.

第8図は、上記フォーカスエリアの2像の関係を示した
ものであって、第9図は、ずれ量補間演算Σ1a1■一
b1■一,jの様子を示したものである。
FIG. 8 shows the relationship between the two images of the focus area, and FIG. 9 shows the shift amount interpolation calculation Σ1a1■-b1■1,j.

再び第7図に戻って、上記レンズ制御回路206は撮影
レンズ201の絞り,レンズ位置等のレンズ情報を入手
し、上記MCPU205へ出力する。また、MCPU2
05からのレンズ駆動量に従って、モータ207へ信号
を出力し撮影レンズ20’lを合焦位置へ駆動する。
Returning to FIG. 7 again, the lens control circuit 206 obtains lens information such as the aperture and lens position of the photographing lens 201, and outputs it to the MCPU 205. Also, MCPU2
According to the lens drive amount from 05, a signal is output to the motor 207 to drive the photographing lens 20'l to the in-focus position.

次に、このように構成された本実施例の動作を第10図
に示すフローチャートに基づいて簡単に説明すると、図
示されないレリーズ操作釦の1stレリーズの状態でス
タート(ステップS101)する。すると、ステップS
102に進み、同ステップSl02,ステップS103
,ステップS 104に示すように、画像信号(1つの
像のみ)を画像メモリ208へ蓄積し、その信号を繰り
返し映像信号出力回路209へAFデータ終了まで出力
する。
Next, the operation of this embodiment configured as described above will be briefly described based on the flowchart shown in FIG. 10. The operation starts with the first release of the release operation button (not shown) (step S101). Then step S
Proceed to step 102, step Sl02, step S103
, step S104, the image signal (only one image) is stored in the image memory 208, and the signal is repeatedly output to the video signal output circuit 209 until the AF data is completed.

また、スタートすると、ステップS110で画像信号(
全部)からフォーカスエリアの信号を2ヶ1組で読み出
し、次いでこれをステップS111でA−D変換処理を
する。そして、ステップS112で、より良い条件の積
分時間tmを設定し、ステップS113に進んで積分ス
タートする。
Moreover, when starting, in step S110, the image signal (
The focus area signals are read out in sets of two from all), and then subjected to A-D conversion processing in step S111. Then, in step S112, an integration time tm with better conditions is set, and the process proceeds to step S113 to start integration.

次いでステップS114で、t−tmがチェックされて
積分は終了する(ステップS 1 1 5)。その後、
ステップS116,S117で示すように読み出し,A
−D変換処理が行われてAFデータ処理は終了し、ステ
ップS105に進んで常に新しい画像データ(1つの像
のみ)を画像メモリ208へ蓄え映像信号出力回路20
9に出力を送る。
Next, in step S114, t-tm is checked and the integration ends (step S115). after that,
As shown in steps S116 and S117, the A
-D conversion processing is performed, the AF data processing ends, and the process proceeds to step S105, where new image data (only one image) is always stored in the image memory 208 and the video signal output circuit 20
Send output to 9.

一方、上記A−D変換されたAFデータを用いてステッ
プS118,S119に示す如く、ずれ量を検出する相
関演算,補開演算を行い、合焦点を検出してステップS
120でモータ駆動を行って撮影レンズ201を移動し
合焦点でモータを停止(ステップS121)L、エンド
(ステップS122)となる。
On the other hand, as shown in steps S118 and S119, using the A-D converted AF data, correlation calculation and correction calculation are performed to detect the amount of deviation, and the in-focus point is detected, and step S
At 120, the motor is driven to move the photographing lens 201, and at the in-focus point, the motor is stopped (step S121) L, and the process ends (step S122).

このように本実施例においては、モニタ出力を読み出し
たがリアルタイムで積分制御しても同等の効果が得られ
る。
As described above, in this embodiment, the monitor output is read out, but the same effect can be obtained by performing integral control in real time.

[発明の効果] 以上述べたように本発明によれば、コントラスト検出方
式においては信号蓄積素子と任意の信号を読み出す手段
とにより、 1)合焦点検出動作の初期における合焦方向を検出する
際に生じるレンズの迷いを、カメラの撮影者に気付かれ
ることなく合焦方向の検出が可能となる。
[Effects of the Invention] As described above, according to the present invention, in the contrast detection method, the signal storage element and the means for reading out arbitrary signals are used to: 1) detect the focusing direction at the initial stage of the focusing point detection operation; This makes it possible to detect the focusing direction without the camera operator noticing any lens deviation that may occur in the camera.

2)構成がシンプル、つまり信号蓄積素子だけで実現可
能となる。
2) The configuration is simple, that is, it can be realized using only signal storage elements.

また、位相差検出方式においても、フォーカスエリアの
みの情報が必要のときも、撮影者に不快感を与えること
なく、高速に精度良く、合焦点の検出が可能となる。
Furthermore, in the phase difference detection method, even when information about only the focus area is required, the in-focus point can be detected quickly and accurately without causing discomfort to the photographer.

等の数々の顕著な効果が発揮される。A number of remarkable effects such as these are exhibited.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は、本発明のカメラシステムを機能面から捉えた
概念的ブロック系統図、 第2図は、本発明の一実施例を示すカメラシステムの具
体的なブロック系統図、 第3図(A)は、上記第2図における信号処理回路の詳
細な構成を示すブロック系統図で、第3図(B)は上記
第3図(A)におけるゲート回路でファインダ画面の中
央部を拡大する際の正面図、第4図(A) . (B)
は、上記第3図におけるB−P・Fで決定される特定周
波数におけるレンズ位置に対するパワーをプロットした
特性線図で、第4図(A)は低周波時を、第4図(B)
は高周波時をそれぞれ示す図、 第5図は、上記第2図におけるDCPUと画像メモリの
詳細な構成を示すブロック系統図、第6図は、上記第2
図の実施例における動作を説明するフローチャート、 第7図は、本発明の他の実施例を示すカメラシステムの
具体的なブロック系統図、 第8図は、上記第7図の実施例におけるフォーカスエリ
アの2像の関係を示す線図、 第9図は、上記第7図の実施例における参〇開演算値よ
りの補間の様子を示す線図、 第10図は、上記第7図の実施例の動作を説明するため
のフローチャ−1・、 第11図は、従来のコントラスト方式による焦点検出に
おける合魚方向を検出する手段を説明する線図である。 11・・・・・・・・・撮像光学系(焦点検出手段)1
2・・・・・・・・・撮像素子(魚点検出手段)13・
・・・・・・・・駆動制御系(焦点検出手段)14・・
・・・・・・・信号蓄積素子(信号蓄積手段)15・・
・・・・・・・読み出し系(選択手段および制御手段) 16・・・・・・・・・信号処理系(焦点検出手段)1
7・・・・・・・・・モニタ手段
FIG. 1 is a conceptual block diagram showing the camera system of the present invention from a functional perspective. FIG. 2 is a concrete block diagram of the camera system showing an embodiment of the present invention. ) is a block system diagram showing the detailed configuration of the signal processing circuit in FIG. 2 above, and FIG. 3(B) is a block diagram showing the detailed configuration of the signal processing circuit in FIG. Front view, Figure 4 (A). (B)
are characteristic diagrams plotting the power against the lens position at a specific frequency determined by B-P・F in Fig. 3 above. Fig. 4 (A) shows the power at low frequency, Fig. 4 (B)
5 is a block diagram showing the detailed configuration of the DCPU and image memory in FIG. 2, and FIG. 6 is a diagram showing the high frequency state.
FIG. 7 is a specific block system diagram of a camera system showing another embodiment of the present invention; FIG. 8 is a focus area in the embodiment shown in FIG. 7; FIG. 9 is a diagram showing the interpolation from the 3-fold calculation value in the embodiment shown in FIG. 7, and FIG. 10 is a diagram showing the example of FIG. 7 above. Flowchart 1 for explaining the operation of FIG. 11 is a diagram illustrating means for detecting a matching direction in focus detection using a conventional contrast method. 11... Imaging optical system (focus detection means) 1
2... Image sensor (fish point detection means) 13.
...... Drive control system (focus detection means) 14...
......Signal storage element (signal storage means) 15...
...... Readout system (selection means and control means) 16 ...... Signal processing system (focus detection means) 1
7...Monitoring means

Claims (1)

【特許請求の範囲】[Claims] (1)撮像光学系により導かれた被写体光を電気信号に
変換する撮像素子を有し、上記撮像素子の電気信号から
、上記撮像光学系の合焦方向および合焦点を検出する焦
点検出手段を具備するカメラシステムであって、該カメ
ラシステムは、 上記焦点検出動作の開始に先だって、上記電気信号を蓄
積する信号蓄積手段と、 上記撮像素子からの電気信号と、上記信号蓄積手段に蓄
積された電気信号のどちらか一方を選択する電気信号選
択手段と、 上記選択された電気信号を映像化するモニタ手段と、 上記焦点検出期間には、上記電気信号選択手段に対して
上記蓄積された電気信号を選択するよう制御する制御手
段と、 を具備することを特徴とするカメラシステム。
(1) It has an image sensor that converts the subject light guided by the imaging optical system into an electrical signal, and includes a focus detection means that detects the focusing direction and focus point of the imaging optical system from the electrical signal of the imaging device. A camera system comprising: a signal accumulation means for accumulating the electric signal; and a signal accumulation means for accumulating the electric signal, and an electric signal accumulated in the signal accumulation means from the image sensor prior to the start of the focus detection operation. electrical signal selection means for selecting one of the electrical signals; monitoring means for visualizing the selected electrical signal; A camera system comprising: a control means for controlling the selection of the .
JP2002200A 1989-03-30 1990-01-09 Camera system Pending JPH0320709A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002200A JPH0320709A (en) 1989-03-30 1990-01-09 Camera system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP1-79191 1989-03-30
JP7919189 1989-03-30
JP2002200A JPH0320709A (en) 1989-03-30 1990-01-09 Camera system

Publications (1)

Publication Number Publication Date
JPH0320709A true JPH0320709A (en) 1991-01-29

Family

ID=26335533

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002200A Pending JPH0320709A (en) 1989-03-30 1990-01-09 Camera system

Country Status (1)

Country Link
JP (1) JPH0320709A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005283750A (en) * 2004-03-29 2005-10-13 Sony Corp Imaging apparatus and method, recording medium, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005283750A (en) * 2004-03-29 2005-10-13 Sony Corp Imaging apparatus and method, recording medium, and program
JP4496463B2 (en) * 2004-03-29 2010-07-07 ソニー株式会社 Imaging apparatus and method, recording medium, and program

Similar Documents

Publication Publication Date Title
EP1684503B1 (en) Camera and autofocus control method therefor
US7847856B2 (en) Digital camera
US8243188B2 (en) Imaging apparatus
US8988579B2 (en) Imaging apparatus
US8937679B2 (en) Imaging device including an optical view finder and a display unit that displays a live view image
US11128805B2 (en) Zoom control device, zoom control method, control program, and imaging apparatus equipped with zoom control device
JP2010096962A (en) Auto focus system with af frame auto-tracking function
US10893188B2 (en) Imaging apparatus having autofocus function, and focus adjustment method therefor
JP2003307669A (en) Camera
CN106470317B (en) Image pickup apparatus and control method thereof
JP2008145760A (en) Automatic focusing system
JP4596246B2 (en) Auto focus system
JP7314204B2 (en) IMAGING DEVICE, IMAGING METHOD, AND PROGRAM
JP2756293B2 (en) Automatic focusing device
JP2004186933A (en) Digital camera
JP2004085675A (en) Automatic focus system
JP5409201B2 (en) Focus detection apparatus and focus detection method
JP2008003144A (en) Lens adjustment system
JPH0320709A (en) Camera system
JP2005025118A (en) Lens controller
JPH02257773A (en) Camera system
JPH0933792A (en) Lens driving device and image pickup device
JP4038103B2 (en) Auto focus camera
JP2010096963A (en) Auto focus system with af frame auto-tracking function
JP4011723B2 (en) Imaging method and apparatus, and storage medium