JP3453153B2 - Video camera and focusing method thereof - Google Patents

Video camera and focusing method thereof

Info

Publication number
JP3453153B2
JP3453153B2 JP21954292A JP21954292A JP3453153B2 JP 3453153 B2 JP3453153 B2 JP 3453153B2 JP 21954292 A JP21954292 A JP 21954292A JP 21954292 A JP21954292 A JP 21954292A JP 3453153 B2 JP3453153 B2 JP 3453153B2
Authority
JP
Japan
Prior art keywords
signal
color
frequency component
area
circuit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP21954292A
Other languages
Japanese (ja)
Other versions
JPH0654330A (en
Inventor
孝 曽我
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP21954292A priority Critical patent/JP3453153B2/en
Priority to US08/091,754 priority patent/US5376964A/en
Publication of JPH0654330A publication Critical patent/JPH0654330A/en
Application granted granted Critical
Publication of JP3453153B2 publication Critical patent/JP3453153B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Color Television Image Signal Generators (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【技術分野】この発明は,固体電子撮像素子を用いて入
射する光像を予備撮影することにより得られる映像信号
を用いて自動合焦制御を行うビデオ・カメラ(スチル/
ムービ・ビデオ・カメラおよびスチル・ビデオ・カメラ
を含む)と,その合焦方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video camera (still / automatic focusing control using a video signal obtained by preliminarily photographing an incident light image using a solid-state electronic image pickup device
(Including movie video cameras and still video cameras) and focusing methods thereof.

【0002】[0002]

【背景技術】ビデオ・カメラには,様々な自動焦点調節
機能(いわゆるAF機能)を有するものがあり,その中
にはCCD等の固体電子撮像素子によって入射する光像
を予備撮影し,これにより得られる映像信号を用いて合
焦制御を行うものがある。
2. Description of the Related Art Some video cameras have various automatic focusing functions (so-called AF functions), and among them, an optical image incident by a solid-state electronic image pickup device such as CCD is preliminarily photographed and There is one that performs focus control using the obtained video signal.

【0003】しかしながら,このような固体電子撮像素
子から得られる映像信号を用いて合焦制御を行うビデオ
・カメラにおいて,従来は,合焦制御用の映像信号を固
体電子撮像素子から直接得ているため,映像信号の前処
理を行うための専用の回路が必要となり,ビデオ・カメ
ラが大型化するという問題が生じる。
However, in a video camera which performs focus control using a video signal obtained from such a solid-state electronic image pickup device, conventionally, a video signal for focus control is obtained directly from the solid-state electronic image pickup device. Therefore, a dedicated circuit for preprocessing the video signal is required, which causes a problem that the video camera becomes large.

【0004】[0004]

【発明の概要】この発明は,固体電子撮像素子から得ら
れる映像信号を用いて合焦制御を行うことができるカメ
ラにおいて,小型化を図ることを目的とする。
SUMMARY OF THE INVENTION It is an object of the present invention to reduce the size of a camera capable of performing focus control using a video signal obtained from a solid-state electronic image pickup device.

【0005】この発明は,撮像レンズおよびこの撮像レ
ンズを通して入射する光像を映像信号に変換して出力す
る色フィルタを有する固体電子撮像素子を含む撮像光学
系を備えたビデオ・カメラにおいて,上記固体電子撮像
素子から出力される映像信号を色分離して複数色の色信
号を出力する色分離回路,上記固体電子撮像素子の色フ
ィルタの光透過率の違いに起因する上記色分離回路の出
力色信号のレベルのばらつきを補正する増幅回路,上記
増幅回路の出力色信号から測距のための高周波成分を抽
出する高周波成分抽出手段,および上記高周波成分抽出
手段によって抽出された高周波成分に基づいて,上記撮
像レンズの合焦制御を行う合焦制御手段を備えている。
The present invention provides a video camera equipped with an image pickup optical system including a solid-state electronic image pickup device having an image pickup lens and a color filter for converting a light image incident through the image pickup lens into a video signal and outputting the image signal. A color separation circuit that color-separates a video signal output from an electronic image pickup device to output a plurality of color signals, and an output color of the color separation circuit due to a difference in light transmittance of color filters of the solid-state electronic image pickup device Based on the amplification circuit that corrects the variation in the signal level, the high frequency component extraction means that extracts the high frequency component for distance measurement from the output color signal of the amplification circuit, and the high frequency component extracted by the high frequency component extraction means, A focusing control unit that controls the focusing of the imaging lens is provided.

【0006】また,この発明による合焦方法は,撮像レ
ンズを通して入射する光像を色フィルタを有する固体電
子撮像素子によって予備撮影し,この予備撮影により上
記固体電子撮像素子から得られる映像信号を複数色の色
信号に色分離し,上記固体電子撮像素子の色フィルタの
光透過率の違いに起因する上記色信号のレベルのばらつ
きを補正し,上記レベルのばらつきが補正された色信号
から測距のための高周波成分を抽出し,抽出された上記
高周波成分に基づいて上記撮像レンズの合焦制御を行う
ものである。
Further, in the focusing method according to the present invention, the light image incident through the image pickup lens is preliminarily photographed by the solid-state electronic image pickup device having a color filter, and a plurality of video signals obtained from the solid-state electronic image pickup device by the preliminarily photographing are obtained. The color signals are separated into color signals, the level variations of the color signals due to the difference in the light transmittance of the color filters of the solid-state electronic image pickup device are corrected, and the distance is measured from the color signals whose level variations are corrected. Is extracted, and focusing control of the imaging lens is performed based on the extracted high frequency component.

【0007】この発明では,固体電子撮像素子の色フィ
ルタの光透過率のばらつきに起因するレベルのばらつき
が補正された色信号が,合焦制御のために使用される。
In the present invention, the color signal in which the level variation due to the variation of the light transmittance of the color filter of the solid-state electronic image pickup device is corrected is used for the focus control.

【0008】固体電子撮像素子から得られる映像信号に
対して信号処理を施す色分離回路および増幅回路は,固
体電子撮像素子から得られる映像信号を信号処理して記
録するためにビデオ・カメラが一般に備えているもので
ある。
A color separation circuit and an amplifier circuit for performing signal processing on a video signal obtained from a solid-state electronic image pickup device are generally used in video cameras for signal-processing and recording the video signal obtained from the solid-state electronic image pickup device. It is equipped.

【0009】従って,上記のような合焦制御のために映
像信号を処理する回路と記録のために映像信号を処理す
る回路とを共用することができる。このため,合焦制御
用に映像信号を処理するための専用の回路を別個に設け
る必要が無くなり,ビデオ・カメラを小型化できる。
Therefore, the circuit for processing the video signal for focus control and the circuit for processing the video signal for recording can be shared. Therefore, it is not necessary to separately provide a dedicated circuit for processing the video signal for focus control, and the video camera can be downsized.

【0010】この発明では固体電子撮像素子に設けられ
ている色フィルタの光透過率のばらつきに起因して映像
信号に生じる繰返し周波数成分が上記増幅回路によりあ
る程度除去されているので,このような色フィルタの配
列に基づく繰返し周波数成分に邪魔されずに精度の高い
合焦制御が可能となる。
In the present invention, since the repeating frequency component generated in the video signal due to the variation of the light transmittance of the color filter provided in the solid-state electronic image pickup device is removed to some extent by the amplifier circuit, such a color Focusing control can be performed with high accuracy without being disturbed by the repetition frequency component based on the filter array.

【0011】この発明の好ましい実施態様においては,
上記増幅回路によってさらにホワイト・バランス調整が
行われる。このホワイト・バランス調整によって,色フ
ィルタ配列に起因する繰返し周波数成分による悪影響を
さらに少なくすることができ,一層高精度の合焦制御が
可能となる。
In a preferred embodiment of the present invention,
Further white balance adjustment is performed by the amplifier circuit. By this white balance adjustment, it is possible to further reduce the adverse effects of the repetitive frequency components due to the color filter array, and it becomes possible to perform focusing control with higher accuracy.

【0012】[0012]

【実施例】以下,この発明をディジタル・スチル・カメ
ラに適用した実施例について,図面を参照しながら詳細
を説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT An embodiment in which the present invention is applied to a digital still camera will be described below in detail with reference to the drawings.

【0013】図1は,この発明の実施例のディジタル・
スチル・カメラの電気的構成を示すブロック図である。
FIG. 1 is a block diagram of a digital circuit of an embodiment of the present invention.
It is a block diagram which shows the electric constitution of a still camera.

【0014】撮像光学系には,撮像レンズ24,絞り(図
示略)および固体電子撮像素子(イメージ・センサ)と
してのCCD4が含まれる。必要ならば機械的シャッタ
が設けられるが,一般的にはシャッタ機能はCCD4の
制御によって実現される電子シャッタによって達成され
る。撮像レンズ24は被写体像をCCD4に結像させるも
ので,CPU3によって制御される撮像レンズ駆動装置
25によって移動され合焦位置に位置決めされる。
The image pickup optical system includes an image pickup lens 24, a diaphragm (not shown), and a CCD 4 as a solid-state electronic image pickup device (image sensor). A mechanical shutter is provided if necessary, but generally the shutter function is achieved by an electronic shutter realized by the control of the CCD 4. The image pickup lens 24 forms an object image on the CCD 4, and the image pickup lens drive device controlled by the CPU 3
It is moved by 25 and positioned at the in-focus position.

【0015】この実施例では予備測光のために測光セン
サ26が,予備測距のために測距センサ27がそれぞれ設け
られており,これらのセンサ26および27による測光デー
タおよび測距データはCPU3に与えられる。CPU3
は測光センサ26から得られる測光データに基づいて,絞
り値およびシャッタ速度の少なくとも一方を制御するこ
とにより,CCD4への露光量がほぼ妥当な範囲内に入
るようにする。CPU3はまた,測距センサ27からの測
距データに基づいて撮像レンズ駆動装置25を介して撮像
レンズ24を合焦位置の付近に位置決めする。
In this embodiment, a photometric sensor 26 is provided for preliminary photometry, and a range finding sensor 27 is provided for preliminary range finding. The photometric data and range finding data by these sensors 26 and 27 are stored in the CPU 3. Given. CPU3
Controls at least one of the aperture value and the shutter speed on the basis of the photometric data obtained from the photometric sensor 26 so that the exposure amount to the CCD 4 falls within a substantially appropriate range. The CPU 3 also positions the image pickup lens 24 near the in-focus position via the image pickup lens driving device 25 based on the distance measurement data from the distance measurement sensor 27.

【0016】このような予備測光に基づく概略的な露光
量調整および予備測距に基づく概略的な合焦制御ののち
に,予備撮影が行われる。この予備撮影によってCCD
4から得られる映像信号を利用して測光値の算出と精密
な露光制御,および精度の高い合焦制御が行われること
になる。これらの高精度の露光制御および合焦制御につ
いては後に詳述する。
After the rough exposure amount adjustment based on the preliminary photometry and the general focusing control based on the preliminary distance measurement, the preliminary photographing is performed. By this preliminary shooting CCD
The calculation of the photometric value, the precise exposure control, and the highly accurate focusing control are performed by using the video signal obtained from No. 4. These highly accurate exposure control and focusing control will be described in detail later.

【0017】クロック信号発生回路(以下,CGとい
う)1は,クロック信号CLK,CCD4の水平転送路
を駆動するための水平転送パルスH,不要電荷掃出しの
ための基板抜きパルスSUB,Aフィールド垂直転送パ
ルスVAおよびBフィールド垂直転送パルスVBを発生
する。さらに,CG1はフィールド・インデックス信号
FI,ストロボ発光のためのXタイミング信号XTMを
発生する。
A clock signal generation circuit (hereinafter referred to as CG) 1 includes a clock signal CLK, a horizontal transfer pulse H for driving the horizontal transfer path of the CCD 4, a substrate extraction pulse SUB for sweeping unnecessary charges, and an A field vertical transfer. A pulse VA and a B field vertical transfer pulse VB are generated. Further, CG1 generates a field index signal FI and an X timing signal XTM for strobe emission.

【0018】クロック信号CLKは,同期信号発生回路
(以下,SSGという)2に与えられ,SSG2はこの
クロック信号CLKに基づいて水平同期信号HDおよび
垂直同期信号VDを発生し,CG1に与える。
The clock signal CLK is given to a synchronizing signal generating circuit (hereinafter referred to as SSG) 2, and the SSG2 generates a horizontal synchronizing signal HD and a vertical synchronizing signal VD based on this clock signal CLK and gives it to CG1.

【0019】水平転送パルスHはCCD(固体電子撮像
素子)4に与えられる。基板抜きパルスSUBおよびA
フィールド垂直転送パルスVAはVドライバ5を介し
て,Bフィールド垂直転送パルスVBはVドライバ6を
介して,それぞれCCD4に与えられる。
The horizontal transfer pulse H is given to a CCD (solid-state electronic image pickup device) 4. Substrate extraction pulse SUB and A
The field vertical transfer pulse VA is applied to the CCD 4 via the V driver 5, and the B field vertical transfer pulse VB is applied to the CCD 4 via the V driver 6.

【0020】フィールド・インデックス信号FI,Xタ
イミング信号XTMおよび水平同期信号HDは,CPU
3に与えられる。このCPU3からCG1には露光条件
が設定されたことを示すシャッタのイネーブル信号TS
ENおよびCCD4における露光を開始するための電子
シャッタ制御信号TS1が与えられる。
The field index signal FI, the X timing signal XTM and the horizontal synchronizing signal HD are the CPU
Given to 3. A shutter enable signal TS indicating that the exposure condition has been set from the CPU 3 to the CG 1.
An electronic shutter control signal TS1 for starting exposure in EN and CCD 4 is applied.

【0021】CCD4では,基板抜きパルスSUB,A
フィールド垂直転送パルスVA,Bフィールド垂直転送
パルスVBおよび水平転送パルスHによって,インター
レース撮影が行われ,AフィールドとBフィールドの映
像信号(GRGBの色順次信号)が1フィールド期間ご
とに交互に生成されて,順次読み出される。CCD4の
駆動(撮像および映像信号の読出し)は,少なくとも撮
影時と,それに先だつ精密な測光処理および測距処理の
ために行われる。
In the CCD 4, the substrate extraction pulses SUB, A
By the field vertical transfer pulse VA, the B field vertical transfer pulse VB, and the horizontal transfer pulse H, interlaced shooting is performed, and video signals of the A field and the B field (color sequential signals of GRGB) are alternately generated every one field period. Are sequentially read. The driving of the CCD 4 (imaging and reading of a video signal) is performed at least at the time of photographing, and for precision photometric processing and distance measuring processing prior thereto.

【0022】CCD4から出力される被写体像を表わす
AフィールドおよびBフィールドの映像信号は,相関二
重サンプリング回路(CDS)7を通して色分離回路8
に与えられ,3原色,G(緑),R(赤)およびB
(青)の色信号に分離される。
The video signals of the A field and the B field representing the subject image output from the CCD 4 are passed through the correlated double sampling circuit (CDS) 7 to the color separation circuit 8
Given to three primary colors, G (green), R (red) and B
It is separated into (blue) color signals.

【0023】この色信号G,R,Bは可変利得増幅回路
(以下,GCAという)9に与えられる。GCA9の具
体的回路例が図2に示されており,GCA9はR,Gお
よびBのそれぞれの信号について設けられた可変利得増
幅器91r,92r,91g,92gおよび91b,92bを含んで
いる。このGCA9において,CCD4に設けられた色
フィルタにおける光透過率のフィルタの色間のばらつき
の補正(以下,色フィルタ感度比補正という)が増幅器
91r,91gおよび91bによって行われ,ホワイト・バラ
ンス調整が増幅器92r,92gおよび92bによって行われ
た後,その出力色信号R,G,Bはガンマ補正回路10に
与えられる。これは後述する合焦制御を高精度に行うた
めであり,その詳細は後に述べる。合焦制御の目的のた
めには少なくとも色フィルタ感度比補正を行えばよい
が,これに加えてホワイト・バランス調整も行えば一層
好ましい。
The color signals G, R and B are given to a variable gain amplifier circuit (hereinafter referred to as GCA) 9. A concrete circuit example of the GCA 9 is shown in FIG. 2, and the GCA 9 includes variable gain amplifiers 91r, 92r, 91g, 92g and 91b, 92b provided for R, G and B signals, respectively. In this GCA 9, the correction of the variation in the light transmittance of the color filters provided in the CCD 4 between the colors of the filters (hereinafter referred to as the color filter sensitivity ratio correction) is performed by the amplifier.
The output color signals R, G and B are applied to the gamma correction circuit 10 after the white balance adjustment is performed by the amplifiers 92r, 91g and 91b and the white balance adjustment is performed by the amplifiers 92r, 92g and 92b. This is because the focusing control described later is performed with high accuracy, and details thereof will be described later. For the purpose of focusing control, at least color filter sensitivity ratio correction may be performed, but it is more preferable to perform white balance adjustment in addition to this.

【0024】GCA9の出力色信号R,G,Bは,ガン
マ補正回路10で階調補正が行われて,クランプおよびリ
サンプリング回路11に入力する。
The output color signals R, G, B of the GCA 9 are gradation-corrected by the gamma correction circuit 10 and input to the clamp and resampling circuit 11.

【0025】クランプおよびリサンプリング回路11は,
3つの色信号R,G,Bをクランプし,かつリサンプリ
ングによってCCD4における色フィルタ配置に一致し
たGRGB…の色順次信号に再変換する。この色順次信
号はゲイン・コントロールおよびブランキング回路12に
入力する。ゲイン・コントロールおよびブランキング回
路12は,色順次信号を記録のために適当なレベルに増幅
するとともにこれにブランキング信号を加える。ゲイン
・コントロールおよびブランキング回路12の出力信号は
切換スイッチ13の第1の入力端子S1に与えられる。
The clamp and resampling circuit 11 is
The three color signals R, G, B are clamped and re-converted into color sequential signals of GRGB ... Which match the color filter arrangement in the CCD 4. This color sequential signal is input to the gain control and blanking circuit 12. The gain control and blanking circuit 12 amplifies the color sequential signal to an appropriate level for recording and adds the blanking signal to it. The output signal of the gain control and blanking circuit 12 is given to the first input terminal S1 of the changeover switch 13.

【0026】本撮影に先だち上述したように精密な測光
処理(露光制御)および合焦制御が行われる。測光処理
は予備撮影によってCCD4から得られる映像信号の低
周波成分を利用して行なわれ,合焦制御は上記映像信号
の高周波成分を利用して行われる。
Prior to the main photographing, precise photometric processing (exposure control) and focusing control are performed as described above. The photometric processing is carried out by utilizing the low frequency component of the video signal obtained from the CCD 4 by preliminary photography, and the focusing control is carried out by utilizing the high frequency component of the above video signal.

【0027】測光処理のために,CCD4の撮影領域内
に設けられた測光領域(後述する)内の画像を表わす映
像信号の低周波成分を取出すために,YL 合成回路15,
ゲート回路16,積分回路17および増幅回路18が設けられ
ている。増幅回路18の出力信号は切換スイッチ13の第2
の入力端子S2に与えられる。
In order to take out the low frequency component of the video signal representing the image in the photometric area (described later) provided in the photographing area of the CCD 4 for the photometric processing, the Y L synthesizing circuit 15,
A gate circuit 16, an integrating circuit 17, and an amplifying circuit 18 are provided. The output signal of the amplifier circuit 18 is the second signal of the changeover switch 13.
Input terminal S2.

【0028】一方,合焦制御のために,CCD4の撮影
領域内に設けられた測距領域(後述する)内の画像を表
わす映像信号の高周波成分を取出すために,ゲート回路
19,バンド・パス・フィルタ(以下,BPFという)2
0,検波回路21,積分回路22および増幅回路23が設けら
れている。増幅回路23の出力信号は切換スイッチ13の第
3の入力端子S3に与えられる。
On the other hand, for focusing control, in order to extract a high frequency component of a video signal representing an image in a distance measuring area (described later) provided in the photographing area of the CCD 4, a gate circuit is provided.
19, band pass filter (hereinafter referred to as BPF) 2
0, a detection circuit 21, an integration circuit 22, and an amplification circuit 23 are provided. The output signal of the amplifier circuit 23 is given to the third input terminal S3 of the changeover switch 13.

【0029】切換スイッチ13はCPU3によって制御さ
れ,ゲイン・コントロールおよびブランキング回路12,
増幅回路18および増幅回路23の出力信号のいずれか1つ
を選択して出力する。切換スイッチ13の出力信号はA/
D変換器14に与えられ,ディジタル・データに変換され
る。
The changeover switch 13 is controlled by the CPU 3, and has a gain control and blanking circuit 12,
Either one of the output signals of the amplifier circuit 18 and the amplifier circuit 23 is selected and output. The output signal of the changeover switch 13 is A /
It is given to the D converter 14 and converted into digital data.

【0030】本撮影に先だつ測光処理および合焦制御に
おいては切換スイッチ13は入力端子S2またはS3のい
ずれかの入力信号を選択して出力する。後述するよう
に,切換スイッチ13は原則的に入力端子S2とS3との
間で1フィールドごとに切換えられる。1フレームを構
成するAフィールド(第1フィールド)の期間において
は入力端子S2が選択されることにより測光処理が行わ
れ,Bフィールド(第2フィールド)の期間においては
入力端子S3が選択されることにより合焦制御が行なわ
れる。1フレームを構成するAフィールド画像とBフィ
ールド画像とはほぼ同時点の視野像を表わしていると考
えられるので,このようにAフィールドの映像信号を測
光処理のために,Bフィールドの映像信号を合焦処理の
ためにそれぞれ用いることができる。このような測光処
理および合焦制御において,A/D変換器14の出力デー
タはCPU3に取込まれる。
In the photometric processing and focusing control prior to the main photographing, the changeover switch 13 selects and outputs the input signal of either the input terminal S2 or S3. As will be described later, the changeover switch 13 is basically changed over between the input terminals S2 and S3 for each field. The photometry process is performed by selecting the input terminal S2 during the period of the A field (first field) that constitutes one frame, and the input terminal S3 is selected during the period of the B field (second field). Focus control is performed by. Since it is considered that the A field image and the B field image forming one frame represent the field images at almost the same time points, the B field image signal is converted to the A field image signal for photometric processing in this way. Each can be used for focusing processing. In such photometric processing and focusing control, the output data of the A / D converter 14 is taken into the CPU 3.

【0031】測光処理,それに基づく露光制御(絞りや
シャッタの制御),および合焦制御(撮像レンズ24の位
置決め)の後に本撮影が行われる。このとき切換スイッ
チ13は入力端子S1を選択するように切換えられる。本
撮影によりCCD4から得られる映像信号が上述した回
路7,8,9,10,11,12および切換スイッチ13を経て
A/D変換器14に入力し,このA/D変換器14でディジ
タル画像データに変換され,画像データ処理回路(図示
略)でY/C分離,データ圧縮等の加工が加えられたの
ち,メモリ・カード等の記録媒体に記録されることにな
る。
The main photographing is performed after the photometric processing, the exposure control (control of the diaphragm and the shutter) based thereon, and the focusing control (positioning of the image pickup lens 24). At this time, the changeover switch 13 is changed over so as to select the input terminal S1. The video signal obtained from the CCD 4 by the actual photographing is inputted to the A / D converter 14 through the circuits 7, 8, 9, 10, 11, 12 and the changeover switch 13 described above, and the A / D converter 14 produces a digital image. After being converted into data and processed by an image data processing circuit (not shown) such as Y / C separation and data compression, it is recorded on a recording medium such as a memory card.

【0032】本撮影に先だつ測光処理(およびそれに基
づく露光制御)ならびに合焦制御のうち,まず測光処理
について説明する。
Of the photometric processing (and exposure control based on it) prior to the actual photographing and the focusing control, the photometric processing will be described first.

【0033】測光処理は上述のようにYL 合成回路15,
ゲート回路16,積分回路17および増幅回路18を用いて行
われる。YL 合成回路15にはGCA9の出力色信号R,
G,Bが与えられている。
The photometric processing is performed by the Y L combining circuit 15, as described above.
This is performed using the gate circuit 16, the integration circuit 17, and the amplification circuit 18. The Y L synthesizing circuit 15 outputs the output color signal R of the GCA 9,
G and B are given.

【0034】これら回路の具体的な電気的構成の一例が
図3に示されている。CPU3はゲート回路16を制御す
るウインドウ信号WIND1および積分回路17をリセッ
トするリセット信号HLRST1を出力する。これらの
信号WINDおよびHLRSTのタイミングについては
後述する。
An example of a specific electrical configuration of these circuits is shown in FIG. The CPU 3 outputs a window signal WIND1 for controlling the gate circuit 16 and a reset signal HLRST1 for resetting the integration circuit 17. The timing of these signals WIND and HLRST will be described later.

【0035】GCA9から出力される色信号R,Gおよ
びBはYL 合成回路15で加算され,相対的に低周波の輝
度信号YL (以下単に輝度信号YL という)が生成され
る。この輝度信号YL は,所要の水平走査期間において
ウインドウ信号WIND1が与えられている期間ゲート
回路16を通過する。積分回路17はリセット信号HLRS
T1が与えられたときにリセットされ,その後ゲート回
路16から入力する輝度信号YL を積分する。積分回路17
の積分信号は増幅回路18で増幅されたのち,積分回路17
がリセットされる直前に切換スイッチ13を経てA/D変
換器14に入力しこのA/D変換器14によって測光用ディ
ジタル積分データに変換され,CPU3に取込まれる。
積分回路17および増幅回路18の基準分圧V1,V2はこ
れらに適当なオフセットを与えるものである。
The color signals R, G and B output from the GCA 9 are added by the Y L synthesizing circuit 15 to generate a relatively low frequency luminance signal Y L (hereinafter simply referred to as luminance signal Y L ). The luminance signal Y L passes through the gate circuit 16 while the window signal WIND1 is applied during the required horizontal scanning period. The integrator circuit 17 has a reset signal HLRS.
It is reset when T1 is given, and then the luminance signal Y L input from the gate circuit 16 is integrated. Integrator circuit 17
The integrated signal of is amplified by the amplification circuit 18, and then the integration circuit 17
Immediately before being reset, the data is input to the A / D converter 14 via the change-over switch 13, converted into digital integrated data for photometry by the A / D converter 14 and taken into the CPU 3.
The reference voltage divisions V1 and V2 of the integrating circuit 17 and the amplifying circuit 18 give them an appropriate offset.

【0036】この実施例の測光処理においては,視野内
の平均的な明るさを測定するアベレージ測光(以下,A
V測光という)と,視野内の主要被写体の明るさを測定
するスポット測光(以下,SP測光という)とが行われ
る。これは特に,視野内の主要被写体と背景の明るさが
異なり,それに応じた適切な露光条件を設定する必要の
ある場合に有用である。
In the photometric processing of this embodiment, average photometry (hereinafter referred to as A
V metering) and spot metering (hereinafter referred to as SP metering) for measuring the brightness of the main subject in the visual field are performed. This is particularly useful when the brightness of the main subject in the field of view and the brightness of the background are different, and it is necessary to set appropriate exposure conditions in accordance with the brightness.

【0037】また,この実施例では積分回路17による積
分とA/D変換器14によるA/D変換動作および加算処
理とが,水平走査期間ごとに交互に行われる。
Further, in this embodiment, the integration by the integration circuit 17 and the A / D conversion operation and the addition processing by the A / D converter 14 are alternately performed every horizontal scanning period.

【0038】図4はCCD4の撮影領域30内に設定され
たAV測光領域およびSP測光領域を示すものである。
FIG. 4 shows an AV photometric area and an SP photometric area set in the photographing area 30 of the CCD 4.

【0039】AV測光領域は基本的に撮影領域のほぼ全
域にわたって設定される。この実施例ではAV測光領域
は,横方向が水平同期信号HDの立下り(水平走査期間
の開始の時点)から16μsの経過後,40μsの期間に設
定され,縦方向が第35番目の水平走査ラインから第246
番目の水平走査ラインまでの間に設定される。
The AV metering area is basically set over almost the entire shooting area. In this embodiment, the AV photometric area is set for a period of 40 μs after 16 μs has elapsed from the trailing edge of the horizontal synchronizing signal HD (at the start of the horizontal scanning period) in the horizontal direction, and the 35th horizontal scanning in the vertical direction. From line 246
It is set up to the second horizontal scan line.

【0040】SP測光領域は,撮影領域30内の任意位置
に小さな領域として設定される。この実施例ではSP測
光領域は撮影領域30の中央部に設定され,横方向が水平
同期信号HDの立下りから28.5μsの経過後の15μsの
期間に,縦方向が第87番目の水平走査ラインから第194
番目の水平走査ラインまでの間に設定されている。
The SP photometric area is set as a small area at an arbitrary position within the photographing area 30. In this embodiment, the SP metering area is set at the center of the photographing area 30, and the horizontal direction is the 87th horizontal scanning line in the vertical direction during a period of 15 μs after 28.5 μs has elapsed from the fall of the horizontal synchronizing signal HD. From the 194th
It is set up to the second horizontal scan line.

【0041】CPU3に付随するメモリには測光用エリ
アと測距用エリアとが設けられている。測光用エリアに
はAV測光領域データ・エリアとSP測光領域データ・
エリアとがある。
The memory associated with the CPU 3 is provided with a photometry area and a distance measurement area. AV metering area data area and SP metering area data
There is an area.

【0042】AV測光領域が垂直走査方向においてSP
測光領域と重ならない範囲においては,AV測光領域に
おける1水平走査ライン置きの積分が行なわれる。垂直
走査方向においてAV測光領域とSP測光領域とが重な
っている範囲においては,AV測光領域のための水平走
査ラインにそう積分とSP測光領域のための水平走査ラ
インにそう積分とが交互に行なわれる。A/D変換,積
分回路のリセット積分,データの加算処理のために上記
の積分は1水平走査ライン置きに行なわれる。
The AV photometric area is SP in the vertical scanning direction.
In the range not overlapping the photometric area, integration is performed every other horizontal scanning line in the AV photometric area. In the range where the AV photometric area and the SP photometric area overlap in the vertical scanning direction, the integration is performed alternately on the horizontal scanning line for the AV photometric area and the integration on the horizontal scanning line for the SP photometric area. Be done. The above integration is performed every other horizontal scanning line for A / D conversion, reset integration of the integration circuit, and data addition processing.

【0043】図5に示されるように,第34番目の水平走
査ラインから第86番目の水平走査ラインまでの間では,
ゲート回路16に,水平同期信号HDの立下りから16μs
後にパルス幅40μsのウインドウ信号WIND1が与え
られる。そして,積分回路17による輝度信号YL の積分
と,この積分動作が行なわれた水平走査期間の次の水平
走査期間における積分信号のA/D変換,積分回路17の
リセットおよびメモリのAV測光領域データ・エリアへ
の積分データの加算とが,水平走査期間毎に交互に繰返
して行なわれる(AV測光領域の測光)。
As shown in FIG. 5, between the 34th horizontal scan line and the 86th horizontal scan line,
16 μs from the falling edge of the horizontal sync signal HD to the gate circuit 16
After that, a window signal WIND1 having a pulse width of 40 μs is applied. Then, the integration circuit 17 integrates the luminance signal Y L , A / D-converts the integration signal in the horizontal scanning period subsequent to the horizontal scanning period in which this integration operation is performed, resets the integration circuit 17, and sets the AV photometric area of the memory. The addition of the integral data to the data area is alternately repeated every horizontal scanning period (photometry in the AV photometry area).

【0044】第87番目の水平走査ラインから第194 番目
の水平走査ラインまでの間では,ゲート回路16に,水平
同期信号HDの立下りから28.5μs後に立上るパルス幅
15μsのウインドウ信号WIND1と,水平同期信号H
Dの立下りから16μs後に立上るパルス幅40μsのウイ
ンドウ信号WIND1とが交互に与えられる。
Between the 87th horizontal scanning line and the 194th horizontal scanning line, the gate circuit 16 has a pulse width rising 28.5 μs after the falling edge of the horizontal synchronizing signal HD.
Window signal WIND1 of 15 μs and horizontal sync signal H
A window signal WIND1 having a pulse width of 40 μs, which rises 16 μs after the fall of D, is alternately applied.

【0045】パルス幅15μsのウインドウ信号WIND
1が積分回路17に与えられ輝度信号YL の積分が行なわ
れたときには,積分動作が行なわれた水平走査期間の次
の水平走査期間において積分信号のA/D変換,積分回
路17のリセット,メモリのSP測光領域データ・エリア
への積分データの加算が行なわれる(SP測光領域の測
光)。また,パルス幅40μsのウインドウ信号WIND
1が積分回路17に与えられ輝度信号YL の積分が行なわ
れたときには,積分動作が行なわれた水平走査期間の次
の水平走査期間において積分信号のA/D変換,積分回
路17のリセット,メモリのAV測光領域データ・エリア
への積分データの加算が行なわれる(AV測光領域の測
光)。
Window signal WIND with a pulse width of 15 μs
When 1 is given to the integration circuit 17 to integrate the luminance signal Y L , A / D conversion of the integration signal, reset of the integration circuit 17 in the horizontal scanning period subsequent to the horizontal scanning period in which the integration operation is performed, The integrated data is added to the SP photometric area data area of the memory (photometry of the SP photometric area). In addition, a window signal WIND with a pulse width of 40 μs
When 1 is given to the integration circuit 17 to integrate the luminance signal Y L , A / D conversion of the integration signal, reset of the integration circuit 17 in the horizontal scanning period subsequent to the horizontal scanning period in which the integration operation is performed, Integration data is added to the AV photometry area data area of the memory (photometry of the AV photometry area).

【0046】第195 番目の水平走査ラインから第246 番
目の水平走査ラインまでの間では,上述した第34番目の
水平走査ラインから第86番目の水平走査ラインまでの間
と同様に,パルス幅40μsのウインドウ信号WIND1
に基づく輝度信号YL の積分とこの積分で得られた積分
データの処理とが水平走査期間毎に交互に繰返し行われ
る(AV測光領域の測光)。
Between the 195th horizontal scanning line and the 246th horizontal scanning line, the pulse width of 40 μs is the same as the above-mentioned 34th horizontal scanning line to the 86th horizontal scanning line. Window signal WIND1
The integration of the luminance signal Y L and the processing of the integrated data obtained by this integration are alternately repeated every horizontal scanning period (photometry in the AV photometry area).

【0047】CPU3は,パルス幅40μsのウインドウ
信号WIND1に基づいて得られる1水平走査ラインに
ついての積分データを後述する手順によって1フィール
ド期間にわたってAV測光領域データ・エリアにおいて
加算して,AV測光値EVAVを算定する。
The CPU 3 adds the integrated data for one horizontal scanning line obtained on the basis of the window signal WIND1 having a pulse width of 40 μs in the AV metering area data area for one field period by the procedure described later to obtain the AV metering value EV. Calculate AV .

【0048】さらに,CPU3は上記AV測光値EVAV
の算定とは別個に,パルス幅15μsのウインドウ信号W
IND1に基づいて得られる1水平走査ラインについて
の積分データを後述する手順によって1フィールド期間
にわたってSP測光領域データ・エリアにおいて加算し
て,SP測光値EVSPを算定する。
Further, the CPU 3 uses the AV photometric value EV AV
Window signal W with a pulse width of 15 μs
The integrated data for one horizontal scanning line obtained based on IND1 is added in the SP metering area data area over one field period by the procedure described later to calculate the SP metering value EV SP .

【0049】図6はCPU3が行うAV測光処理および
SP測光処理の全体的な動作を示すものである。
FIG. 6 shows the overall operation of the AV photometry processing and SP photometry processing performed by the CPU 3.

【0050】CPU3は測光処理を開始するにあたっ
て,上述したように測光センサ26から得られる測光デー
タに基づいて露光条件の初期設定を行い,この初期露光
条件が実現されるようにアイリスおよび電子シャッタの
少なくともいずれか一方を制御する(ステップ50)。予
備測光を行わずに,初期露光条件として統計的に最もあ
りうる露光条件,たとえば露光量Ev=10(絞りF4,
シャッタ速度1/60秒,または絞りF2.8 ,シャッタ速
度1/125 秒)を設定するようにしてもよい。
When starting the photometric processing, the CPU 3 initializes the exposure condition based on the photometric data obtained from the photometric sensor 26 as described above, and sets the iris and the electronic shutter so that the initial exposure condition is realized. At least one of them is controlled (step 50). An exposure condition that is statistically most likely as an initial exposure condition, for example, exposure amount Ev = 10 (aperture F4, without preliminary photometry)
The shutter speed may be 1/60 seconds, or the aperture may be F2.8 and the shutter speed may be 1/125 seconds.

【0051】AV測光領域内の水平走査期間になると
(ステップ51),AV測光領域のためのウインドウ信号
WIND1を出力してそのパルス幅の間,積分回路17に
積分動作を行わせる(ステップ52)。このウインドウ信
号WIND1が立下ったのち,A/D変換器14を駆動し
て積分回路17の積分信号のA/D変換を行わせて,積分
データを得る。
In the horizontal scanning period within the AV photometric area (step 51), the window signal WIND1 for the AV photometric area is output and the integrating circuit 17 is caused to perform an integrating operation during the pulse width (step 52). . After the window signal WIND1 falls, the A / D converter 14 is driven to perform A / D conversion of the integrated signal of the integrating circuit 17 to obtain integrated data.

【0052】次に,得られた積分データがあらかじめ定
められた所定の範囲内にあるかどうかを判断する(ステ
ップ53)。これは,得られた積分データを1水平ライン
分の測光値として使用できるかどうかを判定することで
ある。測光の対象となった水平走査ラインにそう部分に
おいて輝度信号YL が飽和しているような場合には,そ
の積分データは測光値として使用するには適当ではな
い。この所定の範囲の上限値は,CCD4のダイナミッ
ク・レンジ,GCA9や増幅回路18のゲイン等を考慮し
て,飽和している輝度信号YL に基づく積分データを排
除できる程度に定められる。一方,測光の対象となった
水平走査ラインにそう部分がきわめて暗く,輝度信号Y
L は殆どノイズ成分によるものであるような場合にもそ
の積分データを測光値として用いるのは適切ではない。
そこで,ノイズ成分が支配的となっている積分データを
排除するレベルに上記所定範囲の下限値が定められる。
Next, it is judged whether or not the obtained integrated data is within a predetermined range (step 53). This is to determine whether the obtained integrated data can be used as a photometric value for one horizontal line. When the luminance signal Y L is saturated in the portion of the horizontal scanning line which is the object of photometry, the integrated data is not suitable for use as a photometric value. The upper limit of this predetermined range is determined in consideration of the dynamic range of the CCD 4, the gain of the GCA 9 and the amplifier circuit 18, and the like so that the integrated data based on the saturated luminance signal Y L can be excluded. On the other hand, the portion of the horizontal scanning line that is the object of photometry is extremely dark, and the luminance signal Y
Even when L is almost due to a noise component, it is not appropriate to use the integrated data as a photometric value.
Therefore, the lower limit value of the above-mentioned predetermined range is set to the level at which the integrated data in which the noise component is dominant is excluded.

【0053】得られた積分データが所定の範囲内の値で
ある場合には,その積分データをメモリのAV測光領域
データ・エリアの値に加算して(ステップ54),まだ測
光領域内であれば(ステップ55)ステップ52に戻る。積
分データが所定の範囲外の場合には,ライン数カウンタ
を1インクレメントし(ステップ57),積分データの加
算処理は行わない。すなわちその積分データは測光値と
して使用しない。ライン数カウンタは,積分データが所
定範囲外にある水平ライン数を計数するものである。こ
のライン数カウンタの値が所定値以内であれば(ステッ
プ58),ステップ55を経てステップ52に戻る。
If the obtained integrated data has a value within a predetermined range, the integrated data is added to the value of the AV photometry area data area of the memory (step 54), and if it is still within the photometry area. (Step 55) Return to Step 52. If the integrated data is out of the predetermined range, the line number counter is incremented by 1 (step 57) and the addition process of the integrated data is not performed. That is, the integrated data is not used as a photometric value. The line number counter counts the number of horizontal lines whose integrated data is outside a predetermined range. If the value of the line number counter is within the predetermined value (step 58), the process returns to step 52 through step 55.

【0054】AV測光領域のうち垂直方向においてSP
測光領域と重なっていない部分については,上述の動作
を,2水平走査期間を1周期として繰返す。得られた積
分データはAV測光領域データ・エリアに加算される。
SP in the vertical direction of the AV photometric area
For the portion that does not overlap the photometric area, the above operation is repeated with two horizontal scanning periods as one cycle. The obtained integrated data is added to the AV photometric area data area.

【0055】垂直方向においてAV測光領域とSP測光
領域とが重なっている部分においては,AV測光のため
のウインドウ信号WIND1とSP測光のためのウイン
ドウ信号WIND1とが交互に出力され,同じように輝
度信号YL の積分,積分信号のA/D変換,積分データ
が所定範囲内にあるかどうかのチェックが行われる。A
V測光のためのウインドウ信号WIND1のパルス幅に
わたる積分によって得られた積分データはAV測光領域
データ・エリアに加算され,SP測光のためのウインド
ウ信号WIND1のパルス幅にわたる積分によって得ら
れた積分データはSP測光領域データ・エリアに加算さ
れる。ステップ53の判定においてNOと判定されたライ
ンの数を計数するライン数カウンタもAV測光領域とS
P測光領域に対してそれぞれ設けられており,NOと判
定されたラインの数が両測光領域で別個に計数される。
ステップ58における判断のための所定のライン数もAV
測光領域とSP測光領域とについて異なる値を設定して
おいてもよい。
In the portion where the AV photometric area and the SP photometric area overlap in the vertical direction, the window signal WIND1 for AV photometry and the window signal WIND1 for SP photometry are alternately output, and the same luminance is obtained. Integration of the signal Y L , A / D conversion of the integrated signal, and checking whether the integrated data is within a predetermined range are performed. A
The integrated data obtained by integration over the pulse width of the window signal WIND1 for V photometry is added to the AV photometric area data area, and the integrated data obtained by integration over the pulse width of the window signal WIND1 for SP photometry is It is added to the SP photometric area data area. The line number counter that counts the number of lines determined to be NO in the determination in step 53 also has an AV metering area and S
The number of lines, which are provided for the P photometry areas and are determined to be NO, are separately counted in both photometry areas.
The predetermined number of lines for the judgment in step 58 is also AV.
Different values may be set for the photometric area and the SP photometric area.

【0056】AV測光領域の範囲外に出ると(ステップ
55),それまでに得られたAV測光領域およびSP測光
領域における積分データの各加算値をそれぞれ用いて,
AV測光領域のAV測光値EVAVおよびSP測光領域の
SP測光値EVSPがそれぞれ算出される(ステップ5
6)。AV測光値EVAVおよびSP測光値EVSPの演算
は,各測光領域において積分データの加算値を,積分デ
ータとして加算されたライン数で除すことにより,一水
平走査線当りの積分値の平均値を求める演算,および平
均値に適当な定数を乗ずる演算を含む。積分データとし
て加算されたライン数は,各測光領域内の水平走査ライ
ンの半数から対応するライン数カウンタの値を減算する
ことにより求められる。
When it goes out of the range of the AV metering area (step
55), using the respective added values of the integrated data in the AV and SP photometric areas obtained up to that time,
The AV metering value EV AV in the AV metering area and the SP metering value EV SP in the SP metering area are calculated (step 5).
6). The AV photometric value EV AV and SP photometric value EV SP are calculated by dividing the added value of the integrated data in each photometric area by the number of lines added as the integrated data, and averaging the integrated values per horizontal scanning line. Includes calculations for finding values and calculations for multiplying the average value by an appropriate constant. The number of lines added as the integrated data can be obtained by subtracting the value of the corresponding line number counter from half of the horizontal scanning lines in each photometric area.

【0057】CPU3は,得られた測光値EVAVおよび
EVSPに基づいて,絞り,シャッタ速度,ストロボ発光
の有無等の露光条件を決定する。
The CPU 3 determines the exposure conditions such as the aperture, the shutter speed, and the presence / absence of stroboscopic light emission based on the obtained photometric values EV AV and EV SP .

【0058】また,CPU3は,積分データが所定範囲
外にある水平ライン数を計数するライン数カウンタの値
が所定数を越えた場合には(ステップ58),露光条件を
変更(ステップ59)して,メモリの測光用エリアをクリ
アした後に,次のフレームの開始の時点においてステッ
プ51からの測光処理を繰返す。ステップ58の判断は,A
V測光領域についてのみ行ってもよいし,AV測光領域
およびSP測光領域の両方についてそれぞれ行ってもよ
い。
Further, when the value of the line number counter for counting the number of horizontal lines whose integrated data is outside the predetermined range exceeds the predetermined number (step 58), the CPU 3 changes the exposure condition (step 59). After clearing the photometric area of the memory, the photometric process from step 51 is repeated at the time of starting the next frame. The judgment in step 58 is A
It may be performed only for the V photometry area, or may be performed for both the AV photometry area and the SP photometry area.

【0059】露光条件の変更にさいしては,各水平ライ
ンにそう積分データの多くが上記所定範囲を越えている
場合には,露光量を初期設定露光量よりも少くし,逆の
場合には露光量を多くするというように露光量を1段階
(たとえば±2Ev)ずつ変更するとよい。初期露光量
が視野の実際の明るさとそれほどかけ離れていない場合
には(上述のように予備測光している場合には特に),
図6に示す測光処理を1〜2回(1フレーム〜2フレー
ム期間)繰返すことにより,適切な露光量が求まるであ
ろう。
When changing the exposure conditions, if most of the integrated data for each horizontal line exceeds the above-mentioned predetermined range, the exposure amount is made smaller than the initially set exposure amount, and in the opposite case. It is advisable to change the exposure amount by one step (for example, ± 2 Ev) such that the exposure amount is increased. If the initial exposure is not too far from the actual brightness of the field of view (especially when pre-metering as described above),
An appropriate exposure amount may be obtained by repeating the photometric processing shown in FIG. 6 once or twice (one frame to two frame periods).

【0060】いずれにしても,適切な測光値が得られた
かどうかの判定処理に関しては,図15の説明において再
び触れることになる。
In any case, the process of determining whether or not an appropriate photometric value has been obtained will be touched upon again in the explanation of FIG.

【0061】図7は,上記測光処理によって得られたA
V測光値EVAVとSP測光値EVSPに基づいて,露光条
件を設定するためにCPU3が行なう処理手順を示すフ
ローチャートである。
FIG. 7 shows A obtained by the above photometric processing.
6 is a flowchart showing a processing procedure performed by a CPU 3 for setting an exposure condition based on a V photometry value EV AV and an SP photometry value EV SP .

【0062】CPU3は,SP測光値EVSPとAV測光
値EVAVの差ΔEV=EVSP−EVAVをとり(ステップ
60),次に,この測光値の差ΔEVが零以上であるか,
零と−0.5 EVの間にあるか,−0.5 EVと−2EVの
間にあるか,または−2EV以下であるかの判定を行な
う(ステップ61,63)。
The CPU 3 obtains a difference ΔEV = EV SP −EV AV between the SP photometric value EV SP and the AV photometric value EV AV (step
60), next, whether the difference ΔEV of the photometric value is zero or more,
It is determined whether it is between zero and -0.5 EV, between -0.5 EV and -2 EV, or below -2 EV (steps 61 and 63).

【0063】測光値の差ΔEVが0≦ΔEVであると判
定された場合,すなわち中央部の主被写体が明るく背景
が暗いと判定された場合には,CPU3はSP測光値E
SPに基づいて露光条件の設定を行なう(ステップ6
2)。AV測光値EVAVに基づいて露光条件を設定する
と主要被写体が暗く撮影されてしまうからであり,撮影
者が最も撮影したいと考える主要被写体が適正露光され
ることが最善であるからである。
When it is determined that the difference ΔEV in the photometric values is 0 ≦ ΔEV, that is, when the main subject in the central portion is bright and the background is dark, the CPU 3 determines the SP photometric value E.
Exposure conditions are set based on V SP (step 6).
2). This is because if the exposure condition is set based on the AV photometric value EV AV , the main subject will be photographed darkly, and it is best to properly expose the main subject that the photographer wants to photograph most.

【0064】−0.5 EV≦ΔEV<0であると判定され
た場合,すなわち主被写体と背景との輝度差が小さいと
判定された場合には,CPU3はAV測光値EVAVに基
づいて露光条件の設定を行なう(ステップ64)。AV測
光値EVAVに基づいて露光条件を定めれば,主要被写体
と背景がともに適正露光されると考えてよいからであ
る。−2EV<ΔEV<−0.5 EVと判定された場合,
すなわち背景の方が明るくかつ主要被写体と背景との輝
度差が比較的大きいと判定された場合には,CPU3は
EVAV−1EVの値に基づいて露光条件の設定を行なう
(ステップ65)。すなわち,この場合には背景が明るい
ので背景がやや暗くなるように露光補正(逆光補正)を
することになる。
When it is determined that -0.5 EV≤ΔEV <0, that is, when the luminance difference between the main subject and the background is small, the CPU 3 sets the exposure condition based on the AV photometric value EV AV . Make settings (step 64). This is because if the exposure condition is set based on the AV photometric value EV AV , it can be considered that both the main subject and the background are properly exposed. If -2EV <ΔEV <-0.5 EV is determined,
That is, when it is determined that the background is brighter and the brightness difference between the main subject and the background is relatively large, the CPU 3 sets the exposure condition based on the value of EV AV -1EV (step 65). That is, in this case, since the background is bright, exposure correction (backlight correction) is performed so that the background becomes slightly dark.

【0065】ΔEV≦−2EVと判定された場合,すな
わち主要被写体が背景よりも暗くしかもその輝度差が非
常に大きいと判定された場合には,ストロボを発光をし
て主要被写体を明るくする必要があるので,CPU3は
日中シンクロ撮影を行なう。すなわち,ストロボ発光の
準備とストロボ発光時の露光条件を設定する(ステップ
66)。この場合は,前述したような逆光補正によっても
主要被写体を適正露光させることができずストロボ発光
による補正が適切と判断されるためである。
When it is determined that ΔEV ≦ −2EV, that is, when the main subject is darker than the background and the difference in luminance is extremely large, it is necessary to make the main subject bright by emitting a strobe light. Therefore, the CPU 3 performs daytime synchronized photography. That is, the preparation for strobe emission and the exposure conditions for strobe emission are set (step
66). In this case, the main subject cannot be properly exposed even by the backlight correction as described above, and it is determined that the correction by the stroboscopic light emission is appropriate.

【0066】次に合焦制御について説明する。Next, focusing control will be described.

【0067】再び図1を参照して,ゲイン・コントロー
ルおよびブランキング回路12の出力信号はゲート回路19
に入力する。ゲート回路19はCPU3から与えられるウ
インドウ信号WIND2によって制御される。ゲイン・
コントロールおよびブランキング回路12の出力信号は所
要の水平走査期間においてウインドウ信号WIND2が
与えられている期間,ゲート回路19を通過してBPF20
に入力する。
Referring again to FIG. 1, the output signal of the gain control and blanking circuit 12 is the gate circuit 19
To enter. The gate circuit 19 is controlled by the window signal WIND2 given from the CPU3. gain·
The output signal of the control and blanking circuit 12 passes through the gate circuit 19 and BPF20 during the period in which the window signal WIND2 is given in the required horizontal scanning period.
To enter.

【0068】BPF20は,その入力信号から合焦制御に
必要な高周波成分を取出すものであり,BPF20の出力
信号は検波回路21に入力する。このBPF20から出力さ
れる高周波成分信号は検波回路21によって検波され,積
分回路22において積分され,さらに増幅回路23によって
増幅された後,切換スイッチ13が入力端子S3を選択し
ているときにA/D変換器14に入力し,そのA/D変換
器14で合焦制御用ディジタル・データに変換されて,C
PU3に取込まれる。
The BPF 20 extracts a high frequency component required for focusing control from the input signal, and the output signal of the BPF 20 is input to the detection circuit 21. The high frequency component signal output from the BPF 20 is detected by the detection circuit 21, integrated by the integration circuit 22, and further amplified by the amplification circuit 23. Then, when the changeover switch 13 selects the input terminal S3, A / The data is input to the D converter 14, converted into digital data for focusing control by the A / D converter 14, and then converted into C
Captured by PU3.

【0069】A/D変換器14から与えられたディジタル
・データは,撮影領域内に設定された後述する測距領域
の水平走査期間にわたる積分により得られる積分データ
であり,CPU3はこの積分データを測距領域の垂直走
査期間にわたって加算して,測距用データを算定し,こ
のデータに基づいて合焦制御を行う。詳細については後
述する。
The digital data supplied from the A / D converter 14 is integral data obtained by integration over a horizontal scanning period of a range-finding area, which will be described later, set in the photographing area, and the CPU 3 converts this integrated data. The data for distance measurement is calculated by adding up over the vertical scanning period of the distance measurement area, and focusing control is performed based on this data. Details will be described later.

【0070】一般に焦点が合っていず画像がぼけている
場合には撮影によりCCDから得られる映像信号に含ま
れる高周波成分は少ない。焦点が合ってくると映像信号
の高周波成分が多くなり,正しく合焦した位置で映像信
号に含まれる高周波成分は最大となる。この実施例では
このような事実に基づいて合焦制御を行っており,BP
F20には映像信号の高周波成分を取出すために約1.5 〜
2.5 MHzの通過帯域が設定されている。
Generally, when the image is out of focus and out of focus, the high frequency component contained in the image signal obtained from the CCD by photographing is small. When the image comes into focus, the high-frequency component of the video signal increases, and the high-frequency component contained in the video signal becomes maximum at the correctly focused position. In this embodiment, focusing control is performed based on such a fact, and the BP
F20 has about 1.5 to extract high frequency component of video signal.
A pass band of 2.5 MHz is set.

【0071】一方,CCD4に設けられた色フィルタ
は,この実施例では図8に示すように,水平方向にGR
GBの繰返しで配列されている。CCD4の読出しクロ
ック周波数を13.5MHzとすると,緑色(G)のフィル
タが設けられた受光素子(フォトダイオード)から得ら
れる映像信号には6.8 MHzの繰返し周波数成分が,赤
色(R)および青色(B)については3.4 MHzの繰返
し周波数成分が含まれることになる。
On the other hand, the color filter provided in the CCD 4 is GR in the horizontal direction in this embodiment, as shown in FIG.
It is arranged in GB repeats. Assuming that the read clock frequency of the CCD 4 is 13.5 MHz, the repetitive frequency components of 6.8 MHz are red (R) and blue (B) in the video signal obtained from the light receiving element (photodiode) provided with the green (G) filter. ), The repetition frequency component of 3.4 MHz is included.

【0072】ゲート回路19を通ってBPF20に入力する
映像信号は,クランプおよびリサンプリング回路11にお
いて図8に示す色フィルタ配列に変換された色信号成分
から構成されるものであるから,この映像信号中には,
被写体像を表わす周波数成分に加えて,上述した色フィ
ルタ配列に起因する繰返し周波数成分(3.4 MHzおよ
び6.8 MHz)が含まれている。
Since the video signal input to the BPF 20 through the gate circuit 19 is composed of the color signal components converted into the color filter array shown in FIG. 8 in the clamp and resampling circuit 11, this video signal Some of the
In addition to the frequency components representing the subject image, the repetitive frequency components (3.4 MHz and 6.8 MHz) due to the color filter array described above are included.

【0073】色フィルタ配列に起因する繰返し周波数成
分は,R,G,Bの各色フィルタ間における光透過率の
相違,すなわち色フィルタによる感度比の相違,および
ホワイト・バランスがくずれていることに依存して増減
する。たとえば,各色フィルタの光透過率がすべて同じ
値でかつ完全にホワイト・バランスがとれていたと仮定
し,真白の被写体を撮影したとすると,色フィルタ配列
に起因する繰返し周波数成分は殆ど無くなるであろう。
The repetitive frequency component due to the color filter array depends on the difference in the light transmittance between the R, G, and B color filters, that is, the difference in the sensitivity ratio between the color filters, and the impaired white balance. And increase or decrease. For example, assuming that the light transmittances of the color filters are all the same and the white balance is perfectly balanced, if a pure white object is photographed, the repetitive frequency component due to the color filter array will be almost eliminated. .

【0074】GCA9は,色フィルタ配列に起因する繰
返し周波数成分をできるだけ除去するために,色フィル
タの光透過率の相違に基づく映像信号のレベルの変動を
補正する,およびホワイト・バランスを調整するための
ものである。
The GCA 9 corrects the fluctuations in the level of the video signal due to the difference in the light transmittance of the color filters and adjusts the white balance in order to remove the repetitive frequency components due to the color filter array as much as possible. belongs to.

【0075】すなわち,再び図2を参照して,色フィル
タ感度比補正を行うときにはホワイト・バランス調整用
の増幅器92r,92g,92bのゲインGr2,Gg2,Gb2
適当な所定のゲイン(たとえばセンタ・ゲイン程度)に
設定しておき,かつ増幅器91gのゲインGg1を固定して
おき,ある色温度(通常5500K程度)におけるG信号に
対する他の色信号R,Bのレベルを,増幅器91r,91b
のゲインGr1,Gb1を変えることにより調整する。一旦
調整したのちはこれらのゲインGr1,Gg1,Gb1は固定
しておく。ホワイト・バランス調整はよく知られている
ように色センサの検出信号に基づいて少くとも増幅器92
r,92bのゲインGr2,Gb2を制御することにより行わ
れる。これは,色温度が高くなるとゲインGr2を高く,
ゲインGb2を低くし,色温度が低くなるとゲインGr2
低く,ゲインGb2を高くすることにより行われる。G信
号の増幅器91g,92gのゲインGg1,Gg2は固定してお
いてもよい。
That is, referring again to FIG. 2, when the color filter sensitivity ratio correction is performed, the gains G r2 , G g2 , and G b2 of the white balance adjustment amplifiers 92r, 92g, and 92b are set to appropriate predetermined gains ( For example, the gain G g1 of the amplifier 91g is fixed, and the levels of the other color signals R and B with respect to the G signal at a certain color temperature (usually about 5500K) are set to the amplifier 91r. , 91b
Adjustment is performed by changing the gains G r1 and G b1 of. Once adjusted, these gains G r1 , G g1 and G b1 are fixed. The white balance adjustment is based on the detection signal of the color sensor as is well known.
This is performed by controlling the gains G r2 and G b2 of r and 92b. This is because the gain G r2 increases as the color temperature increases,
This is performed by lowering the gain G b2 and lowering the gain G r2 and increasing the gain G b2 when the color temperature becomes lower. The gains G g1 and G g2 of the G signal amplifiers 91g and 92g may be fixed.

【0076】図9および図10は,BPF20の通過帯域,
ならびにGの色フィルタ配列に起因する繰返し周波数成
分(中心周波数fG =6.8 MHz),RまたはBの色フ
ィルタ配列に起因する繰返し周波数成分(中心周波数f
R/B =3.4 MHz)および被写体像を表わす映像信号の
輝度信号のスペクトルを示すものである。
FIGS. 9 and 10 show the pass band of the BPF 20,
And the repetition frequency component (center frequency f G = 6.8 MHz) resulting from the G color filter array, and the repetition frequency component resulting from the R or B color filter array (center frequency f
(R / B = 3.4 MHz) and the luminance signal spectrum of the video signal representing the subject image.

【0077】図9は,色フィルタ感度比補正およびホワ
イト・バランス調整のいずれもが行われていない場合を
示している。色フィルタ配列,とくにRおよびBの色フ
ィルタ配列に起因する繰返し周波数成分の一部(ハッチ
ングで示す)がBPF20の通過帯域内に入り込んでい
る。したがって,この場合にはBPF20を通過した映像
信号には色フィルタ配列に起因する繰返し周波数成分が
かなり含まれてしまうことになる。
FIG. 9 shows a case where neither the color filter sensitivity ratio correction nor the white balance adjustment is performed. A part (represented by hatching) of the repetitive frequency components due to the color filter array, particularly the R and B color filter arrays, enters the pass band of the BPF 20. Therefore, in this case, the video signal that has passed through the BPF 20 contains a considerable number of repeating frequency components due to the color filter array.

【0078】図10は色フィルタ感度比補正およびホワイ
ト・バランス調整の両方を行った場合を示している。B
PF20の通過帯域内に入り込んでいる色フィルタに起因
する繰返し周波数成分はかなり少なくなっている。した
がって,この場合にはBPF20を通過した映像信号の殆
どは被写体像を表わすものと考えてよい。色フィルタ配
列に起因する繰返し周波数成分に妨害されない良好な合
焦処理が期待できることになる。
FIG. 10 shows a case where both the color filter sensitivity ratio correction and the white balance adjustment are performed. B
The repetitive frequency component due to the color filter entering the pass band of PF20 is considerably reduced. Therefore, in this case, it can be considered that most of the video signals that have passed through the BPF 20 represent a subject image. It is possible to expect good focusing processing that is not disturbed by the repetitive frequency components due to the color filter array.

【0079】GCA9の最低限の機能は,色フィルタ感
度比補正をすることであり,これによって色フィルタ配
列に起因する繰返し周波数成分による妨害がかなり少な
くなる。好ましくはGCA9は色フィルタ感度比補正と
ホワイト・バランス補正の両方を達成する。これによっ
て一層適切な合焦制御が保証される。
The minimum function of the GCA 9 is to correct the color filter sensitivity ratio, which considerably reduces the interference by the repetitive frequency components due to the color filter array. Preferably GCA 9 achieves both color filter sensitivity ratio correction and white balance correction. This ensures a better focus control.

【0080】図11は,CCDの撮影領域30内に設定され
た測距領域を示すものである。この測距領域は,主要被
写体が存在する確率の高い撮影領域30の中央部に設定さ
れる。この実施例では,水平方向については図4に示さ
れるSP測光領域よりも小さな領域として設定されてい
る。もちろん,測距領域を撮影領域30内の任意の場所に
任意の広さに設定可能であるのはいうまでもない。
FIG. 11 shows a distance measuring area set in the photographing area 30 of the CCD. This distance measuring area is set at the center of the photographing area 30 where the main subject is highly likely to exist. In this embodiment, the horizontal direction is set as an area smaller than the SP photometric area shown in FIG. Of course, it is needless to say that the distance measuring area can be set to any location within the photographing area 30 and to any width.

【0081】図12に示されるように,Bフィールド期間
において,第87番目の水平同期信号HDの立下りから31
μs経過した後に10μsパルス幅のウインドウ信号WI
ND2がゲート回路19に与えられ,前述したように,こ
のウインドウ信号WIND2が与えられている間,ゲー
ト回路19は回路12の出力信号を通過させる。BPF20で
取出された高周波成分信号は検波回路21を経て積分回路
22に与えられ,積分される。積分回路22の積分出力信号
は増幅回路23および切換スイッチ13を経て,次の水平走
査期間においてA/D変換器14によりディジタル・デー
タに変換されてCPU3に与えられる。積分回路22はA
/D変換処理ののちリセット信号HLRST2によりリ
セットされる。CPU3は,このディジタル・データを
メモリの測距用エリアの先のデータ(第1番目の場合に
はクリアされているので零である)に加算して記憶す
る。測距用エリアは第86番目の水平同期信号HDに同期
してまたはBフィールドの開始にあたってクリアされて
いる。
As shown in FIG. 12, in the B field period, 31 from the falling edge of the 87th horizontal synchronizing signal HD.
Window signal WI with a pulse width of 10 μs after μs has elapsed
ND2 is applied to the gate circuit 19, and as described above, the gate circuit 19 allows the output signal of the circuit 12 to pass while the window signal WIND2 is applied. The high frequency component signal extracted by the BPF 20 passes through the detection circuit 21 and the integration circuit.
It is given to 22 and integrated. The integrated output signal of the integrating circuit 22 is passed through the amplifying circuit 23 and the change-over switch 13, converted into digital data by the A / D converter 14 in the next horizontal scanning period, and given to the CPU 3. The integrating circuit 22 is A
It is reset by the reset signal HLRST2 after the / D conversion process. The CPU 3 stores this digital data by adding it to the previous data in the distance measuring area of the memory (which is zero because it has been cleared in the first case). The distance measuring area is cleared in synchronization with the 86th horizontal synchronizing signal HD or at the start of the B field.

【0082】以上のようにして,測距領域内における1
本の水平走査ラインにそうBPF20による高周波成分信
号の検出,この高周波成分信号の検波および積分と,積
分信号のA/D変換および水平走査期間における積分デ
ータの加算とが水平走査期間毎に交互に繰返して行われ
る。そして,この繰返しは,第194 番目の水平走査期間
まで,すなわち測距領域内の全域にわたって行われる。
As described above, 1 within the distance measuring area
The detection of the high frequency component signal by the BPF 20, the detection and integration of the high frequency component signal, the A / D conversion of the integrated signal, and the addition of the integrated data in the horizontal scanning period are alternately performed for each horizontal scanning period on the horizontal scanning line of the book. It is repeated. Then, this repetition is performed until the 194th horizontal scanning period, that is, over the entire range-finding area.

【0083】したがって,測距領域内における走査が終
了した時点においてはメモリの測距用エリアには,BP
F20を通過した高周波信号の測距領域全域にわたる積分
値を表わす測距用加算データがストアされていることに
なる。
Therefore, at the time when the scanning within the distance measuring area is completed, the BP is set in the distance measuring area of the memory.
The addition data for distance measurement representing the integrated value of the high-frequency signal that has passed through F20 over the entire distance measurement area is stored.

【0084】上述したように測距センサ27を用いた予備
測距において被写体までのおおよその距離が測定されて
いる。この予備測距データに基づいて撮像レンズ24は合
焦位置と考えられる少し手前の位置(初期位置という)
まで繰出される。
As described above, in the preliminary distance measurement using the distance measuring sensor 27, the approximate distance to the subject is measured. Based on this preliminary distance measurement data, the image pickup lens 24 is considered to be the in-focus position, which is a little before this position (called the initial position)
Is delivered to.

【0085】CCD4から出力される映像信号の高周波
成分の測距領域にわたる積分動作は,撮像レンズ24を10
μmずつ前方に繰出しながら,少なくとも6回(すなわ
ち6フレーム期間にわたって各フレーム期間のBフィー
ルド期間において)行われる。上記の初期位置(撮像レ
ンズ24の繰出し量=0μm)においてまず第1の測距用
加算データが得られる。次のフレーム期間において,初
期位置から撮像レンズ24を10μm繰出した位置(撮像レ
ンズ繰出し量=10μm)において第2の測距用加算デー
タが得られる。同様にして撮像レンズ24を10μmずつ繰
出しながら第3〜第6の測距用加算データが得られる。
このようにして得られた6位置の加算データは図13に示
すようにメモリの所定エリアに記憶される。
The integration operation of the high frequency component of the video signal output from the CCD 4 over the distance measuring area is performed by the image pickup lens 24 at 10
It is performed at least 6 times (that is, in the B field period of each frame period over 6 frame periods) while feeding forward by μm. At the above-mentioned initial position (extending amount of the imaging lens 24 = 0 μm), first addition data for distance measurement is obtained. In the next frame period, the second distance measurement addition data is obtained at a position where the imaging lens 24 is extended by 10 μm from the initial position (image pickup lens extension amount = 10 μm). Similarly, the third to sixth distance measurement addition data can be obtained while the imaging lens 24 is extended by 10 μm.
The 6-position addition data thus obtained is stored in a predetermined area of the memory as shown in FIG.

【0086】図14は図13に示す6位置における測距用加
算データをグラフに表わしたものである。撮像レンズ24
の初期位置は真の合焦位置の少し手前である。この位置
から撮像レンズ24が10μmずつ繰出され,各位置で測距
用加算データが得られる。映像信号に含まれる高周波信
号の積分値は真の合焦位置で最大となる。撮像レンズ24
の単位繰出し量は10μmで非常に微小距離であるから,
測距用加算データが最大値を示す位置を真の合焦位置と
みなしても誤差はきわめて小さい。したがって,測距用
加算データが最大値を示す位置に撮像レンズ24が位置決
めされることにより高精度の合焦が達成できる。
FIG. 14 is a graph showing the distance measurement addition data at the six positions shown in FIG. Imaging lens 24
The initial position of is just before the true focus position. The image pickup lens 24 is extended by 10 μm from this position, and the distance measurement addition data is obtained at each position. The integrated value of the high frequency signal included in the video signal becomes maximum at the true focus position. Imaging lens 24
The unit feeding amount of is 10 μm, which is a very small distance.
Even if the position where the addition data for distance measurement shows the maximum value is regarded as the true focus position, the error is extremely small. Therefore, highly accurate focusing can be achieved by positioning the imaging lens 24 at the position where the distance measurement addition data shows the maximum value.

【0087】上述した測光処理と合焦制御のための測距
用加算データ収集処理はフィールド毎に交互に行われ
る。しかしながら,露光条件が設定される前に得られた
測距用加算データは無効化され,露光条件の設定が行わ
れた後に得られる測距用加算データのみが有効とされ
る。これは得られる測距用加算データの値が露光条件に
よって異なるため,露光条件が適切に設定されていない
状態では正確な測距用加算データを得ることができない
ためである。
The above-described photometric processing and distance measurement addition data collection processing for focusing control are alternately performed for each field. However, the distance measurement addition data obtained before the exposure condition is set is invalidated, and only the distance measurement addition data obtained after the exposure condition is set is valid. This is because the value of the additional data for distance measurement that is obtained differs depending on the exposure condition, so that accurate additional data for distance measurement cannot be obtained if the exposure condition is not set appropriately.

【0088】図15は予備測光,予備測距処理ならびにそ
の後に行われる予備撮影に基づく露光制御および合焦制
御の全体的な手順を示すものである。
FIG. 15 shows an overall procedure of preliminary photometry, preliminary distance measurement processing, and exposure control and focusing control based on preliminary photographing performed thereafter.

【0089】CPU3はまず測光センサ26の測光信号に
基づく予備測光および測距センサ26からの測距信号に基
づく予備測距を行う(ステップ70)。予備測光に基づい
て露光条件の初期設定が行われ(ステップ71),予備測
距に基づいて撮像レンズ24が初期位置まで繰出される
(ステップ72)。
The CPU 3 first performs preliminary photometry based on the photometry signal of the photometry sensor 26 and preliminary rangefinding based on the rangefinding signal from the rangefinding sensor 26 (step 70). The exposure conditions are initialized based on the preliminary photometry (step 71), and the imaging lens 24 is extended to the initial position based on the preliminary distance measurement (step 72).

【0090】次に,切換スイッチ13が入力端子S2に接
続される(ステップ73)。これによって,Aフィールド
期間において図6に示した手順で測光および測光値の演
算が行われる(ステップ74,75)。これは図6のステッ
プ51〜56の処理に対応する。
Next, the changeover switch 13 is connected to the input terminal S2 (step 73). As a result, in the A field period, the photometry and the calculation of the photometric value are performed in the procedure shown in FIG. 6 (steps 74 and 75). This corresponds to the processing of steps 51 to 56 in FIG.

【0091】このようにして求められた測光値が適切か
否かの判断が行われる(ステップ76)。この判断は図6
のステップ58の判断を含む。ステップ58の判断に加え
て,好ましくは測光値がステップ71で設定された露光条
件に対応する範囲内のものかどうかの判断も行われる。
It is judged whether or not the photometric value thus obtained is appropriate (step 76). This judgment is shown in FIG.
The determination of step 58 of In addition to the determination in step 58, it is also preferably determined whether the photometric value is within the range corresponding to the exposure condition set in step 71.

【0092】得られた測光値が適切であると判断された
場合には,その測光値に基づいて露光条件(絞り値,シ
ャッタ速度)が設定され,この露光条件となるように絞
りの絞り値およびシャッタ速度が設定される(ステップ
80)。これは図7に示す処理に対応する。
When it is determined that the obtained photometric value is appropriate, the exposure condition (aperture value, shutter speed) is set based on the photometric value, and the aperture value of the aperture is adjusted to meet this exposure condition. And the shutter speed is set (step
80). This corresponds to the processing shown in FIG.

【0093】続いて切換スイッチ13が入力端子S3側に
切換えられる(ステップ81)。Bフィールドの映像信号
の読出しが開始されると,上述したように測距領域にお
ける水平走査線にそう映像信号の積分,積分信号のA/
D変換,A/D変換された積分データの加算が測距領域
の全体にわたって行われる(ステップ82,83)。
Then, the changeover switch 13 is changed over to the input terminal S3 side (step 81). When the reading of the video signal of the B field is started, the integration of the video signal is performed on the horizontal scanning line in the distance measurement area as described above, and the A /
The addition of the D-converted and A / D-converted integral data is performed over the entire distance measuring area (steps 82 and 83).

【0094】上述したように測距用加算データはフレー
ム(Bフィールド)毎に撮像レンズ24を10μmずつ繰出
しながら収集される。撮像レンズ24の繰出し回数を計数
するためにカウンタが設けられている。
As described above, the distance measurement addition data is collected while the imaging lens 24 is extended by 10 μm for each frame (B field). A counter is provided to count the number of times the imaging lens 24 is extended.

【0095】測距領域について加算データが得られる
と,上記カウンタがインクレメントされるとともに(ス
テップ84),撮像レンズ24が10μm繰出される(ステッ
プ85)。得られた加算データは図13に示すメモリ・エリ
アに記憶される。
When the addition data is obtained for the distance measurement area, the counter is incremented (step 84) and the image pickup lens 24 is extended by 10 μm (step 85). The obtained addition data is stored in the memory area shown in FIG.

【0096】1フレーム毎にステップ73〜76,80〜85の
処理が繰返され,カウンタの値が5を超えると(ステッ
プ86),図13に示すエリアの6回分の測距用加算データ
が相互に比較され,その最大値が求められる(ステップ
87)。そして最大の測距用加算データに対応する位置に
撮像レンズ24が変位させられ,そこに位置決めされる。
図13に示す例でいうと,初期位置から30μm繰出された
位置に撮像レンズ24が位置決めされる。
When the processing of steps 73 to 76 and 80 to 85 is repeated for each frame and the value of the counter exceeds 5 (step 86), the addition data for distance measurement of 6 times in the area shown in FIG. To find the maximum value (step
87). Then, the imaging lens 24 is displaced to a position corresponding to the maximum addition data for distance measurement, and positioned there.
In the example shown in FIG. 13, the imaging lens 24 is positioned at a position extended by 30 μm from the initial position.

【0097】以上のようにして,測光と測距が終了し露
光条件の設定および合焦が行われると,切換スイッチ13
が入力端子S1に切換えられて,本撮影に移る。
As described above, when the photometry and the distance measurement are completed and the exposure condition is set and the focusing is performed, the changeover switch 13
Is switched to the input terminal S1 and the actual photographing is started.

【0098】ステップ76において測光値が不適切な範囲
にあると判定されたときには,露光条件が変更される
(ステップ77)。これは図6のステップ59に対応し,測
光値が大きい値の場合には露光量が少なくされ,逆の場
合には露光量が多くされる。
If it is determined in step 76 that the photometric value is in an inappropriate range, the exposure condition is changed (step 77). This corresponds to step 59 in FIG. 6, and the exposure amount is decreased when the photometric value is large, and is increased in the opposite case.

【0099】次に図13に示すメモリ・エリアの今までに
得られた測距用加算データがすべてクリアされ(ステッ
プ78),さらにカウンタがクリアされ,かつ撮像レンズ
24が初期位置に戻される(ステップ79)。これは,適正
な露光条件が設定されていない状態で得られる測距用加
算データを合焦制御に使用しないようにするためであ
る。この後,ステップ74に戻り,Aフィールドの走査に
同期して再び測光が行われる。
Next, all the distance measurement addition data obtained so far in the memory area shown in FIG. 13 are cleared (step 78), the counter is further cleared, and the imaging lens
24 is returned to the initial position (step 79). This is because the addition data for distance measurement obtained in the state where the proper exposure condition is not set is not used for focusing control. After that, the process returns to step 74, and photometry is performed again in synchronization with the scanning of the A field.

【0100】上述したように測光と測距はフィールドご
とに交互に行われる。測距処理を行っている間にも測光
処理を並行して行うのは,測距処理を行っている間に,
たとえば被写体が動いたり変更したり,ズーム・アップ
またはズーム・ダウンしたり,急に陽光がさして明るく
なったりすることにより,露光条件が変った場合,ステ
ップ78,79においてそれまでに記憶されていた加算デー
タやカウンタをクリアにして,改めて測距を行うためで
ある。
As described above, photometry and distance measurement are alternately performed for each field. The photometric processing is performed in parallel while the distance measurement processing is being performed.
If the exposure conditions change due to, for example, the subject moving or changing, zooming up or down, or sudden brightening due to sunlight, it was stored in steps 78 and 79 until then. This is because the added data and the counter are cleared and distance measurement is performed again.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の実施例によるディジタル・スチル・
ビデオ・カメラの電気的構成を示すブロック図である。
FIG. 1 is a block diagram of a digital still camera according to an embodiment of the present invention.
It is a block diagram which shows the electric constitution of a video camera.

【図2】可変利得増幅回路の具体例を示す回路図であ
る。
FIG. 2 is a circuit diagram showing a specific example of a variable gain amplifier circuit.

【図3】図1のディジタル・スチル・ビデオ・カメラに
おける測光のために必要な回路部分のより具体的な電気
的構成を示す回路図である。
3 is a circuit diagram showing a more specific electrical configuration of a circuit portion required for photometry in the digital still video camera of FIG.

【図4】撮影領域内に設定された測光領域を示す図であ
る。
FIG. 4 is a diagram showing a photometric area set within a shooting area.

【図5】測光処理を示すタイム・チャートである。FIG. 5 is a time chart showing photometric processing.

【図6】CPUによる測光処理の手順を示すフローチャ
ートである。
FIG. 6 is a flowchart showing a procedure of photometric processing by a CPU.

【図7】CPUによる露光条件の設定処理手順を示すフ
ローチャートである。
FIG. 7 is a flowchart showing a procedure of exposure condition setting processing by a CPU.

【図8】CCDの色フィルタの配列を示す図である。FIG. 8 is a diagram showing an array of CCD color filters.

【図9】色フィルタ感度比補正およびホワイト・バラン
ス補正を行わない場合のBPFの通過帯域,ならびに色
フィルタの配列に起因する繰返し周波数および映像信号
中の輝度信号のスペクトルを示すグラフである。
FIG. 9 is a graph showing a pass band of a BPF when color filter sensitivity ratio correction and white balance correction are not performed, a repetition frequency due to an arrangement of color filters, and a spectrum of a luminance signal in a video signal.

【図10】色フィルタ感度比補正およびホワイト・バラ
ンス補正を行った場合のBPFの通過帯域,ならびに色
フィルタの配列に起因する繰返し周波数および輝度信号
のスペクトルを示すグラフである。
FIG. 10 is a graph showing a BPF pass band in the case of performing color filter sensitivity ratio correction and white balance correction, and a spectrum of a repetition frequency and a luminance signal due to an arrangement of color filters.

【図11】撮影領域内に設定された測距領域を示す図で
ある。
FIG. 11 is a diagram showing a distance measurement area set within a shooting area.

【図12】測距処理を示すタイム・チャートである。FIG. 12 is a time chart showing a distance measuring process.

【図13】測距用加算データの記憶エリアを示す図であ
る。
FIG. 13 is a diagram showing a storage area of added data for distance measurement.

【図14】合焦のための測距用加算データを示すグラフ
である。
FIG. 14 is a graph showing distance measurement addition data for focusing.

【図15】CPUによる露光制御および合焦制御の処理
の手順を示すフローチャートである。
FIG. 15 is a flowchart showing a procedure of processing of exposure control and focusing control by the CPU.

【符号の説明】[Explanation of symbols]

3 CPU 4 CCD(固体電子撮像素子) 8 色分離回路 9 GCA(増幅回路) 11 クランプおよびリサンプリング回路 13 切換スイッチ 14 A/D変換器 15 YL 合成回路 16 ゲート回路 17 積分回路 18 増幅回路 19 ゲート回路 20 バンド・パス・フィルタ 21 検波回路 22 積分回路 23 増幅回路 24 撮像レンズ 25 撮像レンズ駆動装置 26 測光センサ 27 測距センサ 91r,91g,91b 色フィルタ感度比補正用可変利得増
幅器 92r,92g,92b ホワイト・バランス調整用可変利得
増幅器
3 CPU 4 CCD (solid-state electronic image sensor) 8 Color separation circuit 9 GCA (amplification circuit) 11 Clamp and resampling circuit 13 Changeover switch 14 A / D converter 15 Y L combination circuit 16 Gate circuit 17 Integration circuit 18 Amplification circuit 19 Gate circuit 20 Band pass filter 21 Detection circuit 22 Integration circuit 23 Amplification circuit 24 Imaging lens 25 Imaging lens driving device 26 Photometric sensor 27 Distance measuring sensor 91r, 91g, 91b Color filter Sensitivity ratio correction variable gain amplifiers 92r, 92g, 92b White balance adjustment variable gain amplifier

Claims (8)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 撮像レンズおよびこの撮像レンズを通し
て入射する光像を映像信号に変換して出力する色フィル
タを有する固体電子撮像素子を含む撮像光学系を備えた
ビデオ・カメラにおいて, 上記固体電子撮像素子から出力される映像信号を色分離
して複数色の色信号を出力する色分離回路, 上記固体電子撮像素子の色フィルタの光透過率の違いに
起因する上記色分離回路の出力色信号のレベルのばらつ
きを補正する増幅回路, 上記増幅回路の出力色信号から測距のための高周波成分
を抽出する高周波成分抽出手段,および上記高周波成分
抽出手段によって抽出された高周波成分に基づいて,上
記撮像レンズの合焦制御を行う合焦制御手段, を備えたビデオ・カメラ。
1. A video camera having an imaging optical system including a solid-state electronic image pickup device having an image pickup lens and a color filter for converting a light image incident through the image pickup lens into a video signal and outputting the image signal. A color separation circuit for color-separating a video signal output from the device to output color signals of a plurality of colors; amplifier circuit for correcting variations in level, based on the high-frequency component extracted high-frequency component extracting means for extracting a high frequency component, and by the high frequency component extraction means for ranging from the output color signal of the amplifier circuit, the A video camera having a focusing control means for controlling the focusing of an imaging lens.
【請求項2】 上記増幅回路が,さらに,上記色信号の
ホワイト・バランス調整を行うものである,請求項1に
記載のビデオ・カメラ。
2. The video camera according to claim 1, wherein the amplifier circuit further adjusts the white balance of the color signals.
【請求項3】 予備測距のための測距センサ,およびこ
の測距センサから得られる測距データに基づいて上記撮
像レンズを初期位置に位置決めする初期位置決め手段, をさらに備えた請求項1に記載のビデオ・カメラ。
3. A distance measuring sensor for preliminary distance measurement, and an initial positioning means for positioning the image pickup lens at an initial position based on distance measuring data obtained from the distance measuring sensor. The listed video camera.
【請求項4】 上記高周波成分抽出手段が,撮影領域内
にあらかじめ定められた測距領域を走査する上記出力色
信号から上記高周波成分を抽出するように,かつ上記高
周波成分の抽出を上記撮像レンズを一方向に所定距離ず
つ移動させながら複数フィールドにわたって行うように
制御する制御手段をさらに備え, 上記初期位置決め手段が,上記撮像レンズを合焦位置か
ら一方向とは逆方向に偏った位置に位置決めするもので
あり, 上記合焦制御手段が,上記高周波成分抽出手段から得ら
れる高周波信号の上記測距領域における積分値を算出
し,複数フィールドにわたる上記積分値の最大値に対応
する位置に上記撮像レンズを位置決めするものである, 請求項3に記載のビデオ・カメラ。
4. The high-frequency component extracting means extracts the high-frequency component from the output color signal for scanning a predetermined distance-measuring region within the photographing region, and the high-frequency component is extracted by the imaging lens. Further, the initial positioning means positions the image pickup lens at a position deviated from the in-focus position in the direction opposite to the one direction by further controlling the plurality of fields by moving the lens in one direction by a predetermined distance. The focusing control means calculates an integrated value of the high frequency signal obtained from the high frequency component extracting means in the distance measuring area, and the image is picked up at a position corresponding to the maximum value of the integrated value over a plurality of fields. The video camera according to claim 3, which positions a lens.
【請求項5】 撮像レンズを通して入射する光像を色フ
ィルタを有する固体電子撮像素子によって予備撮影し, この予備撮影により上記固体電子撮像素子から得られる
映像信号を複数色の色信号に色分離し, 上記固体電子撮像素子の色フィルタの光透過率の違いに
起因する上記色信号のレベルのばらつきを補正し, 上記レベルのばらつきが補正された色信号から測距のた
めの高周波成分を抽出し, 出された上記高周波成分に基づいて上記撮像レンズの
合焦制御を行う, ビデオ・カメラの合焦方法。
5. An optical image incident through an imaging lens is preliminarily photographed by a solid-state electronic image pickup device having a color filter, and by this preliminarily photographing, a video signal obtained from the solid-state electronic image pickup device is color-separated into color signals of a plurality of colors. The level variation of the color signal due to the difference in the light transmittance of the color filter of the solid-state electronic image sensor is corrected, and the high frequency component for distance measurement is extracted from the color signal corrected for the level variation. performs focusing control of the imaging lens based on the high frequency components issued extracted, focusing method for a video camera.
【請求項6】 上記色分離された複数色の色信号のホワ
イト・バランス調整をさらに行う,請求項3に記載のビ
デオ・カメラの合焦方法。
6. The focusing method for a video camera according to claim 3, further comprising white balance adjustment of the color signals of the color-separated plural colors.
【請求項7】 測距センサを用いて予備測距を行い, この予備測距により得られた測距データに基づいて,上
記撮像レンズを合焦位置から一方向に偏った位置に初期
位置決めし, 上記高周波成分の抽出を上記撮像レンズを上記一方向と
は逆方向に所定距離ずつ移動させながら複数フィールド
にわたって行い, 各フィールドにおいて抽出された高周波成分を積算し, これらの積算値の最大値に対応する位置に上記撮像レン
ズを位置決めする, 請求項5に記載のビデオ・カメラの合焦方法。
7. Preliminary distance measurement is performed using a distance measurement sensor, and based on distance measurement data obtained by this preliminary distance measurement, the imaging lens is initially positioned at a position deviated in one direction from the in-focus position. The extraction of the high frequency components is performed over a plurality of fields while moving the imaging lens in the direction opposite to the one direction by a predetermined distance, and the high frequency components extracted in each field are integrated to obtain the maximum value of these integrated values. The video camera focusing method according to claim 5, wherein the imaging lens is positioned at a corresponding position.
【請求項8】 上記高周波成分の抽出を,撮影領域内に
あらかじめ定められた測距領域を走査する上記色順次信
号から行う,請求項7に記載のビデオ・カメラの合焦方
法。
8. The focusing method for a video camera according to claim 7, wherein the extraction of the high frequency component is performed from the color sequential signal for scanning a predetermined distance measuring area within the photographing area.
JP21954292A 1992-07-14 1992-07-28 Video camera and focusing method thereof Expired - Fee Related JP3453153B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP21954292A JP3453153B2 (en) 1992-07-28 1992-07-28 Video camera and focusing method thereof
US08/091,754 US5376964A (en) 1992-07-14 1993-07-14 Video camera, method of photometry therein, and method of focusing same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21954292A JP3453153B2 (en) 1992-07-28 1992-07-28 Video camera and focusing method thereof

Publications (2)

Publication Number Publication Date
JPH0654330A JPH0654330A (en) 1994-02-25
JP3453153B2 true JP3453153B2 (en) 2003-10-06

Family

ID=16737130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21954292A Expired - Fee Related JP3453153B2 (en) 1992-07-14 1992-07-28 Video camera and focusing method thereof

Country Status (1)

Country Link
JP (1) JP3453153B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4661168B2 (en) * 2004-11-02 2011-03-30 ソニー株式会社 Signal processing apparatus and method for solid-state imaging device, and imaging apparatus

Also Published As

Publication number Publication date
JPH0654330A (en) 1994-02-25

Similar Documents

Publication Publication Date Title
US8890988B2 (en) Image pickup device, including gain-setting of pixel arrays, image pickup apparatus, control method, and program
US5335075A (en) Image sensing apparatus having exposure level and dynamic range control circuit
JP4533860B2 (en) Imaging apparatus and exposure control method
US5376964A (en) Video camera, method of photometry therein, and method of focusing same
US5436656A (en) Digital electronic still-video camera and method of controlling same
JP3071891B2 (en) Solid-state electronic imaging device
JP3639734B2 (en) Solid-state imaging device
JP2518942B2 (en) Electronic still camera automatic exposure device
JP3384818B2 (en) Camera, preliminary photometric method thereof, preliminary photometric device and method
JP2014222899A (en) Imaging apparatus and control method thereof
JP3453153B2 (en) Video camera and focusing method thereof
JP3994721B2 (en) Image capturing apparatus and method
JP4547465B2 (en) Imaging apparatus and exposure control method
JPH0690397A (en) Video camera and its focusing method
JP3086753B2 (en) Video camera and focusing method thereof
JP2008211273A (en) Imaging apparatus
JPH06153067A (en) Video camera and its photometric method
JPH06105217A (en) Video camera, its photometry method and focusing control method
JP3058994B2 (en) Video camera and photometric method thereof
JP3410155B2 (en) Exposure control device and method for electronic camera
JP3467049B2 (en) Video camera and photometric method thereof
WO2023042453A1 (en) Imaging device, image processing method, and program
JP2011077770A (en) Controller of solid-state imaging device and operation control method thereof
JP3517421B2 (en) Video camera and photometric method thereof
JP3213394B2 (en) Video camera and photometric method thereof

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080718

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080718

Year of fee payment: 5

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080718

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090718

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090718

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100718

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110718

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110718

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120718

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees