JP2001197358A - Image pickup device - Google Patents

Image pickup device

Info

Publication number
JP2001197358A
JP2001197358A JP2000007845A JP2000007845A JP2001197358A JP 2001197358 A JP2001197358 A JP 2001197358A JP 2000007845 A JP2000007845 A JP 2000007845A JP 2000007845 A JP2000007845 A JP 2000007845A JP 2001197358 A JP2001197358 A JP 2001197358A
Authority
JP
Japan
Prior art keywords
evaluation value
imaging
detection
imaging condition
detection area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000007845A
Other languages
Japanese (ja)
Inventor
Takeshi Takeda
岳 竹田
Narihiro Matoba
成浩 的場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2000007845A priority Critical patent/JP2001197358A/en
Publication of JP2001197358A publication Critical patent/JP2001197358A/en
Pending legal-status Critical Current

Links

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve a problem that a detection area generation circuit is complicated since a detection area on an image for calculating an evaluation value for deciding the image pickup condition of automatic white balance(AWB), an automatic focus(AF) and automatic exposure control(AE) differs by an image pickup condition and a problem that a photographing interval becomes long since the evaluation values for deciding the image pickup conditions cannot simultaneously be calculated in the image pickup device of a digital camera. SOLUTION: A means for generating the detection area from a pixel clock for driving imaging device and a horizontal synchronizing signal is installed. The evaluation values of the imaging devices are calculated on the respective detection areas. Picture data from imaging devices is inputted to respective evaluation generation means in parallel and processing speed is improved.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、被写体からの光
を電気信号に変換し撮像処理を行うデジタルカメラや顕
微鏡等に適応される撮像装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image pickup apparatus adapted to a digital camera, a microscope, etc., which converts light from a subject into an electric signal and performs an image pickup process.

【0002】[0002]

【従来の技術】CCD等の固体撮像素子を用いて光を電
気信号に変換しデジタル信号として信号処理し撮像する
デジタルカメラが急速に普及している。デジタルカメラ
では使用者が簡単に高画質な撮像が出来るように、オー
トフォーカス(自動焦点制御;以下AF)、オートエク
スポージャー(自動露出制御;以下AE)、オートホワ
イトバランス(自動色調整;以下AWB)の各自動制御
機能を備えているものが多い。
2. Description of the Related Art Digital cameras, which convert light into electric signals using a solid-state image pickup device such as a CCD, process the signals as digital signals, and pick up images, have rapidly become widespread. With digital cameras, auto focus (auto focus control; hereinafter referred to as AF), auto exposure (auto exposure control; hereinafter referred to as AE), and auto white balance (auto color adjustment; hereinafter referred to as AWB) so that users can easily take high-quality images. Many are equipped with automatic control functions.

【0003】AFはコントラスト法等を用いて、撮像素
子からの信号成分を積分しコントラストとデフォーカス
量の相関をとり、レンズを駆動して焦点合わせを行うも
のである。AEは信号成分を積分し、被写体の輝度変化
に合わせて絞り等を設定して最適な露光量を得る。AW
Bは、撮像素子からの色信号を積算して、それぞれの色
の相関をとり色バランスをとるように補正するものであ
る。
The AF integrates a signal component from an image pickup device by using a contrast method or the like, obtains a correlation between the contrast and the defocus amount, and drives a lens to perform focusing. The AE integrates the signal components and sets an aperture or the like in accordance with a change in luminance of the subject to obtain an optimal exposure amount. AW
B is for correcting the color signals from the image sensor by integrating the color signals and correlating the respective colors to obtain a color balance.

【0004】これらの自動制御に用いる上記積分値など
の評価値は、撮像画面をいくつかの領域に分けその領域
毎に評価値を検波している。この検波域の分割法は多数
提案されているが、その一例を図12に示す。AF用の
検波域(実線)は撮像画面の中央付近に配置され、この
検波域内における信号を積分しAFに用いる評価値を得
ている。AE及びAWB検波域(破線)は、画面の上下
(A域、C域)と中央部(B域)に配置され、A、B、
C域の信号を検波しそれぞれの検波域での評価値を得て
AE及びAWBの制御動作に反映させている。
The evaluation value such as the integral value used for the automatic control is obtained by dividing the image screen into several regions and detecting the evaluation value for each region. Many methods of dividing the detection area have been proposed. One example is shown in FIG. The detection area (solid line) for AF is arranged near the center of the imaging screen, and the signal within this detection area is integrated to obtain an evaluation value used for AF. The AE and AWB detection areas (broken lines) are arranged at the top and bottom (A area, C area) and the center (B area) of the screen.
The signals in the C region are detected, and evaluation values in the respective detection regions are obtained and reflected in the AE and AWB control operations.

【0005】他方、別の従来技術として特開平11−2
39291号に示された図13のような装置がある。1
01はレンズや固体撮像素子等にて構成される光学ユニ
ットと、固体撮像素子を駆動する駆動回路、レンズや絞
りを所定の位置に搬送する駆動機構(図示せず)から成
る撮像部、102は絞りの大きさや固体撮像素子を駆動
する駆動信号等を生成する駆動部、103は撮像部10
1から出力された信号をクランプして増幅するアナログ
信号処理部、104はデジタル変換するA/D変換処理
部、105はγ処理やAWB調整等を施すデジタル信号
処理部、106はメモリカード等に信号を記録・再生す
る記録再生処理部、107はD/A変換処理部であり、
信号をアナログ信号に変換して表示部108のモニタ1
09に可視表示する。111は制御部、112は操作ス
イッチである。113はAF積算ブロックであり自動焦
点調節を行うための評価値を算出する。114はAE/
AWB及びモードによってAFを行うための評価値を算
出する共通積算ブロックである。
On the other hand, another prior art is disclosed in
There is an apparatus as shown in FIG. 1
Reference numeral 01 denotes an optical unit including a lens and a solid-state imaging device, a driving circuit for driving the solid-state imaging device, and an imaging unit including a driving mechanism (not shown) for conveying a lens and a diaphragm to a predetermined position. A drive unit for generating a drive signal for driving the size of the diaphragm and the solid-state imaging device;
An analog signal processing unit that clamps and amplifies the signal output from 1; an A / D conversion processing unit 104 that performs digital conversion; a digital signal processing unit 105 that performs γ processing and AWB adjustment; A recording / reproducing processing unit 107 for recording / reproducing a signal, a D / A conversion processing unit 107,
The signal is converted to an analog signal and the monitor 1 of the display unit 108
09 is visually displayed. Reference numeral 111 denotes a control unit, and 112 denotes an operation switch. An AF integration block 113 calculates an evaluation value for performing automatic focus adjustment. 114 is AE /
This is a common integration block for calculating an evaluation value for performing AF by AWB and mode.

【0006】撮像部101からの信号は、アナログ信号
処理部103によって処理されデジタル信号処理部10
5に入力される。デジタル信号処理部105からの信号
はスイッチ112からの指令により記録再生処理106
を介してメモリカードに記憶されたり、D/A変換処理
部107を介して表示部108のモニタ109に表示さ
れる。この際、A/D変換処理部104からの信号は、
AF積算ブロック113及び共通積算ブロック114に
も入力される。AF積算ブロック113では所定の検波
領域内における画像信号のコントラストを表すコントラ
スト評価値を算出する。共通積算ブロック114ではA
F,AE,AWBの各評価値を生成する。この共通積算
ブロック114は図14に示すように各撮像調整機能を
固体撮像素子の画面出力に対応するフィールド毎に時分
割して算出し、所望の撮像調整を行っている。
The signal from the imaging unit 101 is processed by the analog signal processing unit 103 and is processed by the digital signal processing unit 10.
5 is input. A signal from the digital signal processing unit 105 is supplied to a recording / reproducing process 106 according to a command from the switch 112.
Via the D / A conversion processing unit 107 and displayed on the monitor 109 of the display unit 108. At this time, the signal from the A / D conversion processing unit 104 is
It is also input to the AF integration block 113 and the common integration block 114. The AF integration block 113 calculates a contrast evaluation value indicating the contrast of the image signal in a predetermined detection area. In the common accumulation block 114, A
Each evaluation value of F, AE, and AWB is generated. As shown in FIG. 14, the common integration block 114 calculates each imaging adjustment function in a time-division manner for each field corresponding to the screen output of the solid-state imaging device, and performs desired imaging adjustment.

【0007】[0007]

【発明が解決しようとする課題】従来の前者の例では、
AFとAE及びAWB検波域が異なる場合には検波域を
設定する設定手段をそれぞれ独立に有し、かつ異なる形
状に検波域を設定できるようにしなければならず、従っ
て、検波域を生成する回路が複雑化するという問題点が
あった。また、AF検波域が画面中央のみだけでは画面
中央にしか焦点を合わせることが出来ず、デジタルカメ
ラの場合、使用者はシャッタを押す前に焦点を合わせた
い位置に一旦画面の中央を向けなければならなかった。
In the former former example,
When the AF, AE, and AWB detection areas are different, it is necessary to independently have setting means for setting the detection areas, and to enable the detection areas to be set in different shapes. Therefore, a circuit for generating the detection areas However, there was a problem that it became complicated. Also, if the AF detection area is only at the center of the screen, it is possible to focus only on the center of the screen. In the case of a digital camera, the user must first turn the center of the screen to the position to focus before pressing the shutter. did not become.

【0008】また、後者の例ではフィールド単位でA
F,AE,AWBの各評価値を生成し、時分割して撮像
調整をおこなっているため、近年の撮像素子の高精細化
に伴う画素数の増加と、その画素数の増加に伴い速度
(フィールドレート)が低下し、表示速度やシャッター
間隔が遅くなるという問題には対応が困難であった。
In the latter example, A
Since the evaluation values of F, AE, and AWB are generated and the imaging adjustment is performed in a time-division manner, the number of pixels increases with the recent increase in the definition of the image sensor, and the speed ( Field rate) and the display speed and shutter interval become slow.

【0009】この発明は上記のような問題点を解消する
ためになされたもので、回路構成を単純化させるととも
に、各処理に用いる評価値をリアルタイムで検波でき、
しかもその評価値を効率良く使用することが可能であ
り、高品質な画像が得られる撮像装置を得ることを目的
とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems, and can simplify a circuit configuration and detect an evaluation value used for each processing in real time.
Moreover, it is an object of the present invention to obtain an imaging device that can efficiently use the evaluation value and obtain a high-quality image.

【0010】[0010]

【課題を解決するための手段】この発明に係る撮像装置
は、光学系を有し複数の撮像条件を決定して撮像を行な
う撮像装置であって、平面上に配列された複数の画素を
有し被写体を撮像して生成した画像データを画素単位で
出力する撮像素子と、撮像条件を決定する際に参照され
る該撮像条件の評価値を生成する評価値生成手段であっ
てそれぞれが異なる撮像条件の評価値を上記画像データ
から生成する複数の評価値生成手段と、上記複数の評価
値生成手段が生成した各撮像条件の評価値を参照して各
撮像条件を決定する制御手段とを有し、上記複数の評価
値生成手段は上記画像データを並列に入力されるように
構成されたものである。
An image pickup apparatus according to the present invention is an image pickup apparatus having an optical system for determining a plurality of image pickup conditions and picking up an image, and has a plurality of pixels arranged on a plane. An imaging element that outputs image data generated by imaging a subject in pixel units; and an evaluation value generation unit that generates an evaluation value of the imaging condition that is referred to when determining the imaging condition. A plurality of evaluation value generating means for generating an evaluation value of a condition from the image data; and a control means for determining each imaging condition by referring to the evaluation value of each imaging condition generated by the plurality of evaluation value generation means. The plurality of evaluation value generating means are configured to input the image data in parallel.

【0011】またこの発明に係る撮像装置は、上記撮像
素子の画素が配列された平面内に複数の領域を設定し、
上記撮像素子がどの領域の画素の画像データを出力して
いるかを示す領域情報を生成する検波域生成手段をさら
に有し、上記複数の評価値生成手段は上記検波域生成手
段が生成する領域情報と上記撮像素子が出力する画像デ
ータとから領域毎に各撮像条件の評価値を生成し、上記
制御手段は、上記領域毎に生成された各撮像条件の評価
値を参照して各撮像条件を決定するようにしたものであ
る。
The image pickup apparatus according to the present invention sets a plurality of regions in a plane on which pixels of the image pickup device are arranged,
The image sensor further includes detection area generation means for generating area information indicating the image data of a pixel in which area, and the plurality of evaluation value generation means include area information generated by the detection area generation means. Generating an evaluation value of each imaging condition for each area from the image data output by the imaging element, and the control unit refers to the evaluation value of each imaging condition generated for each area, and determines each imaging condition. The decision is made.

【0012】またこの発明に係る撮像装置は、上記制御
手段は、1つの撮像条件を決定する際に、複数の領域の
該撮像条件の評価値を参照するようにしたものである。
In the imaging apparatus according to the present invention, the control means refers to evaluation values of the imaging conditions in a plurality of areas when determining one imaging condition.

【0013】またこの発明に係る撮像装置は、上記複数
の領域の組み合わせは可変であるようにしたものであ
る。
In the imaging apparatus according to the present invention, a combination of the plurality of areas is variable.

【0014】またこの発明に係る撮像装置は、上記制御
手段は、上記各領域に所定の重み係数を対応付け、撮像
条件を決定する際に上記領域毎の該撮像条件の評価値に
上記重み係数を乗ずるようにしたものである。
Further, in the imaging apparatus according to the present invention, the control means associates a predetermined weighting factor with each of the regions, and when determining the imaging condition, assigns the weighting factor to an evaluation value of the imaging condition for each region. Is to be multiplied.

【0015】またこの発明に係る撮像装置は、上記制御
手段は、所定の1つの撮像条件を決定する際に、上記評
価値生成手段が領域毎に生成した該撮像条件の評価値が
予め設定された範囲内にある領域を選択し、該選択され
た領域の上記所定の1つの撮像条件の評価値および他の
撮像条件の評価値を参照して、上記所定の1つの撮像条
件および他の撮像条件を決定するようにしたものであ
る。
Further, in the imaging apparatus according to the present invention, when the control means determines one predetermined imaging condition, the evaluation value of the imaging condition generated for each area by the evaluation value generation means is set in advance. The selected one imaging condition and the other imaging conditions are selected by referring to the evaluation value of the predetermined one imaging condition and the evaluation value of another imaging condition of the selected region. The conditions are determined.

【0016】またこの発明に係る撮像装置は、上記複数
の撮像条件は、ホワイトバランスと光学系の焦点距離と
光学系の露出量の内の少なくとも2つであるものであ
る。
Further, in the imaging apparatus according to the present invention, the plurality of imaging conditions are at least two of white balance, focal length of the optical system, and exposure amount of the optical system.

【0017】またこの発明に係る撮像装置は、上記複数
の撮像条件には光学系の焦点距離を含み、上記画像デー
タの変化を強調するフィルタであって強調度が外部から
付与されるフィルタ定数に応じて変化するフィルタをさ
らに有し、上記制御手段は上記焦点距離を決定する際に
参照した焦点距離の評価値に応じて上記フィルタ定数を
変化させて上記フィルタに付与するようにしたものであ
る。
Further, in the image pickup apparatus according to the present invention, the plurality of image pickup conditions include a focal length of an optical system, and a filter constant for emphasizing a change in the image data. A filter that changes in accordance with the evaluation value of the focal length referred to when determining the focal length, and the control means changes the filter constant and applies the filter constant to the filter. .

【0018】またこの発明に係る撮像装置は、上記複数
の撮像条件にはさらに光学系の露出量を含み、上記制御
手段は上記焦点距離を決定する際に参照した焦点距離の
評価値からデフォーカス量を算出するとともに上記光学
系の露出量を決定する際に使用した露出量の評価値から
焦点深度を算出し、該算出したデフォーカス量が上記算
出した焦点深度より大きくその差が大きいほど上記画像
データの変化の強調度が大きくなるようにフィルタ定数
を変化させるようにしたものである。
Further, in the imaging apparatus according to the present invention, the plurality of imaging conditions further include an exposure amount of an optical system, and the control means defocuses from an evaluation value of the focal length referred to when determining the focal length. Calculate the amount and calculate the depth of focus from the evaluation value of the exposure amount used when determining the exposure amount of the optical system, and the calculated defocus amount is larger than the calculated depth of focus and the difference is larger, The filter constant is changed so that the degree of enhancement of the change in the image data is increased.

【0019】またこの発明に係る撮像装置は、上記検波
域生成手段は、上記撮像素子の出力信号に同期した画素
クロックと水平同期信号を入力され、上記入力された画
素クロック数から画像データを出力している画素の水平
方向の位置を示す水平方向ゲート信号を出力する水平方
向ゲート信号発生手段と、上記入力された水平同期信号
数から画像データを出力している画素の垂直方向の位置
を示す垂直方向ゲート信号を生成する垂直方向ゲート信
号発生手段とを有し、上記水平方向ゲート信号と垂直方
向ゲート信号の組み合わせにより上記領域情報を生成す
るようにしたものである。
In the imaging apparatus according to the present invention, the detection area generating means receives a pixel clock synchronized with an output signal of the imaging element and a horizontal synchronization signal, and outputs image data from the input number of pixel clocks. Horizontal gate signal generating means for outputting a horizontal gate signal indicating the horizontal position of the pixel being output, and indicating the vertical position of the pixel outputting image data from the input number of horizontal synchronization signals. Vertical gate signal generating means for generating a vertical gate signal, wherein the area information is generated by a combination of the horizontal gate signal and the vertical gate signal.

【0020】[0020]

【実施の形態】実施の形態1.以下、この発明の実施の
形態1による撮像装置を図1から図5に従って説明す
る。図1はこの実施の形態1による撮像装置の一例を示
す構成図である。図において、1Aは制御部でROMや
RAM等を備えたCPU、1Bは電源スイッチやシャッ
タースイッチ等撮像装置の動作を設定するオペレーショ
ンパネル、2はレンズ、3は絞り、4はCCD等の撮像
素子、5はA/D変換器、6は少なくとも1画面分を収
納可能なメモリ、7はA/D変換器5からの信号に対し
てホワイトバランス処理を行なうAWB処理回路、8は
A/D変換器5からの信号を使用して自動焦点制御を行
なうAF処理回路、9はA/D変換器5からの信号を使
用して自動露出制御を行なうAE処理回路、10は撮像
素子4の画面を複数の領域に分割して検波域を生成する
検波域生成回路、11はレンズを光軸方向に移動させる
AF用モータ、12は絞り3を開閉する絞り制御回路、
13は撮像素子4を駆動する素子制御回路、14は各種
フィルターや画面の拡大・縮小機能等を搭載する画像処
理回路、15はD/A変換器や表示ディスプレイの駆動
制御等やビデオメモリを搭載した表示処理回路、16は
液晶等を用いたディスプレイ、17は撮像した画像を記
録媒体18に収納するための記録処理回路、18は磁気
媒体や光ディスク、フラッシュメモリ等の記録媒体であ
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiment 1 Hereinafter, an imaging device according to a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a configuration diagram showing an example of the imaging apparatus according to the first embodiment. In the figure, 1A is a control unit, a CPU having a ROM, a RAM, etc., 1B is an operation panel for setting the operation of an imaging device such as a power switch and a shutter switch, 2 is a lens, 3 is an aperture, and 4 is an imaging device such as a CCD. 5, an A / D converter; 6, a memory capable of storing at least one screen; 7, an AWB processing circuit for performing white balance processing on a signal from the A / D converter 5; 8, A / D conversion An AF processing circuit for performing automatic focus control using a signal from the device 5; an AE processing circuit 9 for performing automatic exposure control using a signal from the A / D converter 5; A detection area generation circuit for generating a detection area by dividing the detection area into a plurality of areas, an AF motor 11 for moving a lens in the optical axis direction, an aperture control circuit 12 for opening and closing the aperture 3,
13 is an element control circuit for driving the image sensor 4, 14 is an image processing circuit having various filters and a screen enlargement / reduction function, and 15 is equipped with a D / A converter, a drive control for a display and video memory. A display processing circuit 16 using a liquid crystal or the like; 17 a recording processing circuit for storing a captured image in a recording medium 18; and 18 a recording medium such as a magnetic medium, an optical disk, or a flash memory.

【0021】上記制御部1Aがこの発明における制御手
段であり、レンズ2および絞り3によりこの発明におけ
る光学系が形成されている。さらに検波域生成回路10
がこの発明における検波域生成手段である。またAWB
処理回路7、AF処理回路8、AE処理回路9がそれぞ
れこの発明における評価値生成手段である。
The control section 1A is a control means in the present invention, and the lens 2 and the aperture 3 form an optical system in the present invention. Further, the detection range generation circuit 10
Is a detection area generating means in the present invention. Also AWB
The processing circuit 7, the AF processing circuit 8, and the AE processing circuit 9 are evaluation value generation means in the present invention.

【0022】次に動作について説明する。被写体からの
光はレンズ2を通し、光量制限手段である絞り3を通過
後、撮像素子4上に結像される。撮像素子4は、例えば
水平2048画素×垂直1024画素を有しベイヤー配
列の赤(R)・緑(G)・青(B)の各色信号を画素単
位で出力する二次元CCDを用いる。撮像素子4によっ
て光電変換されたアナログ画像データである信号はA/
D変換器5によって量子化される。A/D変換器5の出
力であるデジタル化された画像データである信号SはA
WB処理回路7、AF処理回路8、AE処理回路9に並
列に入力される。これら処理回路は、検波域生成回路1
0によって検波域が指定され、指定された検波域内で信
号検波を行って評価値を算出する(詳細は後述する)。
これら処理回路により最適な撮像信号として処理された
信号は画像処理回路14に入力される。画像処理回路1
4では撮像信号のエッジ強調のためのフィルタ処理や、
オペレーションパネル1Bの指示に従って撮像画面の拡
大・縮小処理等を行う。その後、表示処理回路15によ
ってディスプレイ16に表示させるための所定の処理を
行った後、ディスプレイ16上に撮像確認の画面を表示
する。ここで、オペレーションパネル1Bのシャッター
がユーザにより押下されると、A/D変換器5の信号S
は一旦メモリ6に収納される。画像処理回路14の速度
や記録媒体18の記録速度等に応じて、順次メモリ6内
の画像を読み出し、再びAWB処理回路7及び画像処理
回路14によって処理された後、記録処理回路17で所
定のデータ変換を行い記録媒体18に記録される。この
ような一連の動作により被写体を撮像する。
Next, the operation will be described. Light from a subject passes through a lens 2, passes through a stop 3 serving as a light amount limiting unit, and forms an image on an image sensor 4. The imaging element 4 uses, for example, a two-dimensional CCD having 2048 horizontal pixels × 1024 vertical pixels and outputting red (R), green (G), and blue (B) color signals in a Bayer array in pixel units. A signal that is analog image data photoelectrically converted by the image sensor 4 is A /
It is quantized by the D converter 5. The signal S, which is the digitized image data output from the A / D converter 5, is A
The signals are input to the WB processing circuit 7, the AF processing circuit 8, and the AE processing circuit 9 in parallel. These processing circuits include a detection range generation circuit 1
A detection area is designated by 0, and signal detection is performed within the designated detection area to calculate an evaluation value (details will be described later).
The signals processed as the optimal imaging signals by these processing circuits are input to the image processing circuit 14. Image processing circuit 1
In No. 4, filter processing for edge enhancement of the imaging signal,
In accordance with an instruction from the operation panel 1B, enlargement / reduction processing of the imaging screen is performed. After that, the display processing circuit 15 performs a predetermined process for displaying the image on the display 16, and then displays an image confirmation screen on the display 16. Here, when the shutter of the operation panel 1B is pressed by the user, the signal S of the A / D converter 5 is output.
Are temporarily stored in the memory 6. The images in the memory 6 are sequentially read out according to the speed of the image processing circuit 14, the recording speed of the recording medium 18, and the like, and are again processed by the AWB processing circuit 7 and the image processing circuit 14. The data is converted and recorded on the recording medium 18. The subject is imaged by such a series of operations.

【0023】ここで、検波域生成回路10を説明する。
図2は検波域生成回路10の一例を示す図である。この
検波域生成回路により図3に示す検波域を生成する。本
実施の形態では画面を16分割しており、1つの検波域
は水平512画素・垂直256画素である。図3の検波
域がこの発明における領域である。
Here, the detection range generation circuit 10 will be described.
FIG. 2 is a diagram illustrating an example of the detection range generation circuit 10. The detection area shown in FIG. 3 is generated by this detection area generation circuit. In the present embodiment, the screen is divided into 16, and one detection area is 512 pixels horizontally and 256 pixels vertically. The detection area in FIG. 3 is an area according to the present invention.

【0024】図2において、19は水平方向ゲート信号
発生部(水平方向ゲート信号発生手段)である。20は
水平アドレスカウンタであり、21a、21b..21
nは水平方向の各検波域に対応した水平方向ゲート信号
生成回路であり、本実施の形態の場合は4つ有する(n
は4)。水平方向ゲート生成回路21a、21b..2
1nは、まず、22a、22b..の各検波域の水平開
始若しくは水平終了位置を収納するレジスタと、23の
論理演算部から成り、さらに論理演算部23は比較器2
4aと24bとANDゲート25によって構成される。
一方、26は垂直方向ゲート信号発生部(垂直方向ゲー
ト信号発生手段)である。27は垂直アドレスカウンタ
であり、ダウンカウンタによって構成され、1つの検波
域内の256垂直画素(ライン)をカウント可能な8ビ
ット幅を有する。28は垂直方向ゲート信号生成回路で
ある。29はORゲートであり、垂直アドレスカウンタ
27の出力VADの各ビット全体の論理和をとる。
In FIG. 2, reference numeral 19 denotes a horizontal gate signal generating section (horizontal gate signal generating means). 20 is a horizontal address counter, 21a, 21b. . 21
n is a horizontal direction gate signal generation circuit corresponding to each detection area in the horizontal direction, and in the case of this embodiment, there are four (n)
Is 4). Horizontal gate generation circuits 21a, 21b. . 2
1n, first, 22a, 22b. . , A register for storing the horizontal start or horizontal end position of each detection area, and 23 logical operation units.
4a and 24b and an AND gate 25.
On the other hand, reference numeral 26 denotes a vertical gate signal generator (vertical gate signal generator). Reference numeral 27 denotes a vertical address counter which is constituted by a down counter and has an 8-bit width capable of counting 256 vertical pixels (lines) in one detection area. 28 is a vertical direction gate signal generation circuit. Reference numeral 29 denotes an OR gate which takes the logical sum of all bits of the output VAD of the vertical address counter 27.

【0025】検波域1の生成について説明する。素子制
御回路13から信号Sに同期した画素クロックが水平ア
ドレスカウンタ20に入力される。水平アドレスカウン
タ20は撮像素子4の水平2048画素数分をカウント
し水平アドレスHADを生成する。水平アドレスHAD
は、水平方向ゲート信号生成回路21aの論理演算部2
3に入力される。比較器24aは水平アドレスHADと
検波域1の予め設定された水平方向の検波域の開始位置
を示すレジスタ22aを比較する。撮像素子4からの画
素読み出しが進むに応じて水平アドレスHADがカウン
トアップし、水平アドレスHADが水平開始位置レジス
タ22a以上の場合は比較器24aは“H”の信号を出
力する。また、水平アドレスHADは比較器24bによ
って検波域1の水平方向終了位置レジスタ22bと比較
され、終了位置レジスタ22bよりも水平アドレスHA
Dが以下の場合“H”が比較器24bより出力される。
比較器24aと24bの出力はANDゲート25に入力
され両出力が“H”の場合のみANDゲートは“H”信
号を出力し、結果、検波域1の水平方向のゲート信号W
EH1が得られる。
The generation of the detection area 1 will be described. A pixel clock synchronized with the signal S is input to the horizontal address counter 20 from the element control circuit 13. The horizontal address counter 20 counts the number of horizontal 2048 pixels of the image sensor 4 and generates a horizontal address HAD. Horizontal address HAD
Is the logical operation unit 2 of the horizontal direction gate signal generation circuit 21a.
3 is input. The comparator 24a compares the horizontal address HAD with a register 22a indicating the start position of a predetermined horizontal detection area of the detection area 1. The horizontal address HAD counts up as the pixel reading from the image sensor 4 progresses. When the horizontal address HAD is equal to or larger than the horizontal start position register 22a, the comparator 24a outputs an "H" signal. Further, the horizontal address HAD is compared with the horizontal end position register 22b of the detection area 1 by the comparator 24b, and the horizontal address HA is more than the end position register 22b.
When D is as follows, "H" is output from the comparator 24b.
The outputs of the comparators 24a and 24b are input to an AND gate 25, and the AND gate outputs an "H" signal only when both outputs are "H". As a result, the horizontal gate signal W in the detection area 1 is output.
EH1 is obtained.

【0026】他方、素子制御回路13からライン毎の水
平同期信号が垂直アドレスカウンタ27に入力される。
垂直アドレスカウンタ27は予め255の初期値が設定
されており、検波域の垂直256ライン数分をカウント
し垂直アドレスVADを生成する。垂直アドレスVAD
は垂直方向ゲート生成回路28に入力される。撮像素子
4からの水平周期に応じて垂直アドレスVADが1ずつ
デクリメントする。図3に示す検波域1と検波域5の垂
直境界ライン、すなわち256ライン目になると、垂直
アドレスVADが0となり8ビットすべてが”L”とな
る。従って、ORゲート29は”L”を出力し検波域1
の垂直方向の終了ラインでのみ”L”となるゲート信号
WEVが得られる。
On the other hand, a horizontal synchronizing signal for each line is input to the vertical address counter 27 from the element control circuit 13.
The vertical address counter 27 has an initial value of 255 set in advance, counts the number of vertical 256 lines in the detection area, and generates a vertical address VAD. Vertical address VAD
Are input to the vertical gate generation circuit 28. The vertical address VAD is decremented by one according to the horizontal cycle from the image sensor 4. At the vertical boundary line between the detection area 1 and the detection area 5 shown in FIG. 3, that is, the 256th line, the vertical address VAD becomes 0 and all 8 bits become “L”. Therefore, the OR gate 29 outputs "L" and the detection range 1
The gate signal WEV which becomes "L" is obtained only in the vertical end line.

【0027】検波域1の水平方向ゲート信号WEH1と
垂直方向ゲート信号WEVにより、検波域1の範囲内で
あることを示す領域信号WEが得られる。検波域2〜4
を示す信号も同様に、それぞれの水平方向ゲート生成回
路21b..21nの出力WEH2〜WEHnと垂直方
向ゲート生成回路28の出力WEVより領域特定が可能
である。また、次の検波域5の信号WEは、垂直アドレ
スカウンタ27が再び255に戻ってカウントし始め、
検波域5の垂直方向の終了ラインを示すゲート信号WE
V及び水平方向ゲート信号WEH1により領域を特定す
る。この動作を繰り返すことで全検波域を特定すること
が可能な信号WEを得ることが出来る。
The horizontal direction gate signal WEH1 and the vertical direction gate signal WEV in the detection area 1 provide an area signal WE indicating that the area is within the detection area 1. Detection range 2-4
Similarly, the signals indicating the horizontal gate generation circuits 21b. . The area can be specified from the outputs WEH2 to WEHn of the 21n and the output WEV of the vertical gate generation circuit 28. Further, the signal WE of the next detection area 5 is returned to 255 by the vertical address counter 27 and starts counting.
Gate signal WE indicating the vertical end line of detection area 5
The region is specified by V and the horizontal direction gate signal WEH1. By repeating this operation, a signal WE capable of specifying the entire detection range can be obtained.

【0028】上記ゲート信号WEH1からWEHnがこ
の発明における水平方向ゲート信号、ゲート信号WEV
がこの発明における垂直方向ゲート信号であり、この水
平方向ゲート信号と垂直方向ゲート信号を組み合わせた
信号WEがこの発明における領域情報である。
The gate signals WEH1 to WEHn are the horizontal gate signal and the gate signal WEV in the present invention.
Is the vertical gate signal in the present invention, and the signal WE obtained by combining the horizontal gate signal and the vertical gate signal is the area information in the present invention.

【0029】次に、AWB処理回路7、AF処理回路
8、AE処理回路9について説明する。
Next, the AWB processing circuit 7, the AF processing circuit 8, and the AE processing circuit 9 will be described.

【0030】図4にAWB処理回路7を示す。33a〜
33dはAWB処理の評価値として用いるR、G、Bの
各色毎の平均値、最大値、最小値を求める検波部、34
は信号Sに補正係数を乗算する補正部である。ここで検
波部の数は本実施の形態では水平方向の検波域が4であ
るので検波部を4つ有する。35は垂直ゲート信号WE
Vの”L”から”H”への変化点に”L”となる信号R
STを出力する微分回路である。これは、WEV信号が
各検波域の垂直終了ラインで”L”となるために、最終
ラインの画素が検波が不可能にすることを防止するため
である。検波部はWE信号に従って検波を行う。検波部
33aはWEH1信号を動作イネーブル信号として”
H”の時のみ検波を行う。検波部33b〜33dも同様
にWEH2〜WEHnに従って動作する。次に検波域1
〜4の垂直方向の終了を示す垂直ゲート信号WEVの微
分回路35の出力信号RSTが”L”となると、各検波
部で求められたそれぞれの評価値W1〜W4はデータバ
スDを通じて制御部1Aに送出される。その後、RST
信号により各検波部はリセットされる。次に検波部33
a〜33dは検波域5〜8のAWB評価値を検波する。
このようにして1画面分の検波を行う。各評価値W1〜
W4はそれぞれ検波域1から4におけるR(赤)、G
(緑)、B(青)の強度の平均値、最大値、最小値を含
む。
FIG. 4 shows the AWB processing circuit 7. 33a ~
Reference numeral 33d denotes a detection unit that calculates an average value, a maximum value, and a minimum value for each of R, G, and B colors used as evaluation values of the AWB process.
Is a correction unit for multiplying the signal S by a correction coefficient. In this embodiment, the number of the detection units is four in the horizontal detection area in the present embodiment, so that four detection units are provided. 35 is a vertical gate signal WE
A signal R that becomes “L” at the point where V changes from “L” to “H”
This is a differentiating circuit that outputs ST. This is to prevent the pixel on the last line from being unable to detect the WEV signal because it becomes “L” at the vertical end line of each detection area. The detector performs detection according to the WE signal. The detector 33a uses the WEH1 signal as an operation enable signal.
The detection is performed only at the time of H ". The detection units 33b to 33d operate in the same manner according to WEH2 to WEHn.
When the output signal RST of the differentiating circuit 35 of the vertical gate signal WEV indicating the end in the vertical direction of .about.4 becomes "L", the respective evaluation values W1 to W4 obtained by the respective detectors are transmitted to the controller 1A through the data bus D. Sent to Then, RST
Each detector is reset by the signal. Next, the detection unit 33
a to 33d detect AWB evaluation values in the detection ranges 5 to 8.
Thus, detection for one screen is performed. Each evaluation value W1
W4 represents R (red) and G in detection ranges 1 to 4, respectively.
(Green) and the average, maximum, and minimum values of the intensities of B (blue).

【0031】なお、検波部の数は検波域が少なくとも水
平方向に重ならない数を有すれば良く、むろん検波域数
分有しても良い。また、検波域が垂直方向に不連続でも
良い場合は微分回路35は不要となる。さらに、本実施
例では簡便のため、細かなタイミング調節は省略した
が、評価値W1〜W4の送出と検波部のリセットは所定
のディレイラインやフリップフロップ等を用いてRST
信号を遅らせて、評価値の送出が終了した後、リセット
を行えばよい。
Note that the number of detection sections may be any number as long as the detection areas do not overlap at least in the horizontal direction, and of course, may have the number of detection areas. When the detection area may be discontinuous in the vertical direction, the differentiating circuit 35 becomes unnecessary. Further, in this embodiment, for the sake of simplicity, fine timing adjustment is omitted, but transmission of the evaluation values W1 to W4 and resetting of the detection unit are performed by using a predetermined delay line, flip-flop, or the like.
After the signal is delayed and the transmission of the evaluation value is completed, the reset may be performed.

【0032】データバスDを通じて得られた各評価値を
参照して、制御部1Aは所定の検波域の評価値を選択す
る。選択に際しては例えば、AWB(オートホワイトバ
ランス)が最適に動作する各色の最大値・最小値を予め
設定しておき、上記評価値と比較してその条件に適する
検波域からの評価値を選択する。Gの出力を基準として
ホワイトバランス調整を行う場合には、Rの補正係数は
選択された検波域のRの平均値とGの平均値を用いて、
R平均値/G平均値で算出し、同様にBの補正係数は選
択された検波域のBの平均値とGの平均値を用いて、B
平均値/G平均値によって算出する。このようにして算
出した補正係数はデータバスDを通じてAWB処理回路
7に送出され、補正部34によって補正係数を信号Sに
乗算することによって各検波域に適用され、各色のバラ
ンスを取る。
With reference to each evaluation value obtained through the data bus D, the control section 1A selects an evaluation value in a predetermined detection range. At the time of selection, for example, the maximum value and the minimum value of each color in which AWB (auto white balance) operates optimally are set in advance, and the evaluation value is compared with the above evaluation value to select an evaluation value from a detection area suitable for the condition. . When performing white balance adjustment based on the output of G, the correction coefficient of R is calculated using the average value of R and the average value of G in the selected detection area.
Similarly, the correction coefficient of B is calculated by using the average value of B and the average value of G in the selected detection area.
It is calculated by the average value / G average value. The correction coefficient calculated in this way is sent to the AWB processing circuit 7 via the data bus D, and is applied to each detection area by multiplying the correction coefficient by the correction coefficient by the correction unit 34 to balance each color.

【0033】AF処理回路8も同様に検波部を少なくと
も水平方向の検波域数分有し、これらの検波部によって
信号Sを積算する。AF処理回路8は図4のAWB評価
回路7から補正部34を削除した構成となっている。従
って、AWB評価値と同タイミングで検波域毎の積算値
を評価値とするAF(オートフォーカス)評価値が得ら
れる。ここでは、AF追従速度及び精度を選択できるよ
うに、積分する信号Sの積分間隔を変えて少なくとも2
種類のAF評価値、AF検波1、AF検波2を得る。例
えばAF検波1は検波域内のすべての画素について信号
Sを積算したものであり、AF検波2は検波域内の水平
方向に1つ置きに信号Sを積算したものである。勿論他
の積算法であってもよい。
Similarly, the AF processing circuit 8 has detection sections for at least the number of detection areas in the horizontal direction, and integrates the signal S by these detection sections. The AF processing circuit 8 has a configuration in which the correction unit 34 is deleted from the AWB evaluation circuit 7 in FIG. Therefore, an AF (autofocus) evaluation value is obtained at the same timing as the AWB evaluation value, using the integrated value for each detection area as the evaluation value. Here, the integration interval of the signal S to be integrated is changed at least two times so that the AF following speed and accuracy can be selected.
The type of AF evaluation value, AF detection 1 and AF detection 2 are obtained. For example, AF detection 1 is obtained by integrating the signals S for all the pixels in the detection area, and AF detection 2 is obtained by integrating the signals S every other pixel in the detection area in the horizontal direction. Of course, other integration methods may be used.

【0034】被写体の焦点が合っていない場合(非合焦
時)には信号Sの積算値が小さくなり、合焦時には積算
値が大きくなる。この積算値をデータバスDを通じて制
御部1Aに送出する。制御部1Aは予め設定してある所
定の検波域を選択するか、若しくはAWB評価値の最大
・最小・平均値を参照して最適な検波域を選択し、さら
に、選択した検波域から任意のAF追従速度等に応じて
上記2つのAF評価値(AF検波1、AF検波2)のど
ちらかを選択する。制御部1Aは選択されたAF評価値
とその値に相関付けされたデフォーカス量から、合焦状
態となるようにレンズ2に取りつけられたAF用モータ
11を駆動し自動焦点合わせを行う。
When the object is out of focus (out of focus), the integrated value of the signal S becomes small, and when the object is in focus, the integrated value becomes large. This integrated value is transmitted to the control unit 1A via the data bus D. The control unit 1A selects a predetermined detection area set in advance, or selects an optimal detection area by referring to the maximum, minimum, and average values of the AWB evaluation values, and further selects an arbitrary detection area from the selected detection area. One of the two AF evaluation values (AF detection 1 and AF detection 2) is selected according to the AF following speed and the like. Based on the selected AF evaluation value and the defocus amount correlated with the selected AF evaluation value, the control unit 1A drives the AF motor 11 attached to the lens 2 so as to be in focus and performs automatic focusing.

【0035】AE処理回路9も同様に、検波部を少なく
とも水平方向の検波域分有し、各検波部は信号Sを積算
する。AE処理回路9も図4のAWB評価回路7から補
正部34を削除した構成となっている。この積算値は被
写体の輝度によって値が変動する。このAE(オートエ
クスポージャ:自動露出)評価値もAWB評価値、AF
評価値と同じタイミングで得ることが出来る。得られた
AE評価値である積算値はデータバスDを通じて制御部
1Aに送出され、制御部1Aは所定の検波域のAE評価
値を選択し、最適な露光量となるように絞り3を制御す
る絞り制御回路12を動作させる。若しくは撮像素子4
を制御する素子制御回路13に所望の電荷蓄積時間を得
られるように制御コマンドを送出する。また、図示しな
いシャッターのシャッタースピードを露光量に合わせて
変えても良い。上記AWB、AE、AFがこの発明にお
ける複数の撮像条件である。
Similarly, the AE processing circuit 9 has a detection section for at least a horizontal detection area, and each detection section integrates the signal S. The AE processing circuit 9 also has a configuration in which the correction unit 34 is deleted from the AWB evaluation circuit 7 in FIG. This integrated value varies depending on the brightness of the subject. This AE (auto exposure: automatic exposure) evaluation value is also an AWB evaluation value, AF
It can be obtained at the same timing as the evaluation value. The obtained integrated value, which is the AE evaluation value, is sent to the control unit 1A via the data bus D, and the control unit 1A selects the AE evaluation value in a predetermined detection range and controls the aperture 3 so that the optimum exposure amount is obtained. The aperture control circuit 12 is operated. Or image sensor 4
Is transmitted to the element control circuit 13 for controlling the control so as to obtain a desired charge accumulation time. Further, the shutter speed of a shutter (not shown) may be changed according to the exposure amount. The above AWB, AE, and AF are a plurality of imaging conditions in the present invention.

【0036】ここで、タイミングチャートを用いてさら
に説明する。図5は上記の動作を示すタイミングチャー
トである。Vは画面(フィールド)を示し、”H”区間
は撮像素子4の有効区間を示し、”L”区間は次画面に
移行する、いわゆる垂直帰線期間である。まず、時刻T
0〜T1区間では検波域1から4までのAF、AE、A
WBの各検波を行う。時刻T1になると、検波域1から
4において検波されたAF、AE、AWBの評価値はデ
ータバスDを通じて制御部1Aに送出され、制御部1A
の内部レジスタに収納される。次の時刻T1からT2区
間は検波部5から8までの検波が行われ、時刻T2にな
るとこの区間の評価値が制御部1Aに送出される。この
ように順次検波を行っていく。時刻T4になると、画面
1の全検波域での評価値が揃う。制御部1Aは時刻T4
〜T0’区間にこれらの評価値を用いて所定の評価値を
選択し、各処理へと反映させる。従って、次の画面2で
は所定の自動処理を終えた画像を得ることが出来る。な
お、垂直帰線期間(時刻T4〜T0’)は水平同期信号
10数程度相当であるため、この期間内において十分に
制御部は演算可能である。
Here, further explanation will be given using a timing chart. FIG. 5 is a timing chart showing the above operation. V indicates a screen (field), an “H” section indicates an effective section of the image sensor 4, and an “L” section is a so-called vertical retrace period in which a transition is made to the next screen. First, time T
AF, AE, A in the detection range 1 to 4 in the interval 0 to T1
Each detection of WB is performed. At time T1, the evaluation values of AF, AE, and AWB detected in the detection ranges 1 to 4 are sent to the control unit 1A via the data bus D, and the control unit 1A
Is stored in the internal register. In the next section from time T1 to T2, detection is performed by the detectors 5 to 8, and at time T2, the evaluation value in this section is sent to the controller 1A. Detection is sequentially performed in this manner. At time T4, the evaluation values in the entire detection area of the screen 1 are aligned. The control unit 1A operates at time T4
A predetermined evaluation value is selected using these evaluation values in the period from T0 'to a time period and reflected in each process. Therefore, on the next screen 2, it is possible to obtain an image for which predetermined automatic processing has been completed. Note that the vertical flyback period (time T4 to T0 ') is equivalent to about ten horizontal synchronization signals, so that the control unit can sufficiently perform calculations within this period.

【0037】以上のように、画面を複数の検波域に分割
し、検波域毎にAF、AE、AWBの各処理に用いる各
評価値を同時に検波可能な構成としたため、検波域生成
に必要な回路が単純化できると共に、複数の検波域の評
価値を同時に検波可能なので、高速な処理が可能であ
り、得られた評価値を効率良く各処理に反映させること
が出来る。また、各処理動作への評価値の反映は少なく
とも次の画面までの垂直帰線期間内に行うとができるた
め、リアルタイム処理が可能となり処理速度を向上させ
ることが可能となる。さらに、検波域毎に評価値が得ら
れるために、これらを組み合わせて各処理に反映できる
ようになり、高画質な画像を得ることが可能な撮像装置
を得ることが可能となる。
As described above, the screen is divided into a plurality of detection ranges, and each evaluation value used for each of the AF, AE, and AWB processes can be detected simultaneously for each detection range. Since the circuit can be simplified and the evaluation values in a plurality of detection ranges can be detected simultaneously, high-speed processing can be performed, and the obtained evaluation values can be efficiently reflected in each processing. In addition, since the evaluation value is reflected on each processing operation at least within the vertical blanking period up to the next screen, real-time processing can be performed and the processing speed can be improved. Furthermore, since an evaluation value can be obtained for each detection area, these can be combined and reflected in each processing, and an imaging device capable of obtaining a high-quality image can be obtained.

【0038】なお、用いた撮像素子4の画素数や検波域
の数は任意であり、本実施の形態の限りではない。撮像
素子4もCCDのみならずCMOSセンサ等を用いても
良いことは言うまでもない。
The number of pixels of the image sensor 4 and the number of detection areas used are arbitrary, and are not limited to the present embodiment. It goes without saying that the imaging device 4 may use not only a CCD but also a CMOS sensor or the like.

【0039】また図2に示した検波域生成手段におい
て、水平方向開始位置レジスタ22a、22c等と水平
方向終了レジスタ22b、22d等の設定値を変更すれ
ば検波域の水平方向の大きさを変更することが可能であ
り、さらに垂直アドレスカウンタ27のビット数の変更
や、垂直検波域毎に初期値を設定できる例えばプログラ
マブルなカウンタに変更すれば検波域の垂直方向の大き
さを変更することが可能である。この各レジスタの設定
値をユーザが任意に設定できるようにしてもよく、また
水平方向に並んだ検波域の水平方向の大きさは等しくな
くてもよく、垂直方向に並んだ検波域の垂直方向の大き
さも等しくなくてもよい。さらに、垂直アドレスカウン
タ27はダウンカウンタによって構成していたが、アッ
プカウンタによって構成できることは言うまでもない。
In the detection area generating means shown in FIG. 2, the horizontal size of the detection area can be changed by changing the set values of the horizontal start position registers 22a and 22c and the horizontal end registers 22b and 22d. It is also possible to change the vertical size of the detection area by changing the number of bits of the vertical address counter 27 or changing it to, for example, a programmable counter capable of setting an initial value for each vertical detection area. It is possible. The setting value of each register may be arbitrarily set by the user, and the detection areas arranged in the horizontal direction may not be equal in size in the horizontal direction, and the detection areas arranged in the vertical direction may not be equal. May not be equal. Further, although the vertical address counter 27 is constituted by a down counter, it goes without saying that it can be constituted by an up counter.

【0040】また、本実施例では垂直帰線期間内に制御
部によるAF、AE、AWBの制御を行うとしたが、た
とえば、検波域5の評価値が選択される場合には、時刻
T2において検波域5の評価値が得られた時点で制御部
1Aで演算を行い、垂直帰線期間内でレンズや絞りの制
御及びAWB補正係数の書き換えを行っても良い。ま
た、上記のAF処理動作に示した例のようにAWB評価
値(最大・最小・平均値)を参照して処理動作を行う場
合等にも、検波域の評価値が得られた時点で制御部によ
り逐次処理し、次の画面の撮像が開始されるまでに各処
理動作が終了していれば良い。さらに、例えば検波域1
〜4の評価値は時刻T1に制御部1Aにまとめて送出し
なくても、それぞれの検波が終了した時点で順次制御部
1Aに送出し、制御部はその評価値を順次参照して逐次
処理しても良い。
In this embodiment, the control section controls the AF, AE, and AWB during the vertical flyback period. However, when the evaluation value of the detection area 5 is selected, for example, at time T2 When the evaluation value of the detection area 5 is obtained, the control unit 1A may perform the calculation, and control the lens and aperture and rewrite the AWB correction coefficient within the vertical flyback period. Also, in the case where the processing operation is performed with reference to the AWB evaluation value (maximum / minimum / average value) as in the example shown in the above-described AF processing operation, the control is performed at the time when the evaluation value of the detection area is obtained. The processing may be sequentially performed by the unit, and each processing operation may be completed by the time the imaging of the next screen is started. Further, for example, the detection area 1
The evaluation values of (1) to (4) are not sent to the control unit 1A at the time T1, but are sent out to the control unit 1A at the time of completion of each detection, and the control unit sequentially refers to the evaluation values and sequentially processes the evaluation values. You may.

【0041】また、シャッター押下後のメモリ6から画
像を読み出す際に、その信号に対してもAF、AE、A
WBの検波を行い、その評価値を用いてAWB補正係数
や後述するフィルタの強度係数等を変えた撮像信号を記
録媒体18に記録しても良い。
When an image is read from the memory 6 after the shutter is pressed, AF, AE, A
WB detection may be performed, and an imaging signal in which an AWB correction coefficient, a filter intensity coefficient described later, or the like is changed using the evaluation value may be recorded on the recording medium 18.

【0042】また、各自動処理への反映は垂直帰線区間
に行うとしたが、ディスプレイで撮像状態を観測しなが
ら撮像を行う場合や高速追従を行う場合には、画面の途
中でレンズや絞りの制御及びAWB補正係数の書き換え
等を行っても良い。これは表示が例えばNTSC準拠し
ているとフレームレートは1/30秒と視覚的に高速で
あり、画面途中で処理の変化があってもほとんど影響が
無いためである。これはPAL等他の方式に準拠してい
ても同様である。
Although the reflection in each automatic processing is performed in the vertical retrace interval, when performing imaging while observing the imaging state on the display or performing high-speed tracking, a lens or aperture is required in the middle of the screen. And the rewriting of the AWB correction coefficient may be performed. This is because, for example, when the display is based on NTSC, the frame rate is visually high at 1/30 seconds, and there is almost no effect even if the processing changes in the middle of the screen. This is the same even if it complies with another method such as PAL.

【0043】また、AF、AE、AWBの検波は回路に
よるハードウエア処理であったが、信号Sを制御部1A
に入力し制御部1Aで検波しても良い。
The detection of AF, AE, and AWB is performed by hardware using a circuit.
And may be detected by the control unit 1A.

【0044】実施の形態2.以下、この発明の実施の形
態2を図1、2、3、6に従って説明する。新たな図で
ある図6はこの実施の形態2における検波域と評価域を
示す図である。検波域1から16は実施の形態1で図2
を用いて説明した検波域生成回路10によって図3のよ
うに生成された検波域である。AWB処理回路7、AF
処理回路8、AE処理回路9は各々の検波域において実
施の形態1と同様にそれぞれの評価値を検波する。得ら
れた評価値はデータバスDを通じて処理部1に送出され
る。制御部1Aでは、予めAF、AE、AWBの各処理
に用いる評価域を図6のように設定しておく。評価域1
は検波域1、5、9、13の評価値を加算若しくは平均
化して用いる。また、評価域2は検波域6、7、10、
11の評価値を、処理域3は検波域4、8、12、16
の評価値を組み合わせる。従って、処理域2は画面中央
を測光した結果とほぼ等しい結果が得られる。同様に処
理域1及び2は画面左右の周辺部を測光した結果である
のと等しい。このようにして組み合わせた評価値を用い
てAF、AE、AWBの動作を行う。
Embodiment 2 Hereinafter, a second embodiment of the present invention will be described with reference to FIGS. FIG. 6, which is a new diagram, is a diagram illustrating a detection area and an evaluation area according to the second embodiment. The detection ranges 1 to 16 are the same as those of the first embodiment shown in FIG.
Is a detection range generated by the detection range generation circuit 10 described with reference to FIG. AWB processing circuit 7, AF
The processing circuit 8 and the AE processing circuit 9 detect the respective evaluation values in the respective detection ranges as in the first embodiment. The obtained evaluation value is sent to the processing unit 1 via the data bus D. In the control unit 1A, evaluation areas used for the AF, AE, and AWB processes are set in advance as shown in FIG. Evaluation area 1
Is used by adding or averaging the evaluation values of the detection ranges 1, 5, 9, and 13. The evaluation area 2 includes detection areas 6, 7, 10,
The evaluation value of 11 is processed, and the processing area 3 is the detection area 4, 8, 12, 16
Combine the evaluation values of Therefore, in the processing area 2, a result substantially equal to the result of photometry at the center of the screen is obtained. Similarly, the processing areas 1 and 2 are the same as the result of photometry of the left and right peripheral portions of the screen. The AF, AE, and AWB operations are performed using the evaluation values thus combined.

【0045】まず、ディスプレイ16上で撮像状態を観
測する。次に検波域を組み合わせた評価域1をオペレー
ションパネル1Bによって選択する。制御部1Aはこの
オペレーションパネル1Bの指示に従い、画面左部の評
価域1の評価値をAF、AE、AWB処理に反映させ
る。すると、ディスプレイ16には評価域1の評価値を
用いた撮像画面が表示される。所望の撮像画面が得られ
ると、オペレーションパネル1B上のシャッターを押下
し記録媒体18にデータを保存する。所望の撮像画面が
得られない場合には、次に画面中央部の評価域2を選択
する。順次、所望画面が得られるまで上記動作を繰り返
すことにより撮像画面を得る。
First, the imaging state is observed on the display 16. Next, the evaluation area 1 combining the detection areas is selected by the operation panel 1B. The control unit 1A reflects the evaluation value of the evaluation area 1 in the left part of the screen in the AF, AE, and AWB processes according to the instruction on the operation panel 1B. Then, an imaging screen using the evaluation value of the evaluation area 1 is displayed on the display 16. When a desired imaging screen is obtained, a shutter on the operation panel 1B is pressed to save data in the recording medium 18. If a desired imaging screen cannot be obtained, the evaluation area 2 at the center of the screen is selected next. By repeating the above operation until a desired screen is obtained, an imaging screen is obtained.

【0046】以上のように、多分割された検波域のA
F、AE、AWBの各評価値を組み合わせてAF、A
E、AWB処理に反映させるようにしたため、回路規模
が増大することなく、例えば中央重点測光や周辺測光な
どを容易にすることができる。
As described above, A in the multi-divided detection area
AF, A by combining the evaluation values of F, AE, and AWB
E, since it is reflected in the AWB processing, for example, center-weighted photometry or peripheral photometry can be facilitated without increasing the circuit scale.

【0047】本実施の形態では、ディスプレイ上で観測
しながら各処理に用いる組み合わせた評価域を選択する
としたが、予め所定の評価値範囲を決めておき、その範
囲内にある評価域を制御部で判断して自動的に評価値を
選択しても良い。
In this embodiment, the combined evaluation area used for each processing is selected while observing on the display. However, a predetermined evaluation value range is determined in advance, and the evaluation area within that range is determined by the control unit. And the evaluation value may be automatically selected.

【0048】なお、検波域の組み合わせはこの限りでな
く任意であり、画面の平均測光を行う場合には検波域1
〜16の評価値を加算し平均値を算出して求めれば良
い。
Note that the combination of the detection ranges is not limited to this, and any combination is possible.
What is necessary is just to calculate the average value by adding the evaluation values of up to 16 and obtain the average value.

【0049】また、オペレーションパネル1B上に検波
域を選択するように選択スイッチ等を設けて、被写体や
撮影状況に合わせて使用者が任意に選択できるようにし
ても良い。このようにAF、AE、AWBの処理域を撮
影者が任意に設定できるようにしたため、撮影者の意図
する処理が可能となり、使い勝手の良い撮像装置を得る
ことが可能となる。
Further, a selection switch or the like may be provided on the operation panel 1B so as to select a detection area, so that the user can arbitrarily select the detection area in accordance with the subject and the photographing situation. Since the photographer can arbitrarily set the processing areas of AF, AE, and AWB in this manner, the processing intended by the photographer can be performed, and an easy-to-use imaging device can be obtained.

【0050】検波域の組み合わせをオペレーションパネ
ル上で行うとしたが、予め組み合わせる検波域を用意し
ておき、組み合わせた結果である評価値を使用者が選べ
るごとく構成しても良い。
Although the detection areas are combined on the operation panel, the detection areas to be combined may be prepared in advance so that the evaluation value as the result of the combination can be selected by the user.

【0051】実施の形態3.以下、この発明の実施の形
態3を図7に従って説明する。実施の形態1で説明した
ように、各検波域から得られたそれぞれの評価値は、デ
ータバスDを通じて制御部1Aに送出され、制御部1A
内部のレジスタに一旦収納されてから制御部1Aはその
レジスタを参照して最適動作を決定する。図7はそのと
きの制御部1Aの内部レジスタ40に収納される評価値
を示す図である。図7は制御部1Aの内部レジスタのア
ドレスと、AWB処理回路7、AF処理回路8、AE処
理回路9によって検波された評価値の関係を示す。アド
レス0にはAWB処理回路7によって検波された検波域
1のR成分の最大値・最小値・平均値及びAF評価値1
が収納され、アドレス1には検波域1のG成分の最大値
・最小値・平均値及びAF検波値2、アドレス2には検
波域1のB成分の最大値・最小値・平均値及びAE評価
値が収納されている。アドレス3から5には検波域2の
評価値が収納されている。
Embodiment 3 FIG. Hereinafter, a third embodiment of the present invention will be described with reference to FIG. As described in the first embodiment, each evaluation value obtained from each detection area is sent to control section 1A via data bus D, and control section 1A
Once stored in an internal register, the control section 1A refers to the register to determine an optimal operation. FIG. 7 is a diagram showing the evaluation values stored in the internal register 40 of the control unit 1A at that time. FIG. 7 shows the relationship between the address of the internal register of the control section 1A and the evaluation values detected by the AWB processing circuit 7, the AF processing circuit 8, and the AE processing circuit 9. At address 0, the maximum value, minimum value, average value and AF evaluation value 1 of the R component of the detection area 1 detected by the AWB processing circuit 7
Are stored in the address 1, the maximum value / minimum value / average value of the G component in the detection area 1 and the AF detection value 2 and the address 2 the maximum value / minimum value / average value of the B component in the detection area 1 and the AE. The evaluation value is stored. Addresses 3 to 5 store the evaluation values of the detection area 2.

【0052】AWB制御の動作を例に説明する。制御部
1Aはアドレス0をアクセスする。するとRの最大値・
最小値・平均値及びAF検波値1が同時に参照できる。
制御部1Aは所定の範囲を予め設定されており、この所
定の範囲とこの最大値・最小値を比較する。最大値、最
小値がこの所定の範囲内に入っていればAWBの補正係
数の算出に検波域1のRの平均値を用いる。範囲内にな
ければ、検波域1の評価値をAWB処理に反映せずに、
次の検波域2の評価値が収納されたアドレス3を参照し
上記と同様の動作を行う。このような動作をすることに
よって、余分なアドレスのインクリメントが不要にな
る。
The operation of the AWB control will be described as an example. The control unit 1A accesses the address 0. Then the maximum value of R
The minimum / average value and the AF detection value 1 can be referred to simultaneously.
The control section 1A has a predetermined range set in advance, and compares the predetermined range with the maximum value / minimum value. If the maximum value and the minimum value are within the predetermined range, the average value of R in the detection area 1 is used for calculating the AWB correction coefficient. If not within the range, the evaluation value of the detection area 1 is not reflected in the AWB processing,
The same operation as above is performed with reference to the address 3 in which the evaluation value of the next detection area 2 is stored. By performing such an operation, unnecessary increment of the address becomes unnecessary.

【0053】このように、複数の評価値を同時に参照で
きる構成としたため、制御部を制御するソフトウエアの
効率が向上し、高速な処理が可能となる効果がある。
As described above, since a plurality of evaluation values can be referred to at the same time, the efficiency of software for controlling the control unit is improved, and high-speed processing can be performed.

【0054】さらに、得られた評価値が容易に識別或い
は判別できるように評価値に識別子等を設けてもよい。
識別子としては例えば、どの検波域(検波域1〜16)
の評価値であるかを示す4ビットと評価値の種類(R、
G、Bの各最大値、最小値、平均値、AF検波1、AF
検波2、AE検波の計12種類)を示す4ビットの計8
ビットを評価値の前に付加すればよい。
Further, an identifier or the like may be provided in the evaluation value so that the obtained evaluation value can be easily identified or discriminated.
As the identifier, for example, any detection area (detection areas 1 to 16)
Of the evaluation value (R, 4 bits)
G, B maximum value, minimum value, average value, AF detection 1, AF
4 bits total 8 indicating detection 2 and AE detection (total 12 types)
Bits may be added before the evaluation value.

【0055】なお、内部レジスタ40に収納されて制御
部によって同時参照される評価値の組み合わせはこの限
りではなく、AF、AE、AWBの処理優先度等から決
定するなどしてもよい。また、内部レジスタ40はRA
M等を用いても良いことは言うまでもない。
The combination of the evaluation values stored in the internal register 40 and simultaneously referred to by the control unit is not limited to this, and may be determined based on the processing priority of AF, AE, and AWB. Also, the internal register 40
It goes without saying that M or the like may be used.

【0056】実施の形態4.実施の形態4を図1および
図8を使って説明する。この実施の形態における撮像装
置の構成は実施の形態1で説明した図1と同様である。
本実施の形態はAE評価値をAF動作に反映させる場合
である。図8(A)のように、被写体の中に「太陽」な
ど高輝度部とその画面中に焦点合わせの目的とする
「家」がある場合を例に挙げる。このような高輝度部の
積算値は、撮像信号レベルがもともと高い値であるた
め、合焦していなくともAF評価値は大きい値が得られ
て制御部1Aが合焦と判定し、誤動作の要因となる。こ
れはAE、AWB動作についても同様に誤動作の要因と
なり、さらに、低輝度部が存在する場合にも誤動作の要
因になる。
Embodiment 4 Embodiment 4 will be described with reference to FIG. 1 and FIG. The configuration of the imaging device in this embodiment is the same as that in FIG. 1 described in the first embodiment.
In the present embodiment, the AE evaluation value is reflected in the AF operation. As shown in FIG. 8A, a case where a subject includes a high-luminance part such as the “sun” and a “house” for the purpose of focusing on the screen will be described as an example. Since the integrated value of such a high-luminance portion is originally a high value of the imaging signal level, a large value is obtained as the AF evaluation value even if the image is not in focus, and the control unit 1A determines that the image is in focus. It becomes a factor. This also causes a malfunction in the AE and AWB operations, and also causes a malfunction in a case where a low luminance portion exists.

【0057】次に動作を説明する。AE処理回路9によ
って図8(B)に示すように検波域毎に評価値が求めら
れる。ここでは簡便のため、高輝度部を評価値10とす
るような相対値に規格化されているものとする。ここ
で、予めAFの適正動作範囲を設定しておく。この場合
はAE評価値の3から6までをAF適正動作範囲とす
る。制御部1Aは得られた評価値から上記AF適正動作
範囲内にある評価値を判断する。従って、図8(C)に示
すように画面右下の検波域(家が写る領域)から得られ
た評価値のみをAF動作に反映させ、AF適正動作範囲
外の検波域から得られた評価値はAF動作に用いない。
この後、この適正動作範囲の評価値の平均をとりAF処
理を行う。この動作は実施の形態1と同様である。
Next, the operation will be described. As shown in FIG. 8B, the AE processing circuit 9 calculates an evaluation value for each detection area. Here, for the sake of simplicity, it is assumed that the relative values are standardized such that the high-luminance portion has an evaluation value of 10. Here, an appropriate AF operation range is set in advance. In this case, the AE evaluation value of 3 to 6 is set as the AF proper operation range. The control section 1A determines an evaluation value within the AF proper operation range from the obtained evaluation value. Accordingly, as shown in FIG. 8C, only the evaluation value obtained from the detection area (the area where the house is captured) at the lower right of the screen is reflected in the AF operation, and the evaluation obtained from the detection area outside the AF proper operation range. The value is not used for the AF operation.
Thereafter, an AF process is performed by averaging the evaluation values of the appropriate operation range. This operation is the same as in the first embodiment.

【0058】以上のように、予め自動制御動作の各処理
の適正動作範囲を設定しておき、各検波域から得られた
評価値がその範囲外にあるときはその評価値を各制御動
作に用いないようにしたため、AF、AE、AWBの誤
作動を防止できる効果があり、より高精度のAF、A
E、AWB動作を得ることが出来る。
As described above, the proper operation range of each process of the automatic control operation is set in advance, and when the evaluation value obtained from each detection area is out of the range, the evaluation value is applied to each control operation. Since it is not used, there is an effect that malfunction of AF, AE, and AWB can be prevented.
E, AWB operation can be obtained.

【0059】本実施の形態ではAE評価値からAF動作
に反映させる場合としたが、AF評価値からAE動作に
反映させてもよい。AF、AE、AWBの各動作の適正
範囲は独立して保有しても良く、また、上記実施の形態
のように複数の動作の相関をとるような最適動作範囲を
設定しても良い。例えば、AWB動作の適正範囲は各
R,G,B色の最大・最小・平均値の適正動作範囲を設
定しておき、この範囲にある検波域の評価値のみをAW
B動作やAE動作に反映させれば良い。
In this embodiment, the AE evaluation value is reflected in the AF operation. However, the AF evaluation value may be reflected in the AE operation. The appropriate range of each of the AF, AE, and AWB operations may be held independently, or an optimal operation range that correlates a plurality of operations may be set as in the above embodiment. For example, a proper operation range of the maximum, minimum, and average values of each of the R, G, and B colors is set as an appropriate range of the AWB operation, and only the evaluation value of the detection range within this range is subjected to the AW operation.
What is necessary is just to reflect on the B operation and the AE operation.

【0060】また、上記適正動作範囲は使用者がオペレ
ーションパネルを介して任意の値を設定できるようにし
ても良い。たとえば、実施の形態4に示したAF適正範
囲をオペレーションパネル1B上のキーボード等を用い
て設定する。AWB・AE適正範囲についても同様にオ
ペレーションパネルによって設定するようにしておく。
Further, the user may be allowed to set an arbitrary value through the operation panel for the proper operation range. For example, the appropriate AF range shown in the fourth embodiment is set using a keyboard or the like on operation panel 1B. The AWB / AE proper range is also set on the operation panel in the same manner.

【0061】このように使用者がAF、AE、AWBの
各適正動作範囲を設定できるようにしたため、使用者が
被写体に応じた好みの撮像画像を得ることができる効果
がある。
As described above, since the user can set the appropriate operation ranges of AF, AE, and AWB, there is an effect that the user can obtain a desired captured image according to the subject.

【0062】実施の形態5.実施の形態5を図9を用い
て説明する。この実施の形態の構成は実施の形態1で説
明した図1に示した構成と同様である。図9は撮像画面
の各検波域から得られた評価値に対する重み付け係数の
一例を示す図である。(A)は検波結果であり、(B)
は重み付け係数で、数字の“1”は得られた検波結果を
そのままの値で評価値として用いることを示し、“3”
は得られた検波結果(A)に相対的な“3”の値を乗じ
て評価値とすることを示す。この重み付けは制御部1A
により行う。制御部1Aは上記重み付け係数に従って各
検波結果を重み付けした後、重み付けした結果(C)を
評価値として各処理に反映させる。例えば、AF動作を
行う場合には(B)の重み付け係数を用いることによっ
て、画面の中央部の評価値が周囲の評価値に対して加重
されているため、中心部に焦点を合わせることになる。
Embodiment 5 Embodiment 5 will be described with reference to FIG. The configuration of this embodiment is the same as the configuration shown in FIG. 1 described in the first embodiment. FIG. 9 is a diagram illustrating an example of a weighting coefficient for an evaluation value obtained from each detection area of the imaging screen. (A) shows the detection result, and (B)
Is a weighting coefficient, and the number “1” indicates that the obtained detection result is used as it is as the evaluation value, and “3” is used.
Indicates that the obtained detection result (A) is multiplied by a relative value of “3” to obtain an evaluation value. This weighting is performed by the control unit 1A.
Performed by After weighting each detection result according to the weighting coefficient, the control unit 1A reflects the weighted result (C) as an evaluation value in each process. For example, when the AF operation is performed, the evaluation value at the center of the screen is weighted with respect to the evaluation values at the periphery by using the weighting coefficient of (B), so that the center is focused. .

【0063】このように、各検波域から得られた評価値
に対する重み付けを行い、重み付けを行った結果によっ
てAF、AE、AWBの各処理動作を行う構成としたた
め、画面の中央重点、画面平均、端部重点方式等を自在
に行うことの出来る撮像装置を得ることが出来る。
As described above, the evaluation values obtained from the respective detection ranges are weighted, and the AF, AE, and AWB processing operations are performed based on the weighted results. It is possible to obtain an imaging device that can freely perform the edge-weighted method or the like.

【0064】また、AF動作の例のみ示したがAEやA
WB動作についても同様な動作が可能である。なお、重
み付け係数は被写体や使用者の意図によって任意に決定
して良く図9のような係数の限りではない。さらに、重
み付け処理は制御部1Aで行うとしたが、各処理の検波
部に乗算器等をそなえて検波結果と重み付け係数を乗算
して制御部に出力しても良い。また各検波域への重み付
け係数の対応付けの仕方は、それぞれに撮像条件である
AF、AE、AWBによって異なってもよいし、同一で
あってもよい。
Although only an example of the AF operation has been described, AE and A
A similar operation is possible for the WB operation. The weighting coefficient may be arbitrarily determined according to the subject or the user's intention, and is not limited to the coefficient as shown in FIG. Further, although the weighting process is performed by the control unit 1A, the detection unit of each process may be provided with a multiplier or the like, and the detection result may be multiplied by a weighting coefficient and output to the control unit. Further, the manner of associating the weighting coefficients with the respective detection ranges may be different depending on the imaging conditions AF, AE, and AWB, or may be the same.

【0065】さらに、重み付けした評価値を容易に識別
できるように、その評価値にフラグなどの識別子をつけ
ても良い。
Further, an identifier such as a flag may be added to the weighted evaluation value so that the weighted evaluation value can be easily identified.

【0066】実施の形態6.実施の形態6を図10を用
いて説明する。この実施の形態の構成は実施の形態1で
図1を用いて説明した構成と同様である。図10は実施
の形態6における撮像装置の画像処理回路14の一部を
示す概略構成図でる。45は撮像信号Sの信号変化点を
補正するエッジ補正手段であるハイパスフィルタ、46
はラインバッファであり、2本のラインメモリを含む。
また画像処理回路14には図示しない3画素の容量を有
するレジスタが3個含まれる。さらに制御部1Aからハ
イパスフィルタ45にはAF評価値に応じてフィルタ定
数である強度係数が付与される。
Embodiment 6 FIG. Embodiment 6 will be described with reference to FIG. The configuration of this embodiment is the same as the configuration described in Embodiment 1 with reference to FIG. FIG. 10 is a schematic configuration diagram illustrating a part of the image processing circuit 14 of the imaging device according to the sixth embodiment. 45 is a high-pass filter which is an edge correction means for correcting a signal change point of the imaging signal S;
Is a line buffer and includes two line memories.
The image processing circuit 14 includes three registers (not shown) each having a capacity of three pixels. Further, the control section 1A gives the high-pass filter 45 an intensity coefficient which is a filter constant according to the AF evaluation value.

【0067】次に動作について説明する。なお、本実施
の形態はエッジ補正のうちエッジ強調を例にとって説明
する。撮像信号がAF処理回路8に入力されてその検波
結果であるAF評価値が制御部1Aに送出される動作は
実施の形態1と同様である。制御部1Aは所定の検波域
のAF評価値が大きな値であるときは被写体が合焦付近
であるので、ハイパスフィルタ45の強度係数を下げる
か、若しくは強度係数を0にする。他方、AF評価値が
小さな値であるときは非合焦状態にある。このときは、
ハイパスフィルタ45の強度係数を上げて撮像画面のエ
ッジ(信号変化点)を強調させる。
Next, the operation will be described. Note that the present embodiment will be described with an example of edge enhancement in edge correction. The operation in which the imaging signal is input to the AF processing circuit 8 and the AF evaluation value that is the detection result is sent to the control unit 1A is the same as in the first embodiment. When the AF evaluation value in the predetermined detection area is a large value, the control unit 1A decreases the intensity coefficient of the high-pass filter 45 or sets the intensity coefficient to 0 because the subject is near the focus. On the other hand, when the AF evaluation value is a small value, the camera is in an out-of-focus state. At this time,
By increasing the intensity coefficient of the high-pass filter 45, the edge (signal change point) of the imaging screen is emphasized.

【0068】本実施の形態ではハイパスフィルタ45と
して対象画素の周辺画素を参照する、例えば3画素×3
画素のラプラシアンフィルタを用いる例を示す。図11
に示す3×3画素の対象画素B1の演算は式(1)を用
いて求める。ここで、B1’は対象画素B1の強度変換
後の値、Kx、Ky、Kzはそれぞれxyz方向の強度
係数である。この強度係数によりエッジの強調の程度
(強調度)を変化させる。
In the present embodiment, the surrounding pixels of the target pixel are referred to as the high-pass filter 45, for example, 3 pixels × 3
An example in which a Laplacian filter of pixels is used will be described. FIG.
The calculation of the target pixel B1 of 3 × 3 pixels shown in FIG. Here, B1 ′ is a value of the target pixel B1 after the intensity conversion, and Kx, Ky, and Kz are intensity coefficients in the xyz directions, respectively. The degree of emphasis of the edge (emphasis degree) is changed by this intensity coefficient.

【数1】 (Equation 1)

【0069】まず、A0、A1、A2のライン方向の画
素をラインバッファ46の1本のラインメモリに収納す
る。次のラインであるB0、B1、B2の画素も同様に
ラインバッファ46の他のラインメモリに収納する。さ
らに次のラインのC0、C1、C2が上記画素データと
空間的な位置が揃ったときにラインバッファ46に収納
されたA0からB2までの画素データを2つのレジスタ
に読み出す。読み出したA0からB2までと他の1つの
レジスタに格納したC0、C1、C2の画素データを用
いて式(1)による演算を行う。この際、予めAF評価
値とフィルタ強度の関係を求めておく。制御部1Aはこ
の相関関係に基づいてフィルタ強度係数Kx、Ky、K
zを書き換え先述したような動作を行う。
First, the pixels in the line direction of A0, A1, and A2 are stored in one line memory of the line buffer 46. The pixels of the next lines B0, B1, and B2 are also stored in other line memories of the line buffer 46. Further, when C0, C1, and C2 of the next line are spatially aligned with the pixel data, the pixel data from A0 to B2 stored in the line buffer 46 is read out to two registers. Using the read pixel data of A0 to B2 and the pixel data of C0, C1, and C2 stored in another register, the arithmetic operation according to the equation (1) is performed. At this time, the relationship between the AF evaluation value and the filter strength is determined in advance. The control unit 1A determines the filter strength coefficients Kx, Ky, K based on the correlation.
The operation described above is performed by rewriting z.

【0070】以上のように、得られたAF評価値から画
像の強調を行うフィルタの画像信号強度を変化させる構
成としたため、レンズが合焦位置より多少ずれていても
ボケの少ないシャープな撮像画面を得られるという効果
がある。
As described above, since the image signal intensity of the filter for emphasizing the image is changed from the obtained AF evaluation value, even if the lens is slightly deviated from the in-focus position, a sharp imaging screen with little blur is obtained. There is an effect that can be obtained.

【0071】また、本実施の形態では撮像動作時の例を
示したが、装置製造時の組み立て時にも用いることがで
きる。所定の被写体を撮像し、焦点を手動で合焦位置に
合わせておいて、そのときのAF評価値を得る。設計上
のAF評価値と比較し、その値よりも得られたAF評価
値が低いときはフィルタに与える強度係数を上げてこの
フィルタの強度係数(フィルタ強度)を初期設定値とす
る。
In the present embodiment, an example during the imaging operation has been described. However, the present embodiment can also be used during the assembly at the time of manufacturing the device. An image of a predetermined subject is taken, the focus is manually adjusted to the in-focus position, and an AF evaluation value at that time is obtained. Compared with the designed AF evaluation value, if the obtained AF evaluation value is lower than that value, the intensity coefficient given to the filter is increased, and the intensity coefficient (filter intensity) of this filter is set as the initial setting value.

【0072】このようにすることで、組み立て誤差やレ
ンズ等の部品のばらつき誤差などによる静的な誤差に対
しても所望のMTF(変調伝達関数)を保証することが
可能な撮像装置を得ることができる効果がある。
By doing so, an imaging apparatus capable of guaranteeing a desired MTF (modulation transfer function) even for a static error due to an assembly error or a variation error of parts such as lenses is obtained. There is an effect that can be.

【0073】さらに、本実施の形態では検波域を画面の
16分割するとしたが、分割数をより大きくすることで
よりきめの細かいMTF補正が可能となる効果がある。
Further, in the present embodiment, the detection area is divided into 16 areas of the screen. However, by increasing the number of divisions, there is an effect that finer MTF correction can be performed.

【0074】本実施の形態では3×3画素のラプラシア
ンフィルタを用いるとしたが、画像を先鋭化するフィル
タであれば何を用いても良く、対象画素周囲の参照画素
数もこの限りではない。
In the present embodiment, a Laplacian filter of 3 × 3 pixels is used. However, any filter may be used as long as the filter sharpens the image, and the number of reference pixels around the target pixel is not limited to this.

【0075】また、エッジ強調フィルタでの例を示した
が、エッジ補正手段として必要に応じエッジを平滑化さ
せるローパスフィルタ等を用いても良く、この場合には
信号成分のノイズ除去が可能である。
Although an example of an edge emphasis filter has been described, a low-pass filter or the like for smoothing edges may be used as an edge correction means if necessary. In this case, noise removal of signal components is possible. .

【0076】さらに、上記の実施の形態ではフィルタ強
度はAF評価値を反映したものであったが、これに加え
てAE評価値を含めてフィルタ強度を変更してもよい。
この場合には以下のような動作を行う。制御部1AはA
E評価値より最適な絞りを求める。この最適絞り値によ
り、被写体が明るい(AE評価値が大きい)場合には絞
りが絞り込まれて被写界深度が深くなる。逆に、被写体
が暗い(AE評価値が小さい)場合には絞りが開いて被
写界深度が狭くなる。これらAE評価値と絞り(被写界
深度)の相関関係を予めとっておく。他方、制御部1A
は得られたAF評価値からデフォーカス量を推定する。
このデフォーカス量推定値と前記の絞りとの関係から最
適フィルタ強度を求める。具体的には、被写界深度(被
写体の明るさによる絞り値)よりもデフォーカス量が大
きい(AF評価値が小さい)場合(非合焦時)には、フ
ィルタの強度係数を上げて画像を先鋭化させる。逆に、
被写界深度よりもデフォーカス量が小さい(AF評価値
が大きい)場合(合焦付近)には、エッジ部を強調しな
くても必要な先鋭度が得られるために、フィルタ強度を
下げるか、若しくはフィルタ係数を0にして撮像する。
Further, in the above embodiment, the filter strength reflects the AF evaluation value. However, the filter strength may be changed to include the AE evaluation value.
In this case, the following operation is performed. The control unit 1A is A
The optimum aperture is determined from the E evaluation value. With this optimum aperture value, when the subject is bright (the AE evaluation value is large), the aperture is narrowed down and the depth of field becomes deep. Conversely, when the subject is dark (the AE evaluation value is small), the aperture is opened and the depth of field is reduced. The correlation between these AE evaluation values and the aperture (depth of field) is determined in advance. On the other hand, the control unit 1A
Estimates the defocus amount from the obtained AF evaluation value.
The optimum filter strength is determined from the relationship between the estimated defocus amount and the aperture. Specifically, when the defocus amount is larger than the depth of field (aperture value based on the brightness of the subject) (the AF evaluation value is small) (at the time of out-of-focus), the intensity coefficient of the filter is increased to increase the image quality. Is sharpened. vice versa,
When the defocus amount is smaller than the depth of field (the AF evaluation value is large) (near focus), the necessary sharpness can be obtained without emphasizing the edge portion. Alternatively, imaging is performed with the filter coefficient set to 0.

【0077】このように、AF評価値とAE評価値から
画像の強調を行うフィルタの画像信号強度を変化させる
構成としたため、さらに被写体の明るさに応じて非合焦
時においてもデフォーカスの少ないシャープな撮像画面
を得られるという効果がある。さらに、シャッターが押
下されたときのみ絞りが動作し、測光が絞りを開放状態
で行ういわゆる開放測光で著しい効果があるのは言うま
でもない。
As described above, since the image signal intensity of the filter for emphasizing the image is changed based on the AF evaluation value and the AE evaluation value, the defocus is small even when out of focus according to the brightness of the subject. There is an effect that a sharp imaging screen can be obtained. Further, it is needless to say that the aperture operates only when the shutter is depressed, and that there is a remarkable effect in the so-called open photometry in which the photometry is performed with the aperture opened.

【0078】[0078]

【発明の効果】以上のようにこの発明に係る撮像装置
は、光学系を有し複数の撮像条件を決定して撮像を行な
う撮像装置であって、平面上に配列された複数の画素を
有し被写体を撮像して生成した画像データを画素単位で
出力する撮像素子と、撮像条件を決定する際に参照され
る該撮像条件の評価値を生成する評価値生成手段であっ
てそれぞれが異なる撮像条件の評価値を上記画像データ
から生成する複数の評価値生成手段と、上記複数の評価
値生成手段が生成した各撮像条件の評価値を参照して各
撮像条件を決定する制御手段とを有し、上記複数の評価
値生成手段は上記画像データを並列に入力されるように
構成されているので、、複数の評価値が同時に生成さ
れ、処理が高速化できるという効果がある。
As described above, the imaging apparatus according to the present invention is an imaging apparatus which has an optical system and determines a plurality of imaging conditions to perform imaging, and has a plurality of pixels arranged on a plane. An imaging element that outputs image data generated by imaging a subject in pixel units; and an evaluation value generation unit that generates an evaluation value of the imaging condition that is referred to when determining the imaging condition. A plurality of evaluation value generating means for generating an evaluation value of a condition from the image data; and a control means for determining each imaging condition by referring to the evaluation value of each imaging condition generated by the plurality of evaluation value generation means. However, since the plurality of evaluation value generation means are configured to input the image data in parallel, a plurality of evaluation values are generated at the same time, and the processing can be speeded up.

【0079】またこの発明に係る撮像装置は、上記撮像
素子の画素が配列された平面内に複数の領域を設定し、
上記撮像素子がどの領域の画素の画像データを出力して
いるかを示す領域情報を生成する検波域生成手段をさら
に有し、上記複数の評価値生成手段は上記検波域生成手
段が生成する領域情報と上記撮像素子が出力する画像デ
ータとから領域毎に各撮像条件の評価値を生成し、上記
制御手段は、上記領域毎に生成された各撮像条件の評価
値を参照して各撮像条件を決定するので、必要に応じて
所定の領域の評価値を参照することが可能であり、画質
の制御が柔軟に行なえるという効果がある。
Further, in the image pickup apparatus according to the present invention, a plurality of areas are set in a plane in which the pixels of the image pickup element are arranged,
The image sensor further includes detection area generation means for generating area information indicating the image data of a pixel in which area, and the plurality of evaluation value generation means include area information generated by the detection area generation means. Generating an evaluation value of each imaging condition for each area from the image data output by the imaging element, and the control unit refers to the evaluation value of each imaging condition generated for each area, and determines each imaging condition. Since the determination is made, it is possible to refer to the evaluation value of a predetermined area as needed, and it is possible to flexibly control the image quality.

【0080】またこの発明に係る撮像装置は、上記制御
手段は、1つの撮像条件を決定する際に、複数の領域の
該撮像条件の評価値を参照するので、特定の領域の評価
値のみによらずに撮像条件が決定され、画質の良好な画
像が得られるという効果がある。
Further, in the imaging apparatus according to the present invention, the control means refers to the evaluation values of the imaging conditions of a plurality of areas when determining one imaging condition, so that only the evaluation value of a specific area is used. Irrespective of this, the imaging conditions are determined and there is an effect that an image with good image quality can be obtained.

【0081】またこの発明に係る撮像装置は、上記複数
の領域の組み合わせは可変であるので、柔軟に画質の制
御が行なえるという効果がある。
Further, the image pickup apparatus according to the present invention has an effect that the image quality can be flexibly controlled because the combination of the plurality of areas is variable.

【0082】またこの発明に係る撮像装置は、上記制御
手段は、上記各領域に所定の重み係数を対応付け、撮像
条件を決定する際に上記領域毎の該撮像条件の評価値に
上記重み係数を乗ずるので、撮像条件の決定に際して重
視すべき領域の評価値を反映させることが可能であると
いう効果がある。
Further, in the imaging apparatus according to the present invention, the control means associates a predetermined weighting factor with each of the regions, and when determining the imaging condition, adds the weighting factor to the evaluation value of the imaging condition for each region. Is multiplied by a factor, there is an effect that it is possible to reflect the evaluation value of the area to be emphasized when determining the imaging conditions.

【0083】またこの発明に係る撮像装置は、所定の1
つの撮像条件を決定する際に、上記評価値生成手段が領
域毎に生成した該撮像条件の評価値が予め設定された範
囲内にある領域を選択し、該選択された領域の上記所定
の1つの撮像条件の評価値および他の撮像条件の評価値
を参照して、上記所定の1つの撮像条件および他の撮像
条件を決定するので、特異な評価値である領域からの評
価値を排除することが可能であり、画質の良好な画像が
得られるという効果がある。
Further, the imaging apparatus according to the present invention has
When determining one imaging condition, the evaluation value generation means selects an area in which the evaluation value of the imaging condition generated for each area is within a preset range, and selects the predetermined one of the selected areas. The predetermined one imaging condition and the other imaging condition are determined with reference to the evaluation value of one imaging condition and the evaluation value of another imaging condition. Therefore, the evaluation value from a region having a unique evaluation value is excluded. It is possible to obtain an image with good image quality.

【0084】またこの発明に係る撮像装置は、上記複数
の撮像条件は、ホワイトバランスと光学系の焦点距離と
光学系の露出量の内の少なくとも2つであるので、広く
使用されている撮像装置に適用できるという効果があ
る。
In the imaging apparatus according to the present invention, the plurality of imaging conditions are at least two of white balance, focal length of the optical system, and exposure of the optical system. There is an effect that can be applied to.

【0085】またこの発明に係る撮像装置は、上記複数
の撮像条件には光学系の焦点距離を含み、上記画像デー
タの変化を強調するフィルタであって強調度が外部から
付与されるフィルタ定数に応じて変化するフィルタをさ
らに有し、上記制御手段は上記焦点距離を決定する際に
参照した焦点距離の評価値に応じて上記フィルタ定数を
変化させて上記フィルタに付与するので、輪郭の明瞭な
画像が得られるという効果がある。
In the image pickup apparatus according to the present invention, the plurality of image pickup conditions include a focal length of an optical system, and a filter for emphasizing a change in the image data. A filter that changes in accordance with the evaluation value of the focal length referred to when determining the focal length, and applies the filter constant to the filter so that the contour is clear. There is an effect that an image can be obtained.

【0086】またこの発明に係る撮像装置は、上記複数
の撮像条件にはさらに光学系の露出量を含み、上記制御
手段は上記焦点距離を決定する際に参照した焦点距離の
評価値からデフォーカス量を算出するとともに上記光学
系の露出量を決定する際に使用した露出量の評価値から
焦点深度を算出し、該算出したデフォーカス量が上記算
出焦点深度したより大きくその差が大きいほど上記画像
データの変化の強調度が大きくなるようにフィルタ定数
を変化させるので、輪郭の明瞭な画像が得られるという
効果がある。
Further, in the imaging apparatus according to the present invention, the plurality of imaging conditions further include an exposure amount of the optical system, and the control means performs defocusing from the focal length evaluation value referred to when determining the focal length. The depth of focus is calculated from the evaluation value of the exposure amount used in determining the exposure amount of the optical system while calculating the amount, and the calculated defocus amount is larger as the calculated focal depth is larger and the difference is larger, Since the filter constant is changed so that the degree of enhancement of the change in the image data is increased, there is an effect that an image having a clear outline can be obtained.

【0087】またこの発明に係る撮像装置は、上記検波
域生成手段は上記撮像素子出力信号に同期した画素クロ
ックと水平同期信号を入力され、上記入力された画素ク
ロック数から画像データを出力している画素の水平方向
の位置を示す水平方向ゲート信号を出力する水平方向ゲ
ート信号発生手段と、上記入力された水平同期信号数か
ら画像データを出力している画素の垂直方向の位置を示
す垂直方向ゲート信号を生成する垂直方向ゲート信号発
生手段とを有し、上記水平方向ゲート信号と垂直方向ゲ
ート信号の組み合わせにより上記領域情報を生成するの
で、検波域生成手段はカウンタと少数の要素により構成
することが可能であり、単純な回路構成で実現できると
いう効果がある。
In the imaging apparatus according to the present invention, the detection area generating means receives a pixel clock synchronized with the image sensor output signal and a horizontal synchronization signal, and outputs image data from the input pixel clock number. Horizontal gate signal generating means for outputting a horizontal gate signal indicating a horizontal position of a pixel which is present, and a vertical direction indicating a vertical position of a pixel which is outputting image data based on the number of input horizontal synchronization signals. Vertical gate signal generating means for generating a gate signal, and the area information is generated by a combination of the horizontal gate signal and the vertical gate signal. Therefore, the detection area generating means is constituted by a counter and a small number of elements. This has the effect of realizing a simple circuit configuration.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の撮像装置を示す図FIG. 1 is a diagram showing an imaging apparatus of the present invention.

【図2】 この発明の処理域生成回路を示す図FIG. 2 is a diagram showing a processing area generation circuit according to the present invention;

【図3】 この発明のAF、AE、AWBの検波域を示
す図
FIG. 3 is a diagram showing detection ranges of AF, AE, and AWB of the present invention.

【図4】 この発明のAWB処理回路を示す図FIG. 4 is a diagram showing an AWB processing circuit of the present invention.

【図5】 この発明のタイミングチャート図FIG. 5 is a timing chart of the present invention.

【図6】 この発明の実施の形態2のAF、AE、AW
B評価域を示す図
FIG. 6 is a diagram illustrating AF, AE, and AW according to the second embodiment of the present invention.
Diagram showing B evaluation area

【図7】 この発明の実施の形態3の制御部内部レジス
タを示す図
FIG. 7 is a diagram showing a control unit internal register according to the third embodiment of the present invention;

【図8】 この発明の実施の形態4の動作を示す図FIG. 8 is a diagram showing the operation of the fourth embodiment of the present invention.

【図9】 この発明の実施の形態5の動作を示す図FIG. 9 is a diagram showing an operation of the fifth embodiment of the present invention.

【図10】 この発明の実施の形態6の撮像装置を示す
FIG. 10 is a diagram showing an imaging device according to a sixth embodiment of the present invention.

【図11】この発明の実施の形態6の対象画素を示す図FIG. 11 is a diagram showing a target pixel according to a sixth embodiment of the present invention;

【図12】従来の検波域を示す図FIG. 12 is a diagram showing a conventional detection area.

【図13】従来の撮像装置を示す図FIG. 13 is a diagram showing a conventional imaging device.

【図14】従来の撮像装置の動作を示す図FIG. 14 is a diagram showing the operation of a conventional imaging device.

【符号の説明】[Explanation of symbols]

1A 制御部 1B オペレーションパネル 2 レンズ 3 絞り 4 撮像素子 5 A/D変換器 6 メモリ 7 AWB処理回路 8 AF処理回路 9 AE処理回路 10 処理域生成回路 14 画像処理回路 19 水平方向ゲート信号発生部 20 水平アドレスカウンタ 21a・・21n 水平方向ゲート生成回路 26 垂直方向ゲート信号発生部 27 垂直アドレスカウンタ 28 垂直方向ゲート信号発生部 33a・・33d AWB検波部 34 AWB補正部 40 内部レジスタ 45 フィルタ 46 ラインバッファ。 Reference Signs List 1A Control unit 1B Operation panel 2 Lens 3 Aperture 4 Image sensor 5 A / D converter 6 Memory 7 AWB processing circuit 8 AF processing circuit 9 AE processing circuit 10 Processing area generation circuit 14 Image processing circuit 19 Horizontal gate signal generation unit 20 21n Horizontal address counter 21a Horizontal gate generator 26 Vertical gate signal generator 27 Vertical address counter 28 Vertical gate signal generator 33a... 33d AWB detector 34 AWB correction unit 40 Internal register 45 Filter 46 Line buffer.

フロントページの続き Fターム(参考) 5C022 AA13 AB06 AB30 AC01 AC42 AC69 5C065 AA03 BB02 BB08 BB11 CC01 DD01 GG02 GG18 GG22 GG24 GG26 5C066 AA01 CA23 EA14 KC03 KD04 KE01 KE07 KE19 KE21 KE24 KM02 Continued on front page F term (reference) 5C022 AA13 AB06 AB30 AC01 AC42 AC69 5C065 AA03 BB02 BB08 BB11 CC01 DD01 GG02 GG18 GG22 GG24 GG26 5C066 AA01 CA23 EA14 KC03 KD04 KE01 KE07 KE19 KE21 KE24 KM02

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 光学系を有し複数の撮像条件を決定して
撮像を行なう撮像装置であって、 平面上に配列された複数の画素を有し被写体を撮像して
生成した画像データを画素単位で出力する撮像素子と、 撮像条件を決定する際に参照される該撮像条件の評価値
を生成する評価値生成手段であってそれぞれが異なる撮
像条件の評価値を上記画像データから生成する複数の評
価値生成手段と、 上記複数の評価値生成手段が生成した各撮像条件の評価
値を参照して各撮像条件を決定する制御手段とを有し、 上記複数の評価値生成手段は上記画像データを並列に入
力されるように構成されたことを特徴とする撮像装置。
1. An imaging apparatus having an optical system and determining a plurality of imaging conditions to perform imaging, comprising: a plurality of pixels arranged on a plane; An image sensor that outputs the image data in units; and an evaluation value generation unit that generates an evaluation value of the imaging condition that is referred to when the imaging condition is determined. Evaluation value generation means, and control means for determining each imaging condition by referring to the evaluation value of each imaging condition generated by the plurality of evaluation value generation means, wherein the plurality of evaluation value generation means An imaging apparatus characterized in that data is input in parallel.
【請求項2】 上記撮像素子の画素が配列された平面内
に複数の領域を設定し、上記撮像素子がどの領域の画素
の画像データを出力しているかを示す領域情報を生成す
る検波域生成手段をさらに有し、 上記複数の評価値生成手段は上記検波域生成手段が生成
する領域情報と上記撮像素子が出力する画像データとか
ら領域毎に各撮像条件の評価値を生成し、 上記制御手段は、上記領域毎に生成された各撮像条件の
評価値を参照して各撮像条件を決定することを特徴とす
る請求項1に記載の撮像装置。
2. A detection area generation method for setting a plurality of regions in a plane on which pixels of the image sensor are arranged, and generating region information indicating which region of the image sensor outputs image data of the pixels. Means for generating an evaluation value of each imaging condition for each area from the area information generated by the detection area generation means and the image data output by the imaging element; The imaging apparatus according to claim 1, wherein the means determines each imaging condition by referring to an evaluation value of each imaging condition generated for each of the regions.
【請求項3】 上記制御手段は、1つの撮像条件を決定
する際に、複数の領域の該撮像条件の評価値を参照する
ことを特徴とする請求項2に記載の撮像装置。
3. The imaging apparatus according to claim 2, wherein the control unit refers to evaluation values of the imaging conditions of a plurality of areas when determining one imaging condition.
【請求項4】 上記複数の領域の組み合わせは可変であ
ることを特徴とする請求項3に記載の撮像装置。
4. The imaging device according to claim 3, wherein a combination of the plurality of regions is variable.
【請求項5】 上記制御手段は、上記各領域に所定の重
み係数を対応付け、撮像条件を決定する際に上記領域毎
の該撮像条件の評価値に上記重み係数を乗ずることを特
徴とする請求項2に記載の撮像装置。
5. The control unit according to claim 1, wherein a predetermined weighting factor is associated with each of the regions, and when determining an imaging condition, an evaluation value of the imaging condition for each of the regions is multiplied by the weighting factor. The imaging device according to claim 2.
【請求項6】 上記制御手段は、所定の1つの撮像条件
を決定する際に、上記評価値生成手段が領域毎に生成し
た該撮像条件の評価値が予め設定された範囲内にある領
域を選択し、該選択された領域の上記所定の1つの撮像
条件の評価値および他の撮像条件の評価値を参照して、
上記所定の1つの撮像条件および他の撮像条件を決定す
ることを特徴とする請求項2または請求項5のいずれか
に記載の撮像装置
6. The control means, when deciding one predetermined imaging condition, determines an area in which the evaluation value of the imaging condition generated for each area by the evaluation value generation means is within a preset range. Selecting, referring to the evaluation value of the predetermined one imaging condition and the evaluation value of another imaging condition of the selected area,
The imaging apparatus according to claim 2, wherein the one predetermined imaging condition and another predetermined imaging condition are determined.
【請求項7】 上記複数の撮像条件は、ホワイトバラン
スと光学系の焦点距離と光学系の露出量の内の少なくと
も2つであることを特徴とする請求項1から請求項6の
いずれかに記載の撮像装置。
7. The imaging apparatus according to claim 1, wherein the plurality of imaging conditions are at least two of white balance, a focal length of the optical system, and an exposure amount of the optical system. An imaging device according to any one of the preceding claims.
【請求項8】 上記複数の撮像条件には光学系の焦点距
離を含み、 上記画像データの変化を強調するフィルタであって強調
度が外部から付与されるフィルタ定数に応じて変化する
フィルタをさらに有し、 上記制御手段は上記焦点距離を決定する際に参照した焦
点距離の評価値に応じて上記フィルタ定数を変化させて
上記フィルタに付与することを特徴とする請求項1から
請求項6のいずれかに記載の撮像装置。
8. A filter that includes a focal length of an optical system in the plurality of imaging conditions, and further includes a filter that enhances a change in the image data, the filter having a degree of enhancement that varies according to a filter constant externally provided. 7. The method according to claim 1, wherein the control unit changes the filter constant according to an evaluation value of the focal length referred to when determining the focal length, and applies the filter constant to the filter. An imaging device according to any one of the above.
【請求項9】 上記複数の撮像条件にはさらに光学系の
露出量を含み、 上記制御手段は上記焦点距離を決定する際に参照した焦
点距離の評価値からデフォーカス量を算出するとともに
上記光学系の露出量を決定する際に使用した露出量の評
価値から焦点深度を算出し、該算出したデフォーカス量
が上記算出した焦点深度より大きくその差が大きいほど
上記画像データの変化の強調度が大きくなるようにフィ
ルタ定数を変化させることを特徴とする請求項8に記載
の撮像装置。
9. The plurality of image pickup conditions further include an exposure amount of an optical system, wherein the control means calculates a defocus amount from an evaluation value of a focal length referred to when determining the focal length, and calculates the defocus amount. Depth of focus is calculated from the evaluation value of the amount of exposure used in determining the amount of exposure of the system, and the degree of emphasis of the change in the image data is greater as the calculated defocus amount is larger than the calculated depth of focus and the difference is larger. The image pickup apparatus according to claim 8, wherein the filter constant is changed so that is larger.
【請求項10】 上記検波域生成手段は、上記撮像素子
の出力信号に同期した画素クロックと水平同期信号を入
力され、 上記入力された画素クロック数から画像データを出力し
ている画素の水平方向の位置を示す水平方向ゲート信号
を出力する水平方向ゲート信号発生手段と、 上記入力された水平同期信号数から画像データを出力し
ている画素の垂直方向の位置を示す垂直方向ゲート信号
を生成する垂直方向ゲート信号発生手段とを有し、 上記水平方向ゲート信号と垂直方向ゲート信号の組み合
わせにより上記領域情報を生成することを特徴とする請
求項2から請求項9のいずれかに記載の撮像装置。
10. The detection area generation means receives a pixel clock synchronized with an output signal of the image sensor and a horizontal synchronization signal, and outputs a pixel which outputs image data in the horizontal direction from the input pixel clock number. Horizontal gate signal generating means for outputting a horizontal gate signal indicating the position of the pixel, and generating a vertical gate signal indicating the vertical position of the pixel outputting the image data from the input number of horizontal synchronization signals. 10. The imaging apparatus according to claim 2, further comprising a vertical direction gate signal generating unit, wherein the area information is generated by a combination of the horizontal direction gate signal and the vertical direction gate signal. .
JP2000007845A 2000-01-17 2000-01-17 Image pickup device Pending JP2001197358A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000007845A JP2001197358A (en) 2000-01-17 2000-01-17 Image pickup device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000007845A JP2001197358A (en) 2000-01-17 2000-01-17 Image pickup device

Publications (1)

Publication Number Publication Date
JP2001197358A true JP2001197358A (en) 2001-07-19

Family

ID=18536205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000007845A Pending JP2001197358A (en) 2000-01-17 2000-01-17 Image pickup device

Country Status (1)

Country Link
JP (1) JP2001197358A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005109705A (en) * 2003-09-29 2005-04-21 Mitsubishi Electric Corp Imaging processor
JP2005215520A (en) * 2004-01-30 2005-08-11 Matsushita Electric Ind Co Ltd Lens barrel, imaging apparatus equipped with the lens barrel and camera equipped with the imaging apparatus
WO2005073773A1 (en) * 2004-01-30 2005-08-11 Matsushita Electric Industrial Co., Ltd. Lens barrel and imaging device provided with lens barrel, and assembling method for lens barrel
WO2006080245A1 (en) * 2005-01-26 2006-08-03 Konica Minolta Opto, Inc. Mobile information terminal
JP2007003656A (en) * 2005-06-22 2007-01-11 Fujifilm Holdings Corp Apparatus for determining focal position of imaging lens and method thereof
JP2007184782A (en) * 2006-01-06 2007-07-19 Sanyo Electric Co Ltd Electronic camera
US7778481B2 (en) 2005-01-28 2010-08-17 Fujifilm Corporation Apparatus and method for image processing including photometry and colorimetry
JP2012054724A (en) * 2010-08-31 2012-03-15 Canon Inc Image processing apparatus, and method of controlling the same
JP2013017072A (en) * 2011-07-05 2013-01-24 Canon Inc Imaging apparatus, control method for imaging apparatus, and computer program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03201878A (en) * 1989-12-28 1991-09-03 Kyocera Corp Camera having af and ae area setting means
JPH0638096A (en) * 1992-07-20 1994-02-10 Hitachi Ltd Video camera
JPH0686147A (en) * 1992-08-31 1994-03-25 Canon Inc Image pickup device
JPH06189187A (en) * 1992-12-22 1994-07-08 Fuji Photo Film Co Ltd Image pickup device, photometric method therefor, focus control method therefor and image pickup method
JPH06331881A (en) * 1993-05-21 1994-12-02 Fuji Photo Film Co Ltd Camera system and automatic focusing method
JPH07143497A (en) * 1993-11-18 1995-06-02 Fuji Photo Film Co Ltd White balance control method and exposure control method for video camera
JPH0918773A (en) * 1995-06-27 1997-01-17 Canon Inc Image pickup device
JPH0974516A (en) * 1995-09-06 1997-03-18 Sharp Corp Image input device
JPH1198407A (en) * 1997-09-18 1999-04-09 Sony Corp Image signal detection circuit
JPH11215426A (en) * 1997-11-19 1999-08-06 Ricoh Co Ltd Automatic focusing system

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03201878A (en) * 1989-12-28 1991-09-03 Kyocera Corp Camera having af and ae area setting means
JPH0638096A (en) * 1992-07-20 1994-02-10 Hitachi Ltd Video camera
JPH0686147A (en) * 1992-08-31 1994-03-25 Canon Inc Image pickup device
JPH06189187A (en) * 1992-12-22 1994-07-08 Fuji Photo Film Co Ltd Image pickup device, photometric method therefor, focus control method therefor and image pickup method
JPH06331881A (en) * 1993-05-21 1994-12-02 Fuji Photo Film Co Ltd Camera system and automatic focusing method
JPH07143497A (en) * 1993-11-18 1995-06-02 Fuji Photo Film Co Ltd White balance control method and exposure control method for video camera
JPH0918773A (en) * 1995-06-27 1997-01-17 Canon Inc Image pickup device
JPH0974516A (en) * 1995-09-06 1997-03-18 Sharp Corp Image input device
JPH1198407A (en) * 1997-09-18 1999-04-09 Sony Corp Image signal detection circuit
JPH11215426A (en) * 1997-11-19 1999-08-06 Ricoh Co Ltd Automatic focusing system

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005109705A (en) * 2003-09-29 2005-04-21 Mitsubishi Electric Corp Imaging processor
JP2005215520A (en) * 2004-01-30 2005-08-11 Matsushita Electric Ind Co Ltd Lens barrel, imaging apparatus equipped with the lens barrel and camera equipped with the imaging apparatus
WO2005073773A1 (en) * 2004-01-30 2005-08-11 Matsushita Electric Industrial Co., Ltd. Lens barrel and imaging device provided with lens barrel, and assembling method for lens barrel
US8831419B2 (en) 2004-01-30 2014-09-09 Panasonic Corporation Lens barrel and imaging device provided with lens barrel, and assembly method of lens barrel
US7720370B2 (en) 2004-01-30 2010-05-18 Panasonic Corporation Lens barrel and imaging device provided with lens barrel, and assembly method of lens barrel
US8326137B2 (en) 2004-01-30 2012-12-04 Panasonic Corporation Lens barrel and imaging device provided with lens barrel, and assembly method of lens barrel
WO2006080245A1 (en) * 2005-01-26 2006-08-03 Konica Minolta Opto, Inc. Mobile information terminal
JPWO2006080245A1 (en) * 2005-01-26 2008-06-19 コニカミノルタオプト株式会社 Portable information terminal
US7778481B2 (en) 2005-01-28 2010-08-17 Fujifilm Corporation Apparatus and method for image processing including photometry and colorimetry
JP2007003656A (en) * 2005-06-22 2007-01-11 Fujifilm Holdings Corp Apparatus for determining focal position of imaging lens and method thereof
JP4515972B2 (en) * 2005-06-22 2010-08-04 富士フイルム株式会社 In-focus position determining apparatus and method for imaging lens
JP4610488B2 (en) * 2006-01-06 2011-01-12 三洋電機株式会社 Electronic camera
JP2007184782A (en) * 2006-01-06 2007-07-19 Sanyo Electric Co Ltd Electronic camera
JP2012054724A (en) * 2010-08-31 2012-03-15 Canon Inc Image processing apparatus, and method of controlling the same
US9100578B2 (en) 2010-08-31 2015-08-04 Canon Kabushiki Kaisha Image processing apparatus and control method for the same
JP2013017072A (en) * 2011-07-05 2013-01-24 Canon Inc Imaging apparatus, control method for imaging apparatus, and computer program

Similar Documents

Publication Publication Date Title
US7817186B2 (en) Camera and image processing method for synthesizing plural images forming one image group to generate a synthesized image
JP4760518B2 (en) Imaging apparatus, imaging method, program, and image processing apparatus
JP5347707B2 (en) Imaging apparatus and imaging method
JP5013954B2 (en) Imaging device
JP2002354498A (en) Electronic camera
US8872963B2 (en) Imaging apparatus and imaging method
JP2000217033A (en) Image pickup unit and correction processing method for automatic exposure control
JP4136464B2 (en) Imaging apparatus and imaging method
CN102572275A (en) Imaging device, image processing device, image processing method and image processing software
JP2001197358A (en) Image pickup device
US8570407B2 (en) Imaging apparatus, image processing program, image processing apparatus, and image processing method
JP2003319407A (en) Imaging apparatus
JP2008263478A (en) Imaging apparatus
JP5673454B2 (en) Image processing apparatus, image processing method, and program
JP2009021909A (en) Image adder, method, and program
JP4871664B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP4335648B2 (en) Digital camera and imaging method of digital camera
JPH08265631A (en) Automatic focus adjustment device
JP6003974B2 (en) Image processing apparatus, image processing method, and program
JP2018151415A (en) Imaging device, method of controlling imaging device, and program
JP4356585B2 (en) Digital camera
JP5301690B2 (en) Imaging apparatus, method, and program
JP4326997B2 (en) Imaging apparatus, focusing method, control program, and recording medium
JP2009118247A (en) Photographic device
JP2005064782A (en) Imaging unit

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20040722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050817

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20050922

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051013

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060216

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060310

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20060428