JP2002214513A - Optical system controller, optical system control method, and recording medium - Google Patents

Optical system controller, optical system control method, and recording medium

Info

Publication number
JP2002214513A
JP2002214513A JP2001007889A JP2001007889A JP2002214513A JP 2002214513 A JP2002214513 A JP 2002214513A JP 2001007889 A JP2001007889 A JP 2001007889A JP 2001007889 A JP2001007889 A JP 2001007889A JP 2002214513 A JP2002214513 A JP 2002214513A
Authority
JP
Japan
Prior art keywords
optical system
evaluation value
image
color
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001007889A
Other languages
Japanese (ja)
Inventor
Shinichi Fujii
真一 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2001007889A priority Critical patent/JP2002214513A/en
Publication of JP2002214513A publication Critical patent/JP2002214513A/en
Pending legal-status Critical Current

Links

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Cameras In General (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PROBLEM TO BE SOLVED: To quickly perform an autofocus, even if the main object has the bias of the color. SOLUTION: An AF control part of a digital camera is provided with a histogram generating circuit 251 which generates the histogram of the width of the edge in AF area, a noise removal part 263 which removes the noise component from the histogram, a histogram evaluation part 264 which determines the evaluation value showing the degree of the focus from the histogram, and an object color selection part 281 which selects the color component utilized for AF control. Furthermore, the AF control part is provided with a driving quantity determining part 265 which determines the driving quantity of the focus lens. In the object color selection part 281, the color component from which edge is most detected is determined as an object color from the image for every color component which constitutes the color image, and the result is inputted into the histogram evaluation part 264. In the histogram evaluation part 264, the evaluation value about the object color is obtained, and the driving quantity determining part 265 quickly positions the focus lens in the focal position, while changing the driving quantity by using the evaluation value of the object color.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像を取得する際
のオートフォーカス技術に関するものでり、例えば、デ
ジタルデータとして画像を取得するデジタルカメラに利
用することができる。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an autofocus technique for acquiring an image, and can be used, for example, in a digital camera for acquiring an image as digital data.

【0002】[0002]

【従来の技術】従来より、デジタルスチルカメラやビデ
オカメラ等のようにCCD(Charge Coupled Device)の
撮像素子を用いて画像を取得する撮像装置においては、
いわゆるコントラスト方式と呼ばれる技術(または山登
り方式とも呼ばれる。)がオートフォーカスを行うため
に適用されている。コントラスト方式は、フォーカスレ
ンズを駆動させつつ各駆動段階で得られる画像のコント
ラストを評価値として取得し、最も評価値の高いレンズ
位置をもって合焦位置とする方式である。
2. Description of the Related Art Conventionally, in an image pickup apparatus such as a digital still camera or a video camera, which acquires an image using an image pickup device of a CCD (Charge Coupled Device),
A technique called a contrast method (also called a hill-climbing method) is applied to perform autofocus. The contrast method is a method in which the contrast of an image obtained in each driving step is acquired as an evaluation value while driving a focus lens, and a lens position having the highest evaluation value is determined as a focus position.

【0003】一方、特開平5−219418号公報に記
載されているように、画像からエッジを抽出し、エッジ
の幅のヒストグラムからフォーカスレンズの合焦位置を
推測するという方式(以下、「エッジ幅方式」とい
う。)も提案されている。光学系が合焦状態にある場合
に、ヒストグラムの重心に対応するエッジ幅は所定の値
になるという原理を利用し、エッジ幅方式ではフォーカ
スレンズの複数の位置に対応するエッジ幅のヒストグラ
ムを求めておき、複数のヒストグラムからフォーカスレ
ンズの合焦位置が予測される。エッジ幅方式はフォーカ
スレンズの合焦位置を迅速に求めることができるという
特徴を有する。
On the other hand, as described in JP-A-5-219418, a method of extracting an edge from an image and estimating a focus position of a focus lens from a histogram of the width of the edge (hereinafter, referred to as "edge width") Method) is also proposed. Utilizing the principle that the edge width corresponding to the center of gravity of the histogram becomes a predetermined value when the optical system is in focus, the edge width method obtains a histogram of the edge width corresponding to a plurality of positions of the focus lens. In advance, the focus position of the focus lens is predicted from a plurality of histograms. The edge width method has a feature that a focus position of a focus lens can be quickly obtained.

【0004】[0004]

【発明が解決しようとする課題】ところで、オートフォ
ーカスの際にエッジ幅方式を採用する場合、従来より画
像の輝度成分を用いてエッジの検出が行われてきた。画
素値がR,G,Bの値で構成される場合、画像の輝度成
分はGの値が主成分となる。したがって、例えば赤い花
が主被写体である場合や特殊効果用の色フィルタを用い
る場合のように、画像の色が緑以外の色に偏っている場
合には画像からエッジを適切に検出することができず、
オートフォーカスの精度が低下するという問題があっ
た。
By the way, when the edge width method is employed in autofocusing, edge detection has conventionally been performed using a luminance component of an image. When the pixel value is composed of R, G, and B values, the luminance component of the image is mainly composed of the G value. Therefore, when the color of the image is biased to a color other than green, such as when a red flower is the main subject or when a color filter for a special effect is used, it is possible to appropriately detect edges from the image. I ca n’t,
There is a problem that the accuracy of the autofocus is reduced.

【0005】そこで、本発明は上記課題に鑑みなされた
ものであり、主被写体の色が偏っている場合であっても
エッジを利用しつつ適切にオートフォーカスを実現する
ことを主たる目的としている。
The present invention has been made in view of the above problems, and has as its main object to appropriately realize autofocus while utilizing edges even when the color of a main subject is uneven.

【0006】[0006]

【課題を解決するための手段】請求項1に記載の発明
は、デジタルデータとして画像を取得する際に光学系を
制御する光学系制御装置であって、カラー画像を構成す
る色成分のうちの少なくとも1つに対応する画像からエ
ッジを検出し、前記エッジからフォーカスの程度を示す
少なくとも1つの評価値を求める演算手段と、前記少な
くとも1つの評価値に基づいて前記光学系を駆動する制
御手段とを備える。
According to a first aspect of the present invention, there is provided an optical system control apparatus for controlling an optical system when an image is obtained as digital data, wherein the color system comprises a color image. Calculating means for detecting an edge from an image corresponding to at least one and obtaining at least one evaluation value indicating a degree of focus from the edge; and controlling means for driving the optical system based on the at least one evaluation value; Is provided.

【0007】請求項2に記載の発明は、請求項1に記載
の光学系制御装置であって、前記演算手段が、複数の色
成分のそれぞれに対応する評価値を求め、前記制御手段
が、複数の評価値のうち検出されたエッジの数が最も多
い色成分に対応する評価値に基づいて前記光学系を駆動
する。
According to a second aspect of the present invention, in the optical system control device according to the first aspect, the calculating means obtains an evaluation value corresponding to each of a plurality of color components, The optical system is driven based on an evaluation value corresponding to a color component having the largest number of detected edges among a plurality of evaluation values.

【0008】請求項3に記載の発明は、請求項1に記載
の光学系制御装置であって、前記制御手段が、複数の色
成分のうち最もレベルの高い色成分に対応する評価値に
基づいて前記光学系を駆動する。
According to a third aspect of the present invention, there is provided the optical system control device according to the first aspect, wherein the control means is configured to perform a control based on an evaluation value corresponding to a color component having the highest level among a plurality of color components. To drive the optical system.

【0009】請求項4に記載の発明は、請求項1に記載
の光学系制御装置であって、前記演算手段が、複数の色
成分のそれぞれに対応する評価値を求めるとともに複数
の評価値から新たな評価値を求め、前記制御手段が、前
記新たな評価値に基づいて前記光学系を駆動する。
According to a fourth aspect of the present invention, there is provided the optical system control device according to the first aspect, wherein the calculating means obtains an evaluation value corresponding to each of a plurality of color components and calculates the evaluation value from the plurality of evaluation values. A new evaluation value is obtained, and the control unit drives the optical system based on the new evaluation value.

【0010】請求項5に記載の発明は、請求項1に記載
の光学系制御装置であって、前記光学系がフォーカス用
のレンズを有し、前記演算手段が、前記レンズの第1の
位置に対応する少なくとも1つの第1の評価値を求め、
前記レンズの第2の位置に対応する少なくとも1つの第
2の評価値を求め、前記制御手段が、前記第1および第
2の位置、前記少なくとも1つの第1および第2の評価
値、並びに、少なくとも1つの基準評価値から前記レン
ズの合焦位置を求める。
According to a fifth aspect of the present invention, there is provided the optical system control device according to the first aspect, wherein the optical system has a focusing lens, and the arithmetic means includes a first position of the lens. Determining at least one first evaluation value corresponding to
Determining at least one second evaluation value corresponding to a second position of the lens; the control means controlling the first and second positions, the at least one first and second evaluation values, and A focus position of the lens is obtained from at least one reference evaluation value.

【0011】請求項6に記載の発明は、請求項5に記載
の光学系制御装置であって、前記カラー画像が、Gベイ
ヤー配列の撮像デバイスにより取得され、R、Gおよび
Bの色成分に対応する基準評価値のうち、Gの色成分に
対応する基準評価値がRおよびBの色成分に対応する基
準評価値と異なる。
According to a sixth aspect of the present invention, there is provided the optical system control device according to the fifth aspect, wherein the color image is acquired by an imaging device having a G-Bayer array, and the color image is converted into R, G, and B color components. Among the corresponding reference evaluation values, the reference evaluation value corresponding to the G color component is different from the reference evaluation values corresponding to the R and B color components.

【0012】請求項7に記載の発明は、請求項5または
6に記載の光学系制御装置であって、前記制御手段が、
複数の色成分のそれぞれに対応する合焦位置を求め、複
数の合焦位置から新たな合焦位置を求める。
According to a seventh aspect of the present invention, in the optical system control apparatus according to the fifth or sixth aspect, the control means includes:
A focus position corresponding to each of the plurality of color components is obtained, and a new focus position is obtained from the plurality of focus positions.

【0013】請求項8に記載の発明は、請求項5または
6に記載の光学系制御装置であって、前記制御手段が、
複数の色成分のそれぞれに対応する合焦位置を求め、複
数の合焦位置のうち最も近接する被写体に対応する合焦
位置に基づいて前記光学系を制御する。
According to an eighth aspect of the present invention, in the optical system control device according to the fifth or sixth aspect, the control means comprises:
A focus position corresponding to each of the plurality of color components is obtained, and the optical system is controlled based on a focus position corresponding to a closest object among the plurality of focus positions.

【0014】請求項9に記載の発明は、請求項1に記載
の光学系制御装置であって、前記演算手段が、複数の色
成分のそれぞれについて第1の評価値を求め、複数の第
1の評価値に基づいて色成分の選択を行い、さらに、選
択された色成分に関して前記第1の評価値よりも精度の
高い第2の評価値を求め、前記制御手段が、前記第2の
評価値に基づいて前記光学系を制御する。
According to a ninth aspect of the present invention, there is provided the optical system control device according to the first aspect, wherein the calculating means obtains a first evaluation value for each of a plurality of color components, and A color component is selected based on the evaluation value, and a second evaluation value with higher accuracy than the first evaluation value is obtained for the selected color component. The optical system is controlled based on the value.

【0015】請求項10に記載の発明は、デジタルデー
タとして画像を取得する際に光学系を制御する光学系制
御方法であって、カラー画像を構成する色成分のうちの
少なくとも1つに対応する画像からエッジを検出し、前
記エッジからフォーカスの程度を示す少なくとも1つの
評価値を求める工程と、前記少なくとも1つの評価値に
基づいて前記光学系を駆動する工程とを有する。
According to a tenth aspect of the present invention, there is provided an optical system control method for controlling an optical system when acquiring an image as digital data, wherein the method corresponds to at least one of color components constituting a color image. Detecting an edge from the image and obtaining at least one evaluation value indicating a degree of focus from the edge; and driving the optical system based on the at least one evaluation value.

【0016】請求項11に記載の発明は、デジタルデー
タとして画像を取得する際に、制御装置に光学系を制御
させるプログラムを記録した記録媒体であって、前記プ
ログラムの制御装置による実行は、前記制御装置に、カ
ラー画像を構成する色成分のうちの少なくとも1つに対
応する画像からエッジを検出し、前記エッジからフォー
カスの程度を示す少なくとも1つの評価値を求める工程
と、前記少なくとも1つの評価値に基づいて前記光学系
を駆動する工程とを実行させる。
According to an eleventh aspect of the present invention, there is provided a recording medium storing a program for causing a control device to control an optical system when acquiring an image as digital data, wherein the control device executes the program. Detecting an edge from an image corresponding to at least one of the color components constituting the color image and obtaining at least one evaluation value indicating a degree of focus from the edge; Driving the optical system based on the value.

【0017】[0017]

【発明の実施の形態】<1. 第1の実施の形態> <1.1 デジタルカメラの構成>図1ないし図4は、
静止画像をデジタルデータとして取得するデジタルスチ
ルカメラ(以下、「デジタルカメラ」という。)1の外
観構成の一例を示す図であり、図1は正面図、図2は背
面図、図3は側面図、図4は底面図である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS <1. First Embodiment><1.1 Configuration of Digital Camera> FIGS.
FIG. 1 is a diagram illustrating an example of an external configuration of a digital still camera (hereinafter, referred to as a “digital camera”) 1 that acquires a still image as digital data. FIG. 1 is a front view, FIG. 2 is a rear view, and FIG. FIG. 4 is a bottom view.

【0018】デジタルカメラ1は、図1に示すように、
箱型のカメラ本体部2と直方体状の撮像部3とから構成
されている。
The digital camera 1 is, as shown in FIG.
It is composed of a box-shaped camera body 2 and a rectangular parallelepiped imaging unit 3.

【0019】撮像部3の前面側には、撮影レンズである
マクロ機能付きズームレンズ301が設けられるととも
に、銀塩レンズシャッターカメラと同様に、被写体から
のフラッシュ光の反射光を受光する調光センサ305お
よび光学ファインダ31が設けられる。
A zoom lens 301 with a macro function, which is a photographing lens, is provided on the front side of the image pickup unit 3 and, similarly to a silver halide lens shutter camera, a light control sensor for receiving reflected light of flash light from a subject. 305 and an optical finder 31 are provided.

【0020】カメラ本体部2の前面側には左端部にグリ
ップ部4、そのグリップ部4の上部側に外部器機と赤外
線通信を行うためのIRDA(Infrared Data Associat
ion)インターフェイス236、および中央上部に内蔵
フラッシュ5が設けられ、上面側にはシャッタボタン8
が設けられている。シャッタボタン8は、銀塩カメラで
採用されているような半押し状態と全押し状態とが検出
可能な2段階スイッチになっている。
On the front side of the camera body 2, a grip 4 is provided at the left end, and an IRDA (Infrared Data Associate) for performing infrared communication with an external device is provided above the grip 4.
ion) interface 236, and a built-in flash 5 at the upper center, and a shutter button 8
Is provided. The shutter button 8 is a two-stage switch capable of detecting a half-pressed state and a fully-pressed state as employed in a silver halide camera.

【0021】一方、図2に示すように、カメラ本体部2
の背面側には、略中央に撮影画像のモニタ表示(ビュー
ファインダに相当)、記録画像の再生表示等を行うため
の液晶ディスプレイ(LCD:Liquid Crystal Displa
y)10が設けられている。また、LCD10の下方
に、デジタルカメラ1の操作を行うキースイッチ群22
1〜226および電源スイッチ227が設けられる。電
源スイッチ227の左側には、電源がオン状態で点灯す
るLED228およびメモリカードへのアクセス中であ
る旨を表示するLED229が配置される。
On the other hand, as shown in FIG.
A liquid crystal display (LCD) for displaying a captured image on a monitor (corresponding to a view finder), reproducing a recorded image, etc., is provided substantially in the center of the rear side of the LCD.
y) 10 is provided. A key switch group 22 for operating the digital camera 1 is provided below the LCD 10.
1 to 226 and a power switch 227 are provided. On the left side of the power switch 227, an LED 228 that lights up when the power is on and an LED 229 that indicates that the memory card is being accessed are arranged.

【0022】さらに、カメラ本体部2の背面側には、
「撮影モード」と「再生モード」との間でモードを切り
替えるモード設定スイッチ14が設けられる。撮影モー
ドは写真撮影を行って被写体に関する画像を生成するモ
ードであり、再生モードはメモリカードに記録された画
像を読み出してLCD10に再生するモードである。
Further, on the back side of the camera body 2,
A mode setting switch 14 for switching a mode between a “photographing mode” and a “reproduction mode” is provided. The shooting mode is a mode in which a photograph is taken to generate an image related to a subject, and the playback mode is a mode in which an image recorded on a memory card is read out and played back on the LCD 10.

【0023】モード設定スイッチ14は2接点のスライ
ドスイッチであり、下方位置にスライドセットすると撮
影モードが機能し、上方位置にスライドセットすると再
生モードが機能するように構成される。
The mode setting switch 14 is a two-contact slide switch. The slide switch is set to the lower position to operate the photographing mode, and is slid to the upper position to operate the reproduction mode.

【0024】また、カメラ背面右側には、4連スイッチ
230が設けられ、撮影モードにおいてはボタン23
1,232を押すことによりズーミング倍率の変更が行
われ、ボタン233,234を押すことによって露出補
正が行われる。
A four-position switch 230 is provided on the right side of the rear of the camera.
The zoom magnification is changed by pressing the buttons 1 and 232, and the exposure is corrected by pressing the buttons 233 and 234.

【0025】撮像部3の背面には、図2に示すように、
LCD10をオン/オフさせるためのLCDボタン32
1およびマクロボタン322が設けられる。LCDボタ
ン321が押されるとLCD表示のオン/オフが切り替
わる。例えば、専ら光学ファインダ31のみを用いて撮
影するときには、節電の目的でLCD表示をオフにす
る。マクロ撮影(接写)時には、マクロボタン322を
押すことにより、撮像部3においてマクロ撮影が可能な
状態になる。
As shown in FIG. 2, on the back surface of the imaging unit 3,
LCD button 32 for turning on / off LCD 10
1 and a macro button 322 are provided. When the LCD button 321 is pressed, on / off of the LCD display is switched. For example, when photographing is performed exclusively using the optical viewfinder 31, the LCD display is turned off for the purpose of saving power. At the time of macro shooting (close-up shooting), pressing the macro button 322 causes the imaging unit 3 to be in a state where macro shooting is possible.

【0026】カメラ本体部2の側面には、図3に示すよ
うに端子部235が設けられており、端子部235には
DC入力端子235aと、LCD10に表示されている
内容を外部のビデオモニタに出力するためのビデオ出力
端子235bとが設けられている。
As shown in FIG. 3, a terminal 235 is provided on a side surface of the camera body 2. The terminal 235 has a DC input terminal 235a and an external video monitor for displaying contents displayed on the LCD 10. And a video output terminal 235b for outputting to

【0027】カメラ本体部2の底面には、図4に示すよ
うに、電池装填室18とカードスロット(カード装填
室)17とが設けられる。カードスロット17は、撮影
された画像等を記録するための着脱自在なメモリカード
91等を装填するためのものである。カードスロット1
7および電池装填室18は、クラムシェルタイプの蓋1
5により開閉自在になっている。なお、このデジタルカ
メラ1では、4本の単三形乾電池を電池装填室18に装
填することにより、これらを直列接続してなる電源電池
を駆動源としている。また、図3に示すDC入力端子2
35aにアダプタを装着することで外部から電力を供給
して使用することも可能である。
As shown in FIG. 4, a battery loading chamber 18 and a card slot (card loading chamber) 17 are provided on the bottom of the camera body 2. The card slot 17 is for loading a detachable memory card 91 or the like for recording a captured image or the like. Card slot 1
7 and the battery loading chamber 18 are clamshell type lids 1.
5 makes it openable and closable. In this digital camera 1, four AA batteries are loaded into the battery loading chamber 18, and a power supply battery connected in series is used as a driving source. Also, the DC input terminal 2 shown in FIG.
By attaching an adapter to 35a, it is also possible to supply power from outside and use it.

【0028】<1.2 デジタルカメラの内部構成>次
に、デジタルカメラ1における構成についてさらに詳細
に説明する。図5は、デジタルカメラ1の構成を示すブ
ロック図である。また、図6は撮像部3における各構成
の配置の概略を示す図である。
<1.2 Internal Configuration of Digital Camera> Next, the configuration of the digital camera 1 will be described in more detail. FIG. 5 is a block diagram illustrating a configuration of the digital camera 1. FIG. 6 is a diagram schematically showing the arrangement of each component in the imaging unit 3.

【0029】図6に示すように、撮像部3におけるズー
ムレンズ301の後方位置の適所にはCCD303を備
えた撮像回路が設けられている。また、撮像部3の内部
には、ズームレンズ301のズーム比の変更と収容位
置、撮像位置間のレンズ移動を行うためのズームモータ
M1、自動的に合焦を行うためにズームレンズ301内
のフォーカスレンズ311を移動させるオートフォーカ
スモータ(AFモータ)M2、ズームレンズ301内に
設けられた絞り302の開口径を調整するための絞りモ
ータM3とが設けられている。図5に示すように、ズー
ムモータM1、AFモータM2、絞りモータM3は、カ
メラ本体部2に設けられたズームモータ駆動回路21
5、AFモータ駆動回路214、絞りモータ駆動回路2
16によってそれぞれ駆動される。また、各駆動回路2
14〜216はカメラ本体部2の全体制御部211から
与えられる制御信号に基づいて各モータM1〜M3を駆
動する。
As shown in FIG. 6, an image pickup circuit having a CCD 303 is provided at an appropriate position behind the zoom lens 301 in the image pickup section 3. Further, inside the imaging unit 3, a zoom motor M1 for changing the zoom ratio of the zoom lens 301 and moving the lens between the accommodation position and the imaging position, and inside the zoom lens 301 for automatically focusing. An autofocus motor (AF motor) M2 for moving the focus lens 311 and an aperture motor M3 for adjusting the aperture diameter of the aperture 302 provided in the zoom lens 301 are provided. As shown in FIG. 5, the zoom motor M1, the AF motor M2, and the aperture motor M3 are a zoom motor drive circuit 21 provided in the camera body 2.
5. AF motor drive circuit 214, aperture motor drive circuit 2
16 respectively. In addition, each drive circuit 2
14 to 216 drive the motors M1 to M3 based on control signals given from the overall control unit 211 of the camera body 2.

【0030】CCD303は、ズームレンズ301によ
って結像された被写体の光像を、R(赤)、G(緑)、
B(青)の色成分の画像信号(各画素で受光された画素
信号の信号列からなる信号)に光電変換して出力する。
The CCD 303 converts the light image of the object formed by the zoom lens 301 into R (red), G (green),
The image signal is photoelectrically converted into an image signal of a B (blue) color component (a signal composed of a signal sequence of pixel signals received by each pixel) and output.

【0031】撮像部3における露出制御は、絞り302
の調整と、CCD303の露光量、すなわちシャッタス
ピードに相当するCCD303の電荷蓄積時間とを調整
して行われる。被写体のコントラストが低いために適切
な絞りおよびシャッタースピードが設定できない場合に
は、CCD303から出力される画像信号のレベル調整
を行うことにより露光不足による不適正露出が補正され
る。すなわち、低コントラスト時は、絞りとシャッター
スピードとゲイン調整とを組み合わせて露出レベルが適
正レベルとなるように制御が行われる。なお、画像信号
のレベル調整は、信号処理回路313内のAGC(Auto
Gain Control)回路313bのゲイン調整により行わ
れる。
The exposure control in the image pickup unit 3 is performed by controlling the aperture 302
And the exposure amount of the CCD 303, that is, the charge accumulation time of the CCD 303 corresponding to the shutter speed is adjusted. If an appropriate aperture and shutter speed cannot be set due to a low contrast of the subject, an improper exposure due to insufficient exposure is corrected by adjusting the level of an image signal output from the CCD 303. That is, at the time of low contrast, control is performed so that the exposure level becomes an appropriate level by combining the aperture, the shutter speed, and the gain adjustment. Note that the level of the image signal is adjusted by AGC (Auto
Gain control) is performed by adjusting the gain of the circuit 313b.

【0032】タイミングジェネレータ314は、カメラ
本体部2のタイミング制御回路202から送信される基
準クロックに基づきCCD303の駆動制御信号を生成
するものである。タイミングジェネレータ314は、例
えば、積分開始/終了(露出開始/終了)のタイミング
信号、各画素の受光信号の読出制御信号(水平同期信
号、垂直同期信号、転送信号等)等のクロック信号を生
成し、CCD303に出力する。
The timing generator 314 generates a drive control signal for the CCD 303 based on a reference clock transmitted from the timing control circuit 202 of the camera body 2. The timing generator 314 generates clock signals such as, for example, a timing signal of integration start / end (exposure start / end) and a readout control signal (horizontal synchronization signal, vertical synchronization signal, transfer signal, etc.) of a light receiving signal of each pixel. , To the CCD 303.

【0033】信号処理回路313は、CCD303から
出力される画像信号(アナログ信号)に所定のアナログ
信号処理を施すものである。信号処理回路313は、C
DS(相関二重サンプリング)回路313aとAGC回
路313bとを有し、CDS回路313aにより画像信
号のノイズの低減を行い、AGC回路313bでゲイン
を調整することにより画像信号のレベル調整を行う。
The signal processing circuit 313 performs predetermined analog signal processing on an image signal (analog signal) output from the CCD 303. The signal processing circuit 313
It has a DS (correlated double sampling) circuit 313a and an AGC circuit 313b. The noise of the image signal is reduced by the CDS circuit 313a, and the level of the image signal is adjusted by adjusting the gain by the AGC circuit 313b.

【0034】調光回路304は、フラッシュ撮影におけ
る内蔵フラッシュ5の発光量を全体制御部211により
設定された所定の発光量に制御するものである。フラッ
シュ撮影時には、露出開始と同時に被写体からのフラッ
シュ光の反射光が調光センサ305により受光され、こ
の受光量が所定の発光量に達すると、調光回路304か
ら発光停止信号が出力される。発光停止信号はカメラ本
体部2に設けられた全体制御部211を介してフラッシ
ュ制御回路217に導かれ、フラッシュ制御回路217
はこの発光停止信号に応答して内蔵フラッシュ5の発光
を強制的に停止し、これにより内蔵フラッシュ5の発光
量が所定の発光量に制御される。
The dimming circuit 304 controls the light emission amount of the built-in flash 5 in flash photography to a predetermined light emission amount set by the overall control unit 211. At the time of flash photography, the reflected light of the flash light from the subject is received by the light control sensor 305 simultaneously with the start of exposure, and when the amount of received light reaches a predetermined light emission amount, the light control circuit 304 outputs a light emission stop signal. The light emission stop signal is guided to the flash control circuit 217 via the overall control unit 211 provided in the camera body 2, and the flash control circuit 217
In response to the light emission stop signal, the light emission of the built-in flash 5 is forcibly stopped, whereby the light emission amount of the built-in flash 5 is controlled to a predetermined light emission amount.

【0035】次に、カメラ本体部2のブロックについて
説明する。
Next, the blocks of the camera body 2 will be described.

【0036】カメラ本体部2内において、A/D変換器
205は、画像の各画素の信号を例えば10ビットのデ
ジタル信号に変換するものである。A/D変換器205
は、タイミング制御回路202から入力されるA/D変
換用のクロックに基づいて各画素信号(アナログ信号)
を10ビットのデジタル信号に変換する。
In the camera body 2, the A / D converter 205 converts a signal of each pixel of an image into, for example, a 10-bit digital signal. A / D converter 205
Is a pixel signal (analog signal) based on an A / D conversion clock input from the timing control circuit 202.
Into a 10-bit digital signal.

【0037】タイミング制御回路202は、基準クロッ
ク、タイミングジェネレータ314、A/D変換器20
5に対するクロックを生成するように構成されている。
タイミング制御回路202は、CPU(Central Proces
sing Unit)を含む全体制御部211によって制御され
る。
The timing control circuit 202 includes a reference clock, a timing generator 314, and an A / D converter 20.
5 is generated.
The timing control circuit 202 includes a CPU (Central Processes).
sing unit).

【0038】黒レベル補正回路206は、A/D変換さ
れた画像の黒レベルを所定の基準レベルに補正するもの
である。また、WB(ホワイトバランス)回路207
は、γ補正後にホワイトバランスも併せて調整されるよ
うに、画素のR,G,Bの各色成分のレベル変換を行う
ものである。WB回路207は、全体制御部211から
入力されるレベル変換テーブルを用いて画素のR,G,
Bの各色成分のレベルを変換する。なお、レベル変換テ
ーブルの各色成分の変換係数(特性の傾き)は全体制御
部211により撮影画像ごとに設定される。
The black level correction circuit 206 corrects the black level of the A / D converted image to a predetermined reference level. Also, a WB (white balance) circuit 207
Performs level conversion of each color component of R, G, and B of a pixel so that white balance is also adjusted after γ correction. The WB circuit 207 uses the level conversion table input from the overall control unit 211 to output R, G,
The level of each color component of B is converted. The conversion coefficient (gradient of the characteristic) of each color component in the level conversion table is set by the overall control unit 211 for each captured image.

【0039】γ補正回路208は、画像のγ特性を補正
するものである。画像メモリ209は、γ補正回路20
8から出力される画像のデータを記憶するメモリであ
る。画像メモリ209は、1フレーム分の記憶容量を有
している。すなわち、画像メモリ209は、CCD30
3がn行m列の画素を有している場合、n×m画素分の
データの記憶容量を有し、各画素のデータが対応するア
ドレスに記憶される。
The gamma correction circuit 208 corrects the gamma characteristics of the image. The image memory 209 stores the γ correction circuit 20
8 is a memory for storing image data output from the memory 8. The image memory 209 has a storage capacity for one frame. That is, the image memory 209 stores the CCD 30
When 3 has n rows and m columns of pixels, it has a storage capacity for data of n × m pixels, and data of each pixel is stored at a corresponding address.

【0040】VRAM(ビデオRAM)210は、LC
D10に再生表示される画像のバッファメモリである。
VRAM210は、LCD10の画素数に対応した画像
データを格納することが可能な記憶容量を有している。
The VRAM (video RAM) 210 is an LC
This is a buffer memory for images reproduced and displayed on D10.
The VRAM 210 has a storage capacity capable of storing image data corresponding to the number of pixels of the LCD 10.

【0041】撮影モードにおける撮影待機状態では、L
CDボタン321(図2参照)によってLCD表示がオ
ン状態となっているときに、LCD10にライブビュー
表示が行われる。具体的には、撮像部3から所定間隔ご
とに得られる各画像に対して、A/D変換器205〜γ
補正回路208において各種の信号処理を施した後、全
体制御部211が画像メモリ209に格納される画像を
取得し、それをVRAM210に転送することで、LC
D10に撮影された画像を表示する。そして、LCD1
0に表示される画像を所定時間ごとに更新することで、
ライブビュー表示が行われる。ライブビュー表示によ
り、撮影者はLCD10に表示された画像により被写体
を視認することができる。なお、LCD10において画
像を表示する際には、全体制御部211の制御によりバ
ックライト16が点灯する。
In the photographing standby state in the photographing mode, L
When the LCD display is turned on by the CD button 321 (see FIG. 2), live view display is performed on the LCD 10. Specifically, A / D converters 205 to γ are applied to each image obtained from the imaging unit 3 at predetermined intervals.
After performing various kinds of signal processing in the correction circuit 208, the overall control unit 211 acquires an image stored in the image memory 209, and transfers the acquired image to the VRAM 210 so that the LC
The photographed image is displayed at D10. And LCD1
By updating the image displayed at 0 every predetermined time,
Live view display is performed. With the live view display, the photographer can visually recognize the subject from the image displayed on the LCD 10. When an image is displayed on the LCD 10, the backlight 16 is turned on under the control of the overall control unit 211.

【0042】また、再生モードにおいては、メモリカー
ド91から読み出された画像が全体制御部211で所定
の信号処理が施された後、VRAM210に転送され、
LCD10に再生表示される。
In the reproduction mode, the image read from the memory card 91 is subjected to predetermined signal processing by the general control unit 211 and then transferred to the VRAM 210.
It is reproduced and displayed on the LCD 10.

【0043】カードインターフェイス212は、カード
スロット17を介してメモリカード91への画像の書き
込みおよび読み出しを行うためのインターフェイスであ
る。
The card interface 212 is an interface for writing and reading an image to and from the memory card 91 via the card slot 17.

【0044】フラッシュ制御回路217は、内蔵フラッ
シュ5の発光を制御する回路であり、全体制御部211
からの制御信号に基づいて内蔵フラッシュ5を発光させ
る一方、既述の発光停止信号に基づいて内蔵フラッシュ
5の発光を停止させる。
The flash control circuit 217 is a circuit for controlling the light emission of the built-in flash 5.
The light emission of the built-in flash 5 is stopped on the basis of the above-mentioned light emission stop signal while the built-in flash 5 is caused to emit light based on the control signal from the CPU.

【0045】RTC(リアルタイムクロック)回路21
9は、撮影日時を管理するための時計回路である。
RTC (real time clock) circuit 21
Reference numeral 9 denotes a clock circuit for managing the shooting date and time.

【0046】また、全体制御部211にはIRDAイン
ターフェイス236が接続され、IRDAインターフェ
イス236を介してコンピュータ500や他のデジタル
カメラといった外部器機と赤外線無線通信を行い、画像
の無線転送等を行うことが可能となっている。
Further, an IRDA interface 236 is connected to the overall control unit 211, and infrared communication is performed with an external device such as the computer 500 or another digital camera via the IRDA interface 236 to perform wireless transfer of images. It is possible.

【0047】操作部250は、上述した、各種スイッ
チ、ボタンを包括するものであり、ユーザによって操作
入力される情報は、操作部250を介して全体制御部2
11に伝達される。
The operation unit 250 includes the various switches and buttons described above, and information input and operated by the user receives information from the overall control unit 2 via the operation unit 250.
11 is transmitted.

【0048】全体制御部211は、上述した撮像部3内
およびカメラ本体部2内の各部材の駆動を有機的に制御
し、デジタルカメラ1の全体動作を司る。
The overall control section 211 organically controls the driving of each member in the image pickup section 3 and the camera main body section 2, and controls the overall operation of the digital camera 1.

【0049】また、全体制御部211は、自動焦点合わ
せを効率的に行うための動作制御を行うAF(オートフ
ォーカス)制御部211aと、自動露出を行うためのA
E(オートエクスポージャ)演算部211bとを備えて
いる。
An overall control unit 211 includes an AF (auto focus) control unit 211a for performing operation control for efficiently performing automatic focusing, and an A (automatic focus) control unit for performing automatic exposure.
E (auto exposure) calculation section 211b.

【0050】AF制御部211aには黒レベル補正回路
206から出力される画像が入力され、オートフォーカ
スに用いるための評価値を求め、この評価値を用いて各
部を制御することで、ズームレンズ301により形成さ
れる像の位置をCCD303の撮像面に一致させる。
An image output from the black level correction circuit 206 is input to the AF control unit 211a, an evaluation value for use in autofocus is obtained, and each unit is controlled using the evaluation value, so that the zoom lens 301 is controlled. Is made to coincide with the image pickup surface of the CCD 303.

【0051】また、AE演算部211bにも黒レベル補
正回路206から出力される画像が入力され、所定のプ
ログラムに基づいて、シャッタスピードと絞り302と
の適正値を演算する。AE演算部211bは、被写体の
コントラストに基づいて、シャッタスピードと絞り30
2との適正値を所定のプログラムに従って演算する。
The image output from the black level correction circuit 206 is also input to the AE calculation section 211b, and the AE calculation section 211b calculates an appropriate value of the shutter speed and the aperture 302 based on a predetermined program. The AE calculation unit 211b calculates the shutter speed and the aperture 30 based on the contrast of the subject.
An appropriate value of 2 is calculated according to a predetermined program.

【0052】さらに、全体制御部211は撮影モードに
おいて、シャッタボタン8により撮影が指示されると、
画像メモリ209に取り込まれた画像のサムネイル画像
と操作部250に含まれるスイッチから設定入力された
圧縮率によりJPEG方式で圧縮された圧縮画像とを生
成し、撮影画像に関するタグ情報(コマ番号、露出値、
シャッタスピード、圧縮率、撮影日、撮影時のフラッシ
ュのオンオフのデータ、シーン情報、画像の判定結果等
の情報)とともに両画像をメモリカード91に記憶す
る。
Further, in the photographing mode, when the photographing is instructed by the shutter button 8 in the photographing mode,
A thumbnail image of the image fetched into the image memory 209 and a compressed image compressed by the JPEG method based on a compression ratio set and input from a switch included in the operation unit 250 are generated, and tag information (frame number, exposure value,
Both images are stored in the memory card 91 together with information such as shutter speed, compression ratio, shooting date, flash on / off data at the time of shooting, scene information, image determination result, and the like.

【0053】撮影モードおよび再生モードを切り替える
ためのモード設定スイッチ14を再生モードに設定した
ときには、例えばメモリカード91内のコマ番号の最も
大きな画像データが読み出され、全体制御部211にて
データ伸張され、その画像がVRAM210に転送され
ることにより、LCD10にはコマ番号の最も大きな画
像、すなわち最後に撮影された画像が表示される。
When the mode setting switch 14 for switching between the photographing mode and the reproduction mode is set to the reproduction mode, for example, the image data having the largest frame number in the memory card 91 is read out, and the whole controller 211 expands the data. Then, the image is transferred to the VRAM 210, so that the image with the largest frame number, that is, the image captured last is displayed on the LCD 10.

【0054】<1.3 デジタルカメラの動作の概略>
次に、デジタルカメラ1の動作の概略について説明す
る。図7はデジタルカメラ1の動作の概略を示す図であ
る。
<1.3 Outline of Operation of Digital Camera>
Next, an outline of the operation of the digital camera 1 will be described. FIG. 7 is a diagram schematically illustrating the operation of the digital camera 1.

【0055】モード設定スイッチ14によりデジタルカ
メラ1の動作が撮影モードに設定されると、シャッタボ
タン8の半押しを待機する状態となる(ステップS1
1)。シャッタボタン8が半押しされると、半押しを示
す信号が全体制御部211に入力され、全体制御部21
1により撮影準備であるAE演算(ステップS12)お
よびAF制御(ステップS13)が実行される。すなわ
ち、シャッタボタン8により全体制御部211への撮影
準備の指示が行われる。
When the operation of the digital camera 1 is set to the photographing mode by the mode setting switch 14, the camera enters a state of waiting for the shutter button 8 to be half-pressed (step S1).
1). When the shutter button 8 is half-pressed, a signal indicating that the shutter button 8 is half-pressed is input to the general control unit 211, and the general control unit 21
The AE calculation (step S12) and the AF control (step S13), which are the preparations for photographing, are executed by step 1. That is, the shutter button 8 instructs the general control unit 211 to prepare for shooting.

【0056】AE演算では、AE演算部211bにより
露出時間および絞り値が求められ、AF制御では、AF
制御部211aによりズームレンズ301が合焦状態と
される。その後、シャッタボタン8の全押しを待機する
状態へと移行する(ステップS14)。
In the AE operation, the exposure time and the aperture value are obtained by the AE operation section 211b.
The control unit 211a sets the zoom lens 301 into a focused state. Thereafter, the state shifts to a state of waiting for the full depression of the shutter button 8 (step S14).

【0057】シャッタボタン8が全押しされると、CC
D303からの信号がデジタル信号に変換された後、画
像メモリ209に画像データとして記憶される(ステッ
プS15)。これにより、被写体の画像が取得される。
When the shutter button 8 is fully pressed, CC
After the signal from D303 is converted into a digital signal, it is stored in the image memory 209 as image data (step S15). Thus, an image of the subject is obtained.

【0058】撮影動作の終了後、または、シャッタボタ
ン8の半押しの後、全押しされることがなかった場合
(ステップS16)、最初の段階へと戻る。
After the photographing operation is completed or after the shutter button 8 is half-pressed, if the shutter button 8 is not fully pressed (step S16), the process returns to the initial stage.

【0059】<1.4 オートフォーカス制御>次に、
AF制御部211aの構成、および、第1の実施の形態
におけるオートフォーカス(AF)制御について説明す
る。
<1.4 Auto Focus Control>
The configuration of the AF control unit 211a and the autofocus (AF) control in the first embodiment will be described.

【0060】図8は図5に示すAF制御部211aの構
成を周辺の構成とともに示すブロック図である。AF制
御部211aは、黒レベル補正回路206から画像が入
力されるヒストグラム生成回路251およびコントラス
ト算出回路252を有し、さらに、全体制御部211内
のCPU261およびROM262がAF制御部211
aとしての機能の一部を担う。
FIG. 8 is a block diagram showing the configuration of the AF control section 211a shown in FIG. The AF control unit 211a includes a histogram generation circuit 251 and a contrast calculation circuit 252 to which an image is input from the black level correction circuit 206. Further, the CPU 261 and the ROM 262 in the overall control unit 211
A part of the function as a.

【0061】ヒストグラム生成回路251は、カラー画
像を構成する色成分(R,G,B)ごとの画像(以下、
「色成分画像」という。)中のエッジを検出し、エッジ
幅のヒストグラムを色成分ごとに生成する。コントラス
ト算出回路252は、色成分画像ごとのコントラストを
求める。これらの構成の詳細については後述する。
The histogram generation circuit 251 generates an image (hereinafter, referred to as an image) for each color component (R, G, B) constituting the color image.
This is called a “color component image”. ) Are detected, and a histogram of the edge width is generated for each color component. The contrast calculation circuit 252 obtains a contrast for each color component image. Details of these configurations will be described later.

【0062】CPU261はROM262内のプログラ
ム262aに従って動作を行うことにより、オートフォ
ーカス動作の一部を行うとともにAFモータ駆動回路2
14に制御信号を送出する。プログラム262aはデジ
タルカメラ1を製造した際にROM262に記憶されて
いてもよく、プログラムを記録した記録媒体としてメモ
リカード91を利用し、メモリカード91からROM2
62にプログラムが転送されてもよい。
The CPU 261 performs a part of the autofocus operation by operating in accordance with the program 262a in the ROM 262, and performs the AF motor driving circuit 2
The control signal is sent to 14. The program 262a may be stored in the ROM 262 when the digital camera 1 is manufactured, and the memory card 91 is used as a recording medium on which the program is recorded.
The program may be transferred to 62.

【0063】図9は、オートフォーカスの際のCPU2
61の機能を他の構成とともにブロックにて示す図であ
る。図9において、ノイズ除去部263、ヒストグラム
評価部264、駆動量決定部265、駆動方向決定部2
66、合焦検出部267、制御信号生成部268および
対象色選択部281がCPU261が演算処理を行うこ
とにより実現される機能に相当する。
FIG. 9 shows the CPU 2 for auto focus.
FIG. 61 is a diagram showing the function of a block 61 together with other components in blocks. In FIG. 9, a noise removal unit 263, a histogram evaluation unit 264, a drive amount determination unit 265, a drive direction determination unit 2
The focus detection unit 267, the control signal generation unit 268, and the target color selection unit 281 correspond to functions realized by the CPU 261 performing arithmetic processing.

【0064】ノイズ除去部263はヒストグラム生成回
路251にて生成されたヒストグラムからノイズ成分を
除去し、ヒストグラム評価部264はヒストグラムから
フォーカスの程度を示す評価値を求める。駆動量決定部
265はフォーカスレンズ311の位置を変更するため
のAFモータM2の駆動量(パルス数)を求め、駆動方
向決定部266はコントラスト算出回路252からのコ
ントラストを用いてAFモータM2の駆動方向(すなわ
ち、フォーカスレンズ311の駆動(移動)方向)を決
定する。
The noise removing section 263 removes a noise component from the histogram generated by the histogram generating circuit 251, and the histogram evaluating section 264 obtains an evaluation value indicating the degree of focus from the histogram. The drive amount determination unit 265 obtains the drive amount (number of pulses) of the AF motor M2 for changing the position of the focus lens 311. The drive direction determination unit 266 drives the AF motor M2 using the contrast from the contrast calculation circuit 252. The direction (that is, the driving (moving) direction of the focus lens 311) is determined.

【0065】合焦検出部267は光学系が合焦状態であ
るか否かを検出し、制御信号生成部268はAFモータ
M2への制御信号を生成してAFモータ駆動回路214
に与える。対象色選択部281は、黒レベル補正回路2
06から入力される画像に基づいてオートフォーカスの
際に演算対象となる色成分の選択を行い、選択結果をヒ
ストグラム評価部264や駆動方向決定部266に与え
る。レンズの駆動制御は実質的には駆動量決定部26
5、駆動方向決定部266および合焦検出部267によ
り実行される。
The focus detection section 267 detects whether the optical system is in focus, and the control signal generation section 268 generates a control signal to the AF motor M2 and outputs the control signal to the AF motor drive circuit 214.
Give to. The target color selection unit 281 includes the black level correction circuit 2
The color component to be calculated is selected at the time of autofocusing based on the image input from 06, and the selection result is provided to the histogram evaluation unit 264 and the drive direction determination unit 266. The drive control of the lens is substantially performed by the drive amount determination unit 26.
5, executed by the drive direction determination unit 266 and the focus detection unit 267.

【0066】図10はヒストグラム生成回路251にお
ける一の色成分画像に対するエッジ検出の様子を説明す
るための図である。図10において横軸は水平方向に関
する画素の位置に対応し、縦軸の上段は一の色成分に関
する画素値(すなわち、濃度)に対応する。縦軸の下段
はエッジ幅の検出値に対応する。
FIG. 10 is a diagram for explaining how the histogram generation circuit 251 detects edges for one color component image. In FIG. 10, the horizontal axis corresponds to the position of the pixel in the horizontal direction, and the upper part of the vertical axis corresponds to the pixel value (that is, density) for one color component. The lower part of the vertical axis corresponds to the detected value of the edge width.

【0067】図10において左から右へとエッジの検出
が行われる場合、隣接する画素の画素値の差がしきい値
Th1以下の場合には、エッジは存在しないと判定され
る。一方、画素値の差がしきい値Th1を超える場合に
は、エッジの開始端が存在すると判定される。左から右
へとしきい値Th1を超える画素値の差が連続する場
合、エッジ幅検出値が上昇する。
In FIG. 10, when edges are detected from left to right, if the difference between the pixel values of adjacent pixels is equal to or smaller than the threshold value Th1, it is determined that no edge exists. On the other hand, if the difference between the pixel values exceeds the threshold Th1, it is determined that the start end of the edge exists. When the difference between the pixel values exceeding the threshold value Th1 continues from left to right, the detected edge width increases.

【0068】エッジ開始端の検出後、画素値の差がしき
い値Th1以下になるとエッジの終端が存在すると判定
される。このとき、エッジの開始端に相当する画素と終
端に相当する画素との画素値の差がしきい値Th2以下
の場合には、適切なエッジではないと判定され、しきい
値Th2を超える場合には適切なエッジであると判定さ
れる。
After the detection of the edge start end, when the difference between the pixel values becomes equal to or smaller than the threshold value Th1, it is determined that the end of the edge exists. At this time, if the difference between the pixel value of the pixel corresponding to the start end of the edge and the pixel corresponding to the end of the edge is equal to or smaller than the threshold Th2, it is determined that the edge is not an appropriate edge, and if the difference exceeds the threshold Th2. Is determined to be an appropriate edge.

【0069】以上の処理を各色成分画像中の水平方向に
並ぶ画素配列に対して行うことにより、各色成分画像中
の水平方向のエッジの幅の値が検出される。
By performing the above processing on the pixel array arranged in the horizontal direction in each color component image, the value of the width of the edge in the horizontal direction in each color component image is detected.

【0070】図11は、ヒストグラム生成回路251の
具体的構成を示す図であり、図12ないし図14は一の
色成分に関するヒストグラム生成回路251の動作の流
れを示す図である。以下、これらの図を参照しながらヒ
ストグラムの生成についてさらに詳しく説明する。ただ
し、図15に示すように画像400の中央に予めオート
フォーカスを行うための領域(以下、「AFエリア」と
いう。)401が予め設定されているものとし、図16
に示すようにAFエリア401内の座標(i,j)の画
素の一の色成分に関する画素値をD(i,j)と表現す
る。また、図11に示す構成はヒストグラム生成回路2
51に色成分ごとに複数組設けられていてもよく、1組
だけ設けられてもよい。1組だけ設けられる場合には、
以下に説明する処理の変数が色成分ごとに設けられる。
FIG. 11 is a diagram showing a specific configuration of the histogram generation circuit 251. FIGS. 12 to 14 are diagrams showing a flow of operation of the histogram generation circuit 251 for one color component. Hereinafter, generation of a histogram will be described in more detail with reference to these drawings. However, as shown in FIG. 15, it is assumed that an area (hereinafter, referred to as an “AF area”) 401 for performing autofocus is set in advance in the center of the image 400, and FIG.
, A pixel value related to one color component of the pixel at the coordinates (i, j) in the AF area 401 is expressed as D (i, j). The configuration shown in FIG.
A plurality of sets may be provided for each color component, or only one set may be provided for each color component. If only one set is provided,
Variables for processing described below are provided for each color component.

【0071】黒レベル補正回路206に接続されるヒス
トグラム生成回路251は、図11に示すように第1微
分フィルタ271が設けられる左側の構造と第2微分フ
ィルタ272が設けられる右側の構造とが対称となって
おり、色成分画像のAFエリア401内を左から右へと
走査した際に、画素値の立上がりに対応するエッジが第
1微分フィルタ271側の構成により検出され、画素値
の立下がりに対応するエッジが第2微分フィルタ272
側の構成により検出される。
In the histogram generation circuit 251 connected to the black level correction circuit 206, the structure on the left where the first differential filter 271 is provided and the structure on the right where the second differential filter 272 is provided are symmetric as shown in FIG. When the inside of the AF area 401 of the color component image is scanned from left to right, the edge corresponding to the rising edge of the pixel value is detected by the first differential filter 271 side, and the falling edge of the pixel value is detected. The edge corresponding to the second differential filter 272
Is detected by the side configuration.

【0072】ヒストグラム生成回路251では、まず、
各種変数が初期化された後(ステップS101)、第1
微分フィルタ271により隣接する画素間の画素値の差
(D(i+1,j)−D(i,j))が求められ、比較
器273により画素値の差がしきい値Th1を超えるか
否かが確認される(ステップS102)。ここで、画素
値の差がしきい値Th1以下の場合には、エッジは存在
しないものと判定される。
In the histogram generation circuit 251, first,
After various variables are initialized (step S101), the first
The difference (D (i + 1, j) -D (i, j)) of the pixel value between adjacent pixels is obtained by the differential filter 271, and the comparator 273 determines whether the pixel value difference exceeds the threshold value Th <b> 1. Is confirmed (step S102). Here, when the difference between the pixel values is equal to or smaller than the threshold value Th1, it is determined that no edge exists.

【0073】一方、第2微分フィルタ272により隣接
する画素間の画素値の差(D(i,j)−D(i+1,
j))も求められ、比較器273により画素値の差がし
きい値Th1を超えるか否かが確認される(ステップS
105)。画素値の差がしきい値Th1以下の場合に
は、エッジは存在しないものと判定される。
On the other hand, the difference (D (i, j) −D (i + 1,
j)) are also obtained, and the comparator 273 checks whether or not the difference between the pixel values exceeds the threshold value Th1 (step S).
105). When the difference between the pixel values is equal to or smaller than the threshold Th1, it is determined that no edge exists.

【0074】その後、iを増加させつつステップS10
2およびステップS105が繰り返される(図14:ス
テップS121,S122)。
Thereafter, while increasing i, step S10 is performed.
2 and step S105 are repeated (FIG. 14: steps S121, S122).

【0075】ステップS102において、画素値の差が
しきい値Th1を超える場合には、エッジの開始端(画
素値の立ち上がり)が検出されたものと判定され、第1
微分フィルタ271側のエッジ幅カウンタ276により
エッジ幅を示すエッジ幅検出値C1(初期値0)がイン
クリメントされ、かつ、エッジ幅を検出中であることを
示すフラグCF1が1にセットされる(ステップS10
3)。さらに、検出開始時の画素値がラッチ274に記
憶される。
In step S102, if the difference between the pixel values exceeds the threshold value Th1, it is determined that the start end of the edge (the rising edge of the pixel value) has been detected, and the first
The edge width detection value C1 (initial value 0) indicating the edge width is incremented by the edge width counter 276 on the side of the differential filter 271 and the flag CF1 indicating that the edge width is being detected is set to 1 (step). S10
3). Further, the pixel value at the start of detection is stored in the latch 274.

【0076】以後、ステップS102において画素値の
差がしきい値Th1以下となるまでエッジ幅検出値C1
が増加し(ステップS102,S103,S121,S
122)、画素値の差がしきい値Th1以下となると、
フラグCF1が0にリセットされ、このときの画素値が
ラッチ275に記憶される(ステップS102,S10
4)。
Thereafter, in step S102, the edge width detection value C1 is maintained until the pixel value difference becomes equal to or less than the threshold value Th1.
Increase (steps S102, S103, S121, S
122), when the difference between the pixel values is equal to or less than the threshold value Th1,
The flag CF1 is reset to 0, and the pixel value at this time is stored in the latch 275 (steps S102 and S10).
4).

【0077】フラグCF1が0にリセットされると、ラ
ッチ274およびラッチ275に記憶されている画素値
の差Dd1が比較器277に与えられ、画素値の差Dd
1がしきい値Th2を超えるか否かが確認される(図1
3:ステップS111)。画素値の差Dd1がしきい値
Th2を超える場合には、適切なエッジが検出されたも
のと判定され、エッジ幅カウンタ276からエッジ幅検
出値C1がヒストグラム生成部278に与えられ、エッ
ジ幅がC1であるエッジの度数H[C1]がインクリメ
ントされる(ステップS112)。これにより、エッジ
幅がC1である1つのエッジの検出が完了する。
When the flag CF1 is reset to 0, the pixel value difference Dd1 stored in the latches 274 and 275 is given to the comparator 277, and the pixel value difference Dd
1 is checked whether it exceeds the threshold value Th2 (FIG. 1).
3: Step S111). If the pixel value difference Dd1 exceeds the threshold value Th2, it is determined that an appropriate edge has been detected, and the edge width detection value C1 is provided from the edge width counter 276 to the histogram generation unit 278, and the edge width is determined. The frequency H [C1] of the edge that is C1 is incremented (step S112). Thus, detection of one edge having the edge width of C1 is completed.

【0078】その後、エッジ幅検出値C1が0にリセッ
トされる(ステップS115,S116)。
Thereafter, the edge width detection value C1 is reset to 0 (steps S115 and S116).

【0079】ステップS105において画素値の差がし
きい値Th1を超える場合も同様に、エッジの開始端
(画素値の立ち下がり)が検出されたものと判定され、
第2微分フィルタ272側のエッジ幅カウンタ276に
よりエッジ幅を示すエッジ幅検出値C2(初期値0)が
インクリメントされ、かつ、エッジ幅を検出中であるこ
とを示すフラグCF2が1にセットされて検出開始時の
画素値がラッチ274に記憶される(ステップS10
5,S106)。
When the difference between the pixel values exceeds the threshold value Th1 in step S105, it is also determined that the start end of the edge (fall of the pixel value) has been detected.
An edge width detection value C2 (initial value 0) indicating the edge width is incremented by the edge width counter 276 on the second differential filter 272 side, and a flag CF2 indicating that the edge width is being detected is set to 1. The pixel value at the start of detection is stored in the latch 274 (step S10).
5, S106).

【0080】以後、ステップS105において画素値の
差がしきい値Th1以下となるまでエッジ幅検出値C2
が増加し(ステップS105,S106,S121,S
122)、画素値の差がしきい値Th1以下となると、
フラグCF2が0にリセットされ、このときの画素値が
ラッチ275に記憶される(ステップS105,S10
7)。
Thereafter, in step S105, the edge width detection value C2 until the pixel value difference becomes equal to or less than the threshold value Th1.
Increase (steps S105, S106, S121, S
122), when the difference between the pixel values is equal to or less than the threshold value Th1,
The flag CF2 is reset to 0, and the pixel value at this time is stored in the latch 275 (steps S105 and S10).
7).

【0081】フラグCF2が0にリセットされると、ラ
ッチ274およびラッチ275に記憶されている画素値
の差Dd2が比較器277に与えられ、画素値の差Dd
2がしきい値Th2を超えるか否かが確認される(ステ
ップS113)。画素値の差Dd2がしきい値Th2を
超える場合には、ヒストグラム生成部278においてエ
ッジ幅がC2であるエッジの度数H[C2]がインクリ
メントされ(ステップS114)、エッジ幅がC2であ
る1つのエッジの検出が完了する。
When the flag CF2 is reset to 0, the pixel value difference Dd2 stored in the latches 274 and 275 is given to the comparator 277, and the pixel value difference Dd
It is confirmed whether or not 2 exceeds the threshold Th2 (step S113). If the pixel value difference Dd2 exceeds the threshold value Th2, the frequency H [C2] of the edge having the edge width C2 is incremented by the histogram generation unit 278 (step S114), and one of the edges having the edge width C2 is incremented. Edge detection is completed.

【0082】その後、エッジ幅検出値C2が0にリセッ
トされる(ステップS117,S118)。
Thereafter, the edge width detection value C2 is reset to 0 (steps S117, S118).

【0083】以上のエッジ検出処理を繰り返し、変数i
がAFエリア401外の値となると(正確には、(i+
1)がAFエリア401外の値となると)、変数j以外
が初期化されるとともに変数jがインクリメントされる
(図14:ステップS122〜S124)。これによ
り、AFエリア401内の次の水平方向の画素配列に対
してエッジ検出が行われる。水平方向のエッジ検出を繰
り返し、やがて変数jがAFエリア401外の値になる
と、エッジ検出が終了する(ステップS125)。以上
の処理により、ヒストグラム生成部278にはエッジ幅
と度数との関係を示すヒストグラムが生成される。
By repeating the above edge detection processing, the variable i
Becomes a value outside the AF area 401 (exactly, (i +
When 1) becomes a value outside the AF area 401), the variables other than the variable j are initialized and the variable j is incremented (FIG. 14: steps S122 to S124). Thus, edge detection is performed on the next horizontal pixel array in the AF area 401. The edge detection in the horizontal direction is repeated, and when the variable j eventually becomes a value outside the AF area 401, the edge detection ends (step S125). Through the above-described processing, the histogram generation unit 278 generates a histogram indicating the relationship between the edge width and the frequency.

【0084】次に、図9に示すコントラスト算出回路2
52について説明する。デジタルカメラ1ではAF制御
の際にAFエリア401のコントラストも利用され、コ
ントラストも色成分ごとに求められる。コントラストと
してはAFエリア401内の色成分ごとの画素値の変化
の程度を示す指標値であればどのようなものが利用され
てもよいが、デジタルカメラ1では、数1にて示される
値が一の色成分に関するコントラストVcとして利用さ
れる。すなわち、コントラストVcとして、水平方向に
隣接する画素の一の色成分に関する画素値の差の総和が
利用される。
Next, the contrast calculation circuit 2 shown in FIG.
52 will be described. In the digital camera 1, the contrast of the AF area 401 is used at the time of the AF control, and the contrast is obtained for each color component. As the contrast, any index value may be used as long as it is an index value indicating the degree of change of the pixel value for each color component in the AF area 401. In the digital camera 1, the value shown in Expression 1 is used. It is used as the contrast Vc for one color component. That is, as the contrast Vc, the sum of the differences between the pixel values of one color component of horizontally adjacent pixels is used.

【0085】[0085]

【数1】 (Equation 1)

【0086】ただし、数1においてxはAFエリア40
1の水平方向の画素数であり、yは垂直方向の画素数で
ある(図16参照)。図示を省略しているが、コントラ
スト算出回路252は、図11に示す第1微分フィルタ
271および第2微分フィルタ272からの出力を累積
する構造となっている。なお、コントラスト検出回路を
別に設けてもよいし、コントラスト検出においては隣接
する画素ではなく、2つ隣の画素との差を算出しても構
わない。
Where x is the AF area 40
1 is the number of pixels in the horizontal direction, and y is the number of pixels in the vertical direction (see FIG. 16). Although not shown, the contrast calculation circuit 252 has a structure in which outputs from the first differential filter 271 and the second differential filter 272 shown in FIG. 11 are accumulated. Note that a contrast detection circuit may be provided separately, or a difference between two adjacent pixels may be calculated in contrast detection instead of adjacent pixels.

【0087】図17ないし図20は、デジタルカメラ1
におけるAF制御(図7:ステップS13)の全体の流
れを示す図である。以下、図17ないし図20、並び
に、図9を参照しながらオートフォーカスの際の動作に
ついて説明する。なお、以下の説明においてオートフォ
ーカスの際に駆動されるフォーカスレンズ311を適
宜、「レンズ」と略し、光学系が合焦状態となるフォー
カスレンズ311の位置を「合焦位置」と呼ぶ。
FIGS. 17 to 20 show the digital camera 1.
8 is a diagram showing an overall flow of AF control (FIG. 7: step S13) in FIG. Hereinafter, the operation at the time of autofocus will be described with reference to FIGS. 17 to 20 and FIG. In the following description, the focus lens 311 driven at the time of autofocusing is appropriately abbreviated as “lens”, and the position of the focus lens 311 at which the optical system is in a focused state is referred to as “focused position”.

【0088】まず、対象色選択部281が、R,G,B
の色成分ごとの画素値の平均値(以下、「レベル」とい
う。)を求める(ステップS201〜S203)。そし
て、最もレベルの高い色成分を演算対象となる色成分
(以下、「対象色」という。)として選択する(ステッ
プS204)。いずれの色成分が選択されたかを示す情
報は、ヒストグラム評価部264および駆動方向決定部
266へと入力される。
First, the target color selection unit 281 sets the R, G, B
An average value (hereinafter, referred to as “level”) of pixel values for each color component is obtained (steps S201 to S203). Then, the color component having the highest level is selected as the color component to be calculated (hereinafter, referred to as “target color”) (step S204). Information indicating which color component is selected is input to the histogram evaluation unit 264 and the drive direction determination unit 266.

【0089】次に、制御信号生成部268の制御によ
り、レンズが基準位置P2から所定量(例えば、4Fδ
(Fδは後述の焦点深度))だけ最近接側(最近接する
被写体に焦点を合わせる位置側)の位置P1へと移動
し、コントラスト算出回路252が各色成分のコントラ
ストを求め、駆動方向決定部266へと出力する(ステ
ップS211)。続いて、レンズが基準位置P2へと戻
ってコントラストが求められ(ステップS212)、さ
らに無限遠側(無限遠の被写体に焦点を合わせる位置
側)へと所定量だけ移動した位置P3にてコントラスト
が求められる(ステップS213)。なお、駆動方向決
定部266では、対象色選択部281にて選択された対
象色のコントラストのみが利用される。以下の説明にお
いて位置P1,P2,P3のそれぞれに対応する対象色
のコントラストに符号Vc1,Vc2,Vc3を付す。
Next, under the control of the control signal generator 268, the lens is moved from the reference position P2 by a predetermined amount (for example, 4Fδ).
(Fδ is the depth of focus to be described later)), and moves to the position P1 on the closest side (the position on the focus side of the closest object), the contrast calculation circuit 252 obtains the contrast of each color component, and the driving direction determination unit 266 Is output (step S211). Subsequently, the lens returns to the reference position P2 and the contrast is obtained (step S212). The contrast is further increased at a position P3 where the lens is moved by a predetermined amount toward infinity (a position where a subject at infinity is focused). Is obtained (step S213). Note that the driving direction determination unit 266 uses only the contrast of the target color selected by the target color selection unit 281. In the following description, reference signs Vc1, Vc2, and Vc3 are assigned to the contrasts of the target colors corresponding to the positions P1, P2, and P3, respectively.

【0090】駆動方向決定部266では、コントラスト
Vc1,Vc2,Vc3が条件(Vc1≧Vc2≧Vc
3)を満たすか否かを確認し(ステップS214)、満
たされる場合には合焦位置が現在の位置P3に対して最
近接側に存在するため、駆動方向を最近接側に向かう方
向に決定し、満たされない場合には駆動方向を無限遠側
に向かう方向に決定する(ステップS215,S21
6)。
In the driving direction determining section 266, the contrasts Vc1, Vc2, and Vc3 are set to satisfy the condition (Vc1 ≧ Vc2 ≧ Vc).
3) It is confirmed whether or not the condition is satisfied (step S214). If the condition is satisfied, the in-focus position is located closest to the current position P3, so the drive direction is determined to be the direction toward the closest position. If the driving direction is not satisfied, the driving direction is determined to be the direction toward infinity (steps S215 and S21).
6).

【0091】次に、レンズが位置P3に位置する状態に
て、ヒストグラム生成回路251によりエッジ幅のヒス
トグラムが生成され、ノイズ除去部263にてヒストグ
ラムのノイズ成分が除去される。その後、ヒストグラム
評価部264により対象色の色成分画像から検出された
エッジの個数(以下、「エッジ数」という。)Venが
取得され、さらに、対象色のヒストグラムの代表値が求
められる(ステップS301)。ヒストグラムの代表値
としては、デジタルカメラ1ではヒストグラムの重心に
対応するエッジ幅(以下、「重心エッジ幅」という。)
Vewが利用される。ヒストグラムの代表値としては他
の統計学的値が利用されてもよく、例えば、最大度数に
対応するエッジ幅、エッジ幅のメジアン等が利用可能で
ある。
Next, in a state where the lens is located at the position P3, a histogram of the edge width is generated by the histogram generating circuit 251 and the noise component of the histogram is removed by the noise removing unit 263. Thereafter, the number of edges (hereinafter, referred to as “number of edges”) Ven detected from the color component image of the target color by the histogram evaluation unit 264 is obtained, and a representative value of the histogram of the target color is obtained (step S301). ). As a representative value of the histogram, in the digital camera 1, an edge width corresponding to the center of gravity of the histogram (hereinafter, referred to as “center-of-gravity edge width”).
Vew is used. Other statistical values may be used as the representative values of the histogram. For example, an edge width corresponding to the maximum frequency, a median of the edge width, or the like can be used.

【0092】図21は、ノイズ除去部263およびヒス
トグラム評価部264が重心エッジ幅を求める処理の詳
細を示す流れ図である。また、図22および図23はノ
イズ除去部263の動作の様子を説明するための図であ
る。
FIG. 21 is a flowchart showing the details of the processing for obtaining the center-of-gravity edge width by the noise removing unit 263 and the histogram evaluating unit 264. FIGS. 22 and 23 are diagrams for explaining the operation of the noise removing unit 263. FIG.

【0093】ノイズ除去部263によるノイズの除去で
は、まず、対象色のヒストグラムからエッジ幅が1(す
なわち、1画素)の部分が削除される(ステップS40
1)。図22に示すようにヒストグラム410はエッジ
幅が1の部分411が突出した形状となっている。これ
は、AFエリア401中の高周波ノイズが幅1のエッジ
として検出されるためである。したがって、エッジ幅が
1の部分411を削除することにより、後述する重心エ
ッジ幅の精度向上が実現される。
In the noise removal by the noise removing unit 263, first, a portion having an edge width of 1 (that is, one pixel) is deleted from the histogram of the target color (step S40).
1). As shown in FIG. 22, the histogram 410 has a shape in which a portion 411 having an edge width of 1 protrudes. This is because high-frequency noise in the AF area 401 is detected as an edge having a width of 1. Therefore, by removing the portion 411 having the edge width of 1, the accuracy of the center-of-gravity edge width described later is improved.

【0094】次に、ヒストグラム410において度数が
所定値Th3以下の部分412,413が削除される
(ステップS402)。ヒストグラム410において度
数が低い部分は、一般に主被写体像以外のエッジを多く
含むためである。換言すれば、ヒストグラムから度数が
所定値よりも高い部分が抽出される。
Next, portions 412 and 413 of the histogram 410 whose frequency is equal to or less than the predetermined value Th3 are deleted (step S402). This is because a portion having a low frequency in the histogram 410 generally includes many edges other than the main subject image. In other words, a part whose frequency is higher than a predetermined value is extracted from the histogram.

【0095】さらに、図23に示すように、度数が最大
となるエッジ幅Eが検出され(ステップS403)、エ
ッジ幅Eを中心として所定範囲内(図23においてエッ
ジ幅が(E−E1)から(E+E1)の範囲内)の部分
を抽出した新たなヒストグラム414が求められる(ス
テップS404)。なお、図22および図23では図示
されていないが、ヒストグラムの形状によっては図22
において削除される部分412,413は図23におい
て削除される部分に必ず含まれるとは限らない。そこ
で、ステップS402の後にさらにステップS404が
実行される。
Further, as shown in FIG. 23, the edge width E having the maximum frequency is detected (step S403), and within a predetermined range around the edge width E (in FIG. 23, the edge width is (E-E1)). A new histogram 414 obtained by extracting the portion (within the range of (E + E1)) is obtained (step S404). Although not shown in FIGS. 22 and 23, depending on the shape of the histogram, FIG.
The portions 412 and 413 deleted in are not always included in the portions deleted in FIG. Therefore, step S404 is further executed after step S402.

【0096】ステップS404における抽出範囲の中心
となるエッジ幅Eは、ステップS402後のヒストグラ
ムの重心に対応するエッジ幅であってもよい。処理を簡
略化するために、単に、所定値以下のエッジ幅の部分、
あるいは、所定値以上のエッジ幅の部分をヒストグラム
から除去するという手法が採用されてもよい。主被写体
像のエッジ(すなわち、背景像から導かれるノイズ成分
を含まないエッジ)の幅は所定の範囲内に通常収まるこ
とから、このような簡略化された処理であっても主被写
体像におよそ対応するヒストグラムが求められる。
The edge width E at the center of the extraction range in step S404 may be the edge width corresponding to the center of gravity of the histogram after step S402. In order to simplify the processing, simply, a portion having an edge width equal to or less than a predetermined value,
Alternatively, a method of removing a portion having an edge width equal to or larger than a predetermined value from the histogram may be adopted. Since the width of the edge of the main subject image (that is, the edge that does not include a noise component derived from the background image) usually falls within a predetermined range, even with such simplified processing, the width of the main subject image is approximately A corresponding histogram is determined.

【0097】ヒストグラムからノイズ成分が除去される
と、ヒストグラム評価部264により、抽出されたヒス
トグラムの重心に対応するエッジ幅が重心エッジ幅Ve
wとして求められる(ステップS405)。
When the noise component is removed from the histogram, the histogram evaluation unit 264 determines that the edge width corresponding to the centroid of the extracted histogram is the centroid edge width Ve.
It is obtained as w (step S405).

【0098】なお、図19中のステップS301におい
て取得されるエッジ数Venとしては、ステップS40
2にてノイズ成分が除去されたヒストグラムにおける総
度数が利用されてもよく、ステップS404にてさらに
ノイズ成分が除去されたヒストグラムにおける総度数が
利用されてもよい。
Note that the edge number Ven obtained in step S301 in FIG.
The total frequency in the histogram from which noise components have been removed in step 2 may be used, or the total frequency in the histogram from which noise components have been further removed in step S404 may be used.

【0099】ヒストグラム評価部264により、対象色
の色成分画像に関するエッジ数Venおよび重心エッジ
幅Vewが取得されると、エッジ数Venが0であるか
確認され、0でない場合にはエッジ数Venが所定値以
下であるか確認され、所定値以下でない場合には、さら
に、重心エッジ幅Vewが8以上であるか否かが順次確
認される(ステップS302,S304,S306)。
When the histogram evaluation unit 264 obtains the number of edges Ven and the center-of-gravity edge width Vew related to the color component image of the target color, it is checked whether the number of edges Ven is zero. It is checked whether the value is equal to or less than a predetermined value. If the value is not equal to or less than the predetermined value, it is further checked whether the center-of-gravity edge width Vew is equal to or more than 8 (steps S302, S304, S306).

【0100】エッジ数Venが0の場合には、駆動量決
定部265により、レンズの駆動による像面の移動量が
16Fδに決定され、駆動方向決定部266にて決定さ
れた方向にレンズの駆動が行われる(ステップS30
3)。ただし、Fは光学系のFナンバーであり、δはC
CD303の画素間のピッチ(間隔)に対応する許容散
乱円の直径であり、Fδは焦点深度に相当する。フォー
カス用のレンズを用いてAF制御を行う場合、像面の移
動量はレンズの移動量と等しいことから、実際にはレン
ズの移動量が16Fδに決定される。
When the number of edges Ven is 0, the amount of movement of the image plane due to the driving of the lens is determined by the driving amount determining unit 265 to be 16Fδ, and the lens is driven in the direction determined by the driving direction determining unit 266. (Step S30)
3). Here, F is the F number of the optical system, and δ is C
The diameter of the permissible scattering circle corresponding to the pitch (interval) between the pixels of the CD 303, and Fδ corresponds to the depth of focus. When AF control is performed using a focusing lens, the amount of movement of the image plane is equal to the amount of movement of the lens. Therefore, the amount of movement of the lens is actually determined to be 16Fδ.

【0101】エッジ数Venが所定値以下の場合にはレ
ンズが12Fδだけ移動するように駆動され(ステップ
S305)、重心エッジ幅Vewが8以上の場合にはレ
ンズが8Fδだけ移動するように駆動される(ステップ
S307)。そして、エッジ数Venおよび重心エッジ
幅Vewの取得並びにレンズの駆動が、重心エッジ幅V
ewが8未満となるまで繰り返し行われる(ステップS
301〜S307)。
When the number of edges Ven is equal to or less than a predetermined value, the lens is driven to move by 12Fδ (step S305), and when the center-of-gravity edge width Vew is 8 or more, the lens is driven to move by 8Fδ. (Step S307). The acquisition of the edge number Ven and the center-of-gravity edge width Vew and the driving of the lens correspond to the center-of-gravity edge width Vew.
It is repeated until ew becomes less than 8 (step S
301-S307).

【0102】このように、AF制御部211aではエッ
ジ数Venおよび重心エッジ幅Vewを用いてレンズの
駆動量を決定するようになっている。なぜならば、これ
らの値はフォーカスの程度を示す評価値として利用する
ことができる値であり、フォーカスの程度が低い、すな
わち、合焦位置からレンズが遠く離れているほど、1回
の駆動でレンズを大きく移動させることが許容されるか
らである。
As described above, the AF control section 211a determines the amount of lens drive using the number of edges Ven and the center-of-gravity edge width Vew. This is because these values are values that can be used as evaluation values indicating the degree of focus. The lower the degree of focus, that is, the farther the lens is away from the in-focus position, the more the lens can be driven by one drive. Is largely allowed to move.

【0103】図24は、エッジ数Venがフォーカスに
関する評価値として利用可能であることを説明するため
の図である。図24において横軸はレンズの位置に対応
し、縦軸は検出されるエッジの総数(すなわち、エッジ
数Ven)に対応する。図24においてレンズ位置が4
の場合にレンズが合焦位置に位置する。このとき、エッ
ジ数は最大となる。そして、レンズ位置が合焦位置から
離れるほどエッジ数が減少する。このようにエッジ数は
フォーカスの程度を示す評価値として利用することがで
きる。
FIG. 24 is a diagram for explaining that the edge number Ven can be used as an evaluation value for focus. In FIG. 24, the horizontal axis corresponds to the position of the lens, and the vertical axis corresponds to the total number of detected edges (that is, the number of edges Ven). In FIG. 24, the lens position is 4
In this case, the lens is located at the in-focus position. At this time, the number of edges becomes maximum. The number of edges decreases as the lens position moves away from the in-focus position. Thus, the number of edges can be used as an evaluation value indicating the degree of focus.

【0104】一方、レンズが合焦位置に近づくほど画像
がシャープになり、検出される各エッジの幅は短くなる
ことから、当然、重心エッジ幅Vewもフォーカスの程
度を示す評価値として利用することができる。この場
合、フォーカスの程度が高いほど値は小さくなる。な
お、仮にフォーカスの程度が高いほど評価値が大きくな
ると定義する場合は、重心エッジ幅Vewの逆数や所定
値から重心エッジ幅Vewを減算したもの等が評価値に
相当する。
On the other hand, since the image becomes sharper and the width of each detected edge becomes shorter as the lens approaches the in-focus position, the center-of-gravity edge width Vew is naturally used as an evaluation value indicating the degree of focus. Can be. In this case, the higher the degree of focus, the smaller the value. If it is defined that the evaluation value increases as the degree of focus increases, the reciprocal of the center-of-gravity edge width Vew or a value obtained by subtracting the center-of-gravity edge width Vew from a predetermined value corresponds to the evaluation value.

【0105】デジタルカメラ1の場合、予め実験によ
り、エッジ数Venが0である場合に16Fδ、エッジ
数Venが所定値(例えば、20)以下の場合には12
Fδ、重心エッジ幅Vewが8以上の場合には8Fδだ
けレンズを移動させてもレンズが合焦位置を通り過ぎな
いことが確認されている。以上の理由により、図19に
示すステップS301〜S307によるレンズの駆動制
御が行われる。
In the case of the digital camera 1, an experiment has previously been performed to determine that 16Fδ is used when the edge number Ven is 0, and 12F when the edge number Ven is less than a predetermined value (for example, 20).
When Fδ and the center-of-gravity edge width Vew are 8 or more, it has been confirmed that the lens does not pass the in-focus position even if the lens is moved by 8Fδ. For the above reasons, the drive control of the lens in steps S301 to S307 shown in FIG. 19 is performed.

【0106】レンズが合焦位置に近づくと、重心エッジ
幅Vewが8(画素)未満となる。以後は、対象色に関
する山登り方式によりレンズの駆動が行われる。すなわ
ち、コントラスト算出回路252が対象色のコントラス
トVcを求め(図20:ステップS311)、コントラ
ストVcに応じて駆動量決定部265が2〜4Fδとな
る範囲内でレンズの駆動量を求め、制御信号生成部26
8が駆動量に応じた制御信号をAFモータ駆動回路21
4に与えることによりAFモータM2の駆動が行われる
(ステップS312)。
As the lens approaches the in-focus position, the center-of-gravity edge width Vew becomes less than 8 (pixels). Thereafter, the lens is driven by the hill-climbing method for the target color. That is, the contrast calculation circuit 252 obtains the contrast Vc of the target color (FIG. 20: step S311), and the drive amount determination unit 265 obtains the lens drive amount within the range of 2 to 4Fδ according to the contrast Vc, Generator 26
8 is a control signal corresponding to the driving amount, and the AF motor driving circuit 21
4 to drive the AF motor M2 (step S312).

【0107】その後、対象色のコントラストVcが再度
取得され、コントラストVcが減少したか否かを合焦検
出部267が確認しつつ駆動量決定部265がレンズを
微少量ずつ移動させる(ステップS312〜S31
4)。コントラストVcの取得およびレンズの駆動が繰
り返されると、やがてレンズが合焦位置を通り過ぎ、コ
ントラストVcが減少する(ステップS314)。ここ
で、現在のレンズ位置近傍の複数のレンズ位置に対応す
るコントラストVcを補間することにより、コントラス
トVcが最大となるレンズ位置が合焦位置として求めら
れ、さらに、レンズを振動させつつコントラストVcを
取得してレンズ位置の微調整が行われる(ステップS3
15)。以上の動作により、AF制御が終了する。
Thereafter, the contrast Vc of the target color is acquired again, and the drive amount determination unit 265 moves the lens little by little while the focus detection unit 267 checks whether the contrast Vc has decreased (steps S312 to S312). S31
4). When the acquisition of the contrast Vc and the driving of the lens are repeated, the lens eventually passes the in-focus position, and the contrast Vc decreases (step S314). Here, by interpolating the contrast Vc corresponding to a plurality of lens positions near the current lens position, the lens position where the contrast Vc is maximum is obtained as the focus position, and the contrast Vc is calculated while oscillating the lens. The acquired and fine adjustment of the lens position is performed (Step S3)
15). With the above operation, the AF control ends.

【0108】なお、レンズを無限遠側の端から最近接側
の端まで駆動させてもエッジが1つも検出されない場合
には、AF制御部211aにてローコントラストの被写
体であると判定され、AF制御が不可能である旨の警告
がLCD10を介して使用者に伝えられる。また、レン
ズを無限遠側の端から最近接側の端まで移動させてもエ
ッジ数が所定値を超えない場合にもLCD10を介して
警告、または、通常のコントラストを用いた山登り方式
にて合焦位置の検出が行われる。重心エッジ幅Vewが
8以下とならない場合にもコントラストを用いた山登り
方式に切り替えられ、合焦位置の検出が行われる。
If no edge is detected even when the lens is driven from the end on the infinity side to the end on the closest side, the AF control unit 211a determines that the subject is a low-contrast object, and A warning to the effect that control is impossible is transmitted to the user via the LCD 10. Also, when the number of edges does not exceed a predetermined value even when the lens is moved from the end at infinity to the end at the nearest side, a warning is issued via the LCD 10 or a hill-climbing method using ordinary contrast is performed. The focus position is detected. Even when the center-of-gravity edge width Vew does not become 8 or less, the method is switched to the hill-climbing method using the contrast, and the in-focus position is detected.

【0109】以上に説明したように、デジタルカメラ1
ではAFエリア401からエッジを検出し、対象色の色
成分画像のエッジに関するフォーカスの程度を示す評価
値を用いてレンズの1回の移動量、すなわち、レンズの
駆動速度が変更される。これにより、高解像度の静止画
像を取得する際の精度の高いフォーカス動作であっても
迅速に行うことができる。
As described above, the digital camera 1
In, the edge is detected from the AF area 401, and the amount of one movement of the lens, that is, the driving speed of the lens is changed using the evaluation value indicating the degree of focus related to the edge of the color component image of the target color. Accordingly, even when a high-resolution still image is acquired, a focus operation with high accuracy can be quickly performed.

【0110】また、デジタルカメラ1では複数の色成分
に対応する複数の評価値を求め、最もレベルの高い色成
分を対象色として選択した上で対象色の評価値のみに基
づいてAF制御を行う。対象色を選択した上でAF制御
を行うことにより、主被写体の色が特定の色成分に偏っ
ている場合であっても適切なAF制御が実現される。例
えば、赤い花や緑の木々を撮影したり、夕焼け等の特殊
効果用の色フィルタを用いた場合であっても、エッジの
検出が容易な色成分を利用して適切なAF制御を行うこ
とができる。
The digital camera 1 obtains a plurality of evaluation values corresponding to a plurality of color components, selects the color component having the highest level as a target color, and performs AF control based on only the evaluation value of the target color. . By performing the AF control after selecting the target color, appropriate AF control is realized even when the color of the main subject is biased toward a specific color component. For example, even when photographing red flowers or green trees or using a color filter for special effects such as sunsets, appropriate AF control should be performed using color components that can easily detect edges. Can be.

【0111】一般に、高度な評価値をエッジから求める
ためにはエッジ幅のヒストグラムが求められ、ヒストグ
ラムの代表値が評価値として利用されることが好まし
い。ヒストグラムの代表値は演算技術を考慮した場合、
統計学的値として与えられることが好ましく、統計学的
値としては平均値、メジアン、ピークに相当するエッジ
幅等も利用可能である。デジタルカメラ1では、評価値
の信頼性および演算量を比較考慮し、ヒストグラムの重
心に対応するエッジ幅が代表値として利用される。
Generally, in order to obtain a high evaluation value from an edge, a histogram of an edge width is obtained, and it is preferable that a representative value of the histogram is used as the evaluation value. The representative value of the histogram, considering the calculation technology,
It is preferably provided as a statistical value. As the statistical value, an average value, a median, an edge width corresponding to a peak, or the like can be used. In the digital camera 1, an edge width corresponding to the center of gravity of the histogram is used as a representative value in consideration of the reliability of the evaluation value and the amount of calculation.

【0112】エッジから導かれる評価値の具体例として
は、エッジ幅のヒストグラムに基づく重心エッジ幅Ve
wのみならず、エッジ数Venも利用可能である。デジ
タルカメラ1では、これらの評価値と所定の値とが比較
され、比較結果に応じてレンズの駆動速度が変更され
る。
As a specific example of the evaluation value derived from the edge, the center-of-gravity edge width Ve based on the histogram of the edge width is used.
Not only w but also the edge number Ven can be used. In the digital camera 1, these evaluation values are compared with a predetermined value, and the driving speed of the lens is changed according to the comparison result.

【0113】通常、ヒストグラムを利用する重心エッジ
幅Vewはエッジ数Venよりもフォーカスに関する評
価値として精度が高い。一方で、エッジ数Venは非常
に簡単に求められる値である。そこで、デジタルカメラ
1では、精度の低い評価値と精度の高い評価値の双方を
用い、精度の低い評価値にてレンズの駆動速度を速く
(1回の移動量を大きく)してよいか否か判断し、精度
の高い評価値を用いてレンズの駆動速度を小さく(1回
の移動量を小さく)してよいか否かを判断している。こ
れにより、より適切なAF制御が実現される。
Normally, the center-of-gravity edge width Vew using the histogram is more accurate as an evaluation value related to focus than the number of edges Ven. On the other hand, the edge number Ven is a value that can be obtained very easily. Therefore, the digital camera 1 uses both the low-precision evaluation value and the high-precision evaluation value to determine whether the driving speed of the lens can be increased (the amount of one movement increases) with the low-precision evaluation value. It is determined whether the driving speed of the lens can be reduced (the amount of one movement is reduced) by using a highly accurate evaluation value. Thereby, more appropriate AF control is realized.

【0114】なお、複数種類の評価値を使い分ける際に
は、精度の低い評価値および比較条件を用いて合焦位置
からレンズが十分に離れていると判定された場合には、
精度の高い比較条件の判定が不要となり、実質的に精度
の低い評価値を用いて精度の高い評価値を利用するか否
かを判断することと同等となる。
When a plurality of types of evaluation values are properly used, when it is determined that the lens is sufficiently away from the in-focus position by using low-precision evaluation values and comparison conditions,
It is not necessary to determine a highly accurate comparison condition, which is equivalent to determining whether to use a highly accurate evaluation value using a substantially low evaluation value.

【0115】デジタルカメラ1では、精度の低い評価値
であるエッジ数Venとしきい値と比較し、比較結果に
応じてレンズを大きく移動した後、再度、エッジ数Ve
nを求め、この動作を繰り返すことにより、比較結果が
変化するまでレンズが迅速に駆動される。比較結果が変
化すると、より精度の高い評価値である重心エッジ幅V
ewを用いた駆動が行われる。これにより、複数のレベ
ルで評価および駆動が行われ、高速なAF制御が実現さ
れる。
In the digital camera 1, the edge number Ven, which is an evaluation value with low accuracy, is compared with a threshold value, and the lens is largely moved according to the comparison result.
By obtaining n and repeating this operation, the lens is quickly driven until the comparison result changes. When the comparison result changes, the center-of-gravity edge width V, which is a more accurate evaluation value,
Drive using ew is performed. Thereby, evaluation and driving are performed at a plurality of levels, and high-speed AF control is realized.

【0116】一方、デジタルカメラ1では、対象色の色
成分画像からヒストグラム評価部264により求められ
るエッジに関するフォーカスの評価値のみならず、対象
色の色成分画像からコントラスト算出回路252により
求められるコントラストを用いたフォーカスの評価値も
利用することにより、精度の高いオートフォーカスを実
現している。具体的には、コントラストVcをレンズの
駆動方向の決定に用い、最終的な制御も重心エッジ幅よ
りも精度を高めることが可能なコントラストVcを用い
て行っている。
On the other hand, in the digital camera 1, not only the focus evaluation value for the edge obtained by the histogram evaluation unit 264 from the color component image of the target color but also the contrast obtained by the contrast calculation circuit 252 from the color component image of the target color. By using the evaluation value of the used focus, highly accurate auto focus is realized. Specifically, the contrast Vc is used to determine the driving direction of the lens, and the final control is also performed using the contrast Vc that can increase the accuracy more than the center-of-gravity edge width.

【0117】オートフォーカスの際にコントラストを求
めるという技術は既に用いられている技術であることか
ら、デジタルカメラ1では既存の技術とエッジを用いる
技術とを利用し、さらに、色成分ごとの精度の異なるコ
ントラストVc、重心エッジ幅Vewおよびエッジ数V
enを使い分けることにより、主被写体の色の偏りを考
慮しつつ迅速かつ高精度なオートフォーカスが実現され
ている。一般に静止画像の取得する際には、撮影準備の
指示に応じてフォーカスレンズ311が大きく移動する
ため、精度の異なる評価値を利用しつつレンズの駆動速
度を変更することにより、静止画像を取得する際のオー
トフォーカスが迅速かつ適切に実現される。
Since the technique of obtaining the contrast at the time of autofocus is a technique already used, the digital camera 1 uses the existing technique and the technique using the edge, and furthermore, the precision of each color component. Different contrast Vc, center of gravity edge width Vew and number of edges V
By properly using en, quick and highly accurate auto-focusing is realized while considering the color deviation of the main subject. In general, when a still image is obtained, the focus lens 311 largely moves in response to an instruction for shooting preparation. Therefore, a still image is obtained by changing the driving speed of the lens while using evaluation values having different precisions. Autofocus is quickly and appropriately realized.

【0118】<2. 第2の実施の形態>第1の実施の
形態では、対象色を選択する際に最もレベルの高い色成
分を対象色としている。しかしながら、対象色の選択は
他の基準により行われてもよい。図25は、検出される
エッジの数に基づいて対象色の選択が行われる場合のA
F制御の流れを示す図である。
<2. Second Embodiment> In the first embodiment, the color component having the highest level is selected as the target color when selecting the target color. However, the selection of the target color may be performed based on other criteria. FIG. 25 illustrates the case where the target color is selected based on the number of detected edges.
It is a figure showing the flow of F control.

【0119】まず、ヒストグラム生成回路251にて
R,G,Bの色成分画像(以下、「R画像」、「G画
像」、「B画像」という。)のそれぞれからエッジが検
出される(ステップS221〜S224、図9参照)。
そして、検出されたエッジはヒストグラム生成回路25
1から対象色選択部281へと入力され、検出されたエ
ッジの数が最も多い色成分が演算対象である対象色とし
て選択される(ステップS224)。選択された対象色
はヒストグラム評価部264および駆動方向決定部26
6に入力され、以後、第1の実施の形態と同様に、対象
色に関する評価値に基づいてレンズの駆動が行われる
(図18〜図20)。
First, an edge is detected from each of the R, G, and B color component images (hereinafter, referred to as “R image”, “G image”, and “B image”) in the histogram generation circuit 251 (step). S221 to S224, see FIG. 9).
Then, the detected edge is output to the histogram generation circuit 25.
1 is input to the target color selection unit 281 and a color component having the largest number of detected edges is selected as a target color to be calculated (step S224). The selected target color is determined by the histogram evaluation unit 264 and the drive direction determination unit 26.
6 and thereafter, the lens is driven based on the evaluation value for the target color as in the first embodiment (FIGS. 18 to 20).

【0120】以上のように、第2の実施の形態では、検
出されるエッジ数が最も多い色成分に対応する評価値に
基づいてフォーカスレンズ311が駆動される。なお、
主被写体の色の偏りを示す指標値であれば、色成分画像
のレベルやエッジ数以外のものであっても対象色の選択
に利用することができる。
As described above, in the second embodiment, the focus lens 311 is driven based on the evaluation value corresponding to the color component having the largest number of detected edges. In addition,
As long as it is an index value indicating the color bias of the main subject, even an index value other than the level and the number of edges of the color component image can be used for selecting the target color.

【0121】<3. 第3の実施の形態>次に、複数の
対象色が選択され得るAF制御の例について図26を参
照しながら説明する。なお、第2の実施の形態と同様
に、色成分画像から検出されるエッジの数に基づいて対
象色の選択が行われるものとする。
<3. Third Embodiment> Next, an example of AF control in which a plurality of target colors can be selected will be described with reference to FIG. Note that, similarly to the second embodiment, the target color is selected based on the number of edges detected from the color component image.

【0122】ヒストグラム生成回路251によりG画
像、B画像およびR画像から順次エッジが検出されると
(ステップS231〜S233)、各色成分画像のエッ
ジが対象色選択部281へと入力される。対象色選択部
281では、検出されたエッジ数が所定値以上となる色
成分が複数存在するか否かを確認し(ステップS23
4)、複数の存在する場合には複数の色成分を対象色と
して選択する。
When edges are sequentially detected from the G image, the B image, and the R image by the histogram generation circuit 251 (steps S231 to S233), the edges of each color component image are input to the target color selection unit 281. The target color selection unit 281 checks whether there are a plurality of color components whose detected edge number is equal to or more than a predetermined value (Step S23).
4) If a plurality of color components exist, a plurality of color components are selected as target colors.

【0123】選択結果はヒストグラム評価部264およ
び駆動方向決定部266に入力され、これらにおいて複
数の対象色を用いてヒストグラムの評価、および、駆動
方向の決定を行う設定がなされる(ステップS23
5)。具体的には、ヒストグラム評価部264では、複
数の対象色に関するエッジ数の平均値および重心エッジ
幅の平均値がレンズ駆動に利用されるエッジ数Venお
よび重心エッジ幅Vewとして求められる。駆動方向決
定部266では、複数の対象色に関するコントラストの
平均値が駆動方向決定に用いられるコントラストVcと
して求められる。
The selection result is input to the histogram evaluator 264 and the drive direction determiner 266, where the settings for evaluating the histogram and determining the drive direction using a plurality of target colors are made (step S23).
5). Specifically, the histogram evaluation unit 264 calculates the average value of the number of edges and the average value of the center-of-gravity edge widths for a plurality of target colors as the number of edges Ven and the center-of-gravity edge width Vew used for driving the lens. In the driving direction determination unit 266, an average value of contrasts for a plurality of target colors is obtained as the contrast Vc used for determining the driving direction.

【0124】なお、エッジ数Ven、重心エッジ幅Ve
wおよびコントラストVcは平均値ではなく、各対象色
のエッジ数に比例する加重平均値として求められてもよ
い。この場合、エッジが多く検出された色成分ほどエッ
ジ数Ven、重心エッジ幅VewおよびコントラストV
cの値に影響を与える。
The number of edges Ven, the center of gravity edge width Ve
The w and the contrast Vc may not be average values but may be obtained as weighted average values proportional to the number of edges of each target color. In this case, the number of edges Ven, the center of gravity edge width Vew, and the contrast V
Affects the value of c.

【0125】エッジ数が所定値以上の色成分が複数存在
しない場合には、エッジ数が所定値以上の色成分が1つ
存在するか否かが対象色選択部281により確認される
(ステップS236)。存在する場合には、第2の実施
の形態と同様に、エッジ数が所定値以上の色成分(すな
わち、エッジ数が最も多い色成分)が、演算対象となる
色成分である対象色として選択される(ステップS23
7)。
If there are no plural color components having the number of edges equal to or more than the predetermined value, the target color selection unit 281 checks whether there is one color component having the number of edges equal to or more than the predetermined value (step S236). ). If there is, as in the second embodiment, a color component having a number of edges equal to or greater than a predetermined value (that is, a color component having the largest number of edges) is selected as a target color which is a color component to be calculated. (Step S23)
7).

【0126】いずれの色成分画像においても検出される
エッジの数が所定値を下回る場合には、LCD10(図
2参照)に適切なAF制御を行うことができない旨の警
告が表示され(ステップS238)、撮影距離が3m程
度となるようにレンズの位置が制御される(ステップS
239)。
If the number of edges detected in any of the color component images is smaller than the predetermined value, a warning is displayed on the LCD 10 (see FIG. 2) indicating that appropriate AF control cannot be performed (step S238). ), The position of the lens is controlled so that the shooting distance is about 3 m (Step S)
239).

【0127】ステップS235またはステップS237
により少なくとも1つの色成分が対象色として選択され
た場合は、以後、少なくとも1つの対象色に対応する色
成分画像から求められるエッジ数Ven、重心エッジ幅
VewおよびコントラストVcに基づいて、第1の実施
の形態と同様の手法によりレンズの駆動方向の決定およ
び駆動量の決定が行われる(図18〜図20)。
Step S235 or step S237
When at least one color component is selected as the target color by the following, based on the number of edges Ven, the center-of-gravity edge width Vew and the contrast Vc obtained from the color component image corresponding to the at least one target color, The driving direction of the lens and the driving amount are determined in the same manner as in the embodiment (FIGS. 18 to 20).

【0128】以上のように、対象色として2以上の色成
分が選択されてもよく、2以上の色成分画像から検出さ
れるエッジから対象色ごとの評価値を求め、複数の評価
値から求められる新たな評価値に基づいてフォーカスレ
ンズ311が駆動されてもよい。これにより、主被写体
の色が複数の色成分に偏っている場合であっても適切な
AF制御を行うことが実現される。第3の実施の形態で
は、少なくとも1つの色成分を対象色として選択するこ
とにより、特定の色(少なくとも1つの色成分)に主被
写体の色が偏っている場合であっても適切なAF制御を
実現している。
As described above, two or more color components may be selected as target colors, and an evaluation value for each target color is obtained from edges detected from two or more color component images, and a plurality of evaluation values are obtained. The focus lens 311 may be driven based on the new evaluation value obtained. This realizes appropriate AF control even when the color of the main subject is biased toward a plurality of color components. In the third embodiment, by selecting at least one color component as the target color, appropriate AF control can be performed even when the color of the main subject is biased to a specific color (at least one color component). Has been realized.

【0129】また、第3の実施の形態では、少なくとも
1つの対象色の色成分画像から互いに精度の異なるエッ
ジに関する評価値およびコントラストが求められるた
め、色の偏りを考慮しつつ迅速にAF制御を行うことが
できる。
Further, in the third embodiment, since the evaluation value and the contrast relating to edges having mutually different precisions are obtained from the color component images of at least one target color, the AF control can be performed quickly while considering the color deviation. It can be carried out.

【0130】なお、第3の実施の形態においても第1の
実施の形態と同様に、色成分のレベルに応じて対象色の
選択が行われてもよい。
In the third embodiment, as in the first embodiment, the target color may be selected according to the level of the color component.

【0131】<4. 第4の実施の形態>第1ないし第
3の実施の形態では、AFエリア401から抽出される
エッジを利用してフォーカスレンズの1回の駆動量(移
動量)を求めるが、2つの重心エッジ幅を利用して合焦
位置を予測することも可能である。以下、合焦位置を予
測する基本的手法について説明した上で、この手法を利
用する第4の実施の形態に係るAF制御について説明す
る。
<4. Fourth Embodiment> In the first to third embodiments, one drive amount (movement amount) of the focus lens is obtained by using the edge extracted from the AF area 401. It is also possible to predict the focus position using the width. Hereinafter, a basic method for predicting the in-focus position will be described, and then the AF control according to the fourth embodiment using this method will be described.

【0132】図27は、レンズが合焦位置に近づくにつ
れてエッジ幅のヒストグラムが変化する様子を示す図で
ある。符号431はレンズが合焦位置から大きく離れて
いる場合のヒストグラムを示し、符号432はヒストグ
ラム431の場合よりもレンズが合焦位置に近い場合の
ヒストグラムを示す。符号433はレンズが合焦位置に
位置する場合のヒストグラムを示す。また、符号Vew
11,Vew12,Vewfはそれぞれ、ヒストグラム
431,432,433の重心エッジ幅である。
FIG. 27 is a diagram showing how the histogram of the edge width changes as the lens approaches the in-focus position. Reference numeral 431 indicates a histogram when the lens is far away from the in-focus position, and reference numeral 432 indicates a histogram when the lens is closer to the in-focus position than in the case of the histogram 431. Reference numeral 433 indicates a histogram when the lens is located at the in-focus position. Also, the code Vew
11, Vew12, and Vewf are the center-of-gravity edge widths of the histograms 431, 432, and 433, respectively.

【0133】図27に示すように、重心エッジ幅はレン
ズが合焦位置に近づくにつれて小さくなる。最小の重心
エッジ幅Vewfは、光学系のMTF(Modulation Tra
nsfer Function:光学系が空間周波数に対して像のコン
トラストをどの程度再現することができるのかを示す指
標値)、撮影条件、被写体等によって若干変化するが、
合焦であると判定する基準が緩やかな場合には、レンズ
が合焦位置に位置する際の最小の重心エッジ幅Vewf
を一定の値とみなすことが可能であり、予め求めておく
ことができる。以下の説明において、最小の重心エッジ
幅Vewfを「基準エッジ幅」という。
As shown in FIG. 27, the edge width of the center of gravity decreases as the lens approaches the in-focus position. The minimum center-of-gravity edge width Vewf is determined by the MTF (Modulation Tra
nsfer Function: an index value that indicates how much the optical system can reproduce the contrast of the image with respect to the spatial frequency), shooting conditions, subject, etc.
When the criterion for judging in-focus is loose, the minimum center-of-gravity edge width Vewf when the lens is located at the in-focus position
Can be regarded as a constant value and can be obtained in advance. In the following description, the minimum center-of-gravity edge width Vewf is referred to as “reference edge width”.

【0134】図28は、レンズ位置と重心エッジ幅との
関係を示す図であり、レンズ位置L1,L2に対応する
重心エッジ幅がVew21,Vew22であり、合焦位
置Lfに対応する基準エッジ幅がVewfである。図2
8に示すように、一般に、レンズ位置と重心エッジ幅と
は線形の関係にあるとみなすことができる。したがっ
て、レンズ位置L1,L2に対応する重心エッジ幅Ve
w21,Vew22が求められると、基準エッジ幅Ve
wfを利用して数2により合焦位置Lfを求めることが
できる。
FIG. 28 is a diagram showing the relationship between the lens position and the center-of-gravity edge width. The center-of-gravity edge widths corresponding to the lens positions L1 and L2 are Vew21 and Vew22, and the reference edge width corresponding to the focus position Lf. Is Vewf. FIG.
As shown in FIG. 8, generally, the lens position and the center-of-gravity edge width can be regarded as having a linear relationship. Therefore, the center-of-gravity edge width Ve corresponding to the lens positions L1 and L2
When w21 and Vew22 are obtained, the reference edge width Ve
The in-focus position Lf can be obtained by using Equation 2 using wf.

【0135】[0135]

【数2】 (Equation 2)

【0136】なお、重心エッジ幅に代えて、エッジ幅の
平均値、ヒストグラムのピークに対応するエッジ幅、メ
ジアン等の統計学的値を合焦位置を求める際に利用する
ことも可能である。
Note that, instead of the center-of-gravity edge width, a statistical value such as an average value of the edge width, an edge width corresponding to the peak of the histogram, or a median may be used in obtaining the in-focus position.

【0137】また、図28に示す手法では、少なくとも
2つのレンズ位置において重心エッジ幅を求めることに
より合焦位置を求めることが可能であるが、より精度を
高めるために、各レンズ位置L1,L2から所定距離a
Fδだけ前後の位置(L1±aFδ),(L2±aF
δ)での重心エッジ幅を用いてレンズ位置L1,L2に
おける重心エッジ幅の精度が高められてもよい。具体的
には、位置(L1−aFδ),L1,(L1+aFδ)
における重心エッジ幅がVew31,Vew32,Ve
w33である場合には、数3によりこれらの値にローパ
スフィルタを作用させた値Vew3がレンズ位置L1の
重心エッジ幅として求められる。
In the method shown in FIG. 28, the in-focus position can be obtained by obtaining the center-of-gravity edge width at at least two lens positions. However, in order to further improve the accuracy, each of the lens positions L1, L2 A predetermined distance from
Positions before and after Fδ (L1 ± aFδ), (L2 ± aF
The accuracy of the center-of-gravity edge width at the lens positions L1 and L2 may be increased using the center-of-gravity edge width in δ). Specifically, the positions (L1−aFδ), L1, (L1 + aFδ)
The center of gravity edge width at Vew31, Vew32, Ve
In the case of w33, a value Vew3 obtained by applying a low-pass filter to these values is obtained as the center-of-gravity edge width of the lens position L1 by Expression 3.

【0138】[0138]

【数3】 (Equation 3)

【0139】同様に、位置(L2−aFδ),L2,
(L2+aFδ)における重心エッジ幅がVew41,
Vew42,Vew43である場合には、数4により値
Vew4がレンズ位置L2の重心エッジ幅として求めら
れる。
Similarly, the positions (L2-aFδ), L2,
The center of gravity edge width at (L2 + aFδ) is Vew41,
In the case of Vew42 and Vew43, the value Vew4 is obtained from Equation 4 as the center-of-gravity edge width of the lens position L2.

【0140】[0140]

【数4】 (Equation 4)

【0141】もちろん、3以上の任意のレンズ位置にて
重心エッジ幅を求め、最小二乗法を用いてレンズ位置と
重心エッジ幅との関係を示す直線が求められてもよい。
Of course, the center-of-gravity edge width may be determined at three or more arbitrary lens positions, and a straight line indicating the relationship between the lens position and the center-of-gravity edge width may be determined using the least squares method.

【0142】次に、第4の実施の形態におけるAF制御
の流れについて説明する。なお、第4の実施の形態に係
るデジタルカメラ1の構成および基本動作(図7)は第
1の実施の形態と同様であるものとする。
Next, the flow of the AF control in the fourth embodiment will be described. It is assumed that the configuration and basic operation (FIG. 7) of the digital camera 1 according to the fourth embodiment are the same as those of the first embodiment.

【0143】図29および図30は、第4の実施の形態
におけるAF制御の流れを示す図である。AF制御で
は、まず、第3の実施の形態と同様に、ヒストグラム生
成回路251にてG画像、B画像およびR画像からエッ
ジが検出され(ステップS501〜S503)、対象色
選択部281によりエッジ数が所定値以上の色成分が対
象色として選択される(ステップS504)。エッジ数
が所定値以上の色成分が存在しない場合にはLCD10
に警告が表示され、撮影距離が3m程度に設定される
(ステップS505〜S507)。
FIGS. 29 and 30 are views showing the flow of AF control in the fourth embodiment. In the AF control, first, similarly to the third embodiment, edges are detected from the G image, the B image, and the R image by the histogram generation circuit 251 (steps S501 to S503), and the number of edges is determined by the target color selection unit 281. Are selected as target colors (step S504). If there is no color component whose edge number is equal to or greater than the predetermined value, the LCD 10
Is displayed, and the shooting distance is set to about 3 m (steps S505 to S507).

【0144】対象色として少なくとも1つの色成分が選
択された場合には、駆動方向決定部266により、対象
色の色成分画像のコントラストに基づいて、第3の実施
の形態にて引用する図18中のステップS211〜21
6と同様の手法にてレンズの駆動方向が決定される(ス
テップS508)。すなわち、対象色が1つの場合には
3つのレンズ位置P1〜P3における対象色のコントラ
ストVc1〜Vc3を用いて駆動方向が決定され、対象
色が複数の場合には対象色ごとのコントラストの平均値
をコントラストVc1〜Vc3として用いて駆動方向が
決定される。
When at least one color component is selected as the target color, the driving direction determination unit 266 cites FIG. 18 referred to in the third embodiment based on the contrast of the color component image of the target color. Steps S211 to S21
The driving direction of the lens is determined in the same manner as in Step 6 (Step S508). That is, when there is one target color, the driving direction is determined using the contrasts Vc1 to Vc3 of the target colors at the three lens positions P1 to P3, and when there are a plurality of target colors, the average value of the contrast for each target color Are used as contrasts Vc1 to Vc3 to determine the driving direction.

【0145】駆動方向が決定されると、ヒストグラム評
価部264により選択された色成分ごとのヒストグラム
から重心エッジ幅Vew21が求められる(ステップS
509)。すなわち、対象色が1つのみの場合には重心
エッジ幅Vew21が1つだけ求められ、対象色が複数
の場合には重心エッジ幅Vew21も複数求められる。
When the driving direction is determined, the center-of-gravity edge width Vew21 is obtained from the histogram for each color component selected by the histogram evaluation section 264 (step S).
509). That is, when there is only one target color, only one centroid edge width Vew21 is obtained, and when there are multiple target colors, plural centroid edge widths Vew21 are also obtained.

【0146】次に、駆動量決定部265および制御信号
生成部268により、決定された駆動方向に初期位置
(以下、「位置L1」と呼ぶ。)から所定量だけレンズ
が大きく移動され(ステップS511)、ヒストグラム
生成回路251、ノイズ除去部263および駆動量決定
部265により移動後の位置(以下、「位置L2」と呼
ぶ。)にて対象色ごとの重心エッジ幅Vew22が求め
られる(ステップS512)。その後、数2による演算
が行われ、対象色ごとにおよその合焦位置が求められる
(ステップS513)。すなわち、対象色ごとの合焦位
置が推測される。
Next, the lens is largely moved by a predetermined amount from the initial position (hereinafter, referred to as “position L1”) in the determined driving direction by the driving amount determining unit 265 and the control signal generating unit 268 (step S511). ), The center-of-gravity edge width Vew22 for each target color is obtained at the moved position (hereinafter, referred to as “position L2”) by the histogram generation circuit 251, the noise removal unit 263, and the drive amount determination unit 265 (step S512). . After that, the calculation based on Expression 2 is performed, and an approximate focus position is obtained for each target color (step S513). That is, the in-focus position for each target color is estimated.

【0147】ここで、合焦位置を求める際のGの色に関
する基準エッジ幅Vewfは、Gベイヤー配列のCCD
の場合にはRおよびBに関するものよりも小さく設定さ
れる。Gベイヤー配列のCCDでは、4つの画素のうち
対角に位置する2つの画素にGのフィルタが設けられ、
他の2つの画素にRおよびBのフィルタが設けられる。
その結果、G画像にはR画像およびB画像よりも高周波
成分が多く含まれ、レンズが合焦位置に位置する際のG
に関する重心エッジ幅は他のものより小さくなることか
ら、Gに関する基準エッジ幅Vewfが小さく設定され
る。
Here, the reference edge width Vewf for the color G when obtaining the in-focus position is determined by a G Bayer array CCD.
In the case of, it is set smaller than that for R and B. In a G-Bayer array CCD, a G filter is provided for two pixels located diagonally out of four pixels,
The other two pixels are provided with R and B filters.
As a result, the G image contains more high frequency components than the R image and the B image, and the G image when the lens is located at the in-focus position.
Since the center-of-gravity edge width related to G is smaller than the others, the reference edge width Vewf for G is set smaller.

【0148】合焦位置が求められると、ステップS50
4において対象色として1つの色成分のみが選択されて
いる場合には、レンズは求められた合焦位置へと速やか
に移動し(ステップS516)、対象色に関するコント
ラストVcを求めつつレンズが合焦位置へと正確に一致
するように微調整が行われる(ステップS517)。
When the in-focus position is obtained, step S50 is performed.
If only one color component is selected as the target color in step 4, the lens quickly moves to the obtained focus position (step S516), and the lens is focused while obtaining the contrast Vc for the target color. Fine adjustment is performed so as to exactly match the position (step S517).

【0149】一方、対象色として複数の色成分が選択さ
れている場合には、求められた複数の合焦位置のうち最
も近接する被写体に対応する合焦位置(すなわち、最近
接側の合焦位置)が選択され(ステップS514,S5
15)、レンズは求められた合焦位置へと速やかに移動
する(ステップS516)。その後、レンズ位置の微調
整が行われる(ステップS517)。
On the other hand, when a plurality of color components are selected as target colors, the focus position corresponding to the closest object (ie, the focus position closest to the object) among the plurality of obtained focus positions. Is selected (steps S514, S5).
15), the lens quickly moves to the determined focus position (step S516). Thereafter, fine adjustment of the lens position is performed (step S517).

【0150】以上のように、第4の実施の形態における
AF制御では、第1の位置L1および第2の位置L2に
て少なくとも1つの色成分に対応する重心エッジ幅を求
め、これらの値と少なくとも1つの色成分に対応する基
準エッジ幅から少なくとも1つの合焦位置を求める。さ
らに、求められた少なくとも1つの合焦位置に基づいて
フォーカスレンズが駆動される。したがって、レンズを
合焦位置へと迅速に移動させることができる。また、重
心エッジ幅を用いたレンズ移動とコントラストを用いた
レンズ移動とを併用するため、レンズを合焦位置に正確
に位置させることも可能となる。
As described above, in the AF control according to the fourth embodiment, the center-of-gravity edge width corresponding to at least one color component is obtained at the first position L1 and the second position L2, and these values and At least one focus position is determined from a reference edge width corresponding to at least one color component. Further, the focus lens is driven based on the obtained at least one focus position. Therefore, the lens can be quickly moved to the focus position. Further, since the lens movement using the center-of-gravity edge width and the lens movement using the contrast are used together, the lens can be accurately positioned at the in-focus position.

【0151】また、第4の実施の形態では、複数の対象
色が選択されて複数の合焦位置が求められた場合は、最
近接側の合焦位置へとレンズが移動される。この動作
は、背景よりもデジタルカメラ1の近くに存在する主被
写体にフォーカスを合わせることを目的として行われ
る。すなわち、色の偏りのある主被写体と背景とがAF
エリア401内に存在する場合であっても、最近接側の
合焦位置にレンズを移動させることにより、主被写体に
適切にフォーカスを合わせることができる。これによ
り、いわゆる遠近競合の問題が回避される。
In the fourth embodiment, when a plurality of target colors are selected and a plurality of focus positions are obtained, the lens is moved to the closest focus position. This operation is performed for the purpose of focusing on a main subject located closer to the digital camera 1 than the background. That is, the main subject having a color bias and the background are AF
Even when the main subject is located in the area 401, the main subject can be appropriately focused by moving the lens to the closest focus position. Thereby, the problem of so-called far-field conflict is avoided.

【0152】なお、第4の実施の形態においても重心エ
ッジ幅Vewに代えてヒストグラムの他の代表値がフォ
ーカスの程度を示す評価値として利用されてもよい。エ
ッジ数に代えて各色成分のレベルから対象色の選択が行
われてもよい。
In the fourth embodiment, another representative value of the histogram may be used as an evaluation value indicating the degree of focus instead of the center-of-gravity edge width Vew. The target color may be selected from the level of each color component instead of the number of edges.

【0153】また、第1の位置L1と第2の位置L2と
の間の距離は、予め一定の値に定められていてもよい
が、位置L1における対象色のエッジ数Venや重心エ
ッジ幅Vewに応じて変更されてもよい。すなわち、合
焦位置の推測を適切に行うためにこれらの評価値が示す
フォーカスの程度が低いほど、位置L1と位置L2との
間の距離が大きく設定されてもよい。
The distance between the first position L1 and the second position L2 may be set to a fixed value in advance, but the number of edges Ven and the center of gravity edge width Vew of the target color at the position L1. It may be changed according to. That is, the distance between the position L1 and the position L2 may be set to be larger as the degree of focus indicated by these evaluation values is lower in order to appropriately estimate the focus position.

【0154】<5. 第5の実施の形態>第4の実施の
形態では、複数の合焦位置を求めた後、最近接側の合焦
位置へとレンズが移動される。一方で、主被写体上に様
々な色が存在する場合には最近接側以外の位置が最終的
な合焦位置として求められることが好ましい場合もあ
る。
<5. Fifth Embodiment> In the fourth embodiment, after obtaining a plurality of focus positions, the lens is moved to the closest focus position. On the other hand, when various colors exist on the main subject, it may be preferable that a position other than the closest side is obtained as a final focus position.

【0155】図31は、図30におけるステップS51
5の別の動作を示す流れ図である。図31に示すステッ
プS515aは、色成分ごとのエッジ数の割合で重み付
けを行って色成分ごとに求められた複数の合焦位置を合
成し、新たな合焦位置を求める工程となっている。この
処理により、主被写体上に様々な色が存在する場合であ
っても、主被写体の色の偏りの程度に合わせて適切にA
F制御を行うことができる。
FIG. 31 is a flowchart showing step S51 in FIG.
13 is a flowchart showing another operation of the fifth embodiment. Step S515a shown in FIG. 31 is a process of performing weighting by the ratio of the number of edges for each color component, combining a plurality of focus positions obtained for each color component, and obtaining a new focus position. By this processing, even when various colors exist on the main subject, A can be appropriately adjusted in accordance with the degree of color deviation of the main subject.
F control can be performed.

【0156】第4の実施の形態に係るステップS515
と第5の実施の形態に係るステップS515aとは主被
写体の様子に応じて切替可能とされてもよい。この場
合、デジタルカメラ1の使用者は主被写体が特定の色に
偏っており、かつ、遠近競合を回避したい場合には適宜
ボタンを(図5中の操作部250)を操作してステップ
S515を選択し、その他の場合にはステップS515
aを選択する。
Step S515 according to the fourth embodiment
It may be possible to switch between step S515a according to the fifth embodiment and step S515a according to the state of the main subject. In this case, the user of the digital camera 1 appropriately operates the button (the operation unit 250 in FIG. 5) to execute step S515 when the main subject is biased to a specific color and wants to avoid perspective conflict. Select, otherwise step S515
Select a.

【0157】<6. 変形例>以上、本発明に係る実施
の形態について説明してきたが、本発明は上記実施の形
態に限定されず、様々な変形が可能である。
<6. Modifications> While the preferred embodiments of the present invention have been described above, the present invention is not limited to the above-discussed preferred embodiments, but allows various modifications.

【0158】例えば、上記実施の形態では、光学系を有
する撮像部3と、光学系を制御するカメラ本体部2とが
分離可能となっており、カメラ本体部2が光学系に対す
る制御装置となっているが、光学系と制御系とを一体的
に有するデジタルカメラであってもよい。また、光学系
と制御装置とをケーブルを用いて接続した構成であって
もよい。この場合、制御装置としては汎用のコンピュー
タが利用されてもよく、コンピュータには光ディスク、
磁気ディスク、光磁気ディスク等の記録媒体を介して予
め光学系制御用のプログラムがインストールされる。
For example, in the above embodiment, the imaging section 3 having an optical system and the camera body 2 for controlling the optical system can be separated, and the camera body 2 serves as a control device for the optical system. However, a digital camera having an optical system and a control system integrally may be used. Further, a configuration in which the optical system and the control device are connected using a cable may be employed. In this case, a general-purpose computer may be used as the control device.
An optical system control program is installed in advance via a recording medium such as a magnetic disk or a magneto-optical disk.

【0159】撮影準備はシャッタボタン8以外の構成に
よりAF制御部211aに指示されてもよい。例えば、
使用者がファインダ31に目を近づけたことを検出した
り、グリップ部4が把持されたことを検出するセンサが
AF制御部211aに撮影準備を指示する信号を送出し
てもよい。シャッタボタン8以外のボタンの操作により
発生する信号やセルフタイマー、インターバル撮影の際
に利用されるタイマーからの信号により撮影準備が指示
されてもよい。このように、撮影直前であることをAF
制御部211aに指示することができるのであるなら
ば、様々な構成を撮影準備の指示を行う構成として利用
することができる。
The preparation for photographing may be instructed to the AF control section 211a by a configuration other than the shutter button 8. For example,
A sensor that detects that the user has approached the eye to the viewfinder 31 or that detects that the grip unit 4 has been gripped may send a signal for instructing the AF control unit 211a to prepare for shooting. Preparation for shooting may be instructed by a signal generated by operating a button other than the shutter button 8 or a signal from a self-timer or a timer used for interval shooting. As described above, it is determined that the image is
If the control unit 211a can be instructed, various configurations can be used as the configuration for instructing the preparation for photographing.

【0160】デジタルカメラ1では、図8に示すように
AF制御部211aにおける処理が、専用の回路による
処理とCPUによるソフトウェア的処理とに分担されて
いるが、全てCPUにより実行することも可能である。
この場合、プログラムをCPUが実行することにより上
記実施の形態にて説明したAF制御の全てが実行される
こととなる。逆に、AF制御部211aにおける処理の
全てを専用の回路により実現することも可能である。ま
た、図9ではCPUの機能をブロックを用いて表現して
いるが、これらの機能構成の役割分担(すなわち、演算
処理の分担)は任意に変更されてよい。
In the digital camera 1, as shown in FIG. 8, the processing in the AF control section 211a is divided into processing by a dedicated circuit and software processing by the CPU, but all processing can be executed by the CPU. is there.
In this case, when the CPU executes the program, all of the AF control described in the above embodiment is executed. Conversely, all the processing in the AF control unit 211a can be realized by a dedicated circuit. Further, in FIG. 9, the functions of the CPU are represented using blocks, but the roles of these functional components (that is, the roles of the arithmetic processing) may be arbitrarily changed.

【0161】なお、上記実施の形態におけるエッジ検出
(抽出)処理は一例にすぎず、他の手法によりエッジが
検出されてもよい。また、上記実施の形態におけるエッ
ジ検出は水平方向に対してのみ行われるが、垂直方向に
対してエッジが検出されてもよく、双方向からエッジ検
出が行われてもよい。
The edge detection (extraction) processing in the above embodiment is merely an example, and the edge may be detected by another method. Further, although the edge detection in the above embodiment is performed only in the horizontal direction, an edge may be detected in the vertical direction, or edge detection may be performed in both directions.

【0162】上記実施の形態では、コントラストをその
まま評価値として利用しているが、コントラストを変換
して評価値が求められてもよい。すなわち、上記実施の
形態では、コントラスト算出回路252においてコント
ラストを求める工程とコントラストから評価値を求める
工程とが実質的に一工程として行われるが、これらの工
程は個別に存在してもよく、工程ごとに回路が分離して
いてもよい。コントラストを評価値としてそのまま利用
することは、コントラストを求めて評価値を求める処理
の一態様にすぎない。
In the above embodiment, the contrast is used as it is as the evaluation value. However, the evaluation value may be obtained by converting the contrast. That is, in the above-described embodiment, the step of obtaining the contrast and the step of obtaining the evaluation value from the contrast in the contrast calculation circuit 252 are substantially performed as one step. However, these steps may be individually provided. The circuit may be separated every time. Using the contrast as it is as the evaluation value is just one mode of processing for obtaining the evaluation value by obtaining the contrast.

【0163】第1の実施の形態では、コントラストを評
価値として用いてレンズの駆動方向が決定されるが、コ
ントラストに代えて重心エッジ幅を用いてレンズの駆動
方向を決定することも可能である。この場合、コントラ
ストを用いることなくレンズの駆動方向が決定される。
同様に、レンズを合焦位置に正確に合わせる際もコント
ラストに代えて重心エッジ幅を利用することが可能であ
る。
In the first embodiment, the driving direction of the lens is determined by using the contrast as the evaluation value. However, the driving direction of the lens can be determined by using the center-of-gravity edge width instead of the contrast. . In this case, the driving direction of the lens is determined without using the contrast.
Similarly, when the lens is accurately adjusted to the in-focus position, the center-of-gravity edge width can be used instead of the contrast.

【0164】また、エッジに関する評価値としてはさら
に他のものも利用可能であり、例えば、基準エッジ幅に
近い幅3,4程度のエッジの度数が単純に評価値として
利用されてもよく、基準エッジ幅を含む所定のエッジ幅
の範囲内におけるエッジの度数が全度数に占める割合を
評価値として利用することも可能である。この場合、度
数が高いほどフォーカスの程度が高くなる。
Further, other evaluation values relating to edges can be used. For example, the frequency of an edge having a width of about 3 or 4 close to the reference edge width may be simply used as the evaluation value. It is also possible to use, as the evaluation value, the ratio of the frequency of the edge within the range of the predetermined edge width including the edge width to the total frequency. In this case, the higher the frequency, the higher the degree of focus.

【0165】なお、第4の実施の形態ではGの基準エッ
ジ幅はRおよびBの基準エッジ幅よりも小さなものとな
るが、他の評価値(例えば、所定のエッジ幅の度数)を
合焦位置を算出するための基準となる基準評価値として
用いる場合、Gに対する基準評価値はRおよびBに対す
る基準評価値よりも大きな値となる。すなわち、Gベイ
ヤー配列のCCDを用いる場合、Gの基準評価値として
RおよびBの基準評価値と異なるものが利用されること
により、各色成分に基づく適切な合焦位置の算出が実現
される。
Although the reference edge width of G is smaller than the reference edge widths of R and B in the fourth embodiment, another evaluation value (for example, a frequency of a predetermined edge width) is focused. When used as a reference evaluation value serving as a reference for calculating the position, the reference evaluation value for G is larger than the reference evaluation values for R and B. That is, when a CCD having a G Bayer array is used, an appropriate focus position is calculated based on each color component by using a reference evaluation value for G that is different from the reference evaluation values for R and B.

【0166】上記実施の形態では、レンズの駆動方向を
決定する際に、3つのレンズ位置における評価値を求め
ているが、2つであってもよい。駆動方向決定の精度を
高めるために3つの評価値を用いているにすぎない。3
以上の評価値が求められる場合であっても、一の評価値
により示されるフォーカスの程度が低いレンズ位置から
他の評価値により示されるフォーカスの程度が高いレン
ズ位置へと向かう方向に原則として合焦位置が存在する
という原理に基づいて駆動方向が決定される。
In the above embodiment, when determining the driving direction of the lens, the evaluation values at three lens positions are obtained. However, two evaluation values may be used. Only three evaluation values are used to increase the accuracy of the drive direction determination. 3
Even when the above evaluation values are obtained, in principle, it is determined that the direction from the lens position where the degree of focus indicated by one evaluation value is low to the lens position where the degree of focus indicated by the other evaluation values is high is adjusted. The driving direction is determined based on the principle that a focus position exists.

【0167】デジタルカメラ1では、フォーカスレンズ
の位置を制御することによりAF制御が行われるため、
レンズ位置という言葉を用いてAF制御を説明したが、
複数のレンズを駆動してAF制御を行う場合であっても
上記実施の形態に係るAF制御を利用することができ
る。すなわち、上記実施の形態におけるレンズ位置は少
なくとも1つのレンズの配置に対応付けることが可能で
あり、合焦状態となるレンズ配置を合焦位置と捉えるこ
とにより、上記実施の形態におけるAF制御は、少なく
とも1つの色成分に対応する評価値に基づいてレンズ群
を合焦配置とする制御であるとみなすことができる。
In the digital camera 1, AF control is performed by controlling the position of the focus lens.
The AF control was explained using the term lens position,
Even when the AF control is performed by driving a plurality of lenses, the AF control according to the above embodiment can be used. That is, the lens position in the above embodiment can be associated with the arrangement of at least one lens, and the AF control in the above embodiment can be performed at least It can be considered that the control is to set the lens group into the focused arrangement based on the evaluation value corresponding to one color component.

【0168】また、上記実施の形態では、図9に示す対
象色選択部281による選択結果がヒストグラム評価部
264および駆動方向決定部266に入力されるが、対
象色の選択結果はヒストグラム生成回路251やコント
ラスト算出回路252に入力されてもよい。どの段階で
処理対象となる色成分を限定するかは任意に決定されて
よく、これらの回路にて対象色のみに関するヒストグラ
ムやコントラストが求められてもよい。
In the above embodiment, the result of selection by the target color selection unit 281 shown in FIG. 9 is input to the histogram evaluation unit 264 and the drive direction determination unit 266. The selection result of the target color is output by the histogram generation circuit 251. Or to the contrast calculation circuit 252. The stage at which the color component to be processed is limited may be arbitrarily determined, and a histogram and a contrast regarding only the target color may be obtained by these circuits.

【0169】デジタルカメラ1では、オートフォーカス
用の評価値を求めるために黒レベル補正回路206から
画像信号を全体制御部211に入力するが、他の部分か
ら全体制御部211に入力されてもよい。撮像のための
少なくとも1つのレンズもズームレンズでなくてもよ
い。
In the digital camera 1, an image signal is input from the black level correction circuit 206 to the general control unit 211 in order to obtain an evaluation value for auto focus. However, the digital signal may be input to the general control unit 211 from another part. . At least one lens for imaging need not be a zoom lens.

【0170】また、対象色の選択の際に、第1の実施の
形態では色成分画像のレベルを用い、第2の実施の形態
では色成分ごとのエッジ数を用いるが、これらの手法は
所定の操作により切替可能とされてもよい。
In selecting a target color, the level of the color component image is used in the first embodiment, and the number of edges for each color component is used in the second embodiment. May be made switchable by the operation of.

【0171】第3および第4の実施の形態では、対象色
の選択が不可能な場合、警告を表示するようにしている
が、いずれの色成分に関しても選択条件を満たさない場
合には、輝度のヒストグラムの重心エッジ幅を用いてA
F制御が行われてもよい。R,GおよびBの重心エッジ
幅を足し合わせたものが新たな重心エッジ幅として利用
されてもよく、この場合、R,GおよびBの基準エッジ
幅を足し合わせたものが新たな基準エッジ幅として利用
される。
In the third and fourth embodiments, a warning is displayed if the target color cannot be selected. However, if none of the color components satisfies the selection condition, the brightness is increased. Using the center-of-gravity edge width of the histogram
F control may be performed. The sum of the center-of-gravity edge widths of R, G, and B may be used as a new center-of-gravity edge width. In this case, the sum of the reference edge widths of R, G, and B is the new reference edge width. Used as

【0172】上記実施の形態は、エッジを利用すること
により高速なAF制御を実現するため静止画像の取得に
特に適しているが、上記実施の形態における様々な技術
は動画像を取得する機器(例えば、ビデオカメラ)に応
用することができる。
The above-described embodiment is particularly suitable for obtaining a still image because it realizes high-speed AF control by using an edge. For example, it can be applied to a video camera.

【0173】なお、画像を取得するための撮像デバイス
はCCDには限定されず、他の種類の撮像デバイスであ
ってもよい。
The image pickup device for acquiring an image is not limited to the CCD, but may be another type of image pickup device.

【0174】[0174]

【発明の効果】請求項1ないし11の発明では、主被写
体の色が偏っている場合であってもオートフォーカス時
に光学系を適切に駆動することができる。
According to the first to eleventh aspects of the present invention, the optical system can be appropriately driven at the time of auto-focusing even when the color of the main subject is deviated.

【0175】また、請求項2および3の発明では、主被
写体の色が特定の色成分に偏っている場合であっても適
切に光学系を駆動することができ、請求項4の発明で
は、複数の色成分に主被写体の色が偏っている場合であ
っても光学系を適切に駆動することができる。
Further, according to the second and third aspects of the present invention, it is possible to appropriately drive the optical system even when the color of the main subject is biased toward a specific color component. The optical system can be appropriately driven even when the color of the main subject is biased to a plurality of color components.

【0176】また、請求項5の発明では、レンズを合焦
位置に迅速に位置させることができ、請求項6の発明で
は、色成分ごとの合焦位置を適切に求めることができ
る。さらに、請求項7の発明では、主被写体の色に偏り
の程度に合わせて適切にレンズを合焦位置に位置させる
ことができ、請求項8の発明では、遠近競合を回避する
ことができる。
According to the fifth aspect of the invention, the lens can be quickly positioned at the in-focus position. According to the sixth aspect of the invention, the in-focus position for each color component can be determined appropriately. Furthermore, according to the invention of claim 7, the lens can be appropriately positioned at the in-focus position in accordance with the degree of deviation of the color of the main subject, and the invention of claim 8 can avoid perspective conflict.

【0177】請求項9の発明では、第1の精度および第
2の精度の評価値を用いることにより、オートフォーカ
ス時に主被写体の色の偏りを考慮しつつ迅速かつ適切に
光学系を駆動することができる。
According to the ninth aspect of the present invention, by using the evaluation values of the first accuracy and the second accuracy, it is possible to drive the optical system quickly and appropriately while considering the color deviation of the main subject during autofocusing. Can be.

【図面の簡単な説明】[Brief description of the drawings]

【図1】デジタルカメラの正面図である。FIG. 1 is a front view of a digital camera.

【図2】デジタルカメラの背面図である。FIG. 2 is a rear view of the digital camera.

【図3】デジタルカメラの側面図である。FIG. 3 is a side view of the digital camera.

【図4】デジタルカメラの底面図である。FIG. 4 is a bottom view of the digital camera.

【図5】デジタルカメラの構成を示すブロック図であ
る。
FIG. 5 is a block diagram illustrating a configuration of a digital camera.

【図6】撮像部の内部構成を示す図である。FIG. 6 is a diagram illustrating an internal configuration of an imaging unit.

【図7】デジタルカメラの動作の概略を示す流れ図であ
る。
FIG. 7 is a flowchart showing an outline of the operation of the digital camera.

【図8】AF制御部の構成を示すブロック図である。FIG. 8 is a block diagram illustrating a configuration of an AF control unit.

【図9】AF制御部の機能構成を示すブロック図であ
る。
FIG. 9 is a block diagram illustrating a functional configuration of an AF control unit.

【図10】エッジ検出の様子を説明するための図であ
る。
FIG. 10 is a diagram for explaining a state of edge detection.

【図11】ヒストグラム生成回路の構成を示すブロック
図である。
FIG. 11 is a block diagram illustrating a configuration of a histogram generation circuit.

【図12】ヒストグラム生成の流れを示す図である。FIG. 12 is a diagram showing a flow of histogram generation.

【図13】ヒストグラム生成の流れを示す図である。FIG. 13 is a diagram showing a flow of histogram generation.

【図14】ヒストグラム生成の流れを示す図である。FIG. 14 is a diagram showing a flow of generating a histogram.

【図15】AFエリアを示す図である。FIG. 15 is a diagram showing an AF area.

【図16】AFエリアの画素配列を示す図である。FIG. 16 is a diagram showing a pixel array in an AF area.

【図17】第1の実施の形態におけるAF制御の流れを
示す図である。
FIG. 17 is a diagram showing a flow of AF control in the first embodiment.

【図18】第1の実施の形態におけるAF制御の流れを
示す図である。
FIG. 18 is a diagram showing a flow of AF control in the first embodiment.

【図19】第1の実施の形態におけるAF制御の流れを
示す図である。
FIG. 19 is a diagram showing a flow of AF control in the first embodiment.

【図20】第1の実施の形態におけるAF制御の流れを
示す図である。
FIG. 20 is a diagram showing a flow of AF control in the first embodiment.

【図21】重心エッジ幅の算出の流れを示す図である。FIG. 21 is a diagram showing a flow of calculating a center-of-gravity edge width.

【図22】ヒストグラムからノイズ成分を除去する様子
を示す図である。
FIG. 22 is a diagram illustrating a state where noise components are removed from a histogram.

【図23】ヒストグラムからノイズ成分を除去する様子
を示す図である。
FIG. 23 is a diagram illustrating a state in which a noise component is removed from a histogram.

【図24】レンズ位置とエッジ数との関係を示す図であ
る。
FIG. 24 is a diagram illustrating a relationship between a lens position and the number of edges.

【図25】第2の実施の形態におけるAF制御の流れを
示す図である。
FIG. 25 is a diagram showing a flow of AF control in the second embodiment.

【図26】第3の実施の形態におけるAF制御の流れを
示す図である。
FIG. 26 is a diagram illustrating a flow of AF control according to the third embodiment.

【図27】レンズ位置の変化によるヒストグラムの変化
を示す図である。
FIG. 27 is a diagram illustrating a change in a histogram due to a change in a lens position.

【図28】レンズ位置と重心エッジ幅との関係を示す図
である。
FIG. 28 is a diagram illustrating a relationship between a lens position and a center-of-gravity edge width.

【図29】第4の実施の形態におけるAF制御の流れを
示す図である。
FIG. 29 is a diagram illustrating a flow of AF control according to the fourth embodiment.

【図30】第4の実施の形態におけるAF制御の流れを
示す図である。
FIG. 30 is a diagram showing a flow of AF control in a fourth embodiment.

【図31】第5の実施の形態におけるAF制御の流れを
示す図である。
FIG. 31 is a diagram showing a flow of AF control in a fifth embodiment.

【符号の説明】[Explanation of symbols]

1 デジタルカメラ 2 カメラ本体部 91 メモリカード 251 ヒストグラム生成回路 252 コントラスト算出回路 261 CPU 262 ROM 262a プログラム 264 ヒストグラム評価部 265 駆動量決定部 268 制御信号生成部 301 ズームレンズ 303 CCD 311 フォーカスレンズ S102,S103,S105,S106,S301〜
S307,S311〜S314,S401〜S405,
S506,S512〜S516 ステップ
1 Digital Camera 2 Camera Body 91 Memory Card 251 Histogram Generation Circuit 252 Contrast Calculation Circuit 261 CPU 262 ROM 262a Program 264 Histogram Evaluation Unit 265 Drive Amount Determination Unit 268 Control Signal Generation Unit 301 Zoom Lens 303 CCD 311 Focus Lens S102, S103, S105, S106, S301-
S307, S311 to S314, S401 to S405,
S506, S512 to S516 Step

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 9/04 G03B 3/00 A Fターム(参考) 2H011 AA03 BA31 BB03 2H051 AA08 BA47 CE08 CE14 CE27 DA22 2H054 AA01 5C022 AB28 AC42 AC54 AC69 AC74 5C065 AA01 BB48 DD02 EE12 GG18Continued on the front page (51) Int.Cl. 7 Identification code FI Theme coat II (Reference) H04N 9/04 G03B 3/00 A F term (Reference) 2H011 AA03 BA31 BB03 2H051 AA08 BA47 CE08 CE14 CE27 DA22 2H054 AA01 5C022 AB28 AC42 AC54 AC69 AC74 5C065 AA01 BB48 DD02 EE12 GG18

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 デジタルデータとして画像を取得する際
に光学系を制御する光学系制御装置であって、 カラー画像を構成する色成分のうちの少なくとも1つに
対応する画像からエッジを検出し、前記エッジからフォ
ーカスの程度を示す少なくとも1つの評価値を求める演
算手段と、 前記少なくとも1つの評価値に基づいて前記光学系を駆
動する制御手段と、を備えることを特徴とする光学系制
御装置。
An optical system control device for controlling an optical system when acquiring an image as digital data, comprising detecting an edge from an image corresponding to at least one of color components constituting a color image, An optical system control device, comprising: arithmetic means for calculating at least one evaluation value indicating a degree of focus from the edge; and control means for driving the optical system based on the at least one evaluation value.
【請求項2】 請求項1に記載の光学系制御装置であっ
て、 前記演算手段が、複数の色成分のそれぞれに対応する評
価値を求め、 前記制御手段が、複数の評価値のうち検出されたエッジ
の数が最も多い色成分に対応する評価値に基づいて前記
光学系を駆動することを特徴とする光学系制御装置。
2. The optical system control device according to claim 1, wherein the calculating means obtains an evaluation value corresponding to each of the plurality of color components, and wherein the control means detects an evaluation value among the plurality of evaluation values. An optical system control device for driving the optical system based on an evaluation value corresponding to a color component having the largest number of edges.
【請求項3】 請求項1に記載の光学系制御装置であっ
て、 前記制御手段が、複数の色成分のうち最もレベルの高い
色成分に対応する評価値に基づいて前記光学系を駆動す
ることを特徴とする光学系制御装置。
3. The optical system control device according to claim 1, wherein the control unit drives the optical system based on an evaluation value corresponding to a color component having the highest level among a plurality of color components. An optical system control device comprising:
【請求項4】 請求項1に記載の光学系制御装置であっ
て、 前記演算手段が、複数の色成分のそれぞれに対応する評
価値を求めるとともに複数の評価値から新たな評価値を
求め、 前記制御手段が、前記新たな評価値に基づいて前記光学
系を駆動することを特徴とする光学系制御装置。
4. The optical system control device according to claim 1, wherein the calculating means obtains an evaluation value corresponding to each of the plurality of color components and obtains a new evaluation value from the plurality of evaluation values. An optical system control device, wherein the control means drives the optical system based on the new evaluation value.
【請求項5】 請求項1に記載の光学系制御装置であっ
て、 前記光学系がフォーカス用のレンズを有し、 前記演算手段が、前記レンズの第1の位置に対応する少
なくとも1つの第1の評価値を求め、前記レンズの第2
の位置に対応する少なくとも1つの第2の評価値を求
め、 前記制御手段が、前記第1および第2の位置、前記少な
くとも1つの第1および第2の評価値、並びに、少なく
とも1つの基準評価値から前記レンズの合焦位置を求め
ることを特徴とする光学系制御装置。
5. The optical system control device according to claim 1, wherein the optical system has a focusing lens, and wherein the arithmetic unit has at least one first lens corresponding to a first position of the lens. 1 is obtained and the second value of the lens is obtained.
Determining at least one second evaluation value corresponding to the position of the first and second positions, the first and second positions, the at least one first and second evaluation values, and at least one reference evaluation An optical system control device, wherein an in-focus position of the lens is obtained from a value.
【請求項6】 請求項5に記載の光学系制御装置であっ
て、 前記カラー画像が、Gベイヤー配列の撮像デバイスによ
り取得され、 R、GおよびBの色成分に対応する基準評価値のうち、
Gの色成分に対応する基準評価値がRおよびBの色成分
に対応する基準評価値と異なることを特徴とする光学系
制御装置。
6. The optical system control device according to claim 5, wherein the color image is acquired by an imaging device having a G-Bayer array, and among the reference evaluation values corresponding to R, G, and B color components. ,
An optical system control device, wherein a reference evaluation value corresponding to a G color component is different from a reference evaluation value corresponding to R and B color components.
【請求項7】 請求項5または6に記載の光学系制御装
置であって、 前記制御手段が、複数の色成分のそれぞれに対応する合
焦位置を求め、複数の合焦位置から新たな合焦位置を求
めることを特徴とする光学系制御装置。
7. The optical system control device according to claim 5, wherein the control means obtains a focus position corresponding to each of a plurality of color components, and obtains a new focus position from the plurality of focus positions. An optical system control device for determining a focus position.
【請求項8】 請求項5または6に記載の光学系制御装
置であって、 前記制御手段が、複数の色成分のそれぞれに対応する合
焦位置を求め、複数の合焦位置のうち最も近接する被写
体に対応する合焦位置に基づいて前記光学系を制御する
ことを特徴とする光学系制御装置。
8. The optical system control device according to claim 5, wherein the control means obtains a focus position corresponding to each of the plurality of color components, and determines a closest focus position among the plurality of focus positions. An optical system control device that controls the optical system based on a focus position corresponding to a subject to be moved.
【請求項9】 請求項1に記載の光学系制御装置であっ
て、 前記演算手段が、複数の色成分のそれぞれについて第1
の評価値を求め、複数の第1の評価値に基づいて色成分
の選択を行い、さらに、選択された色成分に関して前記
第1の評価値よりも精度の高い第2の評価値を求め、 前記制御手段が、前記第2の評価値に基づいて前記光学
系を制御することを特徴とする光学系制御装置。
9. The optical system control device according to claim 1, wherein said calculating means is configured to perform a first operation for each of a plurality of color components.
Is determined, a color component is selected based on the plurality of first evaluation values, and a second evaluation value with higher accuracy than the first evaluation value is determined for the selected color component. The optical system control device, wherein the control means controls the optical system based on the second evaluation value.
【請求項10】 デジタルデータとして画像を取得する
際に光学系を制御する光学系制御方法であって、 カラー画像を構成する色成分のうちの少なくとも1つに
対応する画像からエッジを検出し、前記エッジからフォ
ーカスの程度を示す少なくとも1つの評価値を求める工
程と、 前記少なくとも1つの評価値に基づいて前記光学系を駆
動する工程と、を有することを特徴とする光学系制御方
法。
10. An optical system control method for controlling an optical system when acquiring an image as digital data, comprising detecting an edge from an image corresponding to at least one of color components constituting a color image, An optical system control method, comprising: obtaining at least one evaluation value indicating a degree of focus from the edge; and driving the optical system based on the at least one evaluation value.
【請求項11】 デジタルデータとして画像を取得する
際に、制御装置に光学系を制御させるプログラムを記録
した記録媒体であって、前記プログラムの制御装置によ
る実行は、前記制御装置に、 カラー画像を構成する色成分のうちの少なくとも1つに
対応する画像からエッジを検出し、前記エッジからフォ
ーカスの程度を示す少なくとも1つの評価値を求める工
程と、 前記少なくとも1つの評価値に基づいて前記光学系を駆
動する工程と、を実行させることを特徴とする記録媒
体。
11. A recording medium recording a program for causing a control device to control an optical system when acquiring an image as digital data, wherein the control device executes the program by causing the control device to execute a color image processing. Detecting an edge from an image corresponding to at least one of the constituent color components and obtaining at least one evaluation value indicating a degree of focus from the edge; and the optical system based on the at least one evaluation value. And a step of driving the recording medium.
JP2001007889A 2001-01-16 2001-01-16 Optical system controller, optical system control method, and recording medium Pending JP2002214513A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001007889A JP2002214513A (en) 2001-01-16 2001-01-16 Optical system controller, optical system control method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001007889A JP2002214513A (en) 2001-01-16 2001-01-16 Optical system controller, optical system control method, and recording medium

Publications (1)

Publication Number Publication Date
JP2002214513A true JP2002214513A (en) 2002-07-31

Family

ID=18875579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001007889A Pending JP2002214513A (en) 2001-01-16 2001-01-16 Optical system controller, optical system control method, and recording medium

Country Status (1)

Country Link
JP (1) JP2002214513A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011007869A1 (en) * 2009-07-17 2011-01-20 株式会社ニコン Focusing device and camera
JP2011107682A (en) * 2009-07-17 2011-06-02 Nikon Corp Focusing device and camera
JP2011107681A (en) * 2009-07-17 2011-06-02 Nikon Corp Focusing device and camera
CN102129146A (en) * 2010-01-12 2011-07-20 株式会社尼康 Image pickup device
JP2011145345A (en) * 2010-01-12 2011-07-28 Nikon Corp Image pickup device
JP2011186452A (en) * 2010-02-15 2011-09-22 Nikon Corp Device and program for adjusting focus
JP2011248151A (en) * 2010-05-26 2011-12-08 Tai Hyuk Nam Auto-focusing image system
US20120113316A1 (en) * 2009-07-17 2012-05-10 Nikon Corporation Focusing device and camera
JP2013527635A (en) * 2009-12-07 2013-06-27 ナム タイ,ヒョク Autofocus image system
JP2013148788A (en) * 2012-01-20 2013-08-01 Nikon Corp Focus adjustment device and focus adjustment program
JP2014052491A (en) * 2012-09-06 2014-03-20 Nikon Corp Focus adjustment device
WO2015012096A1 (en) * 2013-07-22 2015-01-29 オリンパスメディカルシステムズ株式会社 Medical observation apparatus
US9065999B2 (en) 2011-03-24 2015-06-23 Hiok Nam Tay Method and apparatus for evaluating sharpness of image
US9392159B2 (en) 2011-09-02 2016-07-12 Nikon Corporation Focus estimating device, imaging device, and storage medium storing image processing program
KR102369615B1 (en) * 2022-01-10 2022-03-03 주식회사 서경산업 Video pre-fault detection system

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9031352B2 (en) 2008-11-26 2015-05-12 Hiok Nam Tay Auto-focus image system
US9131142B2 (en) 2009-07-17 2015-09-08 Nikon Corporation Focusing device and camera
JP2011107682A (en) * 2009-07-17 2011-06-02 Nikon Corp Focusing device and camera
JP2011107681A (en) * 2009-07-17 2011-06-02 Nikon Corp Focusing device and camera
JP2015207021A (en) * 2009-07-17 2015-11-19 株式会社ニコン Focus adjusting device and camera
WO2011007869A1 (en) * 2009-07-17 2011-01-20 株式会社ニコン Focusing device and camera
US10237470B2 (en) 2009-07-17 2019-03-19 Nikon Corporation Focusing device and camera
US20170332006A1 (en) * 2009-07-17 2017-11-16 Nikon Corporation Focusing device and camera
US20120113316A1 (en) * 2009-07-17 2012-05-10 Nikon Corporation Focusing device and camera
US20150341544A1 (en) * 2009-07-17 2015-11-26 Nikon Corporation Focusing device and camera
US9749518B2 (en) 2009-07-17 2017-08-29 Nikon Corporation Focusing device and camera
US9251571B2 (en) 2009-12-07 2016-02-02 Hiok Nam Tay Auto-focus image system
US9734562B2 (en) 2009-12-07 2017-08-15 Hiok Nam Tay Auto-focus image system
JP2013527635A (en) * 2009-12-07 2013-06-27 ナム タイ,ヒョク Autofocus image system
US8958009B2 (en) 2010-01-12 2015-02-17 Nikon Corporation Image-capturing device
US20110199534A1 (en) * 2010-01-12 2011-08-18 Nikon Corporation Image-capturing device
JP2011145345A (en) * 2010-01-12 2011-07-28 Nikon Corp Image pickup device
CN102129146A (en) * 2010-01-12 2011-07-20 株式会社尼康 Image pickup device
US9066001B2 (en) 2010-02-15 2015-06-23 Nikon Corporation Focus adjusting device and focus adjusting program with distribution detection of focalized and unfocused state
JP2015200903A (en) * 2010-02-15 2015-11-12 株式会社ニコン Focus adjustment device
JP2011186452A (en) * 2010-02-15 2011-09-22 Nikon Corp Device and program for adjusting focus
US9883095B2 (en) 2010-02-15 2018-01-30 Nikon Corporation Focus adjusting device and focus adjusting program with control unit to guide a light image based upon detected distributions
JP2011248151A (en) * 2010-05-26 2011-12-08 Tai Hyuk Nam Auto-focusing image system
JP2016177293A (en) * 2010-05-26 2016-10-06 ナム タイ,ヒョク Autofocus imaging system
JP2014078021A (en) * 2010-05-26 2014-05-01 Tai Hyuk Nam Auto-focusing image system
US9065999B2 (en) 2011-03-24 2015-06-23 Hiok Nam Tay Method and apparatus for evaluating sharpness of image
US9392159B2 (en) 2011-09-02 2016-07-12 Nikon Corporation Focus estimating device, imaging device, and storage medium storing image processing program
US9648227B2 (en) 2011-09-02 2017-05-09 Nikon Corporation Focus estimating device, imaging device, and storage medium storing image processing program
JP2013148788A (en) * 2012-01-20 2013-08-01 Nikon Corp Focus adjustment device and focus adjustment program
JP2014052491A (en) * 2012-09-06 2014-03-20 Nikon Corp Focus adjustment device
WO2015012096A1 (en) * 2013-07-22 2015-01-29 オリンパスメディカルシステムズ株式会社 Medical observation apparatus
KR102369615B1 (en) * 2022-01-10 2022-03-03 주식회사 서경산업 Video pre-fault detection system

Similar Documents

Publication Publication Date Title
JP2002189164A (en) Optical system controller, optical system control method, and recording medium
JP3541820B2 (en) Imaging device and imaging method
JP5004726B2 (en) Imaging apparatus, lens unit, and control method
JP3473552B2 (en) Digital still camera
US20010035910A1 (en) Digital camera
US7668451B2 (en) System for and method of taking image
US20040061796A1 (en) Image capturing apparatus
CN100418359C (en) Automatic focusing device and focusing method
JP3395770B2 (en) Digital still camera
JP2003018453A (en) Image processing unit, image quality control method, program and recording medium
JP2002214513A (en) Optical system controller, optical system control method, and recording medium
CN104246597B (en) Imaging device and formation method
JP2001350170A (en) Digital camera
JP2002209135A (en) Digital image pickup device and recording medium
JP2003244520A (en) Photographing device
JP3555583B2 (en) Optical system control device, optical system control method, recording medium, and imaging device
JP4565549B2 (en) Imaging apparatus and focus control method thereof
JP2005055746A (en) Imaging apparatus, focusing control method and program
JP2002207162A (en) Digital camera
JP5094665B2 (en) Imaging apparatus, control method thereof, and program
JP2004110059A (en) Optical system control device and method, and recording medium
JP3555584B2 (en) Digital imaging device and recording medium
JP2009033386A (en) Photographing device and method
JP6471843B2 (en) Imaging apparatus, control method, and program
JP2004309653A (en) Imaging unit

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20031225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040301

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040420

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20040514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040517