JP3386491B2 - Automatic focusing method - Google Patents
Automatic focusing methodInfo
- Publication number
- JP3386491B2 JP3386491B2 JP19160692A JP19160692A JP3386491B2 JP 3386491 B2 JP3386491 B2 JP 3386491B2 JP 19160692 A JP19160692 A JP 19160692A JP 19160692 A JP19160692 A JP 19160692A JP 3386491 B2 JP3386491 B2 JP 3386491B2
- Authority
- JP
- Japan
- Prior art keywords
- address
- output
- focusing
- automatic focusing
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Automatic Focus Adjustment (AREA)
Description
【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は自動合焦方式に関し、特
にいかなる被写体に対しても高速且つ高精度な自動合焦
を可能とする自動合焦方式に関する。
【0002】
【従来の技術】近年、特別なセンサを用いずにイメージ
ャから得られた映像信号に基づいて自動合焦(AF)、
自動露出調整(AE)、自動ホワイトバランス(AW
B)等をデジタル処理で行う技術が一般的になってい
る。自動合焦方式は、合焦対象領域内での映像信号の高
域成分をデジタル積分し、得られた値を合焦の度合を示
す評価値として用い、この評価値が最大となるようにA
F用モータを駆動制御する方式である。映像信号の高域
成分の抽出はバンドパスフィルタを用いて行われる。
【0003】このように従来の自動合焦制御は、イメー
ジャから得られた映像信号の高域成分の積分値に基づい
て行われている。しかしながら、かかる自動合焦方式で
は、水平方向の画素方向の映像信号の高域成分を抽出す
るものであるため、被写体が縦線であるときには高レベ
ルの高域成分が得られるが、斜め線のときには高域成分
レベルが低下するし、横線の場合には高域成分が得られ
ず、高精度な合焦制御ができない。例えば、被写体が図
16に示す縦線Aである場合には、イメージャから得ら
れる映像信号は図17(A)のA1に示すように立ち下
がりと立ち上がりが急峻となり、バンドパスフィルタ通
過後の信号もA2のように高レベルとなる。しかしなが
ら、被写体が図16のBのように斜線であるときには、
イメージャ出力は図17(B)のB1のようにレベル変
化が急峻とはならずに、なだらかな変化となるため、バ
ンドパスフィルタ通過後の信号レベルが低下し、合焦精
度が低下してしまう。また、図16のCのような横線被
写体ではイメージャ出力は直流成分のみとなり、図17
(C)のようにバンパスフィルタには出力は現れなくな
る。
【0004】
【発明が解決しようとする課題】以上のように、従来の
自動合焦方式は、被写体が斜線や横線に近い場合には、
高精度な合焦制御ができない。横線被写体に対しては、
高域成分抽出のためのバントパスフィルタを垂直フィル
タで構成し、図16のD1のように急峻なレベル変化を
得て、バンドパスフィルタ出力としてD2のような高レ
ベルを得ることにより解決できるが、その場合には1H
遅延手段が必要となるため回路構成規模が大きくなって
しまうだけでなく、斜線被写体には対応できないという
問題が生ずる。また、斜線や横線被写体に対して光学系
全体を最適角度だけ回転させる技術も提案されているが
(特公昭58ー708号)、光学系の回転用機構部が複雑、
大型化してしまうという問題も生ずる。
【0005】そこで、本発明の目的は、横線や斜線状を
含むいかなる被写体に対しても高速且つ高精度な自動合
焦を可能とする自動合焦方式を提供することにある。
【0006】
【課題を解決するための手段】前述の課題を解決するた
め、本発明による自動合焦方式は、合焦対象領域に対応
する映像信号中の高域成分に係る情報を合焦評価値とし
て用いる自動合焦方式であって、少なくとも当該合焦対
象領域に係る測光情報の分布状態に基づいて、同合焦対
象領域における像の形態が如何なる方向に走査したとき
に有効にコントラスト情報を抽出し得るものであるかに
係る情報を認識するための有効走査方向認識手段と、少
なくとも上記合焦対象領域を実効的に上記有効走査方向
認識手段によって認識された方向に走査して得た映像情
報中の高域成分に係る情報を合焦評価値として用いた合
焦調節動作を行うための自動合焦手段と、を備えて構成
されている。
【0007】
【作用】本発明では、好適なコントラスト情報が得られ
る走査方向を検出し、検出された方向に走査して得られ
た映像情報中の高域成分に係る情報を合焦評価値として
用いることによって、高速且つ高精度な自動合焦を可能
としている。
【0008】
【実施例】次に、本発明の実施例について図面を参照し
ながら詳細に説明する。図1は、本発明による自動合焦
方式の一実施例を示すブロック図である。本実施例は、
傾きのある被写体像映像信号を電気的に最適角度(縦方
向)まで回転して、常に高精度な高域成分抽出を可能と
する。例えば、図2(A)に示す原画を適当な角度回転
させて所望角度の像(B)〜(F)を得る。(B)で
は、原画(A)を回転させ、太枠で囲まれた角度をもつ
被写体像原画を得る。このとき、斜線部は原画にない部
分であるが、被写体像は略中央部に存在するから問題は
生じない。また、太枠からはみ出る原画部分は削除され
る。
【0009】図1において、光学系1を介してCCD等
のイメージャ2に結像された被写体像は、電気信号に変
換されて撮像プロセス回路3に入力される。撮像プロセ
ス回路3は、イメージャ2からの信号に対して、周知の
信号処理が施され、映像信号をスイッチ4の端子4aを
介して記録系へ出力する。撮像プロセス回路3からの輝
度Y信号は、A/Dコンバータ5でデジタル信号に変換
されてフィールドメモリ6に書き込まれる。SSG回路
10からは各種同期信号が発生され、トリガ回路9を駆
動してイメージャ2の動作を制御し、撮像プロセス回路
3の動作タイミングを制御するとともにフィールドメモ
リ6の書き込みタイミングをライトコントロール回路1
1を介して制御する。フィールドメモリ6からは、リー
ドコントロール回路15からのアドレス信号Addの制
御の下、後述するように所定角度だけ回転された映像信
号が読み出され、補間係数Kにより補間処理が施された
後、D/Aコンバータ8でアナログ信号に変換され、切
換スイッチ4の端子4bを介して記録系に出力される。
マイコン12は、イメージャ2からの被写体像を所定角
度だけ回転させるための制御信号をリードコントロール
回路15に送出する。
【0010】A/Dコンバータ5でデジタル信号に変換
されたY信号は、ローパスフィルタ19により低域成分
が抽出され、積分回路20により積分され、得られた積
分値がAE情報としてマイコン12に供給される。ま
た、補間処理回路7で補間処理された信号は、バンドパ
スフィルタ13により高域成分が抽出され、積分回路1
4で得られた積分値がマイコン12に前述合焦度合を示
す評価値としてマイコン12に供給される。マイコン1
2は、後述する処理を介して、該評価値に基づくAFモ
ータドライバ17駆動による合焦動作を行わせる。
【0011】図3は、本発明による自動合焦方式の一実
施例における高域成分に係る情報に基づく好適な合焦評
価値を取得するための走査方向検出原理を説明するため
の図である。同図(A)に示すような被写体像(空を背
景にした斜め稜線を有する山)を例として説明する。本
例では、一画面を8×8の小ブロックに分割し、各分割
ブロック毎にローパスフィルタと積分回路を通して得ら
れるAEデータに基づいて以下の処理を行っている。
(A)に示す画像について、従来のような縦線検出を行
う方向の走査を行うと、山の稜線は斜線であるため、バ
ンドパスフィルタの出力レベルは低く、(B)に示す如
く、コントラストのない暗部構成となり、適切な合焦評
価値を得ることができない。
【00012】本実施例では、各分割ブロックの信号を
ローパスフィルタに通して得られるAE情報を検出して
いる。同図(C)に示す如く、空に相当する領域ではロ
ーパスフィルタ出力レベルは高く(明るく)、山に相当
する領域は低く(暗く)、両領域の境界部領域は中間値
でぼやけた明るさになる。したがって、(C)のような
AE情報に基づいて、(D)に示すような垂直方向に対
する山の稜線の傾き角度θが得られる。こうして得られ
た傾き角度θを用いて後述する回転処理を施し、図4に
示す如く、原画像(点線部)をθだけ回転させて実線の
ような回転画像を得て山の稜線を垂直として好適な合焦
評価値を得ることができる。
【00013】上記被写体像の回転制御を行うためのア
ドレス変換の原理を図5を参照して説明する。図5は、
細線で示される原画を、θだけ回転して斜め走査による
太線画像を得る際のアドレス位置関係を示している。図
中、白丸はメモリに記憶された実画素を示し、黒丸はメ
モリから読み出す仮想画素を示す。各アドレス位置P
(00),P(10),P(20),P(01),P
(11),P(21),P(02),P(12),P
(22)対応の画素データがフィールドメモリ6に書き
込まれており、これらアドレス位置の画素データを用い
て、位置P(00)を中心にしてθだけ回転した後の太
線で示す対応アドレス位置Q(10),Q(20),Q
(01),Q(11),Q(21),…を求め、アドレ
ス信号Addとしてフィールドメモリ6に送出する。
【0014】例えば、図5におけるアドレス位置Q(1
0),Q(20),Q(01),Q(11)仮想画素ア
ドレスは、図示の関係から次のようにして求まる。
Q(10):x…P(00)+cosθ
y…P(00)+sinθ
Q(20):x…P(00)+2cosθ
=P(10)+2cosθ−1
y…P(00)+2sinθ
=P(10)+2sinθ
Q(01):x…P(00)−sinθ
y…P(00)+cosθ
Q(11):x…P(00)−sinθ+cosθ
=P(01)−sinθ+cosθ
y…P(00)+cosθ+sinθ
=P(01)+cosθ+sinθ−1
【0015】図6には、上述Xアドレスを発生する回路
例が示されている。XSTレジスタ151Xには、最初
に読み出す画素アドレス、本例では0が設定され、XW
レジスタ152Xからは、図5に示すXW=cosθが
発生され、X0レジスタ153Xからは、図5に示すX
0=−sinθが発生されている。加算器154Xの出
力は、遅延器156Xで1クロック(1画素分)遅延さ
れる。加算器154Xは、XWレジスタ152Xからの
cosθと、遅延器156Xからの出力とを加算する。
遅延器156Xの出力は、XSTレジスタ151Xから
の出力(本例では0)と、加算器158Xにおいて加算
される。遅延器157Xは、加算器155Xの出力を1
Hだけ遅延する。加算器155Xは、X0レジスタ15
3Xからの−sinθと、遅延器157Xからの出力と
を加算する。加算器159Xは、遅延器157Xの出力
と、加算器158Xの出力とを加算してXアドレス信号
として出力する。
【0016】図7は、図6と同様なYアドレス信号を発
生する回路例が示されている。YSTレジスタ151Y
は、0が設定され、YWレジスタ152Yからは、図5
に示すYW=sinθが発生され、Y0レジスタ153
Yからは、図5に示すY0=cosθが発生されてい
る。加算器154Yの出力は遅延器156Yで1クロッ
ク(1画素分)遅延される。加算器154Yは、YWレ
ジスタ152Yからのsinθと、遅延器156Yから
の出力とを加算する。遅延器156Yの出力は、YST
レジスタ151Yからの出力(本例では0)と、加算器
158Yにより加算される。遅延器157Yは、加算器
155Yの出力を1Hだけ遅延する。加算器155Y
は、Y0レジスタ153Yからのcosθと、遅延器1
57Yからの出力とを加算する。加算器159Yは、遅
延器157Yの出力と、加算器158Yの出力とを加算
してYアドレス信号として出力する。
【0017】図8には、図5に示すアドレス変換原理図
を、図9に示す3対4のアスペクト比(768画素,2
40ライン)に適用した場合で、30度だけ回転した場
合のアドレス変換図が示されている。この場合、図9に
示す如く、1画素は縦横が2.4対1の大きさとなる。
このとき、XST=0 XW=0.866 X
0=−2.4×0.5
YST=0 YW=0.5/2.4 Y0=0.8
66
であり、図からも明らかなように、画素数m、ライン数
nにおけるXアドレスXmnとYアドレスYmnを表す
一般式は次のようになる。
Xmn=XST+m・XW+n・X0
Ymn=YST+m・YW+n・Y0
例えば、0ライン目(n=0)のアドレス(座標)は、
(XY)=(0,0),(0.866,0.208),
(1.732,0.417),…
1ライン目(n=1)では、
(XY)=(−1.2,0.866),(−0.33
4,1.074),(0.532,1.28),…とな
る。ここで、各アドレスの整数部がアドレスAddを、
小数部が補間係数Kを示していることは図から明らかで
ある。
【0018】さて、図1を参照すると、本実施例は、ズ
−ムスイッチ18の操作を受けてズ−ムモ−タドライバ
16を駆動したときの電子ズ−ム動作にも対応できる。
図10には電子ズ−ム動作時の白丸で示す実画素アドレ
スP(00),P(10),P(20),P(30),
P(01),P(11),P(21),P(31)と、
ズーム後の仮想画素アドレスQ(00),Q(10),
Q(20),Q(30),Q(40),Q(01),Q
(11),Q(21),Q(31),Q(41)が示さ
れている。このとき、XWとY0は一定値で、X0とY
Wは0である。
【0019】図1におけるバンドパスフィルタを用い
て、より高精度に高周波成分を抽出するために行う補間
処理は、例えば図11に示すような4点加重平均方式が
好ましい。メモリから読み出すべきアドレス位置Qは、
図のように、X1とX2を定めると、周囲の4点P(1
1),P(21),P(12),P(22)の加重平均
を用いて、下式により求める。
Q=(1−Ky)X1+Ky・X2
X1=(1−Kx)P(11)+KxP(21)
X2=(1−Kx)P(12)+KxP(22)
したがって、
Q=(1−Kx)(1−Ky)P(11)+Kx(1−Ky)P(21)
+Ky(1−Kx)P(12)+Kx・Ky・P(22)…(1)
(1)式の演算は、1サイクル内に4画素アドレスP
(11),P(21),P(12),P(22)を同時
に読み出すことにより実現できる。上記4画素の同時読
み出しは、例えば図10に示すようなメモリ構成を用い
て行うことができる。
【0020】図12に示す例では、一度のアドレス供給
により4画素を読み出すことができるように、偶数列、
偶数行専用メモリ(A)、奇数列、偶数行専用メモリ
(B)、偶数列、奇数行専用メモリ(C)及び奇数列、
奇数行専用メモリ(D)の4個の独立メモリを設けてい
る。
【0021】図13は、上述4点加重平均回路による演
算を行うためにメモリからのデータ読み出し用アドレス
発生回路を示し、列アドレス0〜9ビットと行アドレス
0〜7ビットから奇数列メモリ用列アドレス、偶数列メ
モリ用列アドレス、奇数行メモリ用行アドレスおよび偶
数行メモリ用行アドレスが生成される。列アドレスの0
ビットはセレクト信号HSELとして出力されるととも
に、加算器251で、1〜9ビットと加算される。1〜
9ビットが奇数列メモリ用列アドレスとなり、加算器2
51の出力が偶数列メモリ用列アドレスとなる。同様
に、行アドレスの0ビットはセレクト信号VSELとし
て出力されるとともに、加算器252で、1〜7ビット
と加算される。1〜7ビットが奇数行メモリ用行アドレ
スとなり、加算器252の出力が偶数行メモリ用行アド
レスとなる。
【0022】図14にはメモリから読み出したリードデ
ータを用いて(1)式に示す4点加重平均演算を行うた
めの回路例が示されている。図14において、セレクタ
253と254は、図13で得られたセレクト信号HS
ELが“H”のときは“H”端子が、“L”のときは
“L”端子が選択され、セレクタ261は、同様にセレ
クト信号VSELにより対応する端子が選択される。セ
レクタ253には、偶数列偶数行リードデータと奇数列
偶数行リードデータが入力され、セレクタ254には、
偶数列奇数行リードデータと奇数列奇数行リードデータ
が入力されている。セレクタ253からの2つの出力
は、それぞれ乗算器255,256により係数(1−K
x),Kxが乗算される。乗算器255と256の出力
は、加算器257で加算され、セレクタ261の2入力
端子(L,H)に出力される。一方、セレクタ254か
らの2つの出力は、それぞれ乗算器258,259によ
り係数(1−Kx),Kxが乗算される。乗算器258
と259の出力は、加算器260で加算され、セレクタ
261の他の2入力端子(L,H)に出力される。セレ
クタ261からの2つの出力は、上記X1とX2であ
り、それぞれ乗算器262,263により係数(1−K
x),Kxが乗算される。乗算器262と263の出力
は、加算器264で加算されて補間後のデータQが得ら
れる。
【0023】図13と図14の例において、セレクト信
号が必要なのは、図15に示すように、選択すべき4点
のアドレスが、パターン#1〜#4の4通りに応じて生
成されるからであり、本例ではパターン#2の例を示し
ている。
【0024】
【発明の効果】以上説明したように、本発明による自動
合焦方式によれば、いかなる傾き状態にある被写体像で
あっても常に高速且つ高精度な合焦制御が可能となる。Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic focusing system, and more particularly to an automatic focusing system capable of performing high-speed and high-precision automatic focusing on any object. . [0002] In recent years, automatic focusing (AF) based on a video signal obtained from an imager without using a special sensor,
Automatic exposure adjustment (AE), automatic white balance (AW
Techniques for performing B) and the like by digital processing have become common. The automatic focusing method digitally integrates a high-frequency component of a video signal in a focusing target area, and uses an obtained value as an evaluation value indicating a degree of focusing.
This is a method for driving and controlling the F motor. The extraction of the high frequency component of the video signal is performed using a band pass filter. As described above, the conventional automatic focusing control is performed based on an integrated value of a high frequency component of a video signal obtained from an imager. However, in such an automatic focusing method, since a high-frequency component of a video signal in a horizontal pixel direction is extracted, a high-level high-frequency component is obtained when a subject is a vertical line, but an oblique line is obtained. Sometimes, the level of the high-frequency component decreases, and in the case of a horizontal line, no high-frequency component is obtained, so that accurate focusing control cannot be performed. For example, when the subject is the vertical line A shown in FIG. 16, the video signal obtained from the imager has a sharp fall and a rise as shown by A1 in FIG. 17A, and the signal after passing through the band-pass filter. Also becomes a high level like A2. However, when the subject is hatched as shown in FIG.
The level change of the imager output does not become steep as shown by B1 in FIG. 17B, but changes gently. Therefore, the signal level after passing through the band-pass filter decreases, and the focusing accuracy decreases. . In the case of a horizontal line subject as shown in FIG. 16C, the imager output has only a DC component.
As shown in (C), no output appears in the bump pass filter. [0004] As described above, the conventional automatic focusing method uses the following method when the subject is close to an oblique line or a horizontal line.
High-precision focusing control is not possible. For horizontal line subjects,
This problem can be solved by forming a band-pass filter for high-frequency component extraction with a vertical filter, obtaining a steep level change as shown by D1 in FIG. 16, and obtaining a high level such as D2 as the band-pass filter output. , In that case 1H
The need for the delay means not only increases the circuit configuration scale, but also causes a problem that it cannot cope with a diagonally shaded subject. In addition, although a technique for rotating the entire optical system by an optimum angle with respect to oblique or horizontal lines has been proposed (Japanese Patent Publication No. 58-708), the mechanism for rotating the optical system is complicated.
There is also a problem that the size is increased. SUMMARY OF THE INVENTION It is an object of the present invention to provide an automatic focusing system which enables high-speed and high-precision automatic focusing of any object including a horizontal line and an oblique line. In order to solve the above-mentioned problems, an automatic focusing method according to the present invention employs a focus evaluation method for information relating to a high-frequency component in a video signal corresponding to an area to be focused. An automatic focusing method used as a value, based on at least the distribution state of the photometric information related to the focusing target area, and when the form of the image in the same focusing target area is scanned in any direction, the contrast information is effectively output. An effective scanning direction recognizing means for recognizing information on whether the information can be extracted, and an image obtained by scanning at least the focusing target area in a direction effectively recognized by the effective scanning direction recognizing means. Automatic focusing means for performing a focus adjustment operation using information on a high-frequency component in the information as a focus evaluation value. According to the present invention, a scanning direction in which suitable contrast information is obtained is detected, and information relating to a high-frequency component in video information obtained by scanning in the detected direction is used as a focus evaluation value. By using this, high-speed and high-precision automatic focusing is enabled. Next, an embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing one embodiment of the automatic focusing system according to the present invention. In this embodiment,
A tilted image signal of a subject image is electrically rotated to an optimal angle (vertical direction), so that high-frequency component extraction can always be performed with high accuracy. For example, the original images shown in FIG. 2A are rotated by an appropriate angle to obtain images (B) to (F) at desired angles. In (B), the original image (A) is rotated to obtain an original image of the subject image having an angle surrounded by a thick frame. At this time, although the shaded portion is a portion that is not in the original image, no problem arises because the subject image exists substantially in the center. In addition, the original image portion that protrudes from the thick frame is deleted. In FIG. 1, a subject image formed on an imager 2 such as a CCD via an optical system 1 is converted into an electric signal and input to an imaging process circuit 3. The imaging process circuit 3 performs well-known signal processing on the signal from the imager 2, and outputs a video signal to a recording system via the terminal 4 a of the switch 4. The luminance Y signal from the imaging process circuit 3 is converted into a digital signal by the A / D converter 5 and written into the field memory 6. Various synchronization signals are generated from the SSG circuit 10, and the trigger circuit 9 is driven to control the operation of the imager 2, to control the operation timing of the imaging process circuit 3, and to control the write timing of the field memory 6 by the write control circuit 1.
Control via 1. Under the control of the address signal Add from the read control circuit 15, a video signal rotated by a predetermined angle as described later is read from the field memory 6 and subjected to an interpolation process using an interpolation coefficient K. The signal is converted into an analog signal by the / A converter 8 and output to the recording system via the terminal 4b of the changeover switch 4.
The microcomputer 12 sends a control signal for rotating the subject image from the imager 2 by a predetermined angle to the read control circuit 15. The Y signal converted to a digital signal by the A / D converter 5 has a low-pass component extracted by a low-pass filter 19, integrated by an integration circuit 20, and the obtained integrated value is supplied to the microcomputer 12 as AE information. Is done. The signal subjected to the interpolation processing by the interpolation processing circuit 7 is subjected to extraction of a high-frequency component by the band-pass filter 13 and the integration circuit 1
The integrated value obtained in step 4 is supplied to the microcomputer 12 as an evaluation value indicating the degree of focusing described above. Microcomputer 1
Reference numeral 2 indicates that a focusing operation is performed by driving the AF motor driver 17 based on the evaluation value through a process described later. FIG. 3 is a diagram for explaining the principle of scanning direction detection for obtaining a suitable focus evaluation value based on information on high frequency components in one embodiment of the automatic focusing method according to the present invention. . An example of a subject image (a mountain having a diagonal ridgeline against the sky) as shown in FIG. In this example, one screen is divided into 8 × 8 small blocks, and the following processing is performed for each divided block based on AE data obtained through a low-pass filter and an integration circuit.
When the image shown in (A) is scanned in the direction in which the vertical line is detected as in the related art, the output level of the bandpass filter is low because the ridgeline of the mountain is oblique, and the contrast is high as shown in (B). Therefore, an appropriate focus evaluation value cannot be obtained. In this embodiment, AE information obtained by passing a signal of each divided block through a low-pass filter is detected. As shown in FIG. 13C, the output level of the low-pass filter is high (bright) in the area corresponding to the sky, low (dark) in the area corresponding to the mountain, and the boundary area between the two areas has a brightness blurred at an intermediate value. become. Therefore, the inclination angle θ of the mountain ridge line with respect to the vertical direction as shown in (D) is obtained based on the AE information as shown in (C). A rotation process described later is performed using the tilt angle θ obtained in this manner, and as shown in FIG. 4, the original image (dotted line portion) is rotated by θ to obtain a rotated image like a solid line, and the ridge line of the mountain is set to be vertical. A suitable focus evaluation value can be obtained. The principle of address conversion for controlling the rotation of the subject image will be described with reference to FIG. FIG.
The address positional relationship when a thick line image is obtained by oblique scanning by rotating the original image indicated by the thin line by θ. In the figure, white circles indicate real pixels stored in the memory, and black circles indicate virtual pixels read from the memory. Each address position P
(00), P (10), P (20), P (01), P
(11), P (21), P (02), P (12), P
(22) Corresponding pixel data is written in the field memory 6, and using the pixel data at these address positions, the corresponding address position Q ( 10), Q (20), Q
(01), Q (11), Q (21),... Are obtained and sent to the field memory 6 as address signals Add. For example, the address position Q (1
The virtual pixel addresses 0), Q (20), Q (01), and Q (11) are obtained from the relationship shown in the drawing as follows. Q (10): x P (00) + cos θ y P (00) + sin θ Q (20): x P (00) +2 cos θ = P (10) +2 cos θ−1 y P (00) +2 sin θ = P (10 ) +2 sin θ Q (01): x P (00) −sin θ y P (00) + cos θ Q (11): x P (00) −sin θ + cos θ = P (01) −sin θ + cos θ y P (00) + cos θ + sin θ = P (01) + cos θ + sin θ−1 FIG. 6 shows an example of a circuit for generating the X address. In the XST register 151X, a pixel address to be read first, 0 in this example, is set.
XW = cos θ shown in FIG. 5 is generated from the register 152X, and XW shown in FIG.
0 = −sin θ has been generated. The output of the adder 154X is delayed by one clock (one pixel) by the delay unit 156X. The adder 154X adds cos θ from the XW register 152X and the output from the delay unit 156X.
The output of the delay unit 156X is added to the output (0 in this example) from the XST register 151X in the adder 158X. The delay unit 157X outputs the output of the adder 155X to 1
Delay by H. The adder 155X is connected to the X0 register 15
-Sin θ from 3X and the output from the delay unit 157X are added. Adder 159X adds the output of delay unit 157X and the output of adder 158X, and outputs the result as an X address signal. FIG. 7 shows an example of a circuit for generating a Y address signal similar to that of FIG. YST register 151Y
Is set to 0, and from the YW register 152Y,
Is generated, and Y0 register 153 is generated.
From Y, Y0 = cos θ shown in FIG. 5 is generated. The output of the adder 154Y is delayed by one clock (one pixel) by the delay unit 156Y. Adder 154Y adds sin θ from YW register 152Y and the output from delay unit 156Y. The output of the delay unit 156Y is YST
The output from the register 151Y (0 in this example) is added to the output by the adder 158Y. Delay unit 157Y delays the output of adder 155Y by 1H. Adder 155Y
Is cos θ from the Y0 register 153Y and the delay unit 1
The output from 57Y is added. Adder 159Y adds the output of delay unit 157Y and the output of adder 158Y, and outputs the result as a Y address signal. FIG. 8 is a diagram showing the principle of the address conversion shown in FIG. 5 and the aspect ratio (768 pixels, 2 pixels) of 3 to 4 shown in FIG.
An address conversion diagram in the case where the present invention is applied to (40 lines) and rotated by 30 degrees is shown. In this case, as shown in FIG. 9, one pixel has a size of 2.4: 1 in length and width. At this time, XST = 0 XW = 0.866 X
0 = −2.4 × 0.5 YST = 0 YW = 0.5 / 2.4 Y0 = 0.8
66, and as is apparent from the figure, the general formula representing the X address Xmn and the Y address Ymn in the number of pixels m and the number of lines n is as follows. Xmn = XST + m.XW + n.X0 Ymn = YST + m.YW + n.Y0 For example, the address (coordinate) of the 0th line (n = 0) is (XY) = (0,0), (0.866,0.208) ,
(1.732, 0.417),... In the first line (n = 1), (XY) = (− 1.2, 0.866), (−0.33)
4,1.074), (0.532, 1.28),. Here, the integer part of each address represents the address Add,
It is clear from the figure that the decimal part indicates the interpolation coefficient K. Referring to FIG. 1, the present embodiment can also cope with an electronic zoom operation when the zoom motor driver 16 is driven by the operation of the zoom switch 18.
FIG. 10 shows actual pixel addresses P (00), P (10), P (20), P (30), and P (00) indicated by white circles during the electronic zoom operation.
P (01), P (11), P (21), P (31),
The virtual pixel addresses Q (00), Q (10),
Q (20), Q (30), Q (40), Q (01), Q
(11), Q (21), Q (31), Q (41) are shown. At this time, XW and Y0 are constant values, and X0 and Y0
W is 0. The interpolation processing for extracting high-frequency components with higher accuracy using the band-pass filter in FIG. 1 is preferably, for example, a four-point weighted averaging method as shown in FIG. The address position Q to be read from the memory is
As shown in the figure, when X1 and X2 are determined, four surrounding points P (1
1) Using the weighted average of P (21), P (12), and P (22), is obtained by the following equation. Q = (1-Ky) X1 + Ky.X2 X1 = (1-Kx) P (11) + KxP (21) X2 = (1-Kx) P (12) + KxP (22) Therefore, Q = (1-Kx) ( 1−Ky) P (11) + Kx (1−Ky) P (21) + Ky (1−Kx) P (12) + Kx · Ky · P (22) (1) The operation of equation (1) is one cycle Within 4 pixel address P
(11), P (21), P (12), and P (22) can be realized by reading them simultaneously. Simultaneous reading of the four pixels can be performed using a memory configuration as shown in FIG. 10, for example. In the example shown in FIG. 12, even-numbered columns,
Even row dedicated memory (A), odd column, even row dedicated memory (B), even column, odd row dedicated memory (C) and odd column
Four independent memories of an odd-row dedicated memory (D) are provided. FIG. 13 shows an address generation circuit for reading data from a memory in order to perform an operation by the above-mentioned four-point weighted averaging circuit. An address, a column address for even-numbered memory, a row address for odd-numbered memory, and a row address for even-numbered memory are generated. Column address 0
The bit is output as a select signal HSEL, and is added to 1 to 9 bits by an adder 251. 1 to
9 bits become the column address for the odd-numbered column memory, and the adder 2
The output of 51 becomes the column address for the even-numbered column memory. Similarly, the 0 bit of the row address is output as the select signal VSEL, and is added by the adder 252 to 1 to 7 bits. Bits 1 to 7 become the row address for the odd-numbered memory, and the output of the adder 252 becomes the row address for the even-numbered memory. FIG. 14 shows an example of a circuit for performing the four-point weighted averaging operation shown in equation (1) using the read data read from the memory. In FIG. 14, selectors 253 and 254 operate on select signal HS obtained in FIG.
When EL is “H”, the “H” terminal is selected, and when “L”, the “L” terminal is selected. Similarly, the corresponding terminal of the selector 261 is selected by the select signal VSEL. The selector 253 receives the input data of the even-numbered column and the even-numbered row, and the input data of the odd-numbered column and the even-numbered row.
Even-column odd-row read data and odd-column odd-row read data are input. The two outputs from the selector 253 are respectively subjected to coefficients (1-K
x), Kx. The outputs of the multipliers 255 and 256 are added by the adder 257 and output to the two input terminals (L, H) of the selector 261. On the other hand, two outputs from the selector 254 are multiplied by coefficients (1−Kx) and Kx by multipliers 258 and 259, respectively. Multiplier 258
And 259 are added by the adder 260 and output to the other two input terminals (L, H) of the selector 261. The two outputs from the selector 261 are the above X1 and X2, and the coefficients (1-K)
x), Kx. The outputs of the multipliers 262 and 263 are added by an adder 264 to obtain interpolated data Q. In the examples of FIGS. 13 and 14, the reason why the select signal is required is that, as shown in FIG. 15, addresses of four points to be selected are generated according to four patterns # 1 to # 4. In this example, an example of pattern # 2 is shown. As described above, according to the automatic focusing method according to the present invention, high-speed and high-precision focusing control can always be performed even if the subject image is in any tilt state.
【図面の簡単な説明】
【図1】本発明による自動合焦方式の一実施例を示すブ
ロック図である。
【図2】本発明による自動合焦方式の原理を説明するた
めの図である。
【図3】本発明の実施例における好適な合焦評価値を得
るための走査方向検出原理図である。
【図4】図3で得られた走査方向角度に基づいて好適な
合焦評価値を得るために画像信号を回転させた図であ
る。
【図5】本発明の実施例における画像回転原理を示すア
ドレス生成原理図である。
【図6】図5に示す原理図によりXアドレスを生成する
ための回路図である。
【図7】図5に示す原理図によりYアドレスを生成する
ための回路図である。
【図8】図5に示す原理を実際の画像回転に適用した場
合のアドレス生成原理を示す図である。
【図9】図8に示す原理図の基本となる画像構成図であ
る。
【図10】本発明の実施例における電子ズーム動作の原
理を示す図である。
【図11】本発明の実施例における補間処理回路7での
補間処理を4点加重平均演算により行う原理図である。
【図12】図11に示す補間処理を行うのに用いられる
メモリ構成図である。
【図13】図11に示す補間処理で用いられるメモリ読
み出し用のアドレス生成回路の一例を示す回路図であ
る。
【図14】図11に示す補間処理の一例を示す回路図で
ある。
【図15】図11に示す補間処理における選択される4
点の偶、奇組み合わせ例を示す図である。
【図16】縦、横及び斜めの被写体像を示す図である。
【図17】図16に示す各被写体について従来の自動合
焦方式におけるバンドパスフィルタから得られる高域成
分の変化を示す図である。
【符号の説明】
1 光学系 2 イ
メージャ
3 撮像プロセス回路 4 切
換スイッチ
5 A/Dコンバータ 6 フ
ィールドメモリ
7 補間処理回路 8 D
/Aコンバータ
9 トリガ回路 10 S
SG回路
11 ライトコントロール回路
12 マイコン 13 バ
ンドパスフィルタ
14,20 積分回路, 15 リ
ードコントロール回路
16 ズームモータドライバ
17 AFモータドライバ
18 ズームスイッチ
19 ローパスフィルタBRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing one embodiment of an automatic focusing system according to the present invention. FIG. 2 is a diagram for explaining the principle of the automatic focusing method according to the present invention. FIG. 3 is a scanning direction detection principle diagram for obtaining a suitable focus evaluation value in the embodiment of the present invention. FIG. 4 is a diagram in which an image signal is rotated in order to obtain a suitable focus evaluation value based on the scanning direction angle obtained in FIG. FIG. 5 is an address generation principle diagram showing an image rotation principle in the embodiment of the present invention. FIG. 6 is a circuit diagram for generating an X address according to the principle diagram shown in FIG. 5; FIG. 7 is a circuit diagram for generating a Y address based on the principle diagram shown in FIG. 5; FIG. 8 is a diagram showing an address generation principle when the principle shown in FIG. 5 is applied to actual image rotation. FIG. 9 is an image configuration diagram that is the basis of the principle diagram shown in FIG. 8; FIG. 10 is a diagram illustrating a principle of an electronic zoom operation according to the embodiment of the present invention. FIG. 11 is a principle diagram of performing an interpolation process by a four-point weighted average calculation in the interpolation processing circuit 7 in the embodiment of the present invention. FIG. 12 is a memory configuration diagram used for performing the interpolation processing shown in FIG. 11; 13 is a circuit diagram showing an example of an address generation circuit for memory read used in the interpolation processing shown in FIG. FIG. 14 is a circuit diagram illustrating an example of the interpolation processing illustrated in FIG. 11; 15 is a diagram illustrating a selected 4 in the interpolation processing illustrated in FIG. 11;
It is a figure showing an example of even and odd combination of a point. FIG. 16 is a diagram illustrating vertical, horizontal, and oblique subject images. 17 is a diagram illustrating a change in a high-frequency component obtained from a band-pass filter in the conventional automatic focusing method for each subject illustrated in FIG. 16; [Description of Signs] 1 Optical system 2 Imager 3 Imaging process circuit 4 Changeover switch 5 A / D converter 6 Field memory 7 Interpolation processing circuit 8 D
/ A converter 9 Trigger circuit 10 S
SG circuit 11 Write control circuit 12 Microcomputer 13 Band pass filter 14, 20 Integrator circuit, 15 Read control circuit 16 Zoom motor driver 17 AF motor driver 18 Zoom switch 19 Low pass filter
Claims (1)
報を合焦評価値として用いる自動合焦方式であって、 少なくとも当該合焦対象領域に係る測光情報の分布状態
に基づいて、同合焦対象領域における像の形態が如何な
る方向に走査したときに有効にコントラスト情報を抽出
し得るものであるかに係る情報を認識するための有効走
査方向認識手段と、 少なくとも上記合焦対象領域を実効的に上記有効走査方
向認識手段によって認識された方向に走査して得た映像
情報中の高域成分に係る情報を合焦評価値として用いた
合焦調節動作を行うための自動合焦手段と、 を有してなることを特徴とする自動合焦方式。(57) [Claims] An automatic focusing method using information on a high-frequency component in a video signal corresponding to a focusing target area as a focus evaluation value, wherein at least photometry related to the focusing target area Effective scanning direction recognizing means for recognizing information relating to the direction in which the form of the image in the in-focus target area can effectively extract contrast information based on the distribution state of the information. Focusing adjustment using information relating to a high-frequency component in video information obtained by scanning at least the focusing target area in the direction recognized by the effective scanning direction recognition unit as a focus evaluation value And an automatic focusing means for performing an operation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP19160692A JP3386491B2 (en) | 1992-06-25 | 1992-06-25 | Automatic focusing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP19160692A JP3386491B2 (en) | 1992-06-25 | 1992-06-25 | Automatic focusing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0614243A JPH0614243A (en) | 1994-01-21 |
JP3386491B2 true JP3386491B2 (en) | 2003-03-17 |
Family
ID=16277439
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP19160692A Expired - Fee Related JP3386491B2 (en) | 1992-06-25 | 1992-06-25 | Automatic focusing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3386491B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060058117A (en) * | 2003-09-22 | 2006-05-29 | 샤프 가부시키가이샤 | Photographing lens position control device |
-
1992
- 1992-06-25 JP JP19160692A patent/JP3386491B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH0614243A (en) | 1994-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6952234B2 (en) | Image pickup apparatus and method for broadening apparent dynamic range of video signal | |
US5060074A (en) | Video imaging apparatus | |
JPH07230519A (en) | Information reproducing device | |
JP4489848B2 (en) | Method for correcting image steadyness error in television film scanning, method for changing the motion sequence of a predetermined image object in a television image, and apparatus for performing the method | |
JP5211589B2 (en) | Image processing apparatus, electronic camera, and image processing program | |
JP2921973B2 (en) | Image extraction method and image extraction device for specific object | |
JP3386491B2 (en) | Automatic focusing method | |
JP3503655B2 (en) | Image synthesis device | |
JP3143245B2 (en) | Imaging device, photometric method therefor, focusing control method therefor, and imaging method | |
JP3294914B2 (en) | Video camera special image effect device | |
JP3465910B2 (en) | Automatic focusing method | |
JPH0865567A (en) | Image pickup device | |
JP3382969B2 (en) | Automatic focusing method | |
JPH06237412A (en) | Video processor | |
JP3563508B2 (en) | Automatic focusing device | |
JPH06237413A (en) | Video processor | |
JPH0614241A (en) | Electronic zoom device | |
JP2985818B2 (en) | Shading correction method and correction circuit | |
JP2002262059A (en) | Image processing unit and method, recording medium, and program | |
JPH06141225A (en) | Solid-state image pickup device | |
JP3176718B2 (en) | Image processing device | |
JP5012805B2 (en) | Image processing apparatus, electronic camera, and image processing program | |
JPH10136253A (en) | Image pickup device | |
JP3513200B2 (en) | Imaging device | |
JP3490748B2 (en) | Photometric device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20021217 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080110 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090110 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090110 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100110 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110110 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120110 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |