JPS62284314A - オ−トフオ−カス方法 - Google Patents

オ−トフオ−カス方法

Info

Publication number
JPS62284314A
JPS62284314A JP12714486A JP12714486A JPS62284314A JP S62284314 A JPS62284314 A JP S62284314A JP 12714486 A JP12714486 A JP 12714486A JP 12714486 A JP12714486 A JP 12714486A JP S62284314 A JPS62284314 A JP S62284314A
Authority
JP
Japan
Prior art keywords
mtf
lens
projection lens
image
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP12714486A
Other languages
English (en)
Inventor
Hiromasa Suzuki
宏昌 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP12714486A priority Critical patent/JPS62284314A/ja
Publication of JPS62284314A publication Critical patent/JPS62284314A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Variable Magnification In Projection-Type Copying Machines (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 3、発明の詳細な説明 (産業上の利用分野) 本発明は、CODラインセンサなどのイメージセンサを
用いて合焦判別するオートフォーカス方法に関するもの
である。
(発明の技術的背景) CODラインセンサなどのイメージセンサを用いたオー
トフォーカス装置として、種々のものが提案されている
。例えば位相差検出方式は投影光を2枚の光路分割レン
ズやプリズム等を用いてラインセンサ上の2か所に入射
し、各投影位置の差から合焦位置からのずれを検出する
ものである。
しかしこれは光学系が複雑で、特殊な形態のセンサが必
要になるという問題があった。
そこでイメージセンサの各画素の時系列パルス電圧から
画像のコントラストを求め、このコントラストが最大と
なる位置を合焦位置とする方式が考えられている。例え
ば前記出力−信号を微分して、画像の鮮鋭さを求めてい
た(例えば特開昭56−132313号など参照)、シ
かしこのように画像コントラストの最大値を求める場合
には投影レンズを大きく移動させねばならなかった0例
えば投影レンズを一方向に移動させつつコントラストの
変化を求め、この変化が零になった時を合焦位置とする
ものがある(山登り法)。また投影レンズの全移動範囲
に対するコントラストを記憶して、その後最大コントラ
ストとなる位置を求める方法(全スキャン法)もある、
さらに投影レンズをその全範囲内で一度移動させ、コン
トラストが等しくなる2点の中間を合焦位置とするもの
もある(半値幅法)。
しかしこれら従来方法はいずれも合焦位置をはさんで両
方の位置でコントラスト信号を測定する必要があり、一
度合熱位置に達してG)るにもかかわらす合焦位置を通
りすぎて再度戻るという無駄な動きをさせる必要があっ
た。
(発明の目的) 本発明はこのような事情に鑑みなされたものであり、位
相差検出方式のような複雑な光学系を用いる必要がなく
1合焦位置の片側のみを測定するだけで、合焦位置を求
めることができ、合焦位置の検出に要する時間を短くす
ることができるオートフォーカス方法を提供することを
目的とする。
(発明の構成) 本発明によればこの目的゛は、画像投影光をイメージセ
ンサにより走査して得られるイメージセンサの出力信号
を用いて、投影レンズを合焦位置に制御するオートフォ
ーカス方法において、前記投影レンズを移動した時の光
学系の所定空間周波数でのMTF特性を予め記憶する一
方、前記画像投影光に対しては前記投影レンズの少くと
も3位置で前記所定空間周波数の成分量を求め、これら
の成分量を用いて投影レンズ位置の前記MTF特性上で
の対応位置を決定し、この対応位置とMTF特性上の合
焦位置との偏差を求め、この偏差分だけ前記投影レンズ
を移動させることを特徴とするオートフォーカス方法に
より達成される。
(原理) 一般に周期関数は、フーリエ変換を行って周期的な波動
の空間周波数として表わすことができる。例えばイメー
ジセンサの出力信号に基いて得られる出力電圧υが一走
査の間に第4図のように変化するものとすれば、画像の
コントラストを示すその・出力電圧υのMT F (M
adul、atian Trans−fer Func
tion)の空間周波数成分は第5図のようになる。こ
こにa、b、c、dは投影レンズの位置を変化させた場
合の各MTFを示し、非合焦の程度が大きいほど、換言
すればコントラストが小さいほどその投影画像の空間周
波数成分のうち高周波成分の量は小さくなる。すなわち
a、b。
c、dの順に投影レンズは合焦位置から遠くなっている
この第5図で一定の空間周波数fOに対して投影レンズ
を移動させた時のMTFの変化は第6図eのようになり
、このMTFが最大になる点を投影レンズの合焦位置と
して求めることができる。
ここで第6図fはイメージセンサに投影されるまでの光
学系のMTFであり、使用する投影レンズにそれぞれ固
有のMTF特性にほとんど依存している。一般には原画
の内容により多少影響を受けるが、これらeとfの特性
はほとんど投影レンズの特性と相似となる。従って今レ
ンズの所定空間周波数でのMTF特性(f)を既知とし
て、Y=F(X) とすれば、画像のMTF特性゛(e)はy=aF(χ)
 :ただしaは定数 で表わせる。
ここで画像のMTF特性(e)上で等間隔Δχで連続す
る3点A、B、CのMTFをそれぞれyl  、y2 
、Y3として求めれば、y+/y2=F(χ+)/F(
χ2)・・・(1)y2/y3=F(χ2)/F(χ3
)・・・(2)一方これらA、B、0点に対応するレン
ズのMTF特性(f)上で等間隔Δχで連続する点A′
、B′、C’(7)L/7ズ位置をx、、x2  。
x3とすれば、 Yl /Y2 =F (XI ) /F (X2 )=
Y+/yz・・・(3) Y2’/Y3 = F (X2 ) /F (X3 )
=72/y3・・・(4) 従って既知のレンズMTF特性(f)上で間隔Δχの3
点が(3) 、(4)式の値を満足するようなXI  
、X2 、X3は求め得る。特性(f)上で例えばx3
が求まれば、特性(f)が最大となるレンズ位置xnと
の偏差(Xn  X3)が求まる。
本発明は画像のMTF特性(e)上のレンズのレンズ位
置χ3に対応するレンズMTF特性(f)上の位置x3
を求め、前記偏差分(x n−x3)分だけ投影レンズ
をχ3の位置から移動させるものである。
′なお前記(1)〜(4)式に代えて、(y+−yz)
/ (72−ya) ミ  (F(χ +)  −F(χ 2 ) )/(F
(χ2)−F(χ3)) のように分母、分子を差の形として対応点を求めること
も可能である。この場合3点の相互の差(y+−yz)
、(72−ya)、(yl−ya)を用いてよよいし、
4点の差(y+ −72)、(Y2−73 )、(73
−ya )を用いてもよい。
(実施例) 第1図は本発明の一実施例であるリーグプリンタの全体
概略図、第2図はそのオートフォーカス制御装置のブロ
ック図、第3図は動作の流れ図である。
第1.2図において符号10はマイクロフィッシュやマ
イクロロールフィルムなどのマイクロ写真の原画である
。12は光源であり、光源12の光はコンデンサレンズ
14、防熱フィルタ16、反射鏡18を介して原画10
の下面に導かれる。
リーダモードにおいては、原画10の透過光(画像投影
光)は、投影レンズ20、反射鏡22.24.26によ
って透過型スクリーン28に導かれ、このスクリーン2
8に原画lOの拡大投影像を結像する。プリンタモード
においては、反射鏡24は第1図仮想線位置に回動し、
投影光は反射鏡22.30.32によってppc方式の
スリット露光型プリンタ34に導かれる。プリンタ34
の感光ドラム36の回転に同期して反射鏡22.30が
移動し、感光ドラム36上に潜像が形成される。この潜
像は所定の極性に帯電されたトナーにより可視像化され
、このトナー像が転写紙38に転写される。
40はゾーン設定手段であり、フォーカスゾーンを示す
マーク42と、このマーク42をスクリーン28上で移
動させるための手動のつまみ44とを備える。ゾーンの
位置aは位置検出部46で検出されて制御手段48に送
出される。
50はフォーカス制御用光学系であり、画像投影光の光
軸上に配置された半透鏡52と、投影レンズ54と、イ
メージセンサとしてのCCDラインセンサ56と、サー
ボモータ58とを備える。
° 投影レンズ20を通過した投影光の一部は半透鏡5
2により投影レンズ54を通してラインセンサ56に導
かれる。ラインセンサ56はモータ58により光軸に直
交する方向へ移動可能となっている。また投影レンズ5
4は、投影光がスクリーン28あるいは感光ドラム36
の投影面上に合焦する位置に投影レンズ20を置いた時
に、ラインセンサ56の受光面上にも正確に結像するよ
うに、その焦点距離が決められている。
オートフォーカス機構は投影レンズ20を光軸方向に進
退動させるサーボモータ60を備え、投影光がスクリー
ン28あるいは感光ドラム36の投影面上に正しく結像
するXうに制御手段48により焦点制御される。
制御手段48は第2図に示すように構成される。すなわ
ちクロック62が出力するクロックパルスに同期してC
ODドライバ64はラインセンサ56を駆動する。この
ラインセンサ56はその一走査毎に各画素の入射光量に
対応して変化するパルス信号を出力する。このパルス信
号は、各画素の特性のバラツキなどのために同じ光量が
投影されていても各画素毎に変動する。信号処理回路6
6は各画素の特性のバラツキを補正し、かつ波形整形お
よび整流して第4図の出力信号電圧υとする。
このように信号処理された出力信号電圧υは帯域通過フ
ィルタ68に入力され、出力信号電圧υの所定の空間周
波数fo成分を選択してアナログ信号gとして求める。
すなわちこのフィルタ68は空間周波数fOでゲインが
大きく、この周波数foが離れると急激にゲインが減少
する特性を持つ。
このアナログ信号gはA/D変換器70でデジタル信号
に変換され、入力インターフェース72を介してCPU
74に入力される。
第2図で76はROM、78はRAM、80は出力イン
ターフェース、82および84はD/A変換器、86.
88はそれぞれモータ58.60を駆動するドライバで
ある。
ROM76にはCPU74の制御プログラムの他に、投
影レンズ20.54のMTF特性(第6図の特性(f)
に相当)が記憶されている。一般にMTFは投影レンズ
だけでなく反射鏡、原画支持用ガラス板、あるいはライ
ンセンサ自身等のそれぞれのMTFの積で表わされるが
、投影レンズのMTFが他に比べて大きいので投影レン
ズのMTFだけで近似することができる。すべてのMT
Fを厳格に求めこれらの積を用いてもよいのは勿論であ
る。本実施例では投影レンズ20.54のMTFの積が
記憶されている。
次に本実施例の動作を説明する。制御手段48は、まず
ゾーン設定手段40で設定されたゾーンの位置&を読込
んで、″このゾーンに対応する領域の投影光がラインセ
ンサ56に入射するようにサーボモータ58を制御する
。使用者は反射鏡24を第1図実線位置においたリーダ
モードを選択し、目標原画をスクリーン28に投影させ
る(ステップ100)。この投影光の一部は半透鏡52
によってラインセンサ56に導かれる。
制御手段48は次にラインセンサ56の出力に基づいて
露光量測定を行う(ステップ102)。
すなわち信号処理回路66の出力信号電圧υはフィルタ
68、A/D変換器70、インターフェース72を介し
てCPU74に読込まれ、CPU74で露光量制御が行
われる。露光量が適正でなければ(ステップ104)光
量を変更しくステップ106)、再度露光量測定を行う
。この露光量の調整は、例えばラインセンサ56の各画
素の出力電圧のうち、バックグラウンド領域に対応する
画素の電圧を選んでこれが所定電圧になるように光源1
2の光量を調整することにより行われる。
次に制御手段48はラインセンサ56に入力された投影
光に画像が含まれるか否かを判断する(ステップ108
)。この判断は、例えば画像の白黒の反転回数が所定値
以上であるか否かにより行なわれ、所定値以上であれば
画像有りと判断する(ステップ110)。画像無しと判
断した時には、制御手段48はブザーやランプなどの警
報を発しフォーカスゾーンの変更を要求する(ステップ
112)。使用者はスクリーン28を見ながらつまみ4
4を操作し、投影像の画像が有る位置にマーク42が重
なるようにマーク42を移動する。
次に制御手段48はこのラインセンサ56の出力に基づ
いてオートフォーカス制御を行う。
CPU74はまず投影レンズ20の位置をχ1としてR
AM78に記憶し、この位置χ1においてラインセンサ
56を走査する。そしてこのラインセンサ56の出力の
空間周波数fo酸成分順次読込み、この周波数成分のM
TFをylとして求める。すなわちこのMTFは、第4
図に示すように、フィルタ68のアナログ信号gの最大
値をg(M)、最小値をg(m)として、y +=(g
(M)−g(m))/h(M) +g(m))により求
めることができる。CPU74は投影レンズ20をΔχ
移動して同様の演算を行い、結局3つの点A、B、C(
第6図参照)のMTFをYl  +”T’2  、y3
 として求める(ステップ114)。
CPU74は次に前記(1)、(2)式の演算を行い(
ステップ116) 、 (3)、(4)式が成立するレ
ンズMTF特性(f)の対応点A′、B”、C′を求め
る(ステップ118)。この場合対応点を求める方法は
種々あるが、例えばROM76には特性(f)のデータ
が表の形で記憶されている場合には、(Yl/Y2)等
が所定値(y+/y2)等に一致する位置x、、x2 
、x3を求める。一致する位置がない時には最も近い位
置を求めて補正を行う。また特性(f)を関数F (X
)の形で記憶した時にはこの関数を用いて位置XI  
、X2  。
x3が求められる。
CPU74は次に特性(f)の最大となるレンズ位置X
nをROM78から読出し、投影レンズ20の位置例え
ばx3との偏差ΔX= (Xn−X3)を求める(ステ
ップ120)。そしてその時の投影レンズ20の位置χ
3から投影レンズ20を偏差ΔXだけ移動する(ステッ
プ122)、この結果投影レンズ20を合焦位置に合わ
せることができる。
この合焦状態でプリンタモードにすれば(ステップ12
4)、反射鏡24が第1図仮想線位置に回動し、転写紙
38に画像が転写されてハードコピーが得られる。
以上の実施例では、光学系のMTF特性をROM76に
記憶したが、このMTF特性はレンズ毎にそれぞれ異な
るものであるから、例えばレンズを交換する際の便を考
慮して、レンズの鏡筒にそのレンズのMTF特性を記憶
したメモリを内蔵させる一方、レンズの着脱に伴って装
置本体側と断続する電気接点を設け、レンズを装着した
際にこの電気的接点を介してメモリの内容を読出すよう
にしてもよい。
(発明の効果) 本発明は以上のように、イメージセンサの出力に基づき
光学系の少くとも3つの位置における所定空間周波数の
成分量を求め、予め記憶した光学系のMTF特性上の対
応点を求め、この光学系のMTF特性上での対応点と最
大となる点との偏差を求め、投影レンズをこの偏差分だ
け移動するものであるから、投影レンズを移動させる位
置の数と範囲が非常に少なくなり、合焦位置の片側を測
定するのみで合焦位置の検出ができる。このため、合焦
位置検出までの所要時間が短縮できる。
【図面の簡単な説明】
第1図は本発明の一実施例であるリーダプリンタの全体
概略図、第2図はそのオートフォーカス制御装置のブロ
ック図、第3図は動作の流れ図である。また第4図はイ
メージセンサ出力を示す図、第5図はMTFの空間周波
数成分を示す図、また第6図は本発明の原理説明図であ
る。 。 20.54・・・投影レンズ、 56・・・ラインセンサ。 特許出願人 富士写真フィルム株式会社代 理 人 弁
理士 山 1)文 継 筒1図 A 第3図 第5図 第6図

Claims (1)

  1. 【特許請求の範囲】 画像投影光をイメージセンサにより走査して得られるイ
    メージセンサの出力信号を用いて、投影レンズを合焦位
    置に制御するオートフォーカス方法において、 前記投影レンズを移動した時の光学系の所定空間周波数
    でのMTF特性を予め記憶する一方、前記画像投影光に
    対しては前記投影レンズの少くとも3位置で前記所定空
    間周波数の成分量を求め、これらの成分量を用いて投影
    レンズ位置の前記MTF特性上での対応位置を決定し、
    この対応位置とMTF特性上の合焦位置との偏差を求め
    、この偏差分だけ前記投影レンズを移動させることを特
    徴とするオートフォーカス方法。
JP12714486A 1986-06-03 1986-06-03 オ−トフオ−カス方法 Pending JPS62284314A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP12714486A JPS62284314A (ja) 1986-06-03 1986-06-03 オ−トフオ−カス方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12714486A JPS62284314A (ja) 1986-06-03 1986-06-03 オ−トフオ−カス方法

Publications (1)

Publication Number Publication Date
JPS62284314A true JPS62284314A (ja) 1987-12-10

Family

ID=14952705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12714486A Pending JPS62284314A (ja) 1986-06-03 1986-06-03 オ−トフオ−カス方法

Country Status (1)

Country Link
JP (1) JPS62284314A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4000343A1 (de) * 1989-01-09 1990-07-26 Olympus Optical Co Automatische fokussiervorrichtung
US5148209A (en) * 1990-07-12 1992-09-15 The Research Foundation Of State University Of New York Passive ranging and rapid autofocusing
US5193124A (en) * 1989-06-29 1993-03-09 The Research Foundation Of State University Of New York Computational methods and electronic camera apparatus for determining distance of objects, rapid autofocusing, and obtaining improved focus images
US5231443A (en) * 1991-12-16 1993-07-27 The Research Foundation Of State University Of New York Automatic ranging and automatic focusing
US8218061B2 (en) 2008-09-04 2012-07-10 Csr Technology Inc. Apparatus, method, and manufacture for iterative auto-focus using depth-from-defocus
US8542313B2 (en) 2010-01-27 2013-09-24 Csr Technology Inc. Depth from defocus calibration
US8644697B1 (en) 2010-08-13 2014-02-04 Csr Technology Inc. Method for progressively determining depth from defocused images
US8896747B2 (en) 2012-11-13 2014-11-25 Qualcomm Technologies, Inc. Depth estimation based on interpolation of inverse focus statistics
US9501834B2 (en) 2011-08-18 2016-11-22 Qualcomm Technologies, Inc. Image capture for later refocusing or focus-manipulation
US10237528B2 (en) 2013-03-14 2019-03-19 Qualcomm Incorporated System and method for real time 2D to 3D conversion of a video in a digital camera

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4000343C2 (de) * 1989-01-09 1999-03-11 Olympus Optical Co Automatische Fokussiervorrichtung
US4990947A (en) * 1989-01-09 1991-02-05 Olympus Optical Co., Ltd. Automatic focusing apparatus
US5070353A (en) * 1989-01-09 1991-12-03 Olympus Optical Co., Ltd. Automatic focusing apparatus
DE4000343A1 (de) * 1989-01-09 1990-07-26 Olympus Optical Co Automatische fokussiervorrichtung
US5193124A (en) * 1989-06-29 1993-03-09 The Research Foundation Of State University Of New York Computational methods and electronic camera apparatus for determining distance of objects, rapid autofocusing, and obtaining improved focus images
US5148209A (en) * 1990-07-12 1992-09-15 The Research Foundation Of State University Of New York Passive ranging and rapid autofocusing
US5231443A (en) * 1991-12-16 1993-07-27 The Research Foundation Of State University Of New York Automatic ranging and automatic focusing
US8218061B2 (en) 2008-09-04 2012-07-10 Csr Technology Inc. Apparatus, method, and manufacture for iterative auto-focus using depth-from-defocus
US8542313B2 (en) 2010-01-27 2013-09-24 Csr Technology Inc. Depth from defocus calibration
US8644697B1 (en) 2010-08-13 2014-02-04 Csr Technology Inc. Method for progressively determining depth from defocused images
US9501834B2 (en) 2011-08-18 2016-11-22 Qualcomm Technologies, Inc. Image capture for later refocusing or focus-manipulation
US8896747B2 (en) 2012-11-13 2014-11-25 Qualcomm Technologies, Inc. Depth estimation based on interpolation of inverse focus statistics
US9215357B2 (en) 2012-11-13 2015-12-15 Qualcomm Technologies, Inc. Depth estimation based on interpolation of inverse focus statistics
US10237528B2 (en) 2013-03-14 2019-03-19 Qualcomm Incorporated System and method for real time 2D to 3D conversion of a video in a digital camera

Similar Documents

Publication Publication Date Title
JPS62284314A (ja) オ−トフオ−カス方法
JPH0642011B2 (ja) オ−トフオ−カス方法
JP2540030B2 (ja) オ−トフオ−カス方法
JPS63246735A (ja) オ−トフオ−カス方法
JPH0642012B2 (ja) オ−トフオ−カス方法
JPH0642014B2 (ja) オ−トフオ−カス方法
JPS63246734A (ja) マイクロフィルムリーダのオートフォーカス方法
JPH0567205B2 (ja)
JPS62291610A (ja) オ−トフオ−カス方法
JPS6370814A (ja) オ−トフオ−カス方法
JPS6325609A (ja) オ−トフオ−カス方法
JPH0782145B2 (ja) オートフォーカス装置
JPS62283307A (ja) オ−トフオ−カス方法
JPS63135909A (ja) オ−トフオ−カス方法
JPH06100712B2 (ja) オ−トフオ−カス方法
JPS63135910A (ja) オ−トフオ−カス方法
JPS62283323A (ja) オ−トフオ−カス制御方法
JPS63226609A (ja) オ−トフオ−カス装置
JPS6324208A (ja) オ−トフオ−カス方法
JPS63118132A (ja) オ−トフオ−カス制御方法
JPH01182815A (ja) 画像検出方法
JPH0746200B2 (ja) マイクロフィルムリーダプリンタのオートフォーカス方法
JPH0746199B2 (ja) マイクロフィルムリ−ダプリンタのオ−トフオ−カス方法
JPH01182813A (ja) 画像検出方法
JPH0820588B2 (ja) 画像検出方法