JPS63135910A - Auto focusing method - Google Patents

Auto focusing method

Info

Publication number
JPS63135910A
JPS63135910A JP61280686A JP28068686A JPS63135910A JP S63135910 A JPS63135910 A JP S63135910A JP 61280686 A JP61280686 A JP 61280686A JP 28068686 A JP28068686 A JP 28068686A JP S63135910 A JPS63135910 A JP S63135910A
Authority
JP
Japan
Prior art keywords
output signal
area
image
line sensor
cpu72
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP61280686A
Other languages
Japanese (ja)
Other versions
JPH0738045B2 (en
Inventor
Takahiro Hideshima
秀島 隆裕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP61280686A priority Critical patent/JPH0738045B2/en
Publication of JPS63135910A publication Critical patent/JPS63135910A/en
Publication of JPH0738045B2 publication Critical patent/JPH0738045B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Variable Magnification In Projection-Type Copying Machines (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PURPOSE:To always perform accurate discrimination for focusing, by finding the entire length of an output signal in one scan of an image sensor, and the area of a part sandwiched between the minimum level or the maximum level of the output signal and the output signal, and setting the position of a projecting lens where a quotient obtained by the division of the square of the entire length by the area becomes maximum as a focal position. CONSTITUTION:A control means 48 performs auto focus control based on the output of a line sensor 56. A CPU72, after initializing a memory to zero for an L representing the length of the output signal of the line sensor 56 and an S representing the area, reads in the voltage of the output signal in order. And the CPU finds the absolute value of the difference between the output signals of adjacent picture elements, and adds the absolute value on the L, and substitutes an added result for the L, then stores it. The CPU72 finds a complexity degree (e) stipulated in an equation (e)=L2/S by using the L and the S. The CPU72 repeats an operation by moving the projecting lens 20 by a prescribed quantity, and finds the position of the projecting lens 20 where the complexity degree (e) becomes maximum, and sets the position as the focal position. In such a way, it is possible to perform the discrimination for the focusing with high accuracy.

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、CCDラインセンサなどのイメージセンサを
用いて合焦判別するオートフォーカス方法に関するもの
である。
DETAILED DESCRIPTION OF THE INVENTION (Field of Industrial Application) The present invention relates to an autofocus method for determining focus using an image sensor such as a CCD line sensor.

(発明の技術的背景) CCDラインセンサなどのイメージセンサを用いたオー
トフォーカス装置として、種々のものが提案されている
。例えばイメージセンサの各画素の出力信号から画像の
コントラストを求め、このコントラストが最大となる位
置を合焦位置とする方式が考えられている。この場合、
従来は出力信号をバンドパスフィルタに入力し、このバ
ンドパスフィルタの出力を微分して、出力信号の鮮鋭さ
を求めていた(例えば特開昭56−132313号など
参照)。しかしこの場合には微分回路が本来的に持つ性
質のためにノイズに対して敏感で動作が不安定になり易
いという問題がある。またラインセンサの基準レベル画
素と有効画素間の出力信号電圧の差が微分により過大に
検出されることになり、信傾性が悪いという問題もあっ
た。
(Technical Background of the Invention) Various autofocus devices using image sensors such as CCD line sensors have been proposed. For example, a method has been considered in which the contrast of an image is determined from the output signal of each pixel of an image sensor, and the position where this contrast is maximum is determined as the focal position. in this case,
Conventionally, the sharpness of the output signal has been determined by inputting the output signal to a band-pass filter and differentiating the output of the band-pass filter (see, for example, Japanese Patent Laid-Open No. 132313/1983). However, in this case, due to the inherent characteristics of the differentiating circuit, there is a problem that it is sensitive to noise and its operation tends to become unstable. Furthermore, the difference in output signal voltage between the reference level pixel and the effective pixel of the line sensor is excessively detected due to differentiation, resulting in a problem of poor reliability.

そこで、イメージセンサの出力信号は、非合焦の程度が
大きいほど画像の細かい明暗が消えて滑らかになる点に
着眼し、出力信号の複雑度を用いて合焦判別することが
考えられている。ここに複雑度は出力信号の全長を、出
力信号の面積で割った商で定義するものである。
Therefore, focusing on the fact that the output signal of the image sensor becomes smoother as the degree of out-of-focus increases, the fine brightness and darkness of the image disappears, and the complexity of the output signal is used to determine focus. . Here, complexity is defined as the quotient of the total length of the output signal divided by the area of the output signal.

しかしこの場合イメージセンサの出力信号は。However, in this case, the output signal of the image sensor is.

画像に黒ベタの領域を含む場合にはこの黒ベタの領域で
は出力信号が零とならずに一部レベルの信号となるので
黒ベタの領域の面積が大きくなると複雑度の値は小さく
なり、高精度な合焦判別ができないという問題があった
If the image includes a solid black area, the output signal in this solid black area will not be zero, but will be at a partial level, so as the area of the solid black area increases, the complexity value will decrease. There was a problem that highly accurate focus determination could not be made.

(発明の目的) 本発明はこのような事情に鑑みなされたものであり、出
力信号の複雑度に基づいて合焦判別をする場合に、画像
に黒ベタの領域があってもその影響を受けることなく常
に高精度な合焦判別を行うことができるオートフォーカ
スを提供することを目的とする。
(Purpose of the Invention) The present invention has been made in view of the above circumstances, and when determining focus based on the complexity of the output signal, even if there is a solid black area in the image, it will be affected by it. The purpose of the present invention is to provide an autofocus system that can always perform highly accurate focus determination without any trouble.

(発明の構成) 本発明によればこの目的は、画像投影光をイメージセン
サにより走査して得られるイメージセンサの出力信号を
用いて、投影レンズを合焦位置に制御するオー:フォー
カス方法において、前記イメージセンサの一走査中にお
ける出力信号の全長と、この出力信号の最低レベルまた
は最高レベルと出力信号とで挟まれる部分の面積とを求
め、前記全長の2乗を前記面積で割った商が最大となる
投影レンズ位置を合焦位置とすることを特徴とするオー
トフォーカス方法により達成される。
(Structure of the Invention) According to the present invention, this object is achieved in an O:focus method in which a projection lens is controlled to a focusing position using an output signal of an image sensor obtained by scanning image projection light with an image sensor. The total length of the output signal during one scan of the image sensor and the area of the portion sandwiched between the lowest level or highest level of this output signal and the output signal are determined, and the quotient obtained by dividing the square of the total length by the area is calculated. This is achieved by an autofocus method characterized by setting the maximum projection lens position as the in-focus position.

(実施例) 第1図は本発明の一実施例であるリーグプリンタの全体
概略図、第2図はそのオートフォーカス制御装置のブロ
ック図、第3図は動作の流れ図、また第4図は出力信号
と求める面積部分とを示す図である。
(Example) Fig. 1 is an overall schematic diagram of a league printer that is an embodiment of the present invention, Fig. 2 is a block diagram of its autofocus control device, Fig. 3 is a flowchart of operation, and Fig. 4 is an output It is a figure which shows a signal and the area part which is calculated|required.

第1.2図において符号10はマイクロフィッシュやマ
イクロロールフィルムなどのマイクロ写真の原画である
。12は光源であり、光源12の光はコンデンサレンズ
14、防熱フィルタ16、反射鏡18を介して原画lO
の下面に導かれる。
In FIG. 1.2, reference numeral 10 is an original image of a microphotograph such as microfiche or microroll film. 12 is a light source, and the light from the light source 12 passes through a condenser lens 14, a heat shielding filter 16, and a reflecting mirror 18 to the original image lO.
guided to the underside of

リーダモードにおいては、原画10の透過光(画像投影
光)は、投影レンズ20、反射鏡22.24.26によ
って透過型スクリーン28に導かれ、このスクリーン2
8に原画10の拡大投影像を結像する。プリンタモード
においては、反射鏡24は第1図仮想線位置に回動し、
投影光は反射鏡22.30.32によってPPC方式の
スリット露光型プリンタ34に導かれる。プリンタ34
の感光ドラム36の回転に同期して反射鏡22.30が
移動し、感光ドラム36上に潜像が形成される。この潜
像は所定の極性に帯電されたトナーにより可視像化され
、このトナー像が転写紙38に転写される。
In the reader mode, the transmitted light (image projection light) of the original image 10 is guided to the transmissive screen 28 by the projection lens 20 and the reflecting mirrors 22, 24, 26.
8, an enlarged projected image of the original image 10 is formed. In the printer mode, the reflecting mirror 24 is rotated to the imaginary line position in FIG.
The projection light is guided to a PPC type slit exposure type printer 34 by reflecting mirrors 22, 30, 32. printer 34
The reflecting mirrors 22 and 30 move in synchronization with the rotation of the photosensitive drum 36, and a latent image is formed on the photosensitive drum 36. This latent image is made visible by toner charged to a predetermined polarity, and this toner image is transferred onto the transfer paper 38.

40はゾーン設定手段であり、フォーカスゾーンを示す
マーク42と、このマーク42をスクリーン28上で移
動させるための手動のつまみ44とを備える。ゾーンの
位置aは位置検出部46で検出されて制御手段48に送
出される。
40 is a zone setting means, which includes a mark 42 indicating a focus zone and a manual knob 44 for moving this mark 42 on the screen 28. The position a of the zone is detected by the position detection section 46 and sent to the control means 48.

50はフォーカス制御用光学系であり、画像投影光の光
軸上に配置された半透鏡52と、投影レンズ54と、イ
メージセンサとしてのCCDラインセンサ56と、サー
ボモータ58とを備える。
Reference numeral 50 denotes a focus control optical system, which includes a semi-transparent mirror 52 disposed on the optical axis of image projection light, a projection lens 54, a CCD line sensor 56 as an image sensor, and a servo motor 58.

投影レンズ20を通過した投影光の一部は半透鏡52に
より投影レンズ54を通してラインセンサ56に導かれ
る。ラインセンサ56はモータ58により光軸に直交す
る方向へ移動可能となっている。また投影レンズ54は
、投影光がスクリーン28あるいは感光ドラム36の投
影面上に合焦する位置に投影レンズ20を置いた時に、
ラインセンサ56の受光面上にも正確に結像するように
、その焦点距離が決められている。
A portion of the projection light that has passed through the projection lens 20 is guided by a semi-transparent mirror 52 to a line sensor 56 through a projection lens 54 . The line sensor 56 is movable by a motor 58 in a direction perpendicular to the optical axis. Furthermore, when the projection lens 20 is placed at a position where the projection light is focused on the screen 28 or the projection surface of the photosensitive drum 36,
The focal length of the line sensor 56 is determined so that the image is accurately formed on the light receiving surface of the line sensor 56.

オートフォーカス機構は投影レンズ20を光軸方向に進
退動させるサーボモータ60を備え、投影光がスクリー
ン28あるいは感光ドラム36の投影面上に正しく結像
するように制御手段48により焦点制御される。
The autofocus mechanism includes a servo motor 60 that moves the projection lens 20 forward and backward in the optical axis direction, and the focus is controlled by the control means 48 so that the projection light is correctly focused on the screen 28 or the projection surface of the photosensitive drum 36.

制御手段48は第2図に示すように構成される。すなわ
ちクロック62が出力するクロックパルスに同期してC
ODドライバ64はラインセンサ56を駆動する。この
ラインセンサ56はその一走査毎に各画素の入射光量に
対応して電圧変化するパルス信号を出力する。このパル
ス信号は、各画素の特性のバラツキなどのために同じ光
量が投影されていても各画素毎に変動する。信号処理回
路66は各画素のこの特性のバラツキを補正し、かつ波
形整形して第5図Aの出力信号Vとする。
The control means 48 is constructed as shown in FIG. In other words, in synchronization with the clock pulse output by the clock 62, C
The OD driver 64 drives the line sensor 56. This line sensor 56 outputs a pulse signal whose voltage changes in accordance with the amount of light incident on each pixel for each scan. This pulse signal varies from pixel to pixel even if the same amount of light is projected due to variations in the characteristics of each pixel. The signal processing circuit 66 corrects this variation in the characteristics of each pixel and shapes the waveform to produce the output signal V shown in FIG. 5A.

このように信号処理された出力信号VはA/D変換器6
8でデジタル信号に変換され、入力インターフェース7
0を介してCPU72に入力される。 第2図で74は
CPU72の制御プログラム等を記憶するROM、76
はRAM、78は出力インターフェース、80および8
2はD/A変換器、84.86はそれぞれモータ58.
60を駆動するドライバである。
The output signal V processed in this way is sent to the A/D converter 6.
8 is converted into a digital signal, and the input interface 7
0 to the CPU 72. In FIG. 2, 74 is a ROM that stores control programs for the CPU 72, and 76
is RAM, 78 is output interface, 80 and 8
2 is a D/A converter, 84.86 is a motor 58.
This is a driver that drives 60.

次に本実施例の動作を説明する。制御手段48は、まず
ゾーン設定手段40で設定されたゾーンの位置aを読込
んで、このゾーンに対応する領域の投影光がラインセン
サ56に入射するようにサーボモータ58を制御する。
Next, the operation of this embodiment will be explained. The control means 48 first reads the position a of the zone set by the zone setting means 40, and controls the servo motor 58 so that the projected light of the area corresponding to this zone is incident on the line sensor 56.

使用者は反射鏡24を第1図実線位置においたリーダモ
ードを選択し、目標原画をスクリーン28に投影させる
(ステップ100)、この投影光の一部は半透鏡52に
よってラインセンサ56に導かれる。
The user selects the reader mode with the reflecting mirror 24 positioned at the solid line position in FIG. .

制御手段48は次にラインセンサ56の出力に基づいて
露光量測定を行う(ステップ102)。
The control means 48 then measures the exposure amount based on the output of the line sensor 56 (step 102).

すなわち信号処理回路66の出力信号Vはインターフェ
ース70を介してCPU72に読込まれ、CPU72で
露光量制御が行われる。露光量が適正でなければ(ステ
ップ104)光量を変更しくステップ106)、再度露
光量測定を行う、この露光量の調整は、例えばラインセ
ンサ56の各画素の出力信号のうち、バックグラウンド
領域に対応する画素の信号を選んでこれが所定値番手に
なるように光源12の光量を調整することにより行われ
る。
That is, the output signal V of the signal processing circuit 66 is read into the CPU 72 via the interface 70, and the exposure amount is controlled by the CPU 72. If the exposure amount is not appropriate (step 104) and the light amount is changed (step 106), the exposure amount is measured again. This adjustment of the exposure amount can be done, for example, by adjusting the background area of the output signal of each pixel of the line sensor 56. This is done by selecting the signal of the corresponding pixel and adjusting the light amount of the light source 12 so that the signal has a predetermined value.

次に制御手段48はラインセンサ56に入力された投影
光に画像が含まれるか否かを判断する(ステップ108
)、この判断は1例えば画像の白黒の反転回数が所定値
以上であるか否かにより行なわれ、所定値以上であれば
画像力りと判断する(ステップ110) 、画像無しと
判断した時には、制御手段48はブザーやランプなどの
警報を発しフォーカスゾーンの変更を要求する(ステッ
プ112)、使用者はスクリーン28を見ながらつまみ
44を操作し、投影像の画像が有る位置にマーク42が
重なるようにマーク42を移動する。
Next, the control means 48 determines whether or not the projection light input to the line sensor 56 includes an image (step 108
), this judgment is made based on whether or not the number of black and white inversions of the image is greater than or equal to a predetermined value, and if it is greater than or equal to the predetermined value, the image is judged to be weak (step 110). The control means 48 issues an alarm such as a buzzer or lamp to request a change in the focus zone (step 112).The user operates the knob 44 while looking at the screen 28, and the mark 42 overlaps the position where the projected image is located. Move the mark 42 as shown.

次に制御手段48はこのラインセンサ56の出力に基づ
いてオートフォーカス制御を行う。
Next, the control means 48 performs autofocus control based on the output of the line sensor 56.

CPU72はまずラインセンサ56の出力信号の長さを
示すLと、面積を示すSとのメモリをOに初期化した後
(ステップ114)、走査に追従してその出力信号電圧
Vを順次読込む(ステップ116)。CPU72は一走
査分の出力信号■をRAM76に記憶し、隣接する画素
の出力信号V。とV 。−1との差の絶対値りを求める
(ステップ118)。そしてこの絶対値りを前記りに加
算してこの加算結果を新たにLと置き換えて記憶する(
ステップ120)。
The CPU 72 first initializes the memory of L indicating the length of the output signal of the line sensor 56 and S indicating the area to O (step 114), and then sequentially reads the output signal voltage V following the scanning. (Step 116). The CPU 72 stores the output signal (2) for one scan in the RAM 76, and stores the output signal (V) of the adjacent pixel. and V. The absolute value of the difference from -1 is determined (step 118). Then, this absolute value is added to the above value, and this addition result is newly replaced with L and stored (
Step 120).

一方CPU72は一走査中の出力信号Vの最低レベルV
 @inを検出しくステップ122)、各画素の出力信
号vnとの差(Vn −Vain )に画素間隔に対応
する定数Δyを乗算して、この乗算値を出力信号と最低
レベルとで挟まれる部分の微小面v1】とする。すなわ
ち ス=Δ y × (vn  −vain  )とする(
ステップ124)。CPU72はこの微小面v1才を前
記Sに加算して、この加算結果を新たなSに置き換えて
記憶する(ステップ126)。CPU72はすでにステ
ップ116で記憶した出力信号■。を順次読出してステ
ップ118〜126の動作を繰り返す(ステップ128
)。この結果りは出力波形の全長を示し、またSは第4
図に斜線で示す面積を示すことになる。
On the other hand, the CPU 72 outputs the lowest level V of the output signal V during one scan.
To detect @in (step 122), the difference between the output signal vn of each pixel (Vn - Vain) is multiplied by a constant Δy corresponding to the pixel interval, and this multiplied value is calculated as the part sandwiched between the output signal and the lowest level. The microsurface v1 of In other words, S = Δ y × (vn − vain ) (
Step 124). The CPU 72 adds this microsurface v1 to the S, replaces this addition result with a new S, and stores it (step 126). The CPU 72 outputs the output signal ■ already stored in step 116. are sequentially read and the operations of steps 118 to 126 are repeated (step 128
). This result shows the total length of the output waveform, and S is the fourth
The area indicated by diagonal lines in the figure is shown.

CPU72はこれらり、Sを用いて次式で定義される複
雑度eを求め、RAM76に記憶する(ステップ130
)。
The CPU 72 calculates the complexity e defined by the following equation using S, and stores it in the RAM 76 (step 130
).

e=L2/5 CPU72は投影レンズ20を所定量ΔX移動させて前
記と同様の動作を繰り返しくステップ132)、複雑度
eが最大となる投影レンズ20の位置を求め(ステップ
134)、この位置を合焦位置とする(ステップ136
)。
e=L2/5 The CPU 72 moves the projection lens 20 by a predetermined amount ΔX and repeats the same operation as described above (step 132), finds the position of the projection lens 20 where the complexity e is maximum (step 134), and selects this position. is the in-focus position (step 136
).

この複雑度eの最大値を求める制御には種々のアルゴリ
ズムが可能である0例えば、複雑度eが増加する方向に
投影レンズ20を所定量Δχずつ移動し、この複雑度e
の増加率がOとなることから、複雑度eが最大となる投
影レンズ20の位置を検出する“山登り法”が用いられ
る。また合焦点を横断するように投影レンズ20を一度
移動させ、その時の複雑度eの変化特性曲線の半値幅か
ら合焦点を求めたり(半値幅法)、一度合範囲に亘って
投影レンズ20を移動させ、複雑度eが最大となる位置
を求めてもよい(全スキャン法)。
Various algorithms are possible for control to obtain the maximum value of this complexity e. For example, by moving the projection lens 20 by a predetermined amount Δχ in the direction in which the complexity e increases,
Since the rate of increase in e is O, a "hill-climbing method" is used to detect the position of the projection lens 20 where the complexity e is maximum. Alternatively, the projection lens 20 may be moved once across the focused point, and the focused point may be determined from the half-width of the characteristic curve of change in complexity e at that time (half-width method), or the projection lens 20 may be moved once across the focused range. It is also possible to move it and find the position where the complexity e is maximum (full scan method).

この合焦状態でプリンタモードにすれば(ステップ13
8)、反射鏡24が第1図仮想線位はに回動し、転写紙
38に画像が転写されてハードコピーが得られる。
If you switch to printer mode in this focused state (step 13)
8) The reflecting mirror 24 is rotated to the imaginary line position in FIG. 1, and the image is transferred to the transfer paper 38 to obtain a hard copy.

この実施例では、−走査中の出力信号Vの最誘レベルV
 Sinと出力信号とで挟まれる部分の面積を求めてい
る。しかし本発明は第5図に斜線で示すように、−走査
中の出力信号■の最高レベルv waxと出力信号とで
挟まれる部分の面積を用いてもよい。
In this embodiment, - the lowest level V of the output signal V during scanning
The area of the portion sandwiched between Sin and the output signal is calculated. However, the present invention may use the area of the portion sandwiched between the output signal and the highest level v wax of the output signal (d) during -scanning, as shown by diagonal lines in FIG.

なおイメージセンサはCCDラインセンサに限られるも
のではなく、MO3型ラインセンサ、あるいはエリアセ
ンサなどであってもよい。
Note that the image sensor is not limited to a CCD line sensor, but may be an MO3 type line sensor, an area sensor, or the like.

(発明の効果) 本発明は以上のように、イメージセンサの出力信号の一
走査中における全長の2乗を、出力信号の最低レベルま
たは最高レベルと出力波形で挟まれる部分の面積で割っ
て得られる複雑度を求め、この複雑度が最大となる投影
レンズの位置を合焦とするものでるから、画像に黒ベタ
の領域があってもその影響を受けることなく複雑度を算
出することができ、高精度な合焦判別が可能となる。
(Effects of the Invention) As described above, the present invention can be obtained by dividing the square of the total length of an image sensor output signal during one scan by the area of the portion sandwiched between the lowest level or highest level of the output signal and the output waveform. This method calculates the degree of complexity of the image and focuses on the position of the projection lens where this degree of complexity is maximum, so even if there is a solid black area in the image, the degree of complexity can be calculated without being affected by it. , enabling highly accurate focus determination.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例であるリーグプリンタの全体
概略図、第2図はそのオートフォーカス制御装置のブロ
ック図、第3図は動作の流れ図、第4図はその出力信号
と求める面積部分を示す図、第5図は他の実施例の出力
信号と求める面積部分を示す図である。 lO・・・原画、 20・・・投影レンズ、 56・・・ラインセンサ。 ■・・・出力信号、 VIIin・・・最低レベル、 V腸a×・・・最高レベル、 L・・・全長、 S・・・面積、 e・・・複雑度。 特許出願人 富士写真フィルム株式会社代 理 人 弁
理士 山 1)文 雄 第1図 1^ 第4図 第5図 手続補正書印鋤 昭和62年 1月20日 特許庁長官 黒 1)明 雄 殿 1、事件の表示 昭和61年特許願第280686号 2 発明の名称 オートフォーカス方法 3、補正をする者 事件との関係   特許出願人 住所 神奈川県南足柄市中沼210番地名称 (520
)富士写真フィルム株式会社代表者  大 西   賞 4、代理人 住 所  東京都港区西新橋1丁目6番21号6、補正
により増加する発明の数   07、補正の対象 8、補正の内容 (1)明細書第7頁第2行、 「第5図Aの出力信号」を 「第4図の出力信号」と補正する。 (以上:
Fig. 1 is an overall schematic diagram of a league printer that is an embodiment of the present invention, Fig. 2 is a block diagram of its autofocus control device, Fig. 3 is a flowchart of its operation, and Fig. 4 is its output signal and required area. FIG. 5 is a diagram showing the output signal and the area to be determined in another embodiment. lO... Original picture, 20... Projection lens, 56... Line sensor. ■...Output signal, VIIin...lowest level, V intestine ax...highest level, L...total length, S...area, e...complexity. Patent Applicant Fuji Photo Film Co., Ltd. Agent Patent Attorney Yama 1) Yu Akira Figure 1 Figure 1 ^ Figure 4 Figure 5 Procedural Amendment Form Stamp January 20, 1986 Commissioner of the Patent Office Kuro 1) Yu Akira 1. Indication of the case 1986 Patent Application No. 280686 2. Name of the invention Autofocus method 3. Person making the amendment Relationship to the case Patent applicant address 210 Nakanuma, Minamiashigara City, Kanagawa Prefecture Name (520)
) Fuji Photo Film Co., Ltd. Representative: Sho Ohnishi 4, Agent address: 6-21-1 Nishi-Shinbashi, Minato-ku, Tokyo Number of inventions increased by the amendment: 07, Subject of the amendment: 8, Contents of the amendment: (1) ) In the second line of page 7 of the specification, "output signal of Fig. 5A" is corrected to "output signal of Fig. 4". (that's all:

Claims (1)

【特許請求の範囲】 画像投影光をイメージセンサにより走査して得られるイ
メージセンサの出力信号を用いて、投影レンズを合焦位
置に制御するオートフォーカス方法において、 前記イメージセンサの一走査中における出力信号の全長
と、この出力信号の最低レベルまたは最高レベルと出力
信号とで挟まれる部分の面積とを求め、前記全長の2乗
を前記面積で割った商が最大となる投影レンズ位置を合
焦位置とすることを特徴とするオートフォーカス方法。
[Scope of Claims] An autofocus method in which a projection lens is controlled to a focus position using an output signal of an image sensor obtained by scanning image projection light with an image sensor, comprising: an output signal of the image sensor during one scan; Find the total length of the signal and the area of the part sandwiched between the lowest level or highest level of this output signal and the output signal, and focus on the projection lens position where the quotient of the square of the total length divided by the area is maximum. An autofocus method characterized by determining the position.
JP61280686A 1986-11-27 1986-11-27 Autofocus method Expired - Lifetime JPH0738045B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61280686A JPH0738045B2 (en) 1986-11-27 1986-11-27 Autofocus method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61280686A JPH0738045B2 (en) 1986-11-27 1986-11-27 Autofocus method

Publications (2)

Publication Number Publication Date
JPS63135910A true JPS63135910A (en) 1988-06-08
JPH0738045B2 JPH0738045B2 (en) 1995-04-26

Family

ID=17628525

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61280686A Expired - Lifetime JPH0738045B2 (en) 1986-11-27 1986-11-27 Autofocus method

Country Status (1)

Country Link
JP (1) JPH0738045B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0866353A2 (en) * 1997-03-18 1998-09-23 Seiko Epson Corporation Document reader and method for adjusting its focus
US6608705B1 (en) 1997-10-21 2003-08-19 Seiko Epson Corporation Image reading device and focus adjustment method thereof

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0866353A2 (en) * 1997-03-18 1998-09-23 Seiko Epson Corporation Document reader and method for adjusting its focus
EP0866353A3 (en) * 1997-03-18 1998-12-09 Seiko Epson Corporation Document reader and method for adjusting its focus
US6175429B1 (en) 1997-03-18 2001-01-16 Seiko Epson Corporation Document reader and method for adjusting its focus
US6608705B1 (en) 1997-10-21 2003-08-19 Seiko Epson Corporation Image reading device and focus adjustment method thereof

Also Published As

Publication number Publication date
JPH0738045B2 (en) 1995-04-26

Similar Documents

Publication Publication Date Title
JPS62284314A (en) Auto focusing method
JPS63135910A (en) Auto focusing method
JPH0642011B2 (en) Autofocus method
JP2540030B2 (en) Autofocus method
JPS6370813A (en) Automatic focusing method
JPS62283308A (en) Automatic focusing method
JPS6325609A (en) Auto-focusing method
JPH0642013B2 (en) Autofocus method
JPH0642009B2 (en) Autofocus method
JPS62283307A (en) Automatic focusing method
JPS63135909A (en) Auto focusing method
JPS6370816A (en) Automatic focusing method
JPH0782145B2 (en) Auto focus device
JPS6370815A (en) Automatic focusing method
JPH06100712B2 (en) Autofocus method
JPH0713696B2 (en) Image detection method
JPH0746199B2 (en) Autofocus method for microfilm reader printer
JPS62283323A (en) Control method for automatic focusing
JPH0192710A (en) Image detecting method
JPS63216015A (en) Automatic focusing method
JPH0746200B2 (en) Micro film reader printer auto focus method
JPS62291610A (en) Auto-focusing method
JPH01182815A (en) Image detection
JPH01120517A (en) Image detecting method
JPH0675133B2 (en) Image detection method