JPH04195110A - Automatic focusing device - Google Patents

Automatic focusing device

Info

Publication number
JPH04195110A
JPH04195110A JP33146290A JP33146290A JPH04195110A JP H04195110 A JPH04195110 A JP H04195110A JP 33146290 A JP33146290 A JP 33146290A JP 33146290 A JP33146290 A JP 33146290A JP H04195110 A JPH04195110 A JP H04195110A
Authority
JP
Japan
Prior art keywords
value
image
differential value
calculates
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP33146290A
Other languages
Japanese (ja)
Inventor
Akira Sasakura
朗 笹倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP33146290A priority Critical patent/JPH04195110A/en
Publication of JPH04195110A publication Critical patent/JPH04195110A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To obtain high-accurate automatic focusing without increasing the number of searching lines by providing a movement control means which moves an observing surface to a position where the focusing is attained. CONSTITUTION:An image pickup means 11, a storage means 20 which stores the brightness data of an objective image, which is picked up, by a picture element unit and a movable means 14 where the observing surface is fitted and which can be moved in a direction perpendicular to the observing surface are provided. Besides, the movement control means 22 which calculates the differential value of the brightness data of the picture elements which are closely brought into contact with each other, calculates difference quantity between the maximum value and the minimum value of the differential value and moves the movable means 14 to the position where the focusing is attained based on the difference quantity at the same time is provided. Thus, the effect of noise from the outside and the inside of a camera is reduced without increasing the searching lines and the high-accurate automatic focusing is obtained.

Description

【発明の詳細な説明】 [産業上の利用分野] 光学機器のオートフォーカス装置に関する。[Detailed description of the invention] [Industrial application field] The present invention relates to an autofocus device for optical equipment.

[従来の技術] 従来のオートフォーカス装置では、オートフォーカスの
方法として、対象物からの反射光を利用して距離の測定
を行う方法や、光学系を介して得られる対象物の画像の
輝度情報を利用して画像自体のボケ具合を認識する方法
等が広く用いられている。
[Prior Art] Conventional autofocus devices employ a method of measuring distance using reflected light from an object, or a method of measuring the distance using reflected light from an object, or a method of measuring brightness of an image of the object obtained through an optical system. A method of recognizing the degree of blur in an image itself using the method is widely used.

後者の輝度情報を利用する方法では、カメラによる画像
の輝度のヒストグラム分布や、微分値を用いるものが一
般に知られている。この微分値を用いる方法では、CC
D (チャージカップルドデバイス)カメラから取り込
んだ画像上に設けた探索線上の画素と、この画素に近接
している画素との輝度差(微分値)の絶対値を順次求め
、その値の探索線上での最大値を合焦度を表す合焦度パ
ラメータとしている。
As the latter method of using luminance information, a method using a histogram distribution of luminance of an image taken by a camera or a differential value is generally known. In the method using this differential value, CC
D (Charge coupled device) Sequentially find the absolute value of the brightness difference (differential value) between a pixel on the search line set on the image captured from the camera and the pixels adjacent to this pixel, and then calculate the value on the search line. The maximum value at is taken as a focus degree parameter representing the focus degree.

この合焦度パラメータは、画像が合焦像に近付くと共に
増大し、合焦点を通過した後は減少し、合焦点を頂点と
する山型に変化するため、いわゆる山登り法を用いるこ
とによってオートフォーカスが可能となる。
This focus degree parameter increases as the image approaches the in-focus image, decreases after passing through the in-focus point, and changes into a mountain shape with the in-focus point as the apex. Therefore, autofocusing using the so-called hill climbing method becomes possible.

又、上述の合焦度パラメータとしては、探索線上の輝度
差の最大値の絶対値を用いるものの他、探索線上の輝度
差の最小値の絶対値を用いるものもある。
Further, as the above-mentioned focusing degree parameter, in addition to the one that uses the absolute value of the maximum value of the brightness difference on the search line, there is also one that uses the absolute value of the minimum value of the brightness difference on the search line.

[発明が解決しようとする課題] このような上述の従来のオートフォーカス装置では、C
CDカメラを用いて画像を得る場合に、カメラの外部及
び内部からのノイズによって、画像上に実際とは異なる
輝度をもつ画素が生じるという問題点がある。
[Problems to be Solved by the Invention] In the above-mentioned conventional autofocus device, C.
When an image is obtained using a CD camera, there is a problem in that noise from outside and inside the camera causes pixels on the image to have brightness different from the actual brightness.

即ち、この画素の輝度が極度に高い場合、或いは低い場
合には、上述の合焦度パラメータが本来の合焦点におけ
る合焦度パラメータより大きな値を示すことがあり、合
焦点以外の点を合焦点とみなしてしまうことになる。
In other words, if the brightness of this pixel is extremely high or low, the above-mentioned focus degree parameter may show a larger value than the focus degree parameter at the original focus point, and it is difficult to focus on a point other than the focus point. It will be seen as a focal point.

この解決策として探索線の数を増やし、各探索線上の合
焦度パラメータの最大値を平均することによってノイズ
の影響を減少させる方法が採られるが、処理時間が大幅
に増大してしまう欠点がある。
As a solution to this problem, a method is adopted to reduce the influence of noise by increasing the number of search lines and averaging the maximum value of the focus degree parameter on each search line, but this method has the disadvantage of significantly increasing processing time. be.

従って、本発明は探索線の数を増やすことなくノイズの
影響を減少させ、精度の高いオートフォーカスが得られ
るオートフォーカス装置を提供することにある。
Therefore, an object of the present invention is to provide an autofocus device that can reduce the influence of noise without increasing the number of search lines, and can obtain highly accurate autofocus.

[課題を解決するための手段] 観察面上の対象を撮像する撮像手段と、撮像手段によっ
て撮像された対象像の輝度データを画素単位で記憶する
記憶手段と、観察面が取り付けられておりこの観察面と
垂直な方向に移動可能な移動可能手段と、近接する画素
の輝度データの微分値を算出しこの微分値の最大値と最
小値との差分量を算出すると共にこの差分量に基づいて
移動可能手段を焦点の合う位置まで移動させる移動制御
手段とを備えている。
[Means for solving the problem] The observation surface is attached to an imaging means for imaging an object on the observation surface, a storage means for storing luminance data of the object image captured by the imaging means in pixel units, and an observation surface. A movable means that can be moved in a direction perpendicular to the observation plane, calculates the differential value of the luminance data of adjacent pixels, calculates the difference between the maximum value and the minimum value of this differential value, and calculates the difference between the maximum value and the minimum value of this differential value, and based on this difference and movement control means for moving the movable means to a focused position.

[作用コ 観察面上の対象の像が撮像手段によって撮像され、対象
像の輝度データが記憶手段に画素単位で記憶される。移
動制御手段によって近接する画素の輝度データの微分値
が算出され、更にこの微分値の最大値と最小値との差分
量が算出され、算出された差分量に基づいて焦点の合う
位置まで移動可能手段が移動すると共に、観察面が移動
する。
[Operation: The image of the object on the observation surface is captured by the imaging means, and the luminance data of the object image is stored in the storage means pixel by pixel. The movement control means calculates the differential value of the luminance data of adjacent pixels, and further calculates the difference between the maximum value and the minimum value of this differential value, and it is possible to move to the in-focus position based on the calculated difference. As the means moves, the viewing surface moves.

従って、探索線の数を増やすことなくノイズの影響を減
少させ、精度の高いオートフォーカスを得ることができ
る。
Therefore, the influence of noise can be reduced without increasing the number of search lines, and highly accurate autofocus can be obtained.

[実施例] 以下、図面を参照して本発明の詳細な説明する。[Example] Hereinafter, the present invention will be described in detail with reference to the drawings.

この実施例は本発明に係るオートフォーカス装置を顕微
鏡に用いた例である。
This embodiment is an example in which an autofocus device according to the present invention is used in a microscope.

第1図は本発明に係るオートフォーカス装置の要部構成
図である。
FIG. 1 is a block diagram of the main parts of an autofocus device according to the present invention.

同図に示すように、この実施例のオートフォーカス装置
には、CCDCCカメラ、鏡筒I2、接眼レンズ13、
Z軸ステージ14、昇降用ハンドル15、駆動軸16、
パルスモータ17、対象物18、A/D変換回路19、
画像メモリ20、駆動回路2I及び処理デバイス22が
備えられている。
As shown in the figure, the autofocus device of this embodiment includes a CCDC camera, a lens barrel I2, an eyepiece 13,
Z-axis stage 14, lifting handle 15, drive shaft 16,
pulse motor 17, object 18, A/D conversion circuit 19,
An image memory 20, a drive circuit 2I, and a processing device 22 are provided.

オートフォーカスのために用いられるCCDカメラ11
は、鏡筒12を介して2軸ステージI4及び対象物18
の上方に配置されており、A/D変換回路19を介して
画像メモリ2Gに接続されている。又、CCDカメラ1
1は対象物18の合焦像が接眼レンズ13により得られ
たときに、これと同様の合焦像がCCDカメラ11のレ
ンズ上に結像するように鏡筒I2に固定されている。
CCD camera 11 used for autofocus
is the two-axis stage I4 and the object 18 via the lens barrel 12.
It is arranged above the image memory 2G and connected to the image memory 2G via the A/D conversion circuit 19. Also, CCD camera 1
1 is fixed to the lens barrel I2 so that when a focused image of the object 18 is obtained by the eyepiece 13, a similar focused image is formed on the lens of the CCD camera 11.

鏡筒12の側部には、接眼レンズ13が取り付けられて
いる。
An eyepiece lens 13 is attached to the side of the lens barrel 12.

Z軸ステージ14の上部には対象物18が載置されてお
り、2紬ステージ14の側部には昇降用ハンドルI5が
取り付けられている。
An object 18 is placed on the top of the Z-axis stage 14, and a lifting handle I5 is attached to the side of the two-pongee stage 14.

昇降用ハンドルI5は駆動軸16を介してパルスモータ
I7に接続されており、パルスモータ17は駆動回路2
1に接続されている。
The lifting handle I5 is connected to a pulse motor I7 via a drive shaft 16, and the pulse motor 17 is connected to a drive circuit 2.
Connected to 1.

2軸ステージ14はパルスモータ17の駆動により、図
示2方向に移動可能なように構成されている。
The two-axis stage 14 is configured to be movable in two directions shown in the figure by driving a pulse motor 17.

画像メモリ20及び駆動回路21は、処理デバイス22
に接続されている。
The image memory 20 and the drive circuit 21 are connected to the processing device 22
It is connected to the.

CCDカメラ11、鏡筒12及び接眼レンズ13は本発
明の撮像手段の一実施例である。画像メモリ20は本発
明の記憶手段の一実施例である。Z軸ステージ14は本
発明の移動可能手段の一実施例である。
The CCD camera 11, lens barrel 12, and eyepiece lens 13 are one embodiment of the imaging means of the present invention. Image memory 20 is one embodiment of the storage means of the present invention. Z-axis stage 14 is one embodiment of the movable means of the present invention.

パルスモータ17、駆動回路21及び処理デバイス22
本発明の移動制御手段の一実施例である。
Pulse motor 17, drive circuit 21 and processing device 22
This is an embodiment of the movement control means of the present invention.

第2図(A)は第1図のオートフォーカス装置の画像メ
モリ20の探索線20cの構成を示す説明図、及び第2
図(B)は第2図(^)の要部拡大図である。
FIG. 2(A) is an explanatory diagram showing the configuration of the search line 20c of the image memory 20 of the autofocus device of FIG.
Figure (B) is an enlarged view of the main part of Figure 2 (^).

第2図(A) に示すように、画像メモリ20には縦方
向及び横方向に沿って複数の走査線20a及び20bが
それぞれ設けられており、第2図(B)に示すように、
これらの走査線20a及び20bによって構成されてい
る一区画から画素単位が形成されている。
As shown in FIG. 2(A), the image memory 20 is provided with a plurality of scanning lines 20a and 20b along the vertical and horizontal directions, and as shown in FIG. 2(B),
A pixel unit is formed from one section constituted by these scanning lines 20a and 20b.

探索線20cは横方向の任意の隣接する走査線203を
割り当てることによって構成されている。
The search line 20c is constructed by assigning arbitrary adjacent scanning lines 203 in the horizontal direction.

尚、探索線20cは縦方向の任意の隣接する走査線20
bを割り当てることによって構成するようにしてもよい
。又、探索線20cの数は複数でもよい。
Note that the search line 20c is any vertically adjacent scanning line 20.
It may be configured by assigning b. Further, the number of search lines 20c may be plural.

第3図は第1図のオートフォーカス装置の処理デバイス
22の構成図である。
FIG. 3 is a block diagram of the processing device 22 of the autofocus device of FIG. 1.

同図に示すように、処理デバイス22は算術論理演算部
(ALU) 22a 、ランダムアクセスメモリ(RA
M) 22b 、中央演算処理部(CPU)22c及び
ランダムオンリメモリ(ROM)22dから構成されて
いる。
As shown in the figure, the processing device 22 includes an arithmetic logic unit (ALU) 22a and a random access memory (RA).
M) 22b, a central processing unit (CPU) 22c, and a random only memory (ROM) 22d.

処理デバイス22は画像メモリ20から送出される後述
する輝度データを基に、駆動回路21を介してパルスモ
ータ17の駆動を制御するように構成されている。
The processing device 22 is configured to control the drive of the pulse motor 17 via the drive circuit 21 based on luminance data sent from the image memory 20 and described later.

ROM22dには、この制御を行うための制御プログラ
ムが記憶されている。
A control program for performing this control is stored in the ROM 22d.

次に、上述の実施例の動作を説明する。Next, the operation of the above embodiment will be explained.

2軸ステ一ジ14上部に対象物18が載置された状態で
、CCDカメラ11よって対象物18の画像が撮像され
、この画像データが電気信号に変換され、更にA/D変
換回路19によってA/D変換され、画像メモリ20の
各画素に輝度データとして一旦格納される。
With the object 18 placed on the top of the two-axis stage 14, an image of the object 18 is captured by the CCD camera 11, and this image data is converted into an electrical signal, and further converted by the A/D conversion circuit 19. It is A/D converted and temporarily stored in each pixel of the image memory 20 as luminance data.

輝度データが画像メモリ20の各画素に格納されると、
画像メモリ20では所定の探索線2Oc上の画素の輝度
データが走査され、各画素の輝度データは処理デバイス
22のCPU22cへ送出される。
When the brightness data is stored in each pixel of the image memory 20,
The image memory 20 scans the brightness data of pixels on a predetermined search line 2Oc, and the brightness data of each pixel is sent to the CPU 22c of the processing device 22.

第4図はROM22dに記憶されている制御プログラム
の一部を概略的に表すフローチャートである。
FIG. 4 is a flowchart schematically showing a part of the control program stored in the ROM 22d.

同図のフローチャートに示すように、上述の実施例にお
けるオートフォーカスの制御は、以下の如く行われる。
As shown in the flowchart of the figure, autofocus control in the above embodiment is performed as follows.

まずステップSlにおいて、画像メモリ20から各画素
の輝度データがCPU22cへ入力される。
First, in step Sl, luminance data of each pixel is input from the image memory 20 to the CPU 22c.

次いで、ステップS2において、CPU22cがALU
22a及びRAM22bを制御することによって、画像
メモリ20の探索線2Oc上の画素について、その画素
と近接している画素との輝度差(微分値)が順次求めら
れる。探索線2Oc上のすべての画素について輝度差が
求められた後、輝度差の最大値及び最小値が求められ、
これら最大値と最小値との差(合焦度パラメータ)が求
められる。即ち、ステップS2では、合焦度パラメータ
が算出される。
Next, in step S2, the CPU 22c
By controlling 22a and RAM 22b, the luminance difference (differential value) between the pixel on the search line 2Oc of the image memory 20 and a neighboring pixel is sequentially determined. After the brightness differences are determined for all pixels on the search line 2Oc, the maximum and minimum values of the brightness differences are determined,
The difference between these maximum and minimum values (focus degree parameter) is determined. That is, in step S2, a focus degree parameter is calculated.

次いで、ステップS3において、このように算出された
合焦度パラメータは、この状態における2軸ステージI
4の図示2方向の位置データと共に処理デバイス22の
RAM22bに記憶される。
Next, in step S3, the focus degree parameter calculated in this way is applied to the two-axis stage I in this state.
4 is stored in the RAM 22b of the processing device 22 along with the position data in the two directions shown in the figure.

次いで、ステップS4において、CPU22eによる駆
動回路21への指令によってパルスモータ17が駆動し
、Z軸ステージ14の位置を所定の距離だけ図示2方向
へ移動させる。
Next, in step S4, the pulse motor 17 is driven by a command to the drive circuit 21 from the CPU 22e, and the position of the Z-axis stage 14 is moved by a predetermined distance in the two directions shown in the figure.

上述の処理動作、即ち、画像メモリ20からの各画素の
輝度データのCPU22cへの入力(ステップSl) 
、合焦度パラメータの算出(ステップ32)、合焦度パ
ラメータ及びZ軸ステージ14の位置の記憶(ステップ
S3)、並びにZ軸ステージ14の所定距離の移動(ス
テップ54)の動作は、ステップS5において、合焦度
パラメータの増加が続いた後に減少することが判断され
るまで繰り返される。
The above processing operation, that is, inputting the luminance data of each pixel from the image memory 20 to the CPU 22c (step Sl)
, calculating the focus degree parameter (step 32), storing the focus degree parameter and the position of the Z-axis stage 14 (step S3), and moving the Z-axis stage 14 a predetermined distance (step 54) are performed in step S5. is repeated until it is determined that the focus degree parameter continues to increase and then decreases.

ステップS5において、合焦度パラメータが続いて増加
した後に減少することが判断されると、次のステップS
6において、RAM22bに記憶されている合焦度パラ
メータの最大値が検索され、合焦度パラメータが最大値
のときに対応するZ軸ステージ14の位置が検出される
If it is determined in step S5 that the focus degree parameter increases and then decreases, the next step S
In step 6, the maximum value of the focus degree parameter stored in the RAM 22b is searched, and the position of the Z-axis stage 14 corresponding to when the focus degree parameter is the maximum value is detected.

合焦度パラメータが最大値をとるときの2軸ステージ1
4の位置が合焦位置であるため、次のステップS7にお
いて、その位置までパルスモータ17を駆動させてZ軸
ステージ14を移動させる。
2-axis stage 1 when the focus parameter takes the maximum value
Since the position No. 4 is the focus position, in the next step S7, the pulse motor 17 is driven to move the Z-axis stage 14 to that position.

従って、上述の実施例によれば、ノイズによる急激な輝
度差の変化の影響を受けないため、探索線の数を増やす
ことなくノイズの影響を減少させ、精度の高いオートフ
ォーカスが得ることができる。
Therefore, according to the above embodiment, since it is not affected by sudden changes in brightness difference due to noise, the influence of noise can be reduced without increasing the number of search lines, and highly accurate autofocus can be obtained. .

又、画像メモリ20の探索線の数を増やさないため、探
索線の数を増やした場合に生じる処理時間の増加の問題
を伴わずにノイズの影響を軽減でき、従来の輝度差の最
大値、或いは最小値の絶対値のみを用いる場合よりも、
精度の高いオートフォーカスを行うことが可能となると
共に、自動化の信頼性を高めることができる。
In addition, since the number of search lines in the image memory 20 is not increased, the influence of noise can be reduced without the problem of increased processing time that would occur when the number of search lines is increased, and the maximum value of the brightness difference Or, rather than using only the absolute value of the minimum value,
It becomes possible to perform highly accurate autofocus and improve the reliability of automation.

尚、ステップS2において輝度差を求める際の探索線2
Oc上の画素については、互いに一定の間隔を保った画
素を選ぶように構成してもよいし、又、互いに隣接する
画素を選ぶ構成としてもよい。このような輝度差を求め
る画素の組合せの選択は、実際にフォーカスを行い、良
好な結果が得られる画素の組合せを選ぶことにより可能
である。
Note that the search line 2 when calculating the brightness difference in step S2
The pixels on Oc may be configured to select pixels that are spaced apart from each other at a constant interval, or may be configured to select pixels that are adjacent to each other. Selection of a pixel combination for obtaining such a brightness difference is possible by actually performing focusing and selecting a pixel combination that yields a good result.

又、ステップS4において、Z軸ステージ14が所定の
距離だけ図示2方向へ移動した際に、移動した距離によ
りZ軸ステージ14の移動方向が、例えばデフォーカス
方向となるような場合には合焦度パラメータは減少する
ため、誤方向へ移動していることが処理デバイス22に
よって認識され得る。
Further, in step S4, when the Z-axis stage 14 moves by a predetermined distance in the two directions shown in the figure, if the moving direction of the Z-axis stage 14 becomes, for example, a defocus direction due to the moved distance, the in-focus Since the degree parameter decreases, it may be recognized by the processing device 22 that it is moving in the wrong direction.

従って、このような場合に2軸ステージ14の移動方向
が反対の方向となるようにパルスモータ17を駆動させ
るように、即ち微調整を施すように構成してもよい。
Therefore, in such a case, the pulse motor 17 may be driven so that the two-axis stage 14 moves in the opposite direction, that is, fine adjustment may be made.

更に、ステップS4においてZ軸ステージ14の位置を
移動させる所定の距離は、CODカメラ11のレンズや
、上述のように一定の方向へ移動しているにもかかわら
ず、その移動方向がフォーカス方向からデフォーカス方
向へなること等を考慮して、選択することが可能である
Furthermore, the predetermined distance by which the position of the Z-axis stage 14 is moved in step S4 is determined by the lens of the COD camera 11 and the direction of movement from the focus direction, even though the position is moved in a fixed direction as described above. It is possible to make a selection taking into account the fact that it will be in the defocus direction.

[発明の効果] 以上説明したように本発明は、観察面上の対象を撮像す
る撮像手段と、撮像手段によって撮像された対象像の輝
度データを画素単位で記憶する記憶手段と、観察面が取
り付けられておりこの観察面と垂直な方向に移動可能な
移動可能手段と、近接する画素の輝度データの微分値を
算出しこの微分値の最大値と最小値との差分量を算出す
ると共にこの差分量に基づいて移動可能手段を焦点の合
う位置まで移動させる移動制御手段とを備えているので
、従って、探索線の数を増やすことなくノイズの影響を
減少させ、精度の高いオートフォーカスを得ることがで
きる。
[Effects of the Invention] As explained above, the present invention includes an imaging means for imaging an object on an observation surface, a storage means for storing luminance data of the object image captured by the imaging means in pixel units, and an imaging means for capturing an image of an object on an observation surface. A movable means that is attached and movable in a direction perpendicular to this observation plane calculates the differential value of the luminance data of adjacent pixels, calculates the difference between the maximum value and the minimum value of this differential value, and calculates the difference between the maximum value and the minimum value of this differential value. and a movement control means for moving the movable means to an in-focus position based on the amount of difference, thus reducing the influence of noise and obtaining highly accurate autofocus without increasing the number of search lines. be able to.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明に係るオートフォーカス装置の要部構成
図、第2図(A)は第1図のオートフォーカス装置の画
像メモリの探索線の構成を示す説明図、第2図(B)は
第2図(A)の要部拡大図、第3図は第1図のオートフ
ォーカス装置の処理デバイスの構成図、第4図はROM
に記憶されている制御プログラムの一部を概略的に表す
フローチャートである。 11・・・・・・CCDカメラ、12・・・・・・鏡筒
、13・・・・・・接眼レンズ、14・・・・・・Z軸
ステージ、15・・・・・・昇降用ハンドル、16・・
・・・・駆動軸、17・・・・・・パルスモータ、18
・・・・・・対象物、19・・・・・・A/D変換回路
、20・・・・・・画像メモリ、21・・・・・・駆動
回路、22・・・・・・処理デバイス、22a −−−
−−−A L U、 22b−・・−RAM、 22c
m・・−CP U。 22d ・・−−−−ROM0 躊 1 図 第4図
FIG. 1 is a configuration diagram of main parts of an autofocus device according to the present invention, FIG. 2(A) is an explanatory diagram showing the configuration of a search line of an image memory of the autofocus device of FIG. 1, and FIG. 2(B) is an enlarged view of the main part of Fig. 2 (A), Fig. 3 is a configuration diagram of the processing device of the autofocus device of Fig. 1, and Fig. 4 is a ROM
2 is a flowchart schematically representing a part of a control program stored in the computer. 11...CCD camera, 12...lens barrel, 13...eyepiece, 14...Z-axis stage, 15...for lifting Handle, 16...
... Drive shaft, 17 ... Pulse motor, 18
...Object, 19...A/D conversion circuit, 20...Image memory, 21...Drive circuit, 22...Processing Device, 22a ---
---ALU, 22b--RAM, 22c
m...-CPU. 22d...---ROM0 Hesitation 1 Figure 4

Claims (1)

【特許請求の範囲】[Claims] 観察面上の対象を撮像する撮像手段と、該撮像手段によ
って撮像された前記対象像の輝度データを画素単位で記
憶する記憶手段と、前記観察面が取り付けられており該
観察面と垂直な方向に移動可能な移動可能手段と、近接
する画素の前記輝度データの微分値を算出し該微分値の
最大値と最小値との差分量を算出すると共に該差分量に
基づいて前記移動可能手段を焦点の合う位置まで移動さ
せる移動制御手段とを備えたことを特徴とするオートフ
ォーカス装置。
an imaging means for capturing an image of an object on an observation surface; a storage means for storing luminance data of the object image captured by the imaging means in pixel units; and a direction perpendicular to the observation surface to which the observation surface is attached. a movable means that is movable to a pixel; and a movable means that calculates a differential value of the luminance data of adjacent pixels, calculates a difference between a maximum value and a minimum value of the differential value, and moves the movable means based on the differential value. An autofocus device comprising a movement control means for moving the device to a focused position.
JP33146290A 1990-11-28 1990-11-28 Automatic focusing device Pending JPH04195110A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33146290A JPH04195110A (en) 1990-11-28 1990-11-28 Automatic focusing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33146290A JPH04195110A (en) 1990-11-28 1990-11-28 Automatic focusing device

Publications (1)

Publication Number Publication Date
JPH04195110A true JPH04195110A (en) 1992-07-15

Family

ID=18243916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33146290A Pending JPH04195110A (en) 1990-11-28 1990-11-28 Automatic focusing device

Country Status (1)

Country Link
JP (1) JPH04195110A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007138856A1 (en) * 2006-05-31 2007-12-06 Sharp Kabushiki Kaisha Stepping motor drive control method, lens drive control device, and lens drive control method
JP2009258690A (en) * 2008-03-25 2009-11-05 Kyocera Corp Electronic apparatus having autofocus camera function

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007138856A1 (en) * 2006-05-31 2007-12-06 Sharp Kabushiki Kaisha Stepping motor drive control method, lens drive control device, and lens drive control method
JPWO2007138856A1 (en) * 2006-05-31 2009-10-01 シャープ株式会社 Stepping motor drive control method, lens drive control device, and lens drive control method
JP2009258690A (en) * 2008-03-25 2009-11-05 Kyocera Corp Electronic apparatus having autofocus camera function

Similar Documents

Publication Publication Date Title
US5877809A (en) Method of automatic object detection in image
US8605942B2 (en) Subject tracking apparatus, imaging apparatus and subject tracking method
CN1977526B (en) Image capture method and image capture device
US5867217A (en) Photographing apparatus and lens position control device
JP4578334B2 (en) In-focus position determining apparatus and method for imaging lens
WO2015137635A1 (en) Image pickup apparatus and method for generating image having depth information
JPS6398615A (en) Automatic focus adjusting method
CN101098407A (en) Auto-focus apparatus, image capture apparatus, and auto-focus method
JP7284574B2 (en) Observation device, control method, and program
CN105744149A (en) Zoom control device, imaging apparatus, control method of zoom control device
US20040223073A1 (en) Focal length detecting method and focusing device
US9667853B2 (en) Image-capturing apparatus
JP2007003656A (en) Apparatus for determining focal position of imaging lens and method thereof
US5615398A (en) Optical apparatus with image area sensors for controlling lens focal length
JP2008298943A (en) Focal point control device and imaging device
CN105530429B (en) A kind of autofocus and system
TW200527907A (en) Autofocus control method, autofocus controller, and image processor
CN100378487C (en) Autofocus control method, autofocus controller, and image processor
JP2019168479A (en) Controller, imaging device, method for control, program, and, and storage medium
CN108540693A (en) Image capture apparatus and image capturing unit
JP2006145793A (en) Microscopic image pickup system
JP4573789B2 (en) Subject tracking system
JPH04195110A (en) Automatic focusing device
JP2012018013A (en) Ranging device and imaging apparatus
JPH05211625A (en) Image pickup device