JPH0473564B2 - - Google Patents

Info

Publication number
JPH0473564B2
JPH0473564B2 JP57147223A JP14722382A JPH0473564B2 JP H0473564 B2 JPH0473564 B2 JP H0473564B2 JP 57147223 A JP57147223 A JP 57147223A JP 14722382 A JP14722382 A JP 14722382A JP H0473564 B2 JPH0473564 B2 JP H0473564B2
Authority
JP
Japan
Prior art keywords
focus
image
picture element
sub
laplacian
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP57147223A
Other languages
Japanese (ja)
Other versions
JPS5936203A (en
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed filed Critical
Priority to JP57147223A priority Critical patent/JPS5936203A/en
Publication of JPS5936203A publication Critical patent/JPS5936203A/en
Publication of JPH0473564B2 publication Critical patent/JPH0473564B2/ja
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals

Description

【発明の詳細な説明】 産業上の利用分野 例えば撮像素子として固体撮像素子や撮像管を
用いたムービーカメラやスチルカメラ、あるいは
一眼レフカメラにおいて希望の被写体に自動的に
焦点を結ぶようにするオートフオーカス装置が知
られている。
[Detailed description of the invention] Industrial fields of use For example, in movie cameras, still cameras, or single-lens reflex cameras that use a solid-state image sensor or image pickup tube as an image sensor, an auto camera that automatically focuses on a desired subject is used. Focus devices are known.

この発明は、例えばこのようなオートフオーカ
ス装置において、ピント検出のための画像の鮮明
度の評価値を求める場合に用いて好適な画像処理
装置に関する。
The present invention relates to an image processing device suitable for use in obtaining an evaluation value of the sharpness of an image for focus detection in, for example, such an autofocus device.

背景技術とその問題点 この種のオートフオーカス装置としては、超音
波、赤外線の照射による三角測量方式等のアクテ
イブ方式やコントラスト検出、一致像検出等によ
るパツシブ方式等がある。そして、そのうちのパ
ツシブ方式でコントラスト検出方式のオートフオ
ーカス装置の一例として次のようなものが知られ
ている。
BACKGROUND TECHNOLOGY AND PROBLEMS This type of autofocus device includes an active method such as a triangulation method using ultrasonic waves and infrared rays, and a passive method using contrast detection, coincident image detection, etc. Among these, the following is known as an example of a passive contrast detection autofocus device.

第1図はその概要を示すもので、これはTTL
方式の一眼レフカメラに使用されているものであ
る。
Figure 1 shows the overview, and this is TTL
This is the type used in single-lens reflex cameras.

第1図において、レンズ1を通つた光はサブミ
ラー2に入射し、その透過光はフイルム面3に入
射する。一方、サブミラー2で反射された光はビ
ームスプリツター4に入射する。このビームスプ
リツター4に対し本来のフイルム面(図中、5は
その等価フイルム面である)に相当するピント位
置の前後にわずかずれた2ケ所の位置に、それぞ
れ1列ずつの絵素(センサー)が1次元配列の固
体撮像素子例えばCCDからなる副撮像素子S1
副撮像素子S2とが設けられる。図中、破線6,7
で示すのはフイルム面3に対する副撮像素子S1
S2の等価位置で、フイルム面3に対して、その前
後に等距離lだけ離れた位置関係となつている。
In FIG. 1, light passing through a lens 1 is incident on a sub-mirror 2, and the transmitted light is incident on a film surface 3. On the other hand, the light reflected by the sub-mirror 2 enters the beam splitter 4. For this beam splitter 4, one row of picture elements (sensor ) are provided with a sub-imaging device S 1 and a sub-imaging device S 2 each consisting of a one-dimensional array of solid-state imaging devices, such as CCDs. In the figure, broken lines 6 and 7
The sub image sensor S 1 for the film surface 3 is shown by
At the equivalent position of S 2 , they are spaced an equal distance l from the front and back of the film surface 3 .

なお、サブミラー2とレンズ1との間には、図
示しないがメインミラーがサブミラー2の面方向
に対して直交するように設けられ、入射光が、サ
ブミラー2に対して副撮像素子S1,S2とは、反対
側に設けられるピント板に入射するようにされて
いる。
Although not shown, a main mirror is provided between the sub-mirror 2 and the lens 1 so as to be perpendicular to the surface direction of the sub-mirror 2, and incident light is directed to the sub-mirror 2 from the sub-imaging elements S 1 and S. 2 , the light is made to enter the focusing plate provided on the opposite side.

ところで、ピントが合つたかどうかは画像が鮮
明であるかどうかということで評価できる。画像
が鮮明であるかどうかは画像の空間周波数を求
め、振幅に対するMTF(変調伝達関数)を評価す
れば求まることは周知の通りであるが、カメラに
内蔵可能な程小型で、かつ、高速処理ができ、安
価であるという条件を考えると、実際上は難し
い。
By the way, whether or not the image is in focus can be evaluated by whether or not the image is clear. It is well known that whether or not an image is clear can be determined by determining the spatial frequency of the image and evaluating the MTF (modulation transfer function) with respect to the amplitude. Considering the conditions that it can be done and is inexpensive, it is difficult in practice.

一方、一般に、画像が鮮明であるかどうかは被
写体の輪郭がシヤープかどうかということで判断
できることが多い。
On the other hand, in general, whether an image is clear or not can often be determined by whether the outline of the subject is sharp.

この輪郭情報は微分により得られるが計算機処
理では上記副撮像素子の絵素(センサー)間の出
力の差分を用いて得ている。
This contour information is obtained by differentiation, but in computer processing, it is obtained by using the difference in output between picture elements (sensors) of the sub-imaging device.

ここで、説明の簡単のため、画面の半分が白、
残りの半分が黒というように明るさが段階的に変
化する被写体を考えると、第2図に示すように、
正確にピントが合つたところ(合焦点)で、コン
トラストEは最も強く、この位置から前ピンにず
らしても後ピンにずらしてもコントラストEは低
下する。
Here, for the sake of simplicity, half of the screen is white,
If we consider a subject whose brightness changes gradually, with the remaining half being black, as shown in Figure 2,
Contrast E is strongest where the object is accurately focused (focus point), and contrast E decreases even if the object is shifted from this position to the front or back.

このコントラストを表す評価関数を考えれば、
これは上述のような1次元固体撮像素子S1,S2
像を得たとき、そのn番目とこれに隣り合うn+
1番目のセンサーの出力InとIn+1との差として
表すことができる。すなわち、 =N-1n=0 (In+1−In) ……(1) となる。そして、1次元撮像素子の充分に長い配
列を考えると、配列方向をxとして、 E=∫dl/dxdx ……(2) となり、これは単にIの積分を表現し、鮮明度に
は無関係となつてしまう。この欠点を回避するた
めには、(1)式のIn+1−Inに対して非線形の処理
を何等かの方法で行わなければならない。この非
線形処理のためには、アナログ演算を施したり、
撮像素子の非線形性を利用している。
Considering the evaluation function that represents this contrast,
This means that when an image is obtained using the one-dimensional solid-state image sensors S 1 and S 2 as described above, the n-th image and the n+
It can be expressed as the difference between the output In of the first sensor and In+1. That is, = N-1n=0 (In+1-In)...(1). Considering a sufficiently long array of one-dimensional image sensors, the array direction is set to x, and E=∫dl/dxdx...(2) This simply expresses the integral of I and has nothing to do with sharpness. I get used to it. In order to avoid this drawback, some method must be used to perform nonlinear processing on In+1-In in equation (1). For this nonlinear processing, analog calculations are performed,
It takes advantage of the nonlinearity of the image sensor.

以上のような非線形処理を行つてコントラスト
の評価関数Eが得られたとする。この評価関数E
を上述の副撮像素子S1とS2の出力に対して適応
し、横軸にピントずれ、縦軸にコントラストをと
つて関数曲線を求めると第3図に示すようにな
る。第3図において、曲線8は素子S1のコントラ
ストC1曲線、曲線9は素子S2のコントラストC2
曲線をそれぞれ示している。
Assume that the contrast evaluation function E is obtained by performing the above-described nonlinear processing. This evaluation function E
is applied to the outputs of the above-mentioned sub-imaging devices S 1 and S 2 , and the function curve is obtained by plotting the focus shift on the horizontal axis and the contrast on the vertical axis, as shown in FIG. 3. In FIG. 3, curve 8 is the contrast C 1 curve of element S 1 , and curve 9 is the contrast C 2 curve of element S 2.
Each curve is shown.

すなわち、副撮像素子S1及びS2は本来のピント
の前後でコントラストを測つているから、レンズ
1を移動させてフオーカシングをするにつれて位
相のずれた2つのコントラスト曲線が得られる。
そして、この装置においては、前述したように前
ピン側撮像素子S1と後ピン側撮像素子S2とのちよ
うど中間に正しいピント位置がくるように構成さ
れているので、コントラスト曲線8と9とが同じ
値をとつたときが合焦位置となるものである。ま
た、 コントラストC1>コントラストC2 ならば、現状は前ピンであることを示し、 コントラストC1<コントラストC2 ならば、現状は後ピンであることを示すものであ
る。
That is, since the sub-imaging elements S 1 and S 2 measure the contrast before and after the original focus, as the lens 1 is moved and focusing is performed, two contrast curves whose phases are shifted are obtained.
As described above, this device is configured so that the correct focus position is located halfway between the front focus side image sensor S 1 and the rear focus side image sensor S 2 , so that the contrast curves 8 and 9 The in-focus position is when the values are the same. Further, if contrast C 1 >contrast C 2 , it indicates that the current focus is on the front, and if contrast C 1 <contrast C 2 , it indicates that the current focus is on the back.

こうして、本来のピントに対して前後にずれた
位置に配置した2つの撮像素子S1,S2の出力のコ
ントラスト情報を用いることによりオートフオー
カスが可能となる。
In this way, autofocus is possible by using the contrast information of the outputs of the two image sensors S 1 and S 2 placed at positions shifted forward and backward relative to the original focus.

しかしながら、第1図の装置を含めた従来装置
の場合、撮像素子S1,S2はラインセンサー、つま
り一次元配列であるため、センサーの配列方向に
コントラストの変化がある画像の場合には良好に
動作するが、配列方向にコントラスト変化がなく
配列方向と交差する方向にのみコントラスト変化
があるような画像の場合にはフオーカス位置の検
出が不能となつていた。
However, in the case of conventional devices, including the device shown in Figure 1, the image sensors S 1 and S 2 are line sensors, that is, they are one-dimensional arrays, so they are not suitable for images where the contrast changes in the direction of the sensor array. However, in the case of an image in which there is no change in contrast in the array direction and only in a direction intersecting the array direction, the focus position cannot be detected.

また、従来は、前述したようにコントラスト評
価関数の導入に当たつて、アナログ演算や撮像素
子自体の非直線性を用いた演算処理を行つている
が、このような演算処理では、ダイナミツクレン
ジが狭くなり、被写体が少し暗くなると測距不能
となつてしまつていた。
Furthermore, conventionally, as mentioned above, when introducing a contrast evaluation function, arithmetic processing using analog calculations or the nonlinearity of the image sensor itself has been performed, but such calculation processing does not have a dynamic range. When the distance became narrower and the subject became slightly darker, distance measurement became impossible.

発明の目的 この発明は上記の点にかんがみ、画像の鮮明度
の評価値として、画像のコントラストに対して方
向依存性のないものであつて、ダイナミツクレン
ジの拡大を図れるものを得ることができるものを
提供しようとするものである。
Purpose of the Invention In view of the above points, the present invention makes it possible to obtain an evaluation value of image sharpness that has no direction dependence on the contrast of the image and can expand the dynamic range. It seeks to provide something.

発明の概要 この発明においては、例えば上述の例の測距用
の副撮像素子として面撮像素子を用い、この面撮
像素子と、この面撮像素子からの画像出力を対数
圧縮するための対数圧縮変換手段と、この対数圧
縮変換手段によつて対数圧縮された画像出力に基
いて画像の鮮明度の評価値を求めるために面撮像
素子のある絵素dに対し、この絵素dの水平方向
の隣接絵素c、垂直方向の隣接絵素b、斜め方向
の隣接絵素aを用いて絵素dにおけるラプラシア
ンを|3d−(a+b+c)|に基く演算により求
め、これを面撮像素子の複数の絵素について行
い、これら絵素のラプラシアンの総和を算出する
演算手段と、フオーカスを変化させて上記演算手
段からの出力値の極大値に対応したフオーカス位
置情報を求めるフオーカスコントロール手段と、
フオーカスを変化させて演算手段からの出力値の
極大値に対応して複数のフオーカス位置情報が得
られた場合に所望のフオーカス位置を選択するた
めのフオーカスセレクト手段が設けたことによ
り、また、フオーカスセレクタ手段をマニユアル
スイツチとしたことにより、正確なコントラスト
検出ができると共に、出力のダイナミツクレンジ
広くでき、これにより動作範囲を広くし、例えば
暗い被写体であつても測距することができるよう
にしたものである。
Summary of the Invention In this invention, for example, a surface image sensor is used as a sub-image sensor for distance measurement in the above example, and a logarithmic compression conversion is performed to logarithmically compress the image output from the surface image sensor and the surface image sensor. In order to obtain the evaluation value of the sharpness of the image based on the image output logarithmically compressed by the logarithmic compression conversion means, Using adjacent picture element c, vertically adjacent picture element b, and diagonally adjacent picture element a, the Laplacian at picture element d is calculated based on |3d-(a+b+c)|, and this is calculated using multiple pixels of the surface image sensor. calculation means for calculating the sum of the Laplacians of the picture elements; focus control means for changing the focus to obtain focus position information corresponding to the maximum value of the output value from the calculation means;
By providing focus selection means for selecting a desired focus position when a plurality of focus position information is obtained corresponding to the maximum value of the output value from the calculation means by changing the focus, By using a manual switch as the focus selector means, it is possible to perform accurate contrast detection and widen the dynamic range of the output. This is what I did.

実施例 以下、この発明の一実施例を第4図以下を参照
しながら説明するに、この例は前述の従来例の他
の欠点をも克服した新規なオートフオーカス装置
の例である。
Embodiment Hereinafter, an embodiment of the present invention will be described with reference to FIG. 4 and subsequent figures. This embodiment is an example of a novel autofocus device that also overcomes other drawbacks of the prior art described above.

すなわち、前述のオートフオーカス装置の場
合、測距に伴ないレンズ系を動かすものであるた
め、動作速度が遅くなり、動きが不自然であつ
た。
That is, in the case of the above-mentioned autofocus device, since the lens system is moved in conjunction with distance measurement, the operating speed is slow and the movement is unnatural.

また、ピントが大きくはずれてしまい、それが
第3図の検出不可領域になつてしまつていると、
もはや測距不能となつてしまう欠点がある。
Also, if the focus is greatly out of focus and it becomes the undetectable area in Figure 3,
The drawback is that distance measurement is no longer possible.

また、ビームスプリツターを用いているため、
その段数に応じて入射光量が減少し、オートフオ
ーカスの動作範囲が狭いという欠点もある。
Also, since a beam splitter is used,
Another drawback is that the amount of incident light decreases depending on the number of stages, and the operating range of autofocus is narrow.

この例は測距スピードが早く、しかも無限遠か
らクローズアツプに急に変化したとしても高速応
答が可能な新規なオートフオーカス装置である。
This example is a new autofocus device that has fast distance measurement speed and can respond quickly even when the distance suddenly changes from infinity to close-up.

すなわち、第4図はこの発明の一例の光学系を
示し、11はレンズ、12はメインミラー、13
はサブミラー、14は例えばCCDからなる主撮
像素子、15は同じく例えばCCDからなる副撮
像素子で、副撮像素子15はオートフオーカスの
測距用として用いられるれのである。
That is, FIG. 4 shows an optical system according to an example of the present invention, in which 11 is a lens, 12 is a main mirror, and 13 is a lens.
14 is a main image pickup device made of, for example, a CCD, and 15 is a sub-image pickup device also made of, for example, a CCD, and the sub-image pickup device 15 is used for distance measurement in autofocus.

この副撮像素子15はセンサーが2次元的に配
列された面際像素子とされる。なお、この副撮像
素子15はその使用目的からいつて主撮像素子1
4と同じ規模のものである必要はなく、主撮像素
子14の画角の一部を切り取つたような部分的な
ものでよい。この副撮像素子15の絵素(センサ
ー)数は、例えば縦64×横64個とされる。
The sub-imaging device 15 is a near-field imaging device in which sensors are arranged two-dimensionally. Note that this sub-image sensor 15 is not the same as the main image sensor 1 due to its purpose of use.
It does not have to be the same size as 4, and may be a partial one that cuts out a part of the angle of view of the main image sensor 14. The number of picture elements (sensors) of this sub-imaging device 15 is, for example, 64 vertically by 64 horizontally.

TTL方式によりレンズ11を通過した光はメ
インミラー12を介して主撮像素子14に入射す
る。レンズ11を通過した光の一部は、また、メ
インミラー12で反射されてフアインダーに導か
れる。また、メインミラー12を通過した光の一
部は、サブミラー13で反射されて副撮像素子1
5に入射するようにされる。
Light that has passed through the lens 11 using the TTL method enters the main image sensor 14 via the main mirror 12. A part of the light passing through the lens 11 is also reflected by the main mirror 12 and guided to the viewfinder. Further, a part of the light that has passed through the main mirror 12 is reflected by the sub mirror 13 and is transmitted to the sub image sensor 1.
5.

そして、この発明においては、従来のようにオ
ートフオーカスのための測距のためにはレンズ1
1を動かすのではなく、副撮像素子15を光軸方
向に±Δdだけ移動するようにする。このため、
この例では副撮像素子15は第5図に示すような
アクチエエイター上に取りつけられる。このアク
チエエイターは、例えばS極に着磁された円柱1
6を取り囲むようにこの円柱16よりの若干の距
離をおいてN極に着磁された環状体17が形成さ
れ、これら円柱16と環状体17との間に形成さ
れる凹溝18内にボイスコイル19が挿入され
る。このボイスコイル19は、副撮像素子15が
固定された基台20に対してとりつけられてお
り、このボイスコイル19に供給される電流に応
じて基台20、したがつて副撮像素子15が図中
矢印で示す方向(第4図で矢印で示した光軸方
向)にピストン運動するようになされている。
In this invention, the lens 1 is used for distance measurement for autofocus as in the conventional case.
Instead of moving the sub-imaging device 15, the sub-imaging device 15 is moved by ±Δd in the optical axis direction. For this reason,
In this example, the sub-imaging device 15 is mounted on an actuator as shown in FIG. This actuator is, for example, a cylinder 1 magnetized to the S pole.
An annular body 17 magnetized to N pole is formed at a certain distance from the cylinder 16 so as to surround the cylinder 16, and a voice is formed in a groove 18 formed between the cylinder 16 and the annular body 17. Coil 19 is inserted. This voice coil 19 is attached to a base 20 to which the sub-imaging device 15 is fixed, and the base 20 and therefore the sub-imaging device 15 change depending on the current supplied to the voice coil 19. The piston moves in the direction shown by the middle arrow (the optical axis direction shown by the arrow in FIG. 4).

この場合、副撮像素子15の原点位置は主撮像
素子14の焦点距離と同じ位置にあり、アクチエ
エイターによつて、光学系の前焦点距離に応じた
移動量Dを副撮像素子15が走査するようにピス
トン運動をする。そして、この場合の走査は、第
6図に示すような段階波によつてステツプ駆動的
になされるもので、この例の場合、副撮像素子1
5はその移動量Dの間にステツプ的に16階段の位
置をとるようにされる。すなわち、移動量Dの間
に時間Tかかるとすると、副撮像素子15はT/
16=τの時間毎に光軸方向にその位置を移動する
ようになるもので、16個の位置d0、d1、d2…d15
をとり、各位置でτの時間停止していることにな
る。ここで、d0は光学系の最近焦点位置、d15
無限遠の焦点位置に対応する。
In this case, the origin position of the sub-image sensor 15 is at the same position as the focal length of the main image sensor 14, and the actuator causes the sub-image sensor 15 to scan a movement amount D corresponding to the front focal length of the optical system. make a piston motion as if Scanning in this case is performed in a step-driven manner using a step wave as shown in FIG.
5 is made to take a position of 16 steps in steps during its movement amount D. In other words, if it takes time T for the amount of movement D, the sub-imaging device 15 will move by T/
It moves its position in the optical axis direction every time 16=τ, and there are 16 positions d 0 , d 1 , d 2 ...d 15
, and it is stopped at each position for a period of time τ. Here, d 0 corresponds to the closest focal position of the optical system, and d 15 corresponds to the focal position at infinity.

そして、d0〜d15の各焦点位置において、それ
ぞれ停止している時間τにおいて、その各位置で
の副撮像素子15の画像の鮮明度が求められ、そ
の各位置での鮮明度を表す情報がメモリーに記憶
される。そして、そのメモリーに記憶された鮮明
度の情報のうち、極大、つまり他位置に対して鮮
明度の高い位置が見い出され、これに基づいて主
撮像素子14またはレンズ11が動かされて、そ
の対応する焦点位置にくるようにされる。こうし
てオートフオーカスがなされる。なお、移動量D
中の極大鮮明度の焦点位置を見い出すための上述
のような副撮像素子15による測距の走査速度
は、例えば3回/秒程度とされる。
Then, at each focal position of d 0 to d 15 , the sharpness of the image of the sub image sensor 15 at each position is determined at each stop time τ, and information representing the sharpness at each position is obtained. is stored in memory. Then, among the sharpness information stored in the memory, a maximum position, that is, a position with high sharpness compared to other positions, is found, and based on this, the main image sensor 14 or lens 11 is moved to take appropriate action. The focal point is placed at the focal point. In this way, autofocus is achieved. In addition, the amount of movement D
The scanning speed of the above-described distance measurement by the sub-imaging device 15 to find the focal point position of maximum sharpness in the image is, for example, about 3 times/second.

ところで、この発明の場合、副撮像素子15の
画像の鮮明度を求める演算処理としては、面撮像
素子を用いたことを利用して、従来の1次元的処
理から2次元面に展開し、鮮明度の評価として副
撮像素子の各絵素におけるラプラシアン
(Laplacian)の絶対値の上記副撮像素子15の
全ての絵素についての総量を用いるものである。
By the way, in the case of this invention, the arithmetic processing for determining the sharpness of the image of the sub-imaging device 15 takes advantage of the fact that a surface imaging device is used, and expands the conventional one-dimensional processing to a two-dimensional surface. The total amount of the absolute value of the Laplacian for each picture element of the sub-imaging element for all the picture elements of the sub-imaging element 15 is used as the evaluation of the degree.

今、第7図に示すように左半分が黒、右半分が
白という画像を考える。これは、同図で実線51
で示すようなステツプ関数となるが、実際には撮
像素子の空間フイルタによつて実線52で示すよ
うに多少ぼける。ここで、仮に、2つのぼけ、
を考えてみると、スプレツドフアンクシヨンの
コンボリユーシヨン積分から同図で実線53及び
54で示すような特性の像になる。この像に対し
て差分によりグラデイエント(Gradient)をと
ると、第8図のようになる。つまり、ステツプ関
数に対しては61で示すようになり、空間フイル
タによるぼけ、及び実線53,54のようなぼけ
に対しては実線62及び63,64で示すように
なり、ぼけの程度に応じて矩形の部分の形が変化
する。しかし、これを積分するとぼけの度合が変
化しても面積は変化しない。したがつて、画像の
鮮明度の評価関数には不適である。
Now, consider an image in which the left half is black and the right half is white, as shown in FIG. This is the solid line 51 in the same figure.
The step function is as shown by , but in reality, it is somewhat blurred as shown by the solid line 52 due to the spatial filter of the image sensor. Here, suppose that two blurs,
Considering this, the convolution integral of the spread function gives an image of characteristics as shown by solid lines 53 and 54 in the figure. If a gradient is taken from this image by difference, the result will be as shown in FIG. In other words, the step function is shown as 61, and the blur caused by the spatial filter and the solid lines 53 and 54 are shown as solid lines 62, 63, and 64, depending on the degree of blur. The shape of the rectangular part changes. However, when this is integrated, the area does not change even if the degree of blur changes. Therefore, it is inappropriate as an evaluation function for image sharpness.

そこで、さらに差分をとつてラプラシアンの絶
対値をとると、第9図で実線71〜74で示すよ
うにぼけに応じた値が得られる。これを画面全体
で積分すると、第10図に示すような画像が鮮明
なとき大きく、ぼけたときは小さいという評価関
数が得られる。この関数の極大値が合焦点であ
り、これにより光学系にフイードバツクをかける
ことによりフオーカシングが得られる。
Therefore, by further calculating the difference and taking the absolute value of the Laplacian, values corresponding to the blur are obtained as shown by solid lines 71 to 74 in FIG. When this is integrated over the entire screen, an evaluation function as shown in FIG. 10 is obtained, which is large when the image is clear and small when the image is blurred. The maximum value of this function is the focal point, and focusing can be obtained by applying feedback to the optical system.

すなわち、画像出力のラブラシアンの絶対値を
とつて、それの画像全体についての総量を求め、
これを鮮明度の評価関数として用いれば良好にオ
ートフオーカスができるものである。
That is, take the absolute value of the Labrasian of the image output, find the total amount for the entire image,
If this is used as a sharpness evaluation function, good autofocus can be achieved.

今、ある絵素のラプラシアンを考えたとき、第
11図に示すように、その絵素Eの周囲の8絵素
A,B,C,D,F,G,H,Iについてラプラ
シアンを求めることになるが、その微分演算処理
としては、 E−(A+B+C+D+F+G+H+I)/8
……(3) が知られている。しかし、ここで必要であるのは
画像全体についてのラプラシアンの総計であるこ
とに注目すると、例えば第11図において、絵素
E,F…と順次ラプラシアンを求めて加算するこ
とになるので、要は、絵素Eの囲りの3絵素A,
B,Dについてのラプラシアンを求めればよいこ
とがわかる。
Now, when considering the Laplacian of a certain picture element, as shown in Figure 11, find the Laplacian for the 8 picture elements A, B, C, D, F, G, H, and I around that picture element E. However, the differential calculation process is E-(A+B+C+D+F+G+H+I)/8
...(3) is known. However, if we pay attention to the fact that what is needed here is the total Laplacian for the entire image, for example in Fig. 11, the Laplacian is calculated and added sequentially for the picture elements E, F, etc., so the point is , 3 picture elements A surrounding picture element E,
It turns out that it is sufficient to find the Laplacian for B and D.

つまり、第12図のように現在読み出し中の絵
素がδであるとき、その左側の隣接絵素をγ、上
側の隣接絵素をβ、左斜め上方の隣接絵素をαと
すると、絵素δについてのラプラシアン〓1は、 〓1=|δ−(α+β+γ)/3| ……(4) で与えられ、これを副撮像素子15の絵素全体に
ついて走査して画像全体について求めて、 〓= 〓i 〓i ……(5) なる〓をもとめれば画像の鮮明度の評価値が得ら
れる。
In other words, when the picture element currently being read is δ as shown in Figure 12, the left adjacent picture element is γ, the upper adjacent picture element is β, and the adjacent picture element diagonally above the left is α. The Laplacian 〓 1 for the element δ is given by 〓 1 = | δ − (α + β + γ) / 3 | ... (4) This is obtained by scanning the entire picture element of the sub-imaging device 15 and finding it for the entire image, 〓= 〓 i 〓i ……(5) If 〓 is obtained, the evaluation value of the sharpness of the image can be obtained.

なお、この場合において、第13図において斜
線を付して示した副撮像素子15の最上方の1行
の絵素と左側の1列の絵素とは、その周囲の絵素
が存在しないから、これらの絵素を走査するとき
は、演算は行なわないようにする。
In this case, the pixels in the uppermost row and the left column of the sub-imaging device 15 shown with diagonal lines in FIG. 13 are different from each other because there are no surrounding pixels. , when scanning these picture elements, no calculations are performed.

また、絵素αを走査したときその周囲の絵素
β,γ,δを用いて、|α−(β+γ+δ)/3|
なる演算をするようにしてもよく、このときは、
周囲の絵素が存在しないのは、第13図の撮像素
子において、m行の絵素及びn列の絵素であるか
ら、これらm行及びn列の絵素を走査するとき上
記演算をおこなわないようにする。
Also, when the picture element α is scanned, using the surrounding picture elements β, γ, and δ, |α−(β+γ+δ)/3|
You may also perform the calculation as follows; in this case,
In the image sensor shown in FIG. 13, surrounding pixels do not exist in the pixels in row m and column n, so when scanning these pixels in row m and column n, the above calculation is performed. Make sure not to.

また、これらの絵素を走査しないようにしても
よい。
Alternatively, these picture elements may not be scanned.

以上のようにして画像の鮮明度の評価値が得ら
れるが、これが前述のd0〜d15の光学系の各焦点
位置において求められ、その各位置での鮮明度の
情報としてメモリーに記録され、これに基づいて
フオーカスコントロールされる。
The image sharpness evaluation value is obtained in the above manner, and this value is obtained at each focal position of the optical system from d 0 to d 15 mentioned above, and is recorded in memory as sharpness information at each position. , the focus is controlled based on this.

ところで、例えば第14図に示すようにカメラ
21前方に、人22、柱23、本棚24が順次並
んでいた場合、これら人22、柱23、本棚24
の位置が例えば位置d3、d7、d10で鮮明に像を結
ぶようなときには、第15図に示すようにラプラ
シアン総量〓はそのd3、d7、d10の各位置で極大
になる。つまり撮像レンズ11の面角内に複数の
被写体があればその数に応じ、かつ、その位置に
応じたカメラの光学系の各焦点位置において微分
量総量が極大になりそれがメモリーに記憶される
から、この極大点となる各焦点位置に、レンズ1
1または撮像素子14を移動させるようにすれば
フオーカスされる。
By the way, for example, if a person 22, a pillar 23, and a bookshelf 24 are lined up sequentially in front of the camera 21 as shown in FIG.
For example, when a clear image is formed at positions d 3 , d 7 , and d 10 , the total Laplacian amount 〓 becomes maximum at each position of d 3 , d 7 , and d 10 as shown in Figure 15. . In other words, if there are multiple objects within the surface angle of the imaging lens 11, the total differential amount becomes maximum at each focal position of the camera's optical system according to the number and position thereof, and is stored in the memory. , lens 1 is placed at each focal point that becomes this maximum point.
1 or by moving the image sensor 14, the image is brought into focus.

複数の被写体物が面角内に入つたときそのうち
の所望の1つの被写体にフオーカスしたいとする
のが通常である。このように、複数の極大点があ
る場合にそのうちの所望の被写体にフオーカスさ
せるようにするには、次のようにすればよい。
Normally, when a plurality of objects come within a plane angle, it is desired to focus on a desired one of them. In this way, in order to focus on a desired subject among a plurality of local maximum points, the following procedure may be used.

すなわち、一般に所望のフオーカスしたい被写
体はカメラに一番近い位置となることが多いの
で、先ず、この一番近い位置の被写体、第14図
の例では人22にフオーカスすうようにし、それ
が所望のものでないときは、他の極大点に移動さ
せるようにして常に所望の被写体にフオーカスで
きるようにすればよい。
In other words, since the desired subject to be focused is often the closest to the camera, first focus on the closest subject, the person 22 in the example of Fig. 14, and then If the object is not there, you can move it to another maximum point so that you can always focus on the desired object.

以上のことを考慮したこの発明装置の制御系の
一例のブロツク図を第16図に示す。
FIG. 16 shows a block diagram of an example of the control system of the device of the present invention in consideration of the above.

第16図において、30はフオーカスコントロ
ール回路で、これは演算器、レジスタ、デジタル
比較器、カウンタ等から成つている。
In FIG. 16, 30 is a focus control circuit, which consists of an arithmetic unit, a register, a digital comparator, a counter, etc.

このフオーカスコントロール回路30からは第
6図に示したような副撮像素子15を測距走査さ
せるための階段状信号がデジタル信号の状態で得
られる。上記カウンタがそのために用いられるも
ので、このカウンタには周期τのクロツクが供給
される。そして、このカウンタの出力がD/A変
換器31に供給されてアナログ信号とされ、これ
が第5図に示したアクチエタイターのボイスコイ
ル19に供給されて、副撮像素子15が光学系の
所定の焦点位置に持ち来される。そして、この位
置において、この副撮像素子15から得られる画
像出力がプリアンプ32を介して対数圧縮回路3
3に供給される。この対数圧縮回路33は、光の
距離に対する特性が対数的であることからそれを
リニアに変換するためのものである。この対数圧
縮回路33の出力はD/A変換器34にてデジタ
ル信号に変換された後、演算回路35に供給され
て上述した画像の各絵素のラプラシアン総量〓が
求められ、これがメモリー36の、その位置に
1:1に対応するアドレスにその位置の画像の鮮
明度の評価値として記憶される。
The focus control circuit 30 obtains a stepped signal in the form of a digital signal for causing the sub-imaging element 15 to scan for distance measurement as shown in FIG. The counter described above is used for this purpose and is supplied with a clock having a period τ. The output of this counter is then supplied to the D/A converter 31 and converted into an analog signal, which is then supplied to the voice coil 19 of the actuator shown in FIG. is brought to the focal position. At this position, the image output obtained from the sub-imaging device 15 is transmitted to the logarithmic compression circuit 3 via the preamplifier 32.
3. This logarithmic compression circuit 33 is for converting the distance characteristic of light into a linear one since it is logarithmic. The output of the logarithmic compression circuit 33 is converted into a digital signal by the D/A converter 34, and then supplied to the arithmetic circuit 35 to obtain the Laplacian total amount of each picture element of the above-mentioned image, which is stored in the memory 36. , is stored as an evaluation value of the sharpness of the image at that position at an address that corresponds 1:1 to that position.

演算回路35はシフトレジスタ351と、ラプ
ラシアン演算回路352と、加算器353と、レ
ジスタ354とからなつている。副撮像素子15
の絵素の走査が、撮像面の水平方向の走査が、順
次上方から下方になされるものとすれば、この副
撮像素子15の水平方向の絵素数をnとしたと
き、シフトレジスタ351の段数は(n+1)段
とされる。そして、このシフトレジスタ351の
1段目、n段目及び(n+1)段目のステージか
ら出力が取り出され、これがラプラシアン演算回
路352に供給されるとともに、現時点での副撮
像素子15の出力がこのラプラシアン演算回路3
52に供給される。
The arithmetic circuit 35 includes a shift register 351, a Laplacian arithmetic circuit 352, an adder 353, and a register 354. Sub image sensor 15
If the horizontal scanning of the imaging surface is performed sequentially from the top to the bottom, then when the number of pixels in the horizontal direction of the sub-imaging device 15 is n, the number of stages of the shift register 351 is has (n+1) stages. Outputs are taken out from the first, nth, and (n+1)th stages of this shift register 351 and supplied to the Laplacian calculation circuit 352, and the current output of the sub-image sensor 15 is Laplacian calculation circuit 3
52.

今、副撮像素子15の絵素が上記のように順次
走査され、現時点の絵素の位置がδであるとする
と、このときのシフトレジスタ351の1段目、
n段目、(n+1)段目の各ステージからはγ、
β、αの位置の絵素の情報が得られることにな
る。そして、回路352では、前述の式(4)の演算
がなされ、その出力が加算器353に供給され、
加算出力がレジスタ354に蓄えられる。このレ
ジスタ354の出力は絵素の走査に応じてその絵
素位置が変わるたびに加算器353に供給されて
次の絵素のラプラシアンの演算出力と加算され
る。つまり、加算器353とレジスタ354とに
より前述の画面のラプラシアン総量を求める演算
(式(5))がなされる。
Now, assuming that the picture elements of the sub-image sensor 15 are sequentially scanned as described above and the current position of the picture element is δ, the first stage of the shift register 351 at this time,
From each stage of the nth stage and (n+1)th stage, γ,
Information on picture elements at positions β and α can be obtained. Then, in the circuit 352, the above-mentioned formula (4) is calculated, and the output thereof is supplied to the adder 353,
The summed output is stored in register 354. The output of this register 354 is supplied to an adder 353 each time the position of the picture element changes as the picture element is scanned, and is added to the calculation output of the Laplacian of the next picture element. That is, the adder 353 and the register 354 perform the calculation (formula (5)) for determining the total amount of Laplacian on the screen.

そして、副撮像素子15の全絵素の走査が終了
してレジスタ354に得られたラプラシアン総量
〓が、メモリー36の対応するアドレスに書き込
まれるわけである。
Then, the total Laplacian amount 〓 obtained in the register 354 after the scanning of all pixels of the sub-imaging device 15 is completed is written to the corresponding address in the memory 36.

なお、この例の場合、副撮像素子15の絵素の
走査にあたつて、第13図において斜線で示した
絵素位置を走査するときは、加算回路353にイ
ンヒビツト信号が供給され、加算処理が行なわれ
ないようにされる。
In this example, when scanning the picture elements of the sub-image sensor 15, when scanning the picture element positions indicated by diagonal lines in FIG. 13, an inhibit signal is supplied to the addition circuit 353, and the addition process will be prevented from occurring.

次に、時間τ経過すると、フオーカスコントロ
ール回路30においては上記カウンタが歩進し、
そのカウント値が変化する。すると、D/A変換
器31の出力が変わり、副撮像素子15の位置が
光軸方向に移動される。そして、この変更された
位置において、上述と同様の操作が行われ、その
位置における鮮明度の評価値である画像出力のラ
プラシアン総量がメモリー36の対応するアドレ
スに書き込まれる。以上の操作が、上述の16個の
各位置d0〜d15の全てにおいてなされ、これによ
りメモリー36の記憶内容として第15図に相当
するものが得られる。以下これが繰り返される。
Next, when the time τ has elapsed, the focus control circuit 30 increments the counter,
The count value changes. Then, the output of the D/A converter 31 changes, and the position of the sub-image sensor 15 is moved in the optical axis direction. Then, at this changed position, the same operation as described above is performed, and the total Laplacian amount of the image output, which is the evaluation value of sharpness at that position, is written into the corresponding address of the memory 36. The above operations are performed at all of the above-mentioned 16 positions d 0 to d 15 , thereby obtaining the stored content of the memory 36 corresponding to that shown in FIG. 15. This is repeated below.

このメモリー36中の16個の情報に対し、極大
値の検出がなされ、極大値である場合にはその情
報にマーカーが付される。すなわち、メモリー3
6に各位置の鮮明度の情報を書き込む際に、フオ
ーカスコントロール回路30内に設けられたデジ
タル比較器によつてその前後の位置の情報と、そ
の位置の情報を比較してそれが極大値であると検
出されたとき、その情報にマーカーを付加して書
き込むようにされる。あるいは、メモリー36に
全ての情報が書き込まれた後、これを順次読み出
し、デジタル比較器を用いて極大値を見い出し、
マーカーを付して、再び元の位置に書き込むよう
にしてもよい。
A local maximum value is detected for the 16 pieces of information in the memory 36, and if it is a local maximum value, a marker is attached to the information. That is, memory 3
6, when writing information on the sharpness of each position, a digital comparator installed in the focus control circuit 30 compares the information on the previous and subsequent positions with the information on that position and determines the maximum value. When it is detected, a marker is added to the information and written. Alternatively, after all the information is written in the memory 36, read it out sequentially and use a digital comparator to find the maximum value,
It is also possible to attach a marker and write again at the original position.

カメラ位置に対して第14図に示したような被
写体があるときは、d3、d7、d10の位置の鮮明度
の情報が極大になり、前述したように先ず、手前
の被写体にオートフオーカスするとすれば、d3
位置の情報に付加された極大値マーカーに従つ
て、この位置の情報がフオーカスコントロール回
路30より得られ、これがD/A変換器37にて
アナログ信号にされ、このアナログ信号によつ
て、この例では撮像レンズ11が移動されて、光
学系がd3の焦点位置にくるようにされる。このd3
の位置が、所望の被写体に対するフオーカス位置
でないときは、フオーカスセレクトスイツチ38
を操作すると、次の極大値マーカーの付されたメ
モリー位置に移り、その位置情報がフオーカスコ
ントロール回路30より得られ、レンズ11がそ
れに追随する位置に移動するものである。
When there is a subject like the one shown in Figure 14 relative to the camera position, the sharpness information at positions d 3 , d 7 , and d 10 becomes maximum, and as mentioned above, the camera automatically focuses on the subject in the foreground. When focusing, information on this position is obtained from the focus control circuit 30 according to the maximum value marker added to the information on the position of d3 , and this is converted into an analog signal by the D/A converter 37. , this analog signal causes the imaging lens 11 in this example to be moved so that the optical system is at the focal position of d3 . this d 3
is not the focus position for the desired subject, the focus select switch 38
When operated, the memory position is moved to the next maximum value marker, information on that position is obtained from the focus control circuit 30, and the lens 11 is moved to a position that follows it.

このフオーカスセレクトスイツチ38は、例え
ば第17図に示すようにカメラ本体40のレンズ
の近傍の位置に配され、図のR側にスイツチ38
を倒すと、フオーカス位置がカメラよりも遠い方
の被写体位置に順次移動し、図のF側にスイツチ
38を倒すと、フオーカス位置がカメラに近づく
方向に順次移動するようにすることが可能であ
る。
The focus select switch 38 is placed near the lens of the camera body 40, for example, as shown in FIG.
When the switch 38 is turned down, the focus position sequentially moves to the subject position farther from the camera, and when the switch 38 is turned to the F side in the figure, the focus position is sequentially moved closer to the camera. .

なお、D/A変換器37の出力によつてレンズ
系を動かすかわりに主撮像素子14を動かすよう
にしてももちろんよい。
Of course, instead of moving the lens system using the output of the D/A converter 37, the main image sensor 14 may be moved.

なお、第12図における絵素の位置関係をみる
と、絵素δと絵素β及びγとの距離は同じである
が、斜めの絵素αは他とは距離が異なつている。
したがつて、評価値をより正確に得るには距離に
応じて斜めの絵素αについて演算に一定の重みを
付加するようにしなければならない。
Note that when looking at the positional relationship of the picture elements in FIG. 12, the distances between the picture element δ and the picture elements β and γ are the same, but the distance of the diagonal picture element α is different from the others.
Therefore, in order to obtain the evaluation value more accurately, it is necessary to add a certain weight to the calculation for the diagonal picture element α according to the distance.

これを回避するには、撮像素子の絵素の配列を
第18図に示すように六角形状にすればよい。つ
まり、この場合、絵素dのラプラシアンは周囲の
a,b,c,e,f,gの絵素を用いることによ
り求められ、絵素dに対する距離は全てほぼ同一
となり、絵素ごとの重みづけを考える必要はな
い。この場合も実際の演算は、各絵素について、 |d−(a+b+c)/3| を求め、これを全ての絵素について加算してその
総和を評価値とすればよい。
In order to avoid this, the picture elements of the image sensor may be arranged in a hexagonal shape as shown in FIG. In other words, in this case, the Laplacian of picture element d is found by using the surrounding picture elements a, b, c, e, f, and g, and the distances to picture element d are all almost the same, and the weight of each picture element is There is no need to think about the attachment. In this case as well, the actual calculation is to find |d-(a+b+c)/3| for each picture element, add this for all picture elements, and use the sum as the evaluation value.

以上述べた例によれば、従来のように測距に伴
いレンズ系を動かすのではなく、慣性質量の小さ
い撮像素子を動かし、合焦点がみつかるまでは、
他のレンズ系は固定しておくので、測距速度が上
がり、不自然な動作とはならない。また、この発
明の場合、全焦点距離について同時に合焦点を検
出するので、無限遠からクローズアツプに被写体
位置が急激に変化しても応答が早いという効果が
ある。
According to the example described above, instead of moving the lens system with distance measurement as in the past, the image sensor with a small inertial mass is moved until the in-focus point is found.
Since the other lens systems are fixed, the distance measurement speed is increased and unnatural movements are avoided. Further, in the case of the present invention, since the in-focus point is detected at the same time for all focal lengths, there is an effect that the response is quick even if the subject position suddenly changes from infinity to close-up.

また、副撮像素子を合焦のため動かすもので、
レンズ系はその測距には用いないから、レンズ系
としてはいかなる交換レンズも使用可能となる。
It also moves the sub-imaging device for focusing.
Since the lens system is not used for distance measurement, any interchangeable lens can be used as the lens system.

発明の効果 上述せる本発明によれば、絵素のラプラシアン
の総和を演算手段により算出し、フオーカスコン
トロール手段によりフオーカスを変化させて演算
手段からの出力値の極大値に対応したフオーカス
位置情報を求め、フオーカスを変化させて演算手
段からの出力値の極大値に対応して複数のフオー
カス位置情報が得られた場所に所望のフオーカス
位置をフオーカスセレクト手段により選択するよ
うにすることで、また、このフオーカスセレクト
手段をマニユアルスイツチとすることで、正確な
コントラスト検出ができると共に、出力のダイナ
ミツクレンジ広くでき、これにより動作範囲を広
くし、例えば暗い被写体であつても測距すること
ができる。
Effects of the Invention According to the present invention described above, the total sum of the Laplacian of picture elements is calculated by the calculation means, and the focus is changed by the focus control means to obtain focus position information corresponding to the maximum value of the output value from the calculation means. By changing the focus and selecting a desired focus position by the focus selection means at a location where a plurality of focus position information is obtained corresponding to the maximum value of the output value from the calculation means, By using a manual switch as the focus selection means, it is possible to perform accurate contrast detection and widen the dynamic range of the output. can.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は従来のオートフオーカス装置の一例の
光学系を示す図、第2図及び第3図はその説明の
ための図、第4図はこの発明の光学系の一例を示
す図、第5図はその要部の構成の一例を示す図、
第6図はその説明のための図、第7図〜第13図
はこの発明の要部の説明のための図、第14図及
び第15図はこの発明の一実施例の一部の構成を
説明するための図、第16図はこの発明の制御系
の一例のブロツク図、第17図はその一部の構成
を説明するための図、第18図はこの発明に用い
る副撮像素子の絵素配列の他の例を示す図であ
る。 15は副撮像素子、33は対数圧縮回路、35
は演算回路、351はシフトレジスタ、352は
ラプラシアン演算回路、353は加算器、354
はレジスタである。
FIG. 1 is a diagram showing an optical system of an example of a conventional autofocus device, FIGS. 2 and 3 are diagrams for explaining the same, and FIG. 4 is a diagram showing an example of an optical system of the present invention. Figure 5 is a diagram showing an example of the configuration of the main part.
FIG. 6 is a diagram for explaining the same, FIGS. 7 to 13 are diagrams for explaining the main parts of this invention, and FIGS. 14 and 15 are partial configurations of one embodiment of this invention. 16 is a block diagram of an example of the control system of the present invention, FIG. 17 is a diagram illustrating a part of the configuration, and FIG. 18 is a diagram of the sub-imaging device used in the present invention. FIG. 7 is a diagram showing another example of a picture element arrangement. 15 is a sub-imaging device; 33 is a logarithmic compression circuit; 35
is an arithmetic circuit, 351 is a shift register, 352 is a Laplacian arithmetic circuit, 353 is an adder, 354
is a register.

Claims (1)

【特許請求の範囲】 1 面撮像素子と、 該面撮像素子からの画像出力を対数圧縮するた
めの対数圧縮変換手段と、 該対数圧縮変換手段によつて対数圧縮された画
像出力に基いて画像の鮮明度の評価値を求めるた
めに上記面撮像素子のある絵素dに対し、この絵
素dの水平方向の隣接絵素c、垂直方向の隣接絵
素b、斜め方向の隣接絵素aを用いて上記絵素d
におけるラプラシアンを|3d−(a+b+c)|
に基く演算により求め、これを上記面撮像素子の
複数の絵素について行い、これら絵素のラプラシ
アンの総和を算出する演算手段と、フオーカスを
変化させて上記演算手段からの出力値の極大値に
対応したフオーカス位置情報を求めるフオーカス
コントロール手段と、 フオーカスを変化させて上記演算手段からの出
力値の極大値に対応して複数のフオーカス位置情
報が得られた場合に所望のフオーカス位置を選択
するためのフオーカスセレクト手段とを設けたこ
とを特徴とする画像処理装置。 2 上記フオーカスセレクト手段はマニユアルス
イツチであることを特徴とする特許請求の範囲第
1項記載の画像処理装置。
[Scope of Claims] 1. A surface image sensor, a logarithmic compression conversion means for logarithmically compressing an image output from the surface image sensor, and an image based on the image output logarithmically compressed by the logarithm compression conversion means. In order to obtain the sharpness evaluation value of a certain picture element d of the above-mentioned surface image sensor, the horizontally adjacent picture element c, the vertically adjacent picture element b, and the diagonally adjacent picture element a of this picture element d are The above picture element d
The Laplacian in |3d−(a+b+c)|
calculation means for calculating the sum of the Laplacian of these picture elements, and a calculation means for calculating the sum of the Laplacian of these picture elements, and a calculation means for calculating the sum of the Laplacian of these picture elements, and a calculation means for changing the focus to reach the maximum value of the output value from the calculation means. a focus control means for obtaining corresponding focus position information, and selecting a desired focus position when a plurality of focus position information is obtained corresponding to the maximum value of the output value from the calculation means by changing the focus; An image processing device characterized by comprising: focus selection means for 2. The image processing apparatus according to claim 1, wherein the focus selection means is a manual switch.
JP57147223A 1982-08-25 1982-08-25 Picture processing device Granted JPS5936203A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP57147223A JPS5936203A (en) 1982-08-25 1982-08-25 Picture processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP57147223A JPS5936203A (en) 1982-08-25 1982-08-25 Picture processing device

Publications (2)

Publication Number Publication Date
JPS5936203A JPS5936203A (en) 1984-02-28
JPH0473564B2 true JPH0473564B2 (en) 1992-11-24

Family

ID=15425351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP57147223A Granted JPS5936203A (en) 1982-08-25 1982-08-25 Picture processing device

Country Status (1)

Country Link
JP (1) JPS5936203A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61105978A (en) * 1984-10-30 1986-05-24 Sanyo Electric Co Ltd Automatic focusing circuit

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS50129220A (en) * 1974-04-01 1975-10-13
JPS5325431A (en) * 1976-08-23 1978-03-09 Hitachi Ltd Automati c focusing device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS50129220A (en) * 1974-04-01 1975-10-13
JPS5325431A (en) * 1976-08-23 1978-03-09 Hitachi Ltd Automati c focusing device

Also Published As

Publication number Publication date
JPS5936203A (en) 1984-02-28

Similar Documents

Publication Publication Date Title
JP6341736B2 (en) Imaging apparatus, control method, program, storage medium
US9681037B2 (en) Imaging apparatus and its control method and program
JP6838994B2 (en) Imaging device, control method and program of imaging device
JPS6398615A (en) Automatic focus adjusting method
EP0435319A1 (en) Camera apparatus having drift detecting unit
JP6544978B2 (en) Image output apparatus, control method therefor, imaging apparatus, program
JP2013145982A (en) Imaging apparatus, image processing apparatus and method
JP2002010126A (en) Image pickup device
EP1188309B1 (en) Targetable autofocus system
JP2002365524A (en) Autofocus device and imaging device using the same
US5861916A (en) Apparatus for detecting movement using a difference between first and second image signals
JPH0473564B2 (en)
JPH0473563B2 (en)
JPH09130661A (en) Focus state detector and optical device
JP2907465B2 (en) Image input / output device
JPH0252204A (en) Measuring instrument for three-dimensional coordinate
JP2017163412A (en) Image processing system, its control method, imaging apparatus, and program
JP3725606B2 (en) Imaging device
JP3382321B2 (en) Optical equipment
JPS6091774A (en) Zoom lens for solid-state image pickup camera
JP3365852B2 (en) Camera with suitability indication
JP2005064749A (en) Camera
JPH0338976A (en) Display device for image pickup
JPH08327891A (en) Patterned light projecting device
JPS5933408A (en) Autofocusing device