JP3191928B2 - Image input / output device - Google Patents

Image input / output device

Info

Publication number
JP3191928B2
JP3191928B2 JP04402189A JP4402189A JP3191928B2 JP 3191928 B2 JP3191928 B2 JP 3191928B2 JP 04402189 A JP04402189 A JP 04402189A JP 4402189 A JP4402189 A JP 4402189A JP 3191928 B2 JP3191928 B2 JP 3191928B2
Authority
JP
Japan
Prior art keywords
image
input
images
signal
recorded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP04402189A
Other languages
Japanese (ja)
Other versions
JPH01309478A (en
Inventor
順平 辻内
捷夫 本田
永昭 大山
達夫 長崎
奨 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optic Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optic Co Ltd filed Critical Olympus Optic Co Ltd
Priority to JP04402189A priority Critical patent/JP3191928B2/en
Publication of JPH01309478A publication Critical patent/JPH01309478A/en
Application granted granted Critical
Publication of JP3191928B2 publication Critical patent/JP3191928B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は画像情報を入出力するための画像入出力装置
に関する。
Description: TECHNICAL FIELD The present invention relates to an image input / output device for inputting / outputting image information.

[従来の技術] 一般に解像度にすぐれ、かつ倍率および明るさの大き
な画像を光学的に取込むためには、開口の大きな光学素
子を用いた結像光学系が必要である。ところがレンズに
代表される結像用光学素子は、一般に開口が大きくなる
と焦点深度が浅くなる。しかるに顕微鏡,カメラ,内視
鏡等の画像機器を利用する分野においては、得られた画
像が解像度や明るさに優れていることが望ましいのは勿
論であるが、同時に焦点深度の深い画像であることが強
く要求される。
[Prior Art] Generally, in order to optically capture an image having excellent resolution and a large magnification and brightness, an imaging optical system using an optical element having a large aperture is required. However, an imaging optical element represented by a lens generally has a small depth of focus when the aperture is large. However, in the field of using image equipment such as a microscope, a camera, and an endoscope, it is desirable that the obtained image has excellent resolution and brightness, but at the same time, the image has a deep depth of focus. Is strongly required.

焦点深度の深い画像を得る従来技術として、例えば文
献「W.T.Welford,Journal of Optical Society of Amer
ica.Vol.50 p.749(1960)」に示されるように、輪帯開
口等の特殊な開口を設けた結像光学系を用いる手段があ
る。この手段によれば焦点深度の深い画像が簡便に得ら
れるという利点があるが、解像度や光量を著しく損うと
いう欠点がある。
As a conventional technique for obtaining an image with a large depth of focus, for example, the document “WT Welford, Journal of Optical Society of Amer
As shown in “ica.Vol.50 p.749 (1960)”, there is a method using an imaging optical system provided with a special opening such as an annular opening. According to this means, there is an advantage that an image having a large depth of focus can be easily obtained, but there is a disadvantage that the resolution and the amount of light are significantly impaired.

また他の技術的手段として、例えば文献「S.A.Sugimo
to and Y.Ichioka,Applied Optics Vol.24.p.2076(198
5)」あるいは、「太田亨寿,杉原厚吉,杉江昇,電子
通信学会論文誌(D),J66−D,1245,(1983)」に紹介
されているように、画像処理技術を用いる方法がある。
この方法は、物体空間において焦点の合った位置(以
下、合焦点位置という)の異なる画像を複数枚入力し、
これらから局所的な分散情報を得、これに基づき焦点の
合った部分を合成する手段である。この手段によれば、
解像度や明るさを損わずに焦点深度の深い画像を得るこ
とができる。したがって、この点では極めて有用な手段
であるといえる。しかし対象物が、表面が滑らかな対象
物である場合や、場所によって構造の起伏が大きく異っ
ている対象物である場合には、その対象物に対しての適
用が難しい。その上、装置として実現するには規模の大
きなハードウエアが必要であること、アルゴリズムが複
雑であること、等々実用上不都合が多い。
Further, as another technical means, for example, a document “SASugimo
to and Y. Ichioka, Applied Optics Vol. 24.p. 2076 (198
5), or the method using image processing technology as introduced in “Tohoshi Ota, Atsuyoshi Sugihara, Noboru Sugie, IEICE Transactions (D), J66-D, 1245, (1983)”. is there.
In this method, a plurality of images at different in-focus positions (hereinafter, referred to as in-focus positions) in the object space are input,
This is a means for obtaining local dispersion information from these and synthesizing a focused part based on the information. According to this means,
An image with a deep depth of focus can be obtained without losing resolution or brightness. Therefore, it can be said that this is an extremely useful means. However, when the object is an object having a smooth surface or an object whose structure is greatly different from one place to another, application to the object is difficult. In addition, there are many practical inconveniences such as the necessity of large-scale hardware for realizing the apparatus, the complexity of the algorithm, and the like.

[発明が解決しようとする課題] 上記したように、従来の技術的手段には次のような欠
点がある。
[Problems to be Solved by the Invention] As described above, the conventional technical means have the following disadvantages.

(1)輪帯開口等の特殊な開口を設けた結像光学系を用
いて焦点深度を深くする手段では、解像度や光量を著し
く損うという欠点がある。つまり焦点深度の深い画像を
得ることは可能であるが、解像度や明るさを失なうこと
になり、焦点深度,解像度,明るさの全てを満足する光
学系とはなり得ないという欠点があった。
(1) Means for increasing the depth of focus using an imaging optical system provided with a special opening such as an annular opening has the disadvantage that the resolution and the amount of light are significantly impaired. In other words, although it is possible to obtain an image with a large depth of focus, the resolution and brightness are lost, and there is a drawback that the optical system cannot satisfy all of the depth of focus, resolution and brightness. Was.

(2)合焦点位置の異なる画像を複数枚入力し、これら
の局所的な分散情報から焦点の合った部分画像を合成す
る手段では、対象物の条件如何により適用が難しい場合
があり、実用上不都合を来たすことが多いという欠点が
あった。
(2) A method of inputting a plurality of images having different focal positions and synthesizing a focused partial image from these pieces of local dispersion information may be difficult to apply depending on the condition of the target object. There was a disadvantage that it often caused inconvenience.

そこで本発明の目的は、解像度や明るさを失うことな
く焦点深度の深い画像を再生し得、しかも実用的で対象
的に対する適用範囲が広く、容易に実現可能な画像入出
力装置を提供することにある。
Therefore, an object of the present invention is to provide an image input / output device that can reproduce an image with a large depth of focus without losing resolution or brightness, and that is practical, has a wide application range to a target, and can be easily realized. It is in.

[課題を解決するための手段] 上記課題を解決し目的を達成するために、本発明の画
像入出力装置は下記の如く構成されている。なお下記以
外の本発明の特徴ある構成については実施例の中で明ら
かにする。
[Means for Solving the Problems] In order to solve the above problems and achieve the object, an image input / output device of the present invention is configured as follows. In addition, characteristic configurations of the present invention other than the following will be clarified in the embodiments.

本発明の画像入出力装置は、画像情報を入出力する装
置において、複数の異なる物体面に焦点を合わせる合焦
手段と、この合焦手段により異なる物体面に焦点の合っ
た複数の画像を入力する画像入力手段と、この画像入力
手段により入力される複数の画像の合焦点面位置の範囲
を選択する範囲選択手段と、この囲選択手段により選択
された上記複数の画像を加え合わせる画像加算手段と、
この画像加算手段により加え合わせた画像に対して空間
周波数フィルタリングによる回復処理を施す画像処理手
段とを有することを特徴とする。
An image input / output device according to the present invention is a device for inputting / outputting image information, comprising: a focusing unit for focusing on a plurality of different object surfaces; Image input means, a range selecting means for selecting a range of a focal plane position of a plurality of images input by the image input means, and an image adding means for adding the plurality of images selected by the surrounding selecting means When,
Image processing means for performing recovery processing by spatial frequency filtering on the image added by the image adding means.

[実施例] (第1実施例) 第1図は本発明の第1実施例の構成を示す図である。
対象物の像は、レンズ1によって電荷結合素子(以下で
はCCDと略す),撮像管等で構成される撮像素子2の受
光部に結像される。なお通常の場合、入力光学系は複数
のレンズでの組み合わせで構成されるが、図では簡略化
するために一枚のみ示している。前記撮像素子2からの
出力信号は、アナログ・デジタル変換器(以下ではA/D
変換器と略称する)3によりデジタル信号に変換され
る。上記ディジタル信号は、加算器4において、メモリ
5に記録されている画像信号と加算される。その加算結
果は再びメモリ5に記録される。上記動作は、合焦点位
置制御器6によってレンズ1を移動させながら繰返して
行なわれる。すなわち上記動作は、光学系の合焦点位置
を、適当に設定した距離間隔および距離範囲で離散的に
変えながら行なわれる。かくして入力した各々の画像に
ついて加算が行われ、その結果が前記メモリ5に記憶さ
れる。
Embodiment (First Embodiment) FIG. 1 is a diagram showing a configuration of a first embodiment of the present invention.
An image of the object is formed by a lens 1 on a light receiving portion of an image sensor 2 including a charge-coupled device (hereinafter abbreviated as CCD), an image pickup tube, and the like. Note that, in a normal case, the input optical system is composed of a combination of a plurality of lenses, but only one is shown in the figure for simplification. An output signal from the image sensor 2 is supplied to an analog / digital converter (hereinafter, A / D converter).
The signal is converted into a digital signal by a converter 3. The digital signal is added by the adder 4 to the image signal recorded in the memory 5. The result of the addition is recorded in the memory 5 again. The above operation is repeatedly performed while moving the lens 1 by the in-focus position controller 6. That is, the above operation is performed while discretely changing the in-focus position of the optical system at appropriately set distance intervals and distance ranges. The addition is performed for each image thus input, and the result is stored in the memory 5.

次に前記加算された画像は回復処理装置7により、適
当な回復処理が行なわれる。例えば空間周波数に対する
ハイパスフィルタリングあるいはバンドパスフィルタリ
ング処理が行われる。上記の処理結果は再び前記メモリ
5に格納される。前記メモリ5内に格納されている前記
回復処理を施された画像信号は、デジタル・アナログ変
換器(以下ではD/A変換器と略称する)8によってアナ
ログ信号に変換され、ディスプレイモニタ9上に表示さ
れる。以上の動作におけるタイミングや信号の流れ等の
制御は、コントローラ10によって行なわれる。
Next, the added image is subjected to appropriate recovery processing by the recovery processing device 7. For example, high-pass filtering or band-pass filtering for the spatial frequency is performed. The above processing result is stored in the memory 5 again. The image signal subjected to the restoration processing stored in the memory 5 is converted into an analog signal by a digital / analog converter (hereinafter, abbreviated as a D / A converter) 8 and displayed on a display monitor 9. Is displayed. Control of the timing, signal flow, and the like in the above operation is performed by the controller 10.

なお光学系の合焦点位置を変える手段としては、前記
合焦点位置制御器6により前記撮像素子2を動かすよう
にし、レンズ系は固定化するようにしてもよい。また前
記回復処理装置7として、パイプライン処理方式のもの
を採用することにより、回復処理結果を前記D/A変換器
8に直接的に出力するようにしてもよい。また前記メモ
リ5に記録された加算画像を、フロッピーディスク,磁
気テープ,光メモリ等の他の記録媒体に記録しておき、
画像再生の際に前記記録媒体から記録されている画像信
号を読込み、この読込んだ画像信号に回復処理を施して
表示するようにしてもよい。つまり画像の記録部と再生
部との間を、記録媒体を介してオフラインで連結するよ
うにしてもよい。
As a means for changing the focal point position of the optical system, the image pickup element 2 may be moved by the focal point position controller 6, and the lens system may be fixed. Alternatively, the recovery processing device 7 may employ a pipeline processing method so that the result of the recovery processing is directly output to the D / A converter 8. Further, the added image recorded in the memory 5 is recorded on another recording medium such as a floppy disk, a magnetic tape, or an optical memory,
At the time of image reproduction, an image signal recorded from the recording medium may be read, and the read image signal may be subjected to recovery processing and displayed. That is, the image recording unit and the reproduction unit may be connected off-line via the recording medium.

上記構成の第1実施例によれば次のような作用効果を
奏する。すなわち本実施例によれば、焦点位置の異なる
画像を離散的に入力し、入力すると同時に加算するよう
にしたので、比較的簡単な構成の装置で処理を行なうこ
とができ、しかも画像の入力,加算を高速度で行なうこ
とができる。
According to the first embodiment having the above configuration, the following operation and effect can be obtained. That is, according to the present embodiment, since images having different focal positions are discretely input and added at the same time as the input, the processing can be performed by a device having a relatively simple configuration. The addition can be performed at a high speed.

(第2実施例) 第2図は本発明の第2実施例の構成を示す図である。
本実施例においては、合焦点位置制御器6により、焦点
位置を所定の距離範囲にわたって連続的に変える。これ
と同時に撮像素子2の受光部(具体的には固体撮像素子
のフォトセンサ部や撮像管の受光面等)に結像される像
を蓄積していくように構成されている。前記撮像素子2
に蓄積された画像はA/D変換器3により、デジタル信号
に変換された後、メモリ5に記録される。次に回復処理
装置7によって適当な回復フィルタリング処理が行われ
たのち、再びメモリ5に記録される。前記回復処理が施
されて前記メモリ5に記録された画像は、D/A変換器8
によりアナログ信号に変換され、ディスプレイモニタ9
に表示される。以上の動作におけるタイミングやデータ
の流れ等の制御はコントローラ10によって行なわれる。
Second Embodiment FIG. 2 is a diagram showing a configuration of a second embodiment of the present invention.
In this embodiment, the focus position is continuously changed over a predetermined distance range by the focus position controller 6. At the same time, it is configured to accumulate images formed on the light receiving section of the image sensor 2 (specifically, the photo sensor section of the solid-state image sensor, the light receiving surface of the image pickup tube, etc.). The imaging device 2
Are stored in the memory 5 after being converted into digital signals by the A / D converter 3. Next, after an appropriate recovery filtering process is performed by the recovery processing device 7, the data is recorded in the memory 5 again. The image that has been subjected to the recovery processing and recorded in the memory 5 is a D / A converter 8
Is converted to an analog signal by the display monitor 9
Will be displayed. The timing, data flow, and the like in the above operations are controlled by the controller 10.

上記構成の第2実施例によれば次のような作用効果を
奏する。すなわち本実施例においては、撮像素子2自身
の光エネルギーの積算効果を利用し、連続的に焦点を変
えた画像を入力すると同時に蓄積していくようにしてい
る。したがって、画像の入力と加算とが撮像素子2自身
で同時に行なわれることになり、構成が非常に簡単化す
る上、高速に処理できる。また適当な距離範囲にわたっ
て焦点位置を連続的に変えれば良いことから、焦点位置
の制御も簡単となる。
According to the second embodiment having the above configuration, the following operation and effect can be obtained. That is, in the present embodiment, by utilizing the integration effect of the light energy of the image pickup device 2 itself, an image with a continuously changed focus is input and accumulated at the same time. Therefore, image input and addition are performed simultaneously by the image pickup device 2 itself, so that the configuration is extremely simplified and high-speed processing can be performed. In addition, since the focus position may be changed continuously over an appropriate distance range, control of the focus position is also simplified.

(第3実施例) 第3図は本発明の第3実施例の構成を示す図である。
本実施例においては、レンズ1により結像された像は、
撮像素子2により画像信号に変換され、更にA/D変換器
3によりデジタル信号に変換される。前記デジタル信号
は、次いでセレクタ11によりメモリ5−1〜5−mのう
ちの所定の一つに記録される。上記動作は、合焦点位置
制御器6によってレンズ1を移動させながら繰返し行な
われる。すなわち、上記動作は、光学系の合焦点位置
を、適当に設定した距離間隔および距離範囲で離散的に
変えながら行なわれる。かくして、入力したn枚(n≦
m)の画像が前記n個のメモリ5−1〜5−mに各々記
録される。次にアドレス補正装置12により、前記メモリ
5−1〜5−mに記録されている画像について倍率補
正,位置ズレの補正等が行なわれる。その結果は再びメ
モリ5−1〜5−mに記録される。前記メモリ5−1〜
5−mに記録されたアドレス補正が施された画像信号
は、セレクタ13によって選択される。すなわち、n枚の
画像の内、所定の設定条件を満たしたk枚(k≦n)の
画像が選び出される。選び出されたk枚の画像は加算器
14により加算される。加算器14により加算された画像信
号は、メモリ15に記録される。メモリ15に記録された画
像信号は、回復処理装置7により適当な回復フィルタリ
ング処理を施された後、再び前記メモリ15に記録され
る。前記メモリ15に記録された回復処理後の画像は、D/
A変換器8によりアナログ信号に変換されたのち、ディ
スプレイモニタ9に表示される。以上の動作のタイミン
グ,データの流れ,前記セレクタ11,13の設定等の制御
は、コントローラ10によって行なわれる。
(Third Embodiment) FIG. 3 is a diagram showing a configuration of a third embodiment of the present invention.
In the present embodiment, the image formed by the lens 1 is
The image signal is converted into an image signal by the image sensor 2, and further converted to a digital signal by the A / D converter 3. The digital signal is then recorded by the selector 11 in one of the memories 5-1 to 5-m. The above operation is repeatedly performed while moving the lens 1 by the in-focus position controller 6. That is, the above operation is performed while the focus position of the optical system is discretely changed at appropriately set distance intervals and distance ranges. Thus, the input n sheets (n ≦
The image m) is recorded in each of the n memories 5-1 to 5-m. Next, the address correction device 12 performs magnification correction, positional deviation correction, and the like on the images recorded in the memories 5-1 to 5-m. The result is recorded again in the memories 5-1 to 5-m. The memories 5-1 to 5-1
The address-corrected image signal recorded in 5-m is selected by the selector 13. That is, among the n images, k images (k ≦ n) satisfying a predetermined setting condition are selected. The selected k images are added
It is added by 14. The image signal added by the adder 14 is recorded in the memory 15. The image signal recorded in the memory 15 is subjected to an appropriate restoration filtering process by the restoration processing device 7 and then recorded in the memory 15 again. The image after the recovery processing recorded in the memory 15 is D /
After being converted into an analog signal by the A converter 8, it is displayed on the display monitor 9. The controller 10 controls the above operation timing, data flow, setting of the selectors 11 and 13, and the like.

なお前記メモリ5−1〜5−mに記録された原画像信
号を、別の記録媒体に記録しておき、画像再生の際に前
記記録媒体から記録されている画像信号を読込み、この
読込んだ画像信号にアドレス補正および加算,回復処理
等を行なって表示するようにしても良い。つまり、画像
の記録部と再生部との間を、記録媒体を介してオフライ
ンで連結するようにしてもよい。
The original image signals recorded in the memories 5-1 to 5-m are recorded on another recording medium, and the image signals recorded from the recording medium are read at the time of image reproduction, and the read image signals are read. The image signal may be displayed after performing address correction, addition, recovery processing, and the like. That is, the image recording unit and the reproduction unit may be connected off-line via the recording medium.

上記構成の第3実施例によれば次のような作用効果を
奏する。すなわち本実施例においては、焦点位置の異な
る複数枚の画像を全て記録保存しておき、これらから所
要の画像を選択して合成するようにしたので、画像内の
任意に設定した部分に焦点の合った画像を再生できる利
点がある。また前記アドレス補正装置12によって、ボケ
具合の差に伴う倍率の違い、或いは画像入力時のブレや
被写体の動きによる位置ズレが補正されるので、本装置
を適用可能な範囲を広げ得る利点もある。なお前記アド
レス補正装置12では、例えば画像間で局所的なマッチン
グを行なうことにより、位置合せ操作を行なうものとな
っている。したがって本実施例によれば、焦点深度や画
像内における合焦点部分の設定を様々に変えることが可
能である。また加算処理に対して、倍率を変える必要が
ある場合においても有用なものとなる。さらに画像入力
時に、装置または対象物が動くことによって各画像間に
位置ズレが起こり、再生画像にブレ等が生じる場合であ
っても、その悪影響を補正できる。従って本装置の適用
範囲を広げることができる。
According to the third embodiment having the above configuration, the following operation and effect can be obtained. That is, in this embodiment, a plurality of images having different focal positions are all recorded and stored, and a desired image is selected from these images and synthesized, so that the focus is arbitrarily set in the image. There is an advantage that a combined image can be reproduced. In addition, the address correction device 12 corrects a difference in magnification due to a difference in the degree of blur, or a positional shift due to blurring during image input or movement of a subject. . The address correction device 12 performs a positioning operation by performing, for example, local matching between images. Therefore, according to the present embodiment, it is possible to variously change the depth of focus and the setting of the focused portion in the image. This is also useful when it is necessary to change the magnification in addition processing. Furthermore, even when a device or a target moves during image input, a position shift occurs between the images, and blurring or the like occurs in a reproduced image, the adverse effect can be corrected. Therefore, the applicable range of the present device can be expanded.

(第4実施例) 第4図は本発明の第4実施例の構成を示す図である。
本実施例においては、画像入力光学系におけるレンズ1
の後方位置にハーフミラー16−1,16−2を設け、さらに
前記レンズ1からの距離がそれぞれ異なるように、例え
ば3個の撮像素子2−1,2−2,2−3を配設する。各撮像
素子2−1,2−2,2−3からの画像信号は、対応するA−
D変換器3−1,3−2,3−3によってそれぞれディジタル
信号に変換される。上記した点以外は、前記第1および
第3実施例と同様であるので、図示および説明は省略す
る。
(Fourth Embodiment) FIG. 4 is a diagram showing a configuration of a fourth embodiment of the present invention.
In this embodiment, the lens 1 in the image input optical system
Half mirrors 16-1 and 16-2 are provided at the rear of the camera, and, for example, three image pickup devices 2-1, 2-2 and 2-3 are arranged so that the distances from the lens 1 are different from each other. . The image signals from the respective image pickup devices 2-1, 2-2, and 2-3 correspond to the corresponding A-
The signals are converted into digital signals by the D converters 3-1, 3-2, 3-3, respectively. Except for the points described above, the configuration is the same as that of the first and third embodiments, so that illustration and description are omitted.

なお前記撮像素子2−1,2−2,2−3の位置を可変に
し、対象物に応じてその位置を適当に可変設定できるよ
うにしてもよい。
Note that the positions of the imaging elements 2-1, 2-2, 2-3 may be made variable so that the positions can be appropriately variably set in accordance with an object.

上記構成の第4実施例は次のような作用効果を奏す
る。本実施例においては、複数の異なる面で結像された
像を入力することにより、合焦位置の異なる複数の画像
を同時に入力することが可能となる。したがって合焦点
位置を変えるという機械的な動作を行なわずに済む上、
その構成上、より適用範囲の広い装置が得られる。
The fourth embodiment having the above configuration has the following operation and effects. In the present embodiment, by inputting images formed on a plurality of different surfaces, it becomes possible to simultaneously input a plurality of images having different focus positions. Therefore, it is not necessary to perform the mechanical operation of changing the focal point position, and
Due to its configuration, a device with a wider application range can be obtained.

(第5実施例) 第5図は本発明の第5実施例の構成を示す図である。
本実施例においては、複数の位置に焦点の合うように設
定されたフレネルゾーンプレート17を画像入力光学系に
設け、複数の物体面に焦点の合った複数の画像を撮像素
子2へ同時に入力する。なお実際の入力光学系は前記フ
レネルゾーンプレート17の他に複数のレンズを用いて構
成されるが、図では簡略化のため前記フレネルゾーンプ
レート17のみを示した。前記撮像素子2からの画像信号
はA/D変換器3によりデジタル信号に変換されたメモリ
5に記録される。前記メモリ5に記録された画像は、回
復処理装置7によって適当な回復フィルタリング処理を
施された後、再びメモリ5に記録される。前記回復処理
が施されて前記メモリ5に記録された画像は、D/A変換
器8によりアナログ信号に変換され、ディスプレイモニ
タ9によって表示される。以上の動作におけるタイミン
グやデータの流れ等の制御はコントローラ10で行なわれ
る。
(Fifth Embodiment) FIG. 5 is a diagram showing a configuration of a fifth embodiment of the present invention.
In the present embodiment, a Fresnel zone plate 17 set to focus on a plurality of positions is provided in the image input optical system, and a plurality of images focused on a plurality of object planes are simultaneously input to the image sensor 2. . Although an actual input optical system is configured using a plurality of lenses in addition to the Fresnel zone plate 17, only the Fresnel zone plate 17 is shown in the figure for simplification. An image signal from the image sensor 2 is recorded in a memory 5 converted into a digital signal by an A / D converter 3. The image recorded in the memory 5 is subjected to an appropriate restoration filtering process by the restoration processing device 7 and then recorded in the memory 5 again. The image that has been subjected to the recovery processing and recorded in the memory 5 is converted into an analog signal by the D / A converter 8 and displayed on the display monitor 9. The timing, data flow, and the like in the above operations are controlled by the controller 10.

なお第5図の構成に、前述した合焦点位置制御器6を
付設し、合焦点位置を互いに補うように設定すると共
に、入力した画像について第1〜第3の実施例と同様な
処理を行なうようにしてもよい。
It should be noted that the above-described in-focus position controller 6 is added to the configuration of FIG. 5 so that the in-focus positions are set so as to complement each other, and the same processing as in the first to third embodiments is performed on the input image. You may do so.

上記構成の第5実施例によれば次のような作用効果を
奏する。本実施例においては、複数の位置に焦点を結ぶ
ように設計されたフレネルゾーンプレート17をレンズ
(不図示)と共に用いる事により、一度に複数の物体面
に焦点の合った像を結像し、これを撮像素子2へ同時に
入力して、実質的に加算を行なうようにしたものであ
る。
According to the fifth embodiment having the above configuration, the following operation and effect can be obtained. In the present embodiment, by using a Fresnel zone plate 17 designed to focus on a plurality of positions together with a lens (not shown), an in-focus image is formed on a plurality of object surfaces at once, This is input to the image sensor 2 at the same time, and the addition is substantially performed.

第6図は複数の位置に焦点が合うように設計されたフ
レネルゾーンプレート17の正面図である。一般にフレネ
ルゾーンプレート17は、円形開口を各々の面積が等しく
なるような輪帯(フレネル輪帯)に分け、一つおきに不
透明になるように設計される。このようなフレネルゾー
ンプレート17は ±f0=r2/λ (但しr1はフレネルゾーンプレート17の中心の円の半径
であり、λは光の波長である)の焦点距離を持つレンズ
と同じ作用をする。したがって、このフレネルゾーンプ
レート17を、結像レンズと組合わせると、その合成焦点
距離が複数となり、レンズを固定した状態のまま、距離
の異なる複数の物体面に焦点を合せる事ができる。理論
的には一つのフレネルゾーンプレート17は±f0の他に±
f0/3,f0/5…なる焦点距離を持つが、実際には±f0の焦
点に集光される光の強度が強く、他の焦点の効果は小さ
い。その上、非回折光によるレンズの元の焦点距離も保
存される。ところが一つおきの輪帯を不透明にする代わ
りに、通過した光の位相がπだけ遅れるように作ると、
±f0の位置は同じであるが、そこに集光する光の強度は
増大する。またレンズの元の焦点位置は消滅する。更に
位相差を適当に選ぶと、±f0とレンズの元の焦点位置の
3箇所に焦点が生じるようになる。このフレネルゾーン
プレートは元来特定の波長だけで厳密にはたらくが、そ
の波長を可視光の中心波長(λ=550nm)付近に選ぶ
と、色収差の影響は実用上それほど大きくない。なお所
定の位相差を持つ輪帯は、例えばMgF2の様な透明薄膜を
真空蒸着することにより作成される。
FIG. 6 is a front view of a Fresnel zone plate 17 designed to focus on a plurality of positions. In general, the Fresnel zone plate 17 is designed such that the circular openings are divided into annular zones (Fresnel annular zones) having the same area, and are opaque every other one. Such a Fresnel zone plate 17 has the same focal length as ± f 0 = r 2 / λ (where r 1 is the radius of the center circle of the Fresnel zone plate 17 and λ is the wavelength of light). Works. Therefore, when the Fresnel zone plate 17 is combined with an imaging lens, the combined focal length becomes plural, and it is possible to focus on a plurality of object planes having different distances with the lens fixed. Theoretically, one Fresnel zone plate 17 has ± f 0 in addition to ± f 0
Although with f 0/3, f 0/ 5 ... becomes the focal length actually stronger intensity of light focused at the focal point of ± f 0 is the small effect of other focus. In addition, the original focal length of the lens due to undiffracted light is preserved. However, instead of making every other zone opaque, if the phase of the transmitted light is delayed by π,
Although the position of ± f 0 is the same, the intensity of light condensed there increases. Also, the original focal position of the lens disappears. Furthermore, if the phase difference is appropriately selected, the focus will be generated at three places of ± f 0 and the original focal position of the lens. Although this Fresnel zone plate originally works strictly only at a specific wavelength, if the wavelength is selected near the central wavelength of visible light (λ = 550 nm), the effect of chromatic aberration is not so large in practical use. Note annular with a predetermined phase difference is created by vacuum deposition of transparent thin films, such as for example, MgF 2.

かくして本実施例によれば、焦点位置を変えるという
機械的な動作をすることなしに、1枚の光学素子を用い
るだけで複数の物体面に焦点の合った画像を入力加算す
ることができる。したがって構成を非常に簡略化するこ
とができ、しかも対象物等の動きによるブレ等に強くな
る。
Thus, according to the present embodiment, it is possible to input and add images focused on a plurality of object surfaces only by using one optical element without performing a mechanical operation of changing the focal position. Therefore, the configuration can be extremely simplified, and the camera is more resistant to blurring caused by movement of the object or the like.

(第6実施例) 第7図は本発明の第6実施例の構成を示す図である。
本実施例においては、画像入力光学系にわざと色収差が
出るように設計された光学素子、図ではレンズ18を設け
る。撮像素子2としては、可視光のスペクトル全幅に対
して感度をもつモノクロの撮像管もしくは固体撮像素子
を用いる。以上の構成により光の波長により異なる位置
に焦点の合った画像を一度に結像し、これらを前記撮像
素子2で入力,加算する。以下の構成は第5実施例と同
様である。
(Sixth Embodiment) FIG. 7 is a diagram showing a configuration of a sixth embodiment of the present invention.
In this embodiment, an optical element designed to intentionally produce chromatic aberration in the image input optical system, in which a lens 18 is provided, is provided. As the imaging device 2, a monochrome imaging tube or a solid-state imaging device having sensitivity to the entire width of the spectrum of visible light is used. With the above configuration, images focused on different positions depending on the wavelength of light are formed at once, and these are input and added by the image sensor 2. The following configuration is the same as in the fifth embodiment.

なお前記撮像素子2の前にバンドパス色フィルタを設
けて複数の異なる波長領域の画像を入力し、かつ記録す
ることにより、第3実施例と同様の構成でアドレス補正
や焦点深度操作等の処理を行なうようにしてもよい。
By providing a bandpass color filter in front of the image sensor 2 and inputting and recording images in a plurality of different wavelength regions, processing such as address correction and depth of focus operation can be performed in the same configuration as in the third embodiment. May be performed.

上記構成の第6実施例によれば次のような作用効果を
奏する。本実施例は、一般的な対象物の反射分光スペク
トルは可視光のほぼ全域にわたる広い幅にわたって分布
しており、各波長での画像は互いに強い相関をもつとい
う性質を利用した実施例である。すなわち、作為的に色
収差を持つような光学素子を使うことにより、各波長ご
とに異なる位置に焦点の合った像を結像し、これを撮像
素子2で入力することにより実質的に加算を行なうよう
にしている。したがって、合焦点位置を変えるという機
械的な動作を行なわずに、色収差の大きな光学素子を用
いるだけで、複数の位置に焦点の合った画像を入力,加
算することができる。かくして構成を非常に簡略化する
ことができ、しかも対象物等の動きによるブレ等に対し
て強くなる。
According to the sixth embodiment having the above configuration, the following operation and effect can be obtained. The present embodiment is an embodiment utilizing the property that the reflection spectrum of a general object is distributed over a wide range over almost the entire visible light range, and that the images at the respective wavelengths have a strong correlation with each other. That is, by using an optical element that artificially has chromatic aberration, an in-focus image is formed at a different position for each wavelength, and the addition is substantially performed by inputting the image to the image sensor 2. Like that. Therefore, it is possible to input and add images focused on a plurality of positions only by using an optical element having a large chromatic aberration without performing a mechanical operation of changing the focal point position. Thus, the configuration can be greatly simplified, and the configuration is more resistant to blurring caused by movement of the object or the like.

ここで第1〜第6の実施例で用いられる回復処理装置
7の具体例について説明する。回復処理装置7は、前述
したように合焦点位置の異なる画像を加算した画像に対
し、空間周波数に対する適当なハイパスフィルタあるい
はバンドパスフィルタをかけるための処理を行なう装置
である。
Here, a specific example of the recovery processing device 7 used in the first to sixth embodiments will be described. The restoration processing device 7 is a device that performs a process for applying an appropriate high-pass filter or band-pass filter to a spatial frequency to an image obtained by adding images having different focal positions as described above.

第8図は回復処理装置7の一つの具体的構成例を示す
ブロック図である。メモリ5に格納されている合焦点位
置の異なる画像について加算された画像は、回復処理装
置7内のFFT演算器20によって、2次元フーリエ変換が
実行され、その結果はメモリ21に記録される。一方、メ
モリ22内には空間周波数面上で適当に設計されたフィル
タの係数が記録されている。前記メモリ21に記録されて
いる画像の空間周波数スペクトルと、上記メモリ22に記
録されているフィルタ係数との乗算が、乗算器23におい
て実行される。その結果は再び前記メモリ21に記録され
る。メモリ21に記録されたフィルタリングに施された空
間周波数画像は、前記FFT演算器20によって2次元逆フ
ーリエ変換が実行され、その結果は前記メモリ5に記録
される。本構成によれば、空間周波数面上でフィルタを
任意の形状に設計できる。
FIG. 8 is a block diagram showing one specific configuration example of the recovery processing device 7. As shown in FIG. Two-dimensional Fourier transform is executed by the FFT calculator 20 in the recovery processing device 7 on the image stored in the memory 5 and added for the images having different focal points, and the result is recorded in the memory 21. On the other hand, in the memory 22, the coefficients of the filter appropriately designed on the spatial frequency plane are recorded. The multiplication of the spatial frequency spectrum of the image recorded in the memory 21 and the filter coefficient recorded in the memory 22 is performed in the multiplier 23. The result is recorded in the memory 21 again. The spatial frequency image subjected to filtering recorded in the memory 21 is subjected to a two-dimensional inverse Fourier transform by the FFT calculator 20, and the result is recorded in the memory 5. According to this configuration, the filter can be designed into an arbitrary shape on the spatial frequency plane.

第9図は回復処理装置7の他の具体的構成例を示すブ
ロック図である。メモリ5に格納されている合焦点位置
の異なる画像について加算された画像のうち、回復処理
装置7の内部に設けてあるアドレス発生器30によって指
定された画素成分値が、乗算器32に入力される。これと
同時に前記アドレス発生器30によって指定されたメモリ
31に記録されている係数が、前記乗算器32に入力され、
両者間の乗算が実行される。この乗算器32における演算
結果は、加算器33においてメモリ34に記録されている値
と加算され、その結果は再びメモリ34に記録される。以
上の構成により、画像内の3×3pixel,5×5pixelといっ
た局所領域における「たたみ込み演算」が実行され、そ
の結果は再びメモリ5に記録される。
FIG. 9 is a block diagram showing another specific configuration example of the recovery processing device 7. The pixel component value designated by the address generator 30 provided inside the recovery processing device 7 is input to the multiplier 32 among the images added to the images having different focal positions stored in the memory 5. You. At the same time, the memory specified by the address generator 30
The coefficient recorded in 31 is input to the multiplier 32,
Multiplication between the two is performed. The calculation result in the multiplier 32 is added to the value recorded in the memory 34 in the adder 33, and the result is recorded in the memory 34 again. With the above configuration, the “convolution operation” is performed in a local area such as 3 × 3 pixels or 5 × 5 pixels in the image, and the result is recorded in the memory 5 again.

本構成例は、フィルタリングを空間周波数面上で行な
う代わりに、画像面上で適当に設計されたマスクとの
「たたみ込み演算」をすることにより回復処理を行なう
ものである。したがって本構成例によれば、簡単な回路
構成で処理を実現でる。特に小さなマスクサイズで効果
的なフィルタが設計可能な場は、演算量も少なくなり有
利となる。
In this configuration example, instead of performing the filtering on the spatial frequency plane, the restoration processing is performed by performing a “convolution operation” with an appropriately designed mask on the image plane. Therefore, according to this configuration example, processing can be realized with a simple circuit configuration. In particular, when an effective filter can be designed with a small mask size, the amount of calculation is reduced, which is advantageous.

この他、画面上でマスク処理を行なう構成例としてパ
イプライン方式のプロセッサを用い、高速に処理を実行
することも可能である。
In addition, as a configuration example of performing mask processing on a screen, a pipeline-type processor can be used to execute processing at high speed.

ここで回復フィルタの設計の方法について述べる。先
ずシミュレーションにより回復フィルタを設計する方法
について記載する。一般にインコヒーレント結像光学系
の空間周波数特性は、瞳関数の自己相関で表されるOpti
cal Transfer Function(以下ではOTFと略す)で表現で
きる。円形開口を仮定した場合、焦点の合った面のOTF
は式で示される瞳関数の自己相関(式)で表現でき
る。
Here, a method of designing a recovery filter will be described. First, a method of designing a recovery filter by simulation will be described. In general, the spatial frequency characteristic of an incoherent imaging optical system is represented by an autocorrelation of a pupil function.
It can be expressed by cal Transfer Function (abbreviated below as OTF). Assuming a circular aperture, the in-focus OTF
Can be expressed by the autocorrelation (expression) of the pupil function shown by the expression.

但し(x,y)は瞳面を直交座標で表した場合の座標軸で
あり、(r,θ)は円筒座標で表した場合の動径成分と角
度成分である。
Here, (x, y) is a coordinate axis when the pupil plane is represented by rectangular coordinates, and (r, θ) are a radial component and an angular component when represented by cylindrical coordinates.

a0は瞳の大きさを表し、例えばレンズの絞りの半径を設
定すれば良い。また円形開口の場合、角度方向に無関係
のためθは省略できる。次に焦点はずれのOTFは式に
示す一般化された瞳関数の自己相関で表すことができ
る。
a 0 represents the size of the pupil, and for example, the radius of the aperture of the lens may be set. In the case of a circular aperture, θ can be omitted because it has nothing to do with the angular direction. The out-of-focus OTF can then be represented by the autocorrelation of the generalized pupil function shown in the equation.

P(x,y) =P(r,θ) =P(r)exp[jkW(r;z)] … ここでk=2π/λは波数,またW(r;z)は波面収
差であり、ある物体面に焦点が合うような光の波面W1と
焦点はずれの波面W2との瞳面上における差で表される。
zは光軸上の座標であり、焦点が合った位置をz=0と
し、どれだけ焦点位置からはずれているかを示す量であ
る。波面収差W(r;z)は近軸領域の近似であれば、ほ
ぼ W(r;z)=r2・z(2・f2) … で表され、レンズの開口が大きい場合は W(r;z) =r2・z/[2(f2+r2)] … で表される。但しfはレンズの焦点距離であり、f≫z
を仮定した。
P (x, y) = P (r, θ) = P (r) exp [jkW (r; z)] where k = 2π / λ is a wave number, and W (r; z) is a wavefront aberration. It is expressed by the difference on the pupil plane between the wavefront W1 of light that is focused on a certain object plane and the wavefront W2 that is out of focus.
z is a coordinate on the optical axis, and is a quantity indicating how far from the focal position the focal point is, where z = 0. The wavefront aberration W (r; z) is approximately represented by W (r; z) = r 2 · z (2 · f 2 ) if approximating the paraxial region, and W (r; z) when the aperture of the lens is large. r; z) = r 2 · z / [2 (f 2 + r 2 )]. Where f is the focal length of the lens and f≫z
Was assumed.

第10図は、以上の幾何学的関係を示した図である。こ
のようにして、ある焦点はずれ量zに対するOTFを求め
ることができる。
FIG. 10 is a diagram showing the above geometric relationship. In this manner, the OTF for a certain defocus amount z can be obtained.

第11図(a)〜第11図(d)は上記の如く求めたOTF
に基づいて回復フィルタを求める操作手順を示す図であ
る。先ず設定条件に基づいてzを変えることにより、第
11図(a)に示すようなOTFを求める。次にこれらのOTF
を加算することにより、第11図(b)に示すような合成
OTFを求める。そしてこの加算された合成OTFが第11図
(c)に示すように焦点が合っている場合のOTFに回復
される様に、回復フィルタを設計する。この回復フィル
タは、合成されたOTFをH(u,v)=H(μ,φ)=H
(μ)とし、焦点の合っている場合のOTFをH0(μ)と
すると、回復フィルタV(μ)は V(μ)=H0(μ)/H(μ) … で表される。第11図(d)は上記V(μ)を示す。但し
(u,v)は直交系で表した空間周波数座標であり、
(μ,φ)は円筒系で表した空間周波数座標である。円
形開口の場合は角度方向に依存しないため、動径方向の
空間周波数μのみで表現した。
FIGS. 11 (a) to 11 (d) show the OTF obtained as described above.
FIG. 6 is a diagram showing an operation procedure for obtaining a recovery filter based on the operation of the first embodiment. First, by changing z based on the setting conditions,
11 Obtain the OTF as shown in FIG. Then these OTFs
Are added to form a composite as shown in FIG. 11 (b).
Ask for OTF. Then, a restoration filter is designed so that the added combined OTF is restored to the OTF when the focus is achieved as shown in FIG. 11 (c). This restoration filter converts the synthesized OTF into H (u, v) = H (μ, φ) = H
(Μ) and the OTF in focus is H 0 (μ), the recovery filter V (μ) is represented by V (μ) = H 0 (μ) / H (μ). FIG. 11 (d) shows the above V (μ). Where (u, v) is the spatial frequency coordinate expressed in the orthogonal system,
(Μ, φ) is a spatial frequency coordinate expressed in a cylindrical system. Since the circular aperture does not depend on the angular direction, it is expressed only by the spatial frequency μ in the radial direction.

なお対象物がある程度限定され、その画像の統計的な
性質が予測でき、しかもノズルの性質もわかっている場
合には、回復フィルタとして次に示すようなウィナーフ
ィルタを用いることができる。このウィナーフィルタを
用いることにより、ノイズの影響を低減することが可能
である。
If the object is limited to some extent, the statistical properties of the image can be predicted, and the properties of the nozzle are known, the following Wiener filter can be used as the recovery filter. By using this Wiener filter, it is possible to reduce the influence of noise.

W(μ) =[H0(μ)・|H(μ)|2] /[H(μ){|H(μ)+|2+Snn(μ) /Sgg(μ)}] … 但しSnn(μ)はノイズのパワースペクトル,Sgg
(μ)は画像のパワースペクトルである。また擬似的な
ウィナフィルタとして、次式に示すように定義したフィ
ルタを設定し、パラメータPを適当に設定してもよい。
W (μ) = [H 0 (μ) · | H (μ) | 2 ] / [H (μ) {| H (μ) + | 2 + Snn (μ) / Sgg (μ)}] where Snn ( μ) is the power spectrum of the noise, Sgg
(Μ) is the power spectrum of the image. As a pseudo Wiener filter, a filter defined as shown in the following equation may be set, and the parameter P may be set appropriately.

W′(μ) =[H0(μ)・|H(μ)|2] /[H(μ){|H(μ)+|2+P}] … 次に実験的に回復フィルタを求める方法を説明する。
表面が十分平坦であるテストチャートのようなものを所
定位置に置き、この画像を設定した条件で合焦点位置を
変えながら入力し加え合せる。次に前記テストチャート
の表面に焦点の合った画像を入力する。そして合焦点位
置を変えながら入力し、かつ加え合せた画像に対し、適
当な回復フィルタをかけてみて、前記焦点の合った画像
と比較する。この比較により両画像が同等に見えるよう
に回復フィルタを調整して再び比較する。このような操
作を繰返すことにより、所要の回復フィルタを求める。
本方法は実用的に有効である。
W ′ (μ) = [H 0 (μ) · | H (μ) | 2 ] / [H (μ) {| H (μ) + | 2 + P}] Next, a method of experimentally obtaining a recovery filter. Will be described.
A test chart having a sufficiently flat surface is placed at a predetermined position, and the image is input and added while changing the focal point under the set conditions. Next, an image focused on the surface of the test chart is input. Then, an image obtained by inputting while changing the in-focus position and added together is subjected to an appropriate restoration filter, and is compared with the in-focus image. By this comparison, the recovery filter is adjusted so that the two images look equivalent, and the comparison is performed again. By repeating such an operation, a required recovery filter is obtained.
This method is practically effective.

以上シミュレーションと実験とによる回復フィルタの
求め方について記載した。なお回復フィルタは必ずしも
焦点の合った場合の周波数特性まで戻せばよいというも
のではなく、例えば高周波領域をより強調して「メリハ
リ」の効いた画像にしてもよいし、また逆に完全には回
復させずにソフトフォーカス効果の効いた画像にしても
よい。
The method of obtaining the recovery filter by the simulation and the experiment has been described above. Note that the restoration filter does not always have to restore the frequency characteristics at the time of focusing. For example, a high-frequency region may be further emphasized to make the image sharper, or conversely, the image may be completely restored. An image with a soft focus effect may be used instead.

(第7実施例) 第12図は本発明の第7実施例の構成を示す図であっ
て、本発明(特に第2実施例)を反射型顕微鏡に適用し
た応用例を示す図である。第12図に示すように光源100
から発せられた光は落射照明装置101によって導びか
れ、最終的には対物レンズ102を介して資料の表面に照
射される。試料からの反射光像は前記対物レンズ102に
よって結像され、鏡筒103の上に設置されたTVカメラ104
によって撮像される。なおこの際、資料に対する合焦点
面はフォーカスレベル駆動装置105によって設定時間内
に連続的に変えられる。この間に入力される画像は前記
TVカメラ104の受光素子部に蓄積される。なお資料はX
−Yステージ制御装置106によってX−Y方向に移動操
作される。前記設定時間内に蓄積された画像は、TVカメ
ラ104内の読出し装置により読出され、電気信号として
カメラドライバ107に転送される。なお前記カメラドラ
イバ107は前記TVカメラ104に対する電力供給等の制御も
行なうものである。前記カメラドライバ107に転送され
た画像信号は、次にプロセッサ108に送られる。プロセ
ッサ108はA/D変換器,画像メモリ,回復処理装置,D/A変
換器等からなり、前記画像信号に対して適当な回復処理
を施した後、結果をTVモニタ109に与える。かくして上
記結果はTVモニタ109によって表示される。以上の動作
は、X−Yステージ制御装置106の制御によって資料の
異なる部分について繰返し行なわれ、かつ表示される。
本実施例における顕微鏡はコントローラ110によって総
合的に制御され、条件設定等はマン・マシンインターフ
ェース111を通じて観測者によって行なわれる。
Seventh Embodiment FIG. 12 is a diagram showing a configuration of a seventh embodiment of the present invention, and is a diagram showing an application example in which the present invention (particularly, a second embodiment) is applied to a reflection microscope. The light source 100 as shown in FIG.
The light emitted from the light source is guided by the epi-illumination device 101, and is finally irradiated on the surface of the material through the objective lens 102. A reflected light image from the sample is formed by the objective lens 102, and a TV camera 104 set on a lens barrel 103.
Is imaged. At this time, the focal plane for the material is continuously changed by the focus level driving device 105 within a set time. The image input during this time is
It is stored in the light receiving element of the TV camera 104. The material is X
The moving operation in the XY direction is performed by the -Y stage control device 106. The image stored within the set time is read by a reading device in the TV camera 104 and transferred to the camera driver 107 as an electric signal. The camera driver 107 also controls power supply to the TV camera 104 and the like. The image signal transferred to the camera driver 107 is then sent to the processor 108. The processor 108 includes an A / D converter, an image memory, a recovery processing device, a D / A converter, etc., performs an appropriate recovery process on the image signal, and gives the result to the TV monitor 109. Thus, the result is displayed by the TV monitor 109. The above operation is repeatedly performed for different portions of the material under the control of the XY stage control device 106 and displayed.
The microscope according to the present embodiment is comprehensively controlled by the controller 110, and conditions are set by an observer through the man-machine interface 111.

本実施例によれば、顕微鏡に対して解像度や明るさを
保ったまま、焦点深度の大きい画像の合成を比較的簡単
な装置構成により実現できる。顕微鏡の場合、非常に細
かい構造を観測しようとすると、高い倍率の対物レンズ
を使用しなければならないが、一般に高倍率の対物レン
ズになる程、N.A.が大きく焦点深度は浅くなる。このよ
うな場合において、本実施例の如く構成すれば焦点深度
の深い画像を表示する方法として有効である。特にフォ
ーカスレベル駆動装置105やプロセッサ108を高速動作で
きるようにすれば、リアルタイムで表示することも可能
であり、より実用的なものとなる。かくして本実施例の
構成は、IC,LSIの検査をはじめとして鉱物,紙,繊維,
生体組織などの広範囲な産業分野における様々な対象物
の観察において有用である。
According to this embodiment, synthesis of an image with a large depth of focus can be realized with a relatively simple apparatus configuration while maintaining resolution and brightness with respect to the microscope. In the case of a microscope, a high-power objective lens must be used to observe a very fine structure. However, in general, a higher-power objective lens has a large NA and a shallow depth of focus. In such a case, the configuration according to the present embodiment is effective as a method of displaying an image with a large depth of focus. In particular, if the focus level driving device 105 and the processor 108 can be operated at high speed, real-time display is possible, which is more practical. Thus, the configuration of this embodiment includes the inspection of IC, LSI, minerals, paper, fiber,
It is useful in observing various objects in a wide range of industrial fields such as biological tissues.

なお本実施例では反射型顕微鏡への適用例を示した
が、透過型顕微鏡,蛍光顕微鏡など他の方式の顕微鏡に
対しても適用可能である。また画像入力,加算方法に関
してはプロセッサ108内に加算器を設け、本発明の第1
実施例と同様に構成するようにしても良い。
In this embodiment, an example in which the present invention is applied to a reflection microscope is shown. However, the present invention can also be applied to other types of microscopes such as a transmission microscope and a fluorescence microscope. As for the image input and addition method, an adder is provided in the processor 108 and the first embodiment of the present invention
You may make it comprise similarly to an Example.

(第8実施例) 第13図は本発明の第8実施例の構成を示す図であっ
て、本発明を面順次方式の電子内視鏡に適用した応用例
を示す図である。第13図に示すように本装置は大きく分
けて内視鏡プローブ200,画像入力装置201,色ズレ補正装
置202,色彩情報記録装置203,焦点深度増大装置204,画像
表示装置205,コントローラ206からなる。
(Eighth Embodiment) FIG. 13 is a diagram showing a configuration of an eighth embodiment of the present invention, and is a diagram showing an application example in which the present invention is applied to a field sequential type electronic endoscope. As shown in FIG. 13, this device is roughly divided into an endoscope probe 200, an image input device 201, a color shift correcting device 202, a color information recording device 203, a focal depth increasing device 204, an image display device 205, and a controller 206. Become.

内視鏡プローブ200は、先端にCCD等のモノクロ用固体
撮像素子210を備えており、合焦点位置制御器211におけ
る対物レンズで結像された画像を撮像する。この場合の
照明光は、前記画像入力装置201内に設置されているXe
ランプ等の白色光源212からの光を、回転色フィルタ213
を通過させたのち、光ファイバー等で構成されるライト
ガイド214によって前記内視鏡プローブ200内に導き、プ
ローブ先端より照射される。
The endoscope probe 200 includes a monochrome solid-state imaging device 210 such as a CCD at the tip, and captures an image formed by the objective lens in the focal point position controller 211. The illuminating light in this case is Xe installed in the image input device 201.
Light from a white light source 212 such as a lamp is
After that, the light is guided into the endoscope probe 200 by a light guide 214 composed of an optical fiber or the like, and irradiated from the tip of the probe.

第14図は前記回転色フィルタ213の構造を示す平面図
である。図に示すように赤(R),緑(G),青(B)
の各ベクトル透過フィルタ要素213R,213G,213Bを回転角
方向に間欠的に配設したものである。
FIG. 14 is a plan view showing the structure of the rotary color filter 213. As shown in the figure, red (R), green (G), blue (B)
Are arranged intermittently in the rotation angle direction.

第13図に説明を戻す。前記回転色フィルタ213は前記
画像入力装置201内のモータ213Mによって回転駆動され
ることにより、照射光をR,G,Bの順に順次変える。この
ため前記撮像素子210は夫々の色の光で照射された対象
物をモノクロ画像として撮像する。前記撮像素子210か
らの出力画像信号は、前記画像入力装置201内のA/D変換
器215によりデジタル信号に変換されたのち、セレクタ2
16によりフレームメモリ217内のR,G,B各色毎の領域に振
分けられ、該当する領域に格納される。なお以上の動作
は画像入力用コントローラ218により制御される。そし
て逐次的に前記フレームメモリ217の各領域に格納され
た各原色画像は、別のセレクタ219によってR,G,Bの各原
色画像のうち、RとGもしくはGとBが選択される。セ
レクタ219からの出力は色ズレ補正装置202内に導かれ、
原色画像間の対応領域検出装置220に入力される。そし
て、この検出装置220により、G画像に対するR画像ま
たはB画像のズレ量が局所的に検出される。アドレス発
生器221は、原色画像間の対応領域検出装置220で求めた
ズレ量に基づいてR画像,B画像を補正するようなアドレ
ス信号を発生させ、これを前記フレームメモリ217に送
る。フレームメモリ217では前記アドレス信号とバッフ
ァメモリを利用してR画像,B画像の補正を行なう。
Returning to FIG. The rotating color filter 213 is driven to rotate by a motor 213M in the image input device 201, so that the irradiation light is sequentially changed in the order of R, G, and B. For this reason, the image pickup device 210 picks up an object illuminated with each color light as a monochrome image. The output image signal from the image sensor 210 is converted into a digital signal by an A / D converter 215 in the image input device 201, and then the selector 2
The data is allocated to areas for each of R, G, and B colors in the frame memory 217 by the 16 and stored in the corresponding areas. The above operation is controlled by the image input controller 218. Then, for each primary color image sequentially stored in each area of the frame memory 217, R and G or G and B are selected from the R, G, and B primary color images by another selector 219. The output from the selector 219 is guided into the color misregistration correction device 202,
The corresponding region between the primary color images is input to the corresponding region detecting device 220. Then, the shift amount of the R image or the B image with respect to the G image is locally detected by the detection device 220. The address generator 221 generates an address signal for correcting the R image and the B image based on the shift amount obtained by the corresponding area detection device 220 between the primary color images, and sends it to the frame memory 217. The frame memory 217 corrects the R image and the B image using the address signal and the buffer memory.

このようにして得られた一枚のカラー画像は、前記セ
レクタ219を介して色彩情報記録装置203に導びかれる。
色彩情報記録装置203に導かれたカラー画像は、加算器2
22によって各色成分を加え合され、明度Y=R+G+B
の値が算出される。また、除算器223−1〜223−3によ
って各成分値R,G,Bの値を上記明度Yで除すための割り
算が実行される。その結果すなわち、R/Y,G/Y,B/Yの値
はメモリ224−1〜224−3にそれぞれ格納される。
One color image thus obtained is guided to the color information recording device 203 via the selector 219.
The color image guided to the color information recording device 203 is added to the adder 2
22, the respective color components are added and the brightness Y = R + G + B
Is calculated. Further, the dividers 223-1 to 223-3 execute division for dividing the values of the component values R, G, and B by the brightness Y. As a result, the values of R / Y, G / Y, and B / Y are stored in the memories 224-1 to 224-3, respectively.

一方、前記画像入力装置201内のフレームメモリ217に
格納されているR,G,B画像は、焦点深度増大装置204内に
導かれ、加算器225によって加算される。その加算結果
はフレームメモリ226に格納される。フレームメモリ226
内に格納された画像に対し、回復処理装置227による回
復フィルタリング処理が行なわれる。その結果は再びフ
レームメモリ226に記録される。このフレームメモリ226
に記録された回復処理後の画像信号は、前記色彩情報装
置203内に導かれる。
On the other hand, the R, G, B images stored in the frame memory 217 in the image input device 201 are guided into the depth of focus increasing device 204 and added by the adder 225. The result of the addition is stored in the frame memory 226. Frame memory 226
The restoration filtering process by the restoration processing device 227 is performed on the image stored in the storage device. The result is recorded in the frame memory 226 again. This frame memory 226
The image signal after the recovery process recorded in the color information device 203 is guided into the color information device 203.

色彩情報装置203内に導かれた画像信号と、前記メモ
リ224−1〜224−3に格納されている色彩情報とは、乗
算器228−1〜228−3によって夫々の色成分ごとに掛け
算が行なわれる。その結果は画像表示装置205内に導か
れる。
The image signal guided into the color information device 203 and the color information stored in the memories 224-1 to 224-3 are multiplied by multipliers 227-1 to 228-3 for each color component. Done. The result is led into the image display device 205.

画像表示装置205内に導かれた前記乗算器228−1〜22
8−3からの信号は、D/A変換器229−1〜229−3によっ
てアナログ信号に変換された後、TVモニタ230によって
表示される。以上の画像処理,表示部は前記コントロー
ラ206により制御される。
The multipliers 228-1 to 228 guided to the image display device 205.
The signal from 8-3 is converted into an analog signal by the D / A converters 229-1 to 229-3, and then displayed on the TV monitor 230. The above image processing and display unit are controlled by the controller 206.

このように本実施例は、一般にR,G,Bのカラー3原色
画像間には強い相関があるという性質と、画像のボケ具
合のほとんどはカラー情報のうちの明度に依存するとい
う性質とを利用し、本発明を面順次方式の電子内視鏡に
適用するのに際し、各原色画像ごとに異なる焦点位置の
画像を入力し、これらを加えて回復処理を行なうという
手段を用いたものである。
As described above, the present embodiment generally has the property that there is a strong correlation between the three primary color images of R, G, and B, and the property that most of the blurring of the image depends on the brightness of the color information. When applying the present invention to a field sequential type electronic endoscope, an image at a different focal position is input for each primary color image, and a recovery process is performed by adding these images. .

以下本実施例の動作を説明する。先ず画像入力装置20
1によってR,G,Bの各原色画像を逐次的に入力する。この
とき対象物や内視鏡プローブ200自身が急激に動くと、
各原色画像の相対的な位置が異なってしまい、所謂色ズ
レが起こる。そこで色ズレ補正装置202では、G画像を
基準としてR画像およびB画像のズレ量を局所的な部分
画像間のマッチングを計算することにより求めている。
この求められた色ズレ量に基づいてR画像およびB画像
は修正される。この様な方法により、ある設定された合
焦位置におけるカラー画像が入力されると、色彩情報記
録装置203によってR,G,Bの値が明度の情報Y=R+G+
Bでそれぞれノーマライズされる。そして得られた色彩
の情報R/Y,G/Y,B/Yが記録される。一方、焦点位置の異
なった複数の原色画像が入力されると、これらの画像は
上記と同様に補正処理を施された後、加え合せられ、回
復処理が行なわれる。この操作によって焦点深度の深い
明度Y′の画像が合成される。そして最終的に前記Y′
画像に前記色彩情報R/Y,G/Y,B/Yを乗じることにより、
焦点深度の深いカラー画像が合成されるものである。
Hereinafter, the operation of this embodiment will be described. First, the image input device 20
The primary color images of R, G, and B are sequentially input by 1. At this time, if the object or the endoscope probe 200 itself moves rapidly,
The relative position of each primary color image is different, so-called color shift occurs. Therefore, the color misregistration correction device 202 obtains the misregistration amount between the R image and the B image based on the G image by calculating matching between local partial images.
The R image and the B image are corrected based on the obtained color shift amount. When a color image at a certain in-focus position is input by such a method, the color information recording device 203 sets the values of R, G, and B to lightness information Y = R + G +
B normalizes each. Then, the obtained color information R / Y, G / Y, and B / Y are recorded. On the other hand, when a plurality of primary color images having different focal positions are input, these images are subjected to correction processing in the same manner as described above, and then added to perform recovery processing. By this operation, an image having a lightness Y 'with a large depth of focus is synthesized. And finally Y ′
By multiplying the image by the color information R / Y, G / Y, B / Y,
A color image with a large depth of focus is synthesized.

したがって本実施例によれば、内視鏡画像において、
焦点深度の深い画像を比較的簡単な構成で合成できる利
点がある。また焦点深度が浅く、開口が大きい対物レン
ズを使用することが可能となるため、光源のパワーを減
らすことができる。しかも上記の様な対物レンズを使用
すれば、撮像素子の光蓄積時間を短縮でき、色ズレ等の
影響を少なくすることができる。
Therefore, according to the present embodiment, in the endoscope image,
There is an advantage that an image having a large depth of focus can be synthesized with a relatively simple configuration. In addition, since it is possible to use an objective lens having a small depth of focus and a large aperture, the power of the light source can be reduced. Moreover, when the objective lens as described above is used, the light accumulation time of the image sensor can be shortened, and the influence of color shift and the like can be reduced.

なお本実施例の変形例として、次のような例が考えら
れる。フレームメモリ226に記録されている加算画像
に、入力されてくるR,G,B画像を更に加算していく。こ
うすることにより、3箇所以上の焦点位置の画像から焦
点深度の深い画像を合成するようにしてもよい。上記の
場合、前記フレームメモリ226に記録されている画像
と、新たに入力されたG画像との間の位置ズレは、前記
色ズレ補正装置202を利用して補正を行なうようにすれ
ばよい。また、もし画像入力が高速に行われ、色ズレが
ほとんど問題にならない場合には、前記色ズレ補正装置
202は必ずしもに必要ではない。さらに、各原色画像を
入力する際に、本発明の第1実施例あるいは第2実施例
と同様に、入力,加算を行ない、各原色画像ごとに焦点
深度の深い画像を合成するようにしてもよい。
The following example can be considered as a modification of the present embodiment. The input R, G, B images are further added to the added image recorded in the frame memory 226. By doing so, an image having a deep depth of focus may be synthesized from images at three or more focal positions. In the above case, the positional shift between the image recorded in the frame memory 226 and the newly input G image may be corrected by using the color shift correcting device 202. Further, if image input is performed at a high speed and color misregistration is hardly a problem, the color misregistration correction device is used.
202 is not necessary. Further, when each primary color image is input, similarly to the first or second embodiment of the present invention, input and addition are performed, and an image having a deep depth of focus is synthesized for each primary color image. Good.

(第9実施例) 第15図は本発明の第9実施例を示す図であって、本発
明を、カラー単板撮像素子を用いた電子内視鏡へ適用し
た例である。図に示すように、内視鏡プローブ300の先
端には、R,G,Bフィルタで構成されたカラーモザイクフ
ィルタ301で受像面を覆われた固体撮像素子302が設置さ
れている。この撮像素子302により焦点位置制御器303内
の対物レンズにて結像された画像を撮像するものとなっ
ている。なおこの場合の照明光は、装置本体内の白色光
源305から発せられた光を、ライトガイド304によって前
記内視鏡プローブ300内に導くことにより、プローブ先
端より照射される。前記撮像素子302からの出力信号
は、装置本体内に導かれ、色分離回路306によってR,G,B
信号に分離される。なお本実施例では前記カラーモザイ
クフィルタ301がR,G,Bフィルタで構成されていると仮定
しているが、他の色フィルタ、例えばシアン,イエロー
等の補色フィルタで構成しても良い。いずれにしても前
記色分離回路306では、前記カラーモザイクフィルタ301
を通して得られた色信号が分離される。この分離された
R,G,B信号はマトリクス回路307に入力され、Y,R−Y,B−
Y信号に変換される。前記Y,R−Y,B−Y信号は夫々A/D
変換器308−1〜308−3においてデシタル信号に変換さ
れる。このディジタル信号は、フレームメモリ310−1
〜310−3に記録されるが、その際、加算器309−1〜30
9−3によって前記フレームメモリ310−1〜310−3に
すでに記録されている信号と加算されて記録される。つ
まり累積加算記録が行なわれる。以上の構成により前記
内視鏡プローブ300内の焦点位置制御器303により制御さ
れて設定された異なる焦点位置における画像の入力,加
算が行なわれる。
(Ninth Embodiment) FIG. 15 is a view showing a ninth embodiment of the present invention, in which the present invention is applied to an electronic endoscope using a color single-plate image sensor. As shown in the figure, a solid-state imaging device 302 whose image receiving surface is covered with a color mosaic filter 301 composed of R, G, and B filters is installed at the tip of the endoscope probe 300. The imaging element 302 captures an image formed by the objective lens in the focal position controller 303. In this case, the illumination light is emitted from the probe tip by guiding the light emitted from the white light source 305 in the apparatus main body into the endoscope probe 300 by the light guide 304. An output signal from the image sensor 302 is guided into the apparatus main body, and R, G, B
Separated into signals. In this embodiment, the color mosaic filter 301 is assumed to be composed of R, G, B filters, but may be composed of another color filter, for example, a complementary color filter of cyan, yellow or the like. In any case, in the color separation circuit 306, the color mosaic filter 301
Are separated. This isolated
The R, G, B signals are input to a matrix circuit 307, and Y, R−Y, B−
It is converted to a Y signal. The Y, RY and BY signals are A / D respectively.
The signals are converted into digital signals in converters 308-1 to 308-3. This digital signal is stored in the frame memory 310-1.
To 310-3, at which time the adders 309-1 to 30-3 are recorded.
9-3, the signal is added to the signal already recorded in the frame memories 310-1 to 310-3 and recorded. That is, cumulative addition recording is performed. With the above configuration, input and addition of images at different focal positions set by being controlled by the focal position controller 303 in the endoscope probe 300 are performed.

次に前記フレームメモリ310−1に記録されているY
信号画像は、回復処理装置311によって回復処理が施さ
れ、再び前記フレームメモリ310−1に記録される。次
に前記フレームメモリ310−1〜310−3に記録されてい
る各信号は、D/A変換器312−1〜312−3により、それ
ぞれアナログ信号に変換された後、NTSCエンコーダ313
においてNTSC信号に変換される。そして、TVモニタ314
によって表示される。以上の処理はコントローラ315に
より制御される。
Next, Y recorded in the frame memory 310-1
The signal image is subjected to recovery processing by the recovery processing device 311 and is again recorded in the frame memory 310-1. Next, the signals recorded in the frame memories 310-1 to 310-3 are respectively converted into analog signals by the D / A converters 312-1 to 312-3, and then the signals are converted to NTSC encoders 313.
Is converted to an NTSC signal. And TV monitor 314
Displayed by The above processing is controlled by the controller 315.

このように本実施例は、カラーモザイクフィルタ301
を用いた単板式カラー撮像素子302から入力した内視鏡
画像を処理して明るさ成分Yを抽出し、本発明の処理を
行なうことにより焦点深度を増大し、これに平均的な色
彩情報を加えてカラー画像として再生,表示するように
した例である。すなわち内視鏡プローブ300内の焦点位
置制御器303によって制御されて設定された異なる焦点
位置における画像の明るさ成分Yは、加算器309−1,フ
レームメモリ310−1によって累積加算記録され、回復
処理装置311により回復フィルタリング処理が行われる
ことにより、焦点深度が増大される。一方、色彩成分で
あるR−YおよびB−Y信号は、加算器309−2,フレー
ムメモリ310−2および加算器309−3,フレームメモリ31
0−3によりそれぞれ累積加算記録され、焦点位置が異
なる画像間の平均的な色彩情報が求められる。これらは
合成され、NTSC信号として出力される。かくして、焦点
深度の大きいカラー画像が得られる。焦点ズレによるボ
ケた感じは、ほとんど明るさ成分Yに依存するものであ
り、色彩成分について多少ボケていても人間が観察する
上にはほとんど影響がない。したがって、上記のような
処理を行なうことにより、所期の目的を十分に達し得
る。かくして本実施例によれば、単板式カラー撮像素子
を用いた電子内視鏡について、第8実施例と同様の効果
を奏する。
As described above, in the present embodiment, the color mosaic filter 301
Is used to process the endoscope image input from the single-panel color imaging device 302 to extract the brightness component Y, and to increase the depth of focus by performing the processing of the present invention. In addition, this is an example of reproducing and displaying a color image. That is, the brightness components Y of the images at the different focal positions controlled and set by the focal position controller 303 in the endoscope probe 300 are cumulatively added and recorded by the adder 309-1 and the frame memory 310-1, and recovered. By performing the restoration filtering process by the processing device 311, the depth of focus is increased. On the other hand, the RY and BY signals, which are the color components, are added to the adder 309-2, the frame memory 310-2, the adder 309-3, and the frame memory 31.
Average color information between images having different focal positions is obtained by cumulative addition recording according to 0-3. These are combined and output as an NTSC signal. Thus, a color image with a large depth of focus is obtained. The blurred feeling due to the focus shift is almost dependent on the brightness component Y. Even if the color component is slightly blurred, it has almost no effect on human observation. Therefore, the intended purpose can be sufficiently achieved by performing the above processing. Thus, according to the present embodiment, the same effect as that of the eighth embodiment can be obtained for the electronic endoscope using the single-plate type color image sensor.

(第10実施例) 第16図は本発明の第10実施例の構成を示す図であっ
て、第9実施例と同様に本発明を単板式カラー撮像素子
を用いた電子内視鏡へ応用した例である。図示の如く、
内視鏡プローブ300の内部構成および白色光源305の構成
は第15図に示した第9実施例の構成と同じである。撮像
素子302からの信号は、色分離回路306によりR,G,Bの各
色信号に分離され、次にマトリクス回路307によりY,R−
Y,B−Y信号に変換される。前記Y,R−Y,B−Y信号はNTS
Cエンコーダ313によってNTSC信号に変換された後、A/D
変換器308によりデジタル信号に変換される。このデジ
タル信号はフレームメモリ318に予め記録されている信
号と加算器316により加算されたのち、セレクタ317を介
して前記フレームメモリ318に再び記録される。以上の
構成により前記内視鏡プローブ300内の焦点位置制御器3
03により設定された異なる焦点位置における画像は入
力,加算される。前記フレームメモリ318内に記録され
ている加算された画像は、くし形フィルタ319に与えら
れる。このくし形フィルタ319により画像信号、すなわ
ちデジタルのNTSC信号からY信号のみが分離抽出され
る。分離抽出されたY信号は、パイプライン方式により
空間周波数のフィルタリングを行なう回復処理装置320
によって、適当な回復処理を施される。前記回復処理を
施されたY信号は、加算器321において、遅延回路322に
より時間差を調整された元のNTSC信号と加算され、焦点
深度の深いNTSC信号となる。そして前記セレクタ317を
介して前記フレームメモリ318に記録される。このフレ
ームメモリ318に記録された処理画像は、D/A変換器312
によりアナログ信号に変換されたのち、TVモニタ314に
よって表示される。以上の動作はコントローラ315によ
り制御される。
(Tenth Embodiment) FIG. 16 is a diagram showing the configuration of a tenth embodiment of the present invention, and the present invention is applied to an electronic endoscope using a single-plate type color image sensor as in the ninth embodiment. This is an example. As shown
The internal configuration of the endoscope probe 300 and the configuration of the white light source 305 are the same as those of the ninth embodiment shown in FIG. A signal from the image sensor 302 is separated into R, G, and B color signals by a color separation circuit 306, and then Y, R−
It is converted to a Y, BY signal. The Y, R-Y and BY signals are NTS
After being converted to NTSC signal by C encoder 313, A / D
It is converted into a digital signal by the converter 308. The digital signal is added to a signal previously recorded in the frame memory 318 by an adder 316, and then recorded again in the frame memory 318 via a selector 317. With the above configuration, the focal position controller 3 in the endoscope probe 300
Images at different focal positions set by 03 are input and added. The added image recorded in the frame memory 318 is provided to a comb filter 319. The comb filter 319 separates and extracts only the Y signal from the image signal, that is, the digital NTSC signal. The separated and extracted Y signal is subjected to a recovery processing device 320 for filtering a spatial frequency by a pipeline method.
, An appropriate recovery process is performed. The Y signal that has been subjected to the recovery processing is added to the original NTSC signal whose time difference has been adjusted by the delay circuit 322 in the adder 321 to become an NTSC signal having a deep focal depth. Then, the data is recorded in the frame memory 318 via the selector 317. The processed image recorded in the frame memory 318 is stored in the D / A converter 312.
After being converted into an analog signal by the TV monitor 314. The above operation is controlled by the controller 315.

このように本実施例においては、NTSC信号に変換され
たカラー画像信号を、一個のフレームメモリを用いて入
力,加算を行なうようにしたので、第9実施例と同様の
効果を奏する上、装置の規模を小さくできる。
As described above, in the present embodiment, the color image signal converted into the NTSC signal is input and added by using one frame memory, so that the same effect as that of the ninth embodiment can be obtained, and Size can be reduced.

(第11実施例) 第17図は本発明の第11実施例の構成を示す図であっ
て、本発明を光学ファイバー束を用いた内視鏡(ファイ
バースコープ)への応用例である。第17図に示すよう
に、内視鏡プローブ400には、対物レンズと合焦点位置
を連続的に変える駆動装置とから成る合焦点位置制御器
401と、光学ファイバー束で構成されるイメージガイド4
02とが設けられており、画像をそのまま光学的に伝送す
るようになっている。なおこの場合の照明光は、光源装
置404から発せられた白色光をライトガイド403によって
前記内視鏡プローブ400内に導びくことにより、プロー
ブ先端より照射される。前記内視鏡プローブ400の上端
にはカメラ405が設置されている。このカメラ405は、前
記イメージガイド402により伝送された画像を、銀塩フ
ィルムに記録するようになっている。以上の構成におい
て、前記カメラ405のシャッターが開放される間に、前
記合焦点位置制御器401により合焦点位置を連続的に変
えられると、前記カメラ405内の銀塩フィルム上に画像
が加算,記録される。
(Eleventh Embodiment) FIG. 17 is a view showing a configuration of an eleventh embodiment of the present invention, and is an example in which the present invention is applied to an endoscope (fiberscope) using an optical fiber bundle. As shown in FIG. 17, the endoscope probe 400 has a focusing position controller including an objective lens and a driving device that continuously changes the focusing position.
Image guide 4 consisting of 401 and optical fiber bundle
02 is provided, and the image is optically transmitted as it is. In this case, the illumination light is emitted from the tip of the endoscope probe 400 by guiding the white light emitted from the light source device 404 into the endoscope probe 400 by the light guide 403. At the upper end of the endoscope probe 400, a camera 405 is installed. The camera 405 records an image transmitted by the image guide 402 on a silver halide film. In the above configuration, when the focus position is continuously changed by the focus position controller 401 while the shutter of the camera 405 is opened, an image is added to the silver halide film in the camera 405, Be recorded.

第18図は前記銀塩フィルムに記録された画像に対する
回復処理を光学的に行なう手段の構成例を示す図であ
る。マルチスペクトル光源500は、可視光全域にわたっ
て均一なスペクトルを有する白色光源、あるいはR,G,B
の3原色が混合されたり、時間をおいて異なる波長領域
の光が発せられるような光源である。前記マルチスペク
トル光源500からの光は、コリメータレンズ501によりス
リット502上に集光され、近似的な点光源となる。前記
スリット502を通過した光は、レンズ503により平行光に
され、第17図に示した前記カメラ405により画像を記録
したカラーフィスム504に照射される。前記カラーフィ
ルム504を通過した光は、レンズ505により集光される。
この集光された光は、レンズ505の焦平面に設置された
カラー空間周波数フィルタ506によって適当なフィルタ
リングを施される。フィルタリングを施された光は、レ
ンズ507により平行光とされ、画像が再生される。上記
再生画像はカメラ508により銀塩フィルム上に記録され
る。なお上記再生画像を電気信号に変換し、メモリに記
憶しておくようにしても良い。
FIG. 18 is a diagram showing a configuration example of a means for optically performing a recovery process on an image recorded on the silver halide film. The multi-spectral light source 500 is a white light source having a uniform spectrum over the entire visible light range, or R, G, B
Are light sources that mix the three primary colors or emit light in different wavelength regions with time. Light from the multispectral light source 500 is condensed on the slit 502 by the collimator lens 501, and becomes an approximate point light source. The light that has passed through the slit 502 is converted into parallel light by a lens 503, and is applied to the color fism 504 on which an image is recorded by the camera 405 shown in FIG. The light that has passed through the color film 504 is collected by a lens 505.
This condensed light is appropriately filtered by a color spatial frequency filter 506 provided in the focal plane of the lens 505. The filtered light is converted into parallel light by the lens 507, and an image is reproduced. The reproduced image is recorded on a silver halide film by the camera 508. The reproduced image may be converted into an electric signal and stored in a memory.

このように本実施例は、本発明の第2の実施例と同様
な方法で入力した画像を、銀塩フィルム上に蓄積,記録
するものである。またカラーの銀塩フィルムに記録した
再生画像を第18図に示す光学系で回復フィルタリング処
理を行なうものである。
As described above, in this embodiment, an image input in the same manner as in the second embodiment of the present invention is stored and recorded on a silver halide film. In addition, recovery filtering processing is performed on the reproduced image recorded on the color silver halide film by the optical system shown in FIG.

次に第18図に示した光学的回復処理の作用を詳しく説
明する。前記カラーフィルム504に記録されている内視
鏡画像は、前記レンズ505により光学的にフーリエ変換
され、前記カラー空間周波数フィルタ506により適当な
空間周波数のフィルタリングが行なわれる。一般にファ
イバースコープで得られた画像は、個々の光学ファイバ
ーを画素として構成されている。したがって、第19図に
示すような網目構造510を有する。そこで前記カラー空
間周波数フィルタ506は、回復フィルタリング処理作用
と、網目構造510の除去作用とが同時に発揮されるよう
に設計される。前記レンズ505の焦平面に現われるファ
イバースコープ画像のフーリエスペクトルは、第20図に
示すようなものとなる。すなわち、中心部に画像自体の
0次のスペクトル511が現われ、周辺部に光学ファイバ
ーの配列構造に由来する高次のスペクトル512が現われ
る。そこで第21図に示すように、中心部521では0次ス
ペクトル511に対して回復処理を行ない得、周辺部522で
は高次のスペクトル512をカットするような振幅透過率
を有するフィルト520を設け、これを前記フィルタ506と
して用いればよい。このようにすれば網目構造510がな
く、しかも焦点深度の深い画像が再生される。なお回復
フィルタは最大振幅透過率が「1」を越えることができ
ないため、相対的に低空間周波数領域の振幅透過率を抑
え込む様に設計する。なお第18図では光源にマルチスペ
クトル光源を用いているため、前記レンズ505の焦平面
のスペクトルは、波長により異なる位置に現われる。そ
こで前記カラー空間周波数フィルタ506は、カラーリバ
ーサルフィルムなどで構成し、各々の波長のスペクトル
について適切なフィルタリングが行なえるような分光特
性を持つように設計する。
Next, the operation of the optical recovery processing shown in FIG. 18 will be described in detail. The endoscope image recorded on the color film 504 is optically Fourier-transformed by the lens 505, and an appropriate spatial frequency is filtered by the color spatial frequency filter 506. In general, an image obtained by a fiberscope is configured by using individual optical fibers as pixels. Therefore, it has a network structure 510 as shown in FIG. Therefore, the color spatial frequency filter 506 is designed so that the recovery filtering processing operation and the network structure 510 removal operation are simultaneously performed. The Fourier spectrum of the fiberscope image appearing on the focal plane of the lens 505 is as shown in FIG. That is, a zero-order spectrum 511 of the image itself appears at the center, and a higher-order spectrum 512 derived from the arrangement structure of the optical fibers appears at the periphery. Therefore, as shown in FIG. 21, a recovery process can be performed on the zero-order spectrum 511 in the central portion 521, and a filter 520 having an amplitude transmittance such that the higher-order spectrum 512 is cut off in the peripheral portion 522. This may be used as the filter 506. In this way, an image having no network structure 510 and a large depth of focus is reproduced. Since the maximum amplitude transmittance cannot exceed “1”, the recovery filter is designed to suppress the amplitude transmittance in a relatively low spatial frequency region. In FIG. 18, since a multispectral light source is used as the light source, the spectrum of the focal plane of the lens 505 appears at different positions depending on the wavelength. Therefore, the color spatial frequency filter 506 is formed of a color reversal film or the like, and is designed to have a spectral characteristic so that appropriate filtering can be performed for each wavelength spectrum.

なお、本実施例における光学的な回復処理の方法につ
いては、特願昭61−227454号に詳しく記載されている。
The method of the optical recovery processing in the present embodiment is described in detail in Japanese Patent Application No. 61-227454.

かくして本実施例によれば比較的簡単な構成で、焦点
深度の深いファイバースコープ画像を再生することがで
きる。したがって、第8実施例と同様に、光源のパワー
を縮小することができる。なお本実施例ではカメラ405
によってファイバースコープ画像を銀塩フィルムに記録
する場合について述べたが、前記カメラ405の代わりにT
Vカメラを用い、電子的に信号を処理し、記録を行なう
ようにしてもよい。すなわち、TVカメラで撮像した画像
をA/D変換器により、ファイバースコープの綱目構造に
比べ十分にサンプリングピッチの細かいデジタル画像に
変換し、このディジタル画像について本実施例と同様な
処理をディジタル的に行なうようにしてもよい。
Thus, according to the present embodiment, a fiberscope image having a large depth of focus can be reproduced with a relatively simple configuration. Therefore, as in the eighth embodiment, the power of the light source can be reduced. In this embodiment, the camera 405 is used.
Described the case of recording a fiberscope image on a silver halide film, but instead of the camera 405, T
The signal may be electronically processed and recorded using a V camera. That is, the image captured by the TV camera is converted by an A / D converter into a digital image whose sampling pitch is sufficiently small compared to the mesh structure of the fiberscope. You may do it.

(第12実施例) 第22図は本発明の第12実施例の構成を示す図であっ
て、本発明を電子カメラに応用した例を示す図である。
本実施例は前記第3実施例における画像入力部と画像処
理表示部とを記録媒体を介してオフラインで連結したも
のに相当する。第22図に示すように、電子カメラ600に
より撮像した異なる位置に焦点の合った複数枚の画像が
同カメラ600内に電気信号として入力される。入力され
た画像信号は全て前記カメラ600内の記録媒体601に記録
される。この記録媒体601は、フロッピーディスク,磁
気テープ,光メモリ,半導体ICや強誘電体薄膜を用いた
固体メモリ等で構成されている。記録媒体601に記録さ
れた画像信号は読込み装置602内に読込まれる。前記記
録媒体601に記録されている画像信号がアナログ信号で
ある場合には、前記読込み装置602内にA/D変換器を設
け、前記画像信号をデジタル信号に変換するようにす
る。プロセッサ603は、第3図に示した第3実施例にお
けるメモリ5−1〜5−m,アドレス補正装置12,セレク
タ13,加算器14,メモリ15,回復処理装置7,D/A変換器8お
よびコントローラ10等により構成されている。したがっ
て、このプロセッサ603により、前記読込み装置602から
転送されてくるデジタル画像信号に対し、第3実施例に
記した場合と同様の処理が実行される。前記処理が施さ
れた画像信号はTVモニタ604に転送され,表示される。
なお前記プロセッサ603における処理の諸条件設定は、
プロセッサ603内のコントローラと連結されているマン
マシーン・インターフェース605により観察者が設定で
きるようになっている。
(Twelfth Embodiment) FIG. 22 is a diagram showing a configuration of a twelfth embodiment of the present invention, and is a diagram showing an example in which the present invention is applied to an electronic camera.
This embodiment corresponds to the third embodiment in which the image input unit and the image processing display unit are connected off-line via a recording medium. As shown in FIG. 22, a plurality of images focused on different positions captured by the electronic camera 600 are input into the camera 600 as electric signals. All the input image signals are recorded on the recording medium 601 in the camera 600. The recording medium 601 includes a floppy disk, a magnetic tape, an optical memory, a semiconductor IC, a solid-state memory using a ferroelectric thin film, and the like. The image signal recorded on the recording medium 601 is read into the reading device 602. When the image signal recorded on the recording medium 601 is an analog signal, an A / D converter is provided in the reading device 602 to convert the image signal into a digital signal. The processor 603 includes the memories 5-1 to 5-m, the address corrector 12, the selector 13, the adder 14, the memory 15, the recovery processor 7, and the D / A converter 8 in the third embodiment shown in FIG. And a controller 10 and the like. Therefore, the same processing as that described in the third embodiment is executed by the processor 603 on the digital image signal transferred from the reading device 602. The processed image signal is transferred to the TV monitor 604 and displayed.
The setting of various conditions for processing in the processor 603 is as follows.
A man-machine interface 605 coupled to a controller in the processor 603 allows the observer to make settings.

本実施例によれば電子カメラ600によって焦点の異な
る複数枚の画像を記録することにより、第3実施例と同
様の作用効果をもたらし得る。なお本実施例は、電子カ
メラ600に対して第3実施例を適用したものであるが、
第1,第2,第4,第5,第6の各実施例を適用することもでき
る。すなわち、カメラ内で異なる位置にピントの合った
画像の入力,加算を行ない、これを記録媒体に記録し、
オフラインで連結した画像処理部において回復処理だけ
を行なうようにしてもよい。このようにした場合には、
装置の構成がより一層簡単なものとなる。
According to the present embodiment, by recording a plurality of images having different focal points by the electronic camera 600, the same operation and effect as in the third embodiment can be obtained. In this embodiment, the third embodiment is applied to the electronic camera 600.
The first, second, fourth, fifth, and sixth embodiments can also be applied. That is, input and addition of in-focus images at different positions in the camera are performed, and this is recorded on a recording medium.
Only the recovery processing may be performed in the image processing unit connected off-line. If you do this,
The configuration of the device is further simplified.

なお銀塩フィルムに記録するカメラに対して本発明を
適用する場合において、例えば連写方式でピントの異な
る画像を次々と記録し、第12実施例と同様な構成で処理
を行なうこともできる。さらに第11実施例で示したよう
に銀塩フィルム上で焦点の異なる画像の入力,加算を行
ない、光学的あるいは電気的に回復処理を行なうように
することも可能である。
In the case where the present invention is applied to a camera that records on a silver halide film, images having different focuses can be successively recorded by, for example, a continuous shooting method, and processing can be performed with the same configuration as in the twelfth embodiment. Further, as shown in the eleventh embodiment, it is possible to input and add images having different focuses on the silver halide film, and to perform optical or electrical recovery processing.

(第13実施例) 第23図は本発明の第13実施例の構成を示す図であっ
て、第12図に示した第7実施例と同様に本発明を反射型
顕微鏡に適用した応用例である。第23図に示すように、
光源700から発せられた光は落射照明装置701によって導
かれ、最終的には対物レンズ702を介して資料の表面に
照射される。資料からの反射光像は前記対物レンズ702
によって結像され、鏡筒703の上に設置されたTVカメラ7
04によって撮像される。この際、資料はステージ705の
上に設置された振動アクチュエータ706により、顕微鏡
の光軸方向に特定の周波数で振動するように駆動され
る。なお、振動アクチュエータ706は、振動アクチュエ
ータドライバ707により、適当な周期および振幅で駆動
される。前記TVカメラ704により撮像された画像信号は
カメラドライバ708に転送される。なお、前記カメラド
ライバ708は、前記TVカメラ704に対する電力供給等も行
なうものである。前記カメラドライバ708に転送された
画像信号は、次にプロセッサ709に送られる。プロセッ
サ709はA/D変換器、画像メモリ、回復処理装置、D/A変
換器等から成り、前記画像信号に対して適当な回復処理
をディジタル処理で行なうか、あるいはアナログ回路に
よるバンドパスフィルターまたはハイパスフィルターで
回復処理を行なうように構成される。前記プロセッサ70
9により回復処理を施された画像信号はTVモニタ710に転
送され、表示される。
(Thirteenth Embodiment) FIG. 23 is a view showing the configuration of a thirteenth embodiment of the present invention, and is an application example in which the present invention is applied to a reflection microscope similarly to the seventh embodiment shown in FIG. It is. As shown in FIG.
Light emitted from the light source 700 is guided by the epi-illumination device 701, and is finally irradiated on the surface of the document via the objective lens 702. The reflected light image from the material is
TV camera 7 imaged by
Imaged by 04. At this time, the material is driven by a vibration actuator 706 installed on the stage 705 so as to vibrate at a specific frequency in the optical axis direction of the microscope. The vibration actuator 706 is driven by the vibration actuator driver 707 at an appropriate cycle and amplitude. An image signal captured by the TV camera 704 is transferred to a camera driver 708. The camera driver 708 also supplies power to the TV camera 704 and the like. The image signal transferred to the camera driver 708 is then sent to the processor 709. The processor 709 includes an A / D converter, an image memory, a restoration processing device, a D / A converter, etc., and performs an appropriate restoration process on the image signal by digital processing, or a band-pass filter or an analog circuit. It is configured to perform a recovery process with a high-pass filter. The processor 70
The image signal subjected to the restoration processing by 9 is transferred to the TV monitor 710 and displayed.

また、前記プロセッサ709内には、入力されてきた画
像信号に対してバンドパスフィルターにより特定の空間
周波数領域のパワーをモニタできる手段が設けられてい
る。かくして前記振動アクチュエータ706の振幅を自動
的に決定し、その決定内容にしたがって振動アクチュエ
ータ707を作動させるものとなっている。
The processor 709 is provided with means for monitoring the power in a specific spatial frequency region of the input image signal using a bandpass filter. Thus, the amplitude of the vibration actuator 706 is automatically determined, and the vibration actuator 707 is operated according to the determined content.

上記構成の第13実施例によれば次のような作用効果を
奏する。本実施例においては、TVカメラ704が1フレー
ムあるいは1フィールドの画像を入力する間に、対象物
を1回以上特定の振幅で振動させるように構成されてい
るので、TVカメラ704の撮像面に合焦点面の異なる画像
を積算させる作用を有する。なお、振動アクチュエータ
706の振幅を初期設定するには、次のような方法を用い
る。まず振幅を変えながら画像を入力し、プロセッサ70
9において、入力画像の特定の空間周波数領域のパワー
をモニタする。振幅に対する特定空間周波数のパワーの
変化は、およそ第24図に示すようになる。つまり、振幅
の大きさが対象物の深さ方向の構造より大きくなってく
ると、画像にはボケの成分が多く含まれるようになる。
このためパワーは低下してくる。従って、あらかじめス
レッショルド値THを適当に設定しておき、パワーがその
値を下回った時の振幅値Aを、実際の処理に用いるよう
にする。このようにすれば、より鮮明でかつ物体の構造
に対して適当な焦点深度をもった画像が得られる。な
お、この方法による積算範囲の決定法は第7の実施例に
も応用することが可能である。
According to the thirteenth embodiment having the above configuration, the following operation and effect can be obtained. In this embodiment, while the TV camera 704 is configured to vibrate the object at a specific amplitude one or more times while the image of one frame or one field is input, This has the function of integrating images having different focal planes. The vibration actuator
To initialize the amplitude of 706, the following method is used. First, input an image while changing the amplitude, and
At 9, the power of a specific spatial frequency region of the input image is monitored. The change of the power of the specific spatial frequency with respect to the amplitude is approximately as shown in FIG. In other words, when the amplitude becomes larger than the structure of the object in the depth direction, the image contains many blur components.
For this reason, the power decreases. Therefore, the threshold value TH is appropriately set in advance, and the amplitude value A when the power falls below the threshold value is used for actual processing. In this way, an image that is clearer and has an appropriate depth of focus with respect to the structure of the object can be obtained. The method of determining the integration range according to this method can be applied to the seventh embodiment.

かくして本実施例によれば、簡単な構成で十分な効果
が得られる。また回復処理をビデオレートで実行できれ
ば、リアルタイムで処理画像が得られるなど、実用上の
利点が大きい。
Thus, according to the present embodiment, a sufficient effect can be obtained with a simple configuration. Further, if the recovery processing can be executed at a video rate, there is a great practical advantage that a processed image can be obtained in real time.

なお、上記実施例では、対象物側を振動させるように
構成したが、光学系側つまり対物レンズ702や鏡筒703内
に設けたリレーレンズまたは撮像素子を振動させるよう
にしても良い。また、本実施例を顕微鏡以外の光学機
器、例えば電子カメラや内視鏡などに応用して光学系ま
たは撮像素子を振動させるように構成してもよい。
In the above embodiment, the object side is configured to vibrate, but the optical system side, that is, the relay lens or the image sensor provided in the objective lens 702 or the lens barrel 703 may be vibrated. Further, the present embodiment may be applied to an optical device other than a microscope, for example, an electronic camera or an endoscope, and may be configured to vibrate an optical system or an image sensor.

(第14実施例) 第25図は、本発明の第14実施例の構成を示す図であっ
て、第13実施例と同様に、本発明を反射型顕微鏡に適用
した応用例である。なお、説明を簡略化するために、反
射型顕微鏡装置は光源800,落射照明装置801,対物レンズ
802、鏡筒803、のみを図示した。鏡筒803の上にはカラ
ーTVカメラ804が設置されている。このカラーTVカメラ8
04における撮像素子のダイナミックレンジは例えば40dB
であると仮定する。落射照明装置801には回転式光シャ
ッター805が設けられている。この光シャッター805は前
記光源800から発せられる照明光を特定のタイミングで
透過、遮断する。つまり、この回転式光シャッター805
は第26図に示すように、円板805Dの回転方向に3等分さ
れた領域805A〜805Cを有している。そして各領域805A〜
805Cには面積比が10000:100:1となるように設定された
窓(斜線部)a,b,cがそれぞれ設けてある。かくして、
この円板805Dがモータードライバ806により駆動制御さ
れるモータ807によって1/10秒間に1回転するように回
転駆動されると、1/30秒間(TVカメラによる1フレーム
のスキャン時間)に所定の露光量を資料に与えることに
なる。この場合の照明光はハーフミラー808および対物
レンズ802を介して照射される。そして資料からの反射
光像はカメラドライバ809により制御される前記カラーT
Vカメラ804によって撮像される。なお、前記落射照明装
置801内には、複数のレンズと絞りとにより、ケーラー
照明系が構成されるが、図示は省略する。ステージ駆動
装置810は、第13実施例に示したような振動アクチュエ
ータ等で構成されており、ステージ811を1/30秒間に少
なくとも1回、所定の振幅で振動させるものとなってい
る。かくして、合焦点面の異なる画像を前記カラーTVカ
メラ804の受光面に積算させる。このようにして異なる
露光量で3フレームのカラー画像を入力する。これらの
カラー画像はそれぞれR,G,Bの3原色信号としてプロセ
ッサ820に転送される。
Fourteenth Embodiment FIG. 25 is a diagram showing a configuration of a fourteenth embodiment of the present invention, and is an application example in which the present invention is applied to a reflection microscope as in the thirteenth embodiment. In order to simplify the description, the reflection type microscope device is a light source 800, an epi-illumination device 801, and an objective lens.
Only 802 and lens barrel 803 are shown. A color TV camera 804 is installed on the lens barrel 803. This color TV camera 8
The dynamic range of the image sensor in 04 is, for example, 40 dB
Suppose that The epi-illumination device 801 is provided with a rotary optical shutter 805. The optical shutter 805 transmits and blocks the illumination light emitted from the light source 800 at a specific timing. In other words, this rotary optical shutter 805
26, as shown in FIG. 26, has regions 805A to 805C equally divided in the rotation direction of the disk 805D. And each area 805A ~
The 805C is provided with windows (hatched portions) a, b, and c, each having an area ratio of 10,000: 100: 1. Thus,
When the disk 805D is rotated by a motor 807 driven and controlled by a motor driver 806 so as to make one rotation per 1/10 second, a predetermined exposure is performed in 1/30 second (scan time of one frame by a TV camera). The amount will be given to the material. In this case, the illumination light is emitted via the half mirror 808 and the objective lens 802. And the reflected light image from the material is the color T controlled by the camera driver 809.
The image is captured by the V camera 804. Note that a Koehler illumination system is configured in the epi-illumination device 801 by a plurality of lenses and a diaphragm, but is not shown. The stage driving device 810 includes a vibration actuator as shown in the thirteenth embodiment, and vibrates the stage 811 at a predetermined amplitude at least once every 1/30 second. Thus, images having different focal planes are integrated on the light receiving surface of the color TV camera 804. In this way, three frames of color images are input with different exposure amounts. These color images are transferred to the processor 820 as R, G, and B primary color signals, respectively.

前記プロセッサ820に転送された画像信号は、A/D変換
器821によりディジタル信号に変換される。この変換さ
れたディジタル信号のうち最初の1フレーム目の画像信
号、つまり前記回転式光シャッター805の窓aで露光さ
れ、入力された画像信号は、加算器822を単に通過して
そのままフレームメモリ823に記録される。次に、2フ
レーム目および3フレーム目の画像信号、つまり前記回
転式光シャッターの窓bおよびcで露光され、入力され
た画像信号は、加算器822により前記フレームメモリ823
にすでに記録されている画像信号と加算される。その加
算結果は再び前記フレームメモリ823に記録される。こ
のようにして折れ線近似の対数特性を持ったR,G,Bの3
原色画像データがフレームメモリ823に蓄積される。こ
のフレームメモリ823に蓄積された画像データlogR,log
G,logBは、logY変換回路824によりlogY(Y=0.3R+0.5
9G+0.11B)の値に変換され、別のフレームメモリ825に
記録される。このフレームメモリ825に記録された画像
信号は、回復処理回路826に転送される。回復処理回路8
26に転送された画像信号は、対数特性を持った状態のま
ま空間周波数に対する適当なフィルタリング処理を施さ
れる。フィルタリング処理を施された画像信号は、ダイ
ナミックレンジおよび利得調整回路827に送られる。そ
うすると、この回路827において、前記後処理を施され
た画像信号logY′に対して利得調整値log bが加えられ
ると共に、ダイナミックレンジ調整値aが乗算され、信
号a log bY′が出力される。前記画像信号a log bY′は
対数変換器828により対数圧縮され、log(a log bY′)
となって出力される。この出力値は減算器829に入力
し、ここで前記フレームメモリ825に記録されている画
像信号logYとの減算が実行され、信号log(a log bY′/
Y)となって出力される。前記減算器829からの出力信号
log(a log bY′/Y)は、前記フレームメモリ823に記録
されている対数圧縮された3原色信号logR,logG,logBと
加算器830R,830G,830Bにおいてそれぞれ加算される。こ
の各加算出力は逆数変換器(指数変換器)831に入力
し、ここで逆対数変換が実行されて、信号a log bY′/Y
・R、a log bY′/Y・G、a log bY′/Y・Bが算出され
る。これらの算出値は、D/A変換器832によりR,G,Bビデ
オ信号に変換され、TVモニタ833によって表示される。
なお、前記プロセッサ820の構成は特願昭62−234133号
に記載されているカラー対数撮像用映像処理装置に基づ
いて構成されたものである。上記の構成の装置における
動作の制御はコントローラ834で行なわれ、その条件設
定等は前記コントローラ834と連結されたマンマシン・
インターフェース835により観察者が行なえるようにな
っている。
The image signal transferred to the processor 820 is converted into a digital signal by the A / D converter 821. The image signal of the first frame of the converted digital signal, that is, the image signal that is exposed through the window a of the rotary optical shutter 805 and is input simply passes through the adder 822 and is directly passed through the frame memory 823. Will be recorded. Next, the image signals of the second and third frames, that is, the windows b and c of the rotary optical shutter, are exposed, and the input image signals are added by the adder 822 to the frame memory 823.
Is added to the already recorded image signal. The result of the addition is recorded in the frame memory 823 again. In this way, R, G, and B have the logarithmic characteristics of the polygonal line approximation.
Primary color image data is stored in the frame memory 823. The image data logR and log stored in the frame memory 823
G and logB are converted to logY (Y = 0.3R + 0.5) by a logY conversion circuit 824.
9G + 0.11B) and recorded in another frame memory 825. The image signal recorded in the frame memory 825 is transferred to the recovery processing circuit 826. Recovery processing circuit 8
The image signal transferred to 26 is subjected to an appropriate filtering process with respect to a spatial frequency while maintaining a logarithmic characteristic. The image signal that has been subjected to the filtering process is sent to a dynamic range and gain adjustment circuit 827. Then, in this circuit 827, a gain adjustment value log b is added to the post-processed image signal logY ', and a dynamic range adjustment value a is multiplied to output a signal a log bY'. The image signal a log bY ′ is logarithmically compressed by a logarithmic converter 828, and log (a log bY ′)
Is output as This output value is input to a subtractor 829, where the subtraction is performed with the image signal logY recorded in the frame memory 825, and the signal log (a log bY '/
Y) is output. Output signal from the subtractor 829
log (a log bY '/ Y) is added to the logarithmically compressed three primary color signals logR, logG, logB recorded in the frame memory 823 in adders 830R, 830G, 830B. Each of the added outputs is input to a reciprocal converter (exponential converter) 831, where an antilogarithmic conversion is performed, and the signal a log bY ′ / Y
R, a log bY '/ YG, a log bY' / YB are calculated. These calculated values are converted into R, G, B video signals by the D / A converter 832 and displayed by the TV monitor 833.
The configuration of the processor 820 is based on the image processing apparatus for color logarithmic imaging described in Japanese Patent Application No. 62-234133. The operation of the apparatus having the above configuration is controlled by the controller 834, and the condition setting and the like are performed by the man-machine /
An interface 835 allows the observer to do so.

上記構成の第14実施例は次のような作用効果を奏す
る。本実施例は、カラー対数撮像方式を採用したことに
より、色バランスをくずさずに、TVカメラ804の撮像素
子の性能を上回るダイナミックレンジをもった画像を入
力する作用と、対数フィルタリングにより効果的な回復
処理を行なう作用を有する。そこでまず、カラー対数撮
像方式の作用について説明する。なおここでは、前記TV
カメラ804の撮像素子のダイナミックレンジが仮に40dB
であるとして説明する。被写体が40dBのダイナミックレ
ンジでは撮像しきれないほどの明暗情報を有する場合、
本実施例では次のようにして実質的なダイナミックレン
ジを拡大している。なず、十分大きな露光量で撮像し、
暗い部分の情報を有する画像を入力する。この画像にお
いては、明るい部分は飽和している。次に、さきに入力
した画像の1/100の露光量で画像を入力する。そうする
と先に入力した画像で飽和した部分のうち暗い方から40
dB分の情報が得られる。同様にしてさらに1/00の露光量
で画像を入力すると、さらに明るい領域40dB分の情報を
有する画像が入力される。これらを加え合わせることに
より、折れ線近似の対数特性を有する画像信号が得ら
れ、実質的に広いダイナミックレンジを有する画像信号
として扱える。さらに、処理後の画像のバランスをくず
さないために、輝度信号Yについてのみ対数圧縮を行な
っている。そしてカラー画像の色相、彩度に影響がない
ようにするために、輝度信号Yの圧縮度logY/YをR,G,B
にそれぞれ乗算して、(logY/Y)R,(logY/Y)G,(logY
/Y)Bを得、これを3原色信号として出力している。ま
た、本実施例では表示の際の利得とダイナミックレンジ
を調整し、(a logY/Y)R,(a logY/Y)G,(a log bY/
Y)Bなる3原色信号を出力するようになっている。こ
の利得ダイナミックレンジの制御は手動で行なってもよ
いが、自動調整にしても良い。以上のカラー対数圧縮方
式の詳細な作用については前掲した特願昭62−234133号
に記載されている通りである。
The fourteenth embodiment having the above configuration has the following operation and effect. The present embodiment adopts a color logarithmic imaging method, so that an image having a dynamic range exceeding the performance of the image pickup device of the TV camera 804 can be input without destroying the color balance, and the logarithmic filtering is more effective. It has the effect of performing recovery processing. Therefore, the operation of the color logarithmic imaging method will be described first. Here, the TV
The dynamic range of the image sensor of camera 804 is 40dB
It will be described as. If the subject has enough light and dark information that it can not be imaged with a dynamic range of 40 dB,
In this embodiment, the substantial dynamic range is expanded as follows. First, image with a sufficiently large exposure,
An image having information on dark parts is input. In this image, the bright parts are saturated. Next, an image is input with an exposure amount of 1/100 of the previously input image. Then, from the darker part of the saturated part in the input image,
The information for dB is obtained. Similarly, when an image is input with an exposure amount of 1/00, an image having information corresponding to a lighter area of 40 dB is input. By adding these, an image signal having a logarithmic characteristic of a polygonal line approximation is obtained, and can be handled as an image signal having a substantially wide dynamic range. Further, in order to keep the balance of the processed image, logarithmic compression is performed only on the luminance signal Y. In order not to affect the hue and saturation of the color image, the compression degree logY / Y of the luminance signal Y is set to R, G, B
And (logY / Y) R, (logY / Y) G, (logY
/ Y) B is obtained and output as three primary color signals. Further, in this embodiment, the gain and dynamic range at the time of display are adjusted, and (a logY / Y) R, (a logY / Y) G, (a log bY /
Y) Three primary color signals B are output. The control of the gain dynamic range may be performed manually, or may be automatically adjusted. The detailed operation of the above color logarithmic compression system is as described in the above-mentioned Japanese Patent Application No. 62-234133.

次に、対数特性を有する輝度信号logYに対する空間周
波数フィルタリング処理、いわゆる対数フィルタリング
を行なうことにより、生じる作用を説明する。反射光の
分布関数を次のように定義する。
Next, a description will be given of an effect caused by performing a spatial frequency filtering process, that is, a so-called logarithmic filtering, on the luminance signal logY having a logarithmic characteristic. The distribution function of the reflected light is defined as follows.

とする。(a)式の両辺を対数変換すると、 となる。このうち照明光、あるいは照明装置をもたない
光学機器の場合は、自然光や外部照明の分布に相当する は主に低空間周波数成分を有する。これに対して、物体
の反射率分布関数 は低から中域の空間周波数成分を主に有する。そこで第
27図に示すような特性を有するフィルターを作成するこ
とにより、低空間周波数成分の照明光のムラや、主にノ
イズ成分が支配する高空間周波数領域をカットし、物体
の構造を示す領域を強調することができる。従って、こ
の対数フィルタリングを用いれば、より効果的な回復処
理を行なうことができる。なお、第27図における空間周
波数値fl,fhはマンマシン・インターフェース835によ
り観察者が処理結果を見ながら任意に設定してもよい
し、画像の種類が限られ成分が分っている場合は、あら
かじめ設定しておいても良い。
And When both sides of the equation (a) are logarithmically transformed, Becomes Of these, illumination light or optical equipment without an illumination device corresponds to the distribution of natural light or external illumination. Have mainly low spatial frequency components. On the other hand, the reflectance distribution function of the object Have mainly low to mid-range spatial frequency components. So the
By creating a filter with the characteristics shown in Fig. 27, the unevenness of the illumination light of low spatial frequency components and the high spatial frequency region mainly dominated by noise components are cut, and the region showing the structure of the object is emphasized. can do. Therefore, if this logarithmic filtering is used, more effective recovery processing can be performed. Note that the spatial frequency values fl and fh in FIG. 27 may be set arbitrarily while the observer views the processing result by the man-machine interface 835, or when the type of image is limited and the component is known. May be set in advance.

かくして本実施例によれば、ダイナミックレンジの狭
い撮像カメラを用いても、実質的に広いダイナミックレ
ンジを有する画像として処理することが可能となる。一
般に、ダイナミックレンジの狭いカメラでは、受光面で
積算することにより、画面の平均強度(つまり、0次周
波数強度)ばかり大きくなり、高空間周波数領域の情報
は後で回復処理をかけても回復不能な程度にノイズの中
に埋もれてしまうという不具合がある。本実施例によれ
ば上記不具合を解決でき、高空間周波数領域の画像成分
を所望のS/Nで積算しながら入力することが可能とな
る。また、対数フィルタリングを行なうことにより、よ
り効果的な回復処理が可能であり、鮮鋭な画像を表示で
きる。
Thus, according to the present embodiment, even if an imaging camera with a narrow dynamic range is used, it is possible to process an image having a substantially wide dynamic range. In general, in a camera with a narrow dynamic range, integration on the light-receiving surface increases the average intensity of the screen (that is, the 0th-order frequency intensity), and information in a high spatial frequency region cannot be recovered even if a recovery process is performed later. There is a problem that it is buried in noise to some extent. According to the present embodiment, the above-described problem can be solved, and it becomes possible to input image components in a high spatial frequency region while integrating them with a desired S / N. Further, by performing logarithmic filtering, more effective recovery processing is possible, and a sharp image can be displayed.

なお、本実施例は反射型顕微鏡についての応用例とし
て記述したが、電子内視鏡などの照明装置を有する他の
光学機器についても同様に応用できることはもちろんで
ある。また、光シャッター805としては本実施例で示し
たようなメカニカルシャッター以外に、液晶板などを用
いた光シャッターであっても良い。
Although the present embodiment has been described as an application example of the reflection microscope, it is needless to say that the present invention can be similarly applied to other optical apparatuses having an illumination device such as an electronic endoscope. The optical shutter 805 may be an optical shutter using a liquid crystal plate or the like, in addition to the mechanical shutter as described in this embodiment.

(第15実施例) 第28図は、本発明の第15実施例の構成を示す図であ
て、第14実施例に示したカラー対数撮像と対数フィルタ
リングの手法を、照明装置をもたない光学機器に適用し
た応用例を示す図である。対象物の像はレンズ901によ
りCCDなどの固体撮像素子902の受光部に結像される。こ
の撮像素子902は対数撮像用ドライバ903によって制御さ
れる、例えば、撮像素子902がCCD固体撮像素子の場合、
オーバーフロードレインゲートや水平転送ゲートの高さ
を露光時間内に変化させることにより、出力信号が対数
特性を持つように制御される。この固体撮像素子による
対数圧縮の詳細は、前掲の特願昭62−234133号に記載さ
れている通りである。前記撮像素子902からの出力信号
は、ビデオプロセッサ904によって、logR,logG,logBの
3原色信号に変換され、さらにA/D変換器905によってデ
ィジタル信号に変換された後、画像処理部910に転送さ
れる。なお、前記レンズ901は振動アクチュエータドラ
イバ906によって駆動制御される振動アクチュエータ907
によって、前記撮像素子902の露光時間に対して十分速
い周期で光軸方向に振動するように駆動される。かくし
て合焦点位置の異なる画像が前記撮像素子902の受光面
上に積算されて入力するようになっている。
(Fifteenth Embodiment) FIG. 28 is a diagram showing a configuration of a fifteenth embodiment of the present invention, in which the method of color logarithmic imaging and logarithmic filtering shown in the fourteenth embodiment is applied to an optical system without an illumination device. It is a figure showing the example of application applied to the device. An image of the object is formed by a lens 901 on a light receiving unit of a solid-state imaging device 902 such as a CCD. This image sensor 902 is controlled by a logarithmic imaging driver 903.For example, when the image sensor 902 is a CCD solid-state image sensor,
By changing the height of the overflow drain gate or horizontal transfer gate within the exposure time, the output signal is controlled so as to have a logarithmic characteristic. The details of the logarithmic compression by the solid-state imaging device are as described in the above-mentioned Japanese Patent Application No. 62-234133. An output signal from the image sensor 902 is converted into three primary color signals of logR, logG, and logB by a video processor 904, and further converted to a digital signal by an A / D converter 905, and then transferred to an image processing unit 910. Is done. The lens 901 is driven by a vibration actuator driver 906 to control the vibration actuator 907.
Accordingly, the image sensor 902 is driven so as to vibrate in the optical axis direction at a cycle sufficiently faster than the exposure time. Thus, images having different focal points are integrated on the light receiving surface of the image sensor 902 and input.

前記画像処理部910は、logY変換器911、回復処理回路
912、ダイナミックレンジおよび利得調整回路913、対数
変換器914、減算器915、加算器916R,916G,916B、逆対数
変換器917で構成されている。この画像処理部910におい
ては、第25図に示した第14実施例と同様に、輝度信号Y
に対して対数フィルタリング処理が施され、ダイナミッ
クレンジと利得が適当に調整された3原色信号(a log
bY′/Y)R,(a log bY′/Y)G,(a log bY′/Y)Bが出
力される。この画像処理部910からの出力信号はD/A変換
器920によりカラーアナログ信号に変換され、TVモニタ9
21によって表示される。以上の動作はコントローラ930
により制御される。
The image processing unit 910 includes a logY converter 911, a recovery processing circuit
912, a dynamic range and gain adjustment circuit 913, a logarithmic converter 914, a subtractor 915, adders 916R, 916G, 916B, and an antilogarithmic converter 917. In the image processing unit 910, as in the fourteenth embodiment shown in FIG.
Are subjected to logarithmic filtering, and the dynamic range and gain are appropriately adjusted for the three primary color signals (a log
bY '/ Y) R, (a log bY' / Y) G, and (a log bY '/ Y) B are output. The output signal from the image processing unit 910 is converted into a color analog signal by the D / A converter
Displayed by 21. The above operation is performed by the controller 930.
Is controlled by

上記構成の第15実施例は次のような作用効果を奏す
る。本実施例は固体撮像素子902自体に対数圧縮入力特
性を持たせるようにしたので、第14実施例と同様に、色
バランスを崩さずに、ダイナミックレンジを拡大する作
用と、対数フィルタリングによる回復処理を行なう作用
とを有する上、構成が簡略化する利点をもっている。
The fifteenth embodiment having the above configuration has the following operation and effects. In the present embodiment, the solid-state imaging device 902 itself has a logarithmic compression input characteristic. Therefore, similarly to the fourteenth embodiment, the action of expanding the dynamic range without breaking the color balance and the recovery processing by logarithmic filtering are performed. And the advantage that the configuration is simplified.

かくして本実施例によれば、電子カメラなど照明装置
を通常は有していない光学機器に対しても、第14実施例
と同様の作用効果を発揮させ得る。また、撮像素子902
自体に合焦点位置の異なる画像を積算するようにしたの
で、装置を簡便化できる。
Thus, according to the present embodiment, the same function and effect as those of the fourteenth embodiment can be exerted even on an optical device such as an electronic camera which does not normally have a lighting device. Also, the image sensor 902
Since the images having different in-focus positions are integrated themselves, the apparatus can be simplified.

なお、撮像素子自体に対数入力特性を持たせる代わり
に、露光時間を変えて数枚の画像を入力させ、これらを
加え合せることにより、折れ線近似の対数特性を持つ画
像を合成し、第14実施例におけるプロセッサ820と同様
の構成で処理を行なわせるようにしても良い。
Instead of having the image sensor itself have logarithmic input characteristics, several images were input with different exposure times, and by adding them, an image having logarithmic characteristics of a polygonal line approximation was synthesized. The processing may be performed with the same configuration as the processor 820 in the example.

(第16実施例) 第29図は本発明の第16実施例の構成を示す図であっ
て、第25図に示す第14実施例と同様に本発明を反射型顕
微鏡へ応用した例である。光源1001より発せられた光は
落射照明装置1002に導かれ、ハーフミラー1003と対物レ
ンズ1004を介して、資料の表面に照射される。資料から
の反射光像は前記対物レンズ1004と鏡筒1005内の結像レ
ンズ1006によって拡大されて記鏡筒1005上に設置された
空間光変調器(以下SLMと略称する)1007の受光面に結
像される。SLM1007はSLMドライバ1008によって駆動制御
され、インコヒーレント=コヒーレント変換器として機
能する。なお、ステージ駆動装置1009は、前記SLM1007
の変換応答速度を考慮して設定されたスキャン時間内
に、資料載置用ステージ1010を顕微鏡の光軸方向に設定
された距離範囲だけ駆動するようになっている。レーザ
ー1011によって発せられたレーザー光は、レーザービー
ムエキスパンダー1012によりビーム径を拡大され、ハー
フミラー1013により光路を変えられて、前記SLM1007の
受光面とは反対側の面(以下反射面と呼ぶ)に照射され
る。前記SLM1007の反射面には顕微鏡像が屈折率分布と
して表示されている。したがって前記レーザービームの
反射空間パターンが顕微鏡像として伝搬される。この顕
微鏡像すなわち反射レーザ光は、次にレンズ1014によっ
て空間的にフーリエ変換され、このレンズ1014の後方焦
点面に置れたフィルター1015によって空間周波数に対す
るフィルタリングが行なわれる。しかる後、上記反射レ
ーザー光はレンズ1016により逆フーリエ変換され、その
画像はTVカメラ1017に入力される。なお、前記フィルタ
ー1015は中心部から周辺部にかけて振幅透過率が大きく
なるように形成されており、空間周波数に対するハイパ
スフィルターとなるように設計されている。なお、前記
TVカメラ1017の電力供給およびタイミング制御は、カメ
ラドライバ1018により行なわれる。このようにして入力
された画像は、前記カメラドライバ1018を介してプロセ
ッサ1020に転送される。プロセッサ1020に入力された画
像信号は、A/D変換器1021によってディジタル信号に変
換され、フレームメモリ1022に記録される。このフレー
ムメモリ1022に記録されたディジタル画像は、回路処理
装置1023によって適当な回復処理が施され、再び前記フ
レームメモリ1022に記録される。こうして回復処理が施
された画像信号は、D/A変換器1024によりアナログビデ
オ信号に変換されて、TVモニタ1025によってに表示され
る。以上の動作は、コントローラ1026によって制御さ
れ、条件設定はコントローラ1026に接続されたマンマシ
ン・インタフェース1027により観測者が行なうようにな
っている。
(16th Embodiment) FIG. 29 is a diagram showing the configuration of a 16th embodiment of the present invention, and is an example in which the present invention is applied to a reflection microscope as in the 14th embodiment shown in FIG. . Light emitted from the light source 1001 is guided to the epi-illumination device 1002, and is irradiated on the surface of the document via the half mirror 1003 and the objective lens 1004. The reflected light image from the material is enlarged by the objective lens 1004 and the imaging lens 1006 in the lens barrel 1005, It is imaged. The SLM 1007 is driven and controlled by the SLM driver 1008 and functions as an incoherent = coherent converter. Note that the stage driving device 1009 is
Within the scan time set in consideration of the conversion response speed, the material mounting stage 1010 is driven within a set distance range in the optical axis direction of the microscope. The laser beam emitted by the laser 1011 is expanded in beam diameter by a laser beam expander 1012, and the optical path is changed by a half mirror 1013. Irradiated. On the reflection surface of the SLM1007, a microscope image is displayed as a refractive index distribution. Therefore, the reflection spatial pattern of the laser beam is propagated as a microscope image. The microscope image, that is, the reflected laser light is spatially Fourier-transformed by the lens 1014, and the filter 1015 disposed on the rear focal plane of the lens 1014 filters the spatial frequency. Thereafter, the reflected laser light is subjected to inverse Fourier transform by the lens 1016, and the image is input to the TV camera 1017. The filter 1015 is formed so that the amplitude transmittance increases from the center to the periphery, and is designed to be a high-pass filter for spatial frequencies. The above
The power supply and timing control of the TV camera 1017 are performed by the camera driver 1018. The image thus input is transferred to the processor 1020 via the camera driver 1018. The image signal input to the processor 1020 is converted into a digital signal by the A / D converter 1021 and recorded in the frame memory 1022. The digital image recorded in the frame memory 1022 is subjected to appropriate recovery processing by the circuit processing device 1023, and is recorded again in the frame memory 1022. The image signal thus subjected to the restoration processing is converted into an analog video signal by the D / A converter 1024 and displayed on the TV monitor 1025. The above operation is controlled by the controller 1026, and the condition setting is performed by the observer through the man-machine interface 1027 connected to the controller 1026.

ここで、前記SLM1007について若干の説明を加える。
ここで用いるSLM1007は光入力型空間変調器であって、
2次元の光信号を書込み記録すること、および光での読
み出しを行なうこと、等が可能な光機能素子である。こ
の光機能素子としては、Bi12SiO20(BSO)の光導伝性と
電気光学効果とを利用したPROM(Pockls Read−out Opt
ical Modulator)や、光導伝材料と液晶を組合せたLCLV
(Liquid Crystal Light Value)などがある。いずれも
入力光信号を電界分布に変換し、反射面の屈折率分布を
制御する作用がある。従ってSLM1007は、その反射面側
に入射するレーザー光の偏光状態が、SLM1007の反射面
の屈折率分布に応じて変化し、検光子を通すことによ
り、コヒーレント光像として読出すことができるように
構成されている。本実施例では、特にダイナミックレン
ジが大きく応答速度の速いSLMを用いるものとする。
Here, the SLM1007 will be described in some detail.
SLM1007 used here is an optical input type spatial modulator,
It is an optical functional element capable of writing and recording a two-dimensional optical signal, reading out with light, and the like. As the optical functional element, Bi 12 SiO 20 PROM using an optical Den properties and electro-optical effect of (BSO) (Pockls Read-out Opt
ical modulator) or LCLV combining photoconductive material and liquid crystal
(Liquid Crystal Light Value). Both have the effect of converting an input optical signal into an electric field distribution and controlling the refractive index distribution of the reflection surface. Therefore, the SLM1007 changes the polarization state of the laser light incident on the reflection surface side thereof according to the refractive index distribution of the reflection surface of the SLM1007, and allows the laser light to be read as a coherent light image by passing through the analyzer. It is configured. In this embodiment, an SLM having a particularly large dynamic range and a high response speed is used.

上記構成の第16実施例は次のような作用を奏する。本
実施例は、TVカメラ1017の受光面に画像を積算させる際
の前処理として、光学的にハイパスフィルタリングを行
なうようにしたものである。つまり、本実施例は顕微鏡
で入力した画像を、SLM1007を介してレーザー光に伝搬
させる如く構成した。したがってコヒーレント光学系に
よる空間周波数フィルタリングを行ない、低空間周波数
をおさえながら、TVカメラ1017の受光面に合焦点面の異
なる画像を積算していく作用を有する。このようにする
ことにより、TVカメラ1017のダイナミックレンジの限界
による積算効果の制限が解決できる。その結果、空間周
波数成分についても所望のS/Nで積算入力を行なうこと
ができる。
The sixteenth embodiment having the above structure has the following operation. In the present embodiment, high-pass filtering is performed optically as preprocessing when integrating images on the light receiving surface of the TV camera 1017. That is, in the present embodiment, the image input by the microscope is configured to propagate to the laser light via the SLM1007. Therefore, the spatial frequency filtering by the coherent optical system is performed, and the function of integrating images having different focal planes on the light receiving surface of the TV camera 1017 while suppressing the low spatial frequency is provided. By doing so, the limitation of the integration effect due to the limitation of the dynamic range of the TV camera 1017 can be solved. As a result, the integration input can be performed at a desired S / N also for the spatial frequency component.

かくして本実施例によれば、TVカメラ1017のダイナミ
ックレンジを有効に使うことができ、プロセッサ内にお
ける回復処理によって、一層鮮明な画像を表示すること
ができる。
Thus, according to the present embodiment, the dynamic range of the TV camera 1017 can be used effectively, and a clearer image can be displayed by the recovery processing in the processor.

(第17実施例) 第30図は、本発明の第17実施例の構成を示す図であっ
て、本発明を第16実施例と同様に反射型顕微鏡へ応用し
た例である。本実施例の構成は第29図に示した第16実施
例の構成からプロセッサ1020を省き、TVカメラ1017から
の画像信号をカメラドライバ1018を介してTVモニタ1025
に直接入力するようにしたものである。したがって第29
図と同一部分には同一符号を付し、詳しい説明は省略す
る。
(Seventeenth Embodiment) FIG. 30 is a diagram showing a configuration of a seventeenth embodiment of the present invention, and is an example in which the present invention is applied to a reflection microscope similarly to the sixteenth embodiment. In the configuration of this embodiment, the processor 1020 is omitted from the configuration of the 16th embodiment shown in FIG. 29, and the image signal from the TV camera 1017 is transmitted to the TV monitor 1025 via the camera driver 1018.
Is directly input to. Therefore the 29th
The same parts as those in the drawings are denoted by the same reference numerals, and detailed description will be omitted.

上記構成の第16実施例は次のような作用効果を奏す
る。ステージ駆動装置1009によりステージ1010を、顕微
鏡の光軸方向に距離範囲にわたって駆動し、その駆動時
間中、顕微鏡画像がSLM1007の受光面に蓄積されるよう
に構成されているので、合焦点面の異なる複数の画像が
積算されることになる。上述の動作が完了した時点で、
前記SLM1007の反射面に表示された積算画像がレーザー
ビームで読み出され、コヒーレント光学系による空間周
波数フィルタリングにより回復処理が実行される。その
結果はTVカメラ1017により撮像され、TVモニタ1025によ
って表示される。つまり、本実施例はSLM1007の受光面
における画像の積算効果を利用し、光学的なフィルタリ
ングによる回復処理を行なうような作用を有するもので
ある。
The sixteenth embodiment having the above configuration has the following operation and effect. The stage 1010 is driven by the stage driving device 1009 over the distance range in the optical axis direction of the microscope, and during the driving time, the microscope image is configured to be accumulated on the light receiving surface of the SLM 1007, so that the focal plane is different. A plurality of images will be integrated. When the above operation is completed,
The integrated image displayed on the reflection surface of the SLM 1007 is read by a laser beam, and a recovery process is performed by spatial frequency filtering using a coherent optical system. The result is captured by the TV camera 1017 and displayed on the TV monitor 1025. In other words, the present embodiment has an effect of performing a recovery process by optical filtering using the integration effect of images on the light receiving surface of the SLM1007.

かくして本実施例によれば、回復処理が完全なリアル
タイイムで行なえるため、全体の処理速度を短縮するこ
とができる利点がある。
Thus, according to the present embodiment, since the recovery processing can be performed in a complete real time, there is an advantage that the overall processing speed can be reduced.

ここで、上述した第16実施例および第17実施例におい
て、カラー画像を処理しかつ表示する方法について説明
する。まず、第31図に示すように顕微鏡の落射照明装置
1002内に回転色フィルター1030を設ける。この回転色フ
ィルター1030は、第14図に示した第8実施例における回
転式光フィルター213と同様に、R,G,Bの3原色フィルタ
ーを円板の回転方向に並べたものである。この色フィル
ター1030をモータ1031によって回転駆動すると、白色光
源1001から発せられた光が、前記回転色フィルター1030
を透過する際に、その光の色を時間的にR,G,Bの順に変
えられる。このようにして得られた各原色照明光が鏡筒
1005に導かれると、それぞれの原色照明光により、第16
実施例,第17実施例に記載した構成に基づく動作が逐次
行なわれる。
Here, a method of processing and displaying a color image in the above-described sixteenth and seventeenth embodiments will be described. First, as shown in FIG.
A rotating color filter 1030 is provided in 1002. This rotary color filter 1030 is a device in which three primary color filters of R, G, and B are arranged in the rotation direction of the disk, similarly to the rotary optical filter 213 in the eighth embodiment shown in FIG. When the color filter 1030 is driven to rotate by the motor 1031, light emitted from the white light source 1001 is
, The color of the light can be temporally changed in the order of R, G, B. Each primary color illumination light obtained in this way is
When guided to 1005, each primary color illumination
Operations based on the configurations described in the seventeenth and seventeenth embodiments are sequentially performed.

第32図は、第29図に示す第16実施例に於けるプロセッ
サ1020をカラー画像用に構成した例を示すブロック図で
ある。プロセッサ1100に入力してきた各原色照明光によ
る出力信号は、A/D変換器1101によりディジタル信号に
変換された後、セレクタ1102によりフレームメモリ1103
R,1103G,1103Bのうち、所定の色のメモリ内に格納され
る。3原色照明による処理結果が全て前記フレームメモ
リ1103R,1103G,1103Bに記録されると、これらは、(R,
G,B)→Y変換器1104に送られ、ここで輝度信号Y=
(0.3R+0.59G+011B)が算出される。前記(R,G,B)→
Y変換器1104から出力される輝度信号Yは、前記フレー
ムメモリ1103R,1103G,1103Bにより出力された3原色信
号を除すための信号として除算器1105R,1105G,1105Bに
供給される。したがって、上記各除算器によって、それ
ぞれ除算が行なわれ、R/Y,G/Y,B/Yが算出される。これ
らの算出結果は乗算器1106R,1106G,1106Bに送られる。
FIG. 32 is a block diagram showing an example in which the processor 1020 in the sixteenth embodiment shown in FIG. 29 is configured for a color image. The output signal of each primary color illumination light input to the processor 1100 is converted into a digital signal by the A / D converter 1101, and then converted to a frame memory 1103 by the selector 1102.
R, 1103G, and 1103B are stored in a memory of a predetermined color. When all of the processing results by the three primary color illuminations are recorded in the frame memories 1103R, 1103G, and 1103B, they become (R,
G, B) → Y converter 1104 where the luminance signal Y =
(0.3R + 0.59G + 011B) is calculated. The above (R, G, B) →
The luminance signal Y output from the Y converter 1104 is supplied to the dividers 1105R, 1105G, and 1105B as signals for dividing the three primary color signals output by the frame memories 1103R, 1103G, and 1103B. Therefore, each of the dividers performs a division to calculate R / Y, G / Y, and B / Y. These calculation results are sent to multipliers 1106R, 1106G, 1106B.

一方、前記輝度信号Yは回復処理回路1107により適当
な回復処理を施される。この結果Y′は前記乗算器1106
R,1106G,1106Bに送られ、前記R/Y,G/Y,B/Y信号との乗算
がそれぞれ行なわれる。乗算の結果得られた(R/Y)
Y′,(G/Y)Y′,(B/Y)Y′はそれぞれD/A変換器1
108R,1108G,1108Bにより、アナログビデオ信号に変換さ
れて出力される。以上の構成における動作はコントロー
ラ1109により制御される。
On the other hand, the luminance signal Y is subjected to appropriate recovery processing by a recovery processing circuit 1107. The result Y 'is calculated by the multiplier 1106
R, 1106G, and 1106B, where the multiplication with the R / Y, G / Y, and B / Y signals is performed. Result of multiplication (R / Y)
Y ′, (G / Y) Y ′ and (B / Y) Y ′ are D / A converters 1
The signals are converted into analog video signals and output by 108R, 1108G, and 1108B. The operation in the above configuration is controlled by the controller 1109.

このような構成により、逐次的に入力される各原色信
号に対し、色バランスをくずさないように輝度成分に対
してのみ回復処理が行なわれる。そして回復処理の結果
は3原色同時に出力され、カラー画像として表示でき
る。
With such a configuration, the recovery processing is performed only on the luminance component of each of the sequentially input primary color signals so as not to lose the color balance. The results of the recovery processing are output simultaneously for the three primary colors, and can be displayed as a color image.

なお、第17実施例に適用する場合は、第32図に示した
構成から(R,G,B)→Y変換器1104、除算器1105R,1105
G,1105B、回復処理回路1107,乗算器1106R,1106G,1106B,
をとり除き、フレームメモリ1103R,1103G,1103Bと、D/A
変換器1108R,1108G,1108Bとを直接接続したプロッセサ
を設け、これを第30図におけるカメラドライバ1018とTV
モニタ1025との間に介在させればよい。このようにする
ことにより、すでに回復処理が施され、逐次的に入力さ
れてきた3原色画像信号を、プロセッサ内のフレームメ
モリに一次保持し、これらを同時に出力することによ
り、カラー画像として表示することができる。
When applied to the seventeenth embodiment, the (R, G, B) → Y converter 1104 and the dividers 1105R, 1105 from the configuration shown in FIG.
G, 1105B, recovery processing circuit 1107, multipliers 1106R, 1106G, 1106B,
Remove the frame memories 1103R, 1103G, 1103B and D / A
A processor directly connected to the converters 1108R, 1108G, and 1108B is provided, and the processor is connected to the camera driver 1018 and the TV shown in FIG.
What is necessary is just to interpose between the monitor 1025. In this way, the three primary color image signals that have already been subjected to the recovery processing and are sequentially input are temporarily stored in a frame memory in the processor, and are simultaneously output to be displayed as a color image. be able to.

(第18実施例) 第33図は、本発明の第18実施例の構成を示す略式図で
あって、本発明を透過型顕微鏡に応用するに際して用い
る光学的なハイパスフィルタリングの部分構成図であ
る。図に示す如く透過照明光学系は、ケーラー照明装置
1200で構成される。光源1201から発せられた照明光は、
コレクタレンズ1202で集光され、視野絞り1203,コンデ
ンサ絞り1204を通過して、コンデンサレンズ1205により
資料1206に対して照射される。この際、前記コンデンサ
絞り1204は、十分に小さく絞られ、資料1206にほぼ平行
な光が照射されるようにする。資料1206を通過した光
は、対物レンズ1207に導かれ、この対物レンズ1207の後
ろ焦点面に設置されたフィルター1208により、前記資料
1206の像の空間周波数に対するフィルタリングが行なわ
れる。なお、前記フィルター1208は、中央部が光の吸収
率が大きく、周辺部にいくに従って、その吸収率が次第
に小さくなっていくように構成されている。つまり、低
空間周波数成分をおさえることにより、ハイパスフィル
タリングが行なわれるようになっている。前記ハイパス
フィルタリングが行なわれた像は、結像レンズ1209によ
り、画像入力系に結像される。
(Eighteenth Embodiment) FIG. 33 is a schematic diagram showing a configuration of an eighteenth embodiment of the present invention, and is a partial configuration diagram of optical high-pass filtering used when applying the present invention to a transmission microscope. . As shown in the figure, the transmitted illumination optical system is a Koehler illumination device.
Consists of 1200. Illumination light emitted from the light source 1201 is
The light is condensed by the collector lens 1202, passes through the field stop 1203 and the condenser stop 1204, and is irradiated on the document 1206 by the condenser lens 1205. At this time, the condenser aperture 1204 is made sufficiently small so that light substantially parallel to the document 1206 is irradiated. The light that has passed through the document 1206 is guided to the objective lens 1207, and is filtered by the filter 1208 installed on the rear focal plane of the objective lens 1207.
Filtering is performed on the spatial frequency of the 1206 image. The filter 1208 is configured such that the light absorption rate is large at the center and gradually decreases toward the periphery. That is, high-pass filtering is performed by suppressing low spatial frequency components. The image on which the high-pass filtering has been performed is formed on an image input system by an image forming lens 1209.

上記以外の部分の構成は、第7,第13,第14,第17の実施
例において、透過型顕微鏡に適用するようにアレンジし
た構成に準ずる。
The configuration of the other parts conforms to the configuration of the seventh, thirteenth, fourteenth, and seventeenth embodiments arranged so as to be applied to a transmission microscope.

上記構成の第18実施例においては、次のような作用効
果を奏する。本実施例は、透過型顕微鏡において資料12
06を平行照明することにより、コヒーレント光学系を実
現し、像のハイパスフィルタリングを光学的に行なう作
用を有する。
The eighteenth embodiment having the above configuration has the following operation and effects. This example was carried out using a transmission microscope.
By illuminating 06 in parallel, a coherent optical system is realized and has the effect of optically performing high-pass filtering of an image.

かくして本実施例によれば、第29図に示した第16実施
例と同様に、像の低空間周波数成分をおさえながらTVカ
メラなどの画像入力装置で撮像することにより、画像入
力装置のダイナミックレンジを有効に使うことができ
る。したがって、焦点深度の大きな画像をより鮮明に表
示することができる。
Thus, according to the present embodiment, as in the case of the sixteenth embodiment shown in FIG. 29, the dynamic range of the image input Can be used effectively. Therefore, an image having a large depth of focus can be displayed more clearly.

ここで、加え合わせる画像の枚数もしくは積算する範
囲の選択法について記述する。
Here, a method of selecting the number of images to be added or the range to be integrated will be described.

第34図(a),第34図(b)は上記選択方の概念図で
ある。第34図aの左方部に示すような階段状の表面構造
をもつ物体1210を考える。このような物体1210を焦点深
度の浅い光学系で撮像すると、物体のどこかに焦点が合
っている画像のフーリエスペクトルは比較的高い空間周
波数成分も有するが、全くどの部分にも焦点が合ってい
ない画像の場合は低周波数成分しか持たない。その様子
は第34図(a)の右方部に示されている。すなわち、前
記物体1210に対して合焦点面を破線で示した位置に設定
したときの像のフーリエスペクトルF(u)を示してい
る。このフーリエスペクトルにおける、ある空間周波数
領域(u1,u2)についてのスペクトルを積分した値F(u
1,u2)(斜線部1220の面積)に着目してみる。この積分
値Fが合焦点面位置を変えた場合にどう変化するかを示
したのが第34図(b)である。この図より,F(u1,u2)
の値があるしきい値より大きくなる領域(z1,z2)を加
算範囲とすれば、全く焦点の合った部分のない画像を加
算の対象から除外できる。その結果、より鮮明な長焦点
深度画像を合成できる。そこで、第3実施例,第12実施
例に示したように、合焦点面の異なる画像を記録する場
合は、記録された画像信号にバンドパスフィルターをか
け、その結果得られた値を調べる。こうすることによ
り、第34図(b)に示したような関係を求め、これを基
に加算に用いる画像を決定すれば良い。また、第7実施
例,第14実施例,第16実施例、第17実施例に示した反射
型顕微鏡に応用する場合は、前処理としてステージ(ま
たは対物レンズ)をステップ的に所定の小さい間隔で上
昇あるいは下降させていく。そして各々のフォーカスレ
ベルに於ける入力画像信号にバンドパスフィルターをか
ける。こうすることにより、第34図(b)に示したよう
な関係を求め、積算範囲を決定するようにする。特に、
IC,LSI等の検査に用いる場合には,同じようなパターン
が繰返されるため、一度積算範囲を決定しておけば同じ
条件で対象物のどの部分についても最適な処理が可能と
なる。なお、バンドパスフィルターとしては、周波数帯
域の異なるものを複数用いて、これらのいづれか、ある
いは、それらを全て使うことにより、総合的に判定して
範囲を決めるようにしても良い。
FIGS. 34 (a) and 34 (b) are conceptual diagrams of the above selection method. Consider an object 1210 having a stepped surface structure as shown in the left part of FIG. 34a. When such an object 1210 is imaged by an optical system having a small depth of focus, the Fourier spectrum of an image focused somewhere on the object also has a relatively high spatial frequency component, but focuses on any part at all. A missing image has only low frequency components. This is shown in the right part of FIG. 34 (a). That is, it shows the Fourier spectrum F (u) of the image when the focal plane is set at the position indicated by the broken line with respect to the object 1210. In this Fourier spectrum, a value F (u) obtained by integrating the spectrum for a certain spatial frequency region (u1, u2)
Let's focus on (1, u2) (the area of the shaded area 1220). FIG. 34 (b) shows how the integral value F changes when the focal plane position is changed. From this figure, F (u1, u2)
If the region (z1, z2) in which the value of .gamma. As a result, a clearer long focal depth image can be synthesized. Therefore, as shown in the third and twelfth embodiments, when recording images with different focal planes, a band-pass filter is applied to the recorded image signal, and the resulting value is examined. By doing so, the relationship as shown in FIG. 34 (b) is obtained, and based on this, the image to be used for addition may be determined. In the case where the present invention is applied to the reflection type microscopes shown in the seventh, fourteenth, sixteenth, and seventeenth embodiments, the stage (or the objective lens) is pre-processed by a predetermined small interval. To ascend or descend. Then, a band-pass filter is applied to the input image signal at each focus level. By doing so, the relationship as shown in FIG. 34 (b) is obtained, and the integration range is determined. In particular,
When used for inspection of ICs, LSIs, and the like, similar patterns are repeated. Therefore, once the integration range is determined, optimal processing can be performed on any part of the object under the same conditions. It should be noted that a plurality of bandpass filters having different frequency bands may be used, and any one or all of them may be used to determine the range comprehensively.

(第19実施例) 第35図(a),第35図(b)は、本発明の第19実施例
を示す図であって、本発明を電子カメラへ応用した例を
示す図である。本実施例の構成は大きく分けると、カメ
ラ本体1300,記録媒体1400,プロセッサ1500,マンマシン
・インターフェース1600、そしてTVモニタ1700に分けら
れる。第35図(a)に示す前記カメラ本体1300は、レン
ズ1301,シャッター1302,合焦点位置制御器1303,撮像素
子1304,A/D変換器1305,メモリ1306,マッチング回路130
7,メモリ1308,距離算出回路1309,コントローラ1310,お
よび前記記録媒体1400へ書き込みを行なう書込み装置13
11で構成されている。このカメラ本体1300は次のような
作用を呈する。このカメラ1300は、プリ撮像と本撮像の
2つの動作を行なう。まず、プリ撮像では、前記シャッ
ター1302が、前記レンズ1301の半面を隠す。そして、隠
されていない側の半面を使って結像した像を、前記撮像
素子1304に入力する。このときの撮像素子1304の出力信
号はA/D変換器1305によりディタル信号に変換されて、
前記メモリ1306に記録される。次に、前記シャッター13
02は、前記レンズ1301に対し、上述の場合とは反対側の
半面を隠す。かくして前と同様にして入力した画像は前
記メモリ1306に記録される。このようにして、レンズ13
01の2つの半面を交互に利用し、視差を設けて入力した
2枚の画像に対し、マッチング回路1307によるステレオ
マッチングを行なう。こうすることにより、対象物まで
の距離を計測する。上記マッチングは、例えば、第36図
(a),第36図(b)に示すように、画像内に何点かの
検出点1315を設け、各々の検出点1315を中心として設定
した局所領域1316および1317を対象として行なう。第36
図(a)は左画像面、第36図(b)は右画像面を示して
いる。
(Nineteenth Embodiment) FIGS. 35 (a) and 35 (b) are views showing a nineteenth embodiment of the present invention, in which the present invention is applied to an electronic camera. The configuration of this embodiment is roughly divided into a camera body 1300, a recording medium 1400, a processor 1500, a man-machine interface 1600, and a TV monitor 1700. The camera body 1300 shown in FIG. 35 (a) includes a lens 1301, a shutter 1302, a focal point position controller 1303, an image sensor 1304, an A / D converter 1305, a memory 1306, and a matching circuit 130.
7, a memory 1308, a distance calculation circuit 1309, a controller 1310, and a writing device 13 for writing to the recording medium 1400
It consists of eleven. The camera body 1300 has the following operation. The camera 1300 performs two operations of pre-imaging and main imaging. First, in pre-imaging, the shutter 1302 hides a half surface of the lens 1301. Then, an image formed using the half surface on the non-hidden side is input to the image sensor 1304. The output signal of the image sensor 1304 at this time is converted into a digital signal by the A / D converter 1305,
It is recorded in the memory 1306. Next, the shutter 13
02 hides the half surface on the opposite side of the lens 1301 from the case described above. Thus, the image input as before is recorded in the memory 1306. In this way, the lens 13
The two matching images 01 are alternately used, and stereo matching is performed by a matching circuit 1307 on two images input with parallax. By doing so, the distance to the object is measured. In the above matching, for example, as shown in FIGS. 36 (a) and 36 (b), a plurality of detection points 1315 are provided in an image, and a local area 1316 set around each of the detection points 1315 is set. And 1317. No. 36
FIG. 36A shows the left image plane, and FIG. 36B shows the right image plane.

第37図はマッチング回路1307の構成の一例をメモリ13
06および1308と共に示す図である。メモリ1306には、左
右の視野を持つ2枚の画像を記録する左画像メモリ1306
aと右画像メモリ1306bとが設けてある。前記マッチング
回路1307内にはアドレス発生器1320が設けられている。
このアドレス発生器1320は第36図(a),第36図(b)
に示すように、左画像に対しては、ある検出点1315を中
心とする設定領域1316、右画像に対しては、ある検出点
1315より数画素だけ視差方向にずらした点(ずらした画
素数をSとする)を中心とする設定領域1317(左画像の
設定領域と同じ大きさの設定領域)のアドレスをそれぞ
れに発生させる。この発生したアドレスは前記メモリ13
06に送る。前記メモリ1306からは、設定された領域131
6,1317の左右の画像信号がマッチング回路1307内の減算
器1321に送られる。この減算器1321では両画像信号の減
算が画素ごとに行なわれる。この減算結果の絶対値が絶
対値演算器1322によって計算される。このようにして、
左右の設定領域1316,1317の各対応画素信号の差の絶対
値が計算される。そしてこれらの値は、累積加算器1323
によって全て加え合わされて、その結果は判定器1324に
送られる。次に、前記アドレス発生器1320は、前記メモ
リ1306内の左画像については、最初と同じアドレスを発
生する。そして右画像については、設定領域1317のアド
レスを最初に設定した右画像のアドレスより視差方向に
1あるいは2画素程度ずらした位置(つまり新しい設定
領域の中心点を、検出点よりS−1あるいはS−2だけ
視差方向にずらした点とする)に設定する。そして同様
の計算結果を前記判定器1324に送る。このような操作を
1つの検出点について、ある設定した範囲(例えば、右
画像の設定領域1317の中心点を、検出点に対してS〜−
Sまで動かす範囲)について繰返す。前記判定器1324
は、各ずれ量に対する計算結果を比較し、最小になった
時のずれ量を検出して、前記メモリ1308に送る。このよ
うな動作は各検出点について行なわれる。以上の動作は
マッチング回路コントローラ1325により制御される。
FIG. 37 shows an example of the configuration of the matching circuit 1307 in the memory 13.
It is a figure shown with 06 and 1308. The memory 1306 stores a left image memory 1306 for recording two images having left and right fields of view.
a and a right image memory 1306b. An address generator 1320 is provided in the matching circuit 1307.
This address generator 1320 is shown in FIGS. 36 (a) and 36 (b).
As shown in the figure, for the left image, a setting area 1316 centered at a certain detection point 1315, and for the right image, a certain detection point 1315
An address of a setting area 1317 (a setting area having the same size as the setting area of the left image) centering on a point shifted by several pixels in the parallax direction from 1315 (the number of shifted pixels is assumed to be S) is generated. This generated address is stored in the memory 13
Send to 06. From the memory 1306, the set area 131
The 6,1317 left and right image signals are sent to a subtractor 1321 in the matching circuit 1307. In the subtractor 1321, both image signals are subtracted for each pixel. The absolute value of this subtraction result is calculated by the absolute value calculator 1322. In this way,
The absolute value of the difference between the corresponding pixel signals of the left and right setting areas 1316 and 1317 is calculated. These values are then added to the accumulator 1323
And the result is sent to the decision unit 1324. Next, the address generator 1320 generates the same address as the first for the left image in the memory 1306. For the right image, the address of the setting area 1317 is shifted by one or two pixels in the parallax direction from the address of the right image that was initially set (that is, the center point of the new setting area is shifted S-1 or S1 from the detection point). -2 in the parallax direction). Then, the same calculation result is sent to the determiner 1324. Such an operation is performed for one detection point in a certain set range (for example, the center point of the setting area 1317 of the right image is shifted S to-
It repeats for the range moved to S). The judgment unit 1324
Compares the calculation result for each shift amount, detects the shift amount when the shift amount becomes the minimum, and sends it to the memory 1308. Such an operation is performed for each detection point. The above operation is controlled by the matching circuit controller 1325.

次に、上述したマッチング回路1307の作用について述
べる。ステレオマッチングには視差を持った左右の画像
の対応点を見つけることが必要である。本回路では、そ
のために次に示すような演算を行なっている。
Next, the operation of the above-described matching circuit 1307 will be described. For stereo matching, it is necessary to find corresponding points between left and right images having parallax. The circuit performs the following operation for this purpose.

ρ(t)=ΣR|fr(x+t,y)−fl(x,y)|…(c) ただし、 x :視差方向、 t :ずれ量、 fr(x,y):右画像、 fl(x,y):左画像、 Σ :設定領域における全加算を表わすオペレ
ータ、 である。ある検出点についてtをある範囲(例えば、t
=S〜−S)にわたって変えながら(c)式を計算し、
最小となるtを見つける。こうすることによって、左画
像の検出点に対する右画像の対応点を求めることができ
る。なお、対応点を検出する方法として、(c)式の代
わりに、次式に示すような相関演算を行なわせるよう
に、前記マッチング回路1307を構成してもよい。
ρ (t) = Σ R | fr (x + t, y) −fl (x, y) |... (c) where x: disparity direction, t: shift amount, fr (x, y): right image, fl ( x, y): left image, sigma R: is an operator, representing the full adder in the setting area. For a certain detection point, t is set in a certain range (for example, t
= S to −S), and calculate the expression (c),
Find the minimum t. By doing so, it is possible to obtain the corresponding point of the right image with respect to the detection point of the left image. As a method of detecting the corresponding point, the matching circuit 1307 may be configured to perform a correlation operation as shown in the following equation instead of the equation (c).

φ(t)=ΣRfr(x+t,y)・fl(x,y) …(d) また、次式のように正規化相互相関により、左右量画
像のバイアスやゲインを補正し、より精度の高い相関演
算を行なうようにしても良い。
φ (t) = Σ R fr (x + t, y) · fl (x, y) (d) Also, the bias and the gain of the left and right amount images are corrected by the normalized cross-correlation as shown in the following equation, and the accuracy is improved. May be performed.

ただし、 r:右画像の設定領域における平均値 l:左画像の設定領域における平均値 σr:右画像の設定領域における標準偏差 σr:左画像の設定領域における標準偏差 なお、本実施例では、左画像における設定領域1316の
位置を固定して、右画像内では対応点を捜すように記述
したが、両者の関係は逆でもよい。また、両画像内の設
定領域の位置を検出点を中心として、どちらも動かすこ
とにより、対応点を検出するようにしても良い。さら
に、フーリエ変換における相関定理を応用し、前記マッ
チング回路1307内にFFT演算器を設けて、次式に示すよ
うな相関演算を行なわせても良い。
Here, r: average value in the setting area of the right image l: average value in the setting area of the left image σr: standard deviation in the setting area of the right image σr: standard deviation in the setting area of the left image Although the position of the setting area 1316 in the image is fixed and the corresponding point is searched in the right image, the relationship between the two may be reversed. Alternatively, the corresponding point may be detected by moving the position of the setting area in both images about the detection point as the center. Further, by applying the correlation theorem in Fourier transform, an FFT calculator may be provided in the matching circuit 1307 to perform a correlation calculation as shown in the following equation.

φ(u,v)=F-1[F{fr(x,y)}・F{fl(x,y)}] …(f) ただし、 F :フーリエ変換のオペレータ F-1:逆フーリエ変換のオペレータ この場合は、(c)〜(e)式を計算する場合のよう
に、両画像の相対的な位置tをずらしながら相関値を求
めていく必要はなく、相互相関画像φF(u,v)のピー
クの位置を検出することにより対応点を求め得る。さら
に、ノイズの影響が少ない場合には、次式で表わされる
位相相関法により、精度良く対応点を検出するようにし
ても良い。
φ F (u, v) = F −1 [F {fr (x, y)} · F {fl (x, y)} * ] (F) where F: operator of Fourier transform F −1 : inverse In this case, there is no need to calculate the correlation value while shifting the relative position t between the two images as in the case of calculating the equations (c) to (e). In this case, the cross-correlation image φF ( The corresponding point can be obtained by detecting the position of the peak of (u, v). Further, when the influence of noise is small, the corresponding point may be detected with high accuracy by the phase correlation method represented by the following equation.

一方、前記メモリ1306および前記マッチング回路1307
をセレクタ1330と共に第38図に示すように構成し、画像
を視差方向と垂直な方向に分離して記録し、各々の部分
画像に対するマッチング処理を並列に行なうことによ
り、全体の計算時間を短縮させても良い。
On the other hand, the memory 1306 and the matching circuit 1307
38 together with the selector 1330, the image is separated and recorded in the direction perpendicular to the parallax direction, and the matching processing for each partial image is performed in parallel, thereby reducing the overall calculation time. May be.

さて、前記メモリ1308に記録された各検出点における
左右のずれ量は、第35図(a)に示すように距離算出回
路1309に送られる。距離算出回路1309ではレンズ1301の
半面づつを用いて画像を入力したことによる視差と前記
ずれ量とから、カメラ本体1300と各検出点との間の距離
が算出される。その結果はコントローラ1310へ送られ
る。なお、プリ撮像後に画面の中央の検出点における距
離データから、ファインダーにおいて中央にフォーカス
が合って見えるように、合焦点位置制御器1303を自動制
御し、オートフォーカス動作を行なわせても良い。
Now, the amount of left and right displacement at each detection point recorded in the memory 1308 is sent to the distance calculation circuit 1309 as shown in FIG. 35 (a). The distance calculation circuit 1309 calculates the distance between the camera body 1300 and each detection point from the parallax caused by inputting an image using each half of the lens 1301 and the amount of displacement. The result is sent to the controller 1310. Note that after the pre-imaging, the focus position controller 1303 may be automatically controlled based on the distance data at the detection point at the center of the screen so that the viewfinder is focused on the center, and an autofocus operation may be performed.

次に、前記カメラ1300に於ける本撮像について説明す
る。前記コントローラ1310は、前記距離算出回路1309か
ら送られてきた距離情報に基づいて積算入力を行なうた
めの物体面における合焦点位置の移動範囲を設定する。
合焦点位置の範囲の設定の仕方の一例を説明する。各検
出点における距離データから、そのばらつき具合いを表
わす標準偏差を求める。そして距離の平均値から±kσ
の範囲(kは1〜2の間ぐらい)を求め、積算範囲とす
る。ただし、距離の平均値,標準偏差を計算する際に、
空など無限遠であると算出されたデータは除外する。な
お、積算範囲はマニュアルで撮影者が任意に設定できる
ようにしても良い。本撮像においては、前記シャッター
1302を全て解放し、その露光時間内に、前記コントロー
ラ1310で設定した積算範囲に対応して合焦点位置制御器
1303を駆動し、合焦点位置の異なる画像を前記撮像素子
1304の受光面に積算する。前記撮像素子1304からの出力
信号は、前記A/D変換器1305によりディジタル信号に変
換され、メモリ1306に記録される。前記メモリ1306に記
録された積算画像および前記メモリ1308に記録されてい
る画像内の各検出点における左右のずれ量は、書込み装
置1311によって、前記記録媒体1400に記録される。な
お、前記カメラ本体1300内に加算器を設け、本撮像にお
いて合焦点位置の異なる画像を累積加算するようにして
もよい。
Next, the main imaging in the camera 1300 will be described. The controller 1310 sets the range of movement of the focal point position on the object plane for performing the integration input based on the distance information sent from the distance calculation circuit 1309.
An example of how to set the range of the focal point will be described. From the distance data at each detection point, a standard deviation representing the degree of variation is obtained. Then, from the average value of the distances, ± kσ
(Where k is between 1 and 2) is determined as an integration range. However, when calculating the average value and standard deviation of distance,
Data calculated at infinity, such as the sky, is excluded. The integration range may be manually set by the photographer. In the actual imaging, the shutter
1302 are all released, and within the exposure time, the focal point position controller corresponding to the integration range set by the controller 1310
Driving 1303, the image sensor with different focus position images
Integrate on the light receiving surface of 1304. The output signal from the image sensor 1304 is converted into a digital signal by the A / D converter 1305 and recorded in the memory 1306. The integrated image recorded in the memory 1306 and the amount of left and right deviation at each detection point in the image recorded in the memory 1308 are recorded on the recording medium 1400 by the writing device 1311. Note that an adder may be provided in the camera main body 1300 to cumulatively add images having different focal points in the main imaging.

前記記録媒体1400は、フロッピーディスク,光メモ
リ,半導体ICを組込んだカード,磁気テープ,磁性体以
外の固体メモリ,有機物質によるメモリ等で構成され、
前記カメラ本体1300において得られたデータを、前記プ
ロセッサ1500へオフラインで転送する役割を持つ。
The recording medium 1400 includes a floppy disk, an optical memory, a card incorporating a semiconductor IC, a magnetic tape, a solid memory other than a magnetic material, a memory using an organic substance, and the like.
It has a role of transferring data obtained in the camera body 1300 to the processor 1500 offline.

次に、第35図(b)に示す前記プロセッサ1500の構成
と作用について記す。前記記録媒体1400に書込まれてい
るデータは、読込み装置1501により読み出される。そし
て画像データはメモリ1502へ記録され、各検出点におけ
る左右のずれ量はメモリ1503に記録される。そして前記
画像メモリ1502に記録された画像データは、回復処理回
路1504に送られる。また、前記メモリ1503内に記録され
たずれ量のデータは係数発生器1505へ送られる。係数発
生器1505は、入力したずれ量に対応した係数値を発生さ
せ、前記回復回路1504へ送る。前記回復処理回路1504で
適当な回復処理を施された画像信号は、D/A変換器1506
でアナログビデオ信号に変換され、前記TVモニタ1700に
よって表示される。なお、前記プロセッサ1500における
動作は、コントローラ1507で制御される。また、条件設
定および画像表示等の指令は前記コントローラ1507と連
結された前記マンマシン・インターフェース1600により
観察者が行なえるようになっている。
Next, the configuration and operation of the processor 1500 shown in FIG. 35 (b) will be described. The data written in the recording medium 1400 is read by the reading device 1501. Then, the image data is recorded in the memory 1502, and the amount of left and right displacement at each detection point is recorded in the memory 1503. Then, the image data recorded in the image memory 1502 is sent to the recovery processing circuit 1504. Further, the data of the deviation amount recorded in the memory 1503 is sent to the coefficient generator 1505. The coefficient generator 1505 generates a coefficient value corresponding to the input shift amount, and sends it to the recovery circuit 1504. The image signal that has been subjected to the appropriate restoration processing by the restoration processing circuit 1504 is a D / A converter 1506
Is converted to an analog video signal and displayed on the TV monitor 1700. The operation of the processor 1500 is controlled by the controller 1507. Also, commands such as condition setting and image display can be performed by the observer through the man-machine interface 1600 connected to the controller 1507.

前記プロセッサ1500における回復処理の作用について
説明する。前記回復処理回路1504では、局所領域のコン
ボリューションにより、空間フィルタリングが行なわ
れ、回復処理が実行される。
The operation of the recovery process in the processor 1500 will be described. In the recovery processing circuit 1504, spatial filtering is performed by the convolution of the local area, and the recovery processing is executed.

第39図は、上記回復処理の概念図である。この図で
は、ある画素に対し、その近傍の5×5の画素領域につ
いて、設定したマウス1510との「たたみ込み演算)(コ
ンボリューション)を行なう。そしてその演算結果を対
象画素におき換えるという処理を、前記画素(ただし、
周辺の2ラインについては行なわない)について順次実
行していく作用を示している。このような方法で回復処
理を行なうことにより、画像内の位置に応じて異なるフ
ィルタリングを行なうことができる。そこで、前記カメ
ラ本体1300において積算入力した画像が一様にぼけた画
像にならない場合に、上記マスク1510の係数を画像の位
置に応じて変えてやることによって、どの部分でもフォ
ーカスの合った画像を表示できる。このような処理を行
なうために、前記プリ撮像においては画像内の何点かの
検出点1315におけるカメラ本体1300と被写体との距離を
計測しておき、積算画像内のどの部分がどの程度ぼける
かを把握し、その情報に基いてマスク1510の係数を決定
するという処理を行なうものである。
FIG. 39 is a conceptual diagram of the recovery process. In this figure, a “convolution operation” (convolution) is performed on a certain pixel in a neighboring 5 × 5 pixel area with a set mouse 1510. Then, the operation result is replaced with a target pixel. Is the pixel (however,
(Not performed for the surrounding two lines). By performing the restoration process in such a manner, different filtering can be performed according to the position in the image. Therefore, when the integrated input image in the camera body 1300 does not become a uniformly blurred image, by changing the coefficient of the mask 1510 according to the position of the image, an image in which any part is in focus can be obtained. Can be displayed. In order to perform such processing, in the pre-imaging, the distance between the camera body 1300 and the subject at some detection points 1315 in the image is measured, and which part in the integrated image is blurred and how much Is determined, and the coefficient of the mask 1510 is determined based on the information.

かくして本実施例(第19実施例)によれば、プリ撮像
によって積算する合焦点位置の範囲を決定できる。ま
た、ぼけ方が画像内の場所に依存する場合でも適当な回
復処理を施すことができる。したがって、本発明を電子
カメラへ応用した場合の適用範囲を拡大することができ
る。なお、本実施例のプロセッサ1500における回復処理
用マスク1510の係数は、場所に応じて任意可変できるの
で、これを応用して観察者が好みに応じて焦点深度を自
由に変えられるように構成しても良い。
Thus, according to the present embodiment (the nineteenth embodiment), it is possible to determine the range of the focal point position to be integrated by the pre-imaging. Further, even when the manner of blur depends on the location in the image, appropriate recovery processing can be performed. Therefore, the range of application of the present invention to an electronic camera can be expanded. Note that the coefficient of the recovery processing mask 1510 in the processor 1500 of the present embodiment can be arbitrarily changed according to the location, so that this configuration is applied so that the observer can freely change the depth of focus as desired. May be.

(第20実施例) 第40図(a),第40図(b)は本発明の第20実施例の
構成を示す図であって、第19実施例と同様に、本発明を
電子カメラへ応用した例である。本実施例の構成は、大
きく分けると、カメラ本体1800、記録媒体1900、プロセ
ッサ2000、マンマシン・インターフェース2100、TVモニ
タ2200等からなる。まず、カメラ本体1800は第19実施例
で示したのと同様にプリ撮像と本撮像の動作を行う。ま
ず、プリ撮像においては、レンズ1801の中央部より入力
された対象物の像がミラー1802により反射され、オート
フォーカス(以下AFと略す)センサ1803に入力される。
前記AFセンサ1803は、第19実施例で示したステレオマッ
チングに類似した位相差AF方式に基づくもので、視差を
設けて結像させた2つの画像の位相差に相当するデータ
を測距回路1804に送る。前記測距回路1804では、前記AF
センサ1803から送られてきたデータを基に、カメラ本体
1800から対象物までの距離を計測する。この計測した距
離データはメモリ1805に記録される。以上の動作は撮影
者が設定した数か所の対象物について同様に行なわれ、
それらの結果が前記メモリ1805に記録される。次に、前
記メモリ1805に記録された複数点の測距結果はコントロ
ーラ1806に送られ、本撮像における条件が設定される。
Twentieth Embodiment FIGS. 40 (a) and 40 (b) are diagrams showing a configuration of a twentieth embodiment of the present invention. As in the nineteenth embodiment, the present invention is applied to an electronic camera. This is an application example. The configuration of this embodiment is roughly divided into a camera body 1800, a recording medium 1900, a processor 2000, a man-machine interface 2100, a TV monitor 2200, and the like. First, the camera body 1800 performs pre-imaging and main imaging operations in the same manner as described in the nineteenth embodiment. First, in pre-imaging, an image of an object input from the center of the lens 1801 is reflected by a mirror 1802 and input to an autofocus (hereinafter abbreviated as AF) sensor 1803.
The AF sensor 1803 is based on a phase difference AF method similar to the stereo matching shown in the nineteenth embodiment, and outputs data corresponding to the phase difference between two images formed with parallax by a distance measuring circuit 1804. Send to In the ranging circuit 1804, the AF
Based on the data sent from the sensor 1803, the camera body
Measure the distance from 1800 to the object. The measured distance data is recorded in the memory 1805. The above operation is performed similarly for several objects set by the photographer,
The results are recorded in the memory 1805. Next, the distance measurement results of a plurality of points recorded in the memory 1805 are sent to the controller 1806, and conditions for the main imaging are set.

次に、本撮像における動作を説明する。前記コントロ
ーラ1806はプリ撮像において測定したカメラ本体1800か
ら対象物までの距離データを基に、合焦点位置の異なる
画像に対し適当な重み付けを行なって加重加算入力を行
うよう制御する。つまり、合焦点位置制御器1807は前記
プリ撮像によって設定した範囲にわたって合焦点位置を
離散的に変える。その結果生じた各々の状態においてレ
ンズ1801により結像された画像は、撮像素子1808に入力
される。この撮像素子1808に入力した画像信号は、A/D
変換器1809によりディジタル信号に変換された後、メモ
リ1810に記録されている所定の係数値と乗算器1811によ
って乗算される。そしてこの乗算された値は加算器1812
により、メモリ1813に記録されている画像信号と加算さ
れ、その結果は再び前記メモリ1813に格納される。以上
の構成により、合焦点位置を離散的に変えながら入力さ
れた複数枚の画像が加重加算され、その結果は前記メモ
リ1813に記録される。なお前記キラー1802は、本撮像が
行なわれるときには、メカニカルに光路からはずされる
か、あるいは撮像に邪魔にならないように最初から光学
的に設計されている。前記メモリ1805に記録されている
幾つかの観測点における測距データ、および前記メモリ
1813に記録されている画像データは、書き込み装置1814
により記録媒体1900に記録される。
Next, the operation in the main imaging will be described. The controller 1806 performs appropriate weighting on images at different focal positions based on the distance data from the camera body 1800 to the object measured in the pre-imaging, and controls to perform weighted addition input. That is, the focus position controller 1807 discretely changes the focus position over the range set by the pre-imaging. An image formed by the lens 1801 in each of the resulting states is input to the image sensor 1808. The image signal input to this image sensor 1808 is A / D
After being converted into a digital signal by the converter 1809, the digital signal is multiplied by a multiplier 1811 by a predetermined coefficient value recorded in the memory 1810. The multiplied value is added to an adder 1812.
Is added to the image signal recorded in the memory 1813, and the result is stored in the memory 1813 again. With the above configuration, a plurality of input images are weighted and added while discretely changing the in-focus position, and the result is recorded in the memory 1813. Note that the killer 1802 is optically designed from the beginning so that it is mechanically removed from the optical path when the main imaging is performed or does not disturb the imaging. Ranging data at several observation points recorded in the memory 1805, and the memory
The image data recorded in 1813 is
Is recorded on the recording medium 1900.

次に、第40図(b)に示すプロセッサ2000の構成およ
び作用について説明する。前記記録媒体1900に記録され
ているデータは読み込み装置2001によって読み出され
る。そして画像データはメモリ2002に記録され、測距デ
ータはコントローラ2003に入力される。前記メモリ2002
に入力された画像データは、回復処理装置2004に送られ
る。そして前記測距データを基に前記コントローラ2003
で設定された条件に従って、適当な回復処理が施され
る。前記回復処理装置2004により回復処理が施された画
像信号は、D/A変換器2005でアナログビデオ信号に変換
された後、TVモニタ2200によって表示される。なお、上
記プロセッサ2000における回復処理や、画像出力の際の
諸操作は、前記コントローラ2003と連結されたマンマシ
ン・インターフェース2100で行なえるようになってい
る。
Next, the configuration and operation of the processor 2000 shown in FIG. 40 (b) will be described. The data recorded on the recording medium 1900 is read by the reading device 2001. Then, the image data is recorded in the memory 2002, and the distance measurement data is input to the controller 2003. The memory 2002
Is sent to the recovery processing device 2004. Then, based on the distance measurement data, the controller 2003
Appropriate recovery processing is performed according to the conditions set in. The image signal subjected to the restoration processing by the restoration processing device 2004 is converted into an analog video signal by the D / A converter 2005, and then displayed on the TV monitor 2200. Note that the recovery processing in the processor 2000 and various operations at the time of image output can be performed by the man-machine interface 2100 connected to the controller 2003.

上記構成の第20実施例においては、次のような作用効
果を奏する。まず、カメラ1800におけるプリ撮像におい
て、撮影者は写したい数か所の被写体を画面の中央部に
狙い定め、測距ボタンを押す。こうすることによって、
各被写体までの距離がカメラ内のメモリ1805に記録され
る。コントローラ1806ではそれらの測距データを基に、
加算入力した画像が撮影者が選択した被写体についてほ
ぼ同じぼけ方になるように入力条件を設定する。この状
態で本撮像が行なわれる。またプロセッサ2000では、プ
リ撮像によって測定した距離データを基に適当な回復処
理を行う作用を有する。
The twentieth embodiment having the above configuration has the following operation and effects. First, in the pre-imaging by the camera 1800, the photographer aims at several subjects to be photographed at the center of the screen and presses the distance measurement button. By doing this,
The distance to each subject is recorded in the memory 1805 in the camera. The controller 1806, based on those distance measurement data,
The input conditions are set so that the image that has been added and added is almost the same as the subject selected by the photographer. The main imaging is performed in this state. Further, the processor 2000 has an operation of performing an appropriate recovery process based on the distance data measured by the pre-imaging.

複数の測距データから加重加算入力の条件を設定する
方法について説明する。ここでは説明を簡単にするため
に、カメラ本体1800からの距離が異なっている2つの被
写体があると仮定する。本発明の主旨により、合焦点位
置を変えながら加算入力した画像に対して、場所により
不変(Space invariant)な回復フィルターをかけるこ
とによって、焦点深度の大きな画像を表示する為には、
加算入力した画像のぼけ方がSpace invariantである必
要がある。そこで、まず焦点はずれによりぼけ量を幾何
的近似により示す。
A method of setting a weighted addition input condition from a plurality of distance measurement data will be described. Here, for the sake of simplicity, it is assumed that there are two subjects at different distances from the camera body 1800. According to the gist of the present invention, in order to display an image having a large depth of focus by applying a space-invariant recovery filter to an image input and added while changing the focal point position,
It is necessary that the blur of the input image is Space invariant. Therefore, first, the blur amount is shown by geometrical approximation due to defocus.

第41図はその幾何的関係を示す図である。カメラ本体
1800の撮像面1820からl1の距離に物点A1があり、l2の距
離に物点A2があるとする。そして物点A1とA2との距離は
dであるとする。第41図の上方図は物点A1にフォーカス
を合わせた場合の幾何的関係を示す。このときの物点A2
のばけ量δ2はA2から出た光線束の撮像面1820での投影
の直径で表わす。第41図の下方図は物点A2にフォーカス
を合わせた場合の幾何学的関係を示す。このとき物点A1
のぼけ量δ1は物点A1から出た光線束の撮像面1820での
投影の直径で表わす。レンズ1801の焦点距離をfとし、
f≪l1を仮定すると、δ2,δ2は近似を用いて次式で表
わされる。
FIG. 41 is a diagram showing the geometric relationship. Camera body
It is assumed that the object point A1 is at a distance of l1 from the imaging surface 1820 of 1800, and the object point A2 is at a distance of l2. The distance between the object points A1 and A2 is d. The upper part of FIG. 41 shows the geometric relationship when the object point A1 is focused. Object point A2 at this time
The blurring amount δ2 is represented by the diameter of the projection of the light beam emitted from A2 on the imaging surface 1820. The lower part of FIG. 41 shows the geometric relationship when the object point A2 is focused. At this time, object point A1
The blur amount δ1 is represented by the diameter of the projection of the light beam emerging from the object point A1 on the imaging surface 1820. Let f be the focal length of the lens 1801,
Assuming that f≪l1, δ2, δ2 can be expressed by the following equation using approximation.

ただし、FはカメラのFナンバーで、F=f/D(D:レ
ンズの射出瞳の直径)。(h)式と(i)式とを比較す
ると、物点A1にフォーカスを合せたときの物点A2のぼけ
量δ2と、物点A2にフォーカスを合わせたときの物点A1
のぼけ量δ1との大小関係は、δ2>δ1である。そし
てその違いはl1が小さい場合、つまり手前の被写体A1が
より近くにある場合において顕著になることがわかる。
このような場合、合焦点面の位置を物点A1からA2にわた
って等間隔に変えながら加算入力した画像における物点
A1,A2の被写体のぼけ方は等しくならない。つまり物点A
2にある被写体の方がぼけが大きくなる。したがって本
実施例では、加重加算を行うことによって加算入力画像
のぼけ方をSpace invariantに近いものにしている。そ
の際の加重係数の決定法について以下説明する。
Here, F is the F number of the camera, and F = f / D (D: diameter of the exit pupil of the lens). Comparing Equations (h) and (i), it can be seen that the blur amount δ2 of the object point A2 when focusing on the object point A1, and the object point A1 when focusing on the object point A2.
The magnitude relationship with the blur amount δ1 is δ2> δ1. It can be seen that the difference becomes remarkable when l1 is small, that is, when the subject A1 in front is closer.
In such a case, the object point in the image added and input while changing the position of the focal plane from the object points A1 to A2 at regular intervals.
The blurring of the subjects A1 and A2 is not equal. That is, object point A
The subject in 2 is more blurred. Therefore, in the present embodiment, the weighted addition is performed to make the blur of the added input image close to Space invariant. A method of determining the weighting factor at that time will be described below.

第42図に示すように合焦点位置をA1からA2点までの範
囲で等間隔にmか所設定するものとする。そして各位置
にそれぞれ重みωi(i=1,2,..,m)を乗じて加え合わ
せるものとする。それぞれの合焦点位置におけるA2点,A
1点にある物体のぼけ量δ2(i),δ1(i)(i=
1,2,..,m)は次式で表わされる。
As shown in FIG. 42, it is assumed that the in-focus position is set at m places at equal intervals in the range from point A1 to point A2. Then, each position is multiplied by a weight ωi (i = 1, 2,..., M) and added. A2 point and A at each focal point
The blur amounts δ2 (i) and δ1 (i) of the object at one point (i =
1,2, .., m) is represented by the following equation.

従って、加重加算された画像における物点A2,A1点に
ある物体のぼけ量は で表わすことができる。これらの点が の拘束条件の下で最小になるような ωi(i=1,2,…m) を求めるために、Lagrangeの未定乗数法を用いる。つま
り、 なる式の演算を行なう。(o),(m)式より、未知数
ωi(i=1,2,..,m)に対して次の連立方式(p)が成
立する。なお、(p)式は表現をし易くするために行列
表示する。
Therefore, the blur amount of the object at the object points A2 and A1 in the weighted image is Can be represented by These points In order to obtain ωi (i = 1, 2,... M) that is minimized under the constraint condition of, Lagrange's undetermined multiplier method is used. That is, The operation of the following expression is performed. From the equations (o) and (m), the following simultaneous system (p) holds for the unknown ωi (i = 1, 2,..., M). The expression (p) is displayed in a matrix for easy expression.

この(p)式を解くことにより最適なωi(i=1,
2,..,m)が求まる。
By solving this equation (p), the optimum ωi (i = 1,
2, .., m) is obtained.

以上のような方法で、カメラ本体1800から被写体まで
の距離(l1およびd)が分かった場合に、加重係数をど
のように設定したら良いかをあらかじめ調べておく。そ
して、これらのデータをカメラ本体1800内に記憶してお
いて、実際の操作ではプリ撮像で計測した各被写体まで
の距離から適当な加重加算入力を行うようにする。前記
加重係数のデータは撮像レンズ1801が交換可能なカメラ
の場合、撮影レンズ1801内に設置したリードオンリーメ
モリ(ROM)に記録しておき、撮影時にカメラ本体1800
のコントローラ1806にデータを転送し動作を行なわせる
ようにしても良い。
When the distance (l1 and d) from the camera body 1800 to the subject is known by the above method, how to set the weighting coefficient is checked in advance. Then, these data are stored in the camera body 1800, and in an actual operation, an appropriate weighted addition input is performed based on the distance to each subject measured in the pre-imaging. In the case of a camera in which the imaging lens 1801 is replaceable, the data of the weighting factor is recorded in a read-only memory (ROM) installed in the taking lens 1801, and the camera body 1800 is used at the time of shooting.
Data may be transferred to the controller 1806 to perform the operation.

本実施例(第20実施例)によれば、撮影者が任意に選
択した全ての被写体に対し、フォーカスが合うように焦
点深度を制御することができる。また加重加算を行うこ
とによって画像のぼけ方がSpace invariantに近い状態
になるため回復処理を簡便に行なえる。
According to the present embodiment (twentieth embodiment), it is possible to control the depth of focus such that all the subjects arbitrarily selected by the photographer are in focus. Further, by performing the weighted addition, the blurring of the image becomes a state close to the Space invariant, so that the recovery processing can be easily performed.

(第21実施例) 第43図は、本発明の第21実施例の構成を示す図であっ
て、第19実施例、20実施例と同様に、本発明を電子カメ
ラへ応用した例である。本実施例は、第40図(a)に示
す第20実施例のカメラ本体1800の構成から、メモリ1810
と乗算器1811とを除いたものに相当する。本実施例にお
けるカメラ本体2300もプリ撮像と本撮像の2つの動作を
行う。このうち、プリ撮像は第20実施例に記載した内容
と同様である。したがってその説明は省く。本実施例に
おける本撮像の動作を説明する。コントローラ2306はプ
リ撮像において決定した条件に従って画像の入力、加算
が行なわれるように合焦点位置制御器2307を制御する。
この合焦点位置制御器2307は、前記条件に従って合焦点
位置を離散的に変える。各々の状態においてレンズ2301
により結像された画像は、撮像素子2308に入力される。
この撮像素子2308に入力された画像信号は、A/D変換器2
309によりディジタル信号に変換された後、加算器2312
によりメモリ2313に記録されている画像信号と加算され
る。加算結果は再び前記メモリ2313に記録される。以上
の構成により、合焦点位置が離散的に変えられながら入
力された複数枚の画像が累積加算される。その結果は前
記メモリ2313に記録される。そして、前記メモリ2305に
記録されている幾つかの観測点における測距データ、お
よび前記メモリ2313に記録されている画像データは、書
込み装置2314によって記録媒体1900に記録される。この
記録媒体1900に記録された加算入力画像は、前記第20実
施例と同様にプロセッサにおいて読み出され、同じく前
記記録媒体1900から読み出された測距データを基に、適
当な回復処理が施されてTVモニタ上に表示される。な
お、本実施例におけるプロセッサ,TVモニタ,マンマシ
ン・インターフェイスの構成は第20実施例と同様であ
る。
(21st Embodiment) FIG. 43 is a diagram showing the configuration of the 21st embodiment of the present invention, and is an example in which the present invention is applied to an electronic camera as in the 19th and 20th embodiments. . This embodiment differs from the camera body 1800 of the twentieth embodiment shown in FIG.
And the multiplier 1811 are excluded. The camera body 2300 in this embodiment also performs two operations of pre-imaging and main imaging. Among them, the pre-imaging is the same as the content described in the twentieth embodiment. Therefore, the explanation is omitted. The operation of the main imaging in the present embodiment will be described. The controller 2306 controls the focal point position controller 2307 so that input and addition of images are performed according to the conditions determined in the pre-imaging.
The in-focus position controller 2307 discretely changes the in-focus position according to the above conditions. Lens 2301 in each state
Is input to the image sensor 2308.
The image signal input to the image sensor 2308 is converted by the A / D converter 2
After being converted into a digital signal by 309, adder 2312
, And is added to the image signal recorded in the memory 2313. The addition result is recorded in the memory 2313 again. According to the above configuration, a plurality of input images are cumulatively added while the focal point position is discretely changed. The result is recorded in the memory 2313. Then, the distance measurement data at some observation points recorded in the memory 2305 and the image data recorded in the memory 2313 are recorded on the recording medium 1900 by the writing device 2314. The added input image recorded on the recording medium 1900 is read by the processor in the same manner as in the twentieth embodiment, and an appropriate recovery process is performed on the basis of the distance measurement data also read from the recording medium 1900. Is displayed on the TV monitor. The configuration of the processor, the TV monitor, and the man-machine interface in this embodiment is the same as that of the twentieth embodiment.

上記構成の第21実施例においては次のような作用効果
を奏する。第20実施例で説明した通り、第42図における
A1点からA2点にわたって合焦点位置を等間隔に変えなが
ら加算入力した画像のぼけ方はSpace invariantにはな
らない。しかるに、本実施例では次のような手段を採用
しているので、加算入力画像のぼけ方をSpace invarian
tに近いものになる。合焦点を第44図に示すように物点A
1からA2にわたって設定していく。すなわち物点Aの近
くでは合焦点面間の間隔が疎に、物点A2に近づくに従っ
て密になるようにする。合焦点面をこのように設定した
場合のカメラ本体2300から遠い物点A2の被写体に着目し
てみる。カメラ本体2300のフォーカスをより近い点に合
わせたときのぼけ量の大きい画像が、合焦点面を等間隔
に設定したときに比べて少なくなる。したがって、加算
された画像において物点A2にある被写体のぼけ方がより
小さくなる。一方、物点A1にある対象物については、合
焦点面を等間隔に設定したときに比べて加算画像のぼけ
方が大きくなる。よって、加算画像全体で見ると、ぼけ
方をSpace invariantに近いものとすることができる。
なお、本実施例における合焦点面間の間隔は、第20実施
例に示した求め方により算出した係数ωi(i=1,
2,..,m)の値から容易に設定可能である。したがって、
本実施例においても予め設定しておいたデータに基づい
て、プリ撮像で計測した各被写体までの距離から適当な
加算入力を行なうようにすれば良い。
In the twenty-first embodiment having the above structure, the following operation and effect can be obtained. As described in the twentieth embodiment, FIG.
The blur of the image added and input while changing the focal point position at equal intervals from point A1 to point A2 does not become Space invariant. However, in the present embodiment, since the following means is adopted, the method of blurring the added input image is determined by Space invarian
It will be close to t. Focus on object point A as shown in Fig. 44.
Set from 1 to A2. That is, the distance between the focal planes is sparse near the object point A, and denser as the object point A2 is approached. Let us focus on the subject at the object point A2 far from the camera body 2300 when the focal plane is set in this way. An image having a large amount of blur when the focus of the camera body 2300 is set to a closer point is smaller than when the focal plane is set at an equal interval. Therefore, the way of blurring of the subject at the object point A2 in the added image becomes smaller. On the other hand, with respect to the target at the object point A1, the blur of the added image is larger than when the focal plane is set at equal intervals. Therefore, when the entire added image is viewed, the blur can be made close to the Space invariant.
Note that the distance between the focal planes in this embodiment is the coefficient ωi (i = 1, 1) calculated by the method described in the twentieth embodiment.
2, .., m) can be easily set. Therefore,
Also in this embodiment, an appropriate addition input may be performed based on the data set in advance, based on the distance to each subject measured in the pre-imaging.

このように本実施例によれば、より簡単な構成で、第
20実施例と同様な効果をもたらすことができる。
As described above, according to the present embodiment, with a simpler configuration,
The same effect as that of the 20th embodiment can be obtained.

(第22実施例) 第45図は本発明の第22実施例の構成を示す図であっ
て、第19,第20,第21の各実施例と同様に、本発明を電子
カメラへ応用した例である。本実施例のカメラ本体2400
の構成は、第20実施例のカメラ2300の構成から加算器23
12を除いたものに相当する。本実施例における、カメラ
本体2400もプリ撮像と本撮像の2つの動作を行う。この
うち、プリ撮像は第20実施例に記載した内容と同様であ
るので説明は省く。本撮像においては、プリ撮像によっ
て決定した条件に従って画像の積算入力が行われるよう
に、コントローラ2406が合焦点位置制御器2407を制御す
る。そして露光時間内に合焦点位置を所定の速度で変え
ながら、レンズ2401で結像した画像を撮像素子2408の受
光面上に積算する。積算入力された画像はA/D変換器240
9によってディタル信号に変換された後、メモリ2413に
記録される。この記録された画像データは、メモリ2405
に記録されている測距データと共に書込み装置2414によ
って記録媒体1900に記録される。前記記録媒体1900に記
録された積算入力画像は第20実施例で示したものと同様
のプロセッサにおいて読み出され、同じく前記記録媒体
1900から読み出された測距データを基に、適当な回復処
理が施されてTVモニタ上に表示される。なお、本実施例
におけるプロセッサ,TVモニタおよび観察者が諸操作を
行うためのマンマシン・インターフェースの構成は第20
実施例と同様である。
(22nd Embodiment) FIG. 45 is a view showing the configuration of the 22nd embodiment of the present invention, in which the present invention is applied to an electronic camera as in the 19th, 20th and 21st embodiments. It is an example. Camera body 2400 of this embodiment
Is different from the configuration of the camera 2300 in the twentieth embodiment in that the adder 23 is used.
Equivalent to 12 In the present embodiment, the camera body 2400 also performs two operations of pre-imaging and main imaging. Among them, the pre-imaging is the same as the content described in the twentieth embodiment, and thus the description is omitted. In the main imaging, the controller 2406 controls the in-focus position controller 2407 so that the integrated input of the image is performed according to the condition determined by the pre-imaging. The image formed by the lens 2401 is integrated on the light receiving surface of the image sensor 2408 while changing the focal point at a predetermined speed within the exposure time. The input image is A / D converter 240
After being converted into a digital signal by 9, it is recorded in the memory 2413. The recorded image data is stored in the memory 2405
The data is recorded on the recording medium 1900 by the writing device 2414 together with the distance measurement data recorded on the recording medium 1900. The integrated input image recorded on the recording medium 1900 is read out by the same processor as that shown in the twentieth embodiment, and the same
Appropriate recovery processing is performed based on the distance measurement data read from 1900, and displayed on the TV monitor. The configuration of the processor, the TV monitor, and the man-machine interface for the observer to perform various operations in the present embodiment is described in the twentieth embodiment.
This is the same as the embodiment.

上記構成の第22実施例においては、次のような作用効
果を奏する。本実施例は第20,21の実施例と同様に、撮
影者が任意に選んだいくつかの被写体の測距データから
積算画像のぼけ方が場所に依存しないように合焦点面を
制御する作用を有する。第41図に示したような幾何的関
係が存在している場合に対応して、本実施例では露光時
間内における合焦点面の位置を、第46図に示すような変
化特性をもって制御する。つまり、カメラ本体2400に対
してより手前にあるA1点の付近については、合焦点位置
を速く動かすことにより疎に画像を積算し、遠くのA2点
付近ではゆっくり動かすことにより密に積算する。この
ようにすることにより、積算画像は第20実施例で示した
作用と同様に、ぼけ方が場所に依存しないSpace invari
antに近いものとなる。なお、第46図の曲線f(x)
は、第20実施例で求めた係数ωi(i=1,2,..,m)が合
焦点位置を表わす座標軸xに対する微係数になるように
定める。つまり、 とする。なお、第47図に示すように合焦点位置をステッ
プ状に変えながら積算入力しても良い。この場合、各々
の合焦点位置での露光時間が第20実施例で求めた係数ω
i(i=1,2,..,m)の比になるようにすることが望まし
い。
In the twenty-second embodiment having the above structure, the following operation and effect can be obtained. In the present embodiment, similarly to the twentieth and twenty-first embodiments, the function of controlling the focal plane so that the blur of the integrated image does not depend on the location from the distance measurement data of some subjects arbitrarily selected by the photographer. Having. In this embodiment, the position of the focal plane within the exposure time is controlled with a change characteristic as shown in FIG. 46, corresponding to the case where the geometric relationship as shown in FIG. 41 exists. That is, in the vicinity of the point A1 which is closer to the camera body 2400, the image is sparsely integrated by moving the focal point position quickly, and densely by moving slowly in the vicinity of the distant point A2. By doing in this way, the integrated image has a Space invariable manner in which the blur does not depend on the location, as in the operation shown in the twentieth embodiment.
It becomes something close to ant. The curve f (x) in FIG.
Is determined so that the coefficient ωi (i = 1, 2,..., M) obtained in the twentieth embodiment is a differential coefficient with respect to the coordinate axis x representing the in-focus position. That is, And Incidentally, as shown in FIG. 47, the integrated input may be performed while changing the focal point position in a step-like manner. In this case, the exposure time at each in-focus position is the coefficient ω obtained in the twentieth embodiment.
It is desirable to make the ratio i (i = 1, 2,..., m).

本実施例によれば、より簡単な構成で第20実施例,第
21実施例と同様の効果をもたらすことができる。
According to the present embodiment, the twentieth embodiment and the
The same effect as that of the 21st embodiment can be obtained.

ここで、第1,第2,第3,第15,第19,第20,第21,第22実施
例等で用いられる合焦点位置の異なる画像を入力するた
めの光学系の一例を示す。
Here, an example of an optical system for inputting images having different focal points used in the first, second, third, fifteenth, nineteenth, twentieth, twenty-first, and twenty-second embodiments and the like will be described.

第48図はズームレンズに対する構成例を示す図であ
る。レンズ系はフォーカシング系2501,バリエータ系250
2,コンペンセータ系2503,リレーレンズ系2504で構成さ
れている。各レンズ系はさらに複数枚のレンズで構成さ
れる場合があるが、図では省略する。これらのうちリレ
ーレンズ系2504は、ズーム動作に伴う機械的な動きは行
なわず、コンペンセータ系2503から送られてきた像を、
撮像素子2506の受光面上に結像する役割を持つ。従っ
て、前記リレーレンズ系2504をリレーレンズ駆動器2505
で光軸方向に駆動することによって、レンズの焦点距離
等とは無関係に合焦点面の異なる画像を入力することが
できる。前記リレーレンズ駆動器2505(前述した各実施
例における合焦点位置制御器に相当)は、電磁モータ,
超音波モータ,ピエゾ素子等を用いたアクチュエータで
構成される。
FIG. 48 is a diagram showing a configuration example for a zoom lens. Lens system is focusing system 2501, variator system 250
It consists of a compensator system 2503 and a relay lens system 2504. Each lens system may be further composed of a plurality of lenses, but is omitted in the drawings. Of these, the relay lens system 2504 does not perform the mechanical movement associated with the zoom operation, and the image sent from the compensator system 2503 is
It has a role of forming an image on the light receiving surface of the image sensor 2506. Therefore, the relay lens system 2504 is connected to the relay lens driver 2505.
By driving in the optical axis direction, an image having a different focal plane can be input regardless of the focal length of the lens. The relay lens driver 2505 (corresponding to the focal point position controller in each of the above-described embodiments) includes an electromagnetic motor,
It is composed of an actuator using an ultrasonic motor, a piezo element or the like.

なお本発明は上述した各実施例に限定されるものでは
なく、本発明の要旨を逸脱しない範囲で種々変形実施可
能であるのは勿論である。
It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the spirit of the present invention.

[発明の効果] 本発明によれば、解像度や明るさを失うことなく、焦
点深度の深い画像を再生することができ、しかも処理は
簡単であり、特に画像に対して局所的な処理を必要とし
ないため、装置化が容易であるなどの実益があり、更に
対象物の表面がどのような性質であっても影響を受けな
いことから適用範囲が広く、加えて合焦点部分の範囲の
設定を種々選択することにより、対象物の深さ構造に対
応した最適な焦点深度およびS/Nを有する画像を得るこ
とができる、等の利点をもつ画像入出力装置を提供する
ことができる、等の利点をもった画像入出力装置を提供
できる。
[Effects of the Invention] According to the present invention, an image with a large depth of focus can be reproduced without losing resolution or brightness, and the processing is simple. Therefore, there is a practical benefit such as easy implementation of the device, and furthermore, since the surface of the object is not affected by any property, the applicable range is wide, and in addition, the range of the focused portion is set. By variously selecting, it is possible to provide an image input / output device having advantages such as obtaining an image having an optimum depth of focus and S / N corresponding to the depth structure of the object, etc. An image input / output device having the advantage described above can be provided.

【図面の簡単な説明】[Brief description of the drawings]

第1図〜第48図は本発明の実施例を示す図で、第1図は
第1実施例の構成を示す図、第2図は第2実施例の構成
を示す図、第3図は第3実施例の構成を示す図、第4図
は第4実施例の構成を示す図、第5図は第5の実施例の
構成を示す図、第6図は第5図に示したフレネルゾーン
プレートの正面図、第7図は第6実施例の構成を示す
図、第8図および第9図は第1実施例〜第6実施例にお
ける回復処理装置の異なる具体例をそれぞれ示すブロッ
ク図、第10図は上記回復処理装置における回復フィルタ
の設計方法に関する幾何学的関係図、第11図(a)〜
(d)は同じく回復フィルタの設計方法に関する操作手
順を示す図、第12図は第7実施例の構成を示す図、第13
図は第8実施例の構成を示す図、第14図は第13図に示す
回復色フィルタの構造を示す平面図、第15図は第9実施
例の構成を示す図、第16図は第10実施例の構成を示す
図、第17図は第11実施例の構成を示す図、第18図は第17
図に示すフィルム記録画像の光学的回復処理を示す図、
第19図はファイバスコープ画像における網目構造を示す
図、第20図は上記光学的回復処理時に現われるファイバ
ースコープ画像のフーリエスペクトル像を示す図、第21
図は上記光学的回復処理に用いるフィルタを示す正面
図、第22図は第12実施例の構成を示す図である。 第23図は第13実施例の構成を示す図、第24図は同第13実
施例の作用を説明するための図で、振幅対特定空間周波
数のパワー特性を示す図、第25図は第14実施例の構成を
示す図、第26図は第14実施例の回転式光シャッターの正
面図、第27図は第14実施例の対数フィルター特性図、第
28図は第15実施例の構成を示す図、第29図は第16実施例
の構成を示す図、第30図は第17実施例の構成を示す図、
第31図は第16実施例および第17実施例におけるカラー画
像の処理表示方法を説明するための概略図、第32図は第
17実施例の部分変形例を示す図でカラー画像用プロセッ
サの構成を示す図、第33図は第18実施例における光学的
ハイパスフィルタリングの部分構成図、第34図(a)お
よび第34図(b)は同第18実施例の画像選択法を説明す
るための図、第35図(a)および第35図(b)は第19実
施例の構成を示す図、第36図(a)および第36図(b)
は同第19実施例のステレオマッチング手段を示す図でそ
れぞれ左画像面および右画像面を示す図、第37図は同第
19実施例のマッチング回路の構成を示す図、第38図は同
第19実施例のマッチング回路およびメモリ構成の変形例
を示す図、第39図は同第19実施例の回復処理手段を説明
する為の図、第40図(a)および第40図(b)は第20実
施例の構成を示す図、第41図および第42図は同第20実施
例の作用説明図、第43図は第21実施例の構成を示す図、
第44図は同第21実施例の作用説明図、第45図は第22実施
例の構成を示す図、第46図および第47図は同第22実施例
の作用説明図、第48図は第1実施例等の合焦点位置制御
における光学系の構成例を示す図である。 1……レンズ、2……撮像素子、3……A/D変換器、4
……加算器、5……メモリ、6……合焦点位置制御器、
7……回復処理装置、8……D/A変換器、9……ディス
プレイ、10……コントローラ。
1 to 48 are diagrams showing an embodiment of the present invention. FIG. 1 is a diagram showing the configuration of the first embodiment, FIG. 2 is a diagram showing the configuration of the second embodiment, and FIG. FIG. 4 shows the configuration of the fourth embodiment, FIG. 4 shows the configuration of the fourth embodiment, FIG. 6 shows the configuration of the fifth embodiment, and FIG. 6 shows the Fresnel shown in FIG. FIG. 7 is a front view of the zone plate, FIG. 7 is a diagram showing the configuration of the sixth embodiment, and FIGS. 8 and 9 are block diagrams showing different specific examples of the recovery processing apparatus in the first to sixth embodiments. , FIG. 10 is a geometrical relation diagram relating to a method of designing a recovery filter in the recovery processing apparatus, and FIGS.
FIG. 12 (d) is a view showing an operation procedure relating to a method of designing a recovery filter, FIG. 12 is a view showing the configuration of the seventh embodiment, and FIG.
FIG. 14 is a diagram showing the structure of the eighth embodiment, FIG. 14 is a plan view showing the structure of the recovery color filter shown in FIG. 13, FIG. 15 is a diagram showing the structure of the ninth embodiment, and FIG. FIG. 17 shows the configuration of the tenth embodiment, FIG. 17 shows the configuration of the eleventh embodiment, and FIG.
A diagram showing the optical recovery processing of the film recorded image shown in the figure,
FIG. 19 is a diagram showing a network structure in a fiberscope image, FIG. 20 is a diagram showing a Fourier spectrum image of a fiberscope image appearing at the time of the optical recovery processing, and FIG.
The figure is a front view showing a filter used for the optical recovery processing, and FIG. 22 is a view showing the configuration of the twelfth embodiment. FIG. 23 is a diagram showing the configuration of the thirteenth embodiment, FIG. 24 is a diagram for explaining the operation of the thirteenth embodiment, and shows a power characteristic of amplitude versus a specific spatial frequency, and FIG. FIG. 26 is a diagram showing the configuration of the 14th embodiment, FIG. 26 is a front view of the rotary optical shutter of the 14th embodiment, FIG. 27 is a logarithmic filter characteristic diagram of the 14th embodiment,
28 is a diagram showing the configuration of the fifteenth embodiment, FIG. 29 is a diagram showing the configuration of the sixteenth embodiment, FIG. 30 is a diagram showing the configuration of the seventeenth embodiment,
FIG. 31 is a schematic diagram for explaining a method for processing and displaying a color image in the 16th embodiment and the 17th embodiment, and FIG.
FIG. 33 is a diagram showing a configuration of a color image processor in a diagram showing a partial modification of the 17th embodiment, FIG. 33 is a diagram showing a partial configuration of optical high-pass filtering in the 18th embodiment, FIG. 34 (a) and FIG. b) is a diagram for explaining the image selection method of the eighteenth embodiment, FIG. 35 (a) and FIG. 35 (b) are diagrams showing the configuration of the nineteenth embodiment, FIG. 36 (a) Fig. 36 (b)
Is a diagram showing the stereo matching means of the nineteenth embodiment, showing a left image plane and a right image plane, respectively.
FIG. 38 shows a configuration of the matching circuit of the nineteenth embodiment, FIG. 38 shows a modification of the configuration of the matching circuit and the memory of the nineteenth embodiment, and FIG. 39 explains the recovery processing means of the nineteenth embodiment. FIGS. 40 (a) and 40 (b) are views showing the structure of the twentieth embodiment, FIGS. 41 and 42 are operation explanatory diagrams of the twentieth embodiment, and FIGS. Diagram showing the configuration of the twenty-first embodiment,
44 is an explanatory view of the operation of the 21st embodiment, FIG. 45 is a view showing the configuration of the 22nd embodiment, FIGS. 46 and 47 are explanatory views of the operation of the 22nd embodiment, and FIG. FIG. 4 is a diagram illustrating a configuration example of an optical system in focus position control such as the first embodiment. 1 ... lens, 2 ... imaging device, 3 ... A / D converter, 4
... adder, 5 ... memory, 6 ... focal point position controller,
7 recovery processing device, 8 D / A converter, 9 display, 10 controller.

フロントページの続き 合議体 審判長 田口 英雄 審判官 小林 秀美 審判官 小池 正彦 (56)参考文献 特開 昭59−34769(JP,A) 特開 昭63−8621(JP,A) 特開 昭63−298211(JP,A)Continuation of the front page Judge Hideo Taguchi Judge Hidemi Kobayashi Judge Masahiko Koike Judges (56) References JP-A-59-34769 (JP, A) JP-A-63-8621 (JP, A) JP-A Sho 63- 298211 (JP, A)

Claims (12)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】画像情報を入出力する装置において、 複数の異なる物体面に焦点を合わせる合焦手段と、 この合焦手段により異なる物体面に焦点の合った複数の
画像を入力する画像入力手段と、 この画像入力手段により入力される複数の画像の合焦点
面位置の範囲を選択する範囲選択手段と、 この範囲選択手段により選択された上記複数の画像を加
え合わせる画像加算手段と、 この画像加算手段により加え合わせた画像に対して空間
周波数フィルタリングによる回復処理を施す画像処理手
段とを有することを特徴とする画像入出力装置。
1. An apparatus for inputting and outputting image information, comprising: focusing means for focusing on a plurality of different object surfaces; and image input means for inputting a plurality of images focused on different object surfaces by the focusing means. Range selection means for selecting a range of the focal plane position of a plurality of images input by the image input means; image addition means for adding the plurality of images selected by the range selection means; An image input / output device, comprising: image processing means for performing a restoration process by spatial frequency filtering on an image added by an addition means.
【請求項2】画像情報を入出力する装置において、 複数の異なる物体面に焦点を合わせる合焦手段と、 この合焦手段により異なる物体面に焦点の合った複数の
画像を、入力すると同時に加え合わせる画像加算入力手
段と、 この画像加算入力手段により加え合わせた画像に対して
空間周波数フィルタリングによる回復処理を施す画像処
理手段と、 からなることを特徴とする画像入出力装置。
2. An apparatus for inputting and outputting image information, comprising: a focusing unit for focusing on a plurality of different object planes; and a plurality of images focused on different object planes by the focusing unit. An image input / output apparatus, comprising: an image addition input unit to be combined; and an image processing unit that performs a restoration process by spatial frequency filtering on an image added by the image addition input unit.
【請求項3】上記画像入力手段は、バンドパスフィルタ
リングを行なうフィルタ手段を有し、上記範囲選択手段
は、上記フィルタ手段にて得られた出力に基づいて、焦
点の合った物体面の位置を変化させる範囲の選択を行な
うことを特徴とする請求項1に記載の画像入出力装置。
3. The image input means has a filter means for performing band-pass filtering, and the range selecting means determines a position of a focused object plane based on an output obtained by the filter means. 2. The image input / output device according to claim 1, wherein a range to be changed is selected.
【請求項4】上記範囲選択手段は、選択された範囲内
で、複数の物体面の間隔を不等間隔に設定する物体面間
隔設定手段を有することを特徴とする請求項1に記載の
画像入出力装置。
4. An image according to claim 1, wherein said range selecting means has an object plane interval setting means for setting an interval between a plurality of object planes to be unequal within a selected range. I / O device.
【請求項5】上記画像入力手段は、複数の異なる物体面
に焦点の合った複数の画像を同時に入力するように、複
数の異なる像面にそれぞれ配置された複数の画像撮像手
段を備えたことを特徴とする請求項1に記載の画像入出
力装置。
5. The image input means comprises a plurality of image pickup means arranged respectively on a plurality of different image planes so as to simultaneously input a plurality of images focused on a plurality of different object planes. The image input / output device according to claim 1, wherein:
【請求項6】上記画像加算入力手段は、光像を電気的に
変換する撮像素子と、この撮像素子の出力を原色または
補色ごとに分離する色分離手段と、この色分離手段の出
力を原色または補色ごとに対数圧縮する第1の対数圧縮
回路とを有し、上記画像処理手段は、前記第1の対数圧
縮回路からの信号を逆対数変換する逆対数変換回路と、
この逆対数変換回路の出力について線形マトリクス変換
を行なうマトリクス変換回路と、このマトリクス変換回
路の出力信号を対数圧縮する第2の対数圧縮回路と、こ
の第2の対数圧縮回路の出力信号と前記第1の対数圧縮
回路の出力信号とを用いてカラー信号を合成するカラー
信号合成手段と、を有することを特徴とする請求項2に
記載の画像入出力装置。
6. The image addition input means includes: an image pickup element for electrically converting a light image; a color separation means for separating an output of the image pickup element into primary colors or complementary colors; and an output of the color separation means for primary colors. Or a first logarithmic compression circuit for performing logarithmic compression for each complementary color, wherein the image processing means performs an antilogarithmic conversion circuit for performing an inverse logarithmic conversion on a signal from the first logarithmic compression circuit;
A matrix conversion circuit that performs a linear matrix conversion on the output of the antilogarithmic conversion circuit, a second logarithmic compression circuit that logarithmically compresses the output signal of the matrix conversion circuit, an output signal of the second logarithmic compression circuit, 3. The image input / output apparatus according to claim 2, further comprising: a color signal synthesizing unit that synthesizes a color signal using the output signal of the logarithmic compression circuit.
【請求項7】上記画像加算手段は、加重加算を行なうこ
とを特徴とする請求項1に記載の画像入出力装置。
7. The image input / output apparatus according to claim 1, wherein said image adding means performs weighted addition.
【請求項8】上記画像加算手段は、光学結像系の特性と
上記画像入力手段により複数の画像を入力する際の合焦
条件に基づいて、上記複数の入力画像の全てについて加
重係数を算出する加重係数導出手段を備え、上記複数の
入力画像の全てについて上記加重係数を掛けて画像を加
算することを特徴とする請求項7に記載の画像入出力装
置。
8. The image addition means calculates a weighting coefficient for all of the plurality of input images based on characteristics of an optical imaging system and focusing conditions when a plurality of images are input by the image input means. The image input / output apparatus according to claim 7, further comprising: a weighting factor deriving unit configured to multiply all of the plurality of input images by the weighting factor and to add the images.
【請求項9】上記画像処理手段は、上記画像入力手段に
おける空間周波数特性を考慮した画像の空間周波数フィ
ルタの係数を、予め記録しておく係数記憶手段を有する
ことを特徴とする請求項1又は2に記載の画像入出力装
置。
9. The image processing device according to claim 1, wherein said image processing means has coefficient storage means for preliminarily storing coefficients of a spatial frequency filter of an image in consideration of spatial frequency characteristics in said image input means. 3. The image input / output device according to 2.
【請求項10】上記画像入力手段は、異なる各波長領域
ごとに複数の画像を入力するものであり、上記画像加算
手段は、上記画像入力手段により入力された焦点の異な
る複数の画像を、異なる波長領域ごとにそれぞれ加算す
るものであり、上記画像処理手段は、上記画像加算手段
により加算された画像から輝度信号を抽出する輝度信号
抽出手段と、この抽出された輝度信号に回復処理を施す
輝度信号回復手段と、この輝度信号回復手段により回復
処理を施された輝度信号および上記波長領域ごとに加算
された各画像に基づいて一つの画像を合成する画像合成
手段とを有することを特徴とする請求項1に記載の画像
入出力装置。
10. The image input means for inputting a plurality of images for each of different wavelength regions, and the image adding means converts the plurality of images having different focuses input by the image input means into different images. The image processing means includes a luminance signal extracting means for extracting a luminance signal from the image added by the image adding means, and a luminance signal for performing a restoration process on the extracted luminance signal. Signal recovery means, and image synthesis means for synthesizing one image based on the luminance signal subjected to the recovery processing by the luminance signal recovery means and each image added for each wavelength region. The image input / output device according to claim 1.
【請求項11】上記画像入力手段は、焦点の合った物体
面の位置を変える手段と、光の波長領域を変える手段と
を有し、上記合焦手段により焦点の合った物体面の位置
と光の波長領域とが共に異なる複数の画像を入力するも
のであり、この画像入力手段により入力した前記画像を
加え合わせる手段と、上記画像処理手段は、上記画像加
算手段により加算された複数の画像により各画像を除算
を行なったところの各画像と前記回復処理を施された画
像とを乗算して一つの画像を合成する画像合成手段と、
を有することを特徴とする請求項1に記載の画像入出力
装置。
11. The image input means has means for changing the position of the focused object plane and means for changing the wavelength range of the light, wherein the position of the focused object plane is determined by the focusing means. Means for inputting a plurality of images having different wavelength regions of light, and means for adding the images input by the image input means, and the image processing means comprises a plurality of images added by the image adding means. Image synthesizing means for multiplying each image obtained by dividing each image by the image subjected to the restoration processing to synthesize one image,
The image input / output device according to claim 1, comprising:
【請求項12】上記合焦手段は、合焦点位置に応じて、
焦点の合った物体面の位置の移動速度を変化させる手段
を有することを特徴とする請求項2に記載の画像入出力
装置。
12. The focusing means according to claim 1, further comprising:
3. The image input / output apparatus according to claim 2, further comprising means for changing a moving speed of a focused object plane position.
JP04402189A 1988-02-23 1989-02-23 Image input / output device Expired - Lifetime JP3191928B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04402189A JP3191928B2 (en) 1988-02-23 1989-02-23 Image input / output device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP3993688 1988-02-23
JP63-39936 1988-02-23
JP04402189A JP3191928B2 (en) 1988-02-23 1989-02-23 Image input / output device

Publications (2)

Publication Number Publication Date
JPH01309478A JPH01309478A (en) 1989-12-13
JP3191928B2 true JP3191928B2 (en) 2001-07-23

Family

ID=26379337

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04402189A Expired - Lifetime JP3191928B2 (en) 1988-02-23 1989-02-23 Image input / output device

Country Status (1)

Country Link
JP (1) JP3191928B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7663079B2 (en) 2008-01-10 2010-02-16 Olympus Corporation Microscope apparatus and focal-depth enlarged image generation method used therefor
US7756357B2 (en) 2003-07-01 2010-07-13 Olympus Corporation Microscope system for obtaining high and low magnification images
WO2011030614A1 (en) 2009-09-11 2011-03-17 浜松ホトニクス株式会社 Image-acquisition device
WO2011070755A1 (en) 2009-12-07 2011-06-16 パナソニック株式会社 Imaging device and control method for same
WO2011070757A1 (en) 2009-12-07 2011-06-16 パナソニック株式会社 Imaging device and imaging method
WO2012117733A1 (en) 2011-03-02 2012-09-07 パナソニック株式会社 Imaging device, semiconductor integrated circuit, and imaging method
WO2012124321A1 (en) 2011-03-14 2012-09-20 パナソニック株式会社 Imaging device, imaging method, integrated circuit, and computer program
WO2012140899A1 (en) 2011-04-15 2012-10-18 パナソニック株式会社 Image pickup apparatus, semiconductor integrated circuit and image pickup method
US8767092B2 (en) 2011-01-31 2014-07-01 Panasonic Corporation Image restoration device, imaging apparatus, and image restoration method
US8890996B2 (en) 2012-05-17 2014-11-18 Panasonic Corporation Imaging device, semiconductor integrated circuit and imaging method
US9185393B2 (en) 2011-10-12 2015-11-10 Panasonic Intellectual Property Management Co., Ltd. Image capturing device, semiconductor integrated circuit, and image capturing method
WO2019244246A1 (en) * 2018-06-19 2019-12-26 オリンパス株式会社 Imaging device, endoscope device, and operation method of imaging device

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3931934C2 (en) * 1988-10-03 1994-11-10 Olympus Optical Co Image input / output device
JP3429755B2 (en) * 1990-04-27 2003-07-22 株式会社日立製作所 Depth of field control device for imaging device
JP4011704B2 (en) 1997-01-10 2007-11-21 オリンパス株式会社 Image input device
US7283253B2 (en) * 2002-03-13 2007-10-16 Applied Precision, Llc Multi-axis integration system and method
US7456377B2 (en) * 2004-08-31 2008-11-25 Carl Zeiss Microimaging Ais, Inc. System and method for creating magnified images of a microscope slide
JP5508214B2 (en) * 2005-08-25 2014-05-28 クラリエント・インコーポレーテッド System and method for creating magnified image of microscope slide
JP5293468B2 (en) * 2009-07-10 2013-09-18 ソニー株式会社 Fluorescence image acquisition apparatus, fluorescence image acquisition method, and fluorescence image acquisition program
JP5870264B2 (en) 2010-11-08 2016-02-24 パナソニックIpマネジメント株式会社 Imaging apparatus, imaging method, program, and integrated circuit
FR2967791B1 (en) * 2010-11-22 2012-11-16 Ecole Polytech METHOD AND SYSTEM FOR CALIBRATION OF A SPATIAL OPTICAL MODULATOR IN AN OPTICAL MICROSCOPE
JP5891440B2 (en) 2011-05-16 2016-03-23 パナソニックIpマネジメント株式会社 Lens unit and imaging device
JP6136085B2 (en) * 2011-10-05 2017-05-31 ソニー株式会社 Image acquisition apparatus, image acquisition method, and computer program
JP5942390B2 (en) * 2011-11-15 2016-06-29 ソニー株式会社 Image acquisition apparatus, image acquisition method, and image acquisition program
JP6006014B2 (en) * 2012-06-21 2016-10-12 オリンパス株式会社 Microscope, microscope system, and image composition method
JP6377171B2 (en) * 2014-10-30 2018-08-22 オリンパス株式会社 Image processing apparatus, endoscope apparatus, and image processing method
JP6563486B2 (en) * 2015-04-16 2019-08-21 オリンパス株式会社 Microscope observation system, microscope observation method, and microscope observation program
JP2017058704A (en) * 2017-01-04 2017-03-23 ソニー株式会社 Image acquisition device, image acquisition method, and computer program
JP2019114902A (en) 2017-12-22 2019-07-11 ルネサスエレクトロニクス株式会社 Semiconductor device, imaging system, and program
JP2018116309A (en) * 2018-04-12 2018-07-26 ソニー株式会社 Image acquisition device, image acquisition method, and microscope

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7756357B2 (en) 2003-07-01 2010-07-13 Olympus Corporation Microscope system for obtaining high and low magnification images
US7663079B2 (en) 2008-01-10 2010-02-16 Olympus Corporation Microscope apparatus and focal-depth enlarged image generation method used therefor
WO2011030614A1 (en) 2009-09-11 2011-03-17 浜松ホトニクス株式会社 Image-acquisition device
JP2011059515A (en) * 2009-09-11 2011-03-24 Hamamatsu Photonics Kk Image acquisition device
US9229212B2 (en) 2009-09-11 2016-01-05 Hamamatsu Photonics K.K. Image-acquisition device
US8412036B2 (en) 2009-12-07 2013-04-02 Panasonic Corporation Imaging apparatus and method of controlling the apparatus
WO2011070757A1 (en) 2009-12-07 2011-06-16 パナソニック株式会社 Imaging device and imaging method
US8576326B2 (en) 2009-12-07 2013-11-05 Panasonic Corporation Imaging apparatus and method of controlling the image depth of field
WO2011070755A1 (en) 2009-12-07 2011-06-16 パナソニック株式会社 Imaging device and control method for same
US8767092B2 (en) 2011-01-31 2014-07-01 Panasonic Corporation Image restoration device, imaging apparatus, and image restoration method
WO2012117733A1 (en) 2011-03-02 2012-09-07 パナソニック株式会社 Imaging device, semiconductor integrated circuit, and imaging method
US9083880B2 (en) 2011-03-02 2015-07-14 Panasonic Corporation Imaging device, semiconductor integrated circuit, and imaging method
WO2012124321A1 (en) 2011-03-14 2012-09-20 パナソニック株式会社 Imaging device, imaging method, integrated circuit, and computer program
US9300855B2 (en) 2011-03-14 2016-03-29 Panasonic Corporation Imaging apparatus, imaging method, integrated circuit, and computer program
WO2012140899A1 (en) 2011-04-15 2012-10-18 パナソニック株式会社 Image pickup apparatus, semiconductor integrated circuit and image pickup method
US8890995B2 (en) 2011-04-15 2014-11-18 Panasonic Corporation Image pickup apparatus, semiconductor integrated circuit and image pickup method
US9185393B2 (en) 2011-10-12 2015-11-10 Panasonic Intellectual Property Management Co., Ltd. Image capturing device, semiconductor integrated circuit, and image capturing method
US8890996B2 (en) 2012-05-17 2014-11-18 Panasonic Corporation Imaging device, semiconductor integrated circuit and imaging method
WO2019244246A1 (en) * 2018-06-19 2019-12-26 オリンパス株式会社 Imaging device, endoscope device, and operation method of imaging device

Also Published As

Publication number Publication date
JPH01309478A (en) 1989-12-13

Similar Documents

Publication Publication Date Title
JP3191928B2 (en) Image input / output device
US5148502A (en) Optical image input/output apparatus for objects having a large focal depth
US5124842A (en) Image input/output apparatus
US8019136B2 (en) Optical sectioning microscopy
US11169367B2 (en) Three-dimensional microscopic imaging method and system
TW512286B (en) Real-time opto-electronic image processor
JPH10508107A (en) Apparatus and method for determining a three-dimensional shape of an object using relative blur in an image due to active illumination and defocus
JP5317891B2 (en) Image processing apparatus, image processing method, and computer program
EP1046075A1 (en) Anti-aliasing apparatus and methods for optical imaging
JP2003199708A (en) Electronic endoscope system
WO2011099239A1 (en) Imaging device and method, and image processing method for imaging device
CN107421640B (en) Expand the multispectral light-field imaging system and method for principle based on color difference
US8508589B2 (en) Imaging systems and associated methods thereof
JP7363765B2 (en) Image processing device, imaging device, and image processing method
JP2019016975A (en) Image processing system and image processing method, imaging apparatus, program
KR100932560B1 (en) 3D parallax image acquisition system
JPH0721365A (en) Method and device for processing picture
JP2883648B2 (en) Image input / output device
Skuka et al. Extending the depth of field of imaging systems using depth sensing camera
JP2013131862A (en) Image processing system and microscope system including the same
CN109414161A (en) Imaging device in extended depth-of-field mouth
JP2017050662A (en) Image processing system, imaging apparatus, and image processing program
JP3581889B2 (en) Stereoscopic recognition method and apparatus
JPH04346311A (en) Multi-focus camera
JP2001005046A (en) Multiband camera

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080525

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090525

Year of fee payment: 8

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090525

Year of fee payment: 8