JP2003235794A - Electronic endoscopic system - Google Patents

Electronic endoscopic system

Info

Publication number
JP2003235794A
JP2003235794A JP2002045354A JP2002045354A JP2003235794A JP 2003235794 A JP2003235794 A JP 2003235794A JP 2002045354 A JP2002045354 A JP 2002045354A JP 2002045354 A JP2002045354 A JP 2002045354A JP 2003235794 A JP2003235794 A JP 2003235794A
Authority
JP
Japan
Prior art keywords
optical
image
transfer function
object distance
phase modulation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002045354A
Other languages
Japanese (ja)
Other versions
JP3958603B2 (en
Inventor
Kazuhiro Kumei
一裕 粂井
Takeshi Suga
武志 菅
Hiroshi Ishii
広 石井
Tsutomu Hirai
力 平井
Jun Hiroya
純 広谷
Hisao Yabe
久雄 矢部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP2002045354A priority Critical patent/JP3958603B2/en
Publication of JP2003235794A publication Critical patent/JP2003235794A/en
Application granted granted Critical
Publication of JP3958603B2 publication Critical patent/JP3958603B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Lenses (AREA)
  • Endoscopes (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To make it possible not only to magnify the depth of field but also to form an image of high resolving power even if an endoscope having an optical phase modulation mask is connected to a signal processor loaded with no restoration processing means corresponding to the optical phase modulation mask arranged to an endoscopic optical system and to further magnify the depth of field while forming an image of higher resolving power when the endoscope having the optical phase modulation mask is connected to the signal processor loaded with the restoration processing means corresponding to the optical phase modulation mask. <P>SOLUTION: The image processing circuit 27 of a depth-of-field external processing circuit 12 is a circuit for applying filtering processing to an image signal and performs the response of an optical transmission function and image processing for restoring asymmetric aberration (blur) generated by a pupil modulation element. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】 【0001】 【発明の属する技術分野】本発明は、電子内視鏡システ
ムに関し、特に、仕様や用途の異なる複数種の内視鏡を
接続し、被写体の画像をモニタで観察するための電子内
視鏡システムに関する。 【0002】 【従来の技術】内視鏡は、周知の通り、直接目視できな
い生体内等を観察することができ、医療分野を中心に診
断、治療に広く使用されている。そして、近年、被写体
像をCCD等の固体撮像素子によって電気信号に変換
し、モニタにて観察可能とした電子内視鏡が普及してい
る。 【0003】このような内視鏡は、観察する部位に応じ
て種々の内視鏡が用いられる。内視鏡は、光源装置や信
号処理回路を含むカメラコントローラ(信号処理装置)
等に接続されて使用される。また、信号処理回路には、
画質向上や被写体の強調を目的とした画像処理回路が搭
載されており、コントラスト改善のために、例えば、次
に示すような、対称な2次元デジタルフィルタが用いら
れている。この次に示すマトリックスは、中心画素とそ
の周囲の画素の値に対する係数を決定するものである。 【0004】 −1 −5 −1 −5 25 −5 −1 −5 −1 一方、内視鏡光学系には、光学系の簡易さ、操作性の良
さから、固定焦点光学系が一般的に用いられ、その観察
部位に応じて必要な被写界深度が得られるように設計さ
れている。しかし、固定焦点光学系で被写界深度を広く
すると光学系のFナンバーを大きくする必要があり、明
るさが低下するといった問題が生じる。さらに、光の回
折限界の理由から被写界深度の拡大には限界がある。こ
れに対し、光学系の被写界深度を拡大する手法は、例え
ば、米国特許5,748,371号や「Edward
R.Dowski, Jr., W.Thomas C
athey, ”Extended depth of
fieldthrough wave−front
coding”, Appl.Opt.Vol.34,
1859−1866(1995)」等に開示されてい
る。図17は、従来例による拡大被写界深度光学系の構
成を概略的に示す図である。 【0005】この手法による装置は、図17に示される
ように、CCD等の撮像手段104と、物体101の像
を撮像手段104の受光面に結像させるレンズ系103
である光学系の瞳位置に配置されたキュービック位相変
調マスク102と、撮像手段104からの画像データに
基づいて画像を構築する画像処理装置105とを有して
いる。 【0006】キュービック位相変調マスク102は、一
方の面は平面で、他方の面は図18に示されるようにZ
=A(X3+Y3)で表される形状をなしている。図18
は、このキュービック位相変調マスクの外観形状を説明
するための図である。Aは、任意の係数である。すなわ
ち、一方の面は、XY平面上の平面であり、他方の面
は、XY平面に直交するZ軸方向に上記の式を満たす三
次元曲面である。図18は、X及びYが−1から+1の
範囲における三次元曲面の状態を説明するための図であ
る。従って、三次元曲面形状は、係数Aに応じて変化す
る。 【0007】キュービック位相変調マスク102は、こ
れを通過する光の位相にP(X,Y)=exp(jα
(X3+Y3))のずれを与える。ここで、係数αは、2
0よりも十分に大きな値が好ましく、これにより光学的
伝達関数(以下、OTFともいう。)のレスポンスは
0.2以下となり、回転非対称な収差(ボケ)による点
像の大きさは、撮像手段104の画素に比べ十分に大き
くなる。 【0008】このようなキュービック位相変調マスク1
02を持たない通常の光学系の場合、物体101が合焦
位置からずれるに従って光学的伝達関数のレスポンスの
様子は、図19から図20へ変化し、物体101がさら
にずれると図20から図21へと変化する。 【0009】図19は通常の光学系において物体が焦点
位置にあるときの光学的伝達関数(OTF)のレスポン
スを示すグラフである。図20は通常の光学系において
物体が焦点位置から外れたときの光学的伝達関数(OT
F)のレスポンスを示すグラフである。図21は通常の
光学系において物体が焦点位置から図20のときよりも
更に外れたときの光学的伝達関数(OTF)のレスポン
スを示すグラフである。 【0010】これに対してキュービック位相変調マスク
102を持つ拡大被写界深度光学系の場合、同じずれに
対するOTFのレスポンスはそれぞれ図22〜図24に
示されるようになり、合焦位置においてもOTFのレス
ポンスに低下が見られるが、合焦位置からのずれに対す
る変化は少ない。 【0011】図22は拡大被写界深度光学系において物
体が焦点位置にあるときの光学的伝達関数(OTF)の
レスポンスを示すグラフである。図23は拡大被写界深
度光学系において物体が焦点位置から外れたときの光学
的伝達関数(OTF)の強度分布を示すグラフである。
図24は拡大被写界深度光学系において物体が焦点位置
から図23のときよりも更に外れたときの光学的伝達関
数(OTF)のレスポンスを示すグラフである。 【0012】この光学系によって結像された画像は、画
像処理装置105によって、図25に示されるキュービ
ック位相変調マスク102のOTF特性の逆フィルタに
よる処理が行われることによって、図22〜図24に示
されるOTFに対してそれぞれ図26〜図28に示され
るOTFのレスポンスが得られる。 【0013】図25は拡大被写界深度光学系において光
学的伝達関数(OTF)のレスポンスに対して行なわれ
る処理の逆フィルタの特性を示すグラフである。図26
は図22の光学的伝達関数(OTF)のレスポンスに対
して図25の特性を持つ逆フィルタによる処理を行なっ
て得られる光学的伝達関数(OTF)のレスポンスを示
すグラフである。図27は図23の光学的伝達関数(O
TF)のレスポンスに対して図25の特性を持つ逆フィ
ルタによる処理を行なって得られる光学的伝達関数(O
TF)のレスポンスを示すグラフである。図28は図2
4の光学的伝達関数(OTF)のレスポンスに対して図
25の特性を持つ逆フィルタによる処理を行なって得ら
れる光学的伝達関数(OTF)のレスポンスを示すグラ
フである。 【0014】図25〜図28に示されるOTFのレスポ
ンスは、いずれも、通常の光学系の合焦時のOTFのレ
スポンスに近い形を有している。その逆フィルタとし
て、例えば次に示すような非対称な2次元デジタルフィ
ルタが用いられる。次に示すマトリックスは、中心画素
とその周囲の画素の値に対する係数を決定するものであ
る。 【0015】 次に、実際の画像で説明する。通常の光学系では、物体
の焦点位置からずれるにつれて、焦点ずれによるボケが
生じてくる。 【0016】これに対して、拡大被写界深度光学系を用
いた場合、焦点位置をずらしたときの画像処理前の画像
はボケてはいるが、焦点位置をずらしたそれぞれの画像
においてボケ方が変化しない。そして、これらの画像に
対し、前述の逆フィルタ(図25)による画像処理を行
うと、通常の光学系の焦点ずれがしていない画像と同等
の画像が得られ、被写界深度が拡大できる。 【0017】さらに、これを内視鏡に応用したものが、
特開2000−5127号公報の明細書に開示されてい
る。開示された内視鏡システムは、図29に示すよう
に、複数種の内視鏡を接続し、被写体の画像をモニタ1
16で観察するための内視鏡システムである。 【0018】この内視鏡システムは、図29に示すよう
に、固体撮像素子114と、その固体撮像素子114の
受光面上に被写体の像を結像する対物光学系112とを
有する内視鏡111と、内視鏡111で得られた画像信
号を処理して映像信号を出力するカメラコントローラ
(信号処理装置)117と、観察用の照明光を発生する
光源装置118と、カメラコントローラ117からの映
像信号を表示するモニタ116とを備えている。 【0019】複数種の内視鏡の内、少なくとも1つの内
視鏡111は、光学系112の中にキュービック位相変
調マスク等のような光位相変調マスク113を有する。
さらに、内視鏡111は、撮像装置114の出力側に内
視鏡の光位相変調マスク113に対応した光学的伝達関
数復元手段115を備えている。 【0020】また、カメラコントローラ117は、図3
0に示すように、接続された内視鏡111からの画像信
号をデジタル信号に変換するA/D変換部121と、前
記デジタル信号を映像信号に変換する信号変換部122
と、信号変換部122からの映像信号を信号処理する画
像処理回路123と、前記画像処理回路123で信号処
理された映像信号をモニタ4で表示可能なアナログ信号
に変換するD/A変換部124とで構成されている。 【0021】光学的伝達関数復元手段115は、光学系
112内の光位相変調マスク113の逆フィルタに相当
する復元手段を含んでいる必要がある。光学的伝達関数
復元手段115は、図29に示されるように内視鏡11
1内部に設けられても良いし、内視鏡111が接続され
かつモニタ116に映像を表示するカメラコントローラ
(信号処理装置)117内に設けられても良い。これに
よれば、光位相変調マスク113の種類や有無に関わら
ず、様々な内視鏡を接続しても、被写界深度の拡大や、
高解像の画像を生成することができる。 【0022】 【発明が解決しようとする課題】米国特許5,748,
371号や、特開2000−5127等に示されるよう
に、光字系に光位相変調マスク113を用いて、被写界
深度を拡大する技術を内視鏡に適用する場合、光位相変
調マスク113による光学的伝達関数の悪化を復元し、
高解像の画像を得るための光学的伝達関数復元手段11
5が必要になるため、光位相変調マスク113に一対一
に応じた復元手段が、カメラコントローラ(信号処理装
置)117内の画像処理回路、もしくは内視鏡111内
部に搭載されている必要がある。 【0023】しかしながら、現状の一般的な内視鏡シス
テムにおけるカメラコントローラ内の画像処理回路にお
いては、撮像光学系を介して得られた画像の光学的伝達
関数のレスポンスに対し、特定の周波数帯域を強調する
ことによって画像の見えを調整する画像処理回路は搭載
されているものの、例えば被写界深度拡大を目的とし
た、内視鏡光学系内に搭載した光位相変調マスクに応じ
た復元手段は有していないため、前記内視鏡光学系内に
光位相変調マスクを有する内視鏡を接続すると、解像し
た画像を得ることができず、互換性を確保できない。 【0024】また、互換性を確保するために、内視鏡内
部に光学的伝達関数復元手段を設ける場合、画像信号を
デジタル信号に変換するA/D変換部と、デジタル信号
化された画像信号を映像信号に変換する信号変換部と、
光学的伝達関数復元のための画像処理部と、再び映像信
号から画像信号に信号変換するための信号変換部、D/
A変換部が内視鏡内部に必要となるが、前記回路は複雑
であり回路規模も大きくなるため、内視鏡本体の肥大化
を招き、操作性が悪くなるという欠点が生じる。 【0025】本発明は、上記事情に鑑みてなされたもの
であり、内視鏡光学系に配置した光位相変調マスクに応
じた復元処理手段が搭載されていない信号処理装置に、
光位相変調マスクを有した内視鏡を接続しても、被写界
深度の拡大、ならびに高解像の画像を生成でき、かつ、
光位相変調マスクに応じた復元処理手段か搭載されてい
る信号処理装置に、前記光位相変調マスクを有じた内視
鏡を接続した場合は被写界深度の更なる拡大、ならびに
更なる高解像の画像を生成できる内視鏡システムを提供
することを目的としている。 【0026】 【課題を解決するための手段】本発明の電子内視鏡シス
テムは、対物光学系の光学像を固体撮像素子にて撮像す
る複数種の内視鏡と、前記固体撮像素子からの信号をモ
ニタに表示可能な映像信号に変換する複数の信号処理装
置とを、組み合わせて接続使用される電子内視鏡システ
ムにおいて、少なくとも1つの前記内視鏡の対物光学系
は、光位相変調マスクを有し、前記光位相変調マスク
は、物体距離に応じた光学的伝達関数の変化が、前記光
位相変調マスクを持たない対物光学系よりも小さくなる
ように作用するよう配置され、前記信号処理装置は、前
記光位相変調マスクにより変更された光学的伝達関数に
対し、物体距離に応じた複数の光学的伝達関数復元処理
を施す復元処理手段を有して構成される。 【0027】 【発明の実施の形態】以下、図面を参照しながら本発明
の実施の形態について述べる。 【0028】第1の実施の形態:図1ないし図15は本
発明の第1の実施の形態に係わり、図1は内視鏡システ
ムの概略の構成を示す構成図、図2は図1の光位相変調
マスクを含む撮像ユニットの構成を説明するための図、
図3は図2の明るさ絞りを配置した瞳変調素子の構造を
説明するための概略説明図、図4は図1のカメラコント
ローラ(信号処理装置)の構成を示すブロック図、図5
は図2の瞳変調素子を含む撮像ユニットの物体距離71
mmのときに得られる点像のシミュレーション結果を説
明するための図、図6は図2の瞳変調素子を含む撮像ユ
ニットの物体距離13.5mmのときに得られる点像の
シミュレーション結果を説明するための図、図7は図2
の瞳変調素子を含む撮像ユニットの物体距離7.2mm
のときに得られる点像のシミュレーション結果を説明す
るための図、図8は図2の瞳変調素子を含む撮像ユニッ
トの物体距離4mmのときに得られる点像のシミュレー
ション結果を説明するための図、図9は図2の瞳変調素
子を含む撮像ユニットの物体距離3mmのときに得られ
る点像のシミュレーション結果を説明するための図、図
10は図2の瞳変調素子を含む撮像ユニットの各物体距
離の光学的伝達関数のレスポンスのシミュレーション結
果を説明するための図、図11は通常の光学系における
図2の撮像ユニットの物体距離71mmのときに得られ
る点像のシミュレーション結果を説明するための図、図
12は通常の光学系における図2の撮像ユニットの物体
距離13.5mmのときに得られる点像のシミュレーシ
ョン結果を説明するための図、図13は通常の光学系に
おける図2の撮像ユニットの物体距離7.2mmのとき
に得られる点像のシミュレーション結果を説明するため
の図、図14は通常の光学系における図2の撮像ユニッ
トの物体距離4mmのときに得られる点像のシミュレー
ション結果を説明するための図、図15は通常の光学系
における図2の撮像ユニットの各物体距離についての光
学的伝達関数のレスポンスのシミュレーション結果を説
明するための図である。 【0029】(構成)図1に示すように、固体撮像素子
5と、その固体撮像素子5上の被写体の像を結像する対
物光学系6とを有する内視鏡1と、内視鏡1で得られた
画像信号を処理して映像信号を出力するカメラコントロ
ーラ(信号処理装置)2と、観察用の照明光を発生する
光源装置3と、カメラコントローラ2からの映像信号を
表示するモニタ4とを備えている。そして、本実施の形
態の内視鏡システムでは、複数の種類の内視鏡1を接続
することができるようになっており、複数の種類の内視
鏡1のうち、少なくとも1つの内視鏡1は、その対物光
学系6内に、回転非対称な表面形状を有する光学素子で
ある光位相変調マスク7が設けられている。 【0030】図2に示すように、内視鏡1の撮像ユニッ
ト20は、固体撮像素子5と固体撮像素子5に被写体像
を結像する対物光学系6により構成される。 【0031】図3(a)は、光が入射する方向から見た
ときの瞳変調素子7aと明るさ絞り8の外観を示す図で
ある。入射光に垂直なXY平面に平行に明るさ絞り8が
設けられ、明るさ絞り8の開口部を通して入射した光が
瞳変調素子7aに入射する。また、図3(b)に示すよ
うに、光が入射する方向から見て明るさ絞り8の背面の
位置に、光位相変調マスク7として、瞳変調素子7aが
配置されている。本実施の形態で用いられる固体撮像素
子5は、例えば、画素ピッチが7μmのものが用いられ
る。また、光位相変調マスク7として用いた瞳変調素子
7aは、例えば屈折率1.523の光学的に透明なガラ
スで形成されており、広い被写界深度にわたって光学的
伝達関数がほぼ一定となる変換手段である。さらに該瞳
変調素子7aは、図3(b)に示すように、対物光学系
6の光軸をZ軸とし、Z軸と直交する面内にX、Y軸と
したときに、Z=A(X3+Y3)の形状をした自由曲面
を有していて、本実施の形態ではA=0.051とす
る。 【0032】図2に示される前記撮像ユニット20のレ
ンズデータを表1に示す。この光学系の焦点距離は1.
61mm、Fナンバーは8.722であり、明るさ絞り
8は第6面に、瞳変調素子7aの自由曲面部は第7面に
相当する。 【0033】 【表1】 図3(a)に示すように、明るさ絞り8は、正方形の開
口形状を有し、その形状は一辺0.408mmである。
また、瞳変調素子7aのX軸と、明るさ絞り8の正方形
開口の一辺は平行となるよう配置されている。 【0034】さらに、前記瞳変調素子7aのX軸は、固
体撮像素子5の画素配列の水平(走査)方向(モニタ上
の水平方向)と平行で、かつ、Y軸は固体撮像素子5の
画素配列の垂直(走査方向に直交)方向(モニタ上の垂
直方向)と平行になるよう、光軸(Z軸)を中心とした
回転方向に位置決めされている。 【0035】カメラコントローラ2は、図4に示すよう
に、接続された内視鏡1からの画像信号をデジタル信号
に変換するA/D変換部9と、前記デジタル信号を映像
信号に変換する信号変換部10と、前記映像信号をモニ
タ4で表示可能なアナログ信号に変換するD/A変換部
11と、被写界深度外処理回路12とで構成されてい
る。 【0036】上記被写界深度外処理回路12は、図示し
ないユーザインターフェースからの操作信号に応じ、前
記映像信号に画像処理を施すかどうかを判断する制御回
路25と、制御回路25の判断に応じ、映像信号の切り
換えを行う切換器26と、前記切換器26からの映像信
号に対し、前記瞳変調素子7aに対応した処理を行う画
像処理回路27とで構成される。 【0037】画像処理回路27は映像信号に対しフィル
タ処理を行う回路であり、例えば物体距離3mmから4
mm間での瞳変調素子7aを含む対物光学系6による光
学的伝達関数のレスポンス、ならびに瞳変調素子7aに
よって発生する非対称な収差(ボケ)を復元する画像処
理を行うものである。 【0038】ここで、光学的伝達関数のレスポンスなら
びに非対称な収差を復元するフィルタ処理は、使用する
対物光学系6と瞳変調素子7aによる光学的伝達関数を
シミュレーションにより算出し、その結果に基づいて作
成すればよい。光学的伝達関数のレスポンスを復元する
手段としては、例えばデジタル回路を用いる場合、瞳変
調素子7aに対応した非対称なデジタルフィルタが用い
られる。 【0039】(作用)上述した形状の瞳変調素子7a
は、波長587.56nmの平行光に対し、exp{i
×2.414(X3+Y3)/0.2043}の位相変調を
行う。 【0040】まず、被写界深度外処理回路を持たない図
30に示した従来のカメラコントローラ117や、カメ
ラコントローラ2内に搭載された被写界深度外処理回路
12にて画像処理回路27による画像処理を施さない場
合について説明する。 【0041】観察する被写体は、前記瞳変調素子7aを
含む対物光学系を通して、前記画素ピッチ7μmの固体
撮像素子5上の受光面に結像し、固体撮像素子5によっ
て電気信号(画像信号)に変換される。前記電気信号は
カメラコントローラ2(あるいは117)内のA/D変
換器9にてデジタル信号に変換され、信号変換部10に
て映像信号に変換される。前記映像信号はD/A変換器
11によってモニタ4に表示可能なアナログ信号に変換
され、モニタ4に被写体が映し出される。 【0042】前記撮像ユニット20に対し、物体距離1
3.5mmの位置での固体撮素子5の受光面上での点像
強度分布関数(PSF)の面積がもっとも小さくなるよう
にピント調整を行った。このときの、物体距離を71m
m、13.5mm、7.2mm、4mm、3mmとした
ときの固体撮像素子5の受光面上での点像、および各物
体距離での光軸上の光学的伝達関数のレスポンスについ
て、光学シミュレーションソフトCode-V(商品名)を用
いて計算をおこなった。 【0043】この結果、各物体距離における固体撮像素
子受光面上での点像の面積は、それぞれ1辺を22μ
m、14μm、20μm、31μm、50μmとした正
方形の領域内の大きさの点像として得られた。前記点像
について固体撮像素子受光面をXY平面とし、各画素に
おける光の強度(パーセント)をZ軸とした結果を図5
ないし図9に示す。また、各物体距離での光軸上の光学
的伝達関数のレスポンスの計算結果を図10に示す。 【0044】図5は、第1の実施の形態を示す瞳変調素
子を含む撮像ユニットでの物体距離71mmの時に得ら
れる点像のシミュレーション結果を説明するための図で
ある。図6は、第1の実施の形態を示す瞳変調素子を含
む撮像ユニットでの物体距離13.5mmの時に得られ
る点像のシミュレーション結果を説明するための図であ
る。図7は、第1の実施の形態を示す瞳変調素子を含む
撮像ユニットでの物体距離7.2mmの時に得られる点
像のシミュレーション結果を説明するための図である。
図8は、第1の実施の形態を示す瞳変調素子を含む撮像
ユニットでの物体距離4mmの時に得られる点像のシミ
ュレーション結果を説明するための図である。図9は、
第1の実施の形態を示す瞳変調素子を含む撮像ユニット
での物体距離3mmの時に得られる点像のシミュレーシ
ョン結果を説明するための図である。図10は、これら
の各物体距離での光軸上の光学的伝達関数のレスポンス
の計算結果を説明するための図である。 【0045】図5〜図9において、XY平面は固体撮像
素子受光面に相当し、Z軸は光の強度(パーセント)で
ある。ここで、X軸は、1、2、3、・・の画素番号を
示し、Y軸は、1、2、3、・・・で画素番号を示す。
なお、XYZ軸は、図11〜図14においても同様の意
味である。 【0046】図10においては、Aは物体距離71m
m、Bは物体距離13.5mm、Cは物体距離7.2m
m、Dは物体距離4mm、Eは物体距離3mmの時の、
それぞれの光学的伝達関数のレスポンスである。なお、
図15においても同様である。 【0047】物体距離が13.5mmの場合の点像は、
1辺が14μmの正方領域、つまり画素ピッチ7μmの
固体撮像素子5の一辺が2画素分、面積にして4画素分
に相当する、図6に示される光の強度分布を持つ点像と
して得られる。また、物体距離が71mm、7.2m
m、4mm、3mmの場合の点像は、それぞれ1辺が2
2μm、20μm、31μm、50μm、つまり、一辺
が3.1画素分、2.9画素分、4.4画素分、7.1
画素分に相当する正方領域に、図5、7〜9に示される
光の強度分布を持つ点像として得られる。 【0048】さらに、画素ピッチ7μmの固体撮像素子
5では、ナイキスト周波数は71ラインペア/mmとな
るが、図10に示したように、物体距離が4mmの位置
におけるナイキスト周波数での光学的伝達関数のレスポ
ンスが0.2以上であり、解像していることがわかる。
また、物体距離が3mmの位置では、ナイキスト周波数
での光学的伝達関数のレスポンスが0.2以下であるた
め解像しないことがわかる。 【0049】比較例として、図2の撮像ユニット20で
瞳変調素子7aの代わりに同材質の平行平板を用いた通
常の光学系の場合について説明する。前記通常の光学系
のレンズデータは表1の第7面の形状を自由曲面から平
面に変更したものである。前記の瞳変調素子7aが配置
された撮像ユニット20の場合と同様に、物体距離1
3.5mmの位置での固体撮像素子5の受光面上での点
像強度分布関数(PSF)の面積がもっとも小さくなるよ
うにピント調整を行った。このときの物体距離を71m
m、13.5mm、7.2mm、4mmとしたときの固
体撮像素子5の受光面上での点像、および各物体距離で
の光軸上の光学的伝達関数のレスポンスについて、光学
シミュレーションソフトCode-V(商品名)を用いて計算
をおこなった。 【0050】この結果、各物体距離における固体撮像素
子受光面上での点像の面積は、それぞれ1辺を16μ
m、1μm、14μm、36μmとした正方形の領域内
の大きさの点像として得られた。前記点像について固体
撮像素子受光面をXY平面とし、各画素における光の強
度(パーセント)をZ軸とした結果を図11ないし図1
4に示す。また、各物体距離での光軸上の光学的伝達関
数のレスポンスを図15に示す。 【0051】図11は、通常の対物光学系における撮像
ユニットでの物体距離71mmの時に得られる点像のシ
ミュレーション結果を説明するための図である。図12
は、通常の対物光学系における撮像ユニットでの物体距
離13.5mmの時に得られる点像のシミュレーション
結果を説明するための図である。図13は、通常の対物
光学系における撮像ユニットでの物体距離7.2mmの
時に得られる点像のシミュレーション結果を説明するた
めの図である。図14は、通常の対物光学系における撮
像ユニットでの物体距離4mmの時に得られる点像のシ
ミュレーション結果を説明するための図である。図15
において、Aは物体距離71mm、Bは物体距離13.
5mm、Cは物体距離7.2mm、Dは物体距離4mm
の時の光学的伝達関数のレスポンスである。 【0052】物体距離が13.5mmの場合の点像は、
1辺が1μmの正方領域、つまり画素ピッチ7μmの固
体撮像素子の一辺が1画素分、面積にして1画素分に相
当する、図12に示される光の強度分布を持つ点像とし
て得られる。また、物体距離が71mm、7.2mm、
4mmの場合の点像は、それぞれ1辺が16μm、14
μm、36μm、つまり、一辺が2.3画素分、2画素
分、5.1画素分に相当する正方領域に、図11、1
3、14に示される光の強度分布を持つ点像として得ら
れる。 【0053】さらに、図15に示したように、ナイキス
ト周波数での光学的伝達関数のレスポンスが0.2以上
となるのは物体距離が7.2mm以上71mm未満のと
きであることがわかる。 【0054】次に、瞳変調素子7aを含む内視鏡1を、
被写界深度外処理回路12を有するカメラコントローラ
2に接続し、さらに被写界深度を拡大する場合について
説明する。 【0055】被写体までの物体距離が4mm未満となっ
て解像しなくなった際に内視鏡操作者により、例えばプ
ッシュスイッチやフットスイッチ等の図示しないユーザ
インターフェースを介し切換操作か行われた場合、被写
界深度外処理回路12内の制御回路25からの制御信号
に伴い切換器26は映像信号を画像処理回路27に接続
するよう働く。物体距離3mmから4mm開での瞳変調
素子7aを含む対物光学系6による光学的伝達関数のレ
スポンス、ならびに瞳変調素子7aによって発生する非
対称な収差(ボケ)を復元するよう構成された画像処理
回路27は、前記解像しなくなった映像信号に対して光
学的伝達関数のレスポンスを0.2以上で、かつ非対称
な収差を低減するよう働く。前記復元された映像信号
は、D/A変換器11を通じてモニタ4にて解像した画
像として表示される。 【0056】(効果)前述したように、瞳変調素子7a
を含まない通常の内視鏡111(図30参照)を従来の
カメラコントローラ117(図30参照)に接続した場
合、物体距離7.2mmより近接すると、ナイキスト周
波数における光学的伝達関数のレスポンスが0.2より
下回るため解像しない。 【0057】これに対し、本実施の形態における瞳変調
素子7aを含む内視鏡1を従来のカメラコントローラ1
17(図30参照)に接続した場合、物体距離4mmで
もナイキスト周波数における光学的伝達関数のレスポン
スが0.2を上回っているため、解像することがわか
る。 【0058】さらに、前記瞳変調素子7aによる位相変
調量αは2.414と十分小さな値に設定されているた
め、前記光学的伝達関数のレスポンスが0.2以上とな
る被写界深度内において瞳変調端子7aによって発生す
る非対称な収差(ボケ)は最大でも数画素程度となり非
対称な収差はモニタ4上で認識できないレベルとなる。
このことから、特別な画像処理回路を必要としなくと
も、被写界深度が拡大されていることがわかる。 【0059】さらに、本実施の形態における瞳変調素子
7aを含む内視鏡1を、被写界深度外処理回路12を有
するカメラコントローラ2に接続した場合、画像処理回
路27によって物体距離4mm未満での光学的伝達関数
のレスポンスを復元することが可能となるので、物体距
離4mm未満でも解像し、かつ非対称な収差(ボケ)の
小さい画像を得ることが可能となる。これにより、さら
なる被写界深度の拡大、画質の向上を実現することが可
能となる。 【0060】ここで、本実施の形態では固体撮像素子の
画素ピッチを7μmのものとしたが、これに限ったもの
ではなく、固体撮像素子受光面上での点像の面積がもっ
とも小さくなるビント位置における点像の大きさが、一
辺を画素ピッチの2画素分、面積にして4画素分となる
ように明るさ絞り8の開口寸法、および瞳変調素子7a
の形状を調整することで、同様の被写界深度の拡大が可
能となる。 【0061】また、本実施の形態では固体撮像素子受光
面上の点像の面積がもっとも小さくなるピント位置にお
ける点像の大きさを、一辺が固体撮像素子の画素ピッチ
の2画素分、面積にして4画素分となるように調整じた
か、点像の大きさを、一辺が画素ピッチの6画素分、面
積にして36画素分となるようにした場合、瞳変調素子
の変調係数αは7.243で、物体距離4mmにおける
光学的伝達関数のレスポンスが0.2以上となり、かつ
物体距離4mmにおける点像の大きさも一辺が8画素程
度であるために、同様の被写界深度の拡大が可能とな
る。 【0062】本実施の形態では瞳変調素子7aにガラス
材料を用いているが、樹脂材料を用いても良い。また、
本実施の形態では瞳変調素子7aは光学的に透明なガラ
スが用いられているが、特定の波長のみ透過する光学フ
ィルタ材料を用いても良い。 【0063】また、本実施の形態での瞳変調素子7aの
形状はX軸方向、Y軸方向の光学的伝達関数の変換量を
同一としているが、X軸方向、Y軸方向で変換量が異な
る構成にしても良い。例えば、明るさ絞り8の開口形状
を長方形に設定しても良いし、瞳変調素子7aの自由曲
面の形状をX軸方向、Y輪方向で異なる係数を使用して
も良い。 【0064】また、前記明るさ絞り8は円形としても同
様の効果が得られる。この場合は、明るさ絞り8と瞳変
調素子7aとの光軸に対する回転方向調整が必要なくな
るという効果がある。また、明るさ絞り8は瞳変調素子
7aと別体でなくとも良く、瞳変調素子7aに蒸着等に
より直接形成されていても良い。 【0065】第2の実施の形態:図16は本発明の第2
の実施の形態に係るカメラコントローラ(信号処理装
置)の構成を示すブロック図である。 【0066】(構成)第2の実施の形態は、第1の実施
の形態とほとんど同じであるので、異なる点のみ説明
し、同一の構成には同じ符号をつけ説明は省略する。 【0067】本実施の形態は、基本的な構成は第1の実
施の形態と同じであり、カメラコントローラ内の信号処
理回路が異なる。以下、相違点に重点をおいて説明す
る。 【0068】図16は第2の実施の形態におけるカメラ
コントローラの概略図を示している。 【0069】本実施の形態のカメラコントローラ2a
は、図16に示すような構成であり、接続された内視鏡
1からの画像信号をデジタル信号に変換するA/D変換
器9と、前記デジタル信号を映像信号に変換する信号変
換部10と、前記映像信号をモニタ4で表示可能なアナ
ログ信号に変換するD/A変換器11と、被写体の明る
さに応じて光源装置3の出射光量を制御する自動調光回
路31と、被写界深度外処理回路12aとで構成されて
いる。 【0070】被写界深度外処理回路12aは、自動調光
回路31からの調光信号から物体までの距離を判断し、
前記映像信号に画像処理を施すかどうかを判断する制御
回路25と、制御回路41の判断に応じ、映像信号の切
り換えを行う切換器26と、前記切換器26からの映像
信号に対し、前記瞳変調素子7aに対応した処理を行う
複数の画像処理回路を有する画像処理回路部32とで構
成される。 【0071】画像処理回路部32は、映像信号に対しフ
ィルタ処理を行う回路部であり、物体距離に応じた瞳変
調素子7aを含む対物光学系6による光学的伝達関数の
レスポンス、ならびに瞳変調素子7aによって発生する
非対称な収差(ボケ)を復元する画像処理を行うもので
ある。 【0072】例えば、本実施の形態においては、画像処
理回路部32には、物体距離3mmから4mm間を復元
する画像処理回路32a、物体距離2mmから3mm間
を復元する画像処理回路32b、物体距離71mm以上
を復元する画像処理回路32cが用意されている。 【0073】ここで、光学的伝達関数のレスポンスなら
びに非対称な収差を復元するフィルタ処理は、使用する
対物光学系6と瞳変調素子7aによる各物体距離におけ
る光学的伝達関数をシミュレーションにより算出し、そ
の結果に基づいて作成すればよい。 【0074】(作用)瞳変調素子7aを含む内視鏡1
を、被写界深度外処理回路12aを有するカメラコント
ローラ2aに接続し、被写界深度を拡大する場合につい
て説明する。 【0075】信号変換部10は映像信号として輝度信号
Yと2つの色差信号R−Y、B−Yを生成する。自動調
光回路31は、前記輝度信号Yと基準信号レベルとを比
較し、輝度信号Yの大小に応じて光源装置3の出射光量
を制御する調光信号を発生する。 【0076】制御回路25は、前記調光信号をもとに物
体距離を判断し、切換器26を制御して映像信号を物体
距離に応じた画像処理回路部32の画像処理回路に接続
するよう働く。 【0077】そして、映像信号は画像処理回路部32に
て所望の復元処理が施され、解像した画像としてモニタ
4に映し出される。 【0078】最初に、被写界深度よりも物体距離が遠い
場合について詳しく説明する。物体距離か遠く照明光不
足により輝度信号Yのレベルが低下した場合、自動調光
回路31は出射光量の増加を光源装置3へ指示する調光
信号を発生する。この調光信号は、光源装置3に接続さ
れるとともに制御回路25にも接続されており、制御回
路25は物体距離が遠くなったことを判断して、切換器
26により映像信号を物体距離71mm以上を復元する
画像処理回路部32の画像処理回路32cに接続する。 【0079】そして、物体距離が遠く、光学的伝達関数
のレスポンスが低下した映像信号は、画像処理回路32
cによって物体距離71mm以上に対応した復元処理が
施され、解像した映像に復元される。 【0080】次に、被写界深度よりも物体距離が近い場
合について詳しく説明する。物体距離が近く、照明光が
強すぎ輝度信号Yが飽和するレベル付近まで上昇した場
合、自動調光回路31は出射光量の減少を光源装置3へ
指示する調光信号を発生する。この調光信号を受け、制
御回路25は物体距離が近くなったことを判断し、切換
器26によって映像信号を物体距離3mmから4mmを
復元する画像処理回路32aに接続する。 【0081】そして、物体距離が近くなることで光学的
伝達関数のレスポンスが低下し、モニタ4にて認識でき
る程度の非対称な収差(ボケ)が拡大した映像信号は、
画像処理回路32aによって物体距離3mmから4mm
に対応した復元処理が施され、解像した映像に復元され
る。 【0082】さらに、物体距離が近づいた場合について
詳しく説明する。物体距離がさらに近くなり、輝度信号
Yのレベルがさらに上昇した場合、自動調光回路34は
出射光量の更なる減少を指示する明光信号を発生する。
この調光信号を受け、制御回路25は物体距離がさらに
近くなったと判断し、切換器26によって映像信号を物
体距離2mmから3mmを復元する画像処理回路32b
に接続する。 【0083】そして、物体距離3mmから4mmを復元
する画像処理回路32aでは復元できない光学的伝達関
数のレスポンス低下、非対称な収差(ボケ)の発生した
映像信号に対し、画像処理回路32bは物体距離2mm
から3mmに対応した復元処理を施し、解像した映像に
復元する。 【0084】(効果)前述したように、内視鏡システム
に一般的に用意されている自動調光回路を利用した距離
検出手段と、距離に応じた復元処理を施すことによっ
て、内視鏡操作者による操作を必要とせずに被写界深度
を拡大することが可能となる。さらに、距離に応じた複
数の復元処理を施すことができるため、さらなる画質の
向上が可能となる。 【0085】なお、本実施の形態では物体距離の検知を
自動調光信号を用いて行ったが、例えば赤外線や超音波
等を照射する測距センサや三角測量方式を用いた測距セ
ンサを用いても良い。この場合、精度の良い測距が可能
となり、最適な画像処理回路を確実に選択できるという
効果がある。 【0086】また、映像信号の高周波域の出力が最大と
なるように前記画像処理回路を切り換えて、最適な画像
処理回路を選択する手法を用いても良い。この場合、観
察する画像が最適となるように画像処理回路が選択され
るため、画質向上の効果が期待できる。 【0087】さらに、前記複数の測距手段を組み合わせ
て使用することで、最適な画像処理回路を選択すること
が可能となる。 【0088】また、本実施の形態では画像処理回路を遠
点側1種類、近点側2種類設けたが、これに限ったもの
ではなく、物体距離に応じて複数の画像処理回路を設け
ても良い。この場合の画像処理回路も同様に、物体距離
に応じた光学的伝達関数をシミュレーションにより算出
し、その結果に基づいて作成すればよい。 【0089】さらに、本実施の形態では瞳変調素子を含
む対物光学系1種類の画像処理回路について記載した
が、複数種の瞳変調素子を含む対物光学系に対応した画
像処理回路をカメラコントローラに設けておけば、複数
種の内視鏡に対し、被写界深度の拡大、並びに画質の向
上を実現することができる。この際、内視鏡に搭載され
ている瞳変調素子を含む対物光学系に応じた画像処理回
路の選定のために、各内視鏡の種類を判別する判別手段
が設けられていて、各内視鏡とカメラコントローラを接
続する際に、最適な画像処理が選択できるようにしてお
くこともできる。 【0090】[付記] (付記項1)対物光学系の光学像を固体撮像素子にて撮
像する複数種の内視鏡と、前記固体撮像素子からの信号
をモニタに表示可能な映像信号に変換する複数の信号処
理装置とを、組み合わせて接続使用される電子内視鏡シ
ステムにおいて、少なくとも1つの前記内視鏡の対物光
学系は、光位相変調マスクを有し、前記光位相変調マス
クは、物体距離に応じた光学的伝達関数の変化が、前記
光位相変調マスクを持たない対物光学系よりも小さくな
るように作用するよう配置され、前記信号処理装置は、
前記光位相変調マスクにより変更された光学的伝達関数
に対し、物体距離に応じた複数の光学的伝達関数復元処
理を施す復元処理手段を有することを特徴とした電子内
視鏡システム。 【0091】付記項1の電子内視鏡システムでは、光位
相変調マスクを有する対物光学系は、光位相変調マスク
を持たない場合の対物光学系の被写界深度よりも、物体
距離に応じた光学的伝達関数の変化が小さくなるように
作用する。前記光位相変調マスクを有する対物光学系を
用いた内視鏡の固体操像素子からの画像信号は、物体距
離に応じて、光前記復元処理手段により復元され、モニ
タに映し出される。これにより、物体距離に応した最適
な画質が得られる。 【0092】(付記項2) 前記光位相変調マスクを有
する対物光学系の前記光学的伝達関数のレスポンスは、
前記光位相変調マスクを持たない場合の対物光学系の被
写界深度よりも広い物体距離にわたって、前記固体撮像
素子のテイキスト周波数までレスポンスが0.2以上あ
ることを特徴とする付記項1に記載の電子内視鏡システ
ム。 【0093】付記項2の電子内視鏡システムでは、光位
相変調マスクの位相変調量によって、通常の対物光学系
と比較して、光位相変調マスクによって変更された光学
的伝達関数のレスポンスが、固体撮像素子のナイキスト
周波数まで0.2以上となるため、通常の対物光学系と
比較し広い被写界深度にわたって解像する。これによ
り、光位相変調マスクを有する対物光学系を用いた内視
鏡においても、光位相変調マスクの逆変換を行う画像処
理を持たない一般的な内視鏡システムの信号処理装置に
接続可能となる。 【0094】(付記項3) 点像の前記固体撮像素子受
光面上の面積が最も小さくなる物体距離において、前記
光位相変調マスクを有する内視鏡の対物光学系の前記点
像の固体撮像素子受光面上の面積Wは、前記固体撮像素
子の画素ピッチをPとしたときに、 W≦36×P2 を満たすことを特徴とする付記項1または2に記載の電
子内視鏡システム。 【0095】付記項3の電子内視鏡システムでは、光位
相変調マスクの位相変調量によって、光位相変調マスク
を有する対物光学系の光学的伝達関数の固体撮像素子受
光面上の点像の面積Wは、W≦36×P2となる。これ
により、光位相変調マスクを有する対物光学系の光学的
伝達関数のレスポンスが、広い物体距雄にわたって、固
体撮像素子のナイキスト周波数まで0.2以上となる。
また、光位相変調マスクによって発生する非対称なボケ
の大きさは固体撮像素子の数画素程度と十分に小さいた
め、非対称デジタルフィルタのような光学的伝達関数復
元手段を必要としない。 【0096】(付記項4) 前記光位相変調マスクは、
前記対物光学系の光軸をZ軸としたときに互いに直交す
る2軸をX、Yとしたとき、波長587.56nmの光
に対して exp{i×α(X3+Y3)} (但し、|X|≦1、|
Y|≦1) の位相の変換を行うものであり、前記係数αは8以下で
あることを特徴とする付記項1、2または3のいずれか
に記載の電子内視鏡システム。 【0097】付記項4の電子内視鏡システムでは、光位
相変調マスクによって変換される位相は、前記対物光学
系の光軸をZ軸としたときに互いに直交する2軸をX、
Yとしたとき、波長587.56nmの光に対してex
p{i×α(X3+Y3)}において、係数αが8以下とな
る。これにより、光位相変調マスクによって変更された
光学的伝達関数のレスポンスか固体撮像素子のナイキス
ト周波数まで0.2以上となる。 【0098】(付記項5) 前記固体撮像素子のナイキ
スト周波数まで前記光学的伝達関数のレスポンスが0.
2以上ある物体距離では、前記位相変調マスクに応じた
光学的伝達関数復元処理を施さず、前i己光学的伝達関
数のレスポンスが0.2未満となる物体距離において、
前記物体距離に応じた複数の光学的伝達関数復元処理を
施すことを特徴とする付記項2に記載の電子内視鏡シス
テム。 【0099】付記項5の電子内視鏡システムでは、前記
固体撮像素子のナイキスト周波数まで前記光学的伝達関
数のレスポンスが0.2以上ある物体距離では、光位相
変調マスクに応じた光学的伝達関数復元手段を施さず、
前記光学的伝達関数のレスボンスが0.2未満となる物
体距離では、前記物体距離に応じた光学的伝達関数復元
処理を施す。前記光位相変調マスクを有する内視鏡を光
学的伝達関数復元手段をもたない信号処理回路に接続し
た場合、被写界深度か拡大される。さらに、前記光位相
変調マスクに対応する光学的伝達関数復元手段を有する
信号処理回路に接続した場合、さらなる被写界深度の拡
大が図れ、高解像な画質が得られる。 【0100】(付記項6) 対物光学系の光学像を固体
撮像素子にて撮像する複数種の内視鏡と、前記固体撮像
素子からの信号をモニタに表示可能な映像信号に変換す
る複数の信号処理装置を、組み合わせて接続使用される
竜子内視鏡システムにおいて、少なくとも1つの内視鏡
の対物光学系は、光位相変調マスクを有し、前記光位相
変調マスクは、物体距離に応じた光学的伝達関数の変化
が、前記光位相変調マスクを持たない対物光学系よりも
小さくなるように作用し、かつ、前記光位相変調マスク
を有する対物光学系の前記光学的伝達関数のレスポンス
が、前記光位相変調マスクを持たない場合の対物光学系
の被写界深度よりも広い物体距離にわたって、前記固体
撮像素子のナイキスト周波数までレスポンスが0.2以
上あるよう配置され、前記信号処理装置は、前記光位相
変調マスクにより変更された光学的伝達関数に対し、物
体距離に応じた複数の光学的伝達関数復元処理を施す復
元処理手段を有し、前記復元処理手段は前記固体撮像素
子のナイキスト周波数まで前記光学的伝達関数のレスポ
ンスが0.2以上ある物体距離では、前記位相変調マス
クに応じた光学的伝達関数復元処理を施さず、前記光学
的伝達関数のレスポンスが0.2未満となる物体距離に
おいて、前記物体距離に応じた複数の光学的伝達関数復
元処理を施すことを特徴とする電子内視鏡システム。 【0101】付記項6の電子内視鏡システムでは、光位
相変調マスクを有する対物光学系は、光位相変調マスク
を持たない通常の対物光学系の被写界深度よりも、物体
距離に応じた光学的伝達関数の変化が小さくなるように
作用する。前記固体撮像素子のナイキスト周波数まで前
記光学的伝達関数のレスポンスが0.2以上ある物体距
離では、光位相変調マスクに応じた光学的伝達関数復元
手段を施さず、前記光学的伝達関数のレスポンスが0.
2未満となる物体距離では、前記物体距離に応じた光学
的伝達関数復元処理を施す。前記光位相変調マスクを有
する内視鏡を光学的伝達関数復元手段をもたない信号処
理回路に接統した場合、被写界深度が拡大される。さら
に、前記光位相変調マスクに対応する光学的伝達関数復
元手段を有する信号処理回路に接続した場合、さらなる
被写界深度の拡大が図れ、高解像な画像が得られる。 【0102】(付記項7) 前記光位相変調マスクを含
む対物光学系に用いられる明るさ絞りの開口形状は、円
形であることを特徴とする付記項1または付記項6に記
載の電子内視鏡システム。 【0103】(付記項8) 物体距離を検出する物体距
離検出手段を有し、前記復元処理手段は前記物体距離検
出手段によって検出された物体距離に応じて切り換えら
れる複数の光学的伝達関数復元処理回路を有することを
特徴とする付記項1または付記項6に記載の電子内視鏡
システム。 【0104】付記項8の電子内視鏡システムでは、物体
距離検出手段によって、自動的に物体距離に応じた光学
的伝達関数復元処理回路か選択されるため、特別な操作
を必要とせずに被写界深度拡大、画質の向上が可能とな
る。 【0105】(付記項9) 前記物体距離検出手段は、
固体撮像素子からの撮像信号を用いて自動調光するため
の調光信号により距離を検出する手段であることを特徴
とする付記項8に記載の電子内視鏡システム。 【0106】付記項9の電子内視鏡システムでは、物体
距離と明るさの関係を利用して、一般的な内視鏡システ
ムに搭載されている自動調光を用い、物体距離を検出す
る。 【0107】(付記項10) 撮像信号の高周波域の出
力が最大となるように、前記複数の光学的伝達関数復元
処理回路を切り換えることを特徴とする付記項8に記載
の電子内視鏡システム。 【0108】付記項10の電子内視鏡システムでは、撮
像信号の高周波域の出力を最大とするよう光学的伝達関
数復元処理回路を切り換えるため、高画質な映像が得ら
れる。 【0109】本発明は、上述した実施の形態に限定され
るものではなく、本発明の要旨を変えない範囲におい
て、種々の変更、改変等が可能である。 【0110】 【発明の効果】以上説明したように本発明によれば、内
視鏡光学系に配置した光位相変調マスクに応じた復元処
理手段が搭載されていない信号処理装置に、光位相変調
マスクを有した内視鏡を接続しても、被写界深度の拡
大、ならびに高解像の画像を生成でき、かつ、光位相変
調マスクに応じた復元処理手段か搭載されている信号処
理装置に、前記光位相変調マスクを有じた内視鏡を接続
した場合は被写界深度の更なる拡大、ならびに更なる高
解像の画像を生成できるという効果がある。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic endoscope system.
In particular, for multiple systems, multiple types of endoscopes with different specifications and
To connect and view images of the subject on a monitor
Related to an endoscope system. [0002] As is well known, an endoscope cannot be directly viewed.
Can observe the inside of a living body, etc.
Widely used for treatment and treatment. And recently, the subject
Images are converted to electrical signals by a solid-state image sensor such as a CCD
Electronic endoscopes that can be observed on a monitor
You. [0003] Such an endoscope depends on a site to be observed.
Various endoscopes are used. The endoscope is a light source
Camera controller including signal processing circuit (signal processing device)
It is used by being connected to etc. In the signal processing circuit,
An image processing circuit is provided to improve image quality and emphasize the subject.
For improving the contrast, for example,
A symmetric two-dimensional digital filter is used as shown in
Have been. The following matrix shows the center pixel and its
Is determined for the values of the pixels around the pixel. [0004] On the other hand, the endoscope optical system has a simple optical system and excellent operability.
Therefore, fixed focus optics are commonly used
Designed to obtain the required depth of field depending on the part
Have been. However, with a fixed focus optical system,
Then, it is necessary to increase the F number of the optical system.
There is a problem that the reliability is reduced. In addition, the times of light
There is a limit to the extension of the depth of field because of the folding limit. This
On the other hand, the method of expanding the depth of field of an optical system
For example, U.S. Pat. No. 5,748,371 or "Edward
R. Dowski, Jr. , W.S. Thomas C
athey, "Extended depth of
fieldthrough wave-front
coding, "Appl. Opt. Vol. 34,
1859-1866 (1995) ".
You. FIG. 17 shows a configuration of a conventional enlarged depth of field optical system.
FIG. An apparatus according to this technique is shown in FIG.
As described above, the imaging means 104 such as a CCD and the image of the object 101
Lens system 103 that forms an image on the light receiving surface of the imaging unit 104
Phase change at the pupil position of the optical system
Image data from the tone mask 102 and the imaging means 104
Image processing apparatus 105 that constructs an image based on the
I have. [0006] The cubic phase modulation mask 102
One side is a plane, and the other side is Z as shown in FIG.
= A (X Three + Y Three ). FIG.
Explains the external shape of this cubic phase modulation mask
FIG. A is an arbitrary coefficient. Sandals
That is, one surface is a plane on the XY plane, and the other surface is
Satisfies the above equation in the Z-axis direction orthogonal to the XY plane.
It is a dimensional surface. FIG. 18 shows that X and Y are −1 to +1.
FIG. 7 is a diagram for explaining a state of a three-dimensional curved surface in a range.
You. Accordingly, the three-dimensional curved surface shape changes according to the coefficient A.
You. [0007] The cubic phase modulation mask 102 is
P (X, Y) = exp (jα)
(X Three + Y Three )). Here, the coefficient α is 2
A value sufficiently larger than 0 is preferable, and
The response of the transfer function (hereinafter also referred to as OTF) is
0.2 or less, due to rotationally asymmetric aberration (blur)
The size of the image is sufficiently larger than the pixels of the imaging unit 104.
It becomes. [0008] Such a cubic phase modulation mask 1
In the case of a normal optical system without 02, the object 101 is in focus.
The response of the optical transfer function
The state changes from FIG. 19 to FIG. 20, and the object 101 is further
, The state changes from FIG. 20 to FIG. FIG. 19 shows that an object is focused in a normal optical system.
Response of optical transfer function (OTF) when in position
4 is a graph showing the results. FIG. 20 shows an ordinary optical system.
The optical transfer function (OT
It is a graph which shows the response of F). FIG. 21 shows a normal
In the optical system, the object is moved from the focal position
Response of optical transfer function (OTF) when deviated further
4 is a graph showing the results. On the other hand, a cubic phase modulation mask
In the case of an extended depth-of-field optical system with 102,
The response of the OTF is shown in FIGS.
As shown in the figure, the OTF
Ponce is seen to decrease, but
Change is small. FIG. 22 shows an object in an enlarged depth of field optical system.
Of the optical transfer function (OTF) when the body is in focus
It is a graph which shows a response. FIG. 23 shows an enlarged depth of field.
Optics when an object deviates from the focal position
4 is a graph showing an intensity distribution of an objective transfer function (OTF).
FIG. 24 shows the focus position of the object in the enlarged depth of field optical system.
The optical transmission function when it deviates from that of FIG.
It is a graph which shows the response of number (OTF). The image formed by this optical system is
The cubic image shown in FIG.
To the inverse filter of the OTF characteristic of the
The processing shown in FIGS.
26 to 28 respectively for the OTFs
OTF response is obtained. FIG. 25 shows light in an enlarged depth-of-field optical system.
Is performed on the response of the biological transfer function (OTF)
13 is a graph showing characteristics of an inverse filter of the processing performed by the first embodiment. FIG.
Corresponds to the response of the optical transfer function (OTF) in FIG.
25 and perform processing by an inverse filter having the characteristics of FIG.
The response of the optical transfer function (OTF) obtained by
This is a graph. FIG. 27 shows the optical transfer function (O
TF) response to the reverse filter having the characteristics shown in FIG.
Optical transfer function (O
It is a graph which shows the response of TF). FIG. 28 shows FIG.
4 for the response of the optical transfer function (OTF)
Obtained by performing processing with an inverse filter having 25 characteristics.
Graph showing the response of the optical transfer function (OTF)
It is. The OTF response shown in FIGS.
In all cases, the OTF ratio at the time of normal optical system focusing is
It has a shape similar to a sponge. And its inverse filter
For example, an asymmetric two-dimensional digital
Ruta is used. The matrix below shows the center pixel
And the coefficients for the values of the surrounding pixels.
You. [0015] Next, an actual image will be described. In ordinary optical systems, objects
As the focus shifts from
Come up. On the other hand, an enlarged depth of field optical system is used.
The image before image processing when the focal position is shifted
Each image is blurred, but the focus position is shifted
Does not change the way of blurring. And these images
On the other hand, the image processing by the above-described inverse filter (FIG. 25) is performed.
Is equivalent to an image without a normal optical system defocus
And the depth of field can be increased. Further, an application of this to an endoscope is as follows.
It is disclosed in the specification of JP-A-2000-5127.
You. The disclosed endoscope system is shown in FIG.
Is connected to a plurality of types of endoscopes to monitor the image of the subject
16 is an endoscope system for observation at 16. The endoscope system shown in FIG.
The solid-state image sensor 114 and the solid-state image sensor 114
An objective optical system 112 for forming an image of a subject on a light receiving surface;
Endoscope 111 and an image signal obtained by the endoscope 111
Camera controller that processes video signals and outputs video signals
(Signal processing device) 117 and generates illumination light for observation
The light source device 118 and the image from the camera controller 117
And a monitor 116 for displaying an image signal. At least one of a plurality of types of endoscopes
The endoscope 111 has a cubic phase change in the optical system 112.
It has an optical phase modulation mask 113 such as a tone mask.
Further, the endoscope 111 is provided on the output side of the imaging device 114.
Optical transmission function corresponding to the optical phase modulation mask 113 of the endoscope
Number restoring means 115 is provided. Further, the camera controller 117 is provided in FIG.
0, an image signal from the connected endoscope 111 is displayed.
A / D converter 121 for converting the signal into a digital signal;
A signal converter 122 for converting the digital signal into a video signal
And an image for processing the video signal from the signal conversion unit 122.
An image processing circuit 123;
Analog signal that can display the processed video signal on the monitor 4
And a D / A conversion unit 124 that converts the data into a digital signal. The optical transfer function restoring means 115 includes an optical system
Equivalent to inverse filter of optical phase modulation mask 113 in 112
It is necessary to include the restoration means to be performed. Optical transfer function
The restoration means 115 is provided for the endoscope 11 as shown in FIG.
1 may be provided inside, or the endoscope 111 may be connected thereto.
Camera controller for displaying video on monitor 116
(Signal processing device) 117 may be provided. to this
According to the type and presence or absence of the optical phase modulation mask 113,
Instead, even if various endoscopes are connected, the depth of field will increase,
High-resolution images can be generated. [0022] US Patent 5,748,
No. 371, JP-A-2000-5127, etc.
First, the optical field modulation mask 113 is used for the optical character system,
When applying the technology to increase the depth to the endoscope, the optical phase change
Restores the deterioration of the optical transfer function due to the tone mask 113,
Optical transfer function restoring means 11 for obtaining high resolution image
5 is required, so that one-to-one
Restoration means corresponding to the camera controller (signal processing device).
Placement) Image processing circuit in 117 or in endoscope 111
It must be installed in the department. However, the current general endoscope system
The image processing circuit in the camera controller in the system
Optical transmission of images obtained through imaging optics
Emphasize specific frequency bands for function response
Image processing circuit that adjusts the appearance of the image
But for the purpose of expanding the depth of field
Also, depending on the optical phase modulation mask installed in the endoscope optical system
The endoscope optical system,
When an endoscope with an optical phase modulation mask is connected,
Image cannot be obtained, and compatibility cannot be ensured. In order to ensure compatibility, the inside of the endoscope is
When an optical transfer function restoring means is provided in the
A / D converter for converting to a digital signal, and a digital signal
A signal conversion unit for converting the converted image signal into a video signal,
An image processor for restoring the optical transfer function
Signal conversion unit for converting a signal from an image signal to an image signal;
A conversion unit is required inside the endoscope, but the circuit is complicated
And the circuit scale is large, so the endoscope body is enlarged.
And the disadvantage that operability is deteriorated occurs. The present invention has been made in view of the above circumstances.
And is compatible with the optical phase modulation mask placed in the endoscope optical system.
Signal processing device that does not have the same restoration processing means,
Even if an endoscope with an optical phase modulation mask is connected,
Can increase the depth and generate high-resolution images, and
Restoration processing means corresponding to the optical phase modulation mask is installed.
Endoscope having the optical phase modulation mask in a signal processing device
When a mirror is connected, the depth of field further increases, and
Providing an endoscope system that can generate even higher resolution images
It is intended to be. An electronic endoscope system according to the present invention is provided.
The system captures the optical image of the objective optical system with a solid-state image sensor.
Signals from the plurality of types of endoscopes and the solid-state imaging device.
Multiple signal processing devices that convert video signals
An electronic endoscope system used in combination with
At least one objective optical system of said endoscope
Has an optical phase modulation mask, the optical phase modulation mask
Changes in the optical transfer function according to the object distance
Smaller than objective optics without phase modulation mask
The signal processing device is arranged to operate as
Optical transfer function modified by the optical phase modulation mask
On the other hand, multiple optical transfer function restoration processing according to object distance
Is provided. The present invention will be described below with reference to the drawings.
An embodiment will be described. First Embodiment: FIGS. 1 to 15 show a book
FIG. 1 shows an endoscope system according to a first embodiment of the invention.
FIG. 2 is a configuration diagram showing a schematic configuration of a system, and FIG.
Diagram for explaining the configuration of an imaging unit including a mask,
FIG. 3 shows a structure of a pupil modulation element in which the aperture stop of FIG. 2 is arranged.
FIG. 4 is a schematic explanatory view for explaining the camera control, and FIG.
FIG. 5 is a block diagram showing the configuration of a roller (signal processing device).
Is the object distance 71 of the imaging unit including the pupil modulation element of FIG.
The simulation result of the point image obtained when
FIG. 6 is a view for explaining an image pickup unit including the pupil modulation element of FIG.
Of the point image obtained when the object distance of the knit is 13.5 mm
FIG. 7 is a diagram for explaining a simulation result, and FIG.
Object distance of the imaging unit including the pupil modulation element of 7.2 mm
The point image simulation results obtained at
FIG. 8 shows an imaging unit including the pupil modulation element shown in FIG.
Simulation of a point image obtained when the object distance is 4 mm
FIG. 9 is a diagram for explaining the result of the pupil modulation shown in FIG.
Obtained when the object distance of the imaging unit including the child is 3 mm
For explaining the simulation result of a point image
Reference numeral 10 denotes each object distance of the imaging unit including the pupil modulation element of FIG.
Simulation results of the response of the separated optical transfer function
FIG. 11 is a view for explaining the result, and FIG.
It is obtained when the object distance of the imaging unit of FIG. 2 is 71 mm.
For explaining the simulation result of a point image
12 is an object of the imaging unit of FIG. 2 in a normal optical system
Simulation of a point image obtained at a distance of 13.5 mm
FIG. 13 is a diagram for explaining the result of the installation, and FIG.
When the object distance of the imaging unit in Fig. 2 is 7.2mm
To explain the simulation results of the point image obtained
14 and FIG. 14 show the imaging unit of FIG. 2 in a normal optical system.
Simulation of a point image obtained when the object distance is 4 mm
FIG. 15 is a diagram for explaining the result of the operation, and FIG.
For each object distance of the imaging unit in FIG.
Of the response of the biological transfer function
It is a figure for clarification. (Structure) As shown in FIG.
5 and a pair for forming an image of a subject on the solid-state imaging device 5.
An endoscope 1 having an object optical system 6 and an endoscope 1 obtained by the endoscope 1
Camera control that processes image signals and outputs video signals
(Illumination light for observation)
A video signal from the light source device 3 and the camera controller 2
And a monitor 4 for displaying. And the form of this implementation
Endoscope system is connected to multiple types of endoscopes 1
Can be used for multiple types of endoscopes
At least one endoscope 1 of the mirrors 1 has its objective light
In the optical system 6, an optical element having a rotationally asymmetric surface shape
An optical phase modulation mask 7 is provided. As shown in FIG. 2, the imaging unit of the endoscope 1
20 is a solid-state image sensor 5 and a subject image
Is constituted by an objective optical system 6 which forms an image. FIG. 3A is viewed from the direction in which light is incident.
FIG. 7 is a diagram showing the appearance of the pupil modulation element 7a and the aperture stop 8 at the time.
is there. The aperture stop 8 is parallel to the XY plane perpendicular to the incident light.
Light incident through the aperture of the aperture stop 8
The light enters the pupil modulation element 7a. Also, as shown in FIG.
As seen from the light incident direction, the back of the aperture stop 8
At the position, a pupil modulation element 7a is used as the optical phase modulation mask 7.
Are located. Solid-state image sensor used in the present embodiment
The element 5 has a pixel pitch of 7 μm, for example.
You. Further, a pupil modulation element used as the optical phase modulation mask 7
7a is an optically transparent glass having a refractive index of 1.523, for example.
Optically over a wide depth of field
This is a conversion means whose transfer function is almost constant. And the eyes
The modulation element 7a includes an objective optical system as shown in FIG.
6, the optical axis is the Z axis, and the X and Y axes are in a plane orthogonal to the Z axis.
Then Z = A (X Three + Y Three ) Free-form surface
In this embodiment, it is assumed that A = 0.051.
You. FIG. 2 shows the image pickup unit 20 shown in FIG.
Table 1 shows the lens data. The focal length of this optical system is 1.
61mm, F-number is 8.722, aperture stop
8 is on the sixth surface, and the free-form surface of the pupil modulator 7a is on the seventh surface.
Equivalent to. [Table 1] As shown in FIG. 3A, the aperture stop 8 has a square opening.
It has a mouth shape with a side of 0.408 mm.
Also, the X axis of the pupil modulation element 7a and the square of the aperture stop 8
One side of the opening is arranged to be parallel. Further, the X axis of the pupil modulation element 7a is fixed.
Horizontal (scanning) direction of the pixel array of the body image sensor 5 (on the monitor
And the Y-axis of the solid-state imaging device 5
In the vertical direction (perpendicular to the scanning direction) of the pixel
(Vertical direction) and parallel to the optical axis (Z axis).
It is positioned in the direction of rotation. The camera controller 2 operates as shown in FIG.
The image signal from the connected endoscope 1 to a digital signal
An A / D converter 9 for converting the digital signal into an image
A signal conversion unit 10 for converting the video signal into a signal;
D / A converter for converting to an analog signal that can be displayed by data 4
11 and a processing circuit 12 outside the depth of field.
You. The processing circuit 12 outside the depth of field is shown in FIG.
Not according to operation signal from user interface, before
A control circuit for determining whether to apply image processing to the video signal
Path 25 and cut off the video signal according to the judgment of the control circuit 25.
And a video signal from the switch 26.
To perform processing corresponding to the pupil modulation element 7a
And an image processing circuit 27. The image processing circuit 27 filters the video signal.
This is a circuit for performing data processing, for example, when the object distance is 3 mm to 4 mm.
of light by the objective optical system 6 including the pupil modulation element 7a in mm
Response of the biological transfer function and the pupil modulation element 7a
Image processing for restoring asymmetric aberration (blur) generated
It is to do the processing. Here, if the response of the optical transfer function is
Use filter processing to restore asymmetrical aberrations
The optical transfer function of the objective optical system 6 and the pupil modulation element 7a is
Calculated by simulation and based on the results
You just need to do it. Restore optical transfer function response
For example, when using a digital circuit,
Using an asymmetric digital filter corresponding to the tuning element 7a
Can be (Operation) Pupil modulation element 7a having the above-mentioned shape
Is exp {i for parallel light having a wavelength of 587.56 nm.
× 2.414 (X Three + Y Three ) /0.204 Three } Phase modulation
Do. First, a diagram having no processing circuit outside the depth of field
The camera controller 117 shown in FIG.
Out-of-field processing circuit mounted in the controller 2
When the image processing by the image processing circuit 27 is not performed in step 12,
The case will be described. The object to be observed is the pupil modulation element 7a.
Through the objective optical system, including the solid with the pixel pitch of 7 μm
An image is formed on the light receiving surface on the image sensor 5 and the solid-state image sensor 5
Is converted into an electric signal (image signal). The electrical signal is
A / D conversion in camera controller 2 (or 117)
The signal is converted into a digital signal by the converter 9,
Is converted to a video signal. The video signal is a D / A converter
11 converts to analog signal that can be displayed on monitor 4
Then, the subject is displayed on the monitor 4. With respect to the imaging unit 20, an object distance of 1
Point image on the light receiving surface of the solid-state imaging device 5 at a position of 3.5 mm
Make the area of the intensity distribution function (PSF) the smallest
The focus was adjusted. The object distance at this time is 71 m
m, 13.5 mm, 7.2 mm, 4 mm, 3 mm
Point image on the light receiving surface of the solid-state imaging device 5 and each object
About the response of the optical transfer function on the optical axis at body distance.
Using the optical simulation software Code-V (product name)
And did the calculations. As a result, the solid-state image sensor at each object distance
The area of the point image on the photodetector surface is 22 μm on each side.
m, 14 μm, 20 μm, 31 μm, 50 μm
It was obtained as a point image of a size within a rectangular area. The point image
The light receiving surface of the solid-state imaging device is set to an XY plane, and each pixel is
FIG. 5 shows the results obtained when the intensity (percent) of light in the Z-axis is used.
To FIG. Also, the optics on the optical axis at each object distance
FIG. 10 shows the calculation result of the response of the dynamic transfer function. FIG. 5 shows a pupil modulator according to the first embodiment.
Obtained when the object distance of the imaging unit including the child is 71 mm
Figure for explaining the simulation result of the point image
is there. FIG. 6 includes a pupil modulation element according to the first embodiment.
Obtained at an object distance of 13.5 mm in the imaging unit
FIG. 9 is a diagram for explaining a simulation result of a point image.
You. FIG. 7 includes a pupil modulation element according to the first embodiment.
Points obtained when the object distance in the imaging unit is 7.2 mm
FIG. 9 is a diagram for explaining a simulation result of an image.
FIG. 8 shows an imaging including a pupil modulation element according to the first embodiment.
Spot image spots obtained when the object distance at the unit is 4 mm
FIG. 9 is a diagram for explaining a simulation result. FIG.
Imaging unit including pupil modulation element showing first embodiment
Simulation of point images obtained when the object distance is 3 mm
FIG. 9 is a diagram for explaining the result of the installation. Figure 10 shows these
Of the optical transfer function on the optical axis at various object distances
FIG. 9 is a diagram for explaining a calculation result of FIG. In FIGS. 5 to 9, the XY plane is a solid-state image sensor.
It corresponds to the light receiving surface of the element, and the Z axis is the light intensity (percent).
is there. Here, the X axis indicates the pixel numbers of 1, 2, 3,.
, And the Y axis indicates the pixel number by 1, 2, 3,....
Note that the XYZ axes have the same meaning in FIGS.
The taste. In FIG. 10, A is an object distance of 71 m.
m and B are an object distance of 13.5 mm, and C is an object distance of 7.2 m
m and D are when the object distance is 4 mm, and E is when the object distance is 3 mm.
The response of each optical transfer function. In addition,
The same applies to FIG. When the object distance is 13.5 mm, the point image is
One side is a 14 μm square area, that is, a pixel pitch of 7 μm
One side of the solid-state imaging device 5 is equivalent to 2 pixels and 4 pixels in area.
And a point image having a light intensity distribution shown in FIG.
Is obtained. Also, the object distance is 71 mm, 7.2 m
m, 4 mm, and 3 mm, each side image has 2 sides.
2 μm, 20 μm, 31 μm, 50 μm, that is, one side
Are 3.1 pixels, 2.9 pixels, 4.4 pixels, 7.1
5 and 7 to 9 in a square area corresponding to pixels.
Obtained as a point image having a light intensity distribution. Further, a solid-state image pickup device having a pixel pitch of 7 μm
5, the Nyquist frequency is 71 line pairs / mm.
However, as shown in FIG. 10, the object distance is 4 mm.
Of the optical transfer function at the Nyquist frequency in Japan
It can be seen that the resolution is 0.2 or more, and resolution is achieved.
When the object distance is 3 mm, the Nyquist frequency
The response of the optical transfer function at
Is not resolved. As a comparative example, the imaging unit 20 shown in FIG.
The pupil modulation element 7a is replaced by a parallel plate made of the same material.
The case of a normal optical system will be described. The ordinary optical system
The lens data of Table 7 shows the shape of the seventh surface in Table 1
It has been changed to a surface. The pupil modulation element 7a is arranged
Object distance 1 as in the case of
A point on the light receiving surface of the solid-state imaging device 5 at a position of 3.5 mm
The area of the image intensity distribution function (PSF) is the smallest
The focus was adjusted as follows. The object distance at this time is 71 m
m, 13.5mm, 7.2mm, 4mm
The point image on the light receiving surface of the body image sensor 5 and each object distance
The response of the optical transfer function on the optical axis of
Calculation using simulation software Code-V (product name)
Was performed. As a result, the solid-state image sensor at each object distance
The area of the point image on the photodetector surface is 16 μm on each side.
m, 1 μm, 14 μm, 36 μm
Was obtained as a point image of the size. Solid for the point image
The light receiving surface of the image sensor is an XY plane, and the light intensity at each pixel is
FIG. 11 to FIG. 1 show the results in which the degree (percent) is set on the Z axis.
It is shown in FIG. In addition, the optical transmission function on the optical axis at each object distance
The response of the numbers is shown in FIG. FIG. 11 shows an image pickup in a normal objective optical system.
Of point images obtained when the object distance of the unit is 71 mm
FIG. 9 is a diagram for explaining a simulation result. FIG.
Is the object distance of the imaging unit in a normal objective optical system.
Simulation of point image obtained at 13.5 mm separation
It is a figure for explaining a result. FIG. 13 shows a normal objective.
The object distance of 7.2 mm in the imaging unit in the optical system
Explain the simulation results of point images that are sometimes obtained.
FIG. FIG. 14 shows an image taken by a normal objective optical system.
Of point images obtained when the object distance in the image unit is 4 mm
FIG. 9 is a diagram for explaining a simulation result. FIG.
In A, A is the object distance of 71 mm, and B is the object distance of 13.
5mm, C is 7.2mm object distance, D is 4mm object distance
Is the response of the optical transfer function at the time. When the object distance is 13.5 mm, the point image is
A square area with one side of 1 μm, that is, a fixed area with a pixel pitch of 7 μm
One side of the body image sensor corresponds to one pixel, and the area corresponds to one pixel.
A point image having the light intensity distribution shown in FIG.
Obtained. Also, the object distance is 71 mm, 7.2 mm,
The point images in the case of 4 mm are 16 μm on one side and 14 μm on each side.
μm, 36 μm, that is, 2.3 pixels on one side, 2 pixels
11 and 1 in a square area corresponding to 5.1 pixels.
Obtained as point images having light intensity distributions shown in 3 and 14.
It is. Further, as shown in FIG.
Response of the optical transfer function at 0.2 GHz
Becomes that the object distance is not less than 7.2 mm and less than 71 mm
It turns out that it is. Next, the endoscope 1 including the pupil modulation element 7a is
Camera controller having out-of-field processing circuit 12
Connecting to 2 and further expanding the depth of field
explain. The object distance to the subject is less than 4 mm
When resolution is no longer possible, the endoscope operator
User (not shown) such as flash switch and foot switch
When the switching operation is performed via the interface,
Control signal from control circuit 25 in processing circuit 12 outside the depth of field
Switch 26 connects the video signal to image processing circuit 27
Work to do. Pupil modulation when the object distance is 3mm to 4mm open
Of the optical transfer function by the objective optical system 6 including the element 7a.
Sponge and non-light generated by the pupil modulator 7a.
Image processing configured to restore symmetric aberrations (blur)
The circuit 27 is configured to apply an optical signal to the unresolved video signal.
Response of the biological transfer function is 0.2 or more and asymmetric
Works to reduce various aberrations. The restored video signal
Is an image resolved on the monitor 4 through the D / A converter 11.
It is displayed as an image. (Effect) As described above, the pupil modulator 7a
Is replaced with a conventional endoscope 111 (see FIG. 30)
When connected to the camera controller 117 (see FIG. 30)
If the object distance is closer than 7.2 mm, the Nyquist circumference
Response of optical transfer function at wave number from 0.2
It is not resolved because it is lower. On the other hand, pupil modulation in the present embodiment
The endoscope 1 including the element 7a is replaced with a conventional camera controller 1
17 (see FIG. 30), when the object distance is 4 mm
Also the response of the optical transfer function at the Nyquist frequency
Resolution is greater than 0.2
You. Further, the phase change by the pupil modulation element 7a is performed.
The adjustment amount α is set to a sufficiently small value of 2.414.
Therefore, the response of the optical transfer function is 0.2 or more.
Generated by the pupil modulation terminal 7a within a given depth of field.
Asymmetrical aberration (blur) is at most several pixels
Symmetric aberration is at a level that cannot be recognized on the monitor 4.
For this reason, a special image processing circuit is not required.
Also, it can be seen that the depth of field is expanded. Further, the pupil modulation element in the present embodiment
The endoscope 1 including the endoscope 7a includes a processing circuit 12 outside the depth of field.
When connected to the camera controller 2
Optical transfer function at object distance less than 4 mm by path 27
Response can be restored.
Resolution of less than 4 mm apart and asymmetrical aberration (blur)
It is possible to obtain a small image. With this,
Can increase the depth of field and improve image quality
It works. Here, in the present embodiment, the solid-state imaging device
Pixel pitch of 7μm, but limited to this
Instead, the area of the point image on the light-receiving surface of the solid-state
The size of the point image at the bin position
The side is equivalent to two pixels of the pixel pitch and the area is equivalent to four pixels
The aperture size of the aperture stop 8 and the pupil modulation element 7a
By adjusting the shape of the
It works. Further, in this embodiment, the solid-state image pickup device
Focus point where the area of the point image on the
The size of the point image to be projected is determined by the pixel pitch of one side of the solid-state
Was adjusted to be 2 pixels and 4 pixels in area.
Or, the size of the point image should be
If the product is 36 pixels, the pupil modulation element
Has a modulation coefficient α of 7.243 at an object distance of 4 mm
The response of the optical transfer function is 0.2 or more, and
The size of a point image at an object distance of 4 mm is about 8 pixels on one side
Degree, the same depth of field is possible.
You. In this embodiment, the pupil modulator 7a is made of glass.
Although a material is used, a resin material may be used. Also,
In the present embodiment, the pupil modulation element 7a is an optically transparent glass.
Optical fiber that transmits only specific wavelengths
A filter material may be used. The pupil modulation element 7a according to the present embodiment
The shape is the conversion amount of the optical transfer function in the X-axis direction and the Y-axis direction.
The conversion amount is different in the X-axis direction and the Y-axis direction.
May be adopted. For example, the aperture shape of the aperture stop 8
May be set to a rectangle, or the free tune of the pupil modulation element 7a.
Use different coefficients for the surface shape in the X-axis direction and Y-wheel direction.
Is also good. The same applies to the case where the aperture stop 8 is circular.
The same effects can be obtained. In this case, the aperture stop 8 and the pupil change
It is not necessary to adjust the rotation direction with respect to the optical axis with the adjusting element 7a.
There is an effect that. The aperture stop 8 is a pupil modulation element.
It does not have to be separate from 7a.
It may be formed more directly. FIG. 16 shows a second embodiment of the present invention.
Camera controller (signal processing device) according to the embodiment
FIG. 3 is a block diagram illustrating a configuration of (a). (Structure) The second embodiment is similar to the first embodiment.
Since it is almost the same as the form, only the differences are explained
The same components are denoted by the same reference numerals, and description thereof is omitted. In this embodiment, the basic configuration is the first embodiment.
The signal processing in the camera controller is the same as that of the embodiment.
The logic circuit is different. The following description focuses on the differences.
You. FIG. 16 shows a camera according to the second embodiment.
FIG. 2 shows a schematic diagram of a controller. The camera controller 2a of the present embodiment
Has a configuration as shown in FIG. 16 and is connected to an endoscope.
A / D conversion for converting an image signal from 1 into a digital signal
And a signal converter for converting the digital signal into a video signal.
Conversion unit 10 and an analyzer capable of displaying the video signal on the monitor 4.
D / A converter 11 for converting to a log signal, and brightness of the subject
Automatic dimming control for controlling the amount of light emitted from the light source device 3 according to the
Road 31 and the processing circuit 12a outside the depth of field
I have. The processing circuit 12a outside the depth of field has an automatic light control.
The distance to the object is determined from the dimming signal from the circuit 31,
Control for determining whether to perform image processing on the video signal
The circuit 25 and the control circuit 41 determine that the video signal is turned off.
A switching unit 26 for performing switching, and an image from the switching unit 26
Processing corresponding to the pupil modulation element 7a is performed on the signal
An image processing circuit unit 32 having a plurality of image processing circuits
Is done. The image processing circuit section 32 processes the video signal
It is a circuit part that performs filter processing, and changes the pupil according to the object distance.
Of the optical transfer function by the objective optical system 6 including the tuning element 7a
Response and generated by the pupil modulation element 7a
Performs image processing to restore asymmetric aberration (blur)
is there. For example, in the present embodiment, the image processing
In the logic circuit section 32, the object distance between 3 mm and 4 mm is restored.
Image processing circuit 32a, object distance between 2 mm and 3 mm
Processing circuit 32b for restoring the object, object distance 71 mm or more
An image processing circuit 32c for restoring is provided. Here, if the response of the optical transfer function is
Use filter processing to restore asymmetrical aberrations
At each object distance by the objective optical system 6 and the pupil modulation element 7a
Optical transfer function is calculated by simulation, and
What is necessary is just to create based on the result of. (Operation) Endoscope 1 including pupil modulation element 7a
A camera controller having a processing circuit 12a outside the depth of field.
Connected to the roller 2a to increase the depth of field.
Will be explained. The signal conversion section 10 outputs a luminance signal as a video signal.
Y and two color difference signals RY and BY are generated. Automatic adjustment
The optical circuit 31 compares the luminance signal Y with the reference signal level.
And the amount of light emitted from the light source device 3 according to the magnitude of the luminance signal Y.
To generate a dimming signal for controlling The control circuit 25 operates based on the dimming signal.
The body distance is determined, and the switch 26 is controlled to output the video signal to the object.
Connected to the image processing circuit of the image processing circuit unit 32 according to the distance
Work to do. The video signal is sent to the image processing circuit 32.
Is subjected to the desired restoration process, and
It is projected on 4. First, the object distance is longer than the depth of field.
The case will be described in detail. Object distance or far away
Automatic dimming when the level of the luminance signal Y decreases due to the foot
The circuit 31 instructs the light source device 3 to increase the amount of emitted light.
Generate a signal. This dimming signal is connected to the light source device 3.
Connected to the control circuit 25,
The road 25 determines that the object distance has increased, and
26 to restore the video signal to an object distance of 71 mm or more
It is connected to the image processing circuit 32c of the image processing circuit unit 32. Then, the object distance is long and the optical transfer function
Of the video signal whose response has decreased
The restoration processing corresponding to the object distance of 71 mm or more by c
And restored to the resolved video. Next, when the object distance is shorter than the depth of field,
The case will be described in detail. The object distance is short and the illumination light is
If the luminance signal Y is too strong and rises to a level near the saturation level
In this case, the automatic light control circuit 31 sends a decrease in the amount of emitted light to the light source device 3.
Generates an instructed dimming signal. After receiving this dimming signal,
The control circuit 25 determines that the object distance is short, and switches.
The video signal is converted from the object distance of 3 mm to 4 mm
It is connected to the image processing circuit 32a to be restored. Then, as the object distance becomes shorter, the optical
The response of the transfer function decreases and can be recognized on the monitor 4.
The video signal with a large degree of asymmetric aberration (blurring)
Object distance 3 mm to 4 mm by image processing circuit 32a
Is restored to the resolved video.
You. Further, regarding the case where the object distance approaches
explain in detail. The object distance becomes even closer and the luminance signal
If the level of Y further rises, the automatic dimming circuit 34
A bright light signal for instructing further reduction of the output light amount is generated.
Upon receiving the dimming signal, the control circuit 25 further increases the object distance.
It is determined that the distance has come close, and the video signal is
Image processing circuit 32b for restoring 3 mm from 2 mm body distance
Connect to Then, the object distance is restored from 3 mm to 4 mm.
Optical transmission function that cannot be restored by the image processing circuit 32a
Number response decreased, asymmetric aberration (blur) occurred
For the video signal, the image processing circuit 32b has an object distance of 2 mm
To 3mm from the original image
Restore. (Effect) As described above, the endoscope system
Distance using an automatic dimming circuit generally prepared in Japan
Detection means and restoration processing according to the distance
Depth of field without the need for operation by the endoscope operator
Can be expanded. In addition, multiple
Number of restoration processes, so that
Improvement is possible. In this embodiment, the detection of the object distance is not performed.
This was performed using an automatic light control signal.
Distance measuring sensor that irradiates
A sensor may be used. In this case, accurate ranging is possible
And that the optimal image processing circuit can be reliably selected.
effective. The output of the video signal in the high frequency range is maximum.
The image processing circuit is switched so that
A method of selecting a processing circuit may be used. In this case,
The image processing circuit is selected so that the
Therefore, an effect of improving image quality can be expected. Further, the plurality of distance measuring means are combined.
To select the optimal image processing circuit
Becomes possible. In this embodiment, the image processing circuit is remote.
One type on the point side and two types on the near point side, but limited to this
Instead, multiple image processing circuits are provided according to the object distance
May be. Similarly, the image processing circuit in this case also has the object distance
Calculation of the optical transfer function according to the simulation
Then, it may be created based on the result. Further, in the present embodiment, a pupil modulation element is included.
One type of image processing circuit was described.
Is compatible with an objective optical system that includes multiple types of pupil modulation elements.
If an image processing circuit is provided in the camera controller,
For various types of endoscopes, the depth of field and the image quality
The above can be realized. At this time, it is mounted on the endoscope
Image processing corresponding to the objective optical system including the pupil modulator
Discriminating means for discriminating the type of each endoscope for selecting a road
Is provided to connect each endoscope to the camera controller.
When you continue, be sure to select the optimal image processing.
You can also. [Appendix] (Appendix 1) An optical image of the objective optical system is taken by a solid-state imaging device.
Multiple types of endoscopes for imaging and signals from the solid-state imaging device
Signal processing to convert video into video signals that can be displayed on a monitor
Electronic endoscope system used in combination with
In a stem, at least one endoscope objective light
The optical system has an optical phase modulation mask and the optical phase modulation mask.
The change in the optical transfer function according to the object distance is
Smaller than objective optics without optical phase modulation mask
And the signal processing device is arranged to
Optical transfer function modified by the optical phase modulation mask
Of the optical transfer function
Characterized in that it has a restoration processing means for processing
Endoscope system. In the electronic endoscope system according to the additional item 1, the light position
The objective optical system having the phase modulation mask is an optical phase modulation mask.
Object than the depth of field of the objective system without
The change of the optical transfer function according to the distance is reduced.
Works. An objective optical system having the optical phase modulation mask;
The image signal from the solid-state imaging device of the endoscope used is
In response to the separation, the light is restored by the restoration
Is projected on the screen. This makes it optimal for object distances
Image quality is obtained. (Appendix 2) The optical phase modulation mask is provided.
The response of the optical transfer function of the objective optical system is
When the objective optical system has no optical phase modulation mask,
The solid-state imaging over an object distance greater than the depth of field
Response is 0.2 or more up to the element's text frequency.
3. The electronic endoscope system according to claim 1, wherein
M In the electronic endoscope system according to additional item 2, the light position
Depending on the phase modulation amount of the phase modulation mask, the normal objective optical system
Optics modified by optical phase modulation mask compared to
Response of the solid-state image sensor is Nyquist
Since it is 0.2 or more up to the frequency, it can be used with a normal objective optical system.
Compare and resolve over a wide depth of field. This
Endoscope using an objective optical system with an optical phase modulation mask
An image processor that performs inverse conversion of the optical phase modulation mask also in the mirror
Signal processor for general endoscope systems
Connection is possible. (Additional Item 3) The solid-state imaging device receiving a point image
At the object distance where the area on the light surface is the smallest,
The point of the objective optical system of the endoscope having the optical phase modulation mask
The area W of the image on the light receiving surface of the solid-state image sensor is
When the pixel pitch of the child is P, W ≦ 36 × P Two Satisfies the following items.
Child endoscope system. In the electronic endoscope system according to additional item 3, the light position
The optical phase modulation mask depends on the phase modulation amount of the phase modulation mask.
Image sensor receiving optical transfer function of objective optical system
The area W of the point image on the light surface is W ≦ 36 × P Two It becomes. this
The optical system of the objective optical system having the optical phase modulation mask
The response of the transfer function is fixed over a wide range
It is 0.2 or more up to the Nyquist frequency of the body image sensor.
In addition, asymmetric blur caused by the optical phase modulation mask
Is only a few pixels of the solid-state
Optical transfer functions such as asymmetric digital filters
No original means is required. (Additional Item 4) The optical phase modulation mask is
When the optical axis of the objective optical system is the Z axis,
When the two axes are X and Y, the light having a wavelength of 587.56 nm
For exp {i × α (X Three + Y Three )} (However, | X | ≦ 1, |
Y | ≦ 1), and the coefficient α is 8 or less.
Any of the additional items 1, 2 and 3 characterized in that
3. The electronic endoscope system according to claim 1. In the electronic endoscope system according to additional item 4, the light position
The phase converted by the phase modulation mask is
When the optical axis of the system is the Z axis, two axes orthogonal to each other are X,
Assuming that Y is ex for light having a wavelength of 587.56 nm,
p {i × α (X Three + Y Three )}, The coefficient α is 8 or less.
You. Due to this, it was changed by the optical phase modulation mask
Response of optical transfer function or Nyquist of solid-state image sensor
Up to a frequency of 0.2 g. (Appendix 5) Nike of the solid-state imaging device
The response of the optical transfer function is 0.
At an object distance of 2 or more, it depends on the phase modulation mask.
Without performing the optical transfer function restoration process,
At an object distance where the number response is less than 0.2,
A plurality of optical transfer function restoration processes according to the object distance;
3. The electronic endoscope system according to claim 2, wherein
Tem. In the electronic endoscope system according to additional item 5,
The optical transmission function up to the Nyquist frequency of the solid-state imaging device
At object distances where the number response is greater than 0.2, the optical phase
Without performing the optical transfer function restoration means according to the modulation mask,
An optical transfer function having a response less than 0.2.
In body distance, optical transfer function restoration according to the object distance
Perform processing. Light the endoscope having the optical phase modulation mask
Connected to a signal processing circuit that does not have
If so, the depth of field is increased. Further, the optical phase
Has optical transfer function restoration means corresponding to the modulation mask
When connected to a signal processing circuit, the depth of field can be further expanded.
Larger and higher resolution image quality can be obtained. (Appendix 6) The optical image of the objective optical system is
A plurality of types of endoscopes for imaging with an imaging device, and the solid-state imaging
Converts signals from devices to video signals that can be displayed on a monitor
Used in combination with multiple signal processing devices
In a Ryuko endoscope system, at least one endoscope is provided.
Has an optical phase modulation mask, and the optical phase
Modulation mask changes optical transfer function with object distance
Is less than the objective optical system without the optical phase modulation mask.
The optical phase modulation mask acts so as to be small.
Of the optical transfer function of the objective optical system having
Is an objective optical system having no optical phase modulation mask
Over an object distance greater than the depth of field of the solid
Response is 0.2 or less up to the Nyquist frequency of the image sensor
And the signal processing device is configured to
For the optical transfer function modified by the modulation mask,
Performing multiple optical transfer function restoration processes according to body distance
Source processing means, wherein the restoration processing means
Response of the optical transfer function up to the Nyquist frequency of the
At an object distance where the
The optical transfer function is not restored according to the
Distance where the response of the dynamic transfer function is less than 0.2
A plurality of optical transfer function decoding according to the object distance.
An electronic endoscope system characterized by performing original processing. In the electronic endoscope system according to the additional item 6, the light position
The objective optical system having the phase modulation mask is an optical phase modulation mask.
Than the depth of field of a normal objective without
The change of the optical transfer function according to the distance is reduced.
Works. Before the Nyquist frequency of the solid-state imaging device
Object distance with an optical transfer function response of 0.2 or more
In the separation, optical transfer function restoration according to the optical phase modulation mask
No measure is taken, and the response of the optical transfer function is 0.
At an object distance of less than 2, the optics corresponding to the object distance
Subject to dynamic transfer function restoration processing. Having the optical phase modulation mask
Signal processing without optical transfer function restoring means.
When connected to a physical circuit, the depth of field is increased. Further
The optical transfer function corresponding to the optical phase modulation mask
If connected to a signal processing circuit with
The depth of field can be increased, and a high-resolution image can be obtained. (Additional Item 7) Including the optical phase modulation mask
The aperture shape of the aperture stop used in the objective optical system is circular.
The item described in Appendix 1 or 6
On-board electronic endoscope system. (Appendix 8) Object Distance for Detecting Object Distance
Separation detecting means, wherein the restoration processing means detects the object distance.
Switch according to the object distance detected by the
Having a plurality of optical transfer function restoration processing circuits
7. The electronic endoscope according to claim 1 or 6, characterized in that:
system. In the electronic endoscope system according to additional item 8, the object
Optics automatically according to object distance by distance detection means
Special operation because the selective transfer function restoration processing circuit is selected
It is possible to increase the depth of field and improve image quality without the need for
You. (Additional Item 9) The object distance detecting means may include:
For automatic dimming using the image signal from the solid-state image sensor
It is a means to detect the distance by the dimming signal of
9. The electronic endoscope system according to claim 8, wherein In the electronic endoscope system according to additional item 9, the object
By utilizing the relationship between distance and brightness, a general endoscope system can be used.
Detects object distance using automatic light control mounted on the
You. (Appendix 10) Output of high frequency range of image pickup signal
Restoring the plurality of optical transfer functions so that the force is maximized
Item 8 is characterized in that the processing circuit is switched.
Electronic endoscope system. In the electronic endoscope system according to the additional item 10, imaging is performed.
The optical transmission function is designed to maximize the output of the image signal in the high frequency range.
Switching of the number restoration processing circuit makes it possible to obtain high-quality video.
It is. The present invention is limited to the above embodiment.
It does not change the gist of the present invention.
Thus, various changes and modifications can be made. According to the present invention as described above,
Restoration processing according to the optical phase modulation mask arranged in the endoscope optical system
Phase modulation in a signal processor without
Even if an endoscope with a mask is connected, the depth of field will increase.
Large and high-resolution images can be generated, and optical phase shift
Restoration processing means according to the tone mask
Endoscope with optical phase modulation mask
The depth of field, and the height
There is an effect that a resolution image can be generated.

【図面の簡単な説明】 【図1】本発明の第1の実施の形態に係る内視鏡システ
ムの概略の構成を示す構成図 【図2】図1の光位相変調マスクを含む撮像ユニットの
構成を説明するための図 【図3】図2の明るさ絞りを配置した瞳変調素子の構造
を説明するための概略説明図 【図4】図1のカメラコントローラ(信号処理装置)の
構成を示すブロック図 【図5】図2の瞳変調素子を含む撮像ユニットの物体距
離71mmのときに得られる点像のシミュレーション結
果を説明するための図 【図6】図2の瞳変調素子を含む撮像ユニットの物体距
離13.5mmのときに得られる点像のシミュレーショ
ン結果を説明するための図 【図7】図2の瞳変調素子を含む撮像ユニットの物体距
離7.2mmのときに得られる点像のシミュレーション
結果を説明するための図 【図8】図2の瞳変調素子を含む撮像ユニットの物体距
離4mmのときに得られる点像のシミュレーション結果
を説明するための図 【図9】図2の瞳変調素子を含む撮像ユニットの物体距
離3mmのときに得られる点像のシミュレーション結果
を説明するための図 【図10】図2の瞳変調素子を含む撮像ユニットの各物
体距離の光学的伝達関数のレスポンスのシミュレーショ
ン結果を説明するための図 【図11】通常の光学系における図2の撮像ユニットの
物体距離71mmのときに得られる点像のシミュレーシ
ョン結果を説明するための図 【図12】通常の光学系における図2の撮像ユニットの
物体距離13.5mmのときに得られる点像のシミュレ
ーション結果を説明するための図 【図13】通常の光学系における図2の撮像ユニットの
物体距離7.2mmのときに得られる点像のシミュレー
ション結果を説明するための図 【図14】通常の光学系における図2の撮像ユニットの
物体距離4mmのときに得られる点像のシミュレーショ
ン結果を説明するための図 【図15】通常の光学系における図2の撮像ユニットの
各物体距離についての光学的伝達関数のレスポンスのシ
ミュレーション結果を説明するための図 【図16】本発明の第2の実施の形態に係るカメラコン
トローラ(信号処理装置)の構成を示すブロック図 【図17】従来例による拡大被写界深度光学系の構成を
概略的に示す図 【図18】従来例によるキュービック位相変調マスクの
外観形状を説明するための図 【図19】通常の光学系において物体が焦点位置にある
ときの光学的伝達関数(OTF)のレスポンスを示すグ
ラフ 【図20】通常の光学系において物体が焦点位置から外
れたときの光学的伝達関数(OTF)のレスポンスを示
すグラフ 【図21】通常の光学系において物体が焦点位置から図
20のときよりも更に外れたときの光学的伝達関数(O
TF)のレスポンスを示すグラフ 【図22】拡大被写界深度光学系において物体が焦点位
置にあるときの光学的伝達関数(OTF)のレスポンス
を示すグラフ 【図23】拡大被写界深度光学系において物体が焦点位
置から外れたときの光学的伝達関数(OTF)の強度分
布を示すグラフ 【図24】拡大被写界深度光学系において物体が焦点位
置から図23のときよりも更に外れたときの光学的伝達
関数(OTF)のレスポンスを示すグラフ 【図25】拡大被写界深度光学系において光学的伝達関
数(OTF)のレスポンスに対して行なわれる処理の逆
フィルタの特性を示すグラフ 【図26】図22の光学的伝達関数(OTF)のレスポ
ンスに対して図25の特性を持つ逆フィルタによる処理
を行なって得られる光学的伝達関数(OTF)のレスポ
ンスを示すグラフ 【図27】図23の光学的伝達関数(OTF)のレスポ
ンスに対して図25の特性を持つ逆フィルタによる処理
を行なって得られる光学的伝達関数(OTF)のレスポ
ンスを示すグラフ 【図28】図24の光学的伝達関数(OTF)のレスポ
ンスに対して図25の特性を持つ逆フィルタによる処理
を行なって得られる光学的伝達関数(OTF)のレスポ
ンスを示すグラフ 【図29】複数種の内視鏡を接続し、被写体の画像をモ
ニタで観察するための従来の内視鏡システムの概略の構
成を示す構成図 【図30】図29の従来のカメラコントローラの構成を
示すブロック図 【符号の説明】 1…内視鏡 2…カメラコントローラ(信号処理装置) 3…光源装置 4…モニタ 5…固体撮像素子 6…対物光学系 7…位相変調マスク 7a…瞳変調素子 8…明るさ絞り 9…A/D変換部 10…信号変換部 11…D/A変換部 12…被写界深度外処理回路 20…撮像ユニット 25…制御回路 26…切換器 27…画像処理回路 代理人 弁理士 伊藤 進
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a configuration diagram showing a schematic configuration of an endoscope system according to a first embodiment of the present invention. FIG. 2 is a diagram showing an imaging unit including an optical phase modulation mask of FIG. FIG. 3 is a schematic diagram for explaining the structure of the pupil modulation element in which the brightness stop of FIG. 2 is arranged. FIG. 4 is a diagram showing the structure of the camera controller (signal processing device) of FIG. FIG. 5 is a diagram illustrating a simulation result of a point image obtained when the object distance of the imaging unit including the pupil modulation element of FIG. 2 is 71 mm. FIG. 6 is an imaging including the pupil modulation element of FIG. FIG. 7 is a diagram for explaining a simulation result of a point image obtained when the object distance of the unit is 13.5 mm. FIG. 7 is a point image obtained when the object distance of the imaging unit including the pupil modulation element of FIG. 2 is 7.2 mm. The simulation results of FIG. 8 is a diagram for explaining a simulation result of a point image obtained when an object distance of an imaging unit including the pupil modulation device of FIG. 2 is 4 mm. FIG. 9 is a diagram illustrating the pupil modulation device of FIG. FIG. 10 is a diagram for explaining a simulation result of a point image obtained when the object distance of the imaging unit including the imaging unit is 3 mm. FIG. 10 is a simulation of a response of an optical transfer function of each object distance of the imaging unit including the pupil modulation element of FIG. FIG. 11 is a diagram for explaining a result. FIG. 11 is a diagram for explaining a simulation result of a point image obtained when the object distance of the imaging unit in FIG. 2 is 71 mm in a normal optical system. FIG. 13 is a diagram for explaining a simulation result of a point image obtained when the object distance of the imaging unit in FIG. 2 is 13.5 mm. FIG. 14 is a diagram for describing a simulation result of a point image obtained when the object distance of the image unit is 7.2 mm. FIG. 14 is a diagram illustrating a point image obtained when the object distance of the imaging unit in FIG. 2 is 4 mm in a normal optical system. FIG. 15 is a diagram illustrating a simulation result. FIG. 15 is a diagram illustrating a simulation result of a response of an optical transfer function with respect to each object distance of the imaging unit in FIG. 2 in a normal optical system. FIG. 17 is a block diagram illustrating a configuration of a camera controller (signal processing device) according to a second embodiment. FIG. 17 is a diagram schematically illustrating a configuration of an enlarged depth of field optical system according to a conventional example. FIG. 19 is a view for explaining the external shape of a cubic phase modulation mask. FIG. 19 is an optical transfer function (OTF) when an object is at a focal position in a normal optical system. FIG. 20 is a graph showing a response of an optical transfer function (OTF) when an object deviates from a focal position in an ordinary optical system. FIG. 21 is a graph showing an object from a focal position in an ordinary optical system. The optical transfer function (O
FIG. 22 is a graph showing a response of an optical transfer function (OTF) when an object is at a focal position in an enlarged depth-of-field optical system. FIG. 23 is an enlarged depth-of-field optical system. FIG. 24 is a graph showing the intensity distribution of the optical transfer function (OTF) when the object deviates from the focal position in FIG. 24. FIG. 24 shows when the object deviates further from the focal position in the enlarged depth of field optical system than in FIG. FIG. 25 is a graph showing the response of the optical transfer function (OTF) of FIG. 25. FIG. 25 is a graph showing the characteristics of the inverse filter of the processing performed on the response of the optical transfer function (OTF) in the enlarged depth of field optical system. 26. The optical transfer function (OTF) obtained by subjecting the response of the optical transfer function (OTF) of FIG. 22 to processing by an inverse filter having the characteristics of FIG. FIG. 27 is a graph showing the response of the optical transfer function (OTF) obtained by performing the processing of the optical transfer function (OTF) of FIG. 23 with the inverse filter having the characteristics of FIG. 28 is a graph showing the response of the optical transfer function (OTF) obtained by performing the processing of the optical transfer function (OTF) of FIG. 24 using the inverse filter having the characteristics of FIG. 25 on the response of the optical transfer function (OTF). FIG. 30 is a block diagram showing a schematic configuration of a conventional endoscope system for connecting a plurality of types of endoscopes and observing an image of a subject on a monitor. FIG. 30 is a block diagram showing a configuration of a conventional camera controller in FIG. 1 [Endoscope 2] Camera controller (signal processing device) 3 [Light source device 4] Monitor 5 [Solid-state image sensor 6] Objective optical system 7 [Phase modulation mask 7a] ... pupil modulation element 8 ... brightness stop 9 ... A / D converter 10 ... signal converter 11 ... D / A converter 12 ... depth of field processing circuit 20 ... imaging unit 25 ... control circuit 26 ... switch 27 … Image processing circuit agent Patent Attorney Susumu Ito

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/225 H04N 5/225 C 7/18 7/18 M (72)発明者 石井 広 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 平井 力 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 広谷 純 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 矢部 久雄 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 Fターム(参考) 2H040 BA01 CA22 CA23 GA02 2H087 KA10 LA01 PA03 PA18 PB04 QA01 QA07 QA18 QA21 QA25 QA37 QA41 QA45 RA42 RA43 4C061 BB01 CC06 FF40 HH28 LL02 NN05 PP11 SS21 TT12 5C022 AA09 AC51 5C054 CC07 EH00 HA12 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 5/225 H04N 5/225 C 7/18 7/18 M (72) Inventor Hiroshi Ishii Shibuya-ku, Tokyo 2-43-2 Hatagaya Olympus Optical Co., Ltd. (72) Inventor Riki Hirai 2-43-2 Hatagaya, Shibuya-ku, Tokyo Olimpus Optical Co., Ltd. (72) Inventor Jun Hiroya Shibuya-ku, Tokyo 2-43-2, Hatagaya Olympus Optical Co., Ltd. (72) Inventor Hisao Yabe 2-43-2, Hatagaya, Shibuya-ku, Tokyo F-term in Olympus Optical Co., Ltd. 2H040 BA01 CA22 CA23 GA02 2H087 KA10 LA01 PA03 PA18 PB04 QA01 QA07 QA18 QA21 QA25 QA37 QA41 QA45 RA42 RA43 4C061 BB01 CC06 FF40 HH28 LL02 NN05 PP11 SS21 TT12 5C022 AA09 AC51 5C054 CC07 EH00 HA12

Claims (1)

【特許請求の範囲】 【請求項1】 対物光学系の光学像を固体撮像素子にて
撮像する複数種の内視鏡と、前記固体撮像素子からの信
号をモニタに表示可能な映像信号に変換する複数の信号
処理装置とを、組み合わせて接続使用される電子内視鏡
システムにおいて、 少なくとも1つの前記内視鏡の対物光学系は、光位相変
調マスクを有し、 前記光位相変調マスクは、物体距離に応じた光学的伝達
関数の変化が、前記光位相変調マスクを持たない対物光
学系よりも小さくなるように作用するよう配置され、 前記信号処理装置は、前記光位相変調マスクにより変更
された光学的伝達関数に対し、物体距離に応じた複数の
光学的伝達関数復元処理を施す復元処理手段を有するこ
とを特徴とした電子内視鏡システム。
Claims: 1. A plurality of types of endoscopes for capturing an optical image of an objective optical system with a solid-state imaging device, and converting a signal from the solid-state imaging device into a video signal that can be displayed on a monitor. In an electronic endoscope system connected and used in combination with a plurality of signal processing devices, at least one objective optical system of the endoscope has an optical phase modulation mask, and the optical phase modulation mask is The change in the optical transfer function according to the object distance is arranged to act so as to be smaller than the objective optical system without the optical phase modulation mask, and the signal processing device is changed by the optical phase modulation mask. An electronic endoscope system, comprising: restoration processing means for performing a plurality of optical transfer function restoration processes according to an object distance on the optical transfer function.
JP2002045354A 2002-02-21 2002-02-21 Electronic endoscope system and signal processing apparatus for electronic endoscope system Expired - Fee Related JP3958603B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002045354A JP3958603B2 (en) 2002-02-21 2002-02-21 Electronic endoscope system and signal processing apparatus for electronic endoscope system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002045354A JP3958603B2 (en) 2002-02-21 2002-02-21 Electronic endoscope system and signal processing apparatus for electronic endoscope system

Publications (2)

Publication Number Publication Date
JP2003235794A true JP2003235794A (en) 2003-08-26
JP3958603B2 JP3958603B2 (en) 2007-08-15

Family

ID=27784310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002045354A Expired - Fee Related JP3958603B2 (en) 2002-02-21 2002-02-21 Electronic endoscope system and signal processing apparatus for electronic endoscope system

Country Status (1)

Country Link
JP (1) JP3958603B2 (en)

Cited By (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006022373A1 (en) * 2004-08-26 2006-03-02 Kyocera Corporation Imaging device and imaging method
WO2006106737A1 (en) * 2005-03-30 2006-10-12 Kyocera Corporation Imaging device and imaging method
WO2006106736A1 (en) * 2005-03-30 2006-10-12 Kyocera Corporation Imaging device, imaging system, and imaging method
WO2007013621A1 (en) * 2005-07-28 2007-02-01 Kyocera Corporation Imaging device and image processing method
JP2007060647A (en) * 2005-07-28 2007-03-08 Kyocera Corp Imaging apparatus and imaging method
WO2007046205A1 (en) 2005-10-18 2007-04-26 Kyocera Corporation Image pickup apparatus and image processing method
JP2007116261A (en) * 2005-10-18 2007-05-10 Kyocera Corp Imaging apparatus and imaging method
JP2007117758A (en) * 2006-12-25 2007-05-17 Kyocera Corp Biometric apparatus
WO2007063918A1 (en) * 2005-11-29 2007-06-07 Kyocera Corporation Imaging device and method thereof
WO2007074649A1 (en) 2005-12-27 2007-07-05 Kyocera Corporation Imaging device and its image processing method
JP2007181193A (en) * 2005-11-29 2007-07-12 Kyocera Corp Imaging apparatus and method thereof
JP2007206738A (en) * 2006-01-30 2007-08-16 Kyocera Corp Imaging device and method
JP2007259404A (en) * 2006-02-21 2007-10-04 Kyocera Corp Image pickup apparatus
JP2007267279A (en) * 2006-03-29 2007-10-11 Kyocera Corp Imaging device and image generating method thereof
JP2008011492A (en) * 2005-12-27 2008-01-17 Kyocera Corp Imaging device and its method
JP2008017157A (en) * 2006-07-05 2008-01-24 Kyocera Corp Imaging device, and its manufacturing device and method
JP2008028454A (en) * 2006-07-18 2008-02-07 Kyocera Corp Imaging apparatus
JP2008085697A (en) * 2006-09-28 2008-04-10 Kyocera Corp Image pickup device and its manufacturing device and method
JP2008109542A (en) * 2006-10-27 2008-05-08 Kyocera Corp Imaging apparatus, device and method for manufacturing the same
JP2008136144A (en) * 2006-11-29 2008-06-12 Kyocera Corp Imaging device, and manufacturing device and manufacturing method thereof
JP2008160484A (en) * 2006-12-22 2008-07-10 Kyocera Corp Imaging apparatus, and apparatus and method for manufacturing the same
JP2008219878A (en) * 2007-02-09 2008-09-18 Olympus Imaging Corp Decoding method, decoding device, decoding program and electronic camera
WO2008117766A1 (en) * 2007-03-26 2008-10-02 Fujifilm Corporation Image capturing apparatus, image capturing method and program
JP2008249911A (en) * 2007-03-29 2008-10-16 Fujifilm Corp Imaging apparatus, imaging method, and program
JP2009003455A (en) * 2007-06-25 2009-01-08 Ricoh Co Ltd Image processing system having image forming lens system
JP2009010783A (en) * 2007-06-28 2009-01-15 Kyocera Corp Imaging apparatus
JP2009008935A (en) * 2007-06-28 2009-01-15 Kyocera Corp Imaging apparatus
JP2009516256A (en) * 2005-11-10 2009-04-16 ディー−ブルアー テクノロジーズ リミティド Image enhancement in the mosaic domain
WO2009069752A1 (en) 2007-11-29 2009-06-04 Kyocera Corporation Imaging device and electronic apparatus
JP2009284943A (en) * 2008-05-27 2009-12-10 Fujinon Corp Capsule endoscope system
JP2010087862A (en) * 2008-09-30 2010-04-15 Fujifilm Corp Image processing apparatus, image processing method, image capturing apparatus, image capturing method, and program
JP2010162166A (en) * 2009-01-15 2010-07-29 Olympus Corp Image pickup device and endoscope apparatus using the same
US7944490B2 (en) 2006-05-30 2011-05-17 Kyocera Corporation Image pickup apparatus and method and apparatus for manufacturing the same
JP2011128238A (en) * 2009-12-16 2011-06-30 Fujitsu Ltd Imaging apparatus and information terminal device
US7978252B2 (en) 2005-03-30 2011-07-12 Kyocera Corporation Imaging apparatus, imaging system, and imaging method
US8044331B2 (en) 2006-08-18 2011-10-25 Kyocera Corporation Image pickup apparatus and method for manufacturing the same
US8059955B2 (en) 2006-09-25 2011-11-15 Kyocera Corporation Image pickup apparatus and method and apparatus for manufacturing the same
US8125537B2 (en) 2007-06-28 2012-02-28 Kyocera Corporation Image processing method and imaging apparatus using the same
US8149298B2 (en) 2008-06-27 2012-04-03 Kyocera Corporation Imaging device and method
JP2012113690A (en) * 2010-11-01 2012-06-14 Canon Inc Adjusting method, adjusting device, method of manufacturing optical system, imaging device, and method of manufacturing imaging device
US8223244B2 (en) 2007-03-26 2012-07-17 Fujifilm Corporation Modulated light image capturing apparatus, image capturing method and program
JP2012217090A (en) * 2011-04-01 2012-11-08 Kyocera Corp Imaging apparatus, imaging lens unit, and imaging unit
US8310583B2 (en) 2008-09-29 2012-11-13 Kyocera Corporation Lens unit, image pickup apparatus, electronic device and an image aberration control method
US8334500B2 (en) 2006-12-27 2012-12-18 Kyocera Corporation System for reducing defocusing of an object image due to temperature changes
US8363129B2 (en) 2008-06-27 2013-01-29 Kyocera Corporation Imaging device with aberration control and method therefor
WO2013042456A1 (en) 2011-09-21 2013-03-28 オリンパスメディカルシステムズ株式会社 Object optical assembly, image capture device, and endoscope
US8462213B2 (en) 2008-03-27 2013-06-11 Kyocera Corporation Optical system, image pickup apparatus and information code reading device
US8482637B2 (en) 2007-03-29 2013-07-09 Kyocera Corporation Imaging device and imaging method having zoom optical system including a light wavefront modulation element
US8502877B2 (en) 2008-08-28 2013-08-06 Kyocera Corporation Image pickup apparatus electronic device and image aberration control method
US8567678B2 (en) 2007-01-30 2013-10-29 Kyocera Corporation Imaging device, method of production of imaging device, and information code-reading device
US8860845B2 (en) 2010-04-21 2014-10-14 Fujitsu Limited Imaging apparatus and imaging method
US9237260B2 (en) 2012-05-16 2016-01-12 Kyocera Corporation Imaging apparatus, photographic lens unit, and imaging unit having an aberration control element for generating a predetermined aberration
JP2016218285A (en) * 2015-05-21 2016-12-22 株式会社リコー Lens unit and imaging device
EP3196686A2 (en) 2016-01-21 2017-07-26 Omron Corporation Optical system and photographing apparatus
EP3119264A4 (en) * 2014-03-18 2017-11-22 Integrated Medical Systems International, Inc. Optically adaptive endoscope
JP2019520897A (en) * 2016-06-15 2019-07-25 ケアストリーム・デンタル・テクノロジー・トプコ・リミテッド Intraoral imaging device with extended depth of field
WO2022091965A1 (en) * 2020-10-29 2022-05-05 工機ホールディングス株式会社 Work machine
CN114911036A (en) * 2022-05-18 2022-08-16 Oppo广东移动通信有限公司 Lens and electronic equipment

Cited By (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006022373A1 (en) * 2004-08-26 2006-03-02 Kyocera Corporation Imaging device and imaging method
US7978252B2 (en) 2005-03-30 2011-07-12 Kyocera Corporation Imaging apparatus, imaging system, and imaging method
WO2006106737A1 (en) * 2005-03-30 2006-10-12 Kyocera Corporation Imaging device and imaging method
WO2006106736A1 (en) * 2005-03-30 2006-10-12 Kyocera Corporation Imaging device, imaging system, and imaging method
JP2006311472A (en) * 2005-03-30 2006-11-09 Kyocera Corp Imaging apparatus, imaging system, and imaging method
JP2006311473A (en) * 2005-03-30 2006-11-09 Kyocera Corp Imaging device and imaging method
US7812296B2 (en) 2005-03-30 2010-10-12 Kyocera Corporation Imaging apparatus and method for generating an aberration free image
JP2007181170A (en) * 2005-07-28 2007-07-12 Kyocera Corp Imaging device
WO2007013621A1 (en) * 2005-07-28 2007-02-01 Kyocera Corporation Imaging device and image processing method
JP4712631B2 (en) * 2005-07-28 2011-06-29 京セラ株式会社 Imaging device
JP2007060647A (en) * 2005-07-28 2007-03-08 Kyocera Corp Imaging apparatus and imaging method
WO2007046205A1 (en) 2005-10-18 2007-04-26 Kyocera Corporation Image pickup apparatus and image processing method
JP2007116261A (en) * 2005-10-18 2007-05-10 Kyocera Corp Imaging apparatus and imaging method
JP2009516256A (en) * 2005-11-10 2009-04-16 ディー−ブルアー テクノロジーズ リミティド Image enhancement in the mosaic domain
JP2007181193A (en) * 2005-11-29 2007-07-12 Kyocera Corp Imaging apparatus and method thereof
US8350948B2 (en) 2005-11-29 2013-01-08 Kyocera Corporation Image device which bypasses blurring restoration during a through image
WO2007063918A1 (en) * 2005-11-29 2007-06-07 Kyocera Corporation Imaging device and method thereof
JP2008011492A (en) * 2005-12-27 2008-01-17 Kyocera Corp Imaging device and its method
JPWO2007074649A1 (en) * 2005-12-27 2009-06-04 京セラ株式会社 Imaging apparatus and image processing method thereof
WO2007074649A1 (en) 2005-12-27 2007-07-05 Kyocera Corporation Imaging device and its image processing method
JP4663737B2 (en) * 2005-12-27 2011-04-06 京セラ株式会社 Imaging apparatus and image processing method thereof
US8049798B2 (en) 2005-12-27 2011-11-01 Kyocera Corporation Imaging device and image processing method
JP2007206738A (en) * 2006-01-30 2007-08-16 Kyocera Corp Imaging device and method
JP2007259404A (en) * 2006-02-21 2007-10-04 Kyocera Corp Image pickup apparatus
JP2007267279A (en) * 2006-03-29 2007-10-11 Kyocera Corp Imaging device and image generating method thereof
JP4722748B2 (en) * 2006-03-29 2011-07-13 京セラ株式会社 Imaging apparatus and image generation method thereof
US7944490B2 (en) 2006-05-30 2011-05-17 Kyocera Corporation Image pickup apparatus and method and apparatus for manufacturing the same
US7916194B2 (en) 2006-07-05 2011-03-29 Kyocera Corporation Image pickup apparatus
JP2008017157A (en) * 2006-07-05 2008-01-24 Kyocera Corp Imaging device, and its manufacturing device and method
JP4693720B2 (en) * 2006-07-18 2011-06-01 京セラ株式会社 Imaging device
JP2008028454A (en) * 2006-07-18 2008-02-07 Kyocera Corp Imaging apparatus
US8044331B2 (en) 2006-08-18 2011-10-25 Kyocera Corporation Image pickup apparatus and method for manufacturing the same
US8059955B2 (en) 2006-09-25 2011-11-15 Kyocera Corporation Image pickup apparatus and method and apparatus for manufacturing the same
JP2008085697A (en) * 2006-09-28 2008-04-10 Kyocera Corp Image pickup device and its manufacturing device and method
US7885489B2 (en) 2006-09-28 2011-02-08 Kyocera Corporation Image pickup apparatus and method and apparatus for manufacturing the same
JP2008109542A (en) * 2006-10-27 2008-05-08 Kyocera Corp Imaging apparatus, device and method for manufacturing the same
JP2008136144A (en) * 2006-11-29 2008-06-12 Kyocera Corp Imaging device, and manufacturing device and manufacturing method thereof
JP2008160484A (en) * 2006-12-22 2008-07-10 Kyocera Corp Imaging apparatus, and apparatus and method for manufacturing the same
JP2007117758A (en) * 2006-12-25 2007-05-17 Kyocera Corp Biometric apparatus
JP4588015B2 (en) * 2006-12-25 2010-11-24 京セラ株式会社 Biometric authentication device
US8334500B2 (en) 2006-12-27 2012-12-18 Kyocera Corporation System for reducing defocusing of an object image due to temperature changes
US8567678B2 (en) 2007-01-30 2013-10-29 Kyocera Corporation Imaging device, method of production of imaging device, and information code-reading device
JP2008219878A (en) * 2007-02-09 2008-09-18 Olympus Imaging Corp Decoding method, decoding device, decoding program and electronic camera
WO2008117766A1 (en) * 2007-03-26 2008-10-02 Fujifilm Corporation Image capturing apparatus, image capturing method and program
US8223244B2 (en) 2007-03-26 2012-07-17 Fujifilm Corporation Modulated light image capturing apparatus, image capturing method and program
US8482637B2 (en) 2007-03-29 2013-07-09 Kyocera Corporation Imaging device and imaging method having zoom optical system including a light wavefront modulation element
JP2008249911A (en) * 2007-03-29 2008-10-16 Fujifilm Corp Imaging apparatus, imaging method, and program
JP2009003455A (en) * 2007-06-25 2009-01-08 Ricoh Co Ltd Image processing system having image forming lens system
JP2009010783A (en) * 2007-06-28 2009-01-15 Kyocera Corp Imaging apparatus
JP2009008935A (en) * 2007-06-28 2009-01-15 Kyocera Corp Imaging apparatus
US8125537B2 (en) 2007-06-28 2012-02-28 Kyocera Corporation Image processing method and imaging apparatus using the same
WO2009069752A1 (en) 2007-11-29 2009-06-04 Kyocera Corporation Imaging device and electronic apparatus
US8605192B2 (en) 2007-11-29 2013-12-10 Kyocera Corporation Imaging apparatus and electronic device including an imaging apparatus
US8462213B2 (en) 2008-03-27 2013-06-11 Kyocera Corporation Optical system, image pickup apparatus and information code reading device
JP2009284943A (en) * 2008-05-27 2009-12-10 Fujinon Corp Capsule endoscope system
US8363129B2 (en) 2008-06-27 2013-01-29 Kyocera Corporation Imaging device with aberration control and method therefor
US8149298B2 (en) 2008-06-27 2012-04-03 Kyocera Corporation Imaging device and method
US8773778B2 (en) 2008-08-28 2014-07-08 Kyocera Corporation Image pickup apparatus electronic device and image aberration control method
US8502877B2 (en) 2008-08-28 2013-08-06 Kyocera Corporation Image pickup apparatus electronic device and image aberration control method
US8310583B2 (en) 2008-09-29 2012-11-13 Kyocera Corporation Lens unit, image pickup apparatus, electronic device and an image aberration control method
JP2010087862A (en) * 2008-09-30 2010-04-15 Fujifilm Corp Image processing apparatus, image processing method, image capturing apparatus, image capturing method, and program
JP2010162166A (en) * 2009-01-15 2010-07-29 Olympus Corp Image pickup device and endoscope apparatus using the same
JP2011128238A (en) * 2009-12-16 2011-06-30 Fujitsu Ltd Imaging apparatus and information terminal device
US8860845B2 (en) 2010-04-21 2014-10-14 Fujitsu Limited Imaging apparatus and imaging method
JP2012113690A (en) * 2010-11-01 2012-06-14 Canon Inc Adjusting method, adjusting device, method of manufacturing optical system, imaging device, and method of manufacturing imaging device
US8928780B2 (en) 2010-11-01 2015-01-06 Canon Kabushiki Kaisha Adjustment method, adjustment apparatus, method of manufacturing optical system, image pickup apparatus, and method of manufacturing image pickup apparatus
JP2012217090A (en) * 2011-04-01 2012-11-08 Kyocera Corp Imaging apparatus, imaging lens unit, and imaging unit
US8976286B2 (en) 2011-04-01 2015-03-10 Kyocera Corporation Imaging apparatus, lens unit, and imaging unit
EP2759862A4 (en) * 2011-09-21 2015-05-06 Olympus Medical Systems Corp Object optical assembly, image capture device, and endoscope
WO2013042456A1 (en) 2011-09-21 2013-03-28 オリンパスメディカルシステムズ株式会社 Object optical assembly, image capture device, and endoscope
CN103608713A (en) * 2011-09-21 2014-02-26 奥林巴斯医疗株式会社 Object optical assembly, image capture device, and endoscope
US8988516B2 (en) 2011-09-21 2015-03-24 Olympus Medical Systems Corp. Imaging device and endoscope
JP5373228B2 (en) * 2011-09-21 2013-12-18 オリンパスメディカルシステムズ株式会社 Imaging apparatus and endoscope
CN103608713B (en) * 2011-09-21 2016-08-17 奥林巴斯株式会社 Objective lens optical system, filming apparatus and endoscope
US9237260B2 (en) 2012-05-16 2016-01-12 Kyocera Corporation Imaging apparatus, photographic lens unit, and imaging unit having an aberration control element for generating a predetermined aberration
EP3119264A4 (en) * 2014-03-18 2017-11-22 Integrated Medical Systems International, Inc. Optically adaptive endoscope
JP2016218285A (en) * 2015-05-21 2016-12-22 株式会社リコー Lens unit and imaging device
EP3196686A2 (en) 2016-01-21 2017-07-26 Omron Corporation Optical system and photographing apparatus
JP2017129790A (en) * 2016-01-21 2017-07-27 オムロン株式会社 Optical system and image capturing device
US10194076B2 (en) 2016-01-21 2019-01-29 Omron Corporation Optical system and photographing apparatus
JP2019520897A (en) * 2016-06-15 2019-07-25 ケアストリーム・デンタル・テクノロジー・トプコ・リミテッド Intraoral imaging device with extended depth of field
WO2022091965A1 (en) * 2020-10-29 2022-05-05 工機ホールディングス株式会社 Work machine
CN114911036A (en) * 2022-05-18 2022-08-16 Oppo广东移动通信有限公司 Lens and electronic equipment

Also Published As

Publication number Publication date
JP3958603B2 (en) 2007-08-15

Similar Documents

Publication Publication Date Title
JP2003235794A (en) Electronic endoscopic system
JP3791777B2 (en) Electronic endoscope
JP4136011B2 (en) Depth of focus extension device
US8783874B1 (en) Compressive optical display and imager
JP5237978B2 (en) Imaging apparatus and imaging method, and image processing method for the imaging apparatus
JP2000005127A (en) Endoscope system
JP2000316120A (en) Fully focusing image pickup device
JP2008211679A (en) Imaging apparatus and method thereof
JP6833498B2 (en) Imaging device, imaging method and computer program
JP2021141446A (en) Imaging apparatus and control method thereof
US20110134280A1 (en) System and method for constructing high dynamic range images
JP6017749B1 (en) IMAGING DEVICE AND IMAGING DEVICE OPERATING METHOD
JP4274592B2 (en) Image processing device
CN111630847B (en) Image projection apparatus, image projection method, image display light output control method
JP2008003144A (en) Lens adjustment system
JP4358531B2 (en) Endoscope device
JP4460909B2 (en) Electronic endoscope system and signal processing apparatus
JP3140813B2 (en) Endoscope TV system
JPWO2018186469A1 (en) Fundus imaging device
JP7501269B2 (en) Endoscope System
JP4271091B2 (en) Electronic binoculars
JP7433914B2 (en) Imaging device and its control method
JPH04236585A (en) Image pickup optical device
WO2022209125A1 (en) Image capture control device, image capture device, image capture control method, and program
JP2007036951A (en) Camera having electronic viewfinder

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070510

R151 Written notification of patent or utility model registration

Ref document number: 3958603

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100518

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110518

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120518

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130518

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140518

Year of fee payment: 7

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees