JP4358531B2 - Endoscope device - Google Patents

Endoscope device Download PDF

Info

Publication number
JP4358531B2
JP4358531B2 JP2003041607A JP2003041607A JP4358531B2 JP 4358531 B2 JP4358531 B2 JP 4358531B2 JP 2003041607 A JP2003041607 A JP 2003041607A JP 2003041607 A JP2003041607 A JP 2003041607A JP 4358531 B2 JP4358531 B2 JP 4358531B2
Authority
JP
Japan
Prior art keywords
optical
optical system
solid
optical axis
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003041607A
Other languages
Japanese (ja)
Other versions
JP2004248832A (en
Inventor
一裕 粂井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2003041607A priority Critical patent/JP4358531B2/en
Publication of JP2004248832A publication Critical patent/JP2004248832A/en
Application granted granted Critical
Publication of JP4358531B2 publication Critical patent/JP4358531B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、内視鏡装置に関し、特に、仕様や用途の異なる複数種の内視鏡を接続し、被写体の画像をモニタで観察するための内視鏡装置に関する。
【0002】
【従来の技術】
内視鏡は、周知の通り、直接目視できない生体内等を観察することができ、医療分野を中心に診断、治療に広く使用されている。そして、近年、被写体像をCCD等の固体撮像素子によって電気信号に変換し、モニタにて観察可能とした電子内視鏡が普及している。
【0003】
このような内視鏡は、観察する部位に応じて種々の内視鏡が用いられる。内視鏡は、光源装置や信号処理回路を含むカメラコントローラ(信号処理装置)等に接続されて使用される。また、信号処理回路には、画質向上や被写体の強調を目的とした画像処理回路が搭載されており、コントラスト改善のために、例えば、次に示すような、対称な2次元デジタルフィルタが用いられている。この次に示すマトリックスは、中心画素とその周囲の画素の値に対する係数を決定するものである。
【0004】
−1 −5 −1
−5 25 −5
−1 −5 −1
一方、内視鏡光学系には、光学系の簡易さ、操作性の良さから、固定焦点光学系が一般的に用いられ、その観察部位に応じて必要な被写界深度が得られるように設計されている。しかし、固定焦点光学系で被写界深度を広くすると光学系のFナンバーを大きくする必要があり、明るさが低下するといった問題が生じる。さらに、光の回折限界の理由から被写界深度の拡大には限界がある。
これに対し、光学系の被写界深度を拡大する手法は、例えば、米国特許5,748,371号や「Edward R.Dowski, Jr., W.Thomas Cathey, ”Extended depth of fieldthrough wave−front coding”, Appl.Opt.Vol.34, 1859−1866(1995)」等に開示されている。図21は、従来例による拡大被写界深度光学系の構成を概略的に示す図である。
【0005】
この手法による装置は、図21に示されるように、CCD等の撮像手段104と、物体101の像を撮像手段104の受光面に結像させるレンズ系103である光学系の瞳位置に配置されたキュービック位相変調マスク102と、撮像手段104からの画像データに基づいて画像を構築する画像処理装置105とを有している。
【0006】
キュービック位相変調マスク102は、一方の面は平面で、他方の面は図22に示されるようにZ=A(X3+Y3)で表される形状をなしている。図22は、このキュービック位相変調マスクの外観形状を説明するための図である。Aは、任意の係数である。すなわち、一方の面は、XY平面上の平面であり、他方の面は、XY平面に直交するZ軸方向に上記の式を満たす三次元曲面である。図22は、X及びYが−1から+1の範囲における三次元曲面の状態を説明するための図である。従って、三次元曲面形状は、係数Aに応じて変化する。
【0007】
キュービック位相変調マスク102は、これを通過する光の位相にP(X,Y)=exp(jα(X3+Y3))のずれを与える。ここで、係数αは、20よりも十分に大きな値が好ましく、これにより光学的伝達関数(以下、OTFともいう。)のレスポンスは0.2以下となり、回転非対称な収差(ボケ)による点像の大きさは、撮像手段104の画素に比べ十分に大きくなる。
【0008】
このようなキュービック位相変調マスク102を持たない通常の光学系の場合、物体101が合焦位置からずれるに従って光学的伝達関数のレスポンスの様子は、図23から図24へ変化し、物体101がさらにずれると図24から図25へと変化する。
【0009】
図23は通常の光学系において物体が焦点位置にあるときの光学的伝達関数(OTF)のレスポンスを示すグラフである。図24は通常の光学系において物体が焦点位置から外れたときの光学的伝達関数(OTF)のレスポンスを示すグラフである。図25は通常の光学系において物体が焦点位置から図24のときよりも更に外れたときの光学的伝達関数(OTF)のレスポンスを示すグラフである。
【0010】
これに対してキュービック位相変調マスク102を持つ拡大被写界深度光学系の場合、同じずれに対するOTFのレスポンスはそれぞれ図26〜図28に示されるようになり、合焦位置においてもOTFのレスポンスに低下が見られるが、合焦位置からのずれに対する変化は少ない。
【0011】
図26は拡大被写界深度光学系において物体が焦点位置にあるときの光学的伝達関数(OTF)のレスポンスを示すグラフである。図27は拡大被写界深度光学系において物体が焦点位置から外れたときの光学的伝達関数(OTF)の強度分布を示すグラフである。図28は拡大被写界深度光学系において物体が焦点位置から図27のときよりも更に外れたときの光学的伝達関数(OTF)のレスポンスを示すグラフである。
【0012】
この光学系によって結像された画像は、画像処理装置105によって、図29に示されるキュービック位相変調マスク102のOTF特性の逆フィルタによる処理が行われることによって、図22〜図24に示されるOTFに対してそれぞれ図30〜図32に示されるOTFのレスポンスが得られる。
【0013】
図29は拡大被写界深度光学系において光学的伝達関数(OTF)のレスポンスに対して行なわれる処理の逆フィルタの特性を示すグラフである。図30は図26の光学的伝達関数(OTF)のレスポンスに対して図29の特性を持つ逆フィルタによる処理を行なって得られる光学的伝達関数(OTF)のレスポンスを示すグラフである。図31は図27の光学的伝達関数(OTF)のレスポンスに対して図29の特性を持つ逆フィルタによる処理を行なって得られる光学的伝達関数(OTF)のレスポンスを示すグラフである。図32は図28の光学的伝達関数(OTF)のレスポンスに対して図29の特性を持つ逆フィルタによる処理を行なって得られる光学的伝達関数(OTF)のレスポンスを示すグラフである。
【0014】
図29〜図32に示されるOTFのレスポンスは、いずれも、通常の光学系の合焦時のOTFのレスポンスに近い形を有している。その逆フィルタとして、例えば次に示すような非対称な2次元デジタルフィルタが用いられる。次に示すマトリックスは、中心画素とその周囲の画素の値に対する係数を決定するものである。
【0015】

Figure 0004358531
次に、実際の画像で説明する。通常の光学系では、物体の焦点位置からずれるにつれて、焦点ずれによるボケが生じてくる。
【0016】
これに対して、拡大被写界深度光学系を用いた場合、焦点位置をずらしたときの画像処理前の画像はボケてはいるが、焦点位置をずらしたそれぞれの画像においてボケ方が変化しない。そして、これらの画像に対し、前述の逆フィルタ(図29)による画像処理を行うと、通常の光学系の焦点ずれがしていない画像と同等の画像が得られ、被写界深度が拡大できる。
【0017】
さらに、これを内視鏡に応用したものが、特開2000−5127号公報の明細書に開示されている。開示された内視鏡システムは、図33に示すように、複数種の内視鏡を接続し、被写体の画像をモニタ116で観察するための内視鏡システムである。
【0018】
この内視鏡システムは、図33に示すように、固体撮像素子114と、その固体撮像素子114の受光面上に被写体の像を結像する対物光学系112とを有する内視鏡111と、内視鏡111で得られた画像信号を処理して映像信号を出力するカメラコントローラ(信号処理装置)117と、観察用の照明光を発生する光源装置118と、カメラコントローラ117からの映像信号を表示するモニタ116とを備えている。
【0019】
複数種の内視鏡の内、少なくとも1つの内視鏡111は、光学系112の中にキュービック位相変調マスク等のような光位相変調部材113を有する。さらに、内視鏡111は、撮像装置114の出力側に内視鏡の光位相変調部材113に対応した光学的伝達関数復元手段115を備えている。
【0020】
また、カメラコントローラ117は、図34に示すように、接続された内視鏡111からの画像信号をデジタル信号に変換するA/D変換部121と、前記デジタル信号を映像信号に変換する信号変換部122と、信号変換部122からの映像信号を信号処理する画像処理回路123と、前記画像処理回路123で信号処理された映像信号をモニタ4で表示可能なアナログ信号に変換するD/A変換部124とで構成されている。
【0021】
光学的伝達関数復元手段115は、光学系112内の光位相変調部材113の逆フィルタに相当する復元手段を含んでいる必要がある。光学的伝達関数復元手段115は、図33に示されるように内視鏡111内部に設けられても良いし、内視鏡111が接続されかつモニタ116に映像を表示するカメラコントローラ(信号処理装置)117内に設けられても良い。これによれば、光位相変調部材113の種類や有無に関わらず、様々な内視鏡を接続しても、被写界深度の拡大や、高解像の画像を生成することができる。
【0022】
【特許文献1】
米国特許5,748,371号
【0023】
【特許文献2】
特開2000−5127号公報
【0024】
【非特許文献1】
Edward R.Dowski, Jr., W.Thomas Cathey, ”Extended depth of field throughwave−front coding”, Appl.Opt.Vol.34, 1859−1866(1995)
【0025】
【発明が解決しようとする課題】
米国特許5,748,371号や、特開2000−5127号公報等に示されるように、光字系に光位相変調部材113を用いて、被写界深度を拡大する技術を内視鏡に適用する場合、光位相変調部材113による光学的伝達関数の悪化を復元し、高解像の画像を得るための光学的伝達関数復元手段115が必要になるため、光位相変調部材113に一対一に応じた復元手段が、カメラコントローラ(信号処理装置)117内の画像処理回路、もしくは内視鏡111内部に搭載されている必要がある。
【0026】
しかしながら、現状の一般的な内視鏡システムにおけるカメラコントローラ内の画像処理回路においては、撮像光学系を介して得られた画像の光学的伝達関数のレスポンスに対し、特定の周波数帯域を強調することによって画像の見えを調整する画像処理回路は搭載されているものの、例えば被写界深度拡大を目的とした、内視鏡光学系内に搭載した光位相変調部材に応じた復元手段は有していないため、前記内視鏡光学系内に光位相変調部材を有する内視鏡を接続すると、解像した画像を得ることができず、互換性を確保できない。
【0027】
また、互換性を確保するために、内視鏡内部に光学的伝達関数復元手段を設ける場合、画像信号をデジタル信号に変換するA/D変換部と、デジタル信号化された画像信号を映像信号に変換する信号変換部と、光学的伝達関数復元のための画像処理部と、再び映像信号から画像信号に信号変換するための信号変換部、D/A変換部が内視鏡内部に必要となるが、前記回路は複雑であり回路規模も大きくなるため、内視鏡本体の肥大化を招き、操作性が悪くなるという欠点が生じる。
【0028】
本発明は、上記事情に鑑みてなされたものであり、内視鏡光学系に配置した光位相変調部材に応じた復元処理手段が搭載されていない信号処理装置に、光光位相変調部材を有した内視鏡を接続しても、被写界深度の拡大、ならびに高解像の画像を生成できる内視鏡装置を提供することを目的としている。
【0029】
【課題を解決するための手段】
本発明の第1の内視鏡装置は、被写体像光を入光する対物光学系と、前記対物光学系の光軸上後段側の当該光軸に対して垂直な平面上において、前記対物光学系に入光した被写体像光を結像する受光面の中心を前記光軸と一致させて配設され、前記対物光学系に入光した被写体像を撮像する固体撮像素子と、前記対物光学系に設けられ、前記光軸を軸として非対称な光学的伝達関数を有する光位相変調部材と、を備え、前記光位相変調部材は、前記光軸に対して垂直な平面上において当該光軸と交わる点を含む当該平面上の軸方向であって、前記光学的伝達関数のレスポンスが最も低くなる軸方向を、前記固体撮像素子からの映像信号を表示するモニタにおける略対角方向に一致させるように、当該光軸周りに回転した位置に配置したことを特徴とする。
【0030】
本発明の第2の内視鏡装置は、被写体像光を入光する対物光学系と、前記対物光学系の光軸上後段側の当該光軸に対して垂直な平面上において、前記対物光学系に入光した被写体像光を結像する受光面の中心を前記光軸と一致させて配設され、前記対物光学系に入光した被写体像を撮像する固体撮像素子と、前記対物光学系に設けられ、前記光軸を軸として非対称な光学的伝達関数を有する光位相変調部材と、を備え、前記光位相変調部材は、前記光軸に対して垂直な平面上において当該光軸と交わる点を含む当該平面上の軸方向であって、前記光学的伝達関数のレスポンスが最も低くなる軸方向を、前記固体撮像素子における前記受光面において当該固体撮像素子の画素ピッチが最も大きくなる方向に一致させるように、当該固体撮像素子に対して相対的に当該光軸周りに回転した位置に配置したことを特徴とする。
本発明の第3の内視鏡装置は、被写体像光を入光する対物光学系と、前記対物光学系の光軸上後段側の当該光軸に対して垂直な平面上において、前記対物光学系に入光した被写体像光を結像する受光面の中心を前記光軸と一致させて配設され、前記対物光学系に入光した被写体像を撮像する固体撮像素子と、前記対物光学系に設けられ、前記光軸を軸として非対称な光学的伝達関数を有する光位相変調部材と、を備え、前記光位相変調部材は、前記光軸に対して垂直な平面上において当該光軸と交わる点を含む当該平面上の軸方向であって、前記光学的伝達関数のレスポンスが最も低くなる軸方向を、前記固体撮像素子における前記受光面において当該固体撮像素子の画素ピッチが最も大きくなる方向に一致させると共に、前記固体撮像素子からの映像信号を表示するモニタにおける略対角方向に一致させるように、当該固体撮像素子に対して相対的に当該光軸周りに回転した位置に配置したことを特徴とする。
【0031】
【発明の実施の形態】
以下、図面を参照しながら本発明の実施の形態について述べる。
【0032】
第1の実施の形態:
図1ないし図18は本発明の第1の実施の形態に係わり、図1は内視鏡システムの概略の構成を示す構成図、図2は図1の光位相変調部材を含む撮像ユニットの構成を説明するための図、図3は図2の明るさ絞りを配置した瞳変調素子の構造を説明するための概略説明図、図4は図3の瞳変調素子と固体撮像素子の光軸に対する回転位置の関係を示す概略説明図、図5は図2の瞳変調素子を含む撮像ユニットの物体距離71mmのときに得られる点像のシミュレーション結果を説明するための図、図6は図2の瞳変調素子を含む撮像ユニットの物体距離13.5mmのときに得られる点像のシミュレーション結果を説明するための図、図7は図2の瞳変調素子を含む撮像ユニットの物体距離7.2mmのときに得られる点像のシミュレーション結果を説明するための図、図8は図2の瞳変調素子を含む撮像ユニットの物体距離4mmのときに得られる点像のシミュレーション結果を説明するための図、図9は図2の瞳変調素子を含む撮像ユニットの各物体距離の光学的伝達関数のレスポンスのシミュレーション結果を説明するための図、図10は図2の瞳変調素子を含む撮像ユニットの物体距離13.5mmのときの瞳変調素子X軸方向及び対角方向の光学的伝達関数のレスポンスのシミュレーション結果を説明するための図、図11は通常の光学系における図2の撮像ユニットの物体距離71mmのときに得られる点像のシミュレーション結果を説明するための図、図12は通常の光学系における図2の撮像ユニットの物体距離13.5mmのときに得られる点像のシミュレーション結果を説明するための図、図13は通常の光学系における図2の撮像ユニットの物体距離7.2mmのときに得られる点像のシミュレーション結果を説明するための図、図14は通常の光学系における図2の撮像ユニットの物体距離4mmのときに得られる点像のシミュレーション結果を説明するための図、図15は通常の光学系における図2の撮像ユニットの各物体距離についての光学的伝達関数のレスポンスのシミュレーション結果を説明するための図、図16は図2のレンズ枠、平凹レンズ及び両凸レンズで構成される部材の第1の変形例を示す図、図17は図2のレンズ枠、平凹レンズ及び両凸レンズで構成される部材の第2の変形例を示す図、図18は図2のレンズ枠、平凹レンズ及び両凸レンズで構成される部材の第3の変形例を示す図である。
【0033】
(構成)
図1に示すように、固体操像素子19と、前記固体撮像素子19の受光面上に被写体の像を結像する対物光学系32とで構成される撮像ユニット31を設けた内視鏡1と、内視鏡1で得られた画像信号を処理して映像信号を出力するカメラコントローラ(信号処理装置)2と、カメラコントローラ2からの映像信号を表示するモニタ4と、観察用の照明光を発生する光源装置3とを備えている。
【0034】
そして、本発明の内視鏡システムでは、複数の種類の内視鏡1を接続することができるようになっており、複数の種類の内視鏡1のうち、少なくとも1つの内視鏡1は、その対物光学系32内に光位相変調部材(光位相変調マスク)13が設けられている。
【0035】
撮像ユニット31は、図2に示すように、固体撮像素子19と固体撮像素子19の受光面上に被写体像を結像する対物光学系32で構成される。本実施の形態で用いられる固体撮像素子19は、例えば、画素ピッチが7μmのものが用いられる。
【0036】
対物光学系32は、レンズ枠21に接着固定される平凹レンズ11、両凸レンズ12と、レンズ枠22に接着固定される瞳変調素子13a、平レンズ14、接合レンズ15、平レンズ16とで構成される。
【0037】
レンズ枠22に組みつけられる各レンズは、適当なレンズ間隔が得られるよう、各レンズの間に間隔環25、26が配置されている。固体撮像素子19は平レンズ17、及び受光面を保護するカバーガラス18とともに撮像素子枠23に接着固定されている。レンズ枠21、22は、両凸レンズ12と光位相変調部材としての瞳変調素子13aの面間隔を保つように突き当てられ、かつ、各レンズ粋が保持するレンズの光軸が一致するよう嵌合し、かつ、光軸周りに回転可能に構成されている。
【0038】
さらに、レンズ枠22と撮像素子枠23は、各枠が保持するレンズの光軸ならびに固体撮像素子19の受光面中心が一致するよう嵌合し、かつ、平レンズ16と平レンズ17の面間隔を調整できるように光軸方向に摺動し、かつ、光軸周りに回転可能となるよう構成されている。
【0039】
図3は光が入射する方向から見たときの瞳変調素子13aと明るさ絞り24の外観を示す図である。入射光に垂直なXY平面に平行に明るさ絞り24が設けられ、明るさ絞り24の開口部を通して入射した光が瞳変調素子13aに入射する。また、光が入射する方向から見て明るさ絞り24の背面の位置に、光位相変調部材13として瞳変調素子13aが配置されている。
【0040】
光位相変調部材13として用いた瞳変調素子13aは、例えば屈折率1.523の光学的に透明なガラスで形成されており、広い被写界深度にわたって光学的伝達関数が略一定となる変換手段である。該瞳変調素子13aは、図3に示すように、対物光学系32の光軸をZ軸としたときに、Z軸と直行する面内にX、Y軸を座標とし、Z=A(X3+Y3)の形状をした自由曲面を有していて、本実施の形態ではA=0.051とする。
【0041】
図2に示される前記撮像ユニット31のレンズデータを表1に示す。この光学系の焦点距離は1.61mm、Fナンバーは8.722であり、明るさ絞り24は第6面に、瞳変調素子13aの自由曲面部は第7面に相当する。
【0042】
【表1】
Figure 0004358531
明るさ絞り24は、図3に示すように、正方形の開口を有するものであり、その正方形の形状は一辺0.408mmである。また、瞳変調素子13aのX軸と、明るさ絞り24の正方形開口の一辺は平行となるよう配置されている。
【0043】
次に、撮像ユニット31の組立方法について説明する。
まず、レンズ枠21にレンズ11、12を接着固定する。また、レンズ枠22に、明るさ絞り24を貼り付けた瞳変調素子を接着固定し、さらに、レンズ14、間隔環25、レンズ15、間隔環26、レンズ16の順でレンズ枠22に挿入し接着固定する。また、撮像素子枠23にはレンズ17、カバーガラス18、固体撮像素子19を接着固定する。図示しないが、固体撮像素子には電気信号を伝達するケーブルが半田付けされており、カメラコントローラ2に接続される。
【0044】
次に、図4に示すように、レンズ枠22に固定されている瞳変調素子13aと撮像素子枠23に固定されている固体撮像素子19の光軸(Z軸)周りの回転位置関係が、前記瞳変調素子13aのX軸と前記固体撮像素子19の画素配列の水平(走査)方向(以降、H方向とする)が平行で、且つ、前記瞳変調素子13aのY軸と固体撮像素子19の画素配列の垂直(走査方向と直交)方向(以降、V方向とする)が平行になるように、レンズ枠22と撮像素子枠23を位置決めする。さらに、光軸周りに回転位置決めした前記レンズ枠22と前記撮像素子枠23は、レンズ枠21、22で構成される対物光学系32と前記撮像素子枠とのピント位置が適正となるように、平レンズ16と平レンズ17間の面間隔が調整された位置で接着固定される。
【0045】
次に、レンズ枠22にレンズ枠21を組付け、光軸周りにレンズ枠21を回転させることで、撮像ユニット31の光学系のばらつきで発生する偏角が最小となるように調整し、接着固定する。固体撮像素子19は、カメラコントローラ2を経由して、モニタ4に接続されている。
【0046】
カメラコントローラ2は、接続された内視鏡1からの画像信号をディジタル信号に変換するA/D変換器(図示せず)と、前記ディジタル信号を映像信号に変換する信号変換部(図示せず)と、前記映像信号をモニタ4で表示可能なアナログ信号に変換するD/A変換器(図示せず)とで構成されている。
【0047】
(作用)
前記形状の瞳変調素子13aは、波長587.6nmの平行光に対し、exp{i×2.414(X3+Y3)/0.2043}の位相変調を行う。
【0048】
観察する被写体は、前記瞳変調素子13aを含む対物光学系を通して、前記画素ピッチ7μmの固体撮像素子19上の受光面に結像し、固体撮像素子19によって電気信号(画像信号)に変換される。前記電気信号はカメラコントローラ2内のA/D変換器にてディジタル信号に変換され、信号変換部にて映像信号に変換される。前記映像信号は、D/A変換器によってモニタ4に表示可能なアナログ信号に変換され、モニタ4に被写体が映し出される。
【0049】
ここで、固体撮像素子19上のH方向、V方向は、それぞれ、モニタ4の水平(走査)方向(以降、H方向)、垂直(走査方向と直交)方向(以降、V方向)と一致するようカメラコントローラ2により信号処理される。瞳変調素子13aのX軸方向、Y軸方向は前述したように固体撮像素子19のH方向、V方向と一致しているため、それぞれ、モニタ4のH方向、V方向とも一致する。
【0050】
前記撮像ユニット31に対し、物体距離13.5mmの位置での固体撮像素子19の受光面上での点像強度分布関数(PSF)の面積がもっとも小さくなるようにピント調整行った。
【0051】
物体距離を7 1mm、13.5mm、7.2mm、4mmとしたときの固体撮像素子19の受光面上での点像、および各物体距離での光軸上の光学的伝達関数のレスポンスについて、光学シミユレーションソフトCode−V(登録商標)を用いて計算をおこなった。この結果、各物体距離における固体撮像素子受光面上での点像の面積は、それぞれ1辺を22μm、14μm、20μm、31μmとした正方形の領域内の大きさの点像として得られた。
【0052】
前記点像について固体撮像素子受光面をXY平面とし、各画素における光の強度(パーセント)をZ軸とした結果を図5〜8に示す。また、各物体距離における光軸上で、且つ瞳変調素子X軸方向の光学的伝達関数のレスポンスの計算結果を図9に示す。また、物体距離13.5mmの時の、光軸上で、且つ、瞳変調素子X軸方向及び、対角方向の光学的伝達関数のレスポンスの計算結果を図10に示す。
【0053】
図5〜8において、XY平面は固体撮像素子受光面に相当し、Z軸は光の強度である。図9において、Aは物体距離7 1mm、Bは物体距離13.5mm、Cは物体距離7.2mm、Dは物体距離4mmの時の光学的伝達関数のレスポンスである。図10において、Bは瞳変調素子X軸方向、Eは瞳変調素子のXY軸を軸とするXY平面内で第1象限及び第3象限を通る対角方向、Fは瞳変調素子XY軸を軸とするXY平面内で第2象限及び第4象限を通る対角方向の光学的伝達関数のレスポンスである。
【0054】
なお、ここでは瞳変調素子X軸方向の計算結果のみについて示したが、瞳変調素子Y軸方向についてはX軸方向と同一の結果が得られるため、割愛した。
【0055】
物体距離が13.5mmの場合の点像は、一辺が14μmの正方領域、つまり画素ピッチ7μmの固体撮像素子の一辺が2画素分、面積にして4画素分に相当する、図6に示される光の強度分布を持つ点像として得られる。
【0056】
また、物体距離が71mm、7.2mm、4mmの場合の点像は、それぞれ1辺が22μm、20μm、31μmつまり、一辺が3.1画素分、2.9画素分、4.4画素分に相当する正方領域に、図5、7〜9に示される光の強度分布として得られる。
【0057】
さらに、画素ピッチ7μmの固体撮像素子19では、ナイキスト周波数は71ラインペア/mmとなるが、図9に示したように、物体距離が4mmの位置におけるナイキスト周波数での光学的伝達関数のレスポンスが0.2以上あり、解像していることがわかる。
【0058】
また、図10に示すように、瞳変調素子X軸方向に比べ、対角方向では特に高周波領域でレスポンスが0.1程度低下することがわかる。
【0059】
比較例として、図2の撮像ユニット31で瞳変調素子13aの代わりに同材質の平行平板を用いた通常の光学系の場合について説明する。前記通常の光学系のレンズデータは表1の第7面の形状を自由曲面から平面に変更したものである。
【0060】
前記の瞳変調素子13aが配置された撮像ユニット31の場合と同様に、物体距離13.5mmの位置での固体撮像素子受光面上の点像(PSF)の面積がもっとも小さくなるように調整を行った。このときの物体距離を71mm、13.5mm、7.2mm、4mmとしたときの固体撮像素子19の受光面上での点像、および各物体距離での光軸上の光学的伝達関数のレスポンスについて、光学シミュレーションソフトCode−V(登録商標)を用いて計算をおこなった。
【0061】
この結果、各物体距離における固体操像素子受光面上での点像の面積は、それぞれ1辺を16μm、1μm、14μm、36μmとした正方形の領域内の大きさの点像として得られた。前記点像について固体撮像素子受光面をXY平面とし、各画素における光の強度(パーセント)をZ軸とした結果を図11〜14に示す。また、各物体距離での光軸上の光学的伝達関数のレスポンスの計算結果を図15に示す。
【0062】
図15において、Aは物体距離71mm、Bは物体距離13.5mm、Cは物体距離7.2mm、Dは物体距離4mmの時の光学的伝達関数のレスポンスである。
【0063】
物体距離が13.5mmの場合の点像は、1辺が1μmの正方領域、つまり画素ピッチ7μmの固体撮像素子11の一辺が1画素分、面積にして1画素分に相当する、図12に示される光の強度分布を持つ点像として得られる。また、物体距離が71mm、7.2mm、4mmの場合の点像は、それぞれ1辺が16μm、14μm、36μm、つまり、一辺が2.3画素分、2画素分、5.1画素分に相当する正方領域に、図11、図13、14に示される光の強度分布を持つ点像として得られる。さらに、図15に示したように、ナイキスト周波数での光学的伝達関数のレスポンスが0.2以上となるのは物体距離が7.2mm以上71mm未満のときであることがわかる。
【0064】
(効果)
前述したように、瞳変調素子13aを含まない通常の内視鏡の場合、物体距離7.2mmより近接すると、ナイキスト周波数における光学的伝達関数のレスポンスが0.2より下回るため解像しない。
【0065】
これに対し、本実施の形態における瞳変調素子13aを含む内視鏡の場合、物体距離4mmでもナイキスト周波数における光学的伝達関数のレスポンスが0.2を上回っているため、解像することがわかる。さらに、前記瞳変調素子13aによる位相変調量aは2.4 1 4と十分小さな値に設定されているため、前記光学的伝達関数のレスポンスが0.2以上となる被写界深度内において瞳変調素子13aによって発生する非対称な収差(ボケ)は最大でも数画素程度となり非対称な収差はモニタ4上で認識できないレベルとなる。このことから、被写界深度が拡大されていることがわかる。
【0066】
さらに、本実施の形態における瞳変調素子13aのX軸方向、Y軸方向は、それぞれモニタ4のH方向、V方向と一致しているため、モニタ4上のH方向、V方向は光学的伝達関数のレスポンスが比較的高くなり、モニタ4上の対角方向は光学的伝達関数のレスポンスが比較的低く表示される。人間の視覚の特性上、水平、垂直方向の分解能に比べ、対角方向の分解能は低いことが知られており、本実施の形態では、光学的伝達関数のレスポンスが比較的高い方向が視覚上の水平、垂直方向に、比較的低い方向が視覚上の対角方向に位置することとなるため、対角方向の光学的伝達関数のレスポンスの低下は視認しにくくなり、見かけ上の解像感の低下を防ぐことができる。
【0067】
ここで、本実施の形態では、瞳変調素子13aのX軸方向とY軸方向を、それぞれモニタ4のH方向、V方向と一致するよう配置したが、これに限ったものではなく、モニタ4の対角方向と、瞳変調素子13aの対角方向が一致すれば、瞳変調素子13aのX軸方向、Y軸方向が、それぞれモニタ4のV方向、H方向と一致させても同様の効果が得られることは言及するまでもない。
【0068】
本実施の形態では固体撮像素子の画素ピッチを7μmのものとしたが、これに限ったものではなく、固体撮像素子受光面上での点像の面積がもっとも小さくなるピント位置における点像の大きさが、一辺を画素ピッチの2画素分、面積にして4画素分となるように明るさ絞り24の開口寸法、および瞳変調素子13aの形状を調整することで、同様の被写界深度の拡大が可能となる。
【0069】
また、本実施の形態では固体撮像素子受光面上の点像の面積がもっとも小さくなるピント位置における点像の大きさを、一辺が固体撮像素子の画素ピッチの2画素分、面積にして4画素分となるように調整したが、点像の大きさを、一辺が画素ピッチの6画素分、面積にして36画素分となるようにした場合、瞳変調素子の変調係数αは7.243で、物体距離4mmにおける光学的伝達関数のレスポンスが0.2以上となり、かつ物体距離4mmにおける点像の大きさも一辺が8画素程度であるために、同様の被写界深度の拡大が可能となる。
【0070】
本実施の形態では瞳変調素子13aにガラス材料を用いているが、樹脂材料を用いても良い。また、本実施の形態では瞳変調素子13aは光学的に透明なガラスが用いられているが、特定の波長のみ透過する光学フィルタ材料を用いても良い。また、本実施の形態での瞳変調素子13aの形状はX軸方向、Y軸方向の光学的伝達関数の変換量を同一としているが、X軸方向、Y軸力向で変換量が異なる構成にしても良い。例えば、明るさ絞り24の開口形状を長方形に設定しても良いし、瞳変調素子13aの自由曲面の形状をX軸方向、Y軸方向で異なる係数を使用しても良い。また、前記明るさ絞り24は円形としても同様の効果が得られる。この場合は、明るさ絞り24と瞳変調素子13aとの光軸に対する回転方向調整が必要なくなるという効果がある。また、明るさ絞り24は瞳変調素子13aと別体でなくとも良く、瞳変調素子13aに蒸着等により直接形成されていても良い。
【0071】
本実施の形態では、光軸周りにレンズ枠21を回転させることで、撮像ユニット31の光学系のばらつきで発生する偏角が最小となるように調整を行っているが、撮像ユニット31で発生する偏角が大きい場合に対応できるよう、レンズ11、12を含むレンズ枠の構成を図16〜18に示したような構成としても良い。
【0072】
図16は、レンズ枠21とレンズ11の間にスペーサ27を挿入し、レンズ枠21の軸とレンズ11の軸を傾けて構成したものである。図17は、レンズ枠21aのレンズ11の挿入部と、レンズ12の挿入部との軸をずらして構成したものである。図18は、レンズ枠21bのレンズ11の挿入部が、レンズ11の外径より大きく加工されており、レンズ11の軸をレンズ枠21bの軸に対しずらして配置、固定して構成したものである。
【0073】
上記図16〜18に示した構成では、レンズ枠22と撮像素子枠23とで発生する光学系のばらつきによる偏角が大きくても、レンズ11、12が接着固定されたレンズ枠部材の光軸が比較的大きく偏芯して構成されているため、撮像ユニット31の偏角調整を行うことができる。
【0074】
第2の実施の形態:
本実施の形態は、基本的な構成は第1の実施の形態と同じであり、瞳変調素子と固体撮像素子の光軸周りの回転位置関係が異なる。以下、相違点に重点をおいて説明する。
【0075】
図19に本発明の内視鏡システムの第2の実施の形態を示す瞳変調素子と固体撮像素子の光軸に対する回転位置の関係を示す概略図、図20に固体撮像素子の画素ピッチを示す概略図を示している。
【0076】
本実施の形態の撮像ユニットでは、図19に示すように、レンズ枠22に固定されている瞳変調素子13aと撮像素子枠23に固定されている固体撮像素子19の光軸(Z軸)周りの回転位置関係が、前記瞳変調素子13aのX軸と前記固体撮像素子19の画素配列のH方向が略45度の角度を成し、且つ、前記瞳変調素子13aのY軸と固体撮像素子19の画素配列のV方向が略45度の角度を成すように、レンズ枠22と撮像素子枠23を位置決めされている。
【0077】
(作用)
図20に示すように、格子状に画素が配列されている固体撮像素子では、V方向、及びH方向の画素ピッチに対し、斜め方向の画素ピッチが小さくなる。つまり、V方向、およびH方向と比較し、斜め方向の方が固体撮像素子の分解能が高いことになる。
【0078】
本実施の形態では、瞳変調素子13aのX軸方向、Y軸方向は、固体操像素子19の斜め方向と一致し、かつ瞳変調素子13aの対角方向は、固体撮像素子19のH方向、V方向と一致する。
【0079】
(効果)
瞳変調素子1 3 aの光学的伝達関数のレスポンスが比較的高いX軸方向、Y軸方向は、固体撮像素子19の分解能が比較的高い斜め方向と一致しており、且つ、瞳変調素子13aの光学的伝達関数のレスポンスが比較的低い対角方向が、固体撮像素子19の分解能が比較的低いV方向、H方向と一致しているため、瞳変調素子13aで発生する光軸回りの光学的伝達関数のレスポンス変化の影響を最小限とすることが可能となる。
【0080】
本実施の形態では固体撮像素子の画素配列が格子状のもので説明したが、これに限らず、ハニカム配列の固体撮像素子を用いても同様の効果を得ることが可能である。ハニカム配列の場合は、斜め方向よりも、H方向、及びV方向の方が、画素ピッチが小さいため、斜め方向と比較してH方向、V方向の分解能が高くなる。このため、瞳変調素子のX軸方向、Y軸方向は、分解能の比較的高いH方向、V方向と一致するよう配置すれば良い。
【0081】
本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。
【0082】
【発明の効果】
以上説明したように本発明によれば、内視鏡光学系に配置した光位相変調部材に応じた復元処理手段が搭載されていない信号処理装置に、光位相変調部材を有した内視鏡を接続しても、被写界深度の拡大、ならびに高解像の画像を生成できるという効果がある。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態に係る内視鏡システムの概略の構成を示す構成図
【図2】第1の実施の形態を示す光位相変調部材を含む撮像ユニットの断面図
【図3】第1の実施の形態を示す明るさ絞りを配置した瞳変調素子の概略図
【図4】第1の実施の形態を示す瞳変調素子と固体撮像素子の光軸周りの位置関係を示す概略図
【図5】第1の実施の形態を示す瞳変調素子を含む撮像ユニツトでの物体距離7 1mmの時に得られる点像のシミュレーション結果の図
【図6】第1の実施の形態を示す瞳変調素子を含む撮像ユニットでの物体距離13.5mmの時に得られる点像のシミュレーション結果の図
【図7】第1の実施の形態を示す瞳変調素子を含む撮像ユニットでの物体距離7.2mmの時に得られる点像のシミュレーション結果の図
【図8】第1の実施の形態を示す瞳変調素子を含む撮像ユニットでの物体距離4mmの時に得られる点像のシミュレーション結果の図
【図9】第1の実施の形態を示す瞳変調素子を含む撮像ユニットでの各物体距離における光学的伝達関数のレスポンスのシミュレーション結果の図
【図10】第1の実施の形態を示す瞳変調素子を含む撮像ユニットでの物体距離13.5mmにおける光学的伝達関数のレスポンスのシミュレーション結果の図
【図11】通常の対物光学系における撮像ユニットでの物体距離71mmの時に得られる点像のシミュレーション結果の図
【図12】通常の対物光学系における撮像ユニットでの物体距離13.5mmの時に得られる点像のシミュレーション結果の図である。
【図13】通常の対物光学系における撮像ユニットでの物体距離7.2mmの時に得られる点像のシミュレーション結果の図
【図14】通常の対物光学系における撮像ユニットでの物体距離4mmの時に得られる点像のシミュレーション結果の図
【図15】通常の対物光学系における撮像ユニットでの各物体距離における光学的伝達関数のレスポンスのシミュレーション結果の図
【図16】第1の実施の形態のレンズ枠21、平凹レンズ11及び両凸レンズ12で構成される部材の1の変形例の断面図
【図17】第1の実施の形態のレンズ枠21、平凹レンズ11及び両凸レンズ12で構成される部材のその第2の変形例の断面図
【図18】第1の実施の形態のレンズ枠21、平凹レンズ11及び両凸レンズ12で構成される部材のその第3の変形例の断面図
【図19】本発明の第2の実施の形態に係る瞳変調素子と固体撮像素子の光軸に対する回転位置の関係を示す概略図
【図20】第2の実施の形態を示す固体撮像素子の画素ピッチを示す概略図
【図21】従来例による拡大被写界深度光学系の構成を概略的に示す図
【図22】従来例によるキュービック位相変調マスクの外観形状を説明するための図
【図23】通常の光学系において物体が焦点位置にあるときの光学的伝達関数(OTF)のレスポンスを示すグラフ
【図24】通常の光学系において物体が焦点位置から外れたときの光学的伝達関数(OTF)のレスポンスを示すグラフ
【図25】通常の光学系において物体が焦点位置から図24のときよりも更に外れたときの光学的伝達関数(OTF)のレスポンスを示すグラフ
【図26】拡大被写界深度光学系において物体が焦点位置にあるときの光学的伝達関数(OTF)のレスポンスを示すグラフ
【図27】拡大被写界深度光学系において物体が焦点位置から外れたときの光学的伝達関数(OTF)の強度分布を示すグラフ
【図28】拡大被写界深度光学系において物体が焦点位置から図27のときよりも更に外れたときの光学的伝達関数(OTF)のレスポンスを示すグラフ
【図29】拡大被写界深度光学系において光学的伝達関数(OTF)のレスポンスに対して行なわれる処理の逆フィルタの特性を示すグラフ
【図30】図26の光学的伝達関数(OTF)のレスポンスに対して図29の特性を持つ逆フィルタによる処理を行なって得られる光学的伝達関数(OTF)のレスポンスを示すグラフ
【図31】図27の光学的伝達関数(OTF)のレスポンスに対して図29の特性を持つ逆フィルタによる処理を行なって得られる光学的伝達関数(OTF)のレスポンスを示すグラフ
【図32】図28の光学的伝達関数(OTF)のレスポンスに対して図29の特性を持つ逆フィルタによる処理を行なって得られる光学的伝達関数(OTF)のレスポンスを示すグラフ
【図33】複数種の内視鏡を接続し、被写体の画像をモニタで観察するための従来の内視鏡システムの概略の構成を示す構成図
【図34】図33の従来のカメラコントローラの構成を示すブロック図
【符号の説明】
1…内視鏡
2…カメラコントローラ(信号処理装置)
3…光源装置
4…モニタ
11…平凹レンズ
12…両凸レンズ
13…光位相変調部材
13a…瞳変調素子
14,16,17…平レンズ
15…接合レンズ
18…カバーガラス
19…固体撮像素子
21,22…レンズ枠
23…撮像素子枠
24…明るさ絞り
25,26…間隔環
31…撮像ユニット
32…対物光学系[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an endoscope apparatus, and more particularly to an endoscope apparatus for connecting a plurality of types of endoscopes having different specifications and applications and observing a subject image on a monitor.
[0002]
[Prior art]
As is well known, an endoscope can observe a living body or the like that cannot be directly seen, and is widely used for diagnosis and treatment mainly in the medical field. In recent years, electronic endoscopes that convert a subject image into an electrical signal by a solid-state imaging device such as a CCD and enable observation on a monitor have become widespread.
[0003]
As such an endoscope, various endoscopes are used depending on a site to be observed. The endoscope is used by being connected to a camera controller (signal processing device) including a light source device and a signal processing circuit. In addition, the signal processing circuit is equipped with an image processing circuit for the purpose of improving the image quality and enhancing the subject. For example, a symmetrical two-dimensional digital filter as shown below is used to improve the contrast. ing. This next matrix determines the coefficients for the values of the central pixel and surrounding pixels.
[0004]
-1 -5 -1
-5 25 -5
-1 -5 -1
On the other hand, a fixed focus optical system is generally used for an endoscope optical system because of the simplicity of the optical system and good operability so that a necessary depth of field can be obtained according to the observation site. Designed. However, if the depth of field is increased with a fixed focus optical system, it is necessary to increase the F number of the optical system, resulting in a problem that the brightness decreases. Furthermore, there is a limit to the expansion of the depth of field due to the light diffraction limit.
On the other hand, methods for expanding the depth of field of an optical system include, for example, US Pat. No. 5,748,371 and “Edward R. Dowski, Jr., W. Thomas Cathay,“ Extended depth of field through-front-front ”. coding ", Appl. Opt. Vol. 34, 1859-1866 (1995)" and the like. FIG. 21 is a diagram schematically showing a configuration of an enlarged depth of field optical system according to a conventional example.
[0005]
As shown in FIG. 21, an apparatus based on this technique is arranged at the pupil position of an imaging unit 104 such as a CCD and an optical system that is a lens system 103 that forms an image of the object 101 on the light receiving surface of the imaging unit 104. And a cubic phase modulation mask 102 and an image processing apparatus 105 that constructs an image based on image data from the imaging means 104.
[0006]
In the cubic phase modulation mask 102, one surface is a flat surface and the other surface is Z = A (XThree+ YThree). FIG. 22 is a view for explaining the external shape of this cubic phase modulation mask. A is an arbitrary coefficient. That is, one surface is a plane on the XY plane, and the other surface is a three-dimensional curved surface that satisfies the above expression in the Z-axis direction orthogonal to the XY plane. FIG. 22 is a diagram for explaining a state of a three-dimensional curved surface in a range where X and Y are from −1 to +1. Therefore, the three-dimensional curved surface shape changes according to the coefficient A.
[0007]
The cubic phase modulation mask 102 determines P (X, Y) = exp (jα (XThree+ YThree)). Here, the coefficient α is preferably a value sufficiently larger than 20, whereby the response of the optical transfer function (hereinafter also referred to as OTF) becomes 0.2 or less, and a point image due to rotationally asymmetric aberration (blur). Is sufficiently larger than the pixels of the imaging means 104.
[0008]
In the case of a normal optical system that does not have such a cubic phase modulation mask 102, the response state of the optical transfer function changes from FIG. 23 to FIG. 24 as the object 101 deviates from the in-focus position. If it deviates, it will change from FIG. 24 to FIG.
[0009]
FIG. 23 is a graph showing a response of an optical transfer function (OTF) when an object is at a focal position in a normal optical system. FIG. 24 is a graph showing the response of the optical transfer function (OTF) when the object moves out of the focal position in a normal optical system. FIG. 25 is a graph showing the response of the optical transfer function (OTF) when the object is further out of the focal position than in FIG. 24 in the normal optical system.
[0010]
On the other hand, in the case of the enlarged depth of field optical system having the cubic phase modulation mask 102, the OTF response to the same shift is as shown in FIGS. 26 to 28, respectively, and the OTF response is also in the in-focus position. Although a decrease is observed, there is little change with respect to the deviation from the in-focus position.
[0011]
FIG. 26 is a graph showing the response of the optical transfer function (OTF) when the object is at the focal position in the enlarged depth of field optical system. FIG. 27 is a graph showing the intensity distribution of the optical transfer function (OTF) when the object is out of the focal position in the enlarged depth of field optical system. FIG. 28 is a graph showing the response of the optical transfer function (OTF) when the object deviates further from the focal position in FIG. 27 in the enlarged depth of field optical system.
[0012]
The image formed by this optical system is processed by the image processing apparatus 105 using the inverse filter of the OTF characteristic of the cubic phase modulation mask 102 shown in FIG. 29, so that the OTF shown in FIGS. In contrast, OTF responses shown in FIGS. 30 to 32 are obtained.
[0013]
FIG. 29 is a graph showing the characteristics of the inverse filter of the process performed on the response of the optical transfer function (OTF) in the enlarged depth of field optical system. FIG. 30 is a graph showing the response of the optical transfer function (OTF) obtained by processing the response of the optical transfer function (OTF) of FIG. 26 using the inverse filter having the characteristics of FIG. FIG. 31 is a graph showing the response of the optical transfer function (OTF) obtained by processing the response of the optical transfer function (OTF) of FIG. 27 with the inverse filter having the characteristics of FIG. FIG. 32 is a graph showing the response of the optical transfer function (OTF) obtained by processing the response of the optical transfer function (OTF) of FIG. 28 using the inverse filter having the characteristics of FIG.
[0014]
Each of the OTF responses shown in FIGS. 29 to 32 has a shape close to that of an OTF at the time of focusing of a normal optical system. As the inverse filter, for example, the following asymmetric two-dimensional digital filter is used. The following matrix determines the coefficients for the values of the center pixel and surrounding pixels.
[0015]
Figure 0004358531
Next, an actual image will be described. In a normal optical system, blurring due to defocusing occurs as the object deviates from the focal position.
[0016]
On the other hand, when the enlarged depth-of-field optical system is used, the image before image processing when the focal position is shifted is blurred, but the blurring method does not change in each image where the focal position is shifted. . When these images are subjected to image processing using the above-described inverse filter (FIG. 29), an image equivalent to a normal optical system that is not defocused is obtained, and the depth of field can be expanded. .
[0017]
Further, an application of this to an endoscope is disclosed in the specification of Japanese Patent Laid-Open No. 2000-5127. As shown in FIG. 33, the disclosed endoscope system is an endoscope system for connecting a plurality of types of endoscopes and observing an image of a subject on a monitor 116.
[0018]
As shown in FIG. 33, the endoscope system includes an endoscope 111 having a solid-state image sensor 114 and an objective optical system 112 that forms an image of a subject on the light-receiving surface of the solid-state image sensor 114. A camera controller (signal processing device) 117 that processes an image signal obtained by the endoscope 111 and outputs a video signal, a light source device 118 that generates illumination light for observation, and a video signal from the camera controller 117. And a monitor 116 for display.
[0019]
Among a plurality of types of endoscopes, at least one endoscope 111 has an optical phase modulation member 113 such as a cubic phase modulation mask in an optical system 112. Furthermore, the endoscope 111 includes an optical transfer function restoring unit 115 corresponding to the optical phase modulation member 113 of the endoscope on the output side of the imaging device 114.
[0020]
As shown in FIG. 34, the camera controller 117 includes an A / D converter 121 that converts an image signal from the connected endoscope 111 into a digital signal, and a signal converter that converts the digital signal into a video signal. Unit 122, image processing circuit 123 that performs signal processing on the video signal from signal conversion unit 122, and D / A conversion that converts the video signal processed by the image processing circuit 123 into an analog signal that can be displayed on monitor 4 Part 124.
[0021]
The optical transfer function restoration unit 115 needs to include a restoration unit corresponding to an inverse filter of the optical phase modulation member 113 in the optical system 112. The optical transfer function restoring unit 115 may be provided inside the endoscope 111 as shown in FIG. 33, or a camera controller (signal processing device) to which the endoscope 111 is connected and which displays an image on the monitor 116. ) It may be provided in 117. According to this, regardless of the type and presence or absence of the optical phase modulation member 113, it is possible to expand the depth of field and generate a high-resolution image even if various endoscopes are connected.
[0022]
[Patent Document 1]
US Pat. No. 5,748,371
[0023]
[Patent Document 2]
JP 2000-5127 A
[0024]
[Non-Patent Document 1]
Edward R.D. Dowski, Jr. , W.M. Thomas Cathey, “Extended depth of field through wave-front coding”, Appl. Opt. Vol. 34, 1859-1866 (1995)
[0025]
[Problems to be solved by the invention]
As shown in U.S. Pat. No. 5,748,371, Japanese Patent Laid-Open No. 2000-5127, and the like, a technique for enlarging the depth of field using an optical phase modulation member 113 in an optical system is used for an endoscope. In the case of application, since the optical transfer function restoring means 115 for restoring the deterioration of the optical transfer function due to the optical phase modulation member 113 and obtaining a high resolution image is necessary, the optical phase modulation member 113 is in one-to-one correspondence. It is necessary that the restoration means corresponding to the above is mounted in the image processing circuit in the camera controller (signal processing device) 117 or in the endoscope 111.
[0026]
However, in an image processing circuit in a camera controller in a current general endoscope system, a specific frequency band is emphasized with respect to a response of an optical transfer function of an image obtained through an imaging optical system. Although an image processing circuit that adjusts the appearance of the image is mounted, there is a restoration means corresponding to the optical phase modulation member mounted in the endoscope optical system, for example, for the purpose of expanding the depth of field. Therefore, if an endoscope having an optical phase modulation member is connected to the endoscope optical system, a resolved image cannot be obtained and compatibility cannot be ensured.
[0027]
In order to ensure compatibility, when an optical transfer function restoring means is provided inside the endoscope, an A / D conversion unit that converts an image signal into a digital signal, and an image signal converted into a digital signal as a video signal A signal conversion unit for converting to a video signal, an image processing unit for restoring an optical transfer function, a signal conversion unit for converting a video signal into an image signal again, and a D / A conversion unit are required inside the endoscope. However, since the circuit is complicated and the circuit scale becomes large, the endoscope main body is enlarged and the operability is deteriorated.
[0028]
The present invention has been made in view of the above circumstances, and includes a light optical phase modulation member in a signal processing apparatus in which a restoration processing means corresponding to the optical phase modulation member disposed in the endoscope optical system is not mounted. An object of the present invention is to provide an endoscope apparatus that can expand the depth of field and generate a high-resolution image even when the endoscope is connected.
[0029]
[Means for Solving the Problems]
  Of the present inventionFirstEndoscope deviceAn objective optical system that receives subject image light and an image of the subject image light that has entered the objective optical system are formed on a plane perpendicular to the optical axis downstream of the objective optical system. A solid-state imaging device that is arranged with the center of the light-receiving surface coincident with the optical axis, and that captures a subject image incident on the objective optical system;An optical phase modulation member provided in the objective optical system and having an asymmetric optical transfer function around the optical axis;And the optical phase modulation member has an axial direction on the plane including a point intersecting the optical axis on a plane perpendicular to the optical axis, and the response of the optical transfer function is lowest. The axial direction is arranged at a position rotated around the optical axis so as to coincide with a substantially diagonal direction in a monitor that displays a video signal from the solid-state imaging device.
[0030]
  Of the present inventionSecondEndoscope deviceAn objective optical system that receives subject image light and an image of the subject image light that has entered the objective optical system are formed on a plane perpendicular to the optical axis downstream of the objective optical system. A solid-state imaging device that is disposed with the center of the light receiving surface coincident with the optical axis and that captures a subject image incident on the objective optical system, and is provided in the objective optical system and is asymmetric with respect to the optical axis. An optical phase modulation member having an optical transfer function, wherein the optical phase modulation member has an axial direction on the plane including a point intersecting the optical axis on a plane perpendicular to the optical axis. The solid-state image sensor is arranged so that the axial direction in which the response of the optical transfer function is lowest coincides with the direction in which the pixel pitch of the solid-state image sensor is largest on the light receiving surface of the solid-state image sensor. Relatively around the optical axis Characterized in that arranged in the rotational position.
The third endoscope apparatus according to the present invention includes an objective optical system that receives subject image light, and the objective optical system on a plane perpendicular to the optical axis on the rear side of the optical axis of the objective optical system. A solid-state image pickup device configured to image a subject image incident on the objective optical system, wherein a center of a light receiving surface for imaging subject image light incident on the system is aligned with the optical axis; and the objective optical system And an optical phase modulation member having an asymmetric optical transfer function about the optical axis, the optical phase modulation member intersecting the optical axis on a plane perpendicular to the optical axis An axial direction on the plane that includes a point, and the axial direction in which the response of the optical transfer function is lowest is the direction in which the pixel pitch of the solid-state imaging element is the largest on the light-receiving surface of the solid-state imaging element. The solid-state imaging device To match the substantially diagonal direction in the monitor for displaying et video signal, characterized in that arranged in a position rotated relative the optical axis around with respect to the solid-state imaging device.
[0031]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
[0032]
First embodiment:
1 to 18 relate to a first embodiment of the present invention, FIG. 1 is a configuration diagram showing a schematic configuration of an endoscope system, and FIG. 2 is a configuration of an imaging unit including the optical phase modulation member of FIG. FIG. 3 is a schematic explanatory diagram for explaining the structure of the pupil modulation element in which the aperture stop of FIG. 2 is arranged, and FIG. 4 is a diagram illustrating the optical axis of the pupil modulation element and the solid-state image sensor of FIG. FIG. 5 is a schematic explanatory diagram showing the relationship between the rotational positions, FIG. 5 is a diagram for explaining the simulation result of the point image obtained when the object distance of the imaging unit including the pupil modulation element of FIG. 2 is 71 mm, and FIG. FIG. 7 is a diagram for explaining a simulation result of a point image obtained when the object distance of the imaging unit including the pupil modulation element is 13.5 mm. FIG. 7 is a diagram illustrating the object distance of 7.2 mm of the imaging unit including the pupil modulation element in FIG. Simulation of point images sometimes obtained FIG. 8 is a diagram for explaining the results, FIG. 8 is a diagram for explaining the simulation results of the point image obtained when the object distance of the imaging unit including the pupil modulation element of FIG. 2 is 4 mm, and FIG. 9 is the pupil modulation of FIG. FIG. 10 is a diagram for explaining a simulation result of an optical transfer function response of each object distance of an imaging unit including an element. FIG. 10 illustrates pupil modulation when the object distance of the imaging unit including the pupil modulation element in FIG. 2 is 13.5 mm. FIG. 11 is a diagram for explaining the simulation results of the response of the optical transfer function in the element X-axis direction and the diagonal direction. FIG. 11 is a point image obtained when the object distance of the imaging unit of FIG. FIG. 12 is a diagram for explaining the simulation results, and FIG. 12 is a simulation of a point image obtained when the object distance of the imaging unit of FIG. 2 in the normal optical system is 13.5 mm. FIG. 13 is a diagram for explaining the point image simulation result obtained when the object distance of the imaging unit of FIG. 2 in the normal optical system is 7.2 mm, and FIG. FIG. 15 is a diagram for explaining a simulation result of a point image obtained when the object distance of the imaging unit of FIG. 2 in the optical system is 4 mm. FIG. 15 is an optical diagram for each object distance of the imaging unit of FIG. FIG. 16 is a diagram for explaining a simulation result of the response of the transfer function, FIG. 16 is a diagram showing a first modification of a member composed of the lens frame, plano-concave lens and biconvex lens in FIG. 2, and FIG. 17 is the lens in FIG. The figure which shows the 2nd modification of the member comprised by a frame, a plano-concave lens, and a biconvex lens, FIG. 18 is the 3rd modification of the member comprised by the lens frame of FIG. 2, a plano-concave lens, and a biconvex lens. It is a figure which shows an example.
[0033]
(Constitution)
As shown in FIG. 1, an endoscope 1 provided with an imaging unit 31 including a solid-state image sensor 19 and an objective optical system 32 that forms an image of a subject on a light-receiving surface of the solid-state image sensor 19. A camera controller (signal processing device) 2 that processes an image signal obtained by the endoscope 1 and outputs a video signal, a monitor 4 that displays a video signal from the camera controller 2, and illumination light for observation And a light source device 3 for generating
[0034]
In the endoscope system of the present invention, a plurality of types of endoscopes 1 can be connected, and at least one of the plurality of types of endoscopes 1 is In the objective optical system 32, an optical phase modulation member (optical phase modulation mask) 13 is provided.
[0035]
As shown in FIG. 2, the imaging unit 31 includes a solid-state imaging device 19 and an objective optical system 32 that forms a subject image on the light receiving surface of the solid-state imaging device 19. As the solid-state imaging device 19 used in the present embodiment, for example, one having a pixel pitch of 7 μm is used.
[0036]
The objective optical system 32 includes a plano-concave lens 11 and a biconvex lens 12 that are bonded and fixed to the lens frame 21, and a pupil modulation element 13a, a flat lens 14, a cemented lens 15, and a flat lens 16 that are bonded and fixed to the lens frame 22. Is done.
[0037]
Each lens assembled to the lens frame 22 is provided with interval rings 25 and 26 between the lenses so that an appropriate lens interval is obtained. The solid-state imaging device 19 is bonded and fixed to the imaging device frame 23 together with the flat lens 17 and the cover glass 18 that protects the light receiving surface. The lens frames 21 and 22 are abutted so as to keep the surface distance between the biconvex lens 12 and the pupil modulation element 13a as the optical phase modulation member, and are fitted so that the optical axes of the lenses held by the lens elements coincide with each other. And is configured to be rotatable around the optical axis.
[0038]
Further, the lens frame 22 and the image sensor frame 23 are fitted so that the optical axis of the lens held by each frame and the center of the light receiving surface of the solid-state image sensor 19 are matched, and the surface interval between the flat lens 16 and the flat lens 17. Is configured to slide in the direction of the optical axis so as to be adjustable, and to be rotatable about the optical axis.
[0039]
FIG. 3 is a diagram showing the appearance of the pupil modulation element 13a and the aperture stop 24 when viewed from the direction in which light enters. The brightness stop 24 is provided in parallel to the XY plane perpendicular to the incident light, and the light incident through the opening of the brightness stop 24 enters the pupil modulation element 13a. In addition, a pupil modulation element 13 a is disposed as the optical phase modulation member 13 at a position on the back surface of the brightness stop 24 when viewed from the direction in which light enters.
[0040]
The pupil modulation element 13a used as the optical phase modulation member 13 is made of, for example, optically transparent glass having a refractive index of 1.523, and the optical transfer function is substantially constant over a wide depth of field. It is. As shown in FIG. 3, when the optical axis of the objective optical system 32 is set as the Z axis, the pupil modulation element 13a uses the X and Y axes as coordinates in a plane perpendicular to the Z axis, and Z = A (XThree+ YThree), And in this embodiment, A = 0.051.
[0041]
Table 1 shows lens data of the imaging unit 31 shown in FIG. The focal length of this optical system is 1.61 mm, the F number is 8.722, the aperture stop 24 corresponds to the sixth surface, and the free curved surface portion of the pupil modulation element 13a corresponds to the seventh surface.
[0042]
[Table 1]
Figure 0004358531
As shown in FIG. 3, the aperture stop 24 has a square opening, and the square shape has a side of 0.408 mm. Further, the X axis of the pupil modulation element 13a and one side of the square aperture of the brightness stop 24 are arranged in parallel.
[0043]
Next, a method for assembling the imaging unit 31 will be described.
First, the lenses 11 and 12 are bonded and fixed to the lens frame 21. Further, the pupil modulation element with the aperture stop 24 attached thereto is bonded and fixed to the lens frame 22, and the lens 14, the interval ring 25, the lens 15, the interval ring 26, and the lens 16 are inserted into the lens frame 22 in this order. Adhere and fix. In addition, the lens 17, the cover glass 18, and the solid-state image sensor 19 are bonded and fixed to the image sensor frame 23. Although not shown, a cable for transmitting an electrical signal is soldered to the solid-state image sensor and connected to the camera controller 2.
[0044]
Next, as shown in FIG. 4, the rotational positional relationship around the optical axis (Z axis) of the pupil modulation element 13a fixed to the lens frame 22 and the solid-state image sensor 19 fixed to the imaging element frame 23 is The X-axis of the pupil modulation element 13a and the horizontal (scanning) direction (hereinafter referred to as the H direction) of the pixel array of the solid-state image sensor 19 are parallel, and the Y-axis of the pupil modulation element 13a and the solid-state image sensor 19 The lens frame 22 and the image sensor frame 23 are positioned so that the vertical (perpendicular to the scanning direction) direction (hereinafter referred to as the V direction) of the pixel array of FIG. Furthermore, the lens frame 22 and the image sensor frame 23 that are rotationally positioned around the optical axis are adjusted so that the focus position between the objective optical system 32 configured by the lens frames 21 and 22 and the image sensor frame is appropriate. Bonding and fixing are performed at a position where the surface distance between the flat lens 16 and the flat lens 17 is adjusted.
[0045]
Next, by attaching the lens frame 21 to the lens frame 22 and rotating the lens frame 21 around the optical axis, adjustment is performed so that the declination generated due to variations in the optical system of the imaging unit 31 is minimized, and adhesion is performed. Fix it. The solid-state image sensor 19 is connected to the monitor 4 via the camera controller 2.
[0046]
The camera controller 2 includes an A / D converter (not shown) that converts an image signal from the connected endoscope 1 into a digital signal, and a signal converter (not shown) that converts the digital signal into a video signal. And a D / A converter (not shown) that converts the video signal into an analog signal that can be displayed on the monitor 4.
[0047]
(Function)
The pupil modulation element 13a having the shape described above generates exp {i × 2.414 (XThree+ YThree) /0.2043}.
[0048]
A subject to be observed forms an image on a light receiving surface on the solid-state image sensor 19 having a pixel pitch of 7 μm through an objective optical system including the pupil modulation element 13a, and is converted into an electric signal (image signal) by the solid-state image sensor 19. . The electric signal is converted into a digital signal by an A / D converter in the camera controller 2 and converted into a video signal by a signal converter. The video signal is converted into an analog signal that can be displayed on the monitor 4 by a D / A converter, and a subject is displayed on the monitor 4.
[0049]
Here, the H direction and the V direction on the solid-state image sensor 19 coincide with the horizontal (scanning) direction (hereinafter referred to as H direction) and the vertical (perpendicular to the scanning direction) direction (hereinafter referred to as V direction) of the monitor 4, respectively. The camera controller 2 performs signal processing. Since the X-axis direction and the Y-axis direction of the pupil modulation element 13a coincide with the H direction and V direction of the solid-state image sensor 19, as described above, they also coincide with the H direction and V direction of the monitor 4, respectively.
[0050]
The imaging unit 31 was focused so that the area of the point image intensity distribution function (PSF) on the light receiving surface of the solid-state imaging device 19 at the object distance of 13.5 mm was minimized.
[0051]
  Regarding the point image on the light receiving surface of the solid-state imaging device 19 when the object distance is 71 mm, 13.5 mm, 7.2 mm, and 4 mm, and the response of the optical transfer function on the optical axis at each object distance, Optical simulation software Code-V (Registered trademark) Was used for calculation. As a result, the area of the point image on the light-receiving surface of the solid-state imaging device at each object distance was obtained as a point image having a size in a square region with one side being 22 μm, 14 μm, 20 μm, and 31 μm.
[0052]
5 to 8 show the results of the point image in which the light-receiving surface of the solid-state imaging device is the XY plane and the intensity (percentage) of light in each pixel is the Z axis. FIG. 9 shows the calculation result of the response of the optical transfer function on the optical axis at each object distance and in the pupil modulation element X-axis direction. FIG. 10 shows the calculation results of the optical transfer function responses on the optical axis and in the pupil modulation element X-axis direction and the diagonal direction when the object distance is 13.5 mm.
[0053]
5 to 8, the XY plane corresponds to the light-receiving surface of the solid-state imaging device, and the Z axis is the light intensity. In FIG. 9, A is the object distance 71 mm, B is the object distance 13.5 mm, C is the object distance 7.2 mm, and D is the response of the optical transfer function when the object distance is 4 mm. In FIG. 10, B is the pupil modulation element X-axis direction, E is the diagonal direction passing through the first quadrant and the third quadrant in the XY plane with the XY axis of the pupil modulation element as an axis, and F is the pupil modulation element XY axis. It is a response of the optical transfer function in the diagonal direction passing through the second quadrant and the fourth quadrant in the XY plane as an axis.
[0054]
Although only the calculation result in the X-axis direction of the pupil modulation element is shown here, the same result as that in the X-axis direction is obtained in the Y-axis direction of the pupil modulation element, and thus omitted.
[0055]
A point image when the object distance is 13.5 mm is shown in FIG. 6, which corresponds to a square region having a side of 14 μm, that is, one side of a solid-state imaging device having a pixel pitch of 7 μm is equivalent to 2 pixels and an area of 4 pixels. Obtained as a point image with light intensity distribution.
[0056]
In addition, the point images when the object distance is 71 mm, 7.2 mm, and 4 mm are respectively 22 μm, 20 μm, and 31 μm on one side, that is, 3.1 pixels, 2.9 pixels, and 4.4 pixels on one side. The light intensity distribution shown in FIGS. 5 and 7 to 9 is obtained in the corresponding square region.
[0057]
Furthermore, in the solid-state imaging device 19 with a pixel pitch of 7 μm, the Nyquist frequency is 71 line pairs / mm, but as shown in FIG. 9, the response of the optical transfer function at the Nyquist frequency at a position where the object distance is 4 mm is It can be seen that the resolution is 0.2 or more.
[0058]
Further, as shown in FIG. 10, it can be seen that the response is reduced by about 0.1 in the high frequency region in the diagonal direction as compared to the pupil modulation element X-axis direction.
[0059]
As a comparative example, the case of a normal optical system using a parallel plate of the same material instead of the pupil modulation element 13a in the imaging unit 31 of FIG. 2 will be described. The lens data of the normal optical system is obtained by changing the shape of the seventh surface in Table 1 from a free-form surface to a flat surface.
[0060]
  As in the case of the imaging unit 31 in which the pupil modulation element 13a is arranged, adjustment is performed so that the area of the point image (PSF) on the light receiving surface of the solid-state imaging element at the object distance of 13.5 mm is minimized. went. When the object distance is 71 mm, 13.5 mm, 7.2 mm, and 4 mm, the point image on the light receiving surface of the solid-state imaging device 19 and the response of the optical transfer function on the optical axis at each object distance Optical simulation software Code-V (Registered trademark) Was used for calculation.
[0061]
As a result, the area of the point image on the light receiving surface of the solid-state image sensor at each object distance was obtained as a point image having a size in a square area with one side of 16 μm, 1 μm, 14 μm, and 36 μm. 11 to 14 show the results of the point image in which the light-receiving surface of the solid-state imaging device is the XY plane and the intensity (percentage) of light in each pixel is the Z axis. FIG. 15 shows the calculation result of the response of the optical transfer function on the optical axis at each object distance.
[0062]
In FIG. 15, A is the object distance 71 mm, B is the object distance 13.5 mm, C is the object distance 7.2 mm, and D is the response of the optical transfer function when the object distance is 4 mm.
[0063]
When the object distance is 13.5 mm, the point image corresponds to a square region with one side of 1 μm, that is, one side of the solid-state imaging device 11 with a pixel pitch of 7 μm corresponds to one pixel in terms of area. It is obtained as a point image having the light intensity distribution shown. In addition, the point images when the object distance is 71 mm, 7.2 mm, and 4 mm are 16 μm, 14 μm, and 36 μm on one side, that is, one side corresponds to 2.3 pixels, 2 pixels, and 5.1 pixels, respectively. Is obtained as a point image having the light intensity distribution shown in FIGS. Further, as shown in FIG. 15, it can be seen that the response of the optical transfer function at the Nyquist frequency is 0.2 or more when the object distance is 7.2 mm or more and less than 71 mm.
[0064]
(effect)
As described above, in the case of a normal endoscope that does not include the pupil modulation element 13a, when the object distance is closer than 7.2 mm, the response of the optical transfer function at the Nyquist frequency is less than 0.2, so that the resolution is not achieved.
[0065]
On the other hand, in the case of the endoscope including the pupil modulation element 13a according to the present embodiment, the optical transfer function response at the Nyquist frequency exceeds 0.2 even at an object distance of 4 mm, so that it can be resolved. . Further, since the phase modulation amount a by the pupil modulation element 13a is set to a sufficiently small value of 2.4 14, the pupil is within the depth of field where the response of the optical transfer function is 0.2 or more. The asymmetrical aberration (blur) generated by the modulation element 13a is about several pixels at the maximum, and the asymmetrical aberration is at a level that cannot be recognized on the monitor 4. This shows that the depth of field is expanded.
[0066]
Further, since the X-axis direction and the Y-axis direction of the pupil modulation element 13a in the present embodiment coincide with the H direction and V direction of the monitor 4, respectively, the H direction and V direction on the monitor 4 are optically transmitted. The response of the function is relatively high, and the response of the optical transfer function is displayed relatively low in the diagonal direction on the monitor 4. Due to the characteristics of human vision, it is known that the resolution in the diagonal direction is lower than the resolution in the horizontal and vertical directions. In this embodiment, the direction in which the response of the optical transfer function is relatively high is visually. Since the relatively low direction is located in the diagonal direction in the horizontal and vertical directions, the response of the diagonal optical transfer function is difficult to see and the apparent resolution is reduced. Can be prevented.
[0067]
Here, in the present embodiment, the X-axis direction and the Y-axis direction of the pupil modulation element 13a are arranged so as to coincide with the H direction and V direction of the monitor 4, respectively, but the present invention is not limited to this. If the diagonal direction of the pupil modulation element 13a coincides with the diagonal direction of the pupil modulation element 13a, the same effect can be obtained even if the X-axis direction and Y-axis direction of the pupil modulation element 13a coincide with the V direction and H direction of the monitor 4, respectively. Needless to say, is obtained.
[0068]
In this embodiment, the pixel pitch of the solid-state image sensor is 7 μm. However, the present invention is not limited to this, and the size of the point image at the focus position where the area of the point image on the light-receiving surface of the solid-state image sensor is the smallest. However, by adjusting the aperture size of the aperture stop 24 and the shape of the pupil modulation element 13a so that one side is 2 pixels of the pixel pitch and the area is 4 pixels, a similar depth of field can be obtained. Enlargement is possible.
[0069]
Further, in the present embodiment, the size of the point image at the focus position where the area of the point image on the light receiving surface of the solid-state image pickup element is the smallest is set to 4 pixels with an area corresponding to 2 pixels of the pixel pitch of the solid-state image pickup element. However, when the size of the point image is 6 pixels with a pixel pitch of one side and an area of 36 pixels, the modulation coefficient α of the pupil modulation element is 7.243. Since the response of the optical transfer function at an object distance of 4 mm is 0.2 or more and the size of the point image at an object distance of 4 mm is about 8 pixels on a side, the same depth of field can be expanded. .
[0070]
In this embodiment, a glass material is used for the pupil modulation element 13a, but a resin material may be used. In this embodiment, optically transparent glass is used for the pupil modulation element 13a. However, an optical filter material that transmits only a specific wavelength may be used. Further, the shape of the pupil modulation element 13a in the present embodiment has the same conversion amount of the optical transfer function in the X-axis direction and the Y-axis direction, but the conversion amount differs depending on the X-axis direction and the Y-axis force direction. Anyway. For example, the aperture shape of the aperture stop 24 may be set to a rectangle, or the coefficients of the free curved surface of the pupil modulation element 13a may be different from each other in the X-axis direction and the Y-axis direction. The same effect can be obtained even if the brightness diaphragm 24 is circular. In this case, there is an effect that it is not necessary to adjust the rotation direction of the aperture stop 24 and the pupil modulation element 13a with respect to the optical axis. Further, the aperture stop 24 may not be separate from the pupil modulation element 13a, and may be formed directly on the pupil modulation element 13a by vapor deposition or the like.
[0071]
In the present embodiment, the lens frame 21 is rotated around the optical axis so that the declination generated due to variations in the optical system of the imaging unit 31 is adjusted to the minimum. The configuration of the lens frame including the lenses 11 and 12 may be configured as shown in FIGS. 16 to 18 so as to cope with a large deviation angle.
[0072]
In FIG. 16, a spacer 27 is inserted between the lens frame 21 and the lens 11 and the axis of the lens frame 21 and the axis of the lens 11 are inclined. FIG. 17 is configured by shifting the axes of the lens 11 insertion portion and the lens 12 insertion portion of the lens frame 21a. In FIG. 18, the insertion portion of the lens 11 of the lens frame 21b is processed to be larger than the outer diameter of the lens 11, and the axis of the lens 11 is displaced and fixed with respect to the axis of the lens frame 21b. is there.
[0073]
In the configurations shown in FIGS. 16 to 18, the optical axis of the lens frame member to which the lenses 11 and 12 are bonded and fixed even if the declination due to variations in the optical system generated between the lens frame 22 and the image sensor frame 23 is large. Is relatively decentered, it is possible to adjust the deflection angle of the imaging unit 31.
[0074]
Second embodiment:
The basic configuration of this embodiment is the same as that of the first embodiment, and the rotational positional relationship around the optical axis of the pupil modulation element and the solid-state imaging element is different. Hereinafter, the difference will be described with emphasis.
[0075]
FIG. 19 is a schematic diagram showing the relationship between the pupil modulation element and the rotation position of the solid-state image sensor with respect to the optical axis in the second embodiment of the endoscope system of the present invention, and FIG. 20 shows the pixel pitch of the solid-state image sensor. A schematic diagram is shown.
[0076]
In the imaging unit according to the present embodiment, as shown in FIG. 19, the optical axis (Z axis) around the pupil modulation element 13 a fixed to the lens frame 22 and the solid-state imaging element 19 fixed to the imaging element frame 23. , The X-axis of the pupil modulation element 13a and the H direction of the pixel array of the solid-state image sensor 19 form an angle of about 45 degrees, and the Y-axis of the pupil modulation element 13a and the solid-state image sensor The lens frame 22 and the image sensor frame 23 are positioned so that the V direction of the 19 pixel array forms an angle of approximately 45 degrees.
[0077]
(Function)
As shown in FIG. 20, in the solid-state imaging device in which the pixels are arranged in a lattice shape, the pixel pitch in the oblique direction is smaller than the pixel pitch in the V direction and the H direction. That is, the resolution of the solid-state imaging device is higher in the oblique direction than in the V direction and the H direction.
[0078]
In the present embodiment, the X-axis direction and the Y-axis direction of the pupil modulation element 13 a coincide with the oblique direction of the solid-state image sensor 19, and the diagonal direction of the pupil modulation element 13 a is the H direction of the solid-state image sensor 19. , Coincides with the V direction.
[0079]
(effect)
The X-axis direction and Y-axis direction in which the response of the optical transfer function of the pupil modulation element 1 3 a is relatively high coincide with the oblique direction in which the resolution of the solid-state imaging device 19 is relatively high, and the pupil modulation element 13 a Since the diagonal direction in which the response of the optical transfer function is relatively low coincides with the V direction and the H direction in which the solid-state imaging device 19 has a relatively low resolution, the light around the optical axis generated in the pupil modulation element 13a. It is possible to minimize the influence of the change in the response of the dynamic transfer function.
[0080]
In the present embodiment, the pixel array of the solid-state image sensor has been described as having a lattice shape. However, the present invention is not limited to this, and the same effect can be obtained by using a solid-state image sensor having a honeycomb array. In the case of the honeycomb arrangement, since the pixel pitch is smaller in the H direction and the V direction than in the oblique direction, the resolution in the H direction and the V direction is higher than that in the oblique direction. For this reason, the X-axis direction and the Y-axis direction of the pupil modulation element may be arranged so as to coincide with the H direction and V direction with relatively high resolution.
[0081]
The present invention is not limited to the above-described embodiments, and various changes and modifications can be made without departing from the scope of the present invention.
[0082]
【The invention's effect】
As described above, according to the present invention, an endoscope having an optical phase modulation member is mounted on a signal processing device that is not equipped with a restoration processing unit corresponding to the optical phase modulation member disposed in the endoscope optical system. Even if connected, there is an effect that the depth of field can be expanded and a high-resolution image can be generated.
[Brief description of the drawings]
FIG. 1 is a configuration diagram showing a schematic configuration of an endoscope system according to a first embodiment of the present invention.
FIG. 2 is a cross-sectional view of an imaging unit including an optical phase modulation member according to the first embodiment.
FIG. 3 is a schematic diagram of a pupil modulation element having an aperture stop according to the first embodiment;
FIG. 4 is a schematic diagram showing a positional relationship around the optical axis of the pupil modulation element and the solid-state imaging element according to the first embodiment.
FIG. 5 is a diagram of a point image simulation result obtained when the object distance is 71 mm in the imaging unit including the pupil modulation element according to the first embodiment;
FIG. 6 is a diagram of a point image simulation result obtained when the object distance is 13.5 mm in the imaging unit including the pupil modulation element according to the first embodiment;
FIG. 7 is a diagram of a point image simulation result obtained when the object distance is 7.2 mm in the imaging unit including the pupil modulation element according to the first embodiment;
FIG. 8 is a diagram of a point image simulation result obtained when the object distance is 4 mm in the imaging unit including the pupil modulation element according to the first embodiment;
FIG. 9 is a diagram showing a simulation result of the response of the optical transfer function at each object distance in the imaging unit including the pupil modulation element according to the first embodiment.
FIG. 10 is a diagram of the simulation result of the response of the optical transfer function at an object distance of 13.5 mm in the imaging unit including the pupil modulation element according to the first embodiment.
FIG. 11 is a diagram of a point image simulation result obtained when the object distance is 71 mm in an imaging unit in a normal objective optical system.
FIG. 12 is a diagram showing a simulation result of a point image obtained when an object distance is 13.5 mm in an imaging unit in a normal objective optical system.
FIG. 13 is a diagram of a point image simulation result obtained when the object distance of the imaging unit in the normal objective optical system is 7.2 mm.
FIG. 14 is a diagram of a simulation result of a point image obtained when an object distance is 4 mm in an imaging unit in a normal objective optical system.
FIG. 15 is a diagram of a simulation result of a response of an optical transfer function at each object distance in an imaging unit in a normal objective optical system
FIG. 16 is a cross-sectional view of one modification of a member composed of the lens frame 21, the plano-concave lens 11 and the biconvex lens 12 according to the first embodiment;
17 is a cross-sectional view of a second modification of the member constituted by the lens frame 21, the plano-concave lens 11 and the biconvex lens 12 of the first embodiment. FIG.
18 is a cross-sectional view of a third modification of the member constituted by the lens frame 21, the plano-concave lens 11 and the biconvex lens 12 of the first embodiment. FIG.
FIG. 19 is a schematic diagram showing the relationship between the rotational position of the pupil modulation element and the solid-state image sensor according to the second embodiment of the present invention with respect to the optical axis;
FIG. 20 is a schematic diagram showing a pixel pitch of a solid-state imaging device showing a second embodiment;
FIG. 21 is a diagram schematically showing a configuration of an enlarged depth of field optical system according to a conventional example.
FIG. 22 is a diagram for explaining the external shape of a cubic phase modulation mask according to a conventional example;
FIG. 23 is a graph showing the response of an optical transfer function (OTF) when an object is at a focal position in a normal optical system.
FIG. 24 is a graph showing a response of an optical transfer function (OTF) when an object moves out of a focal position in a normal optical system.
FIG. 25 is a graph showing the response of an optical transfer function (OTF) when an object moves further from the focal position than in FIG. 24 in a normal optical system.
FIG. 26 is a graph showing a response of an optical transfer function (OTF) when an object is at a focal position in an enlarged depth of field optical system.
FIG. 27 is a graph showing the intensity distribution of an optical transfer function (OTF) when an object is out of focus in an enlarged depth of field optical system.
28 is a graph showing the response of the optical transfer function (OTF) when the object is further out of the focal position than in FIG. 27 in the enlarged depth of field optical system.
FIG. 29 is a graph showing the characteristics of an inverse filter of processing performed on an optical transfer function (OTF) response in an enlarged depth of field optical system.
30 is a graph showing the response of the optical transfer function (OTF) obtained by processing the response of the optical transfer function (OTF) of FIG. 26 with the inverse filter having the characteristics of FIG.
31 is a graph showing the response of the optical transfer function (OTF) obtained by processing the response of the optical transfer function (OTF) of FIG. 27 with the inverse filter having the characteristics of FIG.
32 is a graph showing the response of the optical transfer function (OTF) obtained by processing the response of the optical transfer function (OTF) of FIG. 28 using the inverse filter having the characteristics of FIG.
FIG. 33 is a configuration diagram showing a schematic configuration of a conventional endoscope system for connecting a plurality of types of endoscopes and observing an image of a subject on a monitor.
34 is a block diagram showing the configuration of the conventional camera controller of FIG. 33. FIG.
[Explanation of symbols]
1 ... Endoscope
2. Camera controller (signal processing device)
3. Light source device
4 ... Monitor
11 ... Plano-concave lens
12 ... Biconvex lens
13: Optical phase modulation member
13a ... Pupil modulation element
14, 16, 17 ... Flat lens
15 ... Bonded lens
18 ... Cover glass
19 ... Solid-state imaging device
21,22 ... Lens frame
23 ... Image sensor frame
24 ... Brightness stop
25, 26 ... spacing ring
31 ... Imaging unit
32 ... Objective optical system

Claims (6)

被写体像光を入光する対物光学系と、
前記対物光学系の光軸上後段側の当該光軸に対して垂直な平面上において、前記対物光学系に入光した被写体像光を結像する受光面の中心を前記光軸と一致させて配設され、前記対物光学系に入光した被写体像を撮像する固体撮像素子と、
前記対物光学系に設けられ、前記光軸を軸として非対称な光学的伝達関数を有する光位相変調部材と、
を備え、
前記光位相変調部材は、前記光軸に対して垂直な平面上において当該光軸と交わる点を含む当該平面上の軸方向であって、前記光学的伝達関数のレスポンスが最も低くなる軸方向を、前記固体撮像素子からの映像信号を表示するモニタにおける略対角方向に一致させるように、当該光軸周りに回転した位置に配置した
ことを特徴とする内視鏡装置。
An objective optical system for receiving subject image light;
On the plane perpendicular to the optical axis on the rear side of the optical axis of the objective optical system, the center of the light receiving surface that forms the subject image light incident on the objective optical system is aligned with the optical axis. A solid-state imaging device that is disposed and images a subject image incident on the objective optical system;
An optical phase modulation member provided in the objective optical system and having an asymmetric optical transfer function around the optical axis;
With
The optical phase modulation member has an axial direction on the plane including a point intersecting the optical axis on a plane perpendicular to the optical axis, and an axial direction in which the response of the optical transfer function is lowest. And arranged at a position rotated around the optical axis so as to coincide with a substantially diagonal direction in a monitor for displaying a video signal from the solid-state imaging device.
An endoscope apparatus characterized by that .
被写体像光を入光する対物光学系と、
前記対物光学系の光軸上後段側の当該光軸に対して垂直な平面上において、前記対物光学系に入光した被写体像光を結像する受光面の中心を前記光軸と一致させて配設され、前記対物光学系に入光した被写体像を撮像する固体撮像素子と、
前記対物光学系に設けられ、前記光軸を軸として非対称な光学的伝達関数を有する光位相変調部材と、
を備え、
前記光位相変調部材は、前記光軸に対して垂直な平面上において当該光軸と交わる点を含む当該平面上の軸方向であって、前記光学的伝達関数のレスポンスが最も低くなる軸方向を、前記固体撮像素子における前記受光面において当該固体撮像素子の画素ピッチが最も大きくなる方向に一致させるように、当該固体撮像素子に対して相対的に当該光軸周りに回転した位置に配置した
ことを特徴とする内視鏡装置。
An objective optical system for receiving subject image light;
On the plane perpendicular to the optical axis on the rear side of the optical axis of the objective optical system, the center of the light receiving surface that forms the subject image light incident on the objective optical system is aligned with the optical axis. A solid-state imaging device that is disposed and images a subject image incident on the objective optical system;
An optical phase modulation member provided in the objective optical system and having an asymmetric optical transfer function around the optical axis;
With
The optical phase modulation member has an axial direction on the plane including a point intersecting the optical axis on a plane perpendicular to the optical axis, and an axial direction in which the response of the optical transfer function is lowest. The light receiving surface of the solid-state imaging device is arranged at a position rotated around the optical axis relative to the solid-state imaging device so as to coincide with the direction in which the pixel pitch of the solid-state imaging device is maximized.
An endoscope apparatus characterized by that .
被写体像光を入光する対物光学系と、
前記対物光学系の光軸上後段側の当該光軸に対して垂直な平面上において、前記対物光学系に入光した被写体像光を結像する受光面の中心を前記光軸と一致させて配設され、前記対物光学系に入光した被写体像を撮像する固体撮像素子と、
前記対物光学系に設けられ、前記光軸を軸として非対称な光学的伝達関数を有する光位相変調部材と、
を備え、
前記光位相変調部材は、前記光軸に対して垂直な平面上において当該光軸と交わる点を含む当該平面上の軸方向であって、前記光学的伝達関数のレスポンスが最も低くなる軸方向を、前記固体撮像素子における前記受光面において当該固体撮像素子の画素ピッチが最も大きくなる方向に一致させると共に、前記固体撮像素子からの映像信号を表示するモニタにおける略対角方向に一致させるように、当該固体撮像素子に対して相対的に当該光軸周りに回転した位置に配置した
ことを特徴とする内視鏡装置。
An objective optical system for receiving subject image light;
On the plane perpendicular to the optical axis on the rear side of the optical axis of the objective optical system, the center of the light receiving surface that forms the subject image light incident on the objective optical system is aligned with the optical axis. A solid-state imaging device that is disposed and images a subject image incident on the objective optical system;
An optical phase modulation member provided in the objective optical system and having an asymmetric optical transfer function around the optical axis;
With
The optical phase modulation member has an axial direction on the plane including a point intersecting the optical axis on a plane perpendicular to the optical axis, and an axial direction in which the response of the optical transfer function is lowest. The light receiving surface of the solid-state imaging device is matched with the direction in which the pixel pitch of the solid-state imaging device is the largest, and is matched with the substantially diagonal direction of the monitor that displays the video signal from the solid-state imaging device. Arranged at a position rotated around the optical axis relative to the solid-state imaging device
An endoscope apparatus characterized by that .
前記光位相変調部材を有する対物光学系の前記光学的伝達関数のレスポンスは、前記光位相変調部材を持たない場合の対物光学系の被写界深度よりも広い物体距離にわたって、前記固体撮像素子のナイキスト周波数までレスポンスが0.2以上ある
ことを特徴とする請求項1−3のいずれか一項に記載の内視鏡装置。
The response of the optical transfer function of the objective optical system having the optical phase modulation member is over the object distance wider than the depth of field of the objective optical system without the optical phase modulation member. The endoscope apparatus according to any one of claims 1 to 3, wherein a response is 0.2 or more up to a Nyquist frequency.
点像の前記固体撮像素子受光面上の面積が最も小さくなる物体距離において、前記光位相変調部材を有する内視鏡の対物光学系の前記点像の固体撮像素子受光面上の面積Wは、前記固体撮像素子の画素ピッチをPとしたときに、
W≦36×P2
を満たす
ことを特徴とする請求項1−4のいずれか一項に記載の内視鏡装置。
The area W of the point image on the solid-state imaging device light-receiving surface of the objective optical system of the endoscope having the optical phase modulation member at the object distance where the area of the point image on the solid-state imaging device light-receiving surface is the smallest is When the pixel pitch of the solid-state image sensor is P,
W ≦ 36 × P2
The endoscope apparatus according to any one of claims 1 to 4, wherein:
前記光位相変調部材は、前記対物光学系の光軸をZ軸としたときに互いに直交する2軸をX、Yとしたとき、
exp{i×α(X3+Y3)} (但し、|X|≦1、|Y|≦1)
の位相の変換を行うものであり、前記係数αは8以下である
ことを特徴とする請求項1−5のいずれか一項に記載の内視鏡装置。
When the optical axis of the objective optical system is X and Y, the two axes orthogonal to each other when the optical axis of the objective optical system is the Z axis,
exp {i × α (X3 + Y3)} (where | X | ≦ 1, | Y | ≦ 1)
The endoscope apparatus according to claim 1, wherein the coefficient α is 8 or less.
JP2003041607A 2003-02-19 2003-02-19 Endoscope device Expired - Fee Related JP4358531B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003041607A JP4358531B2 (en) 2003-02-19 2003-02-19 Endoscope device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003041607A JP4358531B2 (en) 2003-02-19 2003-02-19 Endoscope device

Publications (2)

Publication Number Publication Date
JP2004248832A JP2004248832A (en) 2004-09-09
JP4358531B2 true JP4358531B2 (en) 2009-11-04

Family

ID=33025143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003041607A Expired - Fee Related JP4358531B2 (en) 2003-02-19 2003-02-19 Endoscope device

Country Status (1)

Country Link
JP (1) JP4358531B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4948967B2 (en) * 2006-10-27 2012-06-06 京セラ株式会社 Imaging device, manufacturing apparatus and manufacturing method thereof
JP4948990B2 (en) * 2006-11-29 2012-06-06 京セラ株式会社 Imaging device, manufacturing apparatus and manufacturing method thereof
JP4916869B2 (en) * 2006-12-22 2012-04-18 京セラ株式会社 Imaging device, manufacturing apparatus and manufacturing method thereof
WO2008105431A1 (en) * 2007-02-26 2008-09-04 Kyocera Corporation Image picking-up device, image picking-up method, and device and method for manufacturing image picking-up device
JP5866321B2 (en) * 2013-09-02 2016-02-17 富士フイルム株式会社 OPTICAL UNIT, ENDOSCOPE DEVICE, AND OPTICAL UNIT MANUFACTURING METHOD

Also Published As

Publication number Publication date
JP2004248832A (en) 2004-09-09

Similar Documents

Publication Publication Date Title
JP3791777B2 (en) Electronic endoscope
JP3958603B2 (en) Electronic endoscope system and signal processing apparatus for electronic endoscope system
US10185138B2 (en) Imaging apparatus
JP5415973B2 (en) IMAGING DEVICE, ENDOSCOPE SYSTEM, AND OPERATION METHOD OF IMAGING DEVICE
JP2000005127A (en) Endoscope system
JP5866565B1 (en) Endoscope
JP5677366B2 (en) Imaging device
JP2010256627A (en) Wide angle lens and imaging device
KR101591937B1 (en) Surgical head mounted display
JP2014164174A (en) Solid-state image pickup device, portable information terminal and solid-state imaging system
JP2017003810A (en) Electrical lens, optical unit, and imaging apparatus
JP4358531B2 (en) Endoscope device
WO2006106737A1 (en) Imaging device and imaging method
JPH07294827A (en) Endoscope
JP6352673B2 (en) Endoscope apparatus and operation method of endoscope apparatus
JP2012253602A (en) Imaging optical system and imaging apparatus
JP2000152063A (en) Image pickup device
JP2001221961A (en) Binocular optical adapter
JP2018063309A (en) Microscope device
JP2021152594A (en) Imaging optical system and imaging apparatus and vehicle
JP3047831U (en) Digital optical microscope and telescope
JP6226207B2 (en) Endoscope
WO2022209125A1 (en) Image capture control device, image capture device, image capture control method, and program
JP2019050508A (en) Stereoscopic imaging apparatus and stereoscopic endoscope
JP3140813B2 (en) Endoscope TV system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090714

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090806

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120814

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4358531

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120814

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130814

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees