JP4202671B2 - Standardized image generation method and apparatus - Google Patents

Standardized image generation method and apparatus Download PDF

Info

Publication number
JP4202671B2
JP4202671B2 JP2002120234A JP2002120234A JP4202671B2 JP 4202671 B2 JP4202671 B2 JP 4202671B2 JP 2002120234 A JP2002120234 A JP 2002120234A JP 2002120234 A JP2002120234 A JP 2002120234A JP 4202671 B2 JP4202671 B2 JP 4202671B2
Authority
JP
Japan
Prior art keywords
image
fluorescent
normalized
correction
standardized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002120234A
Other languages
Japanese (ja)
Other versions
JP2003036436A (en
Inventor
和男 袴田
知成 千代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2002120234A priority Critical patent/JP4202671B2/en
Publication of JP2003036436A publication Critical patent/JP2003036436A/en
Application granted granted Critical
Publication of JP4202671B2 publication Critical patent/JP4202671B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、光の照射により生体組織から発生した互いに異なる波長帯域の再輻射光を画像として検出し、その互いに異なる波長帯域の画像の少なくとも1つに所望のオフセットを付加し、そのオフセットの付加された互いに異なる画像の比を求めることにより規格化画像を生成する規格化画像生成方法および装置に関するものである。
【0002】
【従来の技術】
従来より、生体内在色素の励起光波長領域にある励起光を生体組織に照射した場合に、正常組織と病変組織とでは発する蛍光強度が異なることを利用して、生体組織に所定波長領域の励起光を照射し、生体内在色素が発する蛍光を検出することにより病変組織の局在、浸潤範囲を認識する蛍光検出装置が提案されている。
【0003】
通常、励起光を照射すると、図10に実線で示すように正常組織からは強い蛍光が発せられ、病変組織からは破線で示すように正常組織から発せられる蛍光より弱い蛍光が発せられるため、蛍光強度を測定することにより、生体組織が正常であるか病変状態にあるかを判定することができる。
【0004】
さらに、励起光による蛍光を撮像素子などにより撮像し、蛍光の強度に応じた蛍光画像を表示することにより生体組織が正常であるか病変状態にあるかを判定する方法も提案されている。この技術においては、生体組織には凹凸があるため、生体組織に照射される励起光の強度は均一でなく、生体組織から発せられる蛍光強度は光源と生体組織との距離の2乗に比例して低下する。また、その蛍光の検出手段と生体組織との距離についても、その2乗に比例して低下する。そのため、光源または検出手段から遠くにある正常組織からよりも近くにある病変組織からの方が、強い蛍光を受光する場合があり、励起光による蛍光の強度の情報だけでは生体組織の組織性状を正確に識別することができない。このような不具合を低減するために、異なる波長帯域(480nm付近の狭帯域と430nm近傍から730nm近傍の広帯域)から取得した2種類の蛍光強度に基づく蛍光画像の比率を除算により求め、その除算値に基づく規格化蛍光画像を生成する方法、すなわち、生体の組織性状を反映した蛍光スペクトルの形状の違いに基づいた規格化画像生成方法が提案されている。また、異なる波長帯域の蛍光画像の除算値に色の情報を割り当て、その色の違いにより生体組織の病変状態を色画像として示す方法や、さらに、種々の生体組織に対して一様な吸収を受ける近赤外光を参照光として生体組織に照射し、この参照光の照射による生体組織からの反射光の強度に基づく参照画像を検出し、その参照画像に輝度の情報を割り当てることにより得られた輝度画像を上記色画像と合成することにより、生体組織の形状も画像に反映させた凹凸感のある画像を示す方法なども提案されている。
【0005】
また、上記のように異なる波長帯域の蛍光画像の除算値に基づいて規格化蛍光画像を生成する場合、その規格化演算に用いられる生体組織からの蛍光強度は微弱であるため、この蛍光強度に基づく上記規格化蛍光画像のS/Nは非常に低いものとなる。これを改善するため異なる波長帯域の蛍光画像の少なくとも1つにオフセットを付加して上記除算値を演算することにより、上記規格化蛍光画像のS/Nを向上させる方法が提案されている。
【0006】
【発明が解決しようとする課題】
しかしながら、上記のようにオフセットを付加して除算値を求める際、良好なS/Nを得るためにはオフセットの値を大きくすればよいが、蛍光強度はその検出手段と生体組織との距離に依存して大きさが変化するため、オフセット値を大きくし過ぎると、検出手段から遠点にある生体組織と近点にある生体組織とが同じ性状でもその除算値が大きく異なる場合が生じる。そのため、病変部の生体組織と正常部の生体組織との区別が困難となる。例として、図8に所定の正常部の生体組織および病変部の生体組織について、狭帯域蛍光画像とオフセットを付加した広帯域蛍光画像の除算値(狭帯域蛍光画像/(広帯域蛍光画像+オフセット))を算出したときのその除算値と上記距離との関係を示す。オフセットの値は5、10、15および20を使用し、正常部の生体組織についての除算値は白抜き記号で示し、病変部の生体組織についての除算値は黒塗り記号で示している。図示のとおり除算値が上記距離によって変化し、オフセットの値が大きいほど上記距離が大きくなると正常部と病変部との除算値の差がより小さくなりその識別が困難になることがわかる。また、逆にオフセットの値が小さくすると、距離による除算値の変化は少なくなるが、当然、そのオフセット付加による規格化蛍光画像のS/Nの向上の効果が十分に得られない問題が生じる。さらに、図9(A)、(B)に所定の生体組織について、検出手段と生体組織との距離が大きい(遠点)ときの上記除算値に基づく規格化蛍光画像(図9(A))と距離が小さい(近点)ときの上記除算値に基づく規格化蛍光画像(図9(B))を示す。なお、このときのオフセットは20であり、各画像において周辺画像よりも比較的暗い部分が病変部の画像を意味する。図示のとおり、本来遠点と近点との画像ではその病変部の画像同志、またはその正常部の画像同志がともに同じ明るさで表示されなければならないが、遠点の画像の方が近点の画像より暗く、正常部と病変部の画像のコントラストも小さいため、その識別がつきにくくなっている。
【0007】
本発明は、上記のような従来技術の問題点に鑑みて、互いに異なる波長帯域の画像の少なくとも1つに所望のオフセットを付加して規格化演算を行なって規格化画像を生成する規格化画像生成方法および装置において、検出手段と生体組織との距離に依存することなく、その距離が変化した場合においても一定の規格化演算値をとることができる規格化画像生成方法および装置を提供することを目的とするものである。
【0008】
【課題を解決するための手段】
本発明の規格化画像生成方法は、光の照射により生体組織から発生する再輻射光に基づいて互いに異なる波長帯域の画像を画像検出手段によりそれぞれ検出し、互いに異なる波長帯域の画像の少なくとも1つに所望のオフセットを付加し、その少なくとも1つに所望のオフセットが付加された互いに異なる波長帯域の画像の比に基づいて規格化画像を生成する規格化画像生成方法において、規格化画像に所定の補正関数を用いて生体組織と画像検出手段との距離に起因する規格化画像の変動量を補正する距離補正を施して補正規格化画像を生成することを特徴とする。
【0009】
ここで、上記「画像検出手段」とは、例えば、励起光の照射により生体組織から発せられる蛍光を検出する蛍光内視鏡において、生体内に挿入される内視鏡挿入部、内視鏡挿入部により導光された蛍光を撮像する撮像素子およびその撮像素子までの導光部を含めたものを意味する。そして、互いに異なる波長帯域の画像について、撮像素子や導光部などの一部をそれぞれ別個に設けてもよいし、共通にしてもよい。
【0010】
また、上記「互いに異なる波長帯域の画像に所望のオフセットを付加する」とは、各画像の各画素値にオフセット値を加えることを意味する。各画像にオフセット値を付加することにより、規格化演算後の規格化画像の画素値のバラツキが小さくなり、規格化画像のS/Nを向上させることができる。オフセット値を付加する部分は、各画像全体でなくても良く、特に画像が暗い部分、つまりS/Nの低い部分にのみに付加しても良い。すなわち、各画像の比に基づいて規格化演算を行なったときに、組織性状の識別の精度が向上するように規格化画像のS/Nを向上させることができる程の大きさのオフセット値を付加すればよい。
【0011】
また、上記「画像の比」とは、互いに異なる波長帯域の画像の各画像において、同じ座標上にある各画素値同志の比を意味するものであり、また「画像の比に基づいて規格化画像を生成する」とは、同じ座標上にある各画素値同志で除算、もしくはそれに類する規格化演算を行なって、その規格化演算された値を画素値とする画像を規格化画像として生成することを意味する。
【0012】
また、上記「生体組織と画像検出手段との距離」とは、検出される画像の画素値の大きさに実質的に影響を及ぼす距離を意味するが、例えば、蛍光内視鏡において、測定対象である生体組織と蛍光内視鏡における内視鏡挿入部の先端との距離を意味する。さらに、生体組織に励起光を照射する励起光照射手段も生体組織との位置関係において移動するような場合には、この移動によっても蛍光画像の画素値が異なるため、上記距離はこの励起光照射手段と生体組織との距離も含むものとする。
【0013】
また、上記「規格化画像の変動量」とは規格化画像の画素値の変動量を意味する。
【0014】
また、上記「距離に起因する規格化画像の変動量を補正する」とは、上記規格化画像の画素値が上記距離に依存して変動しないように画素値の大きさを補正することを意味する。
【0015】
また、本発明の規格化画像生成方法は、励起光の照射により生体組織から発生する蛍光に基づいて互いに異なる波長帯域の蛍光画像を蛍光画像検出手段によりそれぞれ検出し、互いに異なる波長帯域の蛍光画像の少なくとも1つに所望のオフセットを付加し、その少なくとも1つに所望のオフセットが付加された互いに異なる波長帯域の蛍光画像の比に基づいて規格化演算を行なって規格化蛍光画像を生成する規格化画像生成方法において、規格化蛍光画像に所定の補正関数を用いて生体組織と蛍光画像検出手段との距離に起因する規格化蛍光画像の変動量を補正する距離補正を施して補正規格化蛍光画像を生成することを特徴とする。
【0016】
また、上記互いに異なる波長帯域の蛍光画像を、狭帯域蛍光画像および広帯域蛍光画像とすることができる。
【0017】
また、上記補正関数を、性状が既知である所定の生体組織についての広帯域蛍光画像および狭帯域蛍光画像の少なくとも1つに基づいて算出するようにすることができる。
【0018】
また、参照光の照射により性状が既知である所定の生体組織から反射される反射光による参照画像を参照画像検出手段により検出し、補正関数を、その参照画像に基づいて算出するようにすることができる。
【0019】
ここで、上記「参照光画像検出手段」とは、例えば、蛍光内視鏡において生体内に挿入される内視鏡挿入部、内視鏡挿入部により導光された参照光の照射による反射光を撮像する撮像素子およびその撮像素子までの導光部を含めたものを意味する。なお、参照光画像検出手段と蛍光画像検出手段とは、共通の内視鏡挿入部および導光部であることが望ましいが、波長帯域が異なるので各画像の波長帯域を選択する光学フィルタをそれぞれ設ける必要がある。また、撮像素子も共通にする場合には露光するタイミングをずらして撮像するようにすればよい。
【0020】
また、補正関数を参照画像に基づいて算出する場合には、参照画像検出手段と生体組織との距離と蛍光画像検出手段と生体組織との距離を等しくすることが望ましい。
【0021】
また、補正関数を、次の(5)式で表されるものとし、補正規格化蛍光画像を、次の(6)式により算出するようにすることができる。
【0022】
(nir+os2)/nir …(5)
{n/(w+os1)}×{(nir+os2)/nir} …(6)
ただし、
n:狭帯域蛍光画像
w:広帯域蛍光画像
nir:参照画像
os1:オフセット
os2:補正係数、os2=os1×knir/kw
knir:参照画像/生体組織と参照画像検出手段との距離
kw:広帯域蛍光画像/生体組織と蛍光画像検出手段との距離
ここで、上記n、wおよびnirはそれぞれ狭帯域蛍光画像、広帯域蛍光画像および参照画像の画素値を意味する。また、knirは参照画像の画素値を生体組織と参照画像検出手段との距離で除算したものであり、つまり単位距離あたりの参照画像の画素値を意味する。また、kwは広帯域蛍光画像の画素値を生体組織と蛍光画像検出手段との距離で除算したものであり、つまり単位距離あたりの広帯域蛍光画像の画素値を意味する。さらに、補正係数os2は上式のとおりオフセット、knirおよびkwから算出されるものである。
【0023】
また、上記os2は、正常部の生体組織を参照画像検出手段および蛍光画像検出手段により撮像したときのknirおよびkwに基づいて算出されるようにすることができる。
【0024】
また、上記os2は、病変部の生体組織を参照画像検出手段および蛍光画像検出手段により撮像したときのknirおよびkwに基づいて算出されるようにすることができる。
【0025】
また、上記os2は、正常部から病変部までの進行度をs段階に分割したときの各段階の生体組織を参照画像検出手段および蛍光画像検出手段により撮像したときの各knirおよび各kwに基づいてそれぞれ算出されるようにすることができる。
【0026】
また、上記s段階のそれぞれの生体組織に応じたos2に基づくs個の補正関数を用いてs段階のそれぞれの生体組織の基準となる規格化蛍光画像に距離補正を施して基準となるs個の補正規格化蛍光画像をそれぞれ算出し、そのs個の基準補正規格化蛍光画像に基づいて境界値を設定し、一方、生体組織の規格化蛍光画像にs個の補正関数を用いて距離補正を施すことにより補正規格化蛍光画像をそれぞれ算出し、そのs個の補正規格化蛍光画像について境界値を用いてs段階の生体組織に応じた領域を抽出し、その抽出されたs個の領域を重ね合わせて表示するようにすることができる。
【0027】
ここで、上記「s段階」のsは2以上の自然数を意味する。
【0028】
また、上記「基準となる規格化蛍光画像」とは、上記境界値を設定するためs段階の生体組織をそれぞれサンプルとして撮像し算出された規格化蛍光画像であり、上記「基準となる補正規格化蛍光画像」とはこの基準となる規格化蛍光画像にそれぞれの生体組織について算出された補正関数を用いて距離補正が施されたものを意味する。
【0029】
また、上記「生体組織の規格化蛍光画像」とは、実際に画像診断等を行なう生体組織を撮像し、算出された規格化蛍光画像である。
【0030】
本発明の規格化画像生成装置は、生体組織に光を照射する光照射手段と、光の照射により生体組織から発生する再輻射光に基づいて互いに異なる波長帯域の画像をそれぞれ検出する画像検出手段と、互いに異なる波長帯域の画像の少なくとも1つに所望のオフセットを付加し、その少なくとも1つに所望のオフセットが付加された互いに異なる波長帯域の画像の比に基づいて規格化画像を生成する規格化画像生成手段とを備えた規格化画像生成装置において、規格化画像に所定の補正関数を用いて生体組織と画像検出手段との距離に起因する規格化画像の変動量を補正する距離補正を施して補正規格化画像を生成する補正手段を備えたことを特徴とするものである。
【0031】
また、本発明による規格化画像生成装置は、生体組織に励起光を照射する励起光照射手段と、励起光の照射により生体組織から発生する蛍光に基づいて互いに異なる波長帯域の蛍光画像をそれぞれ検出する蛍光画像検出手段と、互いに異なる波長帯域の蛍光画像の少なくとも1つに所望のオフセットを付加し、その少なくとも1つに所望のオフセットが付加された互いに異なる波長帯域の蛍光画像の比に基づいて規格化演算を行なって規格化蛍光画像を生成する規格化蛍光画像生成手段とを備えた規格化画像生成装置において、規格化蛍光画像に所定の補正関数を用いて生体組織と蛍光画像検出手段との距離に起因する規格化蛍光画像の変動量を補正する距離補正を施して補正規格化蛍光画像を生成する補正手段を備えたことを特徴とするものである。
【0032】
また、補正手段が、s段階のそれぞれの生体組織に応じたos2に基づくs個の補正関数を用いてs段階のそれぞれの生体組織の基準となるs個の規格化蛍光画像に距離補正を施しs個の基準となる補正規格化蛍光画像を算出するものであり、そのs個の基準補正規格化蛍光画像に基づいて境界値を設定する境界値設定手段と、補正手段により生体組織の規格化蛍光画像についてs個の補正関数を用いて算出されたs個の補正規格化蛍光画像から境界値を用いてそれぞれs段階の生体組織に応じた領域を抽出する領域抽出手段と、領域抽出手段により抽出されたs個の補正規格化蛍光画像の領域を重ね合わせて表示する表示手段とを備えたことを特徴とするものである。
【0033】
【発明の効果】
本発明による規格化画像生成方法および装置によれば、光の照射により生体組織から発生する再輻射光に基づいて互いに異なる波長帯域の画像を画像検出手段によりそれぞれ検出し、互いに異なる波長帯域の画像の少なくとも1つに所望のオフセットを付加し、少なくとも1つに所望のオフセットが付加された互いに異なる波長帯域の画像の比に基づいて規格化画像を生成する規格化画像生成方法において、規格化画像に所定の補正関数を用いて生体組織と画像検出手段との距離に起因する規格化画像の変動量を補正する距離補正を施して補正規格化画像を生成するようにしたので、オフセットの付加による上記規格化演算値のS/Nの向上を図ることができるとともに、上記画像検出手段と生体組織との距離に依存することなく、その距離が変化した場合においても一定の上記規格化演算値をとることができるので、生体組織の組織性状の識別をより正確に行なうことができる。
【0034】
また、上記互いに異なる波長帯域の画像を、狭帯域蛍光画像および広帯域蛍光画像とし、上記補正関数を、広帯域蛍光画像および狭帯域蛍光画像の少なくとも1つに基づいて算出するようにした場合には、特に補正関数を求めるための機構を設けることなく、演算処理のみより補正関数を容易に得ることができる。
【0035】
また、参照光の照射により性状が既知である所定の生体組織から反射される反射光による参照画像を参照画像検出手段により検出し、補正関数を、その参照画像に基づいて算出するようにした場合には、参照画像は生体組織の性状に依存せず、生体組織と参照画像検出手段との距離をそのまま反映したものとなるので、より確度の高い距離補正を施すことができる。
【0036】
また、補正関数を、次の(7)式で表されるものとし、補正規格化蛍光画像を、次の(8)式により算出するようにした場合には、より簡易な演算処理にて補正関数を求めることができる。
【0037】
(nir+os2)/nir …(7)
{n/(w+os1)}×{(nir+os2)/nir} …(8)
ただし、
n:狭帯域蛍光画像
w:広帯域蛍光画像
nir:参照画像
os1:オフセット
os2:補正係数、os2=os1×knir/kw
knir:参照画像/生体組織と参照画像検出手段との距離
kw:広帯域蛍光画像/生体組織と蛍光画像検出手段との距離
また、s段階のそれぞれの生体組織に応じたos2に基づくs個の補正関数を用いてs段階のそれぞれの生体組織の基準となる規格化蛍光画像に距離補正を施して基準となるs個の補正規格化蛍光画像をそれぞれ算出し、そのs個の基準補正規格化蛍光画像に基づいて境界値を設定し、一方、生体組織の規格化蛍光画像にs個の補正関数を用いて距離補正を施すことによりs個の補正規格化蛍光画像をそれぞれ算出し、そのs個の補正規格化蛍光画像について境界値を用いてs段階の生体組織に応じた領域を抽出し、その抽出されたs個の領域を重ね合わせて表示するようにした場合には、同一の生体組織について病体の進行度をより明確に画像により確認することができる。
【0038】
【発明の実施の形態】
以下、本発明の具体的な実施の形態について図面を用いて説明する。図1は、本発明の規格化画像生成方法を実施する規格化画像生成装置を適用した蛍光内視鏡の第1の実施の形態の概略構成を示す図である。
【0039】
本実施の形態による蛍光内視鏡は、患者の病巣と疑われる部位に挿入される内視鏡挿入部100と、内視鏡挿入部100により生体組織から得られた情報を画像信号として処理する画像信号処理部1と、画像信号処理部1で処理された信号を可視画像として表示するモニタ600とから構成される。
【0040】
画像信号処理部1は、通常画像用白色光Lw、自家蛍光画像用励起光Lr、および参照画像用参照光Lsをそれぞれ射出する3つの光源を備えた照明ユニット110と、この励起光の照射により生体組織9から発生した自家蛍光像Zjと、参照光の照射により生体組織9から発生した参照像Zsを撮像し、デジタル値に変換して2次元画像データとして出力する画像検出ユニット300と、画像検出ユニット300から出力された自家蛍光像の2次元画像データから規格化演算を行って、その規格化演算値に色情報を割り当て、参照像の2次元画像データに輝度情報を割り当てて、2つの画像情報を合成して出力する画像演算ユニット400と、通常像をデジタル値に変換して2次元画像データとし、その2次元画像データおよび画像演算ユニット400の出力信号をビデオ信号に変換して出力する表示信号処理ユニット500と、各ユニットに接続され動作タイミングなどの制御を行う制御用コンピュータ200と、後述する通常画像表示状態と合成画像表示状態を切り換えるフットスイッチ2から構成される。
【0041】
内視鏡挿入部100は、内部に先端まで延びるライトガイド101と、イメージファイバ102を備えている。ライトガイド101の先端部、即ち内視鏡挿入部100の先端部には、照明レンズ103を備えている。また、イメージファイバ102は多成分ガラスファイバであり、その先端部には励起光フィルタ104と集光レンズ105を備えている。ライトガイド101は、多成分ガラスファイバである白色光ライトガイド101aおよび石英ガラスファイバである励起光ライトガイド101bがバンドルされ、ケーブル状に一体化されており、白色光ライトガイド101aおよび励起光ライトガイド101bは照明ユニット110へ接続されている。なお、励起光ライトガイド101bは参照光を導光するライトガイドでもある。イメージファイバ102の一端は、画像検出ユニット300へ接続されている。
【0042】
照明ユニット110は、自家蛍光画像用の励起光Lrを発するGaN系半導体レーザ111、GaN系半導体レーザ111に電気的に接続される半導体レーザ用電源112、通常画像用の白色光Lwを発する白色光源114 、その白色光源114に電気的に接続される白色光用電源115、参照画像用の参照光Lsを発する参照光源117、参照光源117に電気的に接続される参照光源用電源118、およびGaN系半導体レーザ111から出力される励起光Lrを透過し、参照光源117から出力される参照光Lsを直角方向に反射するダイクロイックミラー120から構成される。
【0043】
画像検出ユニット300には、イメージファイバ102が接続され、イメージファイバ102により伝搬された自家蛍光像、通常像、参照像を結像するコリメートレンズ301、コリメートレンズ301を透過した通常像を直角方向に全反射し、コリメートレンズ301を透過した蛍光像および参照像は、破線で示す位置に移動し通過させる可動ミラー302、コリメートレンズ301を透過した蛍光像(750nm以下の波長の光)を直角方向に反射するダイクロイックミラー303、ダイクロイックミラー303を反射した自家蛍光像の光量の50%を透過し、50%を直角方向に反射するハーフミラー308、ハーフミラー308を透過した自家蛍光像を直角方向に反射する蛍光像用ミラー313、蛍光像用ミラー313を直角方向に反射した自家蛍光像を結像させる広帯域蛍光像用集光レンズ304、広帯域蛍光像用集光レンズ304を透過した自家蛍光像から430nm〜730nmの波長を選択する広帯域バンドパスフィルタ305、広帯域バンドパスフィルタ305を透過した自家蛍光像を撮像する広帯域蛍光画像用高感度撮像素子306、広帯域蛍光画像用高感度撮像素子306により撮像された自家蛍光像をデジタル値に変換して2次元画像データとして出力するAD変換器307、ハーフミラー308を直角方向に反射した自家蛍光像を結像させる狭帯域蛍光像用集光レンズ309、狭帯域蛍光像用集光レンズ309により結像された自家蛍光像から430nm〜530nmの波長を取り出す狭帯域バンドパスフィルタ310、狭帯域バンドパスフィルタ310を透過した自家蛍光像を撮像する狭帯域蛍光画像用高感度撮像素子311、狭帯域蛍光画像用高感度撮像素子311により撮像された自家蛍光像をデジタル値に変換して2次元画像データとして出力するAD変換器312、ダイクロイックミラー303を透過した参照像を結像させる参照像用集光レンズ314、参照像用集光レンズ314により結像された参照像を撮像する参照画像用撮像素子315、および参照画像用撮像素子315により撮像された参照像をデジタル値に変換して2次元画像データとして出力するAD変換器316を備えている。
【0044】
画像演算ユニット400は、デジタル化された自家蛍光画像信号データを記憶する自家蛍光画像用メモリ401と、参照画像信号データを記憶する参照画像用メモリ402、自家蛍光画像用メモリ401に記憶された2つの波長帯域の自家蛍光画像の各画素値に予め設定されたオフセット値を付加し、そのオフセットの付加された各画素値の比率に応じた演算を行って各画素の規格化演算値を算出する規格化蛍光画像生成手段403、参照画像用メモリ402に記憶された参照画像の画素値に基づいて後述する補正関数を演算し、その補正関数を用いて規格化蛍光画像生成手段403から出力された規格化演算値に補正を施して補正規格化演算値を算出する補正手段404、補正手段404により算出された補正規格化演算値に色情報を割り当てる色画像演算手段405、参照画像用メモリ402に記憶された参照画像の各画素値に輝度情報を割り当てる輝度画像演算手段406、および色画像演算手段405から出力される色情報をもった画像信号と輝度画像演算手段406から出力される輝度情報をもった画像信号を合成して合成画像を生成し出力する画像合成手段407を備えている。
【0045】
自家蛍光画像用メモリ401は、図示省略した広帯域自家蛍光画像記憶領域および狭帯域自家蛍光画像記憶領域から構成され、広帯域蛍光画像用高感度撮像素子306により撮像された広帯域自家蛍光画像は、広帯域自家蛍光画像記憶領域に保存され、狭帯域蛍光画像用高感度撮像素子311により撮像された狭帯域蛍光画像は狭帯域蛍光画像記憶領域に保存される。
【0046】
規格化蛍光画像生成手段403は、自家蛍光画像用メモリ401に記憶された自家蛍光画像の画素値にオフセット値を付加し、下式(9)に従って狭帯域自家蛍光画像と広帯域自家蛍光画像との比を算出する。なお、本実施の形態では、オフセット値は、下式(9)のとおり広帯域自家蛍光画像のみに付加するものとし、予め規格化蛍光画像生成手段403に記憶された所定の値である。
【0047】
n/(w+os1) … (9)
n:狭帯域自家蛍光画像
w:広帯域自家蛍光画像
os1:オフセット
補正手段404は、規格化蛍光画像生成手段403により算出された規格化演算値に下式(10)により演算された補正関数を掛ける合わせることにより補正規格化演算値を算出する。つまり、補正規格化演算値を下式(11)に従って算出する。本実施の形態では、補正関数は下式(10)のとおり参照画像から算出されるものであり、補正手段404は参照画像用メモリ402に記憶された参照画像の画素値から補正関数を算出する。また、os2は下式(12)に従って算出されるものであり、knirは、参照画像の画素値を、その参照画像検出時における内視鏡挿入部100の先端から生体組織9までの距離で割ったものであり、また、kwは、広帯域自家蛍光画像の画素値を、その広帯域自家蛍光画像検出時における内視鏡挿入部100の先端から生体組織9までの距離で割ったものである。
【0048】
(nir+os2)/nir … (10)
nir:参照画像
os2:補正係数
{n/(w+os1)}×{(nir+os2)/nir} …(11)
os2=os1×knir/kw … (12)
knir:参照画像/内視鏡挿入部100の先端から生体組織9までの距離
kw:広帯域蛍光画像/内視鏡挿入部100の先端から生体組織9までの距離
色画像演算手段405は、補正手段404により算出された補正画素値の大きさに応じた色情報を割り当て色画像を生成する。
【0049】
輝度画像演算手段406は、参照画像用メモリ402に記憶された画素値の大きさに応じて輝度情報を割り当て輝度画像を生成する。
【0050】
画像合成手段407は、色画像演算手段405から出力された色画像と輝度画像演算手段406から出力された輝度画像を合成して後述する表示信号処理ユニット500のビデオ信号処理回路506に出力する。
【0051】
表示信号処理ユニット500は、可動ミラー302により反射された通常像を直角方向に反射する通常像用ミラー501、通常像用ミラー501に反射された通常像を結像する通常像用集光レンズ502、通常像用集光レンズ502で結像された通常像を撮像する通常画像用撮像素子503、通常画像用撮像素子503により撮像された参照像をデジタル値に変換して2次元画像データとして出力するAD変換器504、デジタル化された通常画像信号を保存する通常画像用メモリ505、通常画像用メモリ505から出力された通常画像信号および画像合成部405から出力された合成画像信号をビデオ信号に変換して出力するビデオ信号処理回路506を備えている。モニタ600は、通常画像と合成画像を切り換えて表示するものである。
【0052】
次に、上記実施の形態における蛍光内視鏡の作用について説明する。まず、異なる2つの波長帯域の自家蛍光画像と参照画像を撮像し、これらの画像から合成画像を生成して表示する場合の作用について説明する。
【0053】
上記合成画像表示時には、制御用コンピュータ200からの信号に基づき半導体レーザ用電源112によりGaN系半導体レーザ111から励起光Lrが射出され、励起光Lrは、励起光用集光レンズ113を透過し、ダイクロイックミラー120を透過し、励起光ライトガイド101bに入射され、内視鏡挿入部100の先端部まで導光された後、照明レンズ103 から生体組織9へ照射される。励起光Lrの照射により生じる生体組織9からの自家蛍光像は、集光レンズ105により集光され、励起光カットフィルタ104を透過してイメージファイバ102の先端に入射され、イメージファイバ102を経て、コリメートレンズ301に入射する。励起光カットフィルタ104は、波長420nm以上の全蛍光を透過するロングパスフィルタである。励起光Lrの波長は410nmであるため、生体組織9で反射された励起光は、この励起光カットフィルタ104でカットされる。コリメートレンズ301を透過した自家蛍光像は、ダイクロイックミラー303にて直角方向に反射される。そして、ハーフミラー308で50%の透過率で透過し、50%の反射率で反射される。ハーフミラー308を透過した自家蛍光像は、蛍光像用ミラー313を直角方向に反射し、広帯域蛍光像用集光レンズ304により結像され、広帯域蛍光像用集光レンズ304を透過した自家蛍光像は、広帯域バンドパスフィルタ305を透過して、広帯域蛍光画像用高感度撮像素子306により撮像され、広帯域蛍光画像用高感度撮像素子306からの映像信号はAD変換器307へ入力され、デジタル化された後、自家蛍光画像用メモリ401の広帯域自家蛍光画像記憶領域に保存される。
【0054】
また、ダイクロイックミラー303で反射し、ハーフミラー308により反射された自家蛍光像は、狭帯域蛍光像用集光レンズ309により結像され、狭帯域バンドパスフィルタ310を透過して、狭帯域蛍光画像用高感度撮像素子311により撮像され、狭帯域蛍光画像用高感度撮像素子311からの映像信号はAD変換器312へ入力され、デジタル化された後、自家蛍光画像用メモリ401の狭帯域自家域蛍光画像領域に保存される。なお、広帯域蛍光画像用高感度撮像素子306により撮像された自家蛍光像のデジタルデータと狭帯域蛍光画像用高感度撮像素子311により撮像された自家蛍光像のデジタルデータはそれぞれ異なる領域に保存される。なお、このとき可動ミラー302は、自家蛍光像の光軸に対して平行な破線位置になっているものとする。
【0055】
また、参照光源用電源118により参照光源117から参照光Lsが射出され、この参照光Lsは、参照光用集光レンズ119を透過し、ダイクロイックミラー120を直角方向に反射して、励起光ライトガイド101bに入射され、内視鏡先端部まで導光された後、照明レンズ103から生体組織9へ照射される。参照光Lsの照射により生じる生体組織9からの参照像は、集光レンズ105により集光され、集光レンズ105を透過した参照像は、励起光カットフィルタ104を透過し、イメージファイバ102の先端に入射され、イメージファイバ102を経て、コリメートレンズ301に入射する。励起光カットフィルタは、波長420nm以上の参照像を透過するロングパスフィルタである。コリメートレンズ301を透過した参照像は、ダイクロイックミラー303を透過し、参照像用集光レンズ314により結像され、参照画像用撮像素子315により撮像され、参照画像用撮像素子315からの映像信号はAD変換器316へ入力され、デジタル化された後、参照画像用メモリ402に保存される。なお、このとき可動ミラー302は、参照像の光軸に対して平行な破線位置になっているものとする。
【0056】
自家蛍光用画像メモリ401に保存された2つの波長帯域の自家蛍光画像は、規格化蛍光画像生成手段403において、広帯域自家蛍光画像のみにその各画素値にオフセットos1が付加される。そして、狭帯域自家蛍光画像との比が下式(13)に従って算出される。なお、os1は予め規格化蛍光画像生成手段403に設定された所定の値である。
【0057】
n/(w+os1) … (13)
n:狭帯域自家蛍光画像
w:広帯域自家蛍光画像
os1:オフセット
そして、規格化蛍光画像生成手段403で算出された規格化演算値は補正手段404に出力され、補正手段404により下式(14)に従って補正規格化演算値が算出される。
【0058】
{n/(w+os1)}×{(nir+os2)/nir} …(14)
os2=os1×knir/kw
knir:参照画像/内視鏡挿入部100の先端から生体組織までの距離
kw:広帯域自家蛍光画像/内視鏡挿入部100の先端から生体組織までの距離なお、補正関数(nir+os2)/nirは予め本実施の形態の蛍光内視鏡により検出された所定の生体組織についての参照画像および広帯域自家蛍光画像から算出されたものであり、補正手段404に予め記憶されているものである。本実施の形態では上記所定の生体組織として正常な生体組織を用いて参照画像および広帯域自家蛍光画像を撮像し、上記補正関数を算出している。上記のように補正関数を予め設定した後、実際に正常部と病変部とを持つ生体組織の自家蛍光画像および参照画像を撮像したときの補正規格化演算値と内視鏡挿入部100の先端から生体組織9までの距離との関係を図2に示す。図2においては、白丸が正常部の生体組織について算出された補正規格化演算値、黒丸が病変部の生体組織について算出された補正規格化演算値を示している。本実施の形態では、上記のように正常部の生体組織について補正関数を算出するようにしたので、図示のとおり正常部の生体組織について算出された補正規格化演算値は上記距離に依存することなく略一定の値をとるようにすることができる。従って、このとき例えば、白丸で示す補正規格化演算値に基づいて境界値を求め、この境界値以上の補正規格化演算値に応じた生体組織は正常部と判定し、この境界値未満である補正規格化演算値に応じた生体組織は病変部と判定するようにすればよい。上記境界値は、例えば、上記白丸で示した補正規格化演算値の平均値を複数種類(複数の患者)の正常部の生体組織について求め、その標準偏差σを求め、平均値−2σまたは平均値−3σを境界値とすればよい。−2σまたは−3σにするかは病変部の生体組織の補正規格化演算値との関係で決めればよい。
【0059】
また、本実施の形態のように正常部の生体組織について上記補正関数を算出するのではなく、病変部の生体組織について上記補正関数を算出するようにしてもよく、この場合には、病変部の生体組織について算出された補正規格化演算値が上記距離に依存することなく略一定の値をとるようにすることができる。従って、このときは例えば、上記同様に補正規格化演算値に基づいて境界値を求め、この境界値より大きい補正規格化演算値に応じた生体組織は正常部と判定し、この境界値以下である補正規格化演算値に応じた生体組織は病変部と判定するようにすればよい。上記境界値は、例えば、病変部の生体組織の補正規格化演算値の平均値を複数種類(複数の患者)の正常部の生体組織について求め、その標準偏差σを求め、平均値+2σまたは平均値+3σを境界値とすればよい。
【0060】
そして、色画像演算手段405により上記のようにして補正規格化演算値について2値判定された結果に基づいて各画素に色情報が割り当てられ、色画像信号として画像合成手段407に出力される。一方、参照画像用メモリ402に保存された参照画像は、輝度画像演算手段406で、各画素値に輝度情報を割り当て、輝度画像信号を生成し出力する。色画演算手段405と輝度画像演算手段406から出力された2つの画像信号は、画像合成手段407で合成される。画像合成手段407で合成された合成画像は、ビデオ信号処理回路506によってDA変換後にモニタ600に入力され、合成画像が表示される。
【0061】
次に、通常画像を表示する場合の作用について説明する。まず、制御用コンピュータ200からの信号に基づき白色光源用電源115により白色光源114から白色光Lwが射出され、白色光Lwは、白色光用集光レンズ116を経て白色光ライトガイド101aに入射され、内視鏡挿入部100の先端部まで導光された後、照明レンズ103から生体組織9へ照射される。白色光Lwの反射光は集光レンズ105によって集光され、励起光フィルタ104を透過して、イメージファイバ102の先端に入射され、イメージファイバ102を経て、コリメートレンズ301に入射する。励起光カットフィルタ104は、波長420nm以上の可視光を透過するロングパスフィルタである。コリメートレンズ301を透過した反射光は、可動ミラー302および通常像用ミラー501で反射し、通常像用集光レンズ502に入射される。通常像用集光レンズ502を透過した通常像は、通常画像用撮像素子503に結像される。通常画像用撮像素子503からの映像信号はAD変換器504へ入力され、デジタル化された後、通常画像用メモリ505に保存される。その通常画像用メモリ505により保存された通常画像信号は、ビデオ信号処理回路506によってDA変換後にモニタ600に入力され、そのモニタ600に可視画像として表示される。
【0062】
上記合成画像表示の作用および通常画像表示の作用に関する一連の動作は、制御用コンピュータ200により制御される。
【0063】
また、上記合成画像表示状態と通常画像表示状態の切り換えは、フットスイッチ2を押下することにより行なわれる。
【0064】
本発明による規格化画像生成方法および装置を適用した上記実施の形態における蛍光内視鏡よれば、規格化蛍光画像(規格化演算値)に上記補正関数を用いて生体組織9と内視鏡挿入部100の先端との距離に起因する規格化蛍光画像(規格化演算値)の変動量を補正する距離補正を施して補正規格化蛍光画像(補正規格化演算値)を生成するようにしたので、オフセットの付加による上記規格化蛍光画像(規格化演算値)のS/Nの向上を図ることができるとともに、内視鏡挿入部100の先端と生体組織9との距離に依存することなく、その距離が変化した場合においても一定の規格化演算値をとることができるので、生体組織における正常部と病変部の画像による識別をより正確に行なうことができる。
【0065】
例えば、図9(A)、(B)に示した同一のサンプルについての遠点および近点の画像に上記補正関数を用いて距離補正を施した場合の画像を図3(A)、(B)に示す。なお、本画像は上記実施の形態のように2値判定した結果を表示したものでなく、補正規格化演算値の大きさに応じて輝度を割り当て輝度画像として表示させたものである。図示のとおり、図9(A)、(B)と比較すると遠点の画像(図3(A))と近点の画像(図3(B))とで正常部の画像の明るさの差が小さく、正常部と病変部のコントラストの違いも小さくなっていることがわかる。
【0066】
また、上記第1の実施の形態では、式(9),(10)に従って、参照画像に基づいた補正関数を用いて補正規格化演算値を算出するようにしたが、上記実施の形態とは別の方法で参照画像に基づいて補正関数を求め、この補正関数を用いて補正規格化演算値を算出する方法を以下に示す。
【0067】
まず、上記実施の形態と同様に、補正関数を求めるために予め正常部の生体組織について狭帯域自家蛍光画像、広帯域自家蛍光画像および参照画像を撮像し、各画像の画素値を自家蛍光画像用メモリ401、参照画像用メモリ402に記憶する。そして、自家蛍光用画像メモリ401に保存された2つの波長帯域の自家蛍光画像は、規格化蛍光画像生成手段403において、広帯域自家蛍光画像のみにその各画素値に上記os1が付加される。そして、狭帯域自家蛍光画像との比が下式(15)に従って算出される。なお、os1は予め規格化蛍光画像生成手段403に設定された所定の値である。
【0068】
n/(w+os1) … (15)
n:狭帯域自家蛍光画像
w:広帯域自家蛍光画像
os1:オフセット
規格化蛍光画像生成手段403で算出された規格化演算値は補正手段404に出力される。一方、参照画像用メモリ402に記憶された参照画像の画素値が補正手段404に出力される。補正手段404は、規格化蛍光画像生成手段403から出力された規格化演算値と参照画像用メモリ402から出力された参照画像の画素値に基づいて図4(A)に示すような補正関数hnf(NIR)を求め、記憶する。ここで、hnfとは、このとき撮像された参照画像の画素値の逆数の2乗に基づく関数であり、この関数は内視鏡挿入部100の先端と生体組織との距離NIRを変数とするものである。なお、距離NIRとは、上記参照画像の画素値の逆数の2乗から算出されるものである。参照画像は、生体組織への吸収がほとんどない参照光の照射による反射光に基づいて撮像されるものなので、その画素値の大きさは内視鏡挿入部100の先端と生体組織との距離に依存する大きさである。従って、この参照画像の画素値の逆数の2乗に基づく関数であるhnfは上記距離をそのまま反映したものといえる。
【0069】
そして、実際の生体組織の撮像時には、実際に撮像された狭帯域自家蛍光画像、広帯域自家蛍光画像から規格化蛍光画像生成手段403にて上式(15)に従って規格化演算値が算出される。そして、その規格化演算値および参照画像の画素値が補正手段404に出力され、下式(16)に従って補正規格化演算値が出力される。
【0070】
nf×hnf(0)/hnf(NIR) … (16)
ここで、nfは上記実際に撮像された自家蛍光画像に基づく規格化演算値である。
【0071】
上記のように補正関数を用いて補正規格化演算値を求めることにより、図4(B)に示すように距離に依存する実際の規格化演算値(破線)を距離に依存しない補正規格化演算値(実線)に補正することができる。この補正規格化演算値を算出した後の作用については上記第1の実施の形態と同様である。
【0072】
次に、本発明の規格化画像生成方法を実施する規格化画像生成装置を適用した蛍光内視鏡の第2の実施の形態について説明する。図5は本実施の形態の概略構成を示す図である。なお、本実施の形態について、第1の実施の形態と同様の要素については同じ番号を付し、特に必要のない限りその説明を省略する。
【0073】
本実施の形態による蛍光内視鏡は、第1の実施の形態における参照光を利用しない構成としたものである。
【0074】
画像信号処理部3は、通常画像用白色光Lw、自家蛍光画像用励起光Lrをそれぞれ射出する2つの光源を備えた照明ユニット120と、この励起光の照射により生体組織9から発生した自家蛍光像Zjを撮像し、デジタル値に変換して2次元画像データとして出力する画像検出ユニット310と、画像検出ユニット310から出力された自家蛍光像の2次元画像データから規格化演算を行って、その規格化演算値に色情報を割り当てて色画像信号として出力する画像演算ユニット410と、通常像をデジタル値に変換して2次元画像データとし、その2次元画像データおよび画像演算ユニット410の出力信号をビデオ信号に変換して出力する表示信号処理ユニット500と、各ユニットに接続され動作タイミングなどの制御を行う制御用コンピュータ210と、後述する通常画像表示状態と色画像表示状態を切り換えるフットスイッチ2から構成される。
【0075】
照明ユニット120は、自家蛍光画像用の励起光Lrを発するGaN系半導体レーザ121、GaN系半導体レーザ111に電気的に接続される半導体レーザ用電源122、通常画像用の白色光Lwを発する白色光源124 、および白色光源124に電気的に接続される白色光用電源125から構成される。
【0076】
画像検出ユニット310には、イメージファイバ102が接続され、イメージファイバ102により伝搬された自家蛍光像、通常像を結像するコリメートレンズ331、コリメートレンズ331を透過した通常像を直角方向に全反射し、コリメートレンズ331を透過した蛍光像は、破線で示す位置に移動し通過させる可動ミラー332、コリメートレンズ331を透過した自家蛍光像(750nm以下の波長の光)の光量の50%を透過し、50%を直角方向に反射するハーフミラー323、ハーフミラー323を透過した自家蛍光像を結像させる狭帯域蛍光像用集光レンズ324、狭帯域蛍光像用集光レンズ324により結像された自家蛍光像から430nm〜530nmの波長を取り出す狭帯域バンドパスフィルタ325、狭帯域バンドパスフィルタ325を透過した自家蛍光像を撮像する狭帯域蛍光画像用高感度撮像素子326、狭帯域蛍光画像用高感度撮像素子326により撮像された自家蛍光像をデジタル値に変換して2次元画像データとして出力するAD変換器327、ハーフミラー323を直角方向に反射した自家蛍光像を再び直角方向に反射する蛍光像用ミラー318、蛍光像用ミラー318を直角方向に反射した自家蛍光像を結像させる広帯域蛍光像用集光レンズ319、広帯域蛍光像用集光レンズ319を透過した自家蛍光像から430nm〜730nmの波長を選択する広帯域バンドパスフィルタ320、広帯域バンドパスフィルタ320を透過した自家蛍光像を撮像する広帯域蛍光画像用高感度撮像素子321、および広帯域蛍光画像用高感度撮像素子321により撮像された自家蛍光像をデジタル値に変換して2次元画像データとして出力するAD変換器322を備えている。
【0077】
画像演算ユニット410は、デジタル化された広帯域自家蛍光画像信号データを記憶する広帯域自家蛍光用メモリ411と、狭帯域自家蛍光画像信号データを記憶する狭帯域自家蛍光用メモリ412、広帯域自家蛍光用メモリ411に記憶された広帯域自家蛍光画像の各画素値に予め設定されたオフセット値を付加し、そのオフセットの付加された画素値と狭帯域自家蛍光画像の画素値の比率に応じた演算を行って各画素の規格化演算値を算出する規格化蛍光画像生成手段413、広帯域自家蛍光用メモリ411に記憶された広帯域自家蛍光画像の画素値に基づいて後述する補正関数を演算し、その補正関数を用いて規格化蛍光画像生成手段413から出力された規格化演算値に補正を施して補正規格化演算値を算出する補正手段414、および補正手段414により算出された補正規格化演算値に色情報を割り当てて色画像信号を出力する色画像演算手段415を備えている。
【0078】
規格化蛍光画像生成手段413は、広帯域自家蛍光用メモリ411に記憶された自家蛍光画像の画素値にオフセット値を付加し、下式(17)に従って狭帯域自家蛍光画像と広帯域自家蛍光画像との比を算出する。なお、本実施の形態では、オフセット値は、予め規格化蛍光画像生成手段413に記憶された所定の値である。
【0079】
n/(w+os1) … (17)
n:狭帯域自家蛍光画像
w:広帯域自家蛍光画像
os1:オフセット
補正手段414は、広帯域自家蛍光画像の画素値と上記規格化蛍光画像生成手段413により算出された規格化演算値に基づいて補正関数を求め、上記規格化演算値に距離の補正を施して補正規格化演算値を出力するものであるが、その詳細は後述する。
【0080】
色画像演算手段415は、補正手段414により算出された補正画素値の大きさに応じた色情報を割り当て色画像を生成する。
【0081】
次に、上記実施の形態における蛍光内視鏡の作用について説明する。まず、異なる2つの波長帯域の自家蛍光画像を撮像し、これらの画像から色画像を生成して表示する場合の作用について説明する。
【0082】
上記色画像表示時には、制御用コンピュータ200からの信号に基づき半導体レーザ用電源122によりGaN系半導体レーザ121から励起光Lrが射出され、励起光Lrは、励起光用集光レンズ123を透過し、励起光ライトガイド101bに入射され、内視鏡挿入部100の先端部まで導光された後、照明レンズ103 から生体組織9へ照射される。励起光Lrの照射により生じる生体組織9からの自家蛍光像は、集光レンズ105により集光され、励起光カットフィルタ104を透過してイメージファイバ102の先端に入射され、イメージファイバ102を経て、コリメートレンズ331に入射する。励起光カットフィルタ104は、波長420nm以上の全蛍光を透過するロングパスフィルタである。励起光Lrの波長は410nmであるため、生体組織9で反射された励起光は、この励起光カットフィルタ104でカットされる。コリメートレンズ331を透過した自家蛍光像は、ハーフミラー313で50%の透過率で透過し、50%の反射率で反射される。ハーフミラー313を反射した自家蛍光像は、蛍光像用ミラー318を直角方向に反射し、広帯域蛍光像用集光レンズ319により結像され、広帯域蛍光像用集光レンズ319を透過した自家蛍光像は、広帯域バンドパスフィルタ320を透過して、広帯域蛍光画像用高感度撮像素子321により撮像され、広帯域蛍光画像用高感度撮像素子321からの映像信号はAD変換器322へ入力され、デジタル化された後、広帯域自家蛍光用メモリ411に保存される。
【0083】
また、ハーフミラー313を透過した自家蛍光像は、狭帯域蛍光像用集光レンズ314により結像され、狭帯域バンドパスフィルタ315を透過して、狭帯域蛍光画像用高感度撮像素子316により撮像され、狭帯域蛍光画像用高感度撮像素子316からの映像信号はAD変換器317へ入力され、デジタル化された後、狭帯域自家蛍光用メモリ412に保存される。なお、広帯域蛍光画像用高感度撮像素子321により撮像された自家蛍光像のデジタルデータと狭帯域蛍光画像用高感度撮像素子316により撮像された自家蛍光像のデジタルデータはそれぞれ共通のメモリの異なる領域に保存されるようにしてもよい。なお、このとき可動ミラー332は、自家蛍光像の光軸に対して平行な破線位置になっているものとする。
【0084】
ここで、本実施の形態では上記実施の形態と同様に、補正関数を求めるために予め正常部の生体組織について狭帯域自家蛍光画像および広帯域自家蛍光画像を撮像し、各画像の画素値を広帯域蛍光用メモリ411、狭帯域蛍光用メモリ412に記憶する。そして、広帯域蛍光用メモリ411に保存された広帯域自家蛍光画像は、規格化蛍光画像生成手段413において、その各画素値に上記os1が付加される。そして、狭帯域自家蛍光画像との比が下式(18)に従って算出される。なお、os1は予め規格化蛍光画像生成手段413に設定された所定の値である。
【0085】
n/(w+os1) … (18)
n:狭帯域自家蛍光画像
w:広帯域自家蛍光画像
os1:オフセット
規格化蛍光画像生成手段413で算出された規格化演算値は補正手段414に出力される。一方、広帯域蛍光用メモリ411に記憶された広帯域自家蛍光画像の画素値が補正手段414に出力される。補正手段414は、規格化蛍光画像生成手段413から出力された規格化演算値と広帯域蛍光用メモリ411から出力された広帯域自家蛍光画像の画素値に基づいて図6(A)に示すような補正関数hnf(w)を求め、記憶する。ここで、wとは、このとき撮像された,広帯域自家蛍光画像の画素値である。なお、wとは内視鏡挿入部100の先端と生体組織9との距離が略0である場合(非常に近接している場合)における広帯域自家蛍光画像の画素値の大きさであり、十分に大きな値である。
【0086】
そして、実際の生体組織の撮像時には、実際に撮像された狭帯域自家蛍光画像、広帯域自家蛍光画像から規格化蛍光画像生成手段413にて上式(18)に従って規格化演算値が算出される。そして、その規格化演算値および広帯域自家蛍光画像の画素値が補正手段414に出力され、下式(19)に従って補正規格化演算値が出力される。
【0087】
nf×hnf(w)/hnf(w) … (19)
ここで、nfは上記実際に撮像された自家蛍光画像に基づく規格化演算値であり、hnf(w)は実際に撮像された広帯域自家蛍光画像の画素値wにおける補正関数hnf(w)の値である。
【0088】
上記のように補正関数を用いて補正規格化演算値を求めることにより、図6(B)に示すように距離に依存する実際の規格化演算値(破線)を距離に依存しない補正規格化演算値(実線)に補正することができる。
【0089】
本実施の形態では、上記のように正常部の生体組織について補正関数を算出するようにしたので、上記第1の実施の形態と同様に補正規格化演算値に基づいて境界値を求め、この境界値以上の補正規格化演算値に応じた生体組織は正常部と判定し、この境界値未満である補正規格化演算値に応じた生体組織は病変部と判定するようにすればよい。上記境界値は、上記第1の実施の形態と同様にして求めるようにすればよい。また、病変部の生体組織について上記補正関数を算出する場合の境界値の求め方も上記第1の実施の形態と同様である。
【0090】
そして、色画像演算手段415により上記のようにして補正規格化演算値について2値判定された結果に基づいて各画素に色情報が割り当てられ、色画像信号が生成される。色画像信号はビデオ信号処理回路506によってDA変換後にモニタ600に入力され、色画像が表示される。その他の作用については上記第1の実施の形態と同様である。
【0091】
また、上記第2の実施形態においては、補正関数を自家蛍光画像に基づく規格化演算値と広帯域自家蛍光画像の画素値との関係から求めるようにしたが、これに限らず狭帯域自家蛍光画像の画素値と上記規格化演算値の関係、または、広帯域自家蛍光画像および狭帯域自家蛍光画像の画素値の和と上記規格化演算値との関係から補正関数を求めるようにしてもよい。
【0092】
また、上記第1および第2の実施の形態においては、正常部または病変部の生体組織に基づいて補正関数を求め、その補正関数を用いて補正規格化演算値を算出し、この補正規格化演算値に基づいて境界値を設定して2値判定するようにしたが、補正関数を、正常部から病変部までの進行度をs段階に分割したときの各段階のそれぞれの生体組織に基づいて求め、この補正関数に基づいて基準となるs個の補正規格化演算値をそれぞれ算出し、この基準となるs個の補正規格化演算値に基づいて境界値を設定するようにしてもよい。この場合、実際に撮像された生体組織について上記s段階のそれぞれの生体組織に応じたs個の補正関数を用いてそれぞれ補正規格化演算値を算出し、このs個の補正規格化演算値について、上記境界値を用いてs段階の生体組織に応じた領域をs個の補正規格化蛍光画像から抽出し、このs個の領域について、例えばそれぞれ異なる色画像を割り当てて、この色画像を重ねて表示するようにしてもよい。この場合、例えば、第1の実施の形態に適用する場合には、図6に示すように補正手段404と色画像算出手段405の間に境界値設定手段420および領域抽出手段421を設けるようにし、画像合成手段407において色画像算出手段405から出力されたs段階の生体組織に応じた領域を重ね合わせるようにすればよい。
【0093】
また、上記第1および第2の実施の形態では、正常部の生体組織または病変部の生体組織を用いて補正関数を算出するが、この生体組織として複数の患者の生体組織を利用するようにしてもよい。また、補正関数は、実際の画像診断などの前に予め算出し設定するようにしてもよいし、実際の画像診断などの途中で算出し設定したり、または、更新したりするようにしてもよい。
【0094】
また、上記第1および第2の実施の形態では1つのモニタで合成画像および通常画像または色画像および通常画像をそれぞれ切り換えて表示するようにしているが、別々のモニタで表示するようにしてもよい。また、1つのモニタで切り換える方法も上記実施の形態のようにフットスイッチによらず制御コンピュータより時系列で自動的に行ってもよい。
【0095】
また、GaN系半導体レーザ114および白色光源111を別個の構成としたが、適当な光学透過フィルタを利用して、単一の光源を励起光源と白色光源とで兼用することもできる。
【0096】
また、励起光源は、波長として400nmから420nm程度のいずれのものを選んでも良い。
【0097】
また、上記第1および第2の実施の形態においては、励起光の照射により生体組織から発せられる自家蛍光に基づいて規格化蛍光画像を生成する際に、本発明の規格化画像生成方法を適用した実施の形態を説明したが、上記のように自家蛍光に基づいて規格化蛍光画像を生成する際に限らず、例えば、生体組織への白色光の照射により反射光される反射光に基づいて生体組織の酸素飽和度を算出し、この酸素飽和度に基づいて規格化画像を生成する際にも、本発明の規格化画像生成方法を適用することができる。具体的には以下に説明する。
【0098】
まず、上記酸素飽和度を算出する方法について説明する。上記のような蛍光内視鏡の内視鏡挿入部100から白色光を生体組織9に照射する。そして、このとき生体組織から反射される反射光を、異なる波長帯域λ1,λ2のバンドパスフィルタを介して撮像素子により撮像することにより、異なる波長帯域λ1,λ2の反射画像r1,r2を得る。そして、この2つの反射画像r1,r2について、各画素値と生体組織の照射された白色光の強度に基づいて、各画素毎の吸光度を算出する。
【0099】
ここで、上記吸光度は生体組織の酸素飽和度に応じて変化するため、上記吸光度から酸素飽和度を算出することができるが、上記吸光度は生体組織の脈動により異なる。したがって、例えば、脈拍計などを設け、この脈拍計により計測された脈動に基づいて、例えば、吸光度が最も大きくなる時刻T1と吸光度が最も小さくなる時刻T2とを求め、この時刻T1と時刻T2における吸光度の変化分を算出し、この変化分に基づいて酸素飽和度を算出する。
【0100】
つまり、各画素毎に、時刻T1における波長帯域λ1の照射光に対する吸光度Iλ1(T1)が時刻T1における反射画像r1に基づいて求められ、時刻T1における波長帯域λ2の照射光に対する吸光度Iλ2(T1)が時刻T1における反射画像r2に基づいて求められ、時刻T2における波長帯域λ1の照射光に対する吸光度Iλ1(T2)が時刻T2における反射画像r1’に基づいて求められ、時刻T2における波長帯域λ2の照射光に対する吸光度Iλ2(T2)が時刻T2における反射画像r2’に基づいて求められ、吸光度の変化分ΔIλ1およびΔIλ2が以下のようにして求められる。
【0101】
ΔIλ1=Iλ1(T1)−Iλ(T2)
ΔIλ2=Iλ2(T1)−Iλ(T2)
そして、上記2つの波長帯域λ1,λ2に対する吸光度の時間変化分ΔIλ1、ΔIλ2に基づいて酸素飽和度SaOが以下の式により求められる。
【0102】
SaO=f(Φ12)
Φ12=ΔIλ1/ΔIλ2
なお、fは実験により得られたΦ12とSaOとの関係に基づいて得られた関数である。
【0103】
ここで、上記吸光度の変化分ΔIλ1、ΔIλ2は、上記自家蛍光と同様に非常に小さい値であるため、これらに基づいてΦ12を求めて酸素飽和度SaOを算出してこれを画像化した場合には、S/Nが悪い画像となってしまう。したがって、上記自家蛍光を画像化する場合と同様に、例えば、以下のようにオフセットを付加してΦ12’を求めることが考えられる。
【0104】
Φ12’=ΔIλ1/(ΔIλ2+os3)
ただし、os3:オフセット
しかしながら、上記のようにオフセットを付加してΦ12’を求めた場合、自家蛍光画像についてオフセットを付加して規格化蛍光画像を演算した場合と同様に、Φ12’の値が内視鏡挿入部100の先端と生体組織との距離によって異なる値となるため、Φ12’に基づいて生体組織の酸素飽和度を適切に示すことは困難である。したがって、上記実施の形態と同様に、Φ12’を補正関数により補正し、この補正された値に基づいて酸素飽和度SaOを算出して画像化することにより、内視鏡挿入部100の先端と生体組織との距離に依存せず、酸素飽和度が適切に示された画像を表示するようにすることができる。また、上記補正関数としては、例えば、下式(20)のようなものを利用し、式(21)、式(22)によの演算を行なうことにより、Φ12’を補正するようにすればよい。
【0105】
(Wir+os4)/Wir … (20)
Wir:参照光を照射したときの吸光度
os4:補正係数
{ΔIλ1/(ΔIλ2+os3)×{(Wir+os4)/Wir} …(21)
os4=os3×hir/hw … (22)
hir:参照光を照射したときの吸光度/内視鏡挿入部100の先端から生体組織9までの距離
hw:ΔIλ2/内視鏡挿入部100の先端から生体組織9までの距離
また、上式(20)のような補正関数に限らず、上記実施の形態において説明したその他の補正関数を適用するようにしてもよい。
【0106】
また、上記異なる波長帯域λ1,λ2の反射画像r1,r2を得る方法としては、波長帯域λ1,λ2のバンドパスフィルタからなる面順次フィルタを使用して2つの反射画像r1,r2を時系列に得るようにしてもよいし、波長帯域λ1,λ2のバンドパスフィルタからなるモザイクフィルタを使用して2つの反射画像r1,r2を同時に得るようにしてもよい。
【0107】
また、上記反射画像r1,r2の撮像は、生体組織に白色光を照射する通常画像の撮像時に行なってもよい。
【図面の簡単な説明】
【図1】本発明による規格化画像生成方法および装置を適用した蛍光内視鏡の第1の実施の形態の概略構成図
【図2】正常部と病変部とを持つ生体組織の自家蛍光画像および参照画像を撮像したときの補正規格化演算値と内視鏡挿入部の先端から生体組織までの距離との関係を示す図
【図3】図9に示す遠点の画像(A)および近点の画像(B)について補正関数を用いて距離補正を施したときの画像を示す図
【図4】狭帯域自家蛍光画像と広帯域自家蛍光画像に基づく規格化演算値と参照画像の画素値の逆数NIRとの関係(A)および補正関数による補正(B)を示す図
【図5】本発明による規格化画像生成方法および装置を適用した蛍光内視鏡の第2の実施の形態の概略構成図
【図6】狭帯域自家蛍光画像と広帯域自家蛍光画像に基づく規格化演算値と広帯域自家蛍光画像の画素値との関係(A)および補正関数による補正(B)を示す図
【図7】補正手段により算出されたs段階の生体組織に応じた補正規格化演算値に基づいて境界値設定手段により境界値を設定し、この境界値に基づいて領域抽出手段によりs段階の生体組織に応じた領域を抽出し、この領域についてそれぞれ異なる色画像を割り当てて色画像を生成する場合の各手段の構成図
【図8】正常部の生体組織および病変部の生体組織について、オフセットを付加して規格化演算値を求めたときのその規格化演算値と検出手段と生体組織との距離の関係を示す図
【図9】同一のサンプルについて、検出手段と生体組織との距離が大きい(遠点)ときの除算値に基づく画像(A)と距離が小さい(近点)ときの除算値に基づく画像(B)を示す図
【図10】正常部と病変部の生体組織の蛍光スペクトルの強度分布を示す説明図
【符号の説明】
1 蛍光診断装置
2 フットスイッチ
9 生体組織
100 内視鏡挿入部
101 ライトガイド
101a 白色光ライトガイド
101b 励起光ライトガイド
102 イメージファイバ
103 照明レンズ
104 励起光カットフィルタ
105 対物レンズ
110,120 照明ユニット
111,121 GaN系半導体レーザ
112,122 半導体レーザ用電源
113,123 励起光用集光レンズ
114,124 白色光源
115,125 半導体レーザ用電源
116,126 白色光用集光レンズ
200,210 制御用コンピュータ
300,310 画像検出ユニット
301 コリメートレンズ
302 可動ミラー
303 ダイクロイックミラー
304,319広帯域蛍光像用集光レンズ
305,320 広帯域バンドパスフィルタ
306,321 広帯域蛍光画像用高感度撮像素子
307,312,316,322,327,504 AD変換器
308,323 ハーフミラー
309,324 狭帯域蛍光像用ミラー
310,325 狭帯域バンドパスフィルタ
311,326 狭帯域蛍光画像用高感度撮像素子
313 蛍光像用ミラー
314 参照像用集光レンズ
315 参照画像用撮像素子
331 コリメートレンズ
332 可動ミラー
400 画像演算ユニット
401 自家蛍光画像用メモリ
402 参照画像用メモリ
403,413 規格化蛍光画像生成手段
404,414 補正手段
405,415 色画像演算手段
406 輝度画像演算手段
407 画像合成手段
500 表示信号処理ユニット
501 通常像用ミラー
502 通常像用集光レンズ
503 通常画像用撮像素子
505 通常画像用メモリ
506 ビデオ信号処理回路
600 モニタユニット
[0001]
BACKGROUND OF THE INVENTION
The present invention detects re-radiation light of different wavelength bands generated from a living tissue by light irradiation as an image, adds a desired offset to at least one of the images of different wavelength bands, and adds the offset The present invention relates to a normalized image generation method and apparatus for generating a normalized image by obtaining a ratio of different images.
[0002]
[Prior art]
Conventionally, when the living tissue is irradiated with excitation light in the excitation light wavelength region of the living dye, the fluorescence intensity emitted between the normal tissue and the diseased tissue is different, thereby exciting the living tissue in the predetermined wavelength region. There has been proposed a fluorescence detection apparatus that recognizes the localization and infiltration range of a diseased tissue by irradiating light and detecting fluorescence emitted from a living body dye.
[0003]
Normally, when excitation light is irradiated, strong fluorescence is emitted from normal tissue as shown by a solid line in FIG. 10, and weaker fluorescence is emitted from lesion tissue than fluorescence emitted from normal tissue as shown by a broken line. By measuring the strength, it is possible to determine whether the living tissue is normal or in a lesion state.
[0004]
Furthermore, a method has been proposed in which fluorescence from excitation light is imaged by an imaging element or the like, and a fluorescence image corresponding to the intensity of the fluorescence is displayed to determine whether the living tissue is normal or in a lesion state. In this technique, since the living tissue has irregularities, the intensity of the excitation light irradiated to the living tissue is not uniform, and the fluorescence intensity emitted from the living tissue is proportional to the square of the distance between the light source and the living tissue. Will drop. Further, the distance between the fluorescence detection means and the living tissue also decreases in proportion to the square thereof. For this reason, strong fluorescence may be received from a lesion tissue closer to a normal tissue far from the light source or the detection means, and the tissue properties of the living tissue can be determined only by information on the intensity of the fluorescence from the excitation light. It cannot be accurately identified. In order to reduce such inconveniences, the ratio of fluorescence images based on two types of fluorescence intensities acquired from different wavelength bands (narrow band near 480 nm and wide band near 430 nm to 730 nm) is obtained by division, and the division value A standardized image generation method based on the difference in the shape of the fluorescence spectrum that reflects the tissue properties of a living body has been proposed. In addition, color information is assigned to the division values of fluorescence images in different wavelength bands, and the lesion state of a living tissue is indicated as a color image by the difference in color, and further, uniform absorption is performed for various living tissues. It is obtained by irradiating a living tissue with the received near-infrared light as reference light, detecting a reference image based on the intensity of reflected light from the living tissue due to irradiation of this reference light, and assigning luminance information to the reference image. A method has also been proposed in which a luminance image is combined with the color image to show an image with a sense of unevenness in which the shape of a living tissue is also reflected in the image.
[0005]
In addition, when a normalized fluorescence image is generated based on the division values of fluorescence images in different wavelength bands as described above, the fluorescence intensity from the living tissue used for the normalization calculation is weak, so this fluorescence intensity The S / N of the normalized fluorescent image based on the above is very low. In order to improve this, there has been proposed a method for improving the S / N of the normalized fluorescence image by adding the offset to at least one of the fluorescence images in different wavelength bands and calculating the division value.
[0006]
[Problems to be solved by the invention]
However, when obtaining a division value by adding an offset as described above, the offset value may be increased in order to obtain a good S / N. However, the fluorescence intensity depends on the distance between the detection means and the living tissue. Therefore, if the offset value is excessively increased, even if the biological tissue at the far point and the biological tissue at the near point are the same, the division value may be greatly different. Therefore, it becomes difficult to distinguish between the living tissue of the lesioned part and the living tissue of the normal part. As an example, FIG. 8 shows a division value of a narrow-band fluorescence image and a wide-band fluorescence image to which an offset is added (a narrow-band fluorescence image / (broadband fluorescence image + offset)) for a predetermined normal body tissue and a lesion tissue. The relationship between the division value and the above-mentioned distance when? The offset values are 5, 10, 15, and 20. The division value for the normal living tissue is indicated by a white symbol, and the division value for the lesion biological tissue is indicated by a black symbol. As shown in the figure, the division value varies with the distance, and the larger the offset value, the smaller the difference in the division value between the normal part and the lesioned part, making it difficult to identify. On the other hand, if the offset value is reduced, the change of the division value due to the distance is reduced, but naturally there is a problem that the effect of improving the S / N of the normalized fluorescent image by adding the offset cannot be obtained sufficiently. 9A and 9B, the normalized fluorescence image based on the division value when the distance between the detection means and the biological tissue is large (far point) for a predetermined biological tissue (FIG. 9A). FIG. 9B shows a normalized fluorescence image (FIG. 9B) based on the division value when the distance is small (near point). Note that the offset at this time is 20, and in each image, a portion that is relatively darker than the surrounding image means an image of a lesioned part. As shown in the figure, in the image of the far point and the near point, the image of the lesioned part or the image of the normal part must be displayed with the same brightness, but the far point image is closer to the near point. It is darker than the above image and the contrast between the normal part and the lesion part is also small, so that it is difficult to distinguish them.
[0007]
In view of the above-described problems of the prior art, the present invention adds a desired offset to at least one of images in different wavelength bands and performs a normalization operation to generate a standardized image. In a generation method and apparatus, a normalized image generation method and apparatus capable of taking a constant normalized calculation value even when the distance changes without depending on the distance between the detection means and the living tissue. It is intended.
[0008]
[Means for Solving the Problems]
The normalized image generation method of the present invention detects images of different wavelength bands based on re-radiated light generated from a living tissue by light irradiation, and detects at least one of images of different wavelength bands. In a standardized image generation method for generating a standardized image based on a ratio of images in different wavelength bands to which a desired offset is added to at least one of the predetermined offsets, A corrected normalized image is generated by performing a distance correction for correcting a variation amount of the normalized image caused by the distance between the living tissue and the image detecting means using the correction function.
[0009]
Here, the “image detection means” refers to, for example, an endoscope insertion portion that is inserted into a living body, an endoscope insertion in a fluorescence endoscope that detects fluorescence emitted from a living tissue by irradiation of excitation light. This means an image sensor that captures an image of the fluorescence guided by the unit and a light guide unit up to the image sensor. And about an image of a mutually different wavelength band, you may provide one part each, such as an image pick-up element and a light guide part, respectively, and may make it common.
[0010]
Further, “adding a desired offset to images in different wavelength bands” means adding an offset value to each pixel value of each image. By adding an offset value to each image, the variation in the pixel value of the normalized image after the normalization calculation is reduced, and the S / N of the normalized image can be improved. The portion to which the offset value is added may not be the entire image, and may be added only to a portion where the image is dark, that is, a portion having a low S / N. That is, when the normalization calculation is performed based on the ratio of each image, an offset value large enough to improve the S / N of the standardized image so as to improve the accuracy of identifying the tissue property. Add it.
[0011]
The “image ratio” means a ratio of pixel values on the same coordinates in images of different wavelength bands, and “normalized based on the image ratio”. “Generate an image” means to divide by each pixel value on the same coordinate or perform a standardization operation similar to it, and generate an image having the normalized value as a pixel value as a standardized image Means that.
[0012]
In addition, the above-mentioned “distance between the living tissue and the image detection means” means a distance that substantially affects the size of the pixel value of the detected image. Is the distance between the living tissue and the distal end of the endoscope insertion portion in the fluorescence endoscope. Furthermore, when the excitation light irradiating means for irradiating the biological tissue with the excitation light also moves in the positional relationship with the biological tissue, the pixel value of the fluorescence image varies depending on the movement, so the above distance is determined by the excitation light irradiation. The distance between the means and the living tissue is also included.
[0013]
In addition, the “variation amount of the standardized image” means a variation amount of the pixel value of the standardized image.
[0014]
Further, “correcting the amount of fluctuation of the standardized image due to the distance” means correcting the magnitude of the pixel value so that the pixel value of the standardized image does not vary depending on the distance. To do.
[0015]
Further, the normalized image generation method of the present invention detects fluorescence images in different wavelength bands based on fluorescence generated from a living tissue by irradiation of excitation light, respectively, and detects fluorescence images in different wavelength bands. A standard that adds a desired offset to at least one of the two and performs a normalization operation based on a ratio of fluorescent images in different wavelength bands to which the desired offset is added to at least one of the two to generate a normalized fluorescent image In the normalized image generation method, the normalized fluorescence image is subjected to a distance correction that corrects a variation amount of the normalized fluorescence image caused by the distance between the living tissue and the fluorescence image detection unit using a predetermined correction function, thereby correcting the normalized fluorescence image An image is generated.
[0016]
In addition, the fluorescent images having different wavelength bands can be a narrow-band fluorescent image and a broadband fluorescent image.
[0017]
In addition, the correction function can be calculated based on at least one of a broadband fluorescent image and a narrowband fluorescent image for a predetermined biological tissue whose property is known.
[0018]
Further, a reference image by reflected light reflected from a predetermined biological tissue whose property is known by reference light irradiation is detected by a reference image detection means, and a correction function is calculated based on the reference image. Can do.
[0019]
Here, the “reference light image detection means” refers to, for example, an endoscope insertion portion that is inserted into a living body in a fluorescence endoscope, and reflected light that is emitted by reference light guided by the endoscope insertion portion. Means that includes an image pickup device that picks up an image and a light guide portion up to the image pickup device. The reference light image detection means and the fluorescence image detection means are preferably a common endoscope insertion part and a light guide part, but since the wavelength bands are different, an optical filter for selecting the wavelength band of each image is provided. It is necessary to provide it. If the image sensor is also used in common, the exposure timing may be shifted to capture an image.
[0020]
Further, when the correction function is calculated based on the reference image, it is desirable that the distance between the reference image detecting unit and the living tissue and the distance between the fluorescent image detecting unit and the living tissue are equal.
[0021]
Further, the correction function can be expressed by the following equation (5), and the corrected normalized fluorescence image can be calculated by the following equation (6).
[0022]
(Nir + os2) / nir (5)
{N / (w + os1)} × {(nir + os2) / nir} (6)
However,
n: Narrow-band fluorescence image
w: Broadband fluorescence image
nir: reference image
os1: Offset
os2: correction coefficient, os2 = os1 × knir / kw
knir: distance between reference image / biological tissue and reference image detection means
kw: Broadband fluorescent image / distance between biological tissue and fluorescent image detection means
Here, n, w, and mir mean the pixel values of the narrow-band fluorescent image, the broadband fluorescent image, and the reference image, respectively. Further, knir is obtained by dividing the pixel value of the reference image by the distance between the living tissue and the reference image detecting means, that is, the pixel value of the reference image per unit distance. Kw is obtained by dividing the pixel value of the broadband fluorescent image by the distance between the living tissue and the fluorescent image detecting means, that is, the pixel value of the broadband fluorescent image per unit distance. Further, the correction coefficient os2 is calculated from the offset, knir and kw as shown in the above equation.
[0023]
Further, the os2 can be calculated based on knir and kw when the biological tissue of the normal part is imaged by the reference image detection unit and the fluorescence image detection unit.
[0024]
The os2 can be calculated based on knir and kw when the biological tissue of the lesion is imaged by the reference image detection unit and the fluorescence image detection unit.
[0025]
The os2 is based on each knir and each kw when the biological tissue at each stage when the progress from the normal part to the lesioned part is divided into s stages is imaged by the reference image detection unit and the fluorescence image detection unit. Can be calculated respectively.
[0026]
In addition, using the s correction functions based on os2 corresponding to each of the s-stage biological tissues, distance correction is performed on the standardized fluorescent image serving as a reference for each of the s-stage biological tissues, and s pieces are used as the reference. Are calculated, and boundary values are set based on the s reference correction normalized fluorescent images, while distance correction is performed on the normalized fluorescent image of the living tissue using s correction functions. To calculate a corrected standardized fluorescent image, extract a region corresponding to the s-stage biological tissue using the boundary value for the s corrected standardized fluorescent images, and extract the extracted s regions Can be superimposed and displayed.
[0027]
Here, s in the “s stage” means a natural number of 2 or more.
[0028]
The “standardized fluorescent image as a reference” is a standardized fluorescent image calculated by imaging an s-stage living tissue as a sample in order to set the boundary value. The “standardized fluorescence image” means an image obtained by subjecting the standardized fluorescence image as a reference to distance correction using a correction function calculated for each living tissue.
[0029]
The “normalized fluorescent image of the biological tissue” is a normalized fluorescent image calculated by imaging a biological tissue that is actually subjected to image diagnosis or the like.
[0030]
The normalized image generating apparatus of the present invention includes a light irradiating unit that irradiates light to a living tissue and an image detecting unit that detects images in different wavelength bands based on re-radiated light generated from the living tissue by light irradiation. And a standard that generates a standardized image based on a ratio of images in different wavelength bands to which a desired offset is added to at least one of images in different wavelength bands and a desired offset is added to at least one of the images. In a standardized image generation apparatus including a standardized image generation unit, distance correction is performed to correct a variation amount of the standardized image caused by the distance between the living tissue and the image detection unit using a predetermined correction function for the standardized image. And a correction means for generating a corrected standardized image.
[0031]
In addition, the normalized image generation apparatus according to the present invention detects excitation light irradiation means for irradiating biological tissue with excitation light and fluorescence images in different wavelength bands based on fluorescence generated from the biological tissue by irradiation of excitation light. And a fluorescent image detecting means for adding a desired offset to at least one of the fluorescent images in different wavelength bands and a ratio of the fluorescent images in different wavelength bands to which the desired offset is added to at least one of the fluorescent images. In a standardized image generating apparatus including a standardized fluorescent image generating unit that performs a standardization operation to generate a standardized fluorescent image, a normal tissue and a fluorescent image detecting unit are used by using a predetermined correction function for the standardized fluorescent image. And a correction means for generating a corrected standardized fluorescent image by performing a distance correction for correcting the fluctuation amount of the standardized fluorescent image caused by the distance of It is.
[0032]
Further, the correction means performs distance correction on s standardized fluorescent images serving as a reference for each biological tissue in the s stage using s correction functions based on os2 corresponding to each biological tissue in the s stage. s number of corrected standardized fluorescent images to be used as a reference, boundary value setting means for setting a boundary value based on the s reference corrected standardized fluorescent images, and normalization of living tissue by the correcting means A region extraction unit that extracts regions corresponding to s stages of biological tissue using boundary values from s correction standardized fluorescence images calculated using s correction functions for the fluorescence image, and a region extraction unit. It is characterized by comprising display means for displaying the extracted areas of the s corrected standardized fluorescent images in a superimposed manner.
[0033]
【The invention's effect】
According to the normalized image generation method and apparatus of the present invention, images in different wavelength bands are detected by the image detection means based on re-radiated light generated from the living tissue by light irradiation, and images in different wavelength bands are detected. A standardized image generation method for generating a standardized image based on a ratio of images of different wavelength bands to which a desired offset is added to at least one and a desired offset is added to at least one. Since a corrected standardized image is generated by performing a distance correction that corrects the variation amount of the standardized image due to the distance between the living tissue and the image detecting means using a predetermined correction function, by adding an offset The S / N of the normalized calculation value can be improved, and the distance is not dependent on the distance between the image detection means and the living tissue. It is possible to take certain of the normalized calculated values even when the change can be performed to identify the tissue state of the biological tissue more accurately.
[0034]
Further, when the images of different wavelength bands are a narrow-band fluorescent image and a broadband fluorescent image, and the correction function is calculated based on at least one of the broadband fluorescent image and the narrow-band fluorescent image, In particular, the correction function can be easily obtained only from the arithmetic processing without providing a mechanism for obtaining the correction function.
[0035]
In addition, when the reference image detection unit detects a reference image by reflected light reflected from a predetermined biological tissue whose properties are known by irradiation of the reference light, and the correction function is calculated based on the reference image In this case, the reference image does not depend on the properties of the living tissue and reflects the distance between the living tissue and the reference image detection unit as it is, so that it is possible to perform distance correction with higher accuracy.
[0036]
When the correction function is expressed by the following equation (7) and the corrected standardized fluorescence image is calculated by the following equation (8), the correction is performed by a simpler calculation process. A function can be obtained.
[0037]
(Nir + os2) / nir (7)
{N / (w + os1)} × {(nir + os2) / nir} (8)
However,
n: Narrow-band fluorescence image
w: Broadband fluorescence image
nir: reference image
os1: Offset
os2: correction coefficient, os2 = os1 × knir / kw
knir: distance between reference image / biological tissue and reference image detection means
kw: Broadband fluorescent image / distance between biological tissue and fluorescent image detection means
In addition, the s number of correction functions based on os2 corresponding to the respective biological tissues in the s stage are subjected to distance correction to the standardized fluorescent image serving as the reference for the respective biological tissues in the s stage, and are used as the reference. Each of the corrected normalized fluorescent images is calculated, and a boundary value is set based on the s reference corrected normalized fluorescent images. On the other hand, distance correction is performed on the normalized fluorescent image of the living tissue using s correction functions. S corrected standardized fluorescent images are respectively calculated, and a region corresponding to the s-stage biological tissue is extracted from the s corrected standardized fluorescent images using boundary values, and the extracted s pieces When the regions are superimposed and displayed, the progress of the diseased body can be more clearly confirmed on the same living tissue by an image.
[0038]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing a schematic configuration of a first embodiment of a fluorescence endoscope to which a standardized image generating apparatus that implements a standardized image generating method of the present invention is applied.
[0039]
The fluorescence endoscope according to the present embodiment processes an endoscope insertion unit 100 inserted into a site suspected of being a patient's lesion, and information obtained from a living tissue by the endoscope insertion unit 100 as an image signal. The image signal processing unit 1 includes a monitor 600 that displays a signal processed by the image signal processing unit 1 as a visible image.
[0040]
The image signal processing unit 1 includes an illumination unit 110 including three light sources that respectively emit normal image white light Lw, autofluorescence image excitation light Lr, and reference image reference light Ls, and irradiation of the excitation light. An image detection unit 300 that captures an autofluorescence image Zj generated from the living tissue 9 and a reference image Zs generated from the living tissue 9 by irradiation of the reference light, converts the digital image into digital values, and outputs the image as two-dimensional image data. A normalization calculation is performed from the two-dimensional image data of the autofluorescence image output from the detection unit 300, color information is allocated to the normalized calculation value, luminance information is allocated to the two-dimensional image data of the reference image, and An image arithmetic unit 400 that synthesizes and outputs image information, and converts a normal image into a digital value to obtain two-dimensional image data, and the two-dimensional image data and the image arithmetic unit. A display signal processing unit 500 that converts the output signal of the network 400 into a video signal and outputs it, a control computer 200 that is connected to each unit and controls the operation timing, and a normal image display state and a composite image display described later. It consists of a foot switch 2 for switching the state.
[0041]
The endoscope insertion portion 100 includes a light guide 101 that extends to the tip inside and an image fiber 102. An illumination lens 103 is provided at the distal end portion of the light guide 101, that is, the distal end portion of the endoscope insertion portion 100. Further, the image fiber 102 is a multi-component glass fiber, and includes an excitation light filter 104 and a condensing lens 105 at the tip thereof. In the light guide 101, a white light light guide 101a that is a multi-component glass fiber and an excitation light light guide 101b that is a quartz glass fiber are bundled and integrated into a cable shape, and the white light light guide 101a and the excitation light light guide are integrated. 101 b is connected to the lighting unit 110. The excitation light light guide 101b is also a light guide that guides reference light. One end of the image fiber 102 is connected to the image detection unit 300.
[0042]
The illumination unit 110 includes a GaN-based semiconductor laser 111 that emits excitation light Lr for autofluorescence images, a semiconductor laser power source 112 that is electrically connected to the GaN-based semiconductor laser 111, and a white light source that emits white light Lw for normal images. 114, a white light source 115 electrically connected to the white light source 114, a reference light source 117 that emits reference light Ls for reference images, a reference light source 118 that is electrically connected to the reference light source 117, and GaN The dichroic mirror 120 transmits the excitation light Lr output from the semiconductor laser 111 and reflects the reference light Ls output from the reference light source 117 in the right angle direction.
[0043]
An image fiber 102 is connected to the image detection unit 300, and an autofluorescent image propagated through the image fiber 102, a normal image, a collimating lens 301 that forms a reference image, and a normal image that has passed through the collimating lens 301 are perpendicular to each other. The fluorescence image and the reference image that have been totally reflected and transmitted through the collimator lens 301 are moved to the position indicated by the broken line 302 and the fluorescent image (light having a wavelength of 750 nm or less) transmitted through the collimator lens 301 is perpendicular to the movable mirror 302. Reflecting dichroic mirror 303, 50% of the amount of light of the autofluorescence image reflected by dichroic mirror 303 is transmitted, half mirror 308 reflecting 50% in the perpendicular direction, and autofluorescence image passing through half mirror 308 is reflected in the orthogonal direction The fluorescent image mirror 313 and the fluorescent image mirror 313 are arranged in a perpendicular direction. A broadband fluorescent image condensing lens 304 that forms a projected autofluorescent image, a broadband bandpass filter 305 that selects a wavelength of 430 nm to 730 nm from the autofluorescent image transmitted through the broadband fluorescent image condensing lens 304, and a broadband bandpass A high-sensitivity image sensor 306 for broadband fluorescent images that captures an auto-fluorescent image that has passed through the filter 305, and an auto-fluorescent image captured by the high-sensitivity image sensor 306 for broadband fluorescent images are converted into digital values and output as two-dimensional image data. From the auto-fluorescent image formed by the narrow-band fluorescent image condensing lens 309 and the narrow-band fluorescent image condensing lens 309 that forms an auto-fluorescent image reflected by the AD converter 307, the half mirror 308 in a right angle direction. Narrowband bandpass filter 310 and narrowband bandpass filter 31 for extracting wavelengths from 430 nm to 530 nm A high-sensitivity image sensor 311 for narrow-band fluorescence images that captures an auto-fluorescence image that has passed through the image, and an auto-fluorescence image captured by the high-sensitivity image sensor 311 for narrow-band fluorescence images is converted into digital values and output as two-dimensional image data An AD converter 312, a reference image condensing lens 314 that forms a reference image transmitted through the dichroic mirror 303, a reference image imaging device 315 that images a reference image formed by the reference image condensing lens 314, And an AD converter 316 that converts a reference image picked up by the reference image pickup element 315 into a digital value and outputs it as two-dimensional image data.
[0044]
The image calculation unit 400 includes an autofluorescence image memory 401 that stores digitized autofluorescence image signal data, a reference image memory 402 that stores reference image signal data, and 2 stored in the autofluorescence image memory 401. A pre-set offset value is added to each pixel value of the autofluorescence image in one wavelength band, and an operation according to the ratio of each pixel value to which the offset is added is performed to calculate a normalized operation value for each pixel. Based on the pixel value of the reference image stored in the standardized fluorescence image generation unit 403 and the reference image memory 402, a correction function to be described later is calculated and output from the standardized fluorescence image generation unit 403 using the correction function. A correction unit 404 that corrects the normalized calculation value to calculate a corrected normalization calculation value, and assigns color information to the correction standardization calculation value calculated by the correction unit 404. Color image calculation means 405, luminance image calculation means 406 for assigning luminance information to each pixel value of the reference image stored in the reference image memory 402, and an image signal having color information output from the color image calculation means 405 And an image synthesizing unit 407 for synthesizing image signals having luminance information output from the luminance image calculating unit 406 to generate and output a synthesized image.
[0045]
The autofluorescence image memory 401 is composed of a broadband autofluorescence image storage area and a narrowband autofluorescence image storage area (not shown). The broadband autofluorescence image captured by the high-sensitivity imaging device 306 for broadband fluorescence images is a broadband autofluorescence image. A narrowband fluorescent image stored in the fluorescent image storage area and captured by the high-sensitivity image sensor 311 for narrowband fluorescent images is stored in the narrowband fluorescent image storage area.
[0046]
The normalized fluorescence image generation means 403 adds an offset value to the pixel value of the autofluorescence image stored in the autofluorescence image memory 401, and performs a narrowband autofluorescence image and a broadband autofluorescence image according to the following equation (9). Calculate the ratio. In the present embodiment, the offset value is added to only the broadband autofluorescence image as shown in the following formula (9), and is a predetermined value stored in advance in the normalized fluorescence image generation means 403.
[0047]
n / (w + os1) (9)
n: Narrow-band autofluorescence image
w: Broadband autofluorescence image
os1: Offset
The correction unit 404 calculates a corrected normalized calculation value by multiplying the normalized calculation value calculated by the normalized fluorescent image generation unit 403 by the correction function calculated by the following equation (10). That is, the corrected standardization calculation value is calculated according to the following equation (11). In the present embodiment, the correction function is calculated from the reference image as shown in the following equation (10), and the correction unit 404 calculates the correction function from the pixel value of the reference image stored in the reference image memory 402. . Further, os2 is calculated according to the following expression (12), and knir is obtained by dividing the pixel value of the reference image by the distance from the distal end of the endoscope insertion unit 100 to the living tissue 9 when the reference image is detected. Further, kw is obtained by dividing the pixel value of the broadband autofluorescence image by the distance from the distal end of the endoscope insertion unit 100 to the living tissue 9 when the broadband autofluorescence image is detected.
[0048]
(Nir + os2) / nir (10)
nir: reference image
os2: Correction coefficient
{N / (w + os1)} × {(nir + os2) / nir} (11)
os2 = os1 × knir / kw (12)
knir: distance from the distal end of the reference image / endoscope insertion unit 100 to the living tissue 9
kw: Broadband fluorescent image / distance from the distal end of the endoscope insertion unit 100 to the living tissue 9
The color image calculation unit 405 assigns color information corresponding to the size of the correction pixel value calculated by the correction unit 404 and generates a color image.
[0049]
The luminance image calculation unit 406 assigns luminance information according to the size of the pixel value stored in the reference image memory 402 and generates a luminance image.
[0050]
The image synthesizing unit 407 synthesizes the color image output from the color image calculating unit 405 and the luminance image output from the luminance image calculating unit 406 and outputs the synthesized image to the video signal processing circuit 506 of the display signal processing unit 500 described later.
[0051]
The display signal processing unit 500 includes a normal image mirror 501 that reflects a normal image reflected by the movable mirror 302 in a right angle direction, and a normal image condensing lens 502 that forms a normal image reflected by the normal image mirror 501. The normal image imaging element 503 that captures the normal image formed by the normal image condenser lens 502, and the reference image captured by the normal image imaging element 503 is converted into a digital value and output as two-dimensional image data. The AD converter 504, the normal image memory 505 for storing the digitized normal image signal, the normal image signal output from the normal image memory 505, and the composite image signal output from the image composition unit 405 as a video signal. A video signal processing circuit 506 for converting and outputting is provided. The monitor 600 switches between a normal image and a composite image for display.
[0052]
Next, the operation of the fluorescence endoscope in the above embodiment will be described. First, an operation when an autofluorescence image and a reference image in two different wavelength bands are captured, and a composite image is generated and displayed from these images will be described.
[0053]
At the time of displaying the composite image, excitation light Lr is emitted from the GaN-based semiconductor laser 111 by the semiconductor laser power source 112 based on a signal from the control computer 200, and the excitation light Lr passes through the excitation light condensing lens 113. The light passes through the dichroic mirror 120, enters the excitation light guide 101 b, is guided to the distal end portion of the endoscope insertion unit 100, and is then irradiated onto the living tissue 9 from the illumination lens 103. The autofluorescence image from the living tissue 9 generated by the irradiation of the excitation light Lr is collected by the condensing lens 105, passes through the excitation light cut filter 104, is incident on the tip of the image fiber 102, passes through the image fiber 102, The light enters the collimating lens 301. The excitation light cut filter 104 is a long pass filter that transmits all fluorescence having a wavelength of 420 nm or more. Since the wavelength of the excitation light Lr is 410 nm, the excitation light reflected by the living tissue 9 is cut by the excitation light cut filter 104. The autofluorescence image transmitted through the collimator lens 301 is reflected by the dichroic mirror 303 in the right angle direction. Then, the light is transmitted by the half mirror 308 with a transmittance of 50% and reflected with a reflectance of 50%. The self-fluorescent image transmitted through the half mirror 308 is reflected by the fluorescent image mirror 313 in the perpendicular direction, formed by the broadband fluorescent image condensing lens 304, and transmitted through the broadband fluorescent image condensing lens 304. Is transmitted through the broadband band-pass filter 305 and imaged by the high-sensitivity imaging device 306 for broadband fluorescent images, and the video signal from the high-sensitivity imaging device 306 for broadband fluorescent images is input to the AD converter 307 and digitized. After that, it is stored in the wide-band autofluorescence image storage area of the autofluorescence image memory 401.
[0054]
In addition, the autofluorescence image reflected by the dichroic mirror 303 and reflected by the half mirror 308 is formed by the narrowband fluorescent image condenser lens 309, passes through the narrowband bandpass filter 310, and narrowband fluorescence image. The image signal from the high-sensitivity image sensor 311 for image pickup and the video signal from the high-sensitivity image sensor 311 for narrow-band fluorescence image are input to the AD converter 312 and digitized, and then the narrow-band private area of the self-fluorescence image memory 401 Stored in the fluorescence image area. The digital data of the autofluorescence image captured by the high-sensitivity image sensor 306 for broadband fluorescent images and the digital data of the autofluorescence image captured by the high-sensitivity image sensor 311 for narrowband fluorescence images are stored in different areas. . At this time, it is assumed that the movable mirror 302 is at the position of a broken line parallel to the optical axis of the autofluorescence image.
[0055]
Further, reference light Ls is emitted from the reference light source 117 by the reference light source 118, and this reference light Ls is transmitted through the reference light condensing lens 119 and is reflected by the dichroic mirror 120 in a right angle direction to generate the excitation light. After being incident on the guide 101b and guided to the distal end portion of the endoscope, the living tissue 9 is irradiated from the illumination lens 103. The reference image from the living tissue 9 generated by the irradiation of the reference light Ls is condensed by the condensing lens 105, and the reference image transmitted through the condensing lens 105 is transmitted through the excitation light cut filter 104 and the tip of the image fiber 102. And enters the collimating lens 301 via the image fiber 102. The excitation light cut filter is a long pass filter that transmits a reference image having a wavelength of 420 nm or more. The reference image that has passed through the collimator lens 301 passes through the dichroic mirror 303, is formed by the reference image condensing lens 314, is imaged by the reference image imaging device 315, and the video signal from the reference image imaging device 315 is After being input to the AD converter 316 and digitized, it is stored in the reference image memory 402. At this time, it is assumed that the movable mirror 302 is at a broken line position parallel to the optical axis of the reference image.
[0056]
In the autofluorescence image of the two wavelength bands stored in the autofluorescence image memory 401, the normalized fluorescence image generation means 403 adds an offset os1 to each pixel value of only the broadband autofluorescence image. Then, the ratio with the narrow-band autofluorescence image is calculated according to the following formula (13). Note that os1 is a predetermined value set in advance in the normalized fluorescent image generation unit 403.
[0057]
n / (w + os1) (13)
n: Narrow-band autofluorescence image
w: Broadband autofluorescence image
os1: Offset
Then, the normalized calculation value calculated by the normalized fluorescence image generation unit 403 is output to the correction unit 404, and the correction unit 404 calculates the corrected normalized calculation value according to the following equation (14).
[0058]
{N / (w + os1)} × {(nir + os2) / nir} (14)
os2 = os1 × knir / kw
knir: distance from the tip of the reference image / endoscope insertion unit 100 to the living tissue
kw: Broadband autofluorescence image / distance from the distal end of the endoscope insertion unit 100 to the living tissue Note that the correction function (nir + os2) / nir is a predetermined living tissue detected in advance by the fluorescence endoscope of the present embodiment. Calculated from the reference image and the broadband autofluorescence image and stored in the correction means 404 in advance. In this embodiment, a reference image and a broadband autofluorescence image are captured using a normal biological tissue as the predetermined biological tissue, and the correction function is calculated. After the correction function is set in advance as described above, the correction normalization calculation value and the distal end of the endoscope insertion unit 100 when the autofluorescence image and the reference image of the living tissue having the normal part and the lesion part are actually captured are taken. The relationship with the distance from the living tissue 9 is shown in FIG. In FIG. 2, white circles indicate correction standardization calculation values calculated for normal tissue and black circles indicate correction standardization calculation values calculated for lesional biological tissue. In the present embodiment, as described above, the correction function is calculated for the normal tissue of the normal part, so that the correction standardization calculation value calculated for the normal tissue of the normal part depends on the distance as shown in the figure. It is possible to take a substantially constant value. Therefore, at this time, for example, a boundary value is obtained based on the correction standardization calculation value indicated by a white circle, and the living tissue corresponding to the correction standardization calculation value equal to or higher than the boundary value is determined as a normal part, and is less than the boundary value The living tissue corresponding to the corrected normalization calculation value may be determined as a lesioned part. The boundary value is obtained, for example, by obtaining an average value of the corrected standardization calculation values indicated by the white circles for a plurality of types (a plurality of patients) of normal tissues, obtaining a standard deviation σ, and obtaining an average value −2σ or an average The value −3σ may be used as the boundary value. Whether to set −2σ or −3σ may be determined based on the relationship with the corrected normalization calculation value of the living tissue of the lesioned part.
[0059]
In addition, instead of calculating the correction function for the normal tissue of the normal part as in the present embodiment, the correction function may be calculated for the biological tissue of the lesioned part. The corrected standardization calculation value calculated for the living tissue can take a substantially constant value without depending on the distance. Therefore, at this time, for example, as described above, a boundary value is obtained based on the corrected normalized calculation value, and the living tissue corresponding to the corrected normalized calculation value larger than the boundary value is determined to be a normal part, and below this boundary value A living tissue corresponding to a certain correction normalization calculation value may be determined as a lesioned part. The boundary value is obtained, for example, by obtaining an average value of correction normalization calculation values of a living tissue of a lesioned part for a plurality of types (a plurality of patients) of normal tissues, obtaining a standard deviation σ, and calculating an average value + 2σ or an average The value + 3σ may be used as the boundary value.
[0060]
Then, color information is assigned to each pixel based on the result of the binary determination of the corrected normalized calculation value as described above by the color image calculation unit 405, and is output to the image synthesis unit 407 as a color image signal. On the other hand, for the reference image stored in the reference image memory 402, the luminance image calculation means 406 assigns luminance information to each pixel value, and generates and outputs a luminance image signal. The two image signals output from the color image calculating unit 405 and the luminance image calculating unit 406 are combined by the image combining unit 407. The synthesized image synthesized by the image synthesizing unit 407 is input to the monitor 600 after DA conversion by the video signal processing circuit 506, and the synthesized image is displayed.
[0061]
Next, the operation when displaying a normal image will be described. First, the white light source 114 emits white light Lw from the white light source 114 based on a signal from the control computer 200, and the white light Lw enters the white light light guide 101a via the white light condensing lens 116. After being guided to the distal end portion of the endoscope insertion portion 100, the living tissue 9 is irradiated from the illumination lens 103. The reflected light of the white light Lw is collected by the condenser lens 105, passes through the excitation light filter 104, enters the tip of the image fiber 102, enters the collimator lens 301 through the image fiber 102. The excitation light cut filter 104 is a long pass filter that transmits visible light having a wavelength of 420 nm or more. The reflected light that has passed through the collimator lens 301 is reflected by the movable mirror 302 and the normal image mirror 501 and is incident on the normal image condensing lens 502. The normal image transmitted through the normal image condensing lens 502 is formed on the normal image pickup element 503. The video signal from the normal image pickup device 503 is input to the AD converter 504, digitized, and stored in the normal image memory 505. The normal image signal stored in the normal image memory 505 is input to the monitor 600 after DA conversion by the video signal processing circuit 506 and displayed on the monitor 600 as a visible image.
[0062]
A series of operations relating to the combined image display operation and the normal image display operation are controlled by the control computer 200.
[0063]
The composite image display state and the normal image display state are switched by pressing the foot switch 2.
[0064]
According to the fluorescence endoscope in the above-described embodiment to which the normalized image generation method and apparatus according to the present invention is applied, the living tissue 9 and the endoscope are inserted using the correction function in the normalized fluorescence image (standardized calculation value). Since the correction of the normalized fluorescence image (corrected normalized calculation value) is performed by performing the distance correction for correcting the fluctuation amount of the normalized fluorescence image (normalized calculation value) due to the distance from the tip of the unit 100. The S / N of the normalized fluorescence image (standardized calculation value) can be improved by adding an offset, and without depending on the distance between the distal end of the endoscope insertion portion 100 and the living tissue 9, Even when the distance changes, a constant normalized calculation value can be obtained, so that the normal part and the lesion part in the living tissue can be more accurately identified by the image.
[0065]
For example, images obtained when distance correction is performed on the far point and near point images of the same sample shown in FIGS. 9A and 9B using the above correction function are shown in FIGS. ). Note that this image does not display the result of the binary determination as in the above-described embodiment, but is an image in which luminance is assigned according to the magnitude of the corrected standardization calculation value and displayed as a luminance image. As shown in the figure, compared to FIGS. 9A and 9B, the brightness difference between the image of the normal part between the image at the far point (FIG. 3A) and the image at the near point (FIG. 3B). It can be seen that the difference in contrast between the normal part and the lesion part is small.
[0066]
In the first embodiment, the correction standardization calculation value is calculated using the correction function based on the reference image according to the equations (9) and (10). A method for obtaining a correction function based on the reference image by another method and calculating a correction normalization calculation value using this correction function will be described below.
[0067]
First, as in the above embodiment, in order to obtain a correction function, a narrow-band autofluorescence image, a broadband autofluorescence image, and a reference image are captured in advance with respect to a normal tissue, and pixel values of each image are used for the autofluorescence image. The data is stored in the memory 401 and the reference image memory 402. The autofluorescence image of the two wavelength bands stored in the autofluorescence image memory 401 is added with the os1 to each pixel value of only the broadband autofluorescence image by the standardized fluorescence image generation means 403. Then, the ratio with the narrow-band autofluorescence image is calculated according to the following equation (15). Note that os1 is a predetermined value set in advance in the normalized fluorescent image generation unit 403.
[0068]
n / (w + os1) (15)
n: Narrow-band autofluorescence image
w: Broadband autofluorescence image
os1: Offset
The normalized calculation value calculated by the normalized fluorescent image generation unit 403 is output to the correction unit 404. On the other hand, the pixel value of the reference image stored in the reference image memory 402 is output to the correction unit 404. Based on the normalized calculation value output from the normalized fluorescent image generation unit 403 and the pixel value of the reference image output from the reference image memory 402, the correction unit 404 corrects the correction function hnf as shown in FIG. Find (NIR) and store. Here, hnf is a function based on the square of the reciprocal of the pixel value of the reference image captured at this time, and this function uses the distance NIR between the distal end of the endoscope insertion unit 100 and the living tissue as a variable. Is. The distance NIR is calculated from the square of the reciprocal of the pixel value of the reference image. Since the reference image is captured based on the reflected light by the irradiation of the reference light that hardly absorbs into the living tissue, the size of the pixel value is the distance between the tip of the endoscope insertion unit 100 and the living tissue. It depends on the size. Therefore, it can be said that hnf, which is a function based on the square of the reciprocal of the pixel value of the reference image, directly reflects the distance.
[0069]
When an actual biological tissue is imaged, the normalized calculation value is calculated according to the above equation (15) by the normalized fluorescence image generation means 403 from the actually captured narrowband autofluorescence image and broadband autofluorescence image. Then, the normalized calculation value and the pixel value of the reference image are output to the correcting unit 404, and the corrected normalized calculation value is output according to the following equation (16).
[0070]
nf × hnf (0) / hnf (NIR) (16)
Here, nf is a normalized calculation value based on the self-fluorescent image actually captured.
[0071]
By obtaining the correction standardization calculation value using the correction function as described above, as shown in FIG. 4B, the actual standardization calculation value (broken line) that depends on the distance is corrected without depending on the distance. It can be corrected to a value (solid line). The operation after calculating the corrected normalization calculation value is the same as that in the first embodiment.
[0072]
Next, a second embodiment of the fluorescence endoscope to which the standardized image generating apparatus that performs the standardized image generating method of the present invention is applied will be described. FIG. 5 is a diagram showing a schematic configuration of the present embodiment. In addition, about this Embodiment, the same number is attached | subjected about the element similar to 1st Embodiment, and the description is abbreviate | omitted unless there is particular need.
[0073]
The fluorescence endoscope according to the present embodiment has a configuration that does not use the reference light in the first embodiment.
[0074]
The image signal processing unit 3 includes an illumination unit 120 including two light sources that respectively emit normal image white light Lw and autofluorescence image excitation light Lr, and autofluorescence generated from the living tissue 9 by irradiation of the excitation light. An image detection unit 310 that captures an image Zj, converts it into a digital value and outputs it as two-dimensional image data, and performs a normalization operation from the two-dimensional image data of the autofluorescence image output from the image detection unit 310, An image calculation unit 410 that assigns color information to a normalized calculation value and outputs it as a color image signal, and converts a normal image into a digital value to form two-dimensional image data. The two-dimensional image data and an output signal of the image calculation unit 410 Display signal processing unit 500 for converting the video signal into a video signal and outputting the video signal, and for controlling the operation timing connected to each unit A computer 210, and a foot switch 2 for switching the normal image display state and the color image display state will be described later.
[0075]
The illumination unit 120 includes a GaN-based semiconductor laser 121 that emits excitation light Lr for autofluorescence images, a semiconductor laser power source 122 that is electrically connected to the GaN-based semiconductor laser 111, and a white light source that emits white light Lw for normal images. , And a white light power source 125 electrically connected to the white light source 124.
[0076]
The image fiber 102 is connected to the image detection unit 310, and the autofluorescence image propagated through the image fiber 102, the collimator lens 331 that forms a normal image, and the normal image that has passed through the collimator lens 331 are totally reflected at right angles. The fluorescent image transmitted through the collimating lens 331 transmits 50% of the light quantity of the movable mirror 332 that moves to and passes through the position indicated by the broken line, and the autofluorescent image (light having a wavelength of 750 nm or less) that has passed through the collimating lens 331, A self-image formed by a half-mirror 323 that reflects 50% in a perpendicular direction, a narrow-band fluorescent image condensing lens 324 that forms an auto-fluorescent image transmitted through the half-mirror 323, and a narrow-band fluorescent image condensing lens 324 Narrowband bandpass filter 325 for extracting wavelengths from 430 nm to 530 nm from the fluorescence image, narrowband band A high-sensitivity image sensor 326 for narrow-band fluorescence images that captures an auto-fluorescence image that has passed through the pass filter 325, and a two-dimensional image obtained by converting the auto-fluorescence image captured by the high-sensitivity image sensor 326 for narrow-band fluorescence images into a digital value. The AD converter 327 output as data, the self-fluorescent image reflected by the half mirror 323 in the perpendicular direction, the fluorescent image mirror 318 reflecting again in the perpendicular direction, and the auto-fluorescent image reflected in the perpendicular direction by the fluorescent image mirror 318 are combined. A broadband fluorescent image condensing lens 319 to be imaged, a broadband bandpass filter 320 for selecting a wavelength of 430 nm to 730 nm from an autofluorescent image transmitted through the broadband fluorescent image condensing lens 319, and autofluorescence transmitted through the broadband bandpass filter 320 High-sensitivity image sensor 321 for broadband fluorescent image that captures images, and high-sensitivity image sensor for broadband fluorescent image And a AD converter 322 which outputs autofluorescence image captured as the conversion to the two-dimensional image data into a digital value by 21.
[0077]
The image calculation unit 410 includes a broadband autofluorescence memory 411 that stores digitized broadband autofluorescence image signal data, a narrowband autofluorescence memory 412 that stores narrowband autofluorescence image signal data, and a broadband autofluorescence memory. A preset offset value is added to each pixel value of the broadband autofluorescence image stored in 411, and an operation is performed according to the ratio between the pixel value to which the offset is added and the pixel value of the narrowband autofluorescence image. Based on the pixel value of the broadband autofluorescence image stored in the standardized fluorescence image generation means 413 and the broadband autofluorescence memory 411 for calculating the standardization calculation value of each pixel, a correction function described later is calculated, and the correction function is calculated. Correction means 414 for correcting the normalized calculation value output from the normalized fluorescent image generation means 413 and calculating a corrected normalized calculation value; And a color image calculation unit 415 outputs the color image signals by assigning color information to the calculated corrected normalized calculation value by finely correcting means 414.
[0078]
The normalized fluorescence image generation means 413 adds an offset value to the pixel value of the autofluorescence image stored in the wideband autofluorescence memory 411, and performs a narrowband autofluorescence image and a broadband autofluorescence image according to the following equation (17). Calculate the ratio. In the present embodiment, the offset value is a predetermined value stored in the standardized fluorescent image generation unit 413 in advance.
[0079]
n / (w + os1) (17)
n: Narrow-band autofluorescence image
w: Broadband autofluorescence image
os1: Offset
The correction unit 414 obtains a correction function based on the pixel value of the broadband autofluorescence image and the normalized calculation value calculated by the normalized fluorescence image generation unit 413, and corrects the normalized calculation value by correcting the distance. The standardized operation value is output, details of which will be described later.
[0080]
The color image calculation unit 415 generates color images by assigning color information corresponding to the size of the correction pixel value calculated by the correction unit 414.
[0081]
Next, the operation of the fluorescence endoscope in the above embodiment will be described. First, an operation in the case where autofluorescence images in two different wavelength bands are taken and a color image is generated from these images and displayed will be described.
[0082]
At the time of displaying the color image, the excitation light Lr is emitted from the GaN-based semiconductor laser 121 by the semiconductor laser power source 122 based on the signal from the control computer 200, and the excitation light Lr passes through the excitation light condensing lens 123. After being incident on the excitation light guide 101 b and guided to the distal end portion of the endoscope insertion portion 100, the living tissue 9 is irradiated from the illumination lens 103. The autofluorescence image from the living tissue 9 generated by the irradiation of the excitation light Lr is collected by the condensing lens 105, passes through the excitation light cut filter 104, is incident on the tip of the image fiber 102, passes through the image fiber 102, The light enters the collimating lens 331. The excitation light cut filter 104 is a long pass filter that transmits all fluorescence having a wavelength of 420 nm or more. Since the wavelength of the excitation light Lr is 410 nm, the excitation light reflected by the living tissue 9 is cut by the excitation light cut filter 104. The autofluorescence image transmitted through the collimator lens 331 is transmitted by the half mirror 313 with a transmittance of 50% and reflected with a reflectance of 50%. The autofluorescence image reflected from the half mirror 313 is reflected by the fluorescence image mirror 318 in the right angle direction, formed by the broadband fluorescent image condenser lens 319, and transmitted through the broadband fluorescent image condenser lens 319. Is transmitted through the broadband bandpass filter 320 and imaged by the broadband fluorescent image high-sensitivity image sensor 321, and the video signal from the broadband fluorescent image high-sensitivity image sensor 321 is input to the AD converter 322 and digitized. And stored in the broadband autofluorescence memory 411.
[0083]
The self-fluorescent image transmitted through the half mirror 313 is formed by the narrow-band fluorescent image condensing lens 314, passes through the narrow-band band-pass filter 315, and is captured by the narrow-band fluorescent image high-sensitivity image sensor 316. The video signal from the high-sensitivity image sensor 316 for narrow-band fluorescent images is input to the AD converter 317, digitized, and stored in the narrow-band autofluorescence memory 412. The digital data of the autofluorescence image captured by the high-sensitivity image sensor 321 for the broadband fluorescent image and the digital data of the autofluorescence image captured by the high-sensitivity image sensor 316 for the narrowband fluorescence image are different areas in a common memory. It may be stored in. At this time, it is assumed that the movable mirror 332 is positioned at a broken line parallel to the optical axis of the autofluorescence image.
[0084]
Here, in the present embodiment, as in the above-described embodiment, in order to obtain a correction function, a narrowband autofluorescence image and a broadband autofluorescence image are captured in advance for a normal tissue, and the pixel value of each image is set to a wideband. The data is stored in the fluorescence memory 411 and the narrowband fluorescence memory 412. The broadband autofluorescence image stored in the broadband fluorescence memory 411 is added with the os1 to each pixel value in the normalized fluorescence image generation means 413. Then, the ratio with the narrow-band autofluorescence image is calculated according to the following equation (18). Note that os1 is a predetermined value set in advance in the normalized fluorescent image generation unit 413.
[0085]
n / (w + os1) (18)
n: Narrow-band autofluorescence image
w: Broadband autofluorescence image
os1: Offset
The normalized calculation value calculated by the normalized fluorescent image generation unit 413 is output to the correction unit 414. On the other hand, the pixel value of the broadband autofluorescence image stored in the broadband fluorescence memory 411 is output to the correction means 414. The correction unit 414 performs correction as shown in FIG. 6A based on the normalized calculation value output from the normalized fluorescence image generation unit 413 and the pixel value of the broadband autofluorescence image output from the broadband fluorescence memory 411. The function hnf (w) is obtained and stored. Here, w is a pixel value of the broadband autofluorescence image captured at this time. W Is the size of the pixel value of the broadband autofluorescence image when the distance between the distal end of the endoscope insertion portion 100 and the living tissue 9 is substantially 0 (when it is very close), and is a sufficiently large value. It is.
[0086]
When an actual biological tissue is imaged, a normalized calculation value is calculated by the normalized fluorescence image generation unit 413 according to the above equation (18) from the actually captured narrowband autofluorescence image and broadband autofluorescence image. Then, the normalized calculation value and the pixel value of the broadband autofluorescence image are output to the correcting means 414, and the corrected normalized calculation value is output according to the following equation (19).
[0087]
nf × hnf (w ) / Hnf (w) (19)
Here, nf is a normalized calculation value based on the actually captured autofluorescence image, and hnf (w) is a value of the correction function hnf (w) in the pixel value w of the actually captured broadband autofluorescence image. It is.
[0088]
By obtaining the correction standardization calculation value using the correction function as described above, as shown in FIG. 6B, the actual standardization calculation value (broken line) depending on the distance is corrected and the correction standardization calculation independent of the distance It can be corrected to a value (solid line).
[0089]
In the present embodiment, since the correction function is calculated for the living tissue of the normal part as described above, the boundary value is obtained based on the correction normalization calculation value as in the first embodiment, and this The biological tissue corresponding to the corrected standardized calculation value equal to or greater than the boundary value may be determined as a normal part, and the biological tissue corresponding to the corrected standardized calculation value that is less than the boundary value may be determined as a lesioned part. The boundary value may be obtained in the same manner as in the first embodiment. Further, the method for obtaining the boundary value when calculating the correction function for the living tissue of the lesioned part is the same as that in the first embodiment.
[0090]
Then, color information is assigned to each pixel based on the result of the binary determination of the corrected normalized calculation value as described above by the color image calculation means 415, and a color image signal is generated. The color image signal is input to the monitor 600 after DA conversion by the video signal processing circuit 506, and a color image is displayed. Other operations are the same as those in the first embodiment.
[0091]
In the second embodiment, the correction function is obtained from the relationship between the normalized calculation value based on the autofluorescence image and the pixel value of the wideband autofluorescence image. The correction function may be obtained from the relationship between the pixel value and the normalized calculation value, or the relationship between the sum of the pixel values of the broadband autofluorescence image and the narrowband autofluorescence image and the normalized calculation value.
[0092]
In the first and second embodiments, a correction function is obtained based on the living tissue of a normal part or a lesioned part, a correction normalization calculation value is calculated using the correction function, and this correction normalization is performed. Although the binary value is determined by setting the boundary value based on the calculated value, the correction function is based on the biological tissue at each stage when the progress from the normal part to the lesioned part is divided into s stages. S correction standardization calculation values serving as a reference may be calculated based on the correction function, and boundary values may be set based on the s correction standardization calculation values serving as a reference. . In this case, with respect to the actually captured biological tissue, correction standardization calculation values are calculated using s correction functions corresponding to the respective biological tissues in the s stages, and the s correction standardization calculation values are calculated. The region corresponding to the s-stage biological tissue is extracted from the s corrected standardized fluorescent images using the boundary values, and different color images are assigned to the s regions, for example, and the color images are overlaid. May be displayed. In this case, for example, when applied to the first embodiment, a boundary value setting unit 420 and a region extraction unit 421 are provided between the correction unit 404 and the color image calculation unit 405 as shown in FIG. The image composing unit 407 may superimpose regions corresponding to the s-stage biological tissue output from the color image calculating unit 405.
[0093]
In the first and second embodiments, the correction function is calculated using the normal tissue or the diseased tissue, and a plurality of patient tissues are used as the living tissue. May be. The correction function may be calculated and set in advance before actual image diagnosis, or may be calculated and set during actual image diagnosis, or may be updated. Good.
[0094]
In the first and second embodiments, the composite image and the normal image or the color image and the normal image are switched and displayed on one monitor, but may be displayed on separate monitors. Good. Further, the method of switching with one monitor may be automatically performed in time series from the control computer without using the foot switch as in the above embodiment.
[0095]
In addition, although the GaN-based semiconductor laser 114 and the white light source 111 are configured separately, a single light source can be used as both the excitation light source and the white light source by using an appropriate optical transmission filter.
[0096]
The excitation light source may be any wavelength of about 400 nm to 420 nm.
[0097]
In the first and second embodiments, the normalized image generation method of the present invention is applied when generating a normalized fluorescence image based on autofluorescence emitted from a biological tissue by irradiation with excitation light. However, the present invention is not limited to the case where the standardized fluorescence image is generated based on the autofluorescence as described above, but, for example, based on the reflected light reflected by the irradiation of the white light to the living tissue. The normalized image generation method of the present invention can also be applied when calculating the oxygen saturation of a living tissue and generating a normalized image based on the oxygen saturation. Specifically, this will be described below.
[0098]
First, a method for calculating the oxygen saturation will be described. The living tissue 9 is irradiated with white light from the endoscope insertion portion 100 of the fluorescence endoscope as described above. At this time, the reflected light reflected from the living tissue is imaged by the imaging device via the bandpass filters having different wavelength bands λ1 and λ2, thereby obtaining reflected images r1 and r2 having different wavelength bands λ1 and λ2. Then, with respect to the two reflected images r1 and r2, the absorbance for each pixel is calculated based on each pixel value and the intensity of the white light irradiated on the living tissue.
[0099]
Here, since the absorbance changes according to the oxygen saturation of the living tissue, the oxygen saturation can be calculated from the absorbance. However, the absorbance varies depending on the pulsation of the living tissue. Therefore, for example, a pulse meter is provided, and based on the pulsation measured by the pulse meter, for example, a time T1 at which the absorbance is the largest and a time T2 at which the absorbance is the smallest are obtained, and the time T1 and the time T2 are obtained. The change in absorbance is calculated, and the oxygen saturation is calculated based on this change.
[0100]
That is, for each pixel, the absorbance Iλ1 (T1) with respect to the irradiation light in the wavelength band λ1 at time T1 is obtained based on the reflected image r1 at time T1, and the absorbance Iλ2 (T1) with respect to the irradiation light in the wavelength band λ2 at time T1. Is obtained based on the reflected image r2 at time T1, and the absorbance Iλ1 (T2) for the irradiation light in the wavelength band λ1 at time T2 is obtained based on the reflected image r1 ′ at time T2, and the irradiation in the wavelength band λ2 at time T2. Absorbance Iλ2 (T2) with respect to light is obtained based on reflection image r2 ′ at time T2, and absorbance changes ΔIλ1 and ΔIλ2 are obtained as follows.
[0101]
ΔIλ1 = Iλ1 (T1) −Iλ (T2)
ΔIλ2 = Iλ2 (T1) −Iλ (T2)
Then, the oxygen saturation SaO based on the time variation ΔIλ1 and ΔIλ2 of the absorbance for the two wavelength bands λ1 and λ2. 2 Is obtained by the following equation.
[0102]
SaO 2 = F (Φ12)
Φ12 = ΔIλ1 / ΔIλ2
Note that f is Φ12 and SaO obtained by experiment. 2 It is a function obtained based on the relationship.
[0103]
Here, since the absorbance changes ΔIλ1 and ΔIλ2 are very small values as in the case of the autofluorescence, Φ12 is obtained based on these values to obtain the oxygen saturation SaO. 2 When this is calculated and imaged, an image with a poor S / N is obtained. Therefore, as in the case of imaging the autofluorescence, for example, it is conceivable to obtain Φ12 ′ by adding an offset as follows.
[0104]
Φ12 ′ = ΔIλ1 / (ΔIλ2 + os3)
However, os3: Offset
However, when Φ12 ′ is obtained by adding an offset as described above, the value of Φ12 ′ is set to the endoscope insertion unit 100 as in the case of calculating a normalized fluorescence image by adding an offset to the autofluorescence image. Therefore, it is difficult to appropriately indicate the oxygen saturation of the living tissue based on Φ12 ′. Therefore, as in the above embodiment, Φ12 ′ is corrected by the correction function, and the oxygen saturation SaO is based on this corrected value. 2 By calculating and imaging, it is possible to display an image in which the oxygen saturation is appropriately shown without depending on the distance between the distal end of the endoscope insertion unit 100 and the living tissue. Further, as the correction function, for example, the following equation (20) is used, and Φ12 ′ is corrected by performing calculations according to equations (21) and (22). Good.
[0105]
(Wir + os4) / Wir (20)
Wir: Absorbance when irradiated with reference light
os4: Correction coefficient
{ΔIλ1 / (ΔIλ2 + os3) × {(Wir + os4) / Wir} (21)
os4 = os3 × hir / hw (22)
hir: Absorbance when the reference light is irradiated / Distance from the distal end of the endoscope insertion portion 100 to the living tissue 9
hw: ΔIλ2 / distance from the distal end of the endoscope insertion unit 100 to the living tissue 9
In addition, the correction function is not limited to the above equation (20), and other correction functions described in the above embodiments may be applied.
[0106]
As a method for obtaining the reflection images r1 and r2 of the different wavelength bands λ1 and λ2, the two reflection images r1 and r2 are time-sequentially used by using a field sequential filter including bandpass filters of the wavelength bands λ1 and λ2. Alternatively, two reflection images r1 and r2 may be obtained simultaneously using a mosaic filter composed of bandpass filters of wavelength bands λ1 and λ2.
[0107]
The reflected images r1 and r2 may be captured at the time of capturing a normal image that irradiates a living tissue with white light.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram of a first embodiment of a fluorescence endoscope to which a normalized image generation method and apparatus according to the present invention is applied.
FIG. 2 shows a relationship between a corrected normalization calculation value and a distance from a distal end of an endoscope insertion portion to a living tissue when an autofluorescence image and a reference image of a living tissue having a normal part and a lesioned part are captured. Figure
3 is a diagram illustrating an image when distance correction is performed using a correction function for the far-point image (A) and the near-point image (B) illustrated in FIG. 9;
FIG. 4 is a diagram showing a relationship (A) between a normalized calculation value based on a narrowband autofluorescence image and a broadband autofluorescence image and a reciprocal NIR of a pixel value of a reference image, and correction by a correction function (B).
FIG. 5 is a schematic configuration diagram of a second embodiment of a fluorescence endoscope to which a normalized image generation method and apparatus according to the present invention is applied.
FIG. 6 is a diagram showing a relationship (A) between a normalized calculation value based on a narrowband autofluorescence image and a broadband autofluorescence image and a pixel value of the broadband autofluorescence image, and correction (B) using a correction function.
FIG. 7 sets a boundary value by a boundary value setting unit based on a corrected standardized calculation value corresponding to an s-stage biological tissue calculated by the correction unit, and based on the boundary value, the region extraction unit sets an s-stage. Configuration diagram of each means when extracting a region corresponding to a living tissue and assigning different color images to this region to generate a color image
FIG. 8 is a diagram showing the relationship between the normalized calculation value and the distance between the detection means and the biological tissue when the normalized calculation value is obtained by adding an offset to the normal tissue and the lesion biological tissue;
FIG. 9 shows an image (A) based on a division value when the distance between the detection means and the living tissue is large (far point) and an image based on a division value when the distance is small (near point) (B Figure showing
FIG. 10 is an explanatory view showing the intensity distribution of the fluorescence spectrum of the living tissue of the normal part and the lesion part.
[Explanation of symbols]
1 Fluorescence diagnostic equipment
2 Foot switch
9 Living tissue
100 Endoscope insertion part
101 Light guide
101a White light guide
101b Excitation light guide
102 Image fiber
103 Illumination lens
104 Excitation light cut filter
105 Objective lens
110, 120 lighting unit
111,121 GaN semiconductor laser
112,122 Power supply for semiconductor laser
113, 123 Condensing lens for excitation light
114,124 White light source
115,125 Power supply for semiconductor laser
116,126 Condensing lens for white light
200, 210 Control computer
300, 310 Image detection unit
301 collimating lens
302 Movable mirror
303 Dichroic Mirror
304,319 condenser lens for broadband fluorescent image
305, 320 Wideband bandpass filter
306,321 High-sensitivity image sensor for broadband fluorescent image
307, 312, 316, 322, 327, 504 AD converter
308,323 half mirror
309,324 Mirror for narrow band fluorescent image
310,325 Narrowband bandpass filter
311 and 326 High-sensitivity image sensor for narrow-band fluorescence image
313 Mirror for fluorescent image
314 Condensing lens for reference image
315 Image sensor for reference image
331 Collimating lens
332 Movable mirror
400 Image arithmetic unit
401 Self-fluorescent image memory
402 Reference image memory
403, 413 Normalized fluorescent image generation means
404, 414 Correction means
405,415 color image calculation means
406 Luminance image calculation means
407 Image composition means
500 Display signal processing unit
501 Normal image mirror
502 Condensing lens for normal image
503 Image sensor for normal images
505 Normal image memory
506 Video signal processing circuit
600 Monitor unit

Claims (9)

励起光の照射により生体組織から発生する蛍光に基づいて、広帯域蛍光画像と狭帯域蛍光画像とを蛍光画像検出手段によりそれぞれ検出し、前記広帯域蛍光画像に所望のオフセットを付加し、該所望のオフセットが付加された広帯域蛍光画像と前記狭帯域蛍光画像との比に基づいて規格化蛍光画像を生成する規格化画像生成方法において、
参照光の照射により性状が既知である所定の生体組織から反射される反射光による参照画像を参照画像検出手段により予め検出し、
該検出した参照画像に基づいて、次の(1)式で表わされる補正関数を算出し、
次の(2)式で表わされる補正規格化蛍光画像を生成することを特徴とする規格化画像生成方法。
(nir+os2)/nir …(1)
{n/(w+os1)}×{(nir+os2)/nir} …(2)
ただし、
n:狭帯域蛍光画像
w:広帯域蛍光画像
nir:参照画像
os1:オフセット
os2:補正係数、os2=os1×knir/kw
knir:参照画像/生体組織と参照画像検出手段との距離
kw:広帯域蛍光画像/生体組織と蛍光画像検出手段との距離
Based on the fluorescence generated from the living tissue by the irradiation of the excitation light , a broadband fluorescent image and a narrow-band fluorescent image are detected by the fluorescent image detection means, respectively, and a desired offset is added to the broadband fluorescent image, and the desired offset In a standardized image generation method for generating a standardized fluorescent image based on a ratio between the broadband fluorescent image to which is added and the narrowband fluorescent image ,
A reference image detection unit that detects a reference image by reflected light reflected from a predetermined biological tissue whose properties are known by irradiation of reference light is detected in advance.
Based on the detected reference image, a correction function represented by the following equation (1) is calculated:
A standardized image generating method characterized by generating a corrected standardized fluorescent image represented by the following equation (2).
(Nir + os2) / nir ... (1)
{N / (w + os1)} × {(nir + os2) / nir} ... (2)
However,
n: Narrow-band fluorescence image
w: Broadband fluorescence image
nir: reference image
os1: Offset
os2: correction coefficient, os2 = os1 × knir / kw
knir: distance between reference image / biological tissue and reference image detection means
kw: Broadband fluorescent image / distance between biological tissue and fluorescent image detection means
前記os2が、正常部の生体組織に応じた前記knirおよび前記kwに基づいて算出されることを特徴とする請求項記載の規格化画像生成方法。Wherein os2 is the knir and normalized image generation method according to claim 1, characterized in that it is calculated based on the kw corresponding to the normal portion of the living tissue. 前記os2が、病変部の生体組織に応じた前記knirおよび前記kwに基づいて算出されることを特徴とする請求項記載の規格化画像生成方法。Wherein os2 is the knir and normalized image generation method according to claim 1, characterized in that it is calculated based on the kw corresponding to the lesion of the biological tissue. 前記os2が、正常部から病変部までの進行度をs段階に分割したときの各前記段階の生体組織に応じた各前記knirおよび各前記kwに基づいてそれぞれ算出されることを特徴とする請求項記載の規格化画像生成方法。The os2 is calculated based on each knir and each kw corresponding to the living tissue at each stage when the degree of progression from a normal part to a lesioned part is divided into s stages. Item 2. A normalized image generation method according to Item 1 . 前記s段階のそれぞれの生体組織に応じた前記os2に基づくs個の前記補正関数を用いて前記s段階のそれぞれの生体組織の基準となる前記規格化蛍光画像に前記距離補正を施して基準となるs個の前記補正規格化蛍光画像をそれぞれ算出し、該s個の基準補正規格化蛍光画像に基づいて境界値を設定し、一方、前記生体組織の前記規格化蛍光画像に前記s個の補正関数を用いて前記距離補正を施すことによりs個の前記補正規格化蛍光画像をそれぞれ算出し、該s個の補正規格化蛍光画像について前記境界値を用いて前記s段階の生体組織に応じた領域を抽出し、前記抽出されたs個の領域を重ね合わせて表示することを特徴とする請求項記載の規格化画像生成方法。Using the s correction functions based on the os2 corresponding to the s-stage biological tissues, the distance correction is performed on the normalized fluorescent image serving as a reference for the s-stage biological tissues to obtain a reference. S number of the corrected normalized fluorescent images respectively, and a boundary value is set based on the s reference corrected normalized fluorescent images, while the s number of the corrected normalized fluorescent images of the living tissue By performing the distance correction using a correction function, s corrected standardized fluorescent images are calculated, and the boundary values are used for the s corrected standardized fluorescent images according to the s-stage biological tissue. 5. The standardized image generation method according to claim 4 , wherein the extracted area is extracted and the extracted s areas are superimposed and displayed. 生体組織に励起光を照射する励起光照射手段と、前記励起光の照射により前記生体組織から発生する蛍光に基づいて、広帯域蛍光画像と狭帯域蛍光画像とをそれぞれ検出する蛍光画像検出手段と、前記広帯域蛍光画像に所望のオフセットを付加し、該所望のオフセットが付加された広帯域蛍光画像と前記狭帯域蛍光画像との比に基づいて規格化蛍光画像を生成する規格化蛍光画像生成手段とを備えた規格化画像生成装置において、
参照光を性状が既知である所定の生体組織に照射する参照光照射手段と、
前記参照光照射手段による参照光の照射により前記性状が既知である生体組織から反射される反射光に基づいて参照画像を予め検出する参照画像検出手段とを有し、
前記参照画像検出手段により予め検出された参照画像に基づいて算出された、次の(1 )式で表わされる補正関数を用いて、次の(2)式で表わされる補正規格化蛍光画像を生成する補正手段を備えたことを特徴とする規格化画像生成装置。
(nir+os2)/nir …(1)
{n/(w+os1)}×{(nir+os2)/nir} …(2)
ただし、
n:狭帯域蛍光画像
w:広帯域蛍光画像
nir:参照画像
os1:オフセット
os2:補正係数、os2=os1×knir/kw
knir:参照画像/生体組織と参照画像検出手段との距離
kw:広帯域蛍光画像/生体組織と蛍光画像検出手段との距離
An excitation light irradiating means for irradiating the living tissue with excitation light, and a fluorescence image detecting means for detecting a broadband fluorescent image and a narrowband fluorescent image , respectively, based on the fluorescence generated from the biological tissue by the irradiation of the excitation light; A standardized fluorescent image generating means for adding a desired offset to the broadband fluorescent image and generating a standardized fluorescent image based on a ratio between the broadband fluorescent image to which the desired offset is added and the narrowband fluorescent image ; In the standardized image generating apparatus provided,
A reference light irradiating means for irradiating a predetermined biological tissue whose property is known;
Reference image detection means for detecting a reference image in advance based on reflected light reflected from a biological tissue whose properties are known by irradiation of reference light by the reference light irradiation means;
Using the correction function represented by the following equation (1 ) calculated based on the reference image detected in advance by the reference image detecting means , a corrected standardized fluorescent image represented by the following equation (2) is generated. A standardized image generating apparatus comprising a correcting unit that performs the correction.
(Nir + os2) / nir ... (1)
{N / (w + os1)} × {(nir + os2) / nir} ... (2)
However,
n: Narrow-band fluorescence image
w: Broadband fluorescence image
nir: reference image
os1: Offset
os2: correction coefficient, os2 = os1 × knir / kw
knir: distance between reference image / biological tissue and reference image detection means
kw: Broadband fluorescent image / distance between biological tissue and fluorescent image detection means
前記os2が、病変部の生体組織の病変部に応じた前記knirおよび前記kwに基づいて算出されることを特徴とする請求項記載の規格化画像生成装置。The normalized image generation apparatus according to claim 6 , wherein the os2 is calculated based on the knir and the kw corresponding to a lesioned part of a living tissue of a lesioned part. 前記os2が、正常部から病変部までの進行度をs段階に分割したときの各前記段階の生体組織に応じた各前記knirおよび各前記kwに基づいてそれぞれ算出されることを特徴とする請求項記載の規格化画像生成装置。The os2 is calculated based on each knir and each kw corresponding to the living tissue at each stage when the degree of progression from a normal part to a lesioned part is divided into s stages. Item 7. The normalized image generating device according to Item 6 . 前記補正手段が、前記s段階のそれぞれの生体組織に応じた前記os2に基づくs個の前記補正関数を用いて前記s段階のそれぞれの生体組織の基準となるs個の前記規格化蛍光画像に前記距離補正を施しs個の基準となる前記補正規格化蛍光画像を算出するものであり、
該s個の基準補正規格化蛍光画像に基づいて境界値を設定する境界値設定手段と、
前記補正手段により前記生体組織の前記規格化蛍光画像について前記s個の補正関数を用いて算出されたs個の前記補正規格化蛍光画像から前記境界値を用いてそれぞれ前記s段階の生体組織に応じた領域を抽出する領域抽出手段と、
該領域抽出手段により抽出された前記s個の補正規格化蛍光画像の領域を重ね合わせて表示する表示手段とを備えたことを特徴とする請求項記載の規格化画像生成装置。
The correction means uses the s correction functions based on the os2 corresponding to the s-stage biological tissues to generate s standardized fluorescent images serving as a reference for the s-stage biological tissues. Performing the distance correction and calculating the corrected standardized fluorescence image as the s number of references,
Boundary value setting means for setting a boundary value based on the s reference correction normalized fluorescent images;
From the s corrected normalized fluorescent images calculated using the s correction functions for the normalized fluorescent image of the biological tissue by the correcting means, the s-stage biological tissue is respectively obtained using the boundary value. Area extracting means for extracting a corresponding area;
9. The normalized image generating apparatus according to claim 8, further comprising display means for displaying the s corrected normalized fluorescent image areas extracted by the area extracting means in a superimposed manner.
JP2002120234A 2001-04-27 2002-04-23 Standardized image generation method and apparatus Expired - Fee Related JP4202671B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002120234A JP4202671B2 (en) 2001-04-27 2002-04-23 Standardized image generation method and apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001-132421 2001-04-27
JP2001132421 2001-04-27
JP2002120234A JP4202671B2 (en) 2001-04-27 2002-04-23 Standardized image generation method and apparatus

Publications (2)

Publication Number Publication Date
JP2003036436A JP2003036436A (en) 2003-02-07
JP4202671B2 true JP4202671B2 (en) 2008-12-24

Family

ID=26614471

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002120234A Expired - Fee Related JP4202671B2 (en) 2001-04-27 2002-04-23 Standardized image generation method and apparatus

Country Status (1)

Country Link
JP (1) JP4202671B2 (en)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5461753B2 (en) * 2004-07-30 2014-04-02 オリンパス株式会社 Endoscope device
JP4564331B2 (en) * 2004-10-26 2010-10-20 オリンパス株式会社 Image generation device
JP5393215B2 (en) 2009-03-24 2014-01-22 オリンパス株式会社 Fluorescence observation apparatus, fluorescence observation system, and operation method of fluorescence observation apparatus
JP5393216B2 (en) 2009-03-24 2014-01-22 オリンパス株式会社 Fluorescence observation system and method of operating fluorescence observation system
JP5572326B2 (en) * 2009-03-26 2014-08-13 オリンパス株式会社 Image processing apparatus, imaging apparatus, image processing program, and image processing method
JP5506443B2 (en) * 2010-02-10 2014-05-28 オリンパス株式会社 Fluorescence observation equipment
JP5555002B2 (en) * 2010-02-10 2014-07-23 オリンパス株式会社 Fluorescence endoscope device
EP2520211B1 (en) 2010-02-10 2014-04-23 Olympus Corporation Fluorescence endoscope device
JP5558178B2 (en) * 2010-04-07 2014-07-23 オリンパス株式会社 Fluorescence observation equipment
JP5737899B2 (en) 2010-10-07 2015-06-17 Hoya株式会社 Diagnostic system
JP5611891B2 (en) * 2011-05-24 2014-10-22 富士フイルム株式会社 Endoscope system and method for operating endoscope system
WO2013015120A1 (en) * 2011-07-22 2013-01-31 オリンパス株式会社 Fluorescence endoscopy system
JP5816486B2 (en) 2011-08-18 2015-11-18 オリンパス株式会社 Fluorescence observation apparatus, fluorescence observation system, and fluorescence image processing method of fluorescence observation apparatus
EP2754378B1 (en) 2011-09-05 2023-03-22 FUJIFILM Corporation ENDOSCOPE SYSTEM and PROCESSOR DEVICE THEREOF
JP5926909B2 (en) 2011-09-07 2016-05-25 オリンパス株式会社 Fluorescence observation equipment
JP6533358B2 (en) * 2013-08-06 2019-06-19 三菱電機エンジニアリング株式会社 Imaging device
JP6129686B2 (en) * 2013-08-23 2017-05-17 富士フイルム株式会社 Endoscope system, processor device, operation method, and table creation method
JP6109695B2 (en) * 2013-09-27 2017-04-05 富士フイルム株式会社 Endoscope system, processor device, operation method, and distance measuring device
JP6030035B2 (en) * 2013-09-27 2016-11-24 富士フイルム株式会社 Fluorescence observation apparatus, endoscope system, processor apparatus, and operation method
JP6247530B2 (en) * 2013-12-27 2017-12-13 キヤノン株式会社 Imaging device

Also Published As

Publication number Publication date
JP2003036436A (en) 2003-02-07

Similar Documents

Publication Publication Date Title
JP4202671B2 (en) Standardized image generation method and apparatus
JP4311607B2 (en) Fluorescence diagnostic information generation method and apparatus
JP3731814B2 (en) Fluorescent image display device
JP5616303B2 (en) Electronic endoscope system and method for operating electronic endoscope system
JP3862582B2 (en) Fluorescence image acquisition method, apparatus and program
JP5604248B2 (en) Endoscopic image display device
US20020168096A1 (en) Method and apparatus for standardized fluorescence image generation
JP5222934B2 (en) Endoscope system, processor device for endoscope system, and method for operating endoscope system
CN108366717B (en) Endoscope device
JP5914496B2 (en) ENDOSCOPE SYSTEM, PROCESSOR DEVICE, AND METHOD FOR OPERATING ENDOSCOPE SYSTEM
JP6234375B2 (en) Observation device
JP2006175052A (en) Fluorescent image capturing apparatus
WO2002007587A2 (en) Compact fluorescent endoscopy video system
WO2008048402A2 (en) Apparatus for caries detection
EP2735257A1 (en) Fluorescence endoscopy system
JP4316118B2 (en) Fluorescence endoscope device
JP4298151B2 (en) Fluorescent image display method and apparatus
JP2004024656A (en) Fluorescent endoscope equipment
JP2021035549A (en) Endoscope system
JP2003164414A (en) Method and device for displaying fluoroscopic image
JP2003111716A (en) Standard light source, correction coefficient calculating method and device, and fluorescent image forming method and device
JP2002336187A (en) Method and apparatus for forming normalized fluorescent image
EP3275358A1 (en) Endoscopic diagnosis device, image processing method, program and recording medium
US20170354315A1 (en) Endoscopic diagnosis apparatus, image processing method, program, and recording medium
JP4109132B2 (en) Fluorescence determination device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050207

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080415

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080708

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080829

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081007

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081009

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111017

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121017

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121017

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131017

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees