JP5576739B2 - 画像処理装置、画像処理方法、撮像装置及びプログラム - Google Patents

画像処理装置、画像処理方法、撮像装置及びプログラム Download PDF

Info

Publication number
JP5576739B2
JP5576739B2 JP2010175623A JP2010175623A JP5576739B2 JP 5576739 B2 JP5576739 B2 JP 5576739B2 JP 2010175623 A JP2010175623 A JP 2010175623A JP 2010175623 A JP2010175623 A JP 2010175623A JP 5576739 B2 JP5576739 B2 JP 5576739B2
Authority
JP
Japan
Prior art keywords
information
reference point
distance
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010175623A
Other languages
English (en)
Other versions
JP2012039255A (ja
Inventor
浩一郎 吉野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2010175623A priority Critical patent/JP5576739B2/ja
Priority to US13/198,350 priority patent/US8724015B2/en
Publication of JP2012039255A publication Critical patent/JP2012039255A/ja
Application granted granted Critical
Publication of JP5576739B2 publication Critical patent/JP5576739B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00186Optical arrangements with imaging filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/21Indexing scheme for image data processing or generation, in general involving computational photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Description

本発明は、画像処理装置、画像処理方法、撮像装置及びプログラム等に関する。
内視鏡のような撮像装置においては、ドクターの診断に支障をきたさないため、パンフォーカスの画像が求められる。このため、内視鏡では比較的Fナンバーが大きい光学系を使用して被写界深度を深くすることでこのような性能を達成している。
しかし、内視鏡システムにおいても、近年数十万画素程度の高画素の撮像素子が使用されるようになっている。撮像装置の被写界深度は許容錯乱円の大きさによって決定されるが、高画素の撮像素子では画素ピッチと共に許容錯乱円も小さくなるため撮像装置の被写界深度は狭くなる。このような場合には光学系の絞りをさらに小さくし、光学系のFナンバーを増大させることで被写界深度を維持することが考えられるが、光学系が暗くなりノイズが増加することで画質が劣化する。また、Fナンバーが大きくなると回折の影響も大きくなり、結像性能が劣化することで撮像素子を高画素化しても高い解像力の画像が得られない。
一方、被写界深度を拡大する技術として、例えばピント位置の異なる複数枚の画像を取得し、画像のピントが合っている部分だけを合成して合成画像を作成する方法(特許文献1)が知られている。また、光学系で軸上色収差をわざと発生させ、チャンネルによりピント位置の異なる画像を取得し、画像処理で被写界深度を拡大する方法(特許文献2)が知られている。このような技術を内視鏡システムに適応することで高い解像力を維持したまま被写界深度を深くすることが可能になる。
特開2000−276121号公報 特表2008−532449号公報
前述したようにピント位置の異なる複数枚(複数チャンネル)の画像を取得できる場合、これらの画像から被写界深度を拡大するだけでなく、例えば被写体までの距離を推定することも可能である(詳細は後述)。内視鏡システムにおいて被写体までの距離の情報は非常に重要であるが、前述した特許文献1及び特許文献2では、ピント位置の異なる複数枚(複数チャンネル)の画像から被写体までの距離を推定する手法や、推定した距離を活用する手法については詳細に開示されていない。
本発明の幾つかの態様によれば、合焦状態(ピント位置)の異なる複数枚(複数チャンネル)の画像から被写体までの距離を推定し、ドクターに診断上の様々な価値を提供する画像処理装置、画像処理方法、撮像装置及びプログラム等を提供することができる。
本発明の一態様は、合焦状態が異なる複数の画像を取得する画像取得部と、取得された前記複数の画像について、注目領域に対して設定される基準点の設定処理を行う基準点設定部と、前記複数の画像について、前記基準点に対応する画素値に基づいて、前記基準点に対応する実空間上の対応点までの距離情報を推定する距離推定部と、推定された前記距離情報に基づいて、前記基準点が設定された前記注目領域に対して付加される情報である付加情報を生成する付加情報生成部と、を含む画像処理装置に関係する。
本発明の一態様では、合焦状態の異なる複数の画像を取得し、複数の画像について注目領域に対して基準点の設定処理を行い、基準点に対応する実空間上の対応点までの距離を推定し、推定した距離情報に基づいて付加情報を生成する。これにより、推定した距離情報に基づいて、ユーザーに対して有用な情報を生成し、画像情報に付加して提示することが可能になる。
本発明の他の態様は、合焦状態が異なる複数の画像を取得し、取得された前記複数の画像について、注目領域に対して設定される基準点の設定処理を行い、前記複数の画像について、前記基準点に対応する画素値に基づいて、前記基準点に対応する実空間上の対応点までの距離情報を推定し、推定された前記距離情報に基づいて、前記基準点が設定された前記注目領域に対して付加される情報である付加情報を生成する画像処理方法に関係する。
また、本発明の他の態様は、合焦状態が異なる複数の画像を取得する画像取得部と、取得された前記複数の画像について、注目領域に対して設定される基準点の設定処理を行う基準点設定部と、前記複数の画像について、前記基準点に対応する画素値に基づいて、前記基準点に対応する実空間上の対応点までの距離情報を推定する距離推定部と、推定された前記距離情報に基づいて、前記基準点が設定された前記注目領域に対して付加される情報である付加情報を生成する付加情報生成部と、を含む撮像装置に関係する。
また、本発明の他の態様は、合焦状態が異なる複数の画像を取得する画像取得部と、取得された前記複数の画像について、注目領域に対して設定される基準点の設定処理を行う基準点設定部と、前記複数の画像について、前記基準点に対応する画素値に基づいて、前記基準点に対応する実空間上の対応点までの距離情報を推定する距離推定部と、推定された前記距離情報に基づいて、前記基準点が設定された前記注目領域に対して付加される情報である付加情報を生成する付加情報生成部として、コンピュータを機能させるプログラムに関係する。
本実施形態のシステム構成例。 撮像素子の構成例。 図3(A)は近点画像の被写界深度の説明図、図3(B)は遠点画像の被写界深度の説明図。 画像処理部の構成例。 距離推定部の構成例。 局所領域の設定例。 対物レンズの後側焦点位置からの距離と、ある空間周波数における対物レンズのコントラストの関係図。 図8(A)〜図8(E)は注目領域に対して付加情報を付加する例。 図9(A)、図9(B)は基準点の画像上の座標から、対応点の実空間上の座標を求める手法の説明図。 入射瞳の説明図。 局所倍率の説明図。 図12(A)〜図12(E)は注目領域に対して付加情報を付加する他の例。 図13(A)、図13(B)は合焦方向等を求める際のZn、Zfの設定の説明図。 図14(A)〜図14(C)はZn、Zfと、被写体までの距離Zcとの関係を示す図。 本実施形態の他のシステム構成例。 図16(A)〜図16(C)はR,G,Bの各チャンネルの被写界深度の説明図。 対物レンズの後側焦点位置からの距離と、ある空間周波数における対物レンズのコントラストの他の関係図。 画像処理部の他の構成例。 本実施形態の他のシステム構成例。
1.本実施形態の手法
まず、本実施形態の手法について説明する。特許文献1に示したように、合焦状態(ピント位置)の異なる複数枚の画像を取得し、画像のピントが合っている部分だけを合成して合成画像を作成する手法が知られている。このようにすることで、図3に示したように、被写界深度の範囲が異なる複数の画像を取得できるため、それぞれピントの合っている部分を利用して複数の画像を合成することで、高い解像力を維持したまま、被写界深度を拡大することが可能になる。
しかし、合焦状態が異なる複数枚の画像を取得する手法のメリットは被写界深度の拡大に限定されるものではない。例えば、それぞれの画像についてコントラスト(鮮鋭度)を求めることで、撮像装置(もしくは光学系の前側焦点位置)から被写体までの距離情報を取得することもできる。
そこで、本出願人は、被写体までの距離情報に基づいて、ユーザ(ドクター)にとって有用な付加情報を画像に付加する手法について提案する。付加情報とは具体的には例えば、図8(C)に示すような、病変サイズ情報や、図8(E)に示すような実空間における大きさを表すスケール情報である。また付加情報は、図12(B)〜図12(E)に示すような合焦方向情報・ピントが合っていることを示す表示情報・アラート情報等であってもよい。
上述した距離情報は、例えば複数の画像のコントラスト情報と、光学系の設計から決まるコントラスト曲線に基づいて、図7のような手法で求めることができる。
また、病変サイズ情報を表示するためには、画像上の基準点に対応する実空間上の対応点の3次元座標を求める必要がある。そのために、図9のような手法を用いて3次元座標の算出を行う。また、スケール情報の生成は局所倍率等を求めることで行う。合焦方向情報等の生成は、被写体までの距離情報と、前側焦点位置から被写界深度の端までの距離とを比較することで行う。
距離情報の推定、及び、距離情報に基づく各種付加情報の生成手法については、後述する各実施形態にて詳細に説明する。
以下、第1の実施形態では、合焦状態の異なる複数の画像を取得するために、対物レンズからの距離(もしくは後側焦点位置からの距離)が異なる2つの撮像素子を用いる手法について説明する。また、第2の実施形態では、光学系で軸上色収差をわざと発生させ、チャンネル(R,G,B)により合焦状態の異なる画像を取得する手法について説明する。さらに、第3の実施形態では、撮像素子を駆動させ、第1のタイミングにおいて第1の合焦状態とし、第2のタイミングで第2の合焦状態とすることで、1つの撮像素子で時分割的に合焦状態の異なる複数の画像を取得する手法について説明する。なお、各実施形態の差異は合焦状態の異なる複数の画像の取得手法(及び第2の実施形態では距離推定手法の細部)であり、距離情報の推定後の付加情報の生成、利用手法については、各実施形態間で差はないものとする。
2.第1の実施形態
本発明の第1の実施形態に係る画像処理装置を含む内視鏡システムについて、図1を参照して説明する。本実施形態に係る内視鏡システムは、光源部100と、撮像部200と、処理部300と、表示部400と、外部I/F部500を備えている。
光源部100は、白色光を発生する白色光源110と白色光をライトガイドファイバ210に集光するための集光レンズ120を備えている。
撮像部200は、例えば体腔への挿入を可能にするため細長くかつ湾曲可能に形成されている。撮像部200には、光源部で集光された光を導くためのライトガイドファイバ210と、該ライトガイドファイバにより先端まで導かれてきた光を拡散させて観察対象に照射する照明レンズ220と、観察対象から戻る反射光を集光する対物レンズ230と、集光した反射光の光路を分割するハーフミラー240と、第1撮像素子250と、第2撮像素子260を備えている。第1撮像素子250及び第2撮像素子260は、図2に示すようなベイヤ配列の色フィルタを持つ撮像素子であり、ここでGrとGbは同じ分光特性である。
ここで、それぞれの撮像素子で取得される画像の被写界深度について図3(A)、図3(B)を用いて説明する。図3(A)に示すZn’は対物レンズの後側焦点位置から第1撮像素子までの距離であり、図3(B)に示すZf’は対物レンズの後側焦点位置から第2撮像素子までの距離である。本実施の形態においては、例えばZn’>Zf’となるようにそれぞれの撮像素子がハーフミラーを介して配置されている。この結果、第1撮像素子で取得される画像(近点画像)の被写界深度範囲は、第2撮像素子で取得される画像(遠点画像)被写界深度範囲に比較して対物レンズに近い範囲となる。Zn’及びZf’の値を調整することで、それぞれの画像の被写界深度の範囲を調整することができる。
処理部300はA/D変換部310及び320と、近点画像記憶部330と、遠点画像記憶部340と、画像処理部350と制御部360を備えている。A/D変換部310及び320は、第1撮像素子250及び第2撮像素子260から出力されるアナログ信号を、デジタル信号に変換して出力する。近点画像記憶部330は、A/D変換部310から出力されたデジタル信号を近点画像として記憶する。遠点画像記憶部340は、A/D変換部320から出力されたデジタル信号を遠点画像として記憶する。画像処理部350は、記憶された近点画像と遠点画像から表示用の画像を生成し、表示部400に表示する。画像処理部350の詳細については後述する。表示部400は例えば液晶モニタであり、画像処理部350から出力される画像を表示する。制御部360は、近点画像記憶部330、遠点画像記憶部340、画像処理部350と双方向に接続されており、これらを制御するようになっている。
外部I/F部500は、この撮像装置に対するユーザーからの入力等を行うためのインターフェースであり、電源のオン/オフを行うための電源スイッチ、撮影操作を開始するためのシャッタボタン、撮影モードやその他各種のモードを切り換えるためのモード切換ボタンなどを含んで構成されている。外部I/F部500は、ユーザーから入力された情報を制御部360に出力する。
次に画像処理部350の詳細について図4を用いて説明する。画像処理部350は基準点設定部351と、距離推定部352と、前処理部353と、合成画像生成部354と、後処理部355と、付加情報生成部356と、加工部357を備えている。基準点設定部351は制御部360からの制御信号に従って、画像上で距離推定を行うべき位置の情報を基準点の座標情報として距離推定部352に出力する。基準点設定部351の詳細については後述する。
前処理部353は近点画像記憶部330及び遠点画像記憶部340に記憶された近点画像と遠点画像のそれぞれに対して、例えばOB処理やホワイトバランス処理、デモザイク処理といった前処理を行い、距離推定部352と合成画像生成部354に近点画像と遠点画像の両方を出力する。前処理部353ではさらに、必要に応じて歪曲収差や倍率色収差といった光学収差の補正処理やノイズ低減処理等を行ってもよい。
距離推定部352は、基準点設定部351から出力された基準点の座標情報に基づいて、前処理部353から出力された近点画像と遠点画像を利用して実空間での被写体までの距離推定をおこない、付加情報生成部356に対して距離情報もしくは距離情報と基準点の座標情報を出力する。距離推定部352の詳細については後述する。付加情報生成部356は制御部360からの制御信号に従って、距離推定部352から出力された距離情報もしくは距離情報と基準点の座標情報を用いて付加情報を生成し、加工部357に出力する。付加情報生成部356の詳細については後述する。
合成画像生成部354は、前処理部353から出力された近点画像と遠点画像を合成し、被写界深度が拡大された1枚の合成画像を生成し、後処理部355に合成画像を出力する。合成画像生成部354の詳細については後述する。後処理部355は合成画像生成部354から出力された合成画像に対して、例えば色変換処理や階調変換処理、エッジ強調処理、拡縮処理等の後処理を行い、画像を加工部357に出力する。
加工部357は後処理部355から出力された画像に対して、制御部360からの制御情報に従って、付加情報生成部356から出力された付加情報を用いて画像を加工し、表示部400に画像を出力する。加工部357の詳細については後述する。
ここで、距離推定部352で行う処理の詳細について図5を用いて説明する。距離推定部352は局所領域設定部3521と、コントラスト情報算出部3522と、距離算出部3523を備えている。局所領域設定部3521は、基準点設定部351から出力された基準点の座標に基づいて、距離推定部352に入力される近点画像Inおよび遠点画像Ifに対して局所領域を設定する。ここでは例えば図6に示すように基準点の座標(xd,yd)を中心とした5×5画素の領域をそれぞれの画像の局所領域とする。コントラスト情報算出部3522は、近点画像Inおよび遠点画像Ifに対して設定された局所領域から、それぞれの画像に対してコントラストを算出し、近点画像および遠点画像の局所領域のコントラストCnおよびCfを距離算出部に出力する。
コントラストを算出するには例えば、近点画像Inおよび遠点画像Ifに対して設定した局所領域のすべての画素に対して、Gチャンネルの画素値を用いて上下左右に隣接する4画素との勾配Δu,Δd,Δl,Δrを算出し、局所領域のすべての画素における4方向の勾配の平均値Δave_InおよびΔave_Ifを算出して局所領域のコントラストCnおよびCfとすればよい。また、ここでは例えば局所領域におけるエッジ強度の平均値等を求めてコントラストとしてもよい。
距離算出部3523はCnおよびCfから基準点に対応する被写体までの距離を算出する。図7は対物レンズの後側焦点位置からの距離と、ある空間周波数における対物レンズのコントラストの関係を表すコントラスト曲線の一例である。後側焦点位置から、基準点に対応する被写体の焦点位置までの距離Z’が分かれば、以下の(1)式で前側焦点位置から基準点に対応する被写体までの距離Zを算出することができる。ここでfは対物レンズの焦点距離である。
Z・Z’=−f ・・・・・(1)
対物レンズのコントラスト曲線は、設計データから既知であるため、近点画像および遠点画像の基準点でのコントラストCnおよびCfから、Z’を算出することができる。これは例えば近点画像と遠点画像のコントラストの比Cn/Cfの値と、対応する焦点位置Z’の値の関係をルックアップテーブルとして保持しておいてもよいし、Z’をCn/Cfの関数としてZ’=g(Cn/Cf)と近似できるような関数g(x)を予め設定しておいてもよい。このような処理を行うことで、距離算出部3523はCnおよびCfから基準点に対応する被写体までの距離を算出することができる。さらに、Z’が算出できればZは(1)式から一義的に算出できるため、例えばCn/Cfの値と、対応する被写体までの距離Zの値の関係を直接ルックアップテーブルとして保持しておいてもよいし、ZをCn/Cfの関数としてZ=h(Cn/Cf)と近似できるような関数h(x)を予め設定しておくことも可能である。また、Z’もしくはZを算出するためのパラメータとして近点画像と遠点画像のコントラストの比Cn/Cfの代わりにコントラストの差Cn−Cf等の値を使用してもよい。
さらに、合成画像生成部354で行う処理の詳細について説明する。合成画像生成部354に入力される近点画像をIn、遠点画像をIfとする。また、合成画像生成部354から出力される合成画像をIcとする。合成画像生成部354はまず、入力される近点画像Inと遠点画像Ifの座標(x,y)に位置する注目画素In(x,y)およびIf(x,y)対して、例えば注目画素と任意の周辺画素との勾配や、注目画素のエッジ強度から鮮鋭度を算出する。ここで近点画像Inの画素(x,y)における鮮鋭度をS_In(x,y)、遠点画像Ifの画素(x,y)における鮮鋭度をS_If(x,y)とする。次にS_In(x,y)とS_If(x,y)を比較する。そして、S_In(x,y)≧S_If(x,y)の場合、In(x,y)を合成画像Icの画素(x,y)の値Ic(x,y)とする。また、S_In(x,y)<S_If(x,y)の場合は、If(x,y)をIc(x,y)とする。このような処理を行うことで、近点画像Inと遠点画像Ifからピントが合っている方の画素を抽出し、被写界深度が拡大された1枚の合成画像を生成することができる。
次に、距離推定部352で算出した距離情報を活用し、ドクターに診断上の価値を提供するためのいくつかの手法について説明する。
2.1 病変の大きさを表示
内視鏡診断において、病変部の大きさは治療の方針等を決定するために重要な指標であり、簡易に病変部の大きさを測定したいというニーズがある。ここでは内視鏡診断において、図8(A)に示すような病変部の画像が表示部400に表示された場合に、この病変部の大きさを計測するための1番目の手法について説明する。ここで本処理が実行されるモードを、第1の病変部計測モードと呼ぶ。
第1の病変部計測モードにおいて病変部が発見された場合、ドクターは距離を計測したい位置を画像上で指定する。ここでは図8(B)に示すA’点およびB’点が距離を計測したい位置として指定されたと仮定する。このように画像上で計測したい位置を指定するには、例えば内視鏡システムに付属するキーボードやマウス等を用いて画像上のポインタを動かし決定ボタンを押すことで指定すればよい。また、例えばタッチパネル機能を備えたモニタで表示部400を構成し、指やタッチペンで画像に直接触れることで位置を指定することも可能である。
第1の病変部計測モードにおいて基準点設定部351は、制御部360からのモード情報に従って、指定されたA’点およびB’点の画像上での座標(Xa’,Ya’)および(Xb’,Yb’)を取得し、これらを基準点の座標情報として距離推定部352に出力する。距離推定部352は、前述した手法で、前側焦点位置からA’およびB’に対応する被写体上の位置A点及びB点までの実空間での距離情報ZaおよびZbを算出し、これらの距離情報と基準点の座標情報を付加情報生成部356に出力する。
付加情報生成部356は制御部360からのモード情報に従って、距離推定部352から出力された距離情報と基準点の座標情報から、A点およびB点の三次元座標(Xa,Ya,Za)および(Xb,Yb,Zb)を算出し、これを用いて実空間でのA点とB点の間の距離(病変部の大きさ)を算出する。画像上で基準点の位置を表すx’軸およびy’軸は、図9(A)に示すように画像の中心を原点として画像の水平方向および垂直方向に平行な軸である。また、実空間におけるx軸とy軸は前側焦点位置で互いに直交し、それぞれx’軸とy’軸と同じ方向を向いた軸である。さらに実空間におけるZ軸は図9(B)に示すように前側焦点位置を通りxy平面に直交する直線である。A点およびB点の三次元座標のうちZaおよびZbは、前側焦点位置から被写体までのZ軸方向の距離であるため、距離推定部352から出力される距離情報ZaおよびZbそのものである。
ここでB点の三次元座標(Xb,Yb,Zb)を算出する手法について図9(A)、図9(B)を用いて説明する。付加情報生成部356はまずB’点の画像上の座標(Xb’,Yb’)から、画像中心を基準としたB’点までの距離(像高)Rb’と、B’点と画像中心をとおる直線がx’軸となす角φbを算出する。
次に付加情報生成部356は像高Rb’を用いて、実空間でB点から出射した主光線が入射瞳に入射する入射角θbを算出する。ここで、入射瞳とは、絞りより物体側の光学系で結像された絞りの像のことであり、図10に示したように、入射瞳位置は主光線をそのまま延長し、光軸(ここではZ軸と一致)と交わる位置である。前側焦点位置から入射瞳までの距離Dは光学系の設計から既知の情報である。また、Rb’とθbの関係は対物レンズの性能から既知であるため、θbが求められれば、B点の空間的な位置は図9(B)のように一意に決定する。ここで、θbを算出するには例えばRb’とθbの関係をルックアップテーブルとして保持しておいてもよいし、θbをRb’の関数としてθb=f(Rb’)と近似できるような関数f(x)を予め設定しておくことも可能である。
次に付加情報生成部356は入射角θbの値を用いてB点をxy平面に投影した点Bpjtとxy平面の原点との距離Rbを以下の(2)式で算出する。
Rb=(Zb+D)/tan(π/2-θb) ・・・・・(2)
実空間でBpjtと前側焦点位置を通る直線がx軸となす角は、前述のφbと等しいため、Xb及びYbは以下の(3)、(4)式で算出できる。
Xb=Rb・cosφb ・・・・・(3)
Yb=Rb・sinφb ・・・・・(4)
このような計算によりB点に対応する被写体の実空間での三次元座標(Xb,Yb,Zb)を算出できる。A点の三次元座標(Xa,Ya,Za)についても同様に算出できる。
付加情報生成部356はさらに、算出した2点の三次元座標(Xa,Ya,Za)と(Xb,Yb,Zb)から、以下の(5)式で2点間の距離Dsizeを算出し、これを病変部サイズ情報として加工部357に出力する。
Figure 0005576739
加工部357は制御部360からのモード情報に従って、付加情報生成部356から出力された病変サイズ情報を後処理部355から出力される画像に付加する。具体的には、例えば図8(C)に示すように病変のサイズを画像上に数値として表示する。このような処理を行うことで、ドクターは簡易に病変部の大きさを計測することができる。
2.2 スケールを表示
次に、内視鏡診断において、図8(A)に示すような病変部の画像が表示部400に表示された場合に、この病変部の大きさを計測するための2番目の手法について説明する。ここで本処理が実行されるモードを、第2の病変部計測モードと呼ぶ。
第2の病変部計測モードにおいて病変部が発見された場合、ドクターは病変部の代表的な位置を画像上で指定する。ここでは図8(D)に示すR’点が病変部の代表的な位置として指定されたと仮定する。このように画像上で計測したい位置を指定するには、例えば内視鏡システムに付属するキーボードやマウス等を用いて画像上のポインタを動かし決定ボタンを押すことで指定すればよい。また、例えばタッチパネル機能を備えたモニタで表示部400を構成し、指やタッチペンで画像に直接触れることで位置を指定することも可能である。
第2の病変部計測モードにおいて基準点設定部351は、制御部360からのモード情報に従って、指定されたR’点の画像上での座標(Xr’,Yr’)を取得し、これを基準点の座標情報として距離推定部352に出力する。距離推定部352は前述した手法で、前側焦点位置からR’点に対応する被写体上の位置R点までの実空間での距離情報Zrを算出し、この距離情報と基準点の座標情報を付加情報生成部356に出力する。
付加情報生成部356は制御部360からのモード情報に従って、距離推定部352から出力された距離情報と基準点の座標情報から、画像上のR'点における対物レンズの局所倍率βを算出する。局所倍率βとは、例えば図11に示すβ=α’/αのように、被写体の大きさαと、光学系により結像した像の大きさα’との比で表される。局所倍率βは、例えば距離推定部352から出力された被写体までの距離Zrを用いて、以下の(6)式を用いて算出すればよい。ここでfは対物レンズの焦点距離である。
Figure 0005576739
また、内視鏡では一般的に対物レンズの歪曲収差が大きいため、画像上の位置によって局所倍率βは異なった値となる。画像上の位置と局所倍率βの関係は対物レンズの性能から既知であるため、このような場合は例えば画像上の位置と局所倍率βの関係をルックアップテーブルとして保持しておき、前述の(6)式と組み合わせて局所倍率βを算出すればよい。また、画像上の位置と前側焦点位置から被写体までの距離に対してそれぞれ局所倍率を対応付けるような三次元ルックアップテーブルを保持しておき、これを用いて局所倍率βを算出してもよい。
次に付加情報生成部356は、局所倍率βからスケール情報を生成する。具体的には、実空間で長さLのスケールを画像に表示したい場合、例えば以下の(7)式から画像上でのスケールの長さを算出する。ここでPは本実施形態における撮像素子の画素ピッチ(画素と画素との間の距離、つまり1ピクセルあたりの大きさ)である。また、後処理部で拡縮処理が施される場合は、拡縮処理の倍率をβzoomとすると例えば以下の(8)式から画像上でのスケールの長さを算出する。その後、付加情報生成部356は算出したスケールの長さをスケール情報として加工部357に出力する。
画像上でのスケールの長さ=L・β/P[pixels] ・・・・・(7)
画像上でのスケールの長さ=L・β・βzoom/P[pixels] ・・・・・(8)
加工部357は制御部360からのモード情報に従って、付加情報生成部356から出力されたスケール情報を後処理部355から出力される画像に付加する。具体的には、例えば図8(E)に示すように画像上にスケール画像を表示する。スケール情報は必ずしも長方形である必要はなく、線分や円形その他の任意の形状で表示することが可能なことは言うまでもない。
2.3 ズーム状態で合焦方向を示す表示情報等の提示
また、内視鏡診断においては対物レンズ230をズームレンズで構成し、撮像部200を病変部に近付けることで、病変部を拡大して観察を行う拡大観察という手法が一般的に使われている。一般的に、内視鏡の拡大観察では光学系の被写界深度が非常に狭くなるため、被写体となる病変部にピントを合わせるのが非常に難しい。このため、できるだけ容易に病変部にピントを合わせたいというニーズがある。また、撮像部200が病変部に近づきすぎて接触してしまうと病変部からの出血が起こる可能性があるため、病変部への接触を防止したいとのニーズがある。ここでは内視鏡診断において、これらのニーズに対応するための手法について説明する。ここで本処理が実行されるモードを拡大観察モードと呼ぶ。
拡大観察モードにおいて基準点設定部351は、制御部360からのモード情報に従って、例えば図12(A)に示すように画像の中心に位置する画素C’点の座標(Xc’,Yc’)を取得し、これを基準点の座標情報として距離推定部352に出力する。距離推定部352は前述した手法で、前側焦点位置からC’点に対応する被写体上の位置C点までの実空間での距離情報Zcを算出し、この距離情報を付加情報生成部356に出力する。ここで基準点は必ずしも画像の中心の画素である必要はなく、任意の画素を基準点として設定しておいてもよいし、ドクターが基準点を設定できるようにしてもよい。
付加情報生成部356は制御部360からのモード情報に従って、距離推定部352から出力された距離情報Zcからピント情報を生成する。ピント情報の生成方法について以下に説明する。近点画像および遠点画像の被写界深度範囲は対物レンズの性能から既知である。ここで図13(A)に示すように、光学系の前側焦点位置から、近点画像の被写界深度範囲のうち最も対物レンズに近い位置をZnとする。また、図13(B)に示すように、光学系の前側焦点位置から、遠点画像の被写界深度範囲のうち最も対物レンズから遠い位置をZfとする。
近点画像と遠点画像を合成した合成画像の被写界深度範囲は、近点画像の被写界深度範囲と遠点画像の被写界深度範囲のうちどちらか一方に含まれる範囲と考えられるため、合成画像の被写界深度範囲は前述のZnからZfまでの範囲となる。付加情報生成部356は、距離推定部352から出力された距離情報ZcとZnおよびZfをそれぞれ比較し、例えば以下のようなピント情報を生成する。その後、付加情報生成部356は生成したピント情報を加工部357に出力する。
生成されるピント情報の一例(図14(A)〜図14(C))
Zf>Zn>Zc の場合 ピント位置は後(撮像部を後に動かすとピントが合う)
Zf>Zc>Zn の場合 ピント位置内
Zc>Zf>Zn の場合 ピント位置は前(撮像部を前に動かすとピントが合う)
なお、これらのピント情報は必ずしも距離情報Zcから求める必要があるわけではなく、例えば距離推定部352がコントラスト情報算出部3522で算出したコントラストを直接、付加情報生成部356に出力し、付加情報生成部356はこれらのコントラスト情報からピント情報を生成してもよい。
加工部357は制御部360からのモード情報に従って、付加情報生成部356から出力されたピント情報を後処理部355から出力される画像に付加する。具体的には、例えばピント情報が「ピント位置は後」という情報であった場合は、図12(C)に示すように下向きの矢印をピント情報として画像に付加する。また、例えばピント情報が「ピント位置内」という情報であった場合は、図12(D)に示すように丸印をピント情報として画像に付加する。また、例えばピント情報が「ピント位置は前」という情報であった場合は、図12(E)に示すように上向きの矢印をピント情報として画像に付加する。このように画像にピント情報を付加することで、ドクターは撮像部200をどちらの方向に動かせば病変部にピントを合わせることができるのかを把握することが可能になり、容易に病変部にピントを合わせることができる。
さらに付加情報生成部356は、距離推定部352から出力された距離情報Zcと任意の閾値Ztを比較し、Zt>Zcの場合は「接触注意」というピント情報を生成してもよい。この場合、加工部357は図12(B)に示すようにバツ印をピント情報として画像に付加する。このような処理を行うことで、ドクターは撮像部200が病変部に近づきすぎていることを把握でき、撮像部200が病変部に接触することを防ぐことができる。
ここでは画像に付加するピント情報として矢印や丸印、バツ印を用いたが、これらの代わりに任意の記号や文字を使用することが可能であることは言うまでもない。また、ピント情報を画像に付加する代わりに任意の光や音などの情報を使用することも可能である。
以上の本実施形態では、画像処理装置は、図1及び図4に示したように、合焦状態の異なる複数の画像を取得する画像取得部(図1における近点画像記憶部330及び遠点画像記憶部340に相当)と、注目領域に対して設定される基準点の設定処理を行う基準点設定部351と、基準点に対応する実空間上の点である対応点までの距離情報を推定する距離推定部352と、推定された距離情報に基づいて、基準点が設定された注目領域に対して付加される情報である付加情報を生成する付加情報生成部356と、を含む。
ここで、合焦状態が異なるとは、図3(A)、図3(B)のようにピント位置(フォーカス位置)が異なる光学系の状態を指すものである。本実施形態においては、図3(A)、図3(B)に示したように、対物レンズからの距離が異なる2つの撮像素子を用いることにより実現されるが、これに限定されるものではない。第2の実施形態において後述するように、軸上色収差を大きくして、チャンネルごと(例えばR,G,B)にピント位置を異ならせる手法を用いてもよい。また、第3の実施形態において後述するように、1つの撮像素子を駆動させることにより実現することもできる。
また、注目領域とは、付加情報を付加したい対象となる領域のことである。例えば、ユーザーにとって観察の優先順位が他の領域よりも相対的に高い領域であり、具体的には、ユーザーが医者であり治療を希望した場合、粘膜部や病変部を写した領域を指す。ただし、注目領域とは、観察に際し、ユーザーにとって観察の優先順位が他の領域よりも相対的に高い領域であれば足り、病変部に限定されるものではない。
また、複数の画像とは、基本的には同一の被写体を撮像した画像である。そのため、複数の画像において、注目領域の画像上位置は対応関係があり、よって、設定した基準点の画像上位置にも対応関係がある。対応関係とは、具体的には例えば、画像上において同一座標となる位置等が考えられる。
また、対応点までの距離の起点は計算上前側焦点位置になる。しかし、前側焦点位置からレンズまでの距離は設計により既知であるため、対応点までの距離情報とは、レンズから対応点までの距離情報であってもよい。
また、基準点の設定処理とは、ユーザー(ドクター)により基準点の位置を指定する入力が行われた場合に、その入力情報に基づいて、画像上における基準点の位置を表す座標(xd,yd)を設定する処理のことである。具体的には例えば、ユーザーの操作するマウス等により、画面左上から数えて横にxピクセル、縦にyピクセルの点が指定された場合に、基準点の座標を(x,y)に設定する処理等となる。
これにより、合焦状態の異なる複数の画像から被写体(具体的には被写体上の対応点)までの距離情報を推定し、推定した距離情報に基づいて、付加情報を生成することが可能になる。付加情報とは例えば、図8(C)に示したような、病変サイズ情報等であり、ユーザー(ドクター)の診断や治療をスムーズにすることができる。
また、画像処理装置は、図5に示すように、コントラスト情報算出部3522を含み、距離推定部352は、算出されたコントラスト情報に基づいて、対応点までの距離情報を推定してもよい。具体的には、基準点が合焦状態になるときの、後側焦点位置から焦点位置までの距離情報を算出することで、被写体までの距離情報を推定してもよい。さらに具体的には例えば、2つの画像から算出された2つのコントラスト情報の比や差を用いてもよい。
これにより、複数の画像から求められた複数のコントラスト情報を用いることで、被写体までの距離情報を推定することが可能になる。具体的には図3に示すように、第1撮像素子による画像(広義には第1の合焦状態の画像)でのコントラスト情報と、第2撮像素子による画像(広義には第2の合焦状態の画像)でのコントラスト情報とから、焦点位置を求める。さらに具体的には上述したように、2つのコントラスト情報の比や差から、ルックアップテーブル等によりZ’を求めることになる。そして上述した(1)式から、求めるべき被写体までの距離情報Zを算出する。なお、コントラスト情報の比や差から、関数等を用いて直接Zを求めてもよいことは、上述したとおりだが、この場合も本質的にはZ’を求めていることに代わりはなく、この手法も本実施形態の手法に含まれることは言うまでもない。また、コントラスト情報とは、上述の手法や他の手法によって求められるコントラストそのものには限定されず、コントラストと同等の他の情報であってもよい。
また、画像処理装置は、注目領域を検出する注目領域検出部を含んでもよい。そして、基準点設定部351は、検出された注目領域に対して基準点の設定処理を行う。
これにより、注目領域の検出処理が可能になる。本実施形態においては、図8(A)〜図8(E)に示したように、ドクターが観察により発見した病変部等を注目領域として検出する。つまり、基本的には、ドクターの手動により注目領域は検出されるものとするが、これに限定されるものではない。例えば、NBI(Narrow Band Imaging)に代表されるような特殊光観察を行い、特定の血管構造や、扁平上皮癌等の病変を自動的に検出し、注目領域としてもよい。
また、基準点設定部351は、1つの注目領域に対して、第1〜第Nの基準点を設定し、コントラスト情報算出部3522は、第1〜第Nの基準点のそれぞれについて、第1〜第Nのコントラスト情報を算出し、距離推定部352は、第1〜第Nのコントラスト情報に基づいて、第1〜第Nの距離情報を推定してもよい。
これにより、図8(B)、図8(C)に示したように、1つの注目領域に対して複数の基準点を設定することが可能になる。よって、複数の基準点間(つまり対応する複数の対応点間)の関係を求めることができる。
また、付加情報生成部356は、第1〜第Nの距離情報のうち、第iの距離情報と、第jの距離情報とに基づいて、実空間内の第iの対応点と第jの対応点との間の距離情報を、付加情報として求めてもよい。
これにより、画像上の2点間が実空間上でどれだけの距離であるかを求めることが可能になる。よって、図8(A)のように病変部が検出された場合に、図8(B)のように、病変上の2点を指定することで、簡単に病変部のサイズを知ることができる。
また、距離推定部352は、基準点の実空間上の対応点までの距離情報により表される距離Zを推定する。そして、付加情報生成部356は、基準点の画像上の座標(X’,Y’)と推定したZから、対応点の3次元座標(X,Y,Z)を算出する。ただし、対応点のZ座標は推定した距離情報に他ならない。具体的には、上述した(2)式〜(4)式を用いて、X及びYを算出することになる。
これにより、基準点の画像上の座標から、基準点に対応する実空間上の対応点の3次元座標を求めることが可能になる。具体的には図9(A)、図9(B)に示す位置関係に基づいて3次元座標を求める。前側焦点位置(原点)から入射瞳までの距離Dは光学系の設計から既知であり、角度θbも像高Rb’から求められる。さらにZ座標の値Zbは推定した距離情報により表される距離であるから、B点の位置は図9(B)のように定まり、Rbを求めることができる((2)式)。X軸からのB点までの角度は、X’軸からB’点までの角度φbに等しいから、(3)、(4)式からX,Yを求めればよい。
また、基準点設定部351は、1つの注目領域に対して、1つの基準点を設定してもよい。コントラスト情報算出部3522は基準点のコントラスト情報を算出し、距離推定部352はコントラスト情報に基づいて、基準点に対応する対応点までの距離情報を推定する。
これにより、1つの注目領域に対して1つの基準点を設定することが可能となる。具体的には図8(D)に示すように、1点を基準点として指定するだけで、スケール情報等を付加情報として表示することが可能となり、ユーザーの入力を簡単化できる。
また、付加情報生成部356は、距離情報に基づいて、レンズの局所倍率を求め、局所倍率に基づいてスケール情報を生成してもよい。具体的には例えば、局所倍率βを、距離情報により表される距離Zとレンズの焦点位置fとからβ=√(f/Z)として求めてもよい。さらに、スケール情報は、スケールの実空間における長さをL、画像処理により拡宿の倍率をβzoom、画素ピッチをPとしたときに、画像上のスケールの長さをL・β・βzoom/P(pixel)としてもよい。
これにより、レンズの局所倍率から、スケール情報を生成することが可能になる。局所倍率βは、図11に示したように、被写体の大きさと、結像した像の大きさの比で表される。βの算出は、上述したfとZから行われる。また、画像上のスケールの長さは、実空間におけるスケールの長さLに、局所倍率β及び拡縮率βzoomを乗じた上で、画素ピッチPで割り、長さあたりのピクセル数を求めることで算出される。
また、画像処理装置は、コントラスト情報に基づいて合焦方向を推定する合焦方向推定部を含んでもよい。そして、付加情報生成部356は、付加情報として、推定した合焦方向を示す表示情報を生成する。
ここで、合焦方向とはどちらに撮像部を動かせばピントが合うのかを示す方向である。前に押し出すことでピントが合うのであれば、合焦方向は前であるし、後ろにひくことでピントが合うのであれば、合焦方向は後ろである。
これにより、図12(C)、図12(E)に示したように、ピントが合っていない状態(具体的には上述した図14(A)のZf>Zn>Zcもしくは、図14(C)のZc>Zf>Znの状態)で、現在位置から前後どちらの方向に動かせばピントが合うのかを、ユーザーに付加情報として提示することが可能になる。これにより、ピントが合う方向(合焦方向)が明確にわかるため、ユーザーの操作をスムーズにすることができる。
また、被写体までの距離が、所与の範囲内(具体的には上述したZf>Zc>Znの状態)にある場合には、付加情報として、合焦状態であることを示す表示情報を生成してもよい。
これにより、ピントが合っている状態では、ピントが合っていることを表示することができるため(例えば図12(D)の丸印等)、ユーザーが無用なピント調整等を行う必要がなくなり、操作性を向上させることが可能になる。
また、被写体までの距離が、所与の閾値以下になった場合には、付加情報としてアラート情報を生成してもよい。
これにより、距離が閾値以下の場合、つまり、撮像部(本実施形態にかかる画像処理装置を含む撮像装置や内視鏡システムを考えた場合に含まれる)が被写体に接触するおそれ場ある場合に、接触を警告するアラートを表示すること等が可能になる。特に内視鏡システムの場合、病変部との接触は出血等のリスクを伴うため有用である。具体的には例えば、図12(B)に示したようなバツ印等が表示される。
また、画像取得部は、光学系に対する撮像素子の位置を異ならせて複数枚の撮像を行うことで、合焦状態が異なる前記複数の画像を取得してもよい。
これにより、撮像素子の位置を異ならせることで、合焦状態が異なる複数枚の画像を取得することが可能になる。具体的には、本実施形態では、レンズからの距離が異なる複数の撮像素子を用いるし、後述する第3の実施形態では、撮像素子駆動部280により、1つの撮像素子を駆動させ時分割的に位置を異ならせることになる。
また、本実施形態は、合焦状態が異なる複数の画像を取得する画像取得部と、複数の画像について注目領域に対して基準点の設定処理を行う基準点設定部351と、基準点の画素の画素値に基づいて基準点のコントラスト情報を算出するコントラスト情報算出部3522基準点に対応する実空間上の対応点までの距離情報を推定する距離推定部352と、を含む画像処理装置であってもよい。
これにより、合焦状態が異なる複数の画像を取得し、各画像について注目領域に対して基準点を設定し、基準点のコントラスト情報を求めることで、基準点に対応する実空間上の対応点までの距離情報を推定することが可能になる。具体的には上述したように、複数のコントラスト情報の比や差から、距離情報を推定すること等が考えられる。
また、本実施形態は、合焦状態が異なる複数の画像を取得し、複数の画像について、注目領域に対して基準点の設定処理を行い、基準点に対応する画素値に基づいて、基準点に対応する実空間上の対応点までの距離情報を推定し、推定された距離情報に基づいて、付加情報を生成する画像処理方法であってもよい。
これにより、内視鏡システムにとどまらず、画像処理方法にも本実施形態の手法を適用し、上述の効果を得ることが可能になる。
また、本実施形態は、図1及び図4に示したように、合焦状態の異なる複数の画像を取得する画像取得部(図1における近点画像記憶部330及び遠点画像記憶部340に相当)と、注目領域に対して基準点を設定する基準点設定部351と、基準点に対応する実空間上の点である対応点までの距離情報を推定する距離推定部352と、推定された距離情報に基づいて、基準点が設定された注目領域に対して付加される情報である付加情報を生成する付加情報生成部356と、を含む撮像装置であってもよい。
これにより、画像処理装置にとどまらず、例えば本実施形態にかかる画像処理装置を含むような撮像装置にも本実施形態の手法を適用し、上述の効果を得ることが可能になる。
また、本実施形態は、画像取得部と、基準点設定部351と、距離推定部352と、付加情報生成部356として、コンピュータを機能させるプログラムであってもよい。画像取得部は合焦状態が異なる複数の画像を取得し、基準点設定部351は、注目領域に対して基準点の設定処理を行う。距離推定部352は、基準点に対応する実空間上の対応点までの距離情報を推定し、付加情報生成部356は、距離情報に基づいて付加情報を生成する。
これにより、本実施形態は、撮像装置や内視鏡システムのように、画像を取得し、システム内で画像処理を行うものに限定されず、例えば、まず画像データを蓄積し、その後、蓄積された画像データに対してPC等のコンピューターシステムでソフトウェア的に処理を行うものにも適用することが可能になる。
3.第2の実施形態
本発明の第2の実施形態に係る画像処理装置を含む内視鏡システムについて、図15を参照して説明する。本実施形態に係る内視鏡システムは、光源部100と、撮像部200と、処理部300と、表示部400と、外部I/F部500を備えている。
光源部100は、白色光を発生する白色光源110と白色光をライトガイドファイバ210に集光するための集光レンズ120を備えている。
撮像部200は、例えば体腔への挿入を可能にするため細長くかつ湾曲可能に形成されている。撮像部200には、光源部で集光された光を導くためのライトガイドファイバ210と、該ライトガイドファイバにより先端まで導かれてきた光を拡散させて観察対象に照射する照明レンズ220と、観察対象から戻る反射光を集光する対物レンズ230と、撮像素子270を備えている。撮像素子270は、図2に示すようなベイヤ配列の色フィルタを持つ撮像素子であり、ここでGrとGbは同じ分光特性である。
ここで、撮像素子の各チャンネルで取得される画像の被写界深度について図16(A)〜図16(C)および図17を用いて説明する。図16(A)〜図16(C)はRGBの各チャンネルに対して後側焦点位置からの距離と、ある空間周波数における対物レンズのコントラストの関係を示すコントラスト曲線の一例である。本実施の形態における対物レンズは、大きな軸上色収差が発生するように設計されているため、RGBの各チャンネルで最も高いコントラストが得られる位置が異なっている。この結果、図16(A)〜図16(C)に示すようにRGBの各チャンネルで取得される画像の被写界深度範囲はチャンネルによって異なり、ここではRチャンネル、Gチャンネル、Bチャンネルの順に被写界深度範囲が対物レンズに近くなる。対物レンズの軸上色収差の発生量と、対物レンズの後側焦点位置から撮像素子270までの距離Zd’を調整することで、それぞれのチャンネルで取得される画像の被写界深度を調整することができる。
処理部300はA/D変換部310と、画像記憶部370と、画像処理部350と、制御部360を備えている。A/D変換部310は、撮像素子270から出力されるアナログ信号を、デジタル信号に変換して出力する。画像記憶部370は、A/D変換部310から出力されたデジタル信号を画像として記憶する。画像処理部350は、画像記憶部370に記憶された画像から表示用の画像を生成し、表示部400に表示する。画像処理部350の詳細については後述する。表示部400は例えば液晶モニタであり、画像処理部350から出力される画像を表示する。制御部360は、画像記憶部370、画像処理部350と双方向に接続されており、これらを制御するようになっている。
外部I/F部500は、この撮像装置に対するユーザーからの入力等を行うためのインターフェースであり、電源のオン/オフを行うための電源スイッチ、撮影操作を開始するためのシャッタボタン、撮影モードやその他各種のモードを切り換えるためのモード切換ボタンなどを含んで構成されている。外部I/F部500は、ユーザーから入力された情報を制御部360に出力する。
次に画像処理部350の詳細について図18を用いて説明する。画像処理部350は基準点設定部351と、距離推定部352と、前処理部353と、合成画像生成部354と、後処理部355と、付加情報生成部356と、加工部357を備えている。基準点設定部351は制御部360からの制御信号に従って、画像上で距離推定を行うべき位置の情報を基準点の座標情報として距離推定部352に出力する。
前処理部353は画像記憶部370に記憶された画像に対して、例えばOB処理やホワイトバランス処理、デモザイク処理といった前処理を行い、距離推定部352と合成画像生成部354に画像を出力する。前処理部353ではさらに、必要に応じて歪曲収差や倍率色収差といった光学収差の補正処理やノイズ低減処理等を行ってもよい。
距離推定部352は、基準点設定部351から出力された基準点の座標情報に基づいて、前処理部353から出力された画像を利用して実空間での被写体までの距離推定をおこない、付加情報生成部356に対して距離情報もしくは距離情報と基準点の座標情報を出力する。距離推定部352の詳細については後述する。付加情報生成部356は制御部360からの制御信号に従って、距離推定部352から出力された距離情報もしくは距離情報と基準点の座標情報を用いて付加情報を生成し、加工部357に出力する。付加情報生成部356の詳細については後述する。
合成画像生成部354は、前処理部353から出力された画像から、被写界深度が拡大された合成画像を生成し、後処理部355に合成画像を出力する。合成画像生成部354は、例えば前述の参考文献2として示した資料に記載されているような手法を用いて、被写界深度が拡大された合成画像を生成する。後処理部355は合成画像生成部354から出力された合成画像に対して、例えば色変換処理や階調変換処理、エッジ強調処理、拡縮処理等の後処理を行い、画像を加工部357に出力する。
加工部357は後処理部355から出力された画像に対して、制御部360からの制御情報に従って、付加情報生成部356から出力された付加情報を用いて画像を加工し、表示部400に画像を出力する。
ここで、距離推定部352で行う処理の詳細について図5を用いて説明する。距離推定部352は局所領域設定部3521と、コントラスト情報算出部3522と、距離算出部3523を備えている。局所領域設定部3521は、基準点設定部351から出力された基準点の座標に基づいて、前処理部353から入力される画像に対して局所領域を設定する。ここでは例えば基準点の座標(xd,yd)を中心とした3×3画素の領域をそれぞれの画像の局所領域とする。コントラスト情報算出部3522は、画像に対して設定された局所領域から各チャンネルのコントラストCr、Cg、Cbを算出し、距離算出部に出力する。コントラストを算出するには例えば、設定した局所領域のすべての画素に対して、各チャンネルで上下左右に隣接する4画素との勾配Δu,Δd,Δl,Δrを算出し、局所領域のすべての画素における4方向の勾配の平均値Δave_R,Δave_G,Δave_Bを算出して各チャンネルの局所領域のコントラストCr,Cg,Cbとすればよい。また、ここでは例えば各チャンネルで局所領域におけるエッジ強度の平均値等を求めてコントラストとしてもよい。
距離算出部3523は基準点に対応する被写体までの距離を算出する。図17を用いて距離を算出する手法について説明する。後側焦点位置から、基準点に対応する被写体の焦点位置までの距離Z’が分かれば、上述した(以下に再掲)の(1)式で前側焦点位置から基準点に対応する被写体までの距離Zを算出することができる。
Z・Z’=−f ・・・・・(1)
対物レンズのコントラスト曲線は、設計データから既知であるため、各チャンネルのコントラストCr,Cg,Cbのうち少なくとも2つを用いて、Z’を算出することができる。これは例えばGチャンネルとBチャンネルのコントラストの比Cg/Cbの値と、対応する焦点位置Z’の値の関係をルックアップテーブルとして保持しておいてもよいし、Z’をCg/Cbの関数としてZ’=G(Cg/Cb)と近似できるような関数G(x)を予め設定しておいてもよい。ここでCg/Cbの値の代わりに例えばGチャンネルとRチャンネルのコントラストの比Cg/Crや、BチャンネルとRチャンネルのコントラストの比Cb/Crを用いることが可能であることは言うまでもない。さらに、例えばCg/CbとCG/Crの両方を用いて、Z’=h(Cg/Cb,Cg/Cr)と近似できるような関数h(x,y)を予め設定しておいてもよい。
このような処理を行うことで、距離算出部3523はCnおよびCfから基準点に対応する被写体までの距離を算出することができる。さらに、Z’が算出できればZは(1)式から一義的に算出できるため、例えばCg/Cbの値と、対応する被写体までの距離Zの値の関係を直接ルックアップテーブルとして保持しておいてもよいし、ZをCG/Cbの関数としてZ=i(Cg/Cb)と近似できるような関数i(x)を予め設定しておくことも可能である。また、Z’もしくはZを算出するためのパラメータとしてGチャンネルとBチャンネルのコントラストの比Cg/Cbの代わりにコントラストの差Cg−Cb等の値を使用してもよい。
距離推定部352で算出した距離情報を活用し、ドクターに診断上の価値を提供する手法については、前述の第1の実施形態と同様の動作を行えばよい。
4.第3の実施形態
本発明の第3の実施形態に係る画像処理装置を含む内視鏡システムについて、図19を参照して説明する。本実施形態に係る内視鏡システムは、光源部100と、撮像部200と、処理部300と、表示部400と、外部I/F部500を備えている。
光源部100は、白色光を発生する白色光源110と白色光をライトガイドファイバ210に集光するための集光レンズ120を備えている。
撮像部200は、例えば体腔への挿入を可能にするため細長くかつ湾曲可能に形成されている。撮像部200には、光源部で集光された光を導くためのライトガイドファイバ210と、該ライトガイドファイバにより先端まで導かれてきた光を拡散させて観察対象に照射する照明レンズ220と、観察対象から戻る反射光を集光する対物レンズ230と、撮像素子270と、撮像素子270を駆動させる撮像素子駆動部280とを含む。撮像素子270は、図2に示すようなベイヤ配列の色フィルタを持つ撮像素子であり、ここでGrとGbは同じ分光特性である。
ここで、撮像素子駆動部280は、制御部360の制御に基づいて、撮像素子270の位置を移動させ、第1の撮像状態と第2の撮像状態とをとるように駆動させる。第1の撮像状態とは、対物レンズからの距離(もしくは後側焦点位置からの距離)が第2の撮像状態に比べて大きい状態のことである。つまり、第1の実施形態においては、第1撮像素子250及び第2撮像素子260の2つの撮像素子により、合焦状態の異なる(ピントの異なる)2種類の画像を取得していたのに対して、本実施形態では、1つの撮像素子を駆動させることで、合焦状態の異なる2種類の画像を取得する。
処理部300はA/D変換部310と、近点画像記憶部330と、遠点画像記憶部340と、画像処理部350と制御部360を備えている。A/D変換部310は、撮像素子270から出力されるアナログ信号を、デジタル信号に変換して出力する。この際、制御部360からの制御信号に基づいて、撮像素子270が第1の撮像状態にあるときは、近点画像記憶部330に対してデジタル信号を出力し、第2の撮像状態にあるときは、遠点画像記憶部340に対してデジタル信号を出力する。近点画像記憶部330は、A/D変換部310から出力されたデジタル信号を近点画像として記憶する。遠点画像記憶部340は、A/D変換部310から出力されたデジタル信号を遠点画像として記憶する。画像処理部350は、記憶された近点画像と遠点画像から表示用の画像を生成し、表示部400に表示する。画像処理部350の詳細については後述する。制御部360は、近点画像記憶部330、遠点画像記憶部340、画像処理部350と双方向に接続されており、これらを制御するようになっている。
近点画像及び遠点画像が取得された後の処理は、第1の実施形態と同様であるため、詳細な説明は省略する。
このようにすることで、撮像素子が1つであっても、合焦状態の異なる複数の画像を取得できるため、距離推定及び付加情報の生成が可能になる。
以上、本発明を適用した3つの実施の形態1〜3およびその変形例について説明したが、本発明は、各実施の形態1〜3やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施の形態1〜3や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施の形態1〜3や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。
100 光源部、110 白色光源、120 集光レンズ、200 撮像部、
210 ライトガイドファイバ、220 照明レンズ、230 対物レンズ、
240 ハーフミラー、250 第1撮像素子、260 第2撮像素子、
270 撮像素子、280 撮像素子駆動部、300 処理部、310 A/D変換部、
320 A/D変換部、330 近点画像記憶部、340 遠点画像記憶部、
350 画像処理部、351 基準点設定部、352 距離推定部、353 前処理部、
354 合成画像生成部、355 後処理部、356 付加情報生成部、
357 加工部、360 制御部、370 画像記憶部、400 表示部、
500 外部I/F部、3521 局所領域設定部、
3522 コントラスト情報算出部、3523 距離算出部

Claims (19)

  1. 合焦状態が異なる複数の画像を取得する画像取得部と、
    取得された前記複数の画像について、注目領域に対して設定される基準点の設定処理を行う基準点設定部と、
    前記複数の画像について、前記基準点に対応する画素値に基づいて、前記基準点に対応する実空間上の対応点までの距離情報を推定する距離推定部と、
    推定された前記距離情報に基づいて、前記基準点が設定された前記注目領域に対して付加される情報である付加情報を生成する付加情報生成部と、
    を含み、
    前記基準点設定部は、
    1つの前記注目領域において、第1〜第N(Nは2以上の整数)の基準点を設定し、
    前記距離推定部は、
    前記第1〜第Nの基準点に対応する実空間内の第1〜第Nの対応点までの第1〜第Nの前記距離情報を推定し、
    前記付加情報生成部は、
    推定された前記第1〜第Nの距離情報のうち、第i(1≦i≦N)の基準点から求められた第iの距離情報と、第j(1≦j≦N、i≠j)の基準点から求められた第jの距離情報に基づいて、前記付加情報として、実空間内の第iの対応点と第jの対応点との間の距離情報を求めることを特徴とする画像処理装置。
  2. 請求項1において、
    画像内の前記基準点に対応する画素の画素値に基づいて、前記基準点に対応するコントラスト情報を算出するコントラスト情報算出部を含み、
    前記距離推定部は、
    算出された前記コントラスト情報に基づいて、前記基準点に対応する実空間上の前記対応点までの距離情報を推定することを特徴とする画像処理装置。
  3. 請求項2において、
    前記距離推定部は、
    算出された前記コントラスト情報に基づいて、前記基準点が合焦状態になる場合の、後側焦点位置から焦点位置までの距離情報を算出することで、前記基準点に対応する実空間上の前記対応点までの距離情報を推定することを特徴とする画像処理装置。
  4. 請求項3において、
    前記距離推定部は、
    前記複数の画像のうち、第1の画像について算出された第1のコントラスト情報と、第2の画像について算出された第2のコントラスト情報との比または差に基づいて、前記基準点に対応する実空間上の前記対応点までの距離情報を推定することを特徴とする画像処理装置。
  5. 請求項2において、
    記コントラスト情報算出部は、
    設定された前記第1〜第Nの基準点のそれぞれについて、第1〜第Nのコントラスト情報を算出し、
    前記距離推定部は、
    算出した前記第1〜第Nのコントラスト情報に基づいて、前記第1〜第Nの基準点に対応する実空間内の第1〜第Nの対応点までの第1〜第Nの前記距離情報を推定することを特徴とする画像処理装置。
  6. 請求項1において、
    前記付加情報の付加処理に対応する領域である前記注目領域を検出する注目領域検出部を含み、
    前記基準点設定部は、
    前記注目領域検出部により検出された前記注目領域に対して基準点の設定処理を行うことを特徴とする画像処理装置。
  7. 請求項1において、
    前記距離推定部は、
    前記基準点の実空間上の前記対応点までの距離情報により表される距離であるZを推定し、
    前記付加情報生成部は、
    前記基準点の画像上での座標(X’,Y’)、及び、前記対応点までの距離Zに基づいて、前記基準点に対応する前記対応点の3次元座標(X,Y,Z)のうち、X及びYを算出することを特徴とする画像処理装置。
  8. 請求項において、
    前記付加情報生成部は、
    画像中心から前記基準点までの距離をR’とし、前記基準点と前記画像中心を通る直線が、前記画像の水平方向に平行な軸となす角度をφとし、実空間において前記対応点から出射した光線が入射瞳に入射する角度をθとし、入射瞳から前側焦点位置までの距離をDとした場合に、
    R=(Z+D)/tan(π/2−θ)
    X=R・cosφ
    Y=R・sinφ
    として、前記対応点の3次元座標(X,Y,Z)のうち、X及びYを算出することを特徴とする画像処理装置。
  9. 請求項において、
    前記基準点設定部は、
    1つの前記注目領域において、1つの基準点を設定し、
    前記コントラスト情報算出部は、
    設定された前記基準点の前記コントラスト情報を算出し、
    前記距離推定部は、
    算出した前記コントラスト情報に基づいて、前記基準点に対応する実空間内の対応点までの前記距離情報を推定することを特徴とする画像処理装置。
  10. 請求項において、
    前記付加情報生成部は、
    推定された前記距離情報に基づいて、光学系に含まれるレンズの局所倍率βを求め、前記局所倍率βに基づいてスケール情報を生成することを特徴とする画像処理装置。
  11. 請求項10において、
    前記距離推定部は、
    前記基準点の実空間上の前記対応点までの距離情報により表される距離であるZを推定し、
    前記付加情報生成部は、
    推定された前記距離Zと、対物レンズの焦点距離fとから、前記局所倍率βを、
    β=√(f2/Z2)として求めることを特徴とする画像処理装置。
  12. 請求項11において、
    前記付加情報生成部は、
    実空間において長さがLの前記スケール情報を表示する場合に、画像処理による拡縮の倍率をβzoomとし、撮像素子の画素ピッチをPとしたときに、画像上でのスケールの長さをL・β・βzoom/P(pixel)として求めることを特徴とする画像処理装置。
  13. 請求項1において、
    前記複数の画像に対して算出されたコントラスト情報に基づいて、合焦方向を推定する合焦方向推定部を含み、
    前記付加情報生成部は、
    前記付加情報として、推定した前記合焦方向を示す表示情報を生成することを特徴とする画像処理装置。
  14. 請求項1において、
    前記付加情報生成部は、
    前記基準点に対応する前記対応点までの距離情報により表される距離が、所与の範囲内になった場合には、前記付加情報として、合焦状態であることを示す表示情報を生成することを特徴とする画像処理装置。
  15. 請求項1において、
    前記付加情報生成部は、
    前記基準点に対応する前記対応点までの距離情報により表される距離が、所与の閾値以下になった場合には、前記付加情報として、アラート情報を生成することを特徴とする画像処理装置。
  16. 請求項1において、
    前記画像取得部は、
    光学系に対する撮像素子の位置を異ならせて複数枚の撮像を行うことで、合焦状態が異なる前記複数の画像を取得することを特徴とする画像処理装置。
  17. 合焦状態が異なる複数の画像を取得し、
    取得された前記複数の画像について、注目領域に対して設定される基準点の設定処理を行い、
    前記複数の画像について、前記基準点に対応する画素値に基づいて、前記基準点に対応する実空間上の対応点までの距離情報を推定し、
    推定された前記距離情報に基づいて、前記基準点が設定された前記注目領域に対して付加される情報である付加情報を生成し、
    前記基準点の設定処理において、
    1つの前記注目領域において、第1〜第N(Nは2以上の整数)の基準点を設定し、
    前記距離情報を推定する処理において、
    前記第1〜第Nの基準点に対応する実空間内の第1〜第Nの対応点までの第1〜第Nの前記距離情報を推定し、
    前記付加情報を生成する処理において、
    推定された前記第1〜第Nの距離情報のうち、第i(1≦i≦N)の基準点から求められた第iの距離情報と、第j(1≦j≦N、i≠j)の基準点から求められた第jの距離情報に基づいて、前記付加情報として、実空間内の第iの対応点と第jの対応点との間の距離情報を求めることを特徴とする画像処理方法。
  18. 合焦状態が異なる複数の画像を取得する画像取得部と、
    取得された前記複数の画像について、注目領域に対して設定される基準点の設定処理を行う基準点設定部と、
    前記複数の画像について、前記基準点に対応する画素値に基づいて、前記基準点に対応する実空間上の対応点までの距離情報を推定する距離推定部と、
    推定された前記距離情報に基づいて、前記基準点が設定された前記注目領域に対して付加される情報である付加情報を生成する付加情報生成部と、
    を含み、
    前記基準点設定部は、
    1つの前記注目領域において、第1〜第N(Nは2以上の整数)の基準点を設定し、
    前記距離推定部は、
    前記第1〜第Nの基準点に対応する実空間内の第1〜第Nの対応点までの第1〜第Nの前記距離情報を推定し、
    前記付加情報生成部は、
    推定された前記第1〜第Nの距離情報のうち、第i(1≦i≦N)の基準点から求められた第iの距離情報と、第j(1≦j≦N、i≠j)の基準点から求められた第jの距離情報に基づいて、前記付加情報として、実空間内の第iの対応点と第jの対応点との間の距離情報を求めることを特徴とする撮像装置。
  19. 合焦状態が異なる複数の画像を取得する画像取得部と、
    取得された前記複数の画像について、注目領域に対して設定される基準点の設定処理を行う基準点設定部と、
    前記複数の画像について、前記基準点に対応する画素値に基づいて、前記基準点に対応する実空間上の対応点までの距離情報を推定する距離推定部と、
    推定された前記距離情報に基づいて、前記基準点が設定された前記注目領域に対して付加される情報である付加情報を生成する付加情報生成部として、
    コンピュータを機能させ
    前記基準点設定部は、
    1つの前記注目領域において、第1〜第N(Nは2以上の整数)の基準点を設定し、
    前記距離推定部は、
    前記第1〜第Nの基準点に対応する実空間内の第1〜第Nの対応点までの第1〜第Nの前記距離情報を推定し、
    前記付加情報生成部は、
    推定された前記第1〜第Nの距離情報のうち、第i(1≦i≦N)の基準点から求められた第iの距離情報と、第j(1≦j≦N、i≠j)の基準点から求められた第jの距離情報に基づいて、前記付加情報として、実空間内の第iの対応点と第jの対応点との間の距離情報を求めることを特徴とするプログラム。
JP2010175623A 2010-08-04 2010-08-04 画像処理装置、画像処理方法、撮像装置及びプログラム Active JP5576739B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010175623A JP5576739B2 (ja) 2010-08-04 2010-08-04 画像処理装置、画像処理方法、撮像装置及びプログラム
US13/198,350 US8724015B2 (en) 2010-08-04 2011-08-04 Image processing apparatus, image processing method, imaging apparatus, and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010175623A JP5576739B2 (ja) 2010-08-04 2010-08-04 画像処理装置、画像処理方法、撮像装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2012039255A JP2012039255A (ja) 2012-02-23
JP5576739B2 true JP5576739B2 (ja) 2014-08-20

Family

ID=45555887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010175623A Active JP5576739B2 (ja) 2010-08-04 2010-08-04 画像処理装置、画像処理方法、撮像装置及びプログラム

Country Status (2)

Country Link
US (1) US8724015B2 (ja)
JP (1) JP5576739B2 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012147245A1 (ja) * 2011-04-27 2012-11-01 パナソニック株式会社 撮像装置、撮像装置を備える撮像システム、及び撮像方法
JP5837463B2 (ja) * 2012-07-06 2015-12-24 株式会社東芝 画像処理装置および画像処理システム
JP6150532B2 (ja) * 2013-01-22 2017-06-21 オリンパス株式会社 計測装置およびプログラム
GB201312214D0 (en) * 2013-07-08 2013-08-21 Waterford Inst Technology A Measurement Probe
CN105555180A (zh) * 2013-09-24 2016-05-04 奥林巴斯株式会社 内窥镜装置和内窥镜装置的控制方法
WO2015059346A1 (en) * 2013-10-25 2015-04-30 Nokia Technologies Oy An apparatus and a method for producing a depth-map
CN106461929B (zh) * 2015-02-17 2019-03-05 奥林巴斯株式会社 内窥镜系统
JP6420358B2 (ja) * 2015-06-25 2018-11-07 Hoya株式会社 内視鏡システム及び評価値計算装置
JP6670854B2 (ja) * 2016-01-15 2020-03-25 オリンパス株式会社 フォーカス制御装置、内視鏡装置及びフォーカス制御装置の作動方法
JP6670853B2 (ja) 2016-01-15 2020-03-25 オリンパス株式会社 フォーカス制御装置、内視鏡装置及びフォーカス制御装置の作動方法
WO2018051679A1 (ja) * 2016-09-15 2018-03-22 富士フイルム株式会社 計測支援装置、内視鏡システム、内視鏡システムのプロセッサ、及び計測支援方法
WO2018061430A1 (ja) * 2016-09-30 2018-04-05 シャープ株式会社 計測装置、計測方法、計測プログラム、及び記録媒体
WO2018159292A1 (ja) 2017-03-03 2018-09-07 富士フイルム株式会社 計測支援装置、内視鏡システム、及び内視鏡システムのプロセッサ
EP3603478A4 (en) 2017-03-28 2020-02-05 FUJIFILM Corporation MEASURING ASSISTANCE DEVICE, ENDOSCOPE SYSTEM AND PROCESSOR
WO2018180249A1 (ja) 2017-03-28 2018-10-04 富士フイルム株式会社 計測支援装置、内視鏡システム、及びプロセッサ
EP3625600B1 (en) 2017-09-29 2023-08-23 Leica Biosystems Imaging, Inc. Real-time autofocus scanning
US11132830B2 (en) * 2018-03-29 2021-09-28 Biosense Webster (Israel) Ltd. Static virtual camera positioning
JP7065202B2 (ja) * 2018-11-06 2022-05-11 オリンパス株式会社 撮像装置、内視鏡装置及び撮像装置の作動方法
CN112930676A (zh) * 2018-11-06 2021-06-08 奥林巴斯株式会社 摄像装置、内窥镜装置及摄像装置的工作方法
JPWO2021141048A1 (ja) * 2020-01-07 2021-07-15
CN111314602B (zh) * 2020-02-17 2021-09-17 浙江大华技术股份有限公司 目标对象聚焦方法、装置、存储介质及电子装置
KR102378497B1 (ko) * 2020-05-08 2022-03-30 고려대학교 산학협력단 오브젝트 크기 측정 방법 및 장치
JPWO2022224859A1 (ja) * 2021-04-23 2022-10-27

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0471070A (ja) * 1990-07-11 1992-03-05 Minolta Camera Co Ltd カメラシステム
JP3110095B2 (ja) * 1991-09-20 2000-11-20 富士通株式会社 測距方法及び測距装置
JP3135162B2 (ja) 1992-04-27 2001-02-13 オリンパス光学工業株式会社 距離測定装置
JP3727954B2 (ja) * 1993-11-10 2005-12-21 キヤノン株式会社 撮像装置
JPH09327037A (ja) 1996-06-03 1997-12-16 Canon Inc 輪郭抽出方法及び画像抽出方法及び装置
JP3652014B2 (ja) * 1996-06-26 2005-05-25 オリンパス株式会社 距離計測装置
JP2000276121A (ja) 1999-03-19 2000-10-06 Sony Corp 表示装置
JP2002365713A (ja) * 2001-06-05 2002-12-18 Canon Inc 撮像装置、強制撮影方法、プログラム、及び記憶媒体
JP2005140943A (ja) * 2003-11-06 2005-06-02 Canon Inc フォーカスアシスト装置、ドライブユニット、撮影レンズおよび撮影システム
FR2881011B1 (fr) 2005-01-19 2007-06-29 Dxo Labs Sa Procede de realisation d'un appareil de capture et/ou restitution d'images et appareil obtenu par ce procede
US7920172B2 (en) 2005-03-07 2011-04-05 Dxo Labs Method of controlling an action, such as a sharpness modification, using a colour digital image
US7821570B2 (en) * 2005-11-30 2010-10-26 Eastman Kodak Company Adjusting digital image exposure and tone scale
JP2007329620A (ja) 2006-06-07 2007-12-20 Olympus Corp 撮影装置と映像信号処理プログラム
JP4843544B2 (ja) * 2007-03-29 2011-12-21 日本放送協会 3次元画像補正方法及びその装置
JP2009070344A (ja) * 2007-09-18 2009-04-02 Fujitsu Ten Ltd 画像認識装置、画像認識方法および電子制御装置
JP4483983B2 (ja) * 2008-06-26 2010-06-16 ソニー株式会社 画像圧縮装置及び画像圧縮方法
US8045046B1 (en) * 2010-04-13 2011-10-25 Sony Corporation Four-dimensional polynomial model for depth estimation based on two-picture matching

Also Published As

Publication number Publication date
US20120033105A1 (en) 2012-02-09
US8724015B2 (en) 2014-05-13
JP2012039255A (ja) 2012-02-23

Similar Documents

Publication Publication Date Title
JP5576739B2 (ja) 画像処理装置、画像処理方法、撮像装置及びプログラム
JP6137921B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20180098690A1 (en) Endoscope apparatus and method for operating endoscope apparatus
JP5669529B2 (ja) 撮像装置、プログラム及びフォーカス制御方法
JP5684033B2 (ja) 撮像装置及び内視鏡装置の作動方法
JP5953187B2 (ja) 合焦制御装置、内視鏡システム及び合焦制御方法
JP5816511B2 (ja) 画像処理装置、内視鏡装置及び画像処理装置の作動方法
JP5415973B2 (ja) 撮像装置、内視鏡システム及び撮像装置の作動方法
JP5281972B2 (ja) 撮像装置
JP2011069965A (ja) 撮像装置、画像表示方法、及び画像表示プログラムが記録された記録媒体
US11426052B2 (en) Endoscopic system
US10827906B2 (en) Endoscopic surgery image processing apparatus, image processing method, and program
WO2014132474A1 (ja) 画像処理装置、内視鏡装置、画像処理方法及び画像処理プログラム
JP6150555B2 (ja) 内視鏡装置、内視鏡装置の作動方法及び画像処理プログラム
WO2015107872A1 (en) Image acquisition apparatus and control method thereof
US10429632B2 (en) Microscopy system, microscopy method, and computer-readable recording medium
JP2011206435A (ja) 撮像装置、撮像方法、撮像プログラム、及び内視鏡
JP2014228851A (ja) 内視鏡装置、画像取得方法および画像取得プログラム
JP7179837B2 (ja) 内視鏡装置、内視鏡画像表示方法及び内視鏡装置の作動方法
JP6563517B2 (ja) 顕微鏡観察システム、顕微鏡観察方法、及び顕微鏡観察プログラム
WO2018179610A1 (ja) 制御装置、内視鏡システム、処理方法およびプログラム
WO2013061939A1 (ja) 内視鏡装置及びフォーカス制御方法
JP2019045249A (ja) 計測装置および計測装置の作動方法
WO2018179875A1 (ja) 撮像装置とフォーカス制御方法およびフォーカス判定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140704

R151 Written notification of patent or utility model registration

Ref document number: 5576739

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250