JPWO2018105411A1 - 画像処理装置および方法、並びに手術顕微鏡システム - Google Patents

画像処理装置および方法、並びに手術顕微鏡システム Download PDF

Info

Publication number
JPWO2018105411A1
JPWO2018105411A1 JP2018554921A JP2018554921A JPWO2018105411A1 JP WO2018105411 A1 JPWO2018105411 A1 JP WO2018105411A1 JP 2018554921 A JP2018554921 A JP 2018554921A JP 2018554921 A JP2018554921 A JP 2018554921A JP WO2018105411 A1 JPWO2018105411 A1 JP WO2018105411A1
Authority
JP
Japan
Prior art keywords
image
illumination
coaxial
oblique illumination
oblique
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018554921A
Other languages
English (en)
Inventor
潤一郎 榎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2018105411A1 publication Critical patent/JPWO2018105411A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/13Ophthalmic microscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/06Means for illuminating specimens
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/0012Surgical microscopes

Abstract

本技術は、より快適に手術を行うことができるようにする画像処理装置および方法、並びに手術顕微鏡システムに関する。画像処理装置は、手術対象の眼に対して同軸照明を行うことで得られる同軸照明画像と、眼に対して斜照明を行うことで得られる斜照明画像を取得する画像取得部と、同軸照明画像および斜照明画像に基づいて眼の術野画像を生成するか、または同軸照明画像および斜照明画像の少なくとも何れか一方に基づいて特定領域を検出する画像処理部とを備える。本技術は顕微鏡システムに適用することができる。

Description

本技術は画像処理装置および方法、並びに手術顕微鏡システムに関し、特に、より快適に手術を行うことができるようにした画像処理装置および方法、並びに手術顕微鏡システムに関する。
従来、眼科用の顕微鏡が知られている。例えば眼科用の顕微鏡に関する技術として、施術対象の眼について術中に取得された画像に対して画像認識を行い、その認識結果に基づいて施術対象の眼の断層面を決定することで、適切な断層画像を得ることができるようにしたものが提案されている(例えば、特許文献1参照)。
特開2016−73409号公報
ところで、眼科用の顕微鏡においては、観察対象となる眼に対して顕微鏡の観察光学系の光軸方向から照明光を照射する同軸照明と、観察光学系の光軸方向とは異なる方向から照明光を照射する斜照明とを同時に行って、手術対象の眼を観察することが一般的である。
これは、同軸照明を行うことで徹照を得て、水晶体の前嚢や後嚢を良好なコントラストで観察することができ、斜照明を行うことで良好なシャドーコントラストを得て術野を立体的に観察することができるからである。
しかしながら、同軸照明と斜照明を行って手術対象の眼を観察する場合、手術の工程ごと、つまり手技ごとに同軸照明と斜照明の最適な照明強度は異なる。そのため、良好な術野を得るためには、眼の手術中に工程ごとに同軸照明と斜照明の照明強度の調整を行わなければならず、手間が発生してしまう。そうすると、術者等が快適に手術を行うことができなくなってしまう。
本技術は、このような状況に鑑みてなされたものであり、より快適に手術を行うことができるようにするものである。
本技術の第1の側面の画像処理装置は、手術対象の眼に対して同軸照明を行うことで得られる同軸照明画像と、前記眼に対して斜照明を行うことで得られる斜照明画像を取得する画像取得部と、前記同軸照明画像および前記斜照明画像に基づいて前記眼の術野画像を生成するか、または前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて特定領域を検出する画像処理部とを備える。
前記同軸照明の同軸照明光と、前記斜照明の斜照明光とを互いに異なる波長の光とし、画像処理装置には前記同軸照明と前記斜照明が同時に行われるように制御する制御部をさらに設けることができる。
前記画像取得部には、前記同軸照明光と前記斜照明光とを光学的に分離させて、前記同軸照明画像および前記斜照明画像を取得させることができる。
前記画像取得部には、前記同軸照明光と前記斜照明光を受光して得られたデータから、前記同軸照明画像および前記斜照明画像を取得させることができる。
画像処理装置には、前記同軸照明と前記斜照明が交互に行われるように制御する制御部をさらに設け、前記画像取得部には、前記同軸照明画像と前記斜照明画像とを時分割で取得させることができる。
前記画像処理部には、前記同軸照明画像と前記斜照明画像とを所定の混合比率で混合させて前記術野画像を生成させることができる。
前記画像処理部には、領域ごとに前記混合比率を決定させることができる。
前記画像処理部には、前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて、術具の領域または前記眼の特定部位の領域を検出させ、その検出結果に基づいて領域ごとに前記混合比率を決定させることができる。
前記画像処理部には、前記術野画像の用途および前記眼の手術の工程の少なくとも何れか一方に基づいて前記混合比率を決定させることができる。
前記画像処理部には、前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に対して強調処理を行わせてから前記術野画像を生成させることができる。
前記画像処理部には、前記同軸照明画像および前記斜照明画像のそれぞれについて、前記術野画像の用途および前記眼の手術の工程の少なくとも何れか一方に基づいて前記強調処理を行うかを決定させることができる。
前記画像処理部には、前記同軸照明画像および前記斜照明画像に基づいて鏡面反射領域を検出させ、その検出結果に基づいて鏡面反射成分が低減された前記術野画像を生成させることができる。
前記画像処理部には、前記特定領域として前記眼の特定部位の領域を検出させることができる。
前記画像処理部には、前記同軸照明画像と前記斜照明画像とを比較させて、前記眼の瞳孔領域を検出させることができる。
画像処理装置には、前記特定部位の領域の検出結果に基づいて、前記同軸照明画像および前記斜照明画像の撮影制御を行う制御部をさらに設けることができる。
前記制御部には、前記撮影制御として露出制御または撮影位置の制御を行わせることができる。
前記画像処理部には、前記眼の前記特定部位の領域の検出結果に基づいて、前記眼の手術の補助のためのガイド情報を生成させることができる。
本技術の第1の側面の画像処理方法は、手術対象の眼に対して同軸照明を行うことで得られる同軸照明画像と、前記眼に対して斜照明を行うことで得られる斜照明画像を取得し、前記同軸照明画像および前記斜照明画像に基づいて前記眼の術野画像を生成するか、または前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて特定領域を検出するステップを含む。
本技術の第1の側面においては、手術対象の眼に対して同軸照明を行うことで得られる同軸照明画像と、前記眼に対して斜照明を行うことで得られる斜照明画像が取得され、前記同軸照明画像および前記斜照明画像に基づいて前記眼の術野画像が生成されるか、または前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて特定領域が検出される。
本技術の第2の側面の手術顕微鏡システムは、手術対象の眼に対して同軸照明光を照射し、同軸照明を行う同軸照明光源と、前記眼に対して斜照明光を照射し、斜照明を行う斜照明光源と、前記同軸照明を行うことで得られる同軸照明画像と、前記斜照明を行うことで得られる斜照明画像を取得する画像取得部と、前記同軸照明画像および前記斜照明画像に基づいて前記眼の術野画像を生成するか、または前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて特定領域を検出する画像処理部とを備える。
本技術の第2の側面においては、手術対象の眼に対して同軸照明光が照射されて同軸照明が行われ、前記眼に対して斜照明光が照射されて斜照明が行われ、前記同軸照明を行うことで得られる同軸照明画像と、前記斜照明を行うことで得られる斜照明画像が取得され、前記同軸照明画像および前記斜照明画像に基づいて前記眼の術野画像が生成されるか、または前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて特定領域が検出される。
本技術の第1の側面および第2の側面によれば、より快適に手術を行うことができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
一般的な眼科用の顕微鏡について説明する図である。 斜照明により観察される術野について説明する図である。 同軸照明により観察される術野について説明する図である。 同軸照明により観察される術野での影の視認性について説明する図である。 同軸照明と斜照明により観察される術野での影の視認性について説明する図である。 顕微鏡システムの構成例を示す図である。 画像取得部の構成例を示す図である。 撮影部の構成例を示す図である。 撮影部の他の構成例を示す図である。 撮影部の他の構成例を示す図である。 撮影部の他の構成例を示す図である。 画像取得部の他の構成例を示す図である。 術野画像生成処理を説明するフローチャートである。 同軸照明画像での鏡面反射領域について説明する図である。 斜照明画像での鏡面反射領域について説明する図である。 術野画像での鏡面反射領域について説明する図である。 鏡面反射成分除去処理を説明するフローチャートである。 瞳孔領域検出処理を説明するフローチャートである。 コンピュータの構成例を示す図である。
以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
〈本技術について〉
本技術は、同軸照明により手術対象の眼を照明した状態で撮影された同軸照明画像と、斜照明により手術対象の眼を照明した状態で撮影された斜照明画像とを取得することで、同軸照明による映像と斜照明による映像を分離取得することができるようにするものである。これにより、例えば、より簡単に良好な術野を得ることができ、術者等はより快適に手術を行うことができるようになる。
例えば、一般的な眼科用の顕微鏡においては、図1に示すように光軸と完全に同一の方向から被写体を照明する同軸照明と、光軸に対して4度乃至6度だけずれた方向から被写体を照明する斜照明とが存在する。
図1は、一般的な眼科用の顕微鏡の光学系部分を示している。この例では、顕微鏡には接眼レンズの光学系である光学系11−1および光学系11−2とともに、斜照明用の光源12が設けられている。なお、以下、光学系11−1および光学系11−2を特に区別する必要のない場合、単に光学系11とも称する。
光学系11−1および光学系11−2は、手術対象の眼を観察するための観察光学系となっており、被写体である眼の観察時にはこれらの光学系11の一部を介して眼に照明光が照射される。このような観察光学系の光軸方向と同じ方向からの被写体の照明は同軸照明と呼ばれている。
これに対して、眼科用の顕微鏡には光学系11とずれた位置に光源12が設けられており、手術対象の眼の観察時には光源12によっても被写体である眼に対して照明光が照射される。光源12による照明は、観察光学系である光学系11の光軸方向とは4度乃至6度だけずれた方向からの照明となり、このような照明は斜照明と呼ばれている。
照明として斜照明のみを行った場合、徹照を得ることができないため、つまり網膜からの反射光を受光することができないため、例えば図2に示すように斜照明を行った状態で観察される術野では十分な視認性を得ることができない。
図2は、斜照明を行った状態で観察される手術対象の眼の部分を示している。
この例では、術野内では手術対象の眼に術具41が挿入された状態となっているが、照明として斜照明のみを行った状態であるため、眼の後嚢部分などが暗く、十分な視認性が得られていない。
これに対して、同軸照明では徹照を得ることで、例えば図3に示すように透明な水晶体の前嚢や後嚢の観察によいコントラストを得ることができる。しかし、その一方で同軸照明であるため十分なシャドーコントラストを得ることができない。なお、図3において図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図3は、同軸照明を行った状態で観察される手術対象の眼の部分を示している。この例では、術野内では手術対象の眼に術具41が挿入された状態となっている。
図3に示す術野の例では、矢印Q11に示す部分は眼の前嚢の縁の部分となっており、同軸照明であるため後嚢など眼の各部が明るく、高い視認性が得られている。例えば矢印Q12に示す部分では、術具41の挿入により生じた角膜表面の皺も確認することができる。
しかし、この術野は同軸照明のみの照明となっているため、術野内では術具41等の影は観察されず、十分なシャドーコントラストを得ることができない。
そのため、眼の手術時には、同軸照明と斜照明とを組み合わせて斜照明によりシャドーコントラストを得ることができるようにすることが一般的である。
例えば図4に示すように、白内障手術における超音波水晶体乳化吸引時に同軸照明のみを行った状態での術野では、高い視認性を得ることができるが術具71等の影は観察されない。
この例では、矢印Q21に示す部分は眼の前嚢の縁の部分となっており、同軸照明であるため後嚢など眼の各部で明るく高い視認性が得られている。しかし、術具71の影や、術具71の挿入によってできた溝の影などは観察されず、十分なシャドーコントラストが得られていない。
これに対して、例えば図5に示すように、白内障手術における超音波水晶体乳化吸引時に同軸照明と斜照明を同時に行った状態での術野では、高い視認性を得ることができ、かつ十分なシャドーコントラストも得ることができる。なお、図5において図4における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図5に示す術野内では、術具71の挿入によってできた溝を観察することができ、さらにその溝の部分に影が見える状態となっている。つまり、十分なシャドーコントラストが得られている。術野を観察する術者等は、このような溝部分の影等の視覚情報から立体感を感じることができる。
さて、例えば白内障手術においては、前嚢切開のようなコントラストが重要な手技と、超音波水晶体乳化吸引時の溝堀時のように立体感の情報もある程度必要な手技とが存在する。
そのため、同軸照明の照明強度と、斜照明の照明強度とのベストなバランスは手技によって異なっており、手術時に良好な術野、つまり視野を得るためには手技ごとに、つまり手術の工程ごとに同軸照明と斜照明の照明強度を適宜調整する手間が発生する。換言すれば、簡単に良好な術野を得ることは困難であった。
また、最近の眼科手術においては、光学顕微鏡の接眼部をカメラに置き換え、ディスプレイに表示された映像を見ながら手術をするヘッズアップサージェリ(Heads up Surgery)が存在する。ヘッズアップサージェリでは、画像処理を用いることがメリットとして挙げられており、例えば照明の光量を減らしたとしても、デジタルゲインにより明るい術野を得ることができる。
しかし、ヘッズアップサージェリにおいても、接眼レンズでの目視による観察時と同様に同軸照明と斜照明の照明強度のバランス制御が必要となり、手間が発生してしまう。
また、同軸照明の照明光と、斜照明の照明光とが混ざった映像しか得ることができないため、例えば画像処理により視認性を向上させるために、前嚢や後嚢のコントラストだけを上げたり、シャドーコントラストだけを上げたりすることは困難である。
そこで、本技術では、同軸照明により手術対象の眼を照明した状態で撮影された同軸照明画像と、斜照明により手術対象の眼を照明した状態で撮影された斜照明画像とを取得することで、より簡単に良好な術野を得ることができるようにした。これにより、手術時の手間が少なくなり、術者等はより快適に手術を行うことができるようになる。
〈顕微鏡システムの構成例〉
それでは、以下、本技術を適用した具体的な実施の形態について説明する。
図6は、本技術を適用した顕微鏡システムの一実施の形態の構成例を示す図である。
図6に示す顕微鏡システム101は、眼科ビデオ顕微鏡111、表示部112−1、および表示部112−2を有している。
この顕微鏡システム101は、眼科ビデオ顕微鏡111において照明と連動した撮影および画像処理を行うことで、これまでの照明の下では得られなかった画像処理を可能にし、その結果、術者に対して良好な術野や、手術をサポートする情報を提供するものである。
顕微鏡システム101においては、眼科ビデオ顕微鏡111に対して2つの表示部112−1および表示部112−2が接続されている。
眼科ビデオ顕微鏡111は、手術対象、すなわち施術対象となる患者の眼を被写体として撮影を行い、患者の眼を被写体とする術野の画像を術野画像として生成する。また、眼科ビデオ顕微鏡111は、得られた術野画像を表示部112−1や表示部112−2に供給して表示させる。
表示部112−1および表示部112−2は、例えば液晶ディスプレイなどからなり、眼科ビデオ顕微鏡111から供給された術野画像を表示する。以下では、表示部112−1および表示部112−2を特に区別する必要のない場合、単に表示部112とも称することとする。
また、これらの表示部112は、用途が異なるディスプレイとされてもよい。例えば表示部112−1は、眼の手術を行う術者に対して術野を観察するための術野画像を提示するためのものとされ、表示部112−2は手術を観察したり監督したりするための観察者等に対して術野画像を提示するためのものとされてもよい。
したがって、眼科ビデオ顕微鏡111では、表示部112ごとに異なる術野画像を生成して、得られた複数の術野画像のそれぞれを、複数の表示部112のそれぞれに供給することができる。
なお、眼科ビデオ顕微鏡111に接続される表示部112の数は2つに限らず、いくつであってもよい。すなわち、眼科ビデオ顕微鏡111に1つの表示部112が接続されるようにしてもよいし、3以上の表示部112が接続されるようにしてもよい。
また、眼科ビデオ顕微鏡111は、画像取得部121、画像記録部122、画像処理部123、および顕微鏡制御部124を有している。
画像取得部121は、顕微鏡制御部124の制御に従って手術対象となる眼に照明光を照射し、眼を被写体とする画像を取得する。具体的には、画像取得部121は、同軸照明を行って得られる同軸照明画像と、斜照明を行って得られる斜照明画像とを取得して、画像記録部122および画像処理部123に供給する。
ここで、同軸照明により手術対象の眼に対して照射される照明光を同軸照明光と称することとすると、同軸照明画像は、同軸照明光を被写体となる眼に照射し、その眼で反射された同軸照明光を受光して光電変換することにより得られる画像である。
換言すれば、同軸照明画像は、斜照明を行わずに同軸照明のみを行った状態で撮影された手術対象の眼の画像であるともいうことができる。
また、斜照明により手術対象の眼に対して照射される照明光を斜照明光と称することとすると、斜照明画像は、斜照明光を被写体となる眼に照射し、その眼で反射された斜照明光を受光して光電変換することにより得られる画像である。
換言すれば、斜照明画像は、同軸照明を行わずに斜照明のみを行った状態で撮影された手術対象の眼の画像であるともいうことができる。
なお、画像取得部121により取得された同軸照明画像および斜照明画像は、画像記録部122および画像処理部123のうちの何れか一方のみに供給されるようにしてもよい。例えば、同軸照明画像および斜照明画像が画像記録部122のみに供給される場合には、画像処理部123は、画像記録部122から同軸照明画像および斜照明画像を読み出して、画像処理等を行う。
以下では、同軸照明画像および斜照明画像が少なくとも画像処理部123に供給されるものとして説明を続ける。
画像記録部122は、画像取得部121から供給された同軸照明画像および斜照明画像を記録するとともに、必要に応じて記録している同軸照明画像および斜照明画像を画像処理部123に供給する。
画像処理部123は、画像取得部121または画像記録部122から供給された同軸照明画像や斜照明画像に基づいて各種の画像処理を行う。
例えば画像処理部123は、同軸照明画像および斜照明画像に基づいて術野画像を生成し、得られた術野画像を表示部112に供給して表示させる。なお、画像処理部123で得られた術野画像が画像記録部122に供給されて記録されるようにしてもよい。
また、例えば画像処理部123は、同軸照明画像および斜照明画像の少なくとも何れか一方に基づいて、術具の領域や眼の特定部位の領域等の特定の領域を検出する処理を画像処理として行う。
具体的には、例えば画像処理部123は、同軸照明画像および斜照明画像に基づいて術野画像上における手術対象の眼の所望部位の領域を特定(検出)し、さらにその特定結果に基づいて表示部112を制御して、手術の補助のためのガイド情報等を術野画像に重畳表示させることができる。
さらに、例えば画像処理部123は、同軸照明画像および斜照明画像を用いた画像処理の結果、すなわち例えば術野画像上の特定部位の領域の特定結果(検出結果)を顕微鏡制御部124に供給する。
顕微鏡制御部124は、画像処理部123から供給された画像処理の結果等に基づいて画像取得部121を制御する。
例えば顕微鏡制御部124は、画像処理の結果等に基づいて、画像取得部121による同軸照明や斜照明などの照明を制御したり、画像取得部121による同軸照明画像や斜照明画像の取得(撮影)を制御したりする。
具体的には、例えば照明制御として、照明を行うタイミングや照明強度の調整などを制御することができる。また、例えば画像の取得の制御として、同軸照明画像や斜照明画像の撮影のタイミングの制御や露出制御(露光制御)、撮影位置の制御などを行うことができる。
〈画像取得部の構成例1〉
続いて、図6に示した画像取得部121の具体的な構成例について説明する。
例えば眼科ビデオ顕微鏡111の構成を、互いに異なる波長の照明光による照明と連動した撮影および画像処理を行う構成とすることができる。
そのような場合、同軸照明光と斜照明光とを互いに異なる波長の光として、同軸照明画像および斜照明画像の撮影を同時に行うことができる。
ここでは、例えば同軸照明光は可視光、すなわち、より詳細には赤外光成分が除去(カット)された可視光成分の光とされ、斜照明光は赤外光とされるものとする。
このように同軸照明光と斜照明光とを互いに異なる波長帯域の光とすれば、例えばプリズム等により分光を行って、完全に同一時刻の眼の状態を同軸照明画像および斜照明画像として取得することができる。すなわち、同一時刻の同軸照明画像と斜照明画像とを分離して取得することができる。
具体的には、同軸照明光と斜照明光とを互いに異なる波長の光とする場合、画像取得部121は、例えば図7に示す構成とすることができる。なお、図7において図6における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図7に示す例では、画像取得部121は、赤外光源151、可視光源152、赤外カットフィルム153、ハーフミラー154、および撮影部155を有している。
赤外光源151は、斜照明光として赤外光を手術対象の眼E11に対して照射し、斜照明を行う斜照明光源である。なお、画像取得部121における赤外光源151と眼E11との間には、斜照明光を眼E11へと導く光学系が設けられていてもよい。
眼E11に照射された斜照明光は、例えば眼E11の前嚢や後嚢などにおいて反射され、ハーフミラー154を介して撮影部155に入射する。
可視光源152は、同軸照明光として可視光を手術対象の眼E11に対して照射し、同軸照明を行う同軸照明光源である。すなわち、可視光源152から出力された同軸照明光は、赤外カットフィルム153を介してハーフミラー154に入射するとともに、ハーフミラー154で反射され、眼E11へと入射する。
このとき、より詳細には同軸照明光に含まれる赤外光成分は、赤外カットフィルム153で除去(カット)される。すなわち、同軸照明光のうちの可視光成分のみが赤外カットフィルム153を透過する。
また、より詳細には、画像取得部121における可視光源152と眼E11との間には、ハーフミラー154や他の光学素子からなる、同軸照明光を眼E11へと導く同軸照明光学系が設けられている。この同軸照明光学系の一部は、撮影部155により眼E11を観察するための観察光学系(撮影光学系)の一部と共通の光学系となっており、これにより同軸照明が実現されている。
眼E11に照射された同軸照明光は、例えば眼E11の前嚢や後嚢、網膜などにおいて反射され、ハーフミラー154を介して撮影部155に入射する。
赤外カットフィルム153は、赤外光成分をカットし、可視光成分のみを透過させるフィルタであり、可視光源152から入射した同軸照明光のうちの可視光成分のみを透過させてハーフミラー154へと入射させる。
ハーフミラー154は、赤外カットフィルム153を介して可視光源152から入射した同軸照明光のうちの半分を反射して眼E11に入射させるとともに、入射した同軸照明光の残りの半分を透過させる。
同様に、ハーフミラー154は、眼E11から入射した斜照明光および同軸照明光のうちの半分を透過させて撮影部155へと入射させるとともに、斜照明光および同軸照明光の残りの半分を反射させる。
撮影部155は、ハーフミラー154を介して眼E11から入射した斜照明光および同軸照明光を受光して光電変換することで、斜照明画像および同軸照明画像を取得する。すなわち、撮影部155は、斜照明画像を撮影する赤外カメラとして機能するとともに、同軸照明画像を撮影する可視光カメラとしても機能する。
撮影部155は、撮影により得られた同軸照明画像および斜照明画像を画像処理部123へと出力する。
〈撮影部の構成例1〉
ここで、図7に示した撮影部155のより詳細な構成例について説明する。
例えば撮影部155は、図8に示すような画素配列のイメージセンサ、すなわち撮像素子181を有するカメラとすることができる。
図8に示す撮像素子181は、画素受光部の表面に、画素ごとにカラーフィルタが設けられたW画素導入センサとされている。ここでは、1つの四角形は1つの画素を表しており、それらの画素内の文字は、それらの画素に設けられたカラーフィルタを示している。
すなわち、文字「R」が記された画素は、R成分の光、つまり赤色の光を透過させるカラーフィルタが設けられ、R成分の光を受光する画素(以下、R画素とも称する)である。
また、文字「G」が記された画素は、G成分の光、つまり緑色の光を透過させるカラーフィルタが設けられ、G成分の光を受光する画素(以下、G画素とも称する)である。文字「B」が記された画素は、B成分の光、つまり青色の光を透過させるカラーフィルタが設けられ、B成分の光を受光する画素(以下、B画素とも称する)である。
さらに、文字「W」が記された画素は、W成分の光、すなわち全波長帯域の光(白色光)を透過させるカラーフィルタが設けられ、W成分の光を受光する画素(以下、W画素とも称する)である。
図8では、撮像素子181においてはR画素、G画素、B画素、およびW画素の各画素の配列はベイヤー配列の一部、より詳細にはベイヤー配列におけるG画素の一部をW画素に置き換えた配列とされている。
画像取得時には、可視光である同軸照明光と、赤外光である斜照明光とが同時に撮像素子181に入射してくるので、撮像素子181はカラーフィルタを介して画素内に入射した光を受光して光電変換することで画像を撮影する。
以上のような構成とすることで、R画素、G画素、およびB画素での光電変換で得られた3原色のデータと、W画素での光電変換で得られたデータとから、赤外光成分が除去されたRGBの各色成分からなる可視光の画像と、赤外光成分のみからなる赤外光の画像とを得ることができる。そして、このようにして得られた可視光の画像が同軸照明画像とされ、赤外光の画像が斜照明画像とされる。
以上のように図8に示す撮像素子181からなるカメラを撮影部155とすれば、撮像素子181という単一のセンサで同軸照明画像と斜照明画像を分離して取得することができる。
〈撮影部の構成例2〉
また、撮影部155を、例えば図9に示すようにセンサ部分を2層構造としたカメラとするようにしてもよい。
図9に示す例では、撮影部155は互いに重ねられて配置されたイメージセンサである撮像素子211および撮像素子212を有している。特に、ここでは撮像素子211が撮影部155におけるハーフミラー154側、つまり光の入射側に配置されている。
上層の撮像素子211は、画素受光部の表面に、画素ごとにカラーフィルタが設けられたイメージセンサとされている。ここでは、1つの四角形は1つの画素を表しており、それらの画素内の文字は、それらの画素に設けられたカラーフィルタを示している。
すなわち、文字「R」が記された画素は、R成分の光を透過させるカラーフィルタが設けられたR画素を示しており、文字「G」が記された画素は、G成分の光を透過させるカラーフィルタが設けられたG画素を示している。また、文字「B」が記された画素は、B成分の光を透過させるカラーフィルタが設けられたB画素を示している。
撮像素子211では、これらのR画素、G画素、およびB画素がベイヤー配列で配置されている。
また、撮像素子211の図中、下側に配置された下層の撮像素子212は、撮像素子211の各画素と同じ大きさの画素を有するイメージセンサとなっている。なお、撮像素子212において、1つの四角形は1つの画素を表しており、それらの画素内の文字「IR」は、画素が受光する光の成分である赤外光成分を示している。
撮像素子211の各画素に可視光と赤外光が入射すると、それらの可視光と赤外光の一部は撮像素子211の画素により受光され、それの入射した光の残りの一部が撮像素子211の画素を透過して撮像素子212の画素に入射する。
特に、撮像素子211の各画素を透過する成分は主に赤外光成分となっており、撮像素子212の各画素では赤外光成分が受光される。
画像取得時には、可視光である同軸照明光と、赤外光である斜照明光とが同時に撮像素子211に入射してくるので、撮像素子211は入射した光を受光して光電変換することで画像を撮影する。同時に、撮像素子212も撮像素子211を透過してきた光を受光して光電変換することで画像を撮影する。
以上のような構成とすることで、撮像素子211の各画素での光電変換で得られたデータと、撮像素子212の各画素での光電変換で得られたデータとから、赤外光成分が除去されたRGBの各色成分からなる可視光の画像を得ることができる。また、例えば撮像素子212の各画素での光電変換で得られたデータから、赤外光成分のみからなる赤外光の画像を得ることができる。そして、このようにして得られた可視光の画像が同軸照明画像とされ、赤外光の画像が斜照明画像とされる。
〈撮影部の構成例3〉
さらに、撮影部155は同軸照明光と斜照明光とを受光前、つまり撮影前に光学的に分離させる構成を有するカメラとされてもよい。すなわち、例えばダイクロイック膜と反射を組み合わせたプリズムで赤外光と可視光とを分離してもよい。
そのような場合、撮影部155は、例えば図10に示すように構成される。
図10に示す撮影部155は、プリズム241、撮像素子242、および撮像素子243を有している。
この例では、プリズム241の入射面251がハーフミラー154側、つまり光の入射側に位置するようにプリズム241が配置されており、プリズム241における入射面251と対向する面の部分にダイクロイック膜252が設けられている。
例えばダイクロイック膜252は、入射した光のうちの赤外光の波長よりも長い波長の光を反射させ、入射した光のうちの赤外光の波長よりも短い波長の光を透過させる。
したがって、撮影部155では、プリズム241において可視光である同軸照明光と、赤外光である斜照明光とを光学的に分離させることができる。
すなわち、同軸照明光と斜照明光とがプリズム241の入射面251を透過して、それらの光がダイクロイック膜252に入射すると、赤外光である斜照明光はダイクロイック膜252で反射され、可視光である同軸照明光はダイクロイック膜252を透過する。
そして、ダイクロイック膜252で反射された斜照明光は、さらに入射面251で反射され、イメージセンサである撮像素子242に入射する。撮像素子242は、入射した斜照明光を受光して光電変換することにより、斜照明光の成分のみからなる斜照明画像を取得する。すなわち、撮像素子242によって斜照明画像が撮影される。
これに対して、ダイクロイック膜252を透過した同軸照明光は、イメージセンサである撮像素子243に入射する。撮像素子243は、入射した同軸照明光を受光して光電変換することにより、同軸照明光の成分のみからなる同軸照明画像を取得する。すなわち、撮像素子243によって同軸照明画像が撮影される。
なお、ここではダイクロイック膜252において赤外光が反射される構成としたが、ダイクロイック膜252において可視光が反射されるようにしてもよい。
そのような場合、プリズム241に入射した同軸照明光は、ダイクロイック膜252において反射された後、さらに入射面251で反射され、撮像素子242に入射する。また、プリズム241に入射した斜照明光は、ダイクロイック膜252を透過して撮像素子243に入射する。したがって、この場合には、撮像素子242により同軸照明画像が撮影され、撮像素子243により斜照明画像が撮影されることになる。
〈撮影部の構成例4〉
さらに、撮影部155において同軸照明光と斜照明光を撮影前に光学的に分離させる場合、撮影部155を図11に示す構成とすることもできる。なお、図11において図10における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図11に示す撮影部155は、プリズム241、ハーフミラー281、フィルタ282、フィルタ283、撮像素子242、および撮像素子243を有している。
図11に示す撮影部155の構成は、図10に示した撮影部155のダイクロイック膜252に代えてハーフミラー281を配置し、さらにフィルタ282およびフィルタ283を設けた構成とされている。
特に、図11に示す撮影部155では、ハーフミラー281と撮像素子243との間にフィルタ282が配置されており、入射面251と撮像素子242との間にフィルタ283が配置されている。
ここで、フィルタ282は特定の波長帯域、例えば赤外光の波長帯域の光のみを透過させるバンドパスフィルタなどからなる。また、フィルタ283は、例えば赤外カットフィルタなどとされ、入射した光のうちの赤外光成分を除去(カット)し、それ以外の成分を透過させる。
したがって、この例では同軸照明光と斜照明光とがプリズム241の入射面251を透過して、それらの光がハーフミラー281に入射すると、同軸照明光と斜照明光の半分はハーフミラー281を透過してフィルタ282へと入射する。一方、ハーフミラー281に入射した同軸照明光と斜照明光の残りの半分はハーフミラー281で反射し、さらに入射面251でも反射してフィルタ283へと入射する。
そして、フィルタ282へと入射した同軸照明光と斜照明光のうちの同軸照明光はフィル282でカットされ、斜照明光のみがフィルタ282を透過して撮像素子243へと入射する。また、フィルタ283へと入射した同軸照明光と斜照明光のうちの斜照明光はフィル283でカットされ、同軸照明光のみがフィルタ283を透過して撮像素子242へと入射する。
これにより、撮像素子243では斜照明画像が撮影され、撮像素子242では同軸照明画像が撮影されることになる。
なお、ここでは撮像素子243で斜照明画像が撮影される例について説明したが、撮像素子242で斜照明画像が撮影され、撮像素子243で同軸照明画像が撮影されるようにしてもよい。そのような場合、フィルタ282は可視光の波長帯域を通過させるバンドパスフィルタとされ、フィルタ283は可視光カットフィルタとされる。
〈画像取得部の構成例2〉
また、図6に示した画像取得部121の構成は、図7に示した構成に限らず、同軸照明画像と斜照明画像とを取得することができれば、他のどのような構成とされてもよい。
例えば眼科ビデオ顕微鏡111の構成を、高速でオン、オフできる照明光源による照明と連動した撮影および画像処理を行う構成とすることができる。
そのような場合、光の照射を高速にオン、オフできる照明光源を同軸照明光や斜照明光の光源として用いて、手術対象の眼に対して同軸照明光と斜照明光を異なるタイミングで照射し、時分割で同軸照明画像と斜照明画像を取得することができる。
この場合、光源のオン、オフと同期して、1つのカメラにより高速なフレームレートで撮影を行うことで、同軸照明画像と斜照明画像を時分割で分離させて取得することができる。このとき、例えば撮影で得られる映像(動画像)の偶数フレームを斜照明画像とし、奇数フレームを同軸照明画像とするなどすればよい。
このように同軸照明画像と斜照明画像を時分割で取得する場合、画像取得部121を図7に示した構成とする場合とは異なり、取得される同軸照明画像と斜照明画像とは、厳密には完全に同一時刻の映像とはならない。しかし、十分に高速なフレームレートで撮影を行うことで、同軸照明画像と斜照明画像の撮影時刻の差の影響を、例えば術者等の眼には気にならないレベルまで十分に小さくすることができる。また、この場合には、同軸照明画像と斜照明画像の両方の画像を可視光の画像とすることが可能である。
同軸照明画像と斜照明画像を時分割で取得する場合、画像取得部121は、例えば図12に示すように構成される。なお、図12において図7における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図12に示す例では、画像取得部121は、可視光源311、可視光源152、ハーフミラー154、および撮影部312を有している。
この例では、可視光源311は斜照明光として可視光を射出し、可視光源152は同軸照明光として可視光を射出する。
図12に示す画像取得部121では、図7に示した赤外光源151に代えて可視光源311が設けられている。可視光源311は、斜照明光として可視光を手術対象の眼E11に対して照射し、斜照明を行う斜照明光源である。眼E11に照射された斜照明光は、例えば眼E11の前嚢や後嚢などにおいて反射され、ハーフミラー154を介して撮影部312に入射する。
また、撮影部312は、可視光の動画像を高フレームレートで撮影可能なカメラなどとされ、撮影された動画像から同軸照明画像と斜照明画像とを抽出して画像処理部123に供給する。
同軸照明画像と斜照明画像の撮影時には、顕微鏡制御部124は、可視光源311と可視光源152を高速で交互にオン、オフさせる。
すなわち、顕微鏡制御部124は、可視光源311から斜照明光が出力され、かつ可視光源152からは同軸照明光が出力されない斜照明出力状態と、可視光源311からは斜照明光が出力されず、かつ可視光源152からは同軸照明光が出力される同軸照明出力状態とが高速で交互に切り替わるように、可視光源311と可視光源152を制御する。
同時に、顕微鏡制御部124は斜照明出力状態と同軸照明出力状態の切り替えに同期させて、撮影部312に動画像を撮影させる。すなわち、斜照明出力状態の期間が動画像の1フレーム分の期間となり、同軸照明出力状態の期間が他の1フレーム分の期間となるように、撮影部312による動画像の撮影が制御される。
これにより、撮影部312で得られた動画像における、例えば奇数フレームが同軸照明画像となり、偶数フレームが斜照明画像となる。撮影部312は、撮影された動画像の奇数フレームと偶数フレームとを分離させることで、同軸照明画像と斜照明画像を取得し、後段の画像処理部123へと出力する。
なお、ここでは同軸照明画像と斜照明画像が1フレームずつ交互に取得される例について説明するが、例えば同軸照明画像が2フレーム分取得された後、斜照明画像が1フレーム分だけ取得されるなどしてもよい。
また、ここでは同軸照明光と斜照明光とが同じ波長の光である例について説明したが、同軸照明光と斜照明光は互いに異なる波長の光であってもよい。
以上のように画像取得部121を図7に示した構成としても、図12に示した構成としても、同軸照明画像と斜照明画像とを分離して取得することができる。
同軸照明画像と斜照明画像の取得後、リアルタイムで画像処理を行う場合には、得られた同軸照明画像と斜照明画像が画像処理部123へと供給され、画像処理部123で各種の画像処理が行われる。例えば画像処理として、術野画像を生成する処理などが行われる。
そして、画像処理部123での処理結果として得られた術野画像等が表示部112に供給されて表示されたり、画像処理部123での処理結果に基づいて、顕微鏡制御部124により画像取得部121の動作が制御されたりする。
一方、例えばリアルタイムでの画像処理が行われない場合には、同軸照明画像と斜照明画像が個別に画像記録部122に供給され、記録される。そして、例えば手術等を見直す際などに、画像記録部122に記録された同軸照明画像と斜照明画像に基づいて画像処理部123で画像処理が行われ、その結果得られた術野画像等が表示部112に供給されて表示される。
このようにして同軸照明画像と斜照明画像とを分離して取得することで、画像処理部123において、これらの同軸照明画像と斜照明画像とから、画像処理によって手技ごとに視認性の高い術野画像等を生成することができる。これにより、より簡単に良好な術野を得ることができ、その結果、術者等はより快適に手術を行うことができる。
また、例えば同軸照明画像と斜照明画像とから画像処理によって手術対象の眼の特定の部位を検出することができる。この検出結果を用いれば、眼の手術に有用なガイドとなるガイド情報を提示したり、眼の特定部位に合わせた露出制御等の撮影制御を行ったりすることができ、術者等がより快適に手術を行うことができるようにすることができる。
〈術野画像生成処理の説明〉
それでは、以下、顕微鏡システム101により実現される機能の例について、具体的に説明する。
まず、顕微鏡システム101において、同軸照明画像と斜照明画像とから術野画像を生成する処理について説明する。
顕微鏡システム101では、同軸照明により前嚢や後嚢について良好なコントラストが得られる同軸照明画像と、斜照明により十分なシャドーコントラストが得られる斜照明画像とを、手技ごとや観察者ごとに自由な混合比で混合(合成)し、視認性の高い、つまり良好な術野の術野画像を生成することが可能である。
具体的には、同軸照明を行うと、徹照により術野内の透明体である前嚢や後嚢、角膜のコントラストが上がり、切開縁や後嚢の安定性などを確認することができる。一方で、斜照明を行うと、斜照明により得られるシャドーコントラストによって、術野内の術具の影や超音波水晶体乳化吸引時の溝の深さなどの立体感の情報を得ることができる。
しかし、これらの透明体のコントラストや、術具等のシャドーコントラストは、何れも周囲に対し暗く見えることで得られる情報である。そのため、場合によっては、例えばシャドーコントラストが後嚢の視認性を低下させるといったことが発生する。
そのため、一般的には、同軸照明と斜照明とを同時に行うとともに、それらの照明における照明強度のバランスの調整が行われていた。
これに対して、顕微鏡システム101では、同軸照明画像と斜照明画像とが個別に取得されるため、それらの同軸照明画像と斜照明画像とを画像処理によって任意の割り合いで、つまり任意の混合比率で混合し、術野画像とすることができる。
換言すれば、顕微鏡システム101では同軸照明の強度と斜照明の強度とのバランス調整を画像処理によっても行うことができる。
具体的には、例えば画像取得部121が図12に示した構成とされる場合には、同軸照明画像と斜照明画像の両方の画像を可視光画像とすることができる。
したがって、この場合、任意の混合比率で同軸照明画像と斜照明画像の同じ位置関係の画素の画素値を混合、すなわち重み付き加算することで術野画像を得ることができる。つまり、これから得ようとする術野画像の注目する画素を注目画素とすると、注目画素と同じ位置関係にある同軸照明画像の画素の画素値と、注目画素と同じ位置関係にある斜照明画像の画素の画素値とを混合比率により定まる重みで重み付き加算することで、注目画素の画素値を得ることができる。
これに対して、例えば画像取得部121が図7に示した構成とされる場合には、同軸照明画像は可視光画像となるが斜照明画像は赤外光画像、つまりモノクロ画像となる。
しかし、このような場合においても同軸照明画像を構成する輝度の画像と斜照明画像とを混合することで、色付きの、つまりカラーの術野画像を得ることができる。
すなわち、まず可視光画像であるカラーの同軸照明画像に対し、必要に応じて画像変換処理が行われ、Y画像、Cb画像、およびCr画像からなる同軸照明画像とされる。ここで、Y画像はY成分(輝度成分)からなる輝度の画像であり、Cb画像はCb成分(青の色差成分)からなる色差の画像であり、Cr画像はCr成分(赤の色差成分)からなる色差の画像である。
その後、モノクロ画像である斜照明画像と、同軸照明画像を構成するY画像との同じ位置関係の画素の画素値が任意の混合比率で混合され、混合輝度画像とされる。そして、このようにして得られた混合輝度画像、Cb画像、およびCr画像からなるカラーの画像が術野画像とされる。
なお、以下では、可視光画像である同軸照明画像と斜照明画像から術野画像を生成する処理、および可視光画像である同軸照明画像と、赤外光画像である斜照明画像とから術野画像を生成する処理を特に区別せずに混合処理とも称することとする。すなわち、モノクロ画像である斜照明画像と、可視光画像である同軸照明画像とから術野画像を生成する場合においても、単に斜照明画像と同軸照明画像を混合するとも称することとする。
また、画像処理として混合処理を行って術野画像を生成する場合、領域ごとに異なる混合比率で同軸照明画像と斜照明画像とを混合することも可能である。
例えば術者が操作している術具については3次元的な位置の把握が重要となる。そこで、術具の周囲の領域については、混合処理時において術野画像に対する斜照明画像の寄与率、つまり斜照明画像の混合比率を増加させることによって、立体感の把握をしやすい術野画像を得ることができるようにしてもよい。
このとき、同軸照明画像や斜照明画像における術具の領域の特定方法としては、例えば同軸照明画像や斜照明画像に対する物体認識(画像認識)などを行うようにすればよい。
その他、術具に対して特定の色や形状のマーカを付加しておき、同軸照明画像や斜照明画像からマーカを検出することで術具の領域を特定するようにしてもよいし、観察者等が術具の領域を入力により指定するようにしてもよい。
また、例えば図18のフローチャートを参照して後述するように同軸照明画像と斜照明画像とを比較して瞳孔領域を特定するなどして、眼の特定部位の領域を特定(検出)し、その特定結果に応じて各領域の混合比率を決定するようにしてもよい。
このように、領域ごとに混合比率を決定する場合には、同軸照明画像および斜照明画像の少なくとも何れか一方が用いられて術具や眼の特定部位の領域が検出され、その検出結果に基づいて各領域の混合比率が決定されるようにすればよい。
さらに、同軸照明画像と斜照明画像の少なくとも何れか一方に対して画像処理としてエッジ強調処理を施してから、術野画像を生成するようにしてもよい。
例えば影のない同軸照明画像に対してエッジ強調処理を施してから、エッジ強調処理が施された同軸照明画像と、エッジ強調処理が施されていない斜照明画像とを混合することで、斜照明による影のエッジ成分を強調せずに透明体の視認性を強調した術野画像を得ることも可能となる。このように、用途に応じて同軸照明画像や斜照明画像に対して、適宜、エッジ強調処理を施すことで、より視認性の高い術野画像を得ることができる。
なお、ここでは、画像処理の例としてエッジ強調処理が行われる場合について説明するが、その他、例えばコントラスト強調処理など、他の表示強調処理が行われるようにしてもよい。
以上において説明した混合処理における領域ごとまたは画像全体の混合比率、エッジ強調処理の有無などは、術野画像を提示する術者や観察者などの提示先、つまり術野画像の用途に応じて変更することができる。換言すれば、どの表示部112に供給する術野画像であるかに応じて異なる混合比率での混合処理を行ったり、エッジ強調処理を行うか否かを選択的に切り替えたりすることができる。
例えば、指導医や助手などの術具を操作しない観察者に対して提示する術野画像を生成する場合や、後から手術時の映像を見て、つまり後から手術を振り返って勉強等するための術野画像を生成する場合などが考えられる。そのような場合には、例えば合併症である破嚢の発生に注意するために斜照明の影響は排除してシャドーコントラストは強調せずに、前嚢、後嚢、および角膜の視認性を向上させることなどが考えられる。
以下では、混合処理等を行って術野画像を生成するときの合成モードとして、施術モードおよび観察モードを含む複数のモードがあるものとする。
ここで、施術モードは実際に手術を行う術者に対して提示する術野画像を生成するモードであり、観察モードは手術中または手術後に手術を観察する指導医や助手、学習者などに対して提示する術野画像を生成するモードである。
さらに、より詳細には、例えば術野画像の用途、つまり術野画像の提示先が同じであっても手術の工程(手技)によって合成モードが異なるようになされている。
術野画像の用途が同じであっても手術の工程(手技)ごとに合成モードが異なれば、それらの工程ごとに異なる混合処理やエッジ強調処理などを行うことができる。具体的には、例えば白内障手術では、前嚢の切開や超音波水晶体乳化吸引、眼内レンズ挿入などの工程ごとに混合比率、エッジ強調処理の強度や有無が変更されるようにしてもよい。
なお、以下では、術野画像の提示先(用途)と手術の工程との組み合わせごとに合成モードが定められている例について説明するが、術野画像の提示先と手術の工程の少なくとも何れか一方のみに対して合成モードが定められているようにしてもよい。
ここで、図13のフローチャートを参照して、術野画像を生成するときに顕微鏡システム101により行われる術野画像生成処理について説明する。
ステップS11において、画像取得部121は、顕微鏡制御部124の制御に従って同軸照明画像および斜照明画像を取得して画像処理部123に供給する。
例えば画像取得部121が図7に示した構成とされる場合、顕微鏡制御部124は赤外光源151および可視光源152を制御し、手術対象の眼に対して斜照明光と同軸照明光を同時に照射させる。すなわち、同軸照明と斜照明とが同時に行われるように制御される。
そして、撮影部155は、手術対象の眼から入射してきた斜照明光と同軸照明光を光学的に分離させて、または同時に受光して光電変換することで、斜照明画像と同軸照明画像を得る。
また、例えば画像取得部121が図12に示した構成とされる場合、顕微鏡制御部124は可視光源311および可視光源152を制御し、手術対象の眼に対して斜照明光と同軸照明光を交互に照射させる。すなわち、同軸照明と斜照明とが交互に行われるように制御される。
そして、撮影部312は、手術対象の眼から入射してきた斜照明光または同軸照明光を受光して光電変換することで、斜照明画像と同軸照明画像を時分割で得る。
ステップS12において、画像処理部123は合成モードを選択する。例えば画像処理部123は、術者等の入力操作に応じて図示せぬ入力操作部から供給された信号に基づいて合成モードを選択する。
その他、例えば画像処理部123が接続されている表示部112のなかの電源がオンされている表示部112を特定し、その特定結果に基づいて術野画像の提示先を特定するようにしてもよい。この場合、例えば電源がオンされている表示部112に対して予め定められた術野画像の提示先と、何らかの方法により特定された手術の工程とに基づいて、合成モードが選択される。
例えば手術の工程は、画像処理部123が画像取得部121から供給された同軸照明画像や斜照明画像に対する画像認識等を行うことにより特定されるようにしてもよいし、術者等による操作入力に基づいて特定されるようにしてもよい。
なお、合成モードは1つのみ選択されるようにしてもよいし、複数選択されるようにしてもよい。以下では合成モードが1つだけ選択されるものとして説明を行うが、合成モードが複数選択された場合には、以下において説明するステップS13乃至ステップS15の処理は合成モードごとに処理が行われる。
ステップS13において、画像処理部123は、ステップS12において選択した合成モードに基づいて、必要に応じて画像取得部121から供給された同軸照明画像や斜照明画像に対してエッジ強調処理を行う。
ここでは、例えば同軸照明画像と斜照明画像のそれぞれについて、エッジ強調処理を行うかが合成モードに基づいて決定される。具体的には、例えば合成モードとして観察モードが選択された場合には、同軸照明画像に対してエッジ強調処理が行われ、斜照明画像に対してはエッジ強調処理は行われないようにされる。
なお、エッジ強調処理を行うにあたっては、例えば同軸照明画像や斜照明画像に対する物体認識等が行われて術具や眼の特定部位などが検出され、その検出結果に応じて領域ごとにエッジ強調処理が行われるようにしてもよい。すなわち、画像の特定領域のみに対してエッジ強調処理が行われるようにしてもよいし、画像の領域ごとにエッジ強調処理の強調度合いが決定されるようにしてもよい。
ステップS14において、画像処理部123はステップS12において選択した合成モードに基づいて、同軸照明画像および斜照明画像の混合比率を決定する。
例えば画像処理部123は、合成モードに対して予め定められた混合比率を、混合処理時の混合比率として決定する。
また、例えば画像処理部123が物体認識等を行って同軸照明画像や斜照明画像から術具や眼の特定部位を検出し、その検出結果に応じて領域ごとに混合比率を決定するようにしてもよい。例えば合成モードとして、手術の工程が超音波水晶体乳化吸引である施術モードが選択されているとする。この場合、例えば画像処理部123は、同軸照明画像よりも斜照明画像の混合比率が高くなるようにし、特に斜照明画像における術具が含まれる領域が他の領域よりも混合比率がより高くなるように混合比率を決定する。
なお、ステップS13とステップS14の処理は同時に行われるようにしてもよい。
ステップS15において、画像処理部123は、ステップS13において、必要に応じてエッジ強調処理が施された同軸照明画像および斜照明画像を、ステップS14で決定された混合比率で混合し、術野画像を生成する。なお、斜照明画像が赤外光画像である場合には、上述したように斜照明画像と、同軸照明画像のY画像とが混合(合成)されて術野画像が生成される。
術野画像が得られると、画像処理部123は、得られた術野画像を表示部112に供給して表示させたり、画像記録部122に供給して記録させたりして術野画像生成処理は終了する。
以上のようにして顕微鏡システム101は、同軸照明画像と斜照明画像を取得して術野画像を生成する。このようにすることで、術者等が照明強度の調整等の面倒な操作を行うことなく、簡単に合成モードごとに適切な術野画像、すなわち用途に応じた視認性の高い術野画像を得ることができる。したがって、術者は良好な術野で快適に手術を行うことができる。
〈鏡面反射成分除去処理の説明〉
また、画像処理部123における画像処理として、術野画像における鏡面反射成分を除去する処理を行うこともできる。
一般的に眼科顕微鏡では、同軸照明を用いていることもあり、鏡面反射成分が術野の中央部に存在する。これは、眼科光学顕微鏡でも術野の視認性低下につながっていたが、眼科ビデオ顕微鏡の場合でも白飛びの発生により術野の情報が消えることが生じ得る。
顕微鏡システム101では、同軸照明画像においては、例えば図14に示すように同軸照明光の鏡面反射のみが存在し、斜照明画像においては、例えば図15に示すように斜照明光の鏡面反射のみが存在する。また、術野画像には、例えば図16に示すように同軸照明光と斜照明光の鏡面反射が存在する。なお、図14乃至図16において、図4における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
例えば図14は同軸照明画像を示している。この例では同軸照明画像の略中央における矢印Q51に示す部分に、同軸照明光の角膜表面等での鏡面反射により白飛びまたは白飛びに近い輝度の領域があり、その領域における視認性が低下している。以下、鏡面反射によって白飛びが生じているか、または白飛びに近い輝度となっている領域を、特に鏡面反射領域とも称することとする。
同様に、図15は斜照明画像を示しており、この例では斜照明画像の略中央における矢印Q61に示す部分に、斜照明光の角膜表面等での鏡面反射により白飛びまたは白飛びに近い輝度の鏡面反射領域があり、その鏡面反射領域における視認性が低下している。
したがって、単純にこれらの同軸照明画像と斜照明画像を混合して術野画像を生成しても、例えば図16に示すように同軸照明光や斜照明光の鏡面反射の影響、つまり鏡面反射成分は残ったままとなる。図16は術野画像を示しており、この例では術野画像の略中央における矢印Q71に示す部分に、同軸照明光および斜照明光の角膜表面等での鏡面反射による鏡面反射領域があり、それらの鏡面反射領域における視認性が低下している。
しかし、同軸照明画像においては同軸照明光の鏡面反射領域のみが存在し、斜照明光の鏡面反射領域は存在しない。同様に、斜照明画像においては斜照明光の鏡面反射領域のみが存在し、同軸照明光の鏡面反射領域は存在しない。
したがって、画像処理部123では、同軸照明画像の画像情報を用いれば、斜照明画像の鏡面反射領域における鏡面反射の影響を除去することができる。逆に、斜照明画像の画像情報を用いれば、同軸照明画像の鏡面反射領域における鏡面反射の影響を除去することができる。これらのことから、画像処理部123では、鏡面反射の影響を低減させた、つまり鏡面反射の成分を除去した術野画像を得ることができる。
具体的には、例えば同軸照明画像と斜照明画像のうち、一方の画像のみで白飛びの輝度値、または白飛びに近い輝度値となっている領域、すなわち輝度値が閾値以上である領域が鏡面反射領域とされる。
同軸照明画像と斜照明画像から鏡面反射領域が検出されると、その後、鏡面反射領域の検出結果に応じて領域ごとに混合比率が決定され、混合処理により術野画像が生成される。
例えば同軸照明画像と斜照明画像がともに可視光画像であるとする。
この場合、例えば同軸照明画像に鏡面反射領域がある部分については、同軸照明画像の混合比率は略0とされ、実質的に斜照明画像のみが用いられて術野画像が生成される。同様に、例えば斜照明画像に鏡面反射領域がある部分については、斜照明画像の混合比率は略0とされ、実質的に同軸照明画像のみが用いられて術野画像が生成される。これにより、鏡面反射領域のない術野画像を得ることができる。
また、例えば同軸照明画像が可視光画像であり、斜照明画像が赤外光画像であるとする。
この場合、例えば同軸照明画像に鏡面反射領域がある部分については、同軸照明画像のY画像の混合比率は略0とされ、実質的に斜照明画像のみが用いられて混合輝度画像が生成される。同様に、例えば斜照明画像に鏡面反射領域がある部分については、斜照明画像の混合比率は略0とされ、実質的に同軸照明画像のY画像のみが用いられて混合輝度画像が生成される。そして、得られた混合輝度画像と、同軸照明画像のCb画像およびCr画像とから術野画像が生成される。これにより、鏡面反射領域のない術野画像を得ることができる。
また、鏡面反射領域が検出された場合、鏡面反射領域のみデジタルゲインを下げることにより、白飛び自体を発生しにくくする画像処理も可能である。
例えば画像処理部123において、同軸照明画像および斜照明画像に対して、デジタルゲインを乗算してゲイン調整を行った後、混合処理等が行われる場合には、同軸照明画像や斜照明画像の鏡面反射領域のデジタルゲインを減少させることで白飛びの発生を抑制することができる。
さらに、例えば顕微鏡制御部124が画像処理部123による鏡面反射領域の検出結果に基づいて、鏡面反射領域に対応する画素列(ライン)の露光時間を短くするなどの露出制御を行うようにしてもよい。
ここで、図17のフローチャートを参照して、鏡面反射成分、すなわち白飛びを低減させた術野画像を生成するときに顕微鏡システム101により行われる鏡面反射成分除去処理について説明する。なお、ステップS41の処理は図13のステップS11の処理と同様であるので、その説明は省略する。
ステップS42において、画像処理部123は、画像取得部121から供給された同軸照明画像および斜照明画像に基づいて、同軸照明画像から鏡面反射領域を検出する。
すなわち、画像処理部123は、同軸照明画像と斜照明画像とを画素ごとに比較して、同軸照明画像における画素の輝度値が閾値以上であるが、その画素と同じ位置関係にある斜照明画像の画素の輝度値が閾値未満である画素の領域を鏡面反射領域として検出する。
ステップS43において、画像処理部123は、画像取得部121から供給された同軸照明画像および斜照明画像に基づいて、斜照明画像から鏡面反射領域を検出する。
すなわち、画像処理部123は、同軸照明画像と斜照明画像とを画素ごとに比較して、斜照明画像における画素の輝度値が閾値以上であるが、その画素と同じ位置関係にある同軸照明画像の画素の輝度値が閾値未満である画素の領域を鏡面反射領域として検出する。
なお、より詳細にはステップS42とステップS43の処理は同時に行われる。また、同軸照明画像と斜照明画像の同じ位置関係の画素の輝度値の差分値が閾値以上となる領域を鏡面反射領域とするなど、鏡面反射領域の検出方法はどのような方法であってもよい。
ステップS44において、画像処理部123は、同軸照明画像および斜照明画像の鏡面反射領域の検出結果に基づいて、鏡面反射成分を低減させた術野画像を生成する。
すなわち、例えば上述したように、画像処理部123は同軸照明画像で鏡面反射領域となっている領域についてはほぼ斜照明画像のみが用いられ、斜照明画像で鏡面反射領域となっている領域についてはほぼ同軸照明画像のみが用いられるように、領域ごとに混合比率を決定する。そして、画像処理部123は、決定した混合比率に基づいて同軸照明画像と斜照明画像とを混合し、鏡面反射成分が低減(除去)された術野画像を生成する。
なお、混合処理では、図13を参照して説明したように合成モードや物体認識結果なども考慮されて術野画像が生成されるようにしてもよい。また、同軸照明画像や斜照明画像に対して適宜、エッジ強調処理が行われるようにしてもよい。
術野画像が得られると、画像処理部123は、得られた術野画像を表示部112に供給して表示させたり、画像記録部122に供給して記録させたりして鏡面反射成分除去処理は終了する。
以上のようにして顕微鏡システム101は、同軸照明画像と斜照明画像を取得して鏡面反射領域を検出し、その検出結果に基づいて術野画像を生成する。このようにすることで、鏡面反射が少なく視認性の高い術野画像を得ることができ、その結果、術者は良好な術野で快適に手術を行うことができる。
〈瞳孔領域検出処理の説明〉
さらに、画像処理部123では、同軸照明と斜照明という互いに異なる照明方法で得られた同軸照明画像と斜照明画像とを用いて高精度に眼の部位を検出することができる。以下では、眼の特定の部位として瞳孔領域を検出する例について説明する。
例えば、図3に示した例のように、徹照を得られる同軸照明では瞳孔内が明るく観察されるのに対して、例えば図2に示した例のように、徹照を得られない斜照明では瞳孔内が周囲に対して暗く観察される。しがって、同軸照明画像上では瞳孔の領域は明るくなっており、斜照明画像上では瞳孔の領域は暗くなっている。
画像処理部123では、このような特性を利用することで、同軸照明画像と斜照明画像とを比較して簡単かつ高精度に瞳孔領域を検出することができる。
具体的には、例えば2次元のxy座標系により表される位置を(x,y)としたときに、同軸照明画像上の位置(x,y)にある画素の輝度値をYP(x,y)と記し、斜照明画像上の位置(x,y)にある画素の輝度値をYS(x,y)と記すこととする。
また、同軸照明画像の感度の差を補正する係数をαとし、斜照明画像の感度の差を補正する係数をβとする。さらに、位置(x,y)における同軸照明画像と斜照明画像との輝度差をI(x,y)とすると、この輝度差I(x,y)は、次式(1)により求めることができる。
I(x,y)=α×YP(x,y)−β×YS(x,y) ・・・(1)
上述したように同軸照明画像上では瞳孔領域は明るくなっており、斜照明画像上では瞳孔領域は暗くなっているため、瞳孔領域では瞳孔外の領域と比較すると輝度差I(x,y)が十分に大きな値となるはずである。そこで、例えば輝度差I(x,y)を閾値処理することで、簡単に瞳孔領域を検出することができる。この場合、輝度差I(x,y)が予め定められた閾値以上となる領域が瞳孔領域とされる。
例えば白内障の手術では、瞳孔内の領域は術野の中心となる領域であり、その術野の明るさも手術の進行(工程)によって変化する。
そこで、例えば白内障手術時においては、画像処理部123で瞳孔領域が検出されると、検出された瞳孔領域の部分に合わせた露出制御を行ったり、常に瞳孔領域が術野画像の中心となるように撮影位置を制御したりするなどの撮影制御を行うことができる。このようにすることで、術者は、適切な明るさの術野を得ることができたり、画像中心に瞳孔領域が位置する術野画像を観察したりすることができ、快適に手術を行うことができる。
また、その他、例えば白内障手術時の眼内レンズ挿入の工程では、術野画像の瞳孔領域に重畳させて瞳孔領域の縁とともにレンズ方向等を示すガイド情報を表示させたり、眼球に対するレンズ方向を特定するためのトラッキング処理等に瞳孔領域の検出結果を用いたりするようにしてもよい。
ここで、図18のフローチャートを参照して、瞳孔領域を検出するときに顕微鏡システム101により行われる瞳孔領域検出処理について説明する。なお、ステップS71の処理は図13のステップS11の処理と同様であるので、その説明は省略する。
ステップS72において、画像処理部123は、画像取得部121から供給された同軸照明画像および斜照明画像に基づいて瞳孔領域の検出処理を行う。
すなわち、画像処理部123は、上述した式(1)を計算するとともに、その結果得られた輝度差I(x,y)と閾値とを比較することで瞳孔領域を検出する。
ステップS73において、画像処理部123は、ステップS72における検出処理の結果、瞳孔領域が検出されたか否かを判定する。
ステップS73において検出されなかったと判定された場合、その後、処理はステップS71に戻り、上述した処理が繰り返し行われる。
これに対して、ステップS73において瞳孔領域が検出されたと判定された場合、画像処理部123は瞳孔領域の検出結果を顕微鏡制御部124に供給し、処理はステップS74へと進む。
ステップS74において、顕微鏡制御部124は、画像処理部123から供給された瞳孔領域の検出結果に応じた制御を行う。
例えば顕微鏡制御部124は、同軸照明画像や斜照明画像における瞳孔領域が適切な明るさとなるように、画像取得部121による同軸照明画像および斜照明画像の撮影時の露出制御を行う。すなわち、撮影時における露光時間などの制御が行われる。
また、例えば顕微鏡制御部124は、同軸照明画像や斜照明画像における画像中心の位置に瞳孔領域が位置するように、物理的に光学系を傾けたり平行移動させたりするなどして画像取得部121による撮影位置(撮影方向)を制御する。
その他、例えば顕微鏡制御部124が画像取得部121を制御して、同軸照明画像や斜照明画像における画像中心の位置に瞳孔領域が位置するように、撮影された画像のトリミングを行わせて同軸照明画像や斜照明画像を生成させるようにしてもよい。
さらに、画像処理部123が瞳孔領域の検出結果に応じて、瞳孔領域の縁部分(境界部分)を示す画像や、瞳孔領域位置における眼内レンズの方向を示す画像をガイド情報として生成し、そのガイド情報を術野画像に重畳させる画像処理を行うようにしてもよい。この場合、画像処理部123は、ガイド情報が重畳された術野画像を表示部112に供給して表示させる。その他、画像処理部123が瞳孔領域の検出結果に基づいて、瞳孔領域等の眼の特定部位のトラッキング処理を行うようにしてもよい。
ステップS75において、画像処理部123は、処理を終了するか否かを判定する。ステップS75において、まだ処理を終了しないと判定された場合、処理はステップS71に戻り、上述した処理が繰り返し行われる。
これに対してステップS75において、処理を終了すると判定された場合、瞳孔領域検出処理は終了する。
以上のようにして顕微鏡システム101は、同軸照明画像と斜照明画像を取得して瞳孔領域を検出し、その検出結果に基づいて撮影制御等の制御を行う。このようにすることで、例えば適切な明るさの術野画像を得ることができたり、術野の中心で瞳孔を観察することができたりして、術者は良好な術野で快適に手術を行うことができる。
なお、ここでは、眼の特定部位として瞳孔領域を検出する例について説明したが、同軸照明画像と斜照明画像から他のどのような部位を検出するようにしてもよい。
〈波長の特性を活かした情報取得と情報提示について〉
さらに、例えば画像取得部121が図7に示した構成とされる場合には、赤外光画像から得られる情報を利用した画像処理を行うこともできる。
すなわち、例えば赤外光などの可視光とは異なる波長の光で画像を撮影すると、撮影された画像から、可視光画像からは得られない情報を得ることができるので、そのようにして得られた情報を画像処理に利用することができる。
具体的には、例えば「第27回日本緑内障学会 抄録集 赤外線画像を用いてニードリングによる濾過胞再建術の術前に、強膜弁の位置決めを行った4例」によると、赤外光で撮影すると白目上にある緑内障のトラベクレクトミー手術で作成した、房水の流出路の視認性が向上するという報告がなされている。
顕微鏡システム101では、画像取得部121を例えば図7に示した構成とすれば、赤外光画像である斜照明画像を得ることができる。そのため、この斜照明画像と同軸照明画像とを混合して術野画像を生成すれば、房水の流出路が設けられた強膜弁部分の視認性を向上させることができ、より良好な術野を得ることができる。したがって、術者はこのような術野画像を見ながら手術を行うことで、より快適に手術を行うことができる。
なお、この場合、画像処理部123において、例えば斜照明画像から強膜弁部分や房水の流出路部分を検出し、強膜弁部分や房水の流出路部分の領域において斜照明画像の混合比率がより高くなるように、領域ごとに混合比率を決定するようにしてもよい。
また、画像処理部123において、赤外光画像である斜照明画像から強膜弁の縁を検出し、検出された縁部分を示す情報を同軸照明画像に重畳するなどして、ガイド情報が重畳された術野画像とする画像処理を行うこともできる。これにより、患者の眼球を染色することなく適切なガイド情報を提示することができ、術者はより快適に手術を行うことができる。
以上のように、顕微鏡システム101によれば、同軸照明画像と斜照明画像とをそれぞれ分離して取得することで、その後の画像処理によって簡単に良好な術野を得たり、より適切な撮影制御を行ったりすることができ、術者が快適に手術を行うことができるようになる。例えば顕微鏡システム101によれば、以下の(1)乃至(4)等の利点を得ることができる。
利点(1):鏡面反射成分の除去
例えば図17を参照して説明した鏡面反射成分除去処理を行えば、術野の中心で邪魔となる鏡面反射がなくなるため、視認性が向上し、執刀に集中できるようになる。
利点(2):領域ごとに照明の影響度合いを変えた術野画像の生成
例えば図13を参照して説明した術野画像生成処理を行えば、シャドーコントラストによる立体感と徹照によるコントラストが両立した術野画像を得ることができ、執刀がしやすくなる。また、混合処理での混合比率を適切に決定することで、観察者ごとに重要な情報を強調した術野画像を得ることができるようになる。
利点(3):瞳孔領域の検出
例えば図18を参照して説明した瞳孔領域検出処理を行えば、容易に瞳孔領域を検出することができ、また、その検出結果を用いて露出制御や撮影位置の制御などを行うことで、良好な術野を得ることができる。
利点(4):特定波長成分による情報取得
例えば上述した房水の流出路の視認性向上の例のように、赤外光などの可視光とは異なる波長の画像を撮影することで、可視光画像からは得られない、手術に有用な情報を得ることができる。このようにして得られた情報を適宜、術野画像に重畳表示することで、術者はより快適に手術を行うことができるようになる。
〈コンピュータの構成例〉
ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどが含まれる。
図19は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、入力部506、出力部507、記録部508、通信部509、及びドライブ510が接続されている。
入力部506は、キーボード、マウス、マイクロホン、撮像素子などよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記録部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインターフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体511を駆動する。
以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブル記録媒体511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、本明細書中に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
さらに、本技術は、以下の構成とすることも可能である。
(1)
手術対象の眼に対して同軸照明を行うことで得られる同軸照明画像と、前記眼に対して斜照明を行うことで得られる斜照明画像を取得する画像取得部と、
前記同軸照明画像および前記斜照明画像に基づいて前記眼の術野画像を生成するか、または前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて特定領域を検出する画像処理部と
を備える画像処理装置。
(2)
前記同軸照明の同軸照明光と、前記斜照明の斜照明光とは互いに異なる波長の光であり、
前記同軸照明と前記斜照明が同時に行われるように制御する制御部をさらに備える
(1)に記載の画像処理装置。
(3)
前記画像取得部は、前記同軸照明光と前記斜照明光とを光学的に分離させて、前記同軸照明画像および前記斜照明画像を取得する
(2)に記載の画像処理装置。
(4)
前記画像取得部は、前記同軸照明光と前記斜照明光を受光して得られたデータから、前記同軸照明画像および前記斜照明画像を取得する
(2)に記載の画像処理装置。
(5)
前記同軸照明と前記斜照明が交互に行われるように制御する制御部をさらに備え、
前記画像取得部は、前記同軸照明画像と前記斜照明画像とを時分割で取得する
(1)に記載の画像処理装置。
(6)
前記画像処理部は、前記同軸照明画像と前記斜照明画像とを所定の混合比率で混合して前記術野画像を生成する
(1)乃至(5)の何れか一項に記載の画像処理装置。
(7)
前記画像処理部は、領域ごとに前記混合比率を決定する
(6)に記載の画像処理装置。
(8)
前記画像処理部は、前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて、術具の領域または前記眼の特定部位の領域を検出し、その検出結果に基づいて領域ごとに前記混合比率を決定する
(7)に記載の画像処理装置。
(9)
前記画像処理部は、前記術野画像の用途および前記眼の手術の工程の少なくとも何れか一方に基づいて前記混合比率を決定する
(6)乃至(8)の何れか一項に記載の画像処理装置。
(10)
前記画像処理部は、前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に対して強調処理を行ってから前記術野画像を生成する
(6)乃至(9)の何れか一項に記載の画像処理装置。
(11)
前記画像処理部は、前記同軸照明画像および前記斜照明画像のそれぞれについて、前記術野画像の用途および前記眼の手術の工程の少なくとも何れか一方に基づいて前記強調処理を行うかを決定する
(10)に記載の画像処理装置。
(12)
前記画像処理部は、前記同軸照明画像および前記斜照明画像に基づいて鏡面反射領域を検出し、その検出結果に基づいて鏡面反射成分が低減された前記術野画像を生成する
(1)乃至(11)の何れか一項に記載の画像処理装置。
(13)
前記画像処理部は、前記特定領域として前記眼の特定部位の領域を検出する
(1)乃至(12)の何れか一項に記載の画像処理装置。
(14)
前記画像処理部は、前記同軸照明画像と前記斜照明画像とを比較して、前記眼の瞳孔領域を検出する
(13)に記載の画像処理装置。
(15)
前記特定部位の領域の検出結果に基づいて、前記同軸照明画像および前記斜照明画像の撮影制御を行う制御部をさらに備える
(13)または(14)に記載の画像処理装置。
(16)
前記制御部は、前記撮影制御として露出制御または撮影位置の制御を行う
(15)に記載の画像処理装置。
(17)
前記画像処理部は、前記眼の前記特定部位の領域の検出結果に基づいて、前記眼の手術の補助のためのガイド情報を生成する
(13)乃至(16)の何れか一項に記載の画像処理装置。
(18)
手術対象の眼に対して同軸照明を行うことで得られる同軸照明画像と、前記眼に対して斜照明を行うことで得られる斜照明画像を取得し、
前記同軸照明画像および前記斜照明画像に基づいて前記眼の術野画像を生成するか、または前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて特定領域を検出する
ステップを含む画像処理方法。
(19)
手術対象の眼に対して同軸照明光を照射し、同軸照明を行う同軸照明光源と、
前記眼に対して斜照明光を照射し、斜照明を行う斜照明光源と、
前記同軸照明を行うことで得られる同軸照明画像と、前記斜照明を行うことで得られる斜照明画像を取得する画像取得部と、
前記同軸照明画像および前記斜照明画像に基づいて前記眼の術野画像を生成するか、または前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて特定領域を検出する画像処理部と
を備える手術顕微鏡システム。
101 顕微鏡システム, 111 眼科ビデオ顕微鏡, 121 画像取得部, 122 画像記録部, 123 画像処理部, 124 顕微鏡制御部

Claims (19)

  1. 手術対象の眼に対して同軸照明を行うことで得られる同軸照明画像と、前記眼に対して斜照明を行うことで得られる斜照明画像を取得する画像取得部と、
    前記同軸照明画像および前記斜照明画像に基づいて前記眼の術野画像を生成するか、または前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて特定領域を検出する画像処理部と
    を備える画像処理装置。
  2. 前記同軸照明の同軸照明光と、前記斜照明の斜照明光とは互いに異なる波長の光であり、
    前記同軸照明と前記斜照明が同時に行われるように制御する制御部をさらに備える
    請求項1に記載の画像処理装置。
  3. 前記画像取得部は、前記同軸照明光と前記斜照明光とを光学的に分離させて、前記同軸照明画像および前記斜照明画像を取得する
    請求項2に記載の画像処理装置。
  4. 前記画像取得部は、前記同軸照明光と前記斜照明光を受光して得られたデータから、前記同軸照明画像および前記斜照明画像を取得する
    請求項2に記載の画像処理装置。
  5. 前記同軸照明と前記斜照明が交互に行われるように制御する制御部をさらに備え、
    前記画像取得部は、前記同軸照明画像と前記斜照明画像とを時分割で取得する
    請求項1に記載の画像処理装置。
  6. 前記画像処理部は、前記同軸照明画像と前記斜照明画像とを所定の混合比率で混合して前記術野画像を生成する
    請求項1に記載の画像処理装置。
  7. 前記画像処理部は、領域ごとに前記混合比率を決定する
    請求項6に記載の画像処理装置。
  8. 前記画像処理部は、前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて、術具の領域または前記眼の特定部位の領域を検出し、その検出結果に基づいて領域ごとに前記混合比率を決定する
    請求項7に記載の画像処理装置。
  9. 前記画像処理部は、前記術野画像の用途および前記眼の手術の工程の少なくとも何れか一方に基づいて前記混合比率を決定する
    請求項6に記載の画像処理装置。
  10. 前記画像処理部は、前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に対して強調処理を行ってから前記術野画像を生成する
    請求項6に記載の画像処理装置。
  11. 前記画像処理部は、前記同軸照明画像および前記斜照明画像のそれぞれについて、前記術野画像の用途および前記眼の手術の工程の少なくとも何れか一方に基づいて前記強調処理を行うかを決定する
    請求項10に記載の画像処理装置。
  12. 前記画像処理部は、前記同軸照明画像および前記斜照明画像に基づいて鏡面反射領域を検出し、その検出結果に基づいて鏡面反射成分が低減された前記術野画像を生成する
    請求項1に記載の画像処理装置。
  13. 前記画像処理部は、前記特定領域として前記眼の特定部位の領域を検出する
    請求項1に記載の画像処理装置。
  14. 前記画像処理部は、前記同軸照明画像と前記斜照明画像とを比較して、前記眼の瞳孔領域を検出する
    請求項13に記載の画像処理装置。
  15. 前記特定部位の領域の検出結果に基づいて、前記同軸照明画像および前記斜照明画像の撮影制御を行う制御部をさらに備える
    請求項13に記載の画像処理装置。
  16. 前記制御部は、前記撮影制御として露出制御または撮影位置の制御を行う
    請求項15に記載の画像処理装置。
  17. 前記画像処理部は、前記眼の前記特定部位の領域の検出結果に基づいて、前記眼の手術の補助のためのガイド情報を生成する
    請求項13に記載の画像処理装置。
  18. 手術対象の眼に対して同軸照明を行うことで得られる同軸照明画像と、前記眼に対して斜照明を行うことで得られる斜照明画像を取得し、
    前記同軸照明画像および前記斜照明画像に基づいて前記眼の術野画像を生成するか、または前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて特定領域を検出する
    ステップを含む画像処理方法。
  19. 手術対象の眼に対して同軸照明光を照射し、同軸照明を行う同軸照明光源と、
    前記眼に対して斜照明光を照射し、斜照明を行う斜照明光源と、
    前記同軸照明を行うことで得られる同軸照明画像と、前記斜照明を行うことで得られる斜照明画像を取得する画像取得部と、
    前記同軸照明画像および前記斜照明画像に基づいて前記眼の術野画像を生成するか、または前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて特定領域を検出する画像処理部と
    を備える手術顕微鏡システム。
JP2018554921A 2016-12-06 2017-11-24 画像処理装置および方法、並びに手術顕微鏡システム Pending JPWO2018105411A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016236708 2016-12-06
JP2016236708 2016-12-06
PCT/JP2017/042152 WO2018105411A1 (ja) 2016-12-06 2017-11-24 画像処理装置および方法、並びに手術顕微鏡システム

Publications (1)

Publication Number Publication Date
JPWO2018105411A1 true JPWO2018105411A1 (ja) 2019-10-24

Family

ID=62491445

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018554921A Pending JPWO2018105411A1 (ja) 2016-12-06 2017-11-24 画像処理装置および方法、並びに手術顕微鏡システム

Country Status (4)

Country Link
US (1) US20190328225A1 (ja)
EP (1) EP3553584A4 (ja)
JP (1) JPWO2018105411A1 (ja)
WO (1) WO2018105411A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3773149B1 (en) * 2018-06-20 2023-11-01 Alcon Inc. Auxiliary surgical field visualization system
JP2020130607A (ja) * 2019-02-20 2020-08-31 ソニー株式会社 制御装置、眼科用顕微鏡システム、眼科用顕微鏡及び画像処理装置
JP7417981B2 (ja) * 2019-10-15 2024-01-19 株式会社トーメーコーポレーション 眼科装置
CN111317439A (zh) * 2020-04-14 2020-06-23 上海美沃精密仪器股份有限公司 现实增强显微镜及其现实增强方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05123297A (ja) * 1991-11-01 1993-05-21 Topcon Corp 眼科装置
JPH08164155A (ja) * 1994-12-14 1996-06-25 Nikon Corp 眼科用照明装置
JPH09197289A (ja) * 1996-01-23 1997-07-31 Nikon Corp 顕微鏡
JPH10133122A (ja) * 1996-10-25 1998-05-22 Nikon Corp 手術用顕微鏡
JP2001017459A (ja) * 1999-07-02 2001-01-23 Topcon Corp 手術用顕微鏡
JP2003177327A (ja) * 2001-09-07 2003-06-27 Leica Microsystems (Schweiz) Ag ステレオ手術顕微鏡の0°照明及び斜照明を同時に行うためのプリズム構造体
JP2010181688A (ja) * 2009-02-06 2010-08-19 Yokogawa Electric Corp 共焦点顕微鏡装置
JP2013160664A (ja) * 2012-02-07 2013-08-19 Renesas Electronics Corp 半導体装置の製造方法、及び、検査装置
JP2014233469A (ja) * 2013-06-03 2014-12-15 株式会社ニデック レーザ治療装置およびレーザ治療補助プログラム
JP2015127770A (ja) * 2013-12-27 2015-07-09 株式会社キーエンス 拡大観察装置、拡大画像観察方法、拡大画像観察プログラム及びコンピュータで読み取り可能な記録媒体
JP2016112358A (ja) * 2014-12-18 2016-06-23 ソニー株式会社 情報処理装置、手術顕微鏡システム及び情報処理方法
JP2016185178A (ja) * 2015-03-27 2016-10-27 株式会社トプコン 眼科用顕微鏡システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016073409A (ja) 2014-10-03 2016-05-12 ソニー株式会社 情報処理装置、情報処理方法及び手術顕微鏡装置
JP6550262B2 (ja) * 2015-05-08 2019-07-24 オリンパス株式会社 顕微鏡システムおよび照明操作装置

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05123297A (ja) * 1991-11-01 1993-05-21 Topcon Corp 眼科装置
JPH08164155A (ja) * 1994-12-14 1996-06-25 Nikon Corp 眼科用照明装置
JPH09197289A (ja) * 1996-01-23 1997-07-31 Nikon Corp 顕微鏡
JPH10133122A (ja) * 1996-10-25 1998-05-22 Nikon Corp 手術用顕微鏡
JP2001017459A (ja) * 1999-07-02 2001-01-23 Topcon Corp 手術用顕微鏡
JP2003177327A (ja) * 2001-09-07 2003-06-27 Leica Microsystems (Schweiz) Ag ステレオ手術顕微鏡の0°照明及び斜照明を同時に行うためのプリズム構造体
JP2010181688A (ja) * 2009-02-06 2010-08-19 Yokogawa Electric Corp 共焦点顕微鏡装置
JP2013160664A (ja) * 2012-02-07 2013-08-19 Renesas Electronics Corp 半導体装置の製造方法、及び、検査装置
JP2014233469A (ja) * 2013-06-03 2014-12-15 株式会社ニデック レーザ治療装置およびレーザ治療補助プログラム
JP2015127770A (ja) * 2013-12-27 2015-07-09 株式会社キーエンス 拡大観察装置、拡大画像観察方法、拡大画像観察プログラム及びコンピュータで読み取り可能な記録媒体
JP2016112358A (ja) * 2014-12-18 2016-06-23 ソニー株式会社 情報処理装置、手術顕微鏡システム及び情報処理方法
JP2016185178A (ja) * 2015-03-27 2016-10-27 株式会社トプコン 眼科用顕微鏡システム

Also Published As

Publication number Publication date
EP3553584A4 (en) 2020-01-01
US20190328225A1 (en) 2019-10-31
EP3553584A1 (en) 2019-10-16
WO2018105411A1 (ja) 2018-06-14

Similar Documents

Publication Publication Date Title
US20210353144A1 (en) Wide Field Fundus Camera with Auto-Montage at A Single Alignment
US9320428B2 (en) Programmable multispectral illumination system for surgery and visualization of light-sensitive tissues
US7572009B2 (en) Method and apparatus for processing an eye fundus image
WO2018105411A1 (ja) 画像処理装置および方法、並びに手術顕微鏡システム
EP3257433B1 (en) Ophthalmic imaging device and generation method of ophthalmic synthetic image
Muller et al. Non-mydriatic confocal retinal imaging using a digital light projector
WO2017090549A1 (ja) 眼科撮影装置及び眼科画像表示装置
JP6713297B2 (ja) 眼科装置
JP6739183B2 (ja) 眼科装置
JP2021164494A (ja) 医療用観察システム、医療用観察装置、及び医療用観察装置の駆動方法
JP5508140B2 (ja) 眼底撮像装置及びその処理方法
WO2019203313A1 (ja) 画像処理方法、プログラム、及び画像処理装置
JPWO2020111104A1 (ja) 眼科装置
JPWO2020111103A1 (ja) 眼科装置
WO2019065219A1 (ja) 眼科装置
JP7051042B2 (ja) 眼科撮影装置
JP5160958B2 (ja) 眼底撮影装置及び眼底画像処理装置
JP6912554B2 (ja) 眼科装置
JP7037904B2 (ja) 眼科撮影装置および画像処理プログム
JP6958367B2 (ja) 眼底撮影装置
WO2022177028A1 (ja) 画像処理方法、画像処理装置、及びプログラム
JP2022059765A (ja) 眼科装置、眼科装置の制御方法、及プログラム
JP2023113411A (ja) 信号処理装置、該信号処理装置を用いた眼科撮影装置、該信号処理装置の作動方法、及びプログラム
JP2022077565A (ja) 眼科撮影装置
JP2020162928A (ja) 眼底撮影装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220511

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220920