JP2016112358A - 情報処理装置、手術顕微鏡システム及び情報処理方法 - Google Patents

情報処理装置、手術顕微鏡システム及び情報処理方法 Download PDF

Info

Publication number
JP2016112358A
JP2016112358A JP2014256040A JP2014256040A JP2016112358A JP 2016112358 A JP2016112358 A JP 2016112358A JP 2014256040 A JP2014256040 A JP 2014256040A JP 2014256040 A JP2014256040 A JP 2014256040A JP 2016112358 A JP2016112358 A JP 2016112358A
Authority
JP
Japan
Prior art keywords
image
unit
enlargement
information processing
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014256040A
Other languages
English (en)
Inventor
良知 高橋
Yoshitomo Takahashi
良知 高橋
大月 知之
Tomoyuki Otsuki
知之 大月
竜己 坂口
Tatsuki Sakaguchi
竜己 坂口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014256040A priority Critical patent/JP2016112358A/ja
Priority to PCT/JP2015/005995 priority patent/WO2016098300A1/ja
Priority to EP15869510.6A priority patent/EP3235477B1/en
Priority to US15/532,074 priority patent/US10420468B2/en
Publication of JP2016112358A publication Critical patent/JP2016112358A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/15Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/1005Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring distances inside the eye, e.g. thickness of the cornea
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/13Ophthalmic microscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/0012Surgical microscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/254User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • A61B3/112Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring diameter of pupils
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Robotics (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Vascular Medicine (AREA)
  • Eye Examination Apparatus (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

【課題】高速かつ高精度に眼科手術のためのナビゲーション情報を提示することが可能な情報処理装置を提供すること。【解決手段】本技術に係る情報処理装置は、拡大率取得部と、画像生成部とを具備する。拡大率取得部は、施術対象の眼が撮影された画像である参照画像と、参照画像が撮影された時刻とは異なる時刻に施術対象の眼が撮影された画像である対象画像について、対象画像の参照画像に対する拡大率を取得する。画像生成部は、拡大率取得部によって取得された拡大率に基づいて、眼の施術をガイドするナビゲーション情報を含むナビゲーション画像を生成する。【選択図】図3

Description

本技術は、眼科手術をガイドする情報処理装置、手術顕微鏡システム及び情報処理方法に関する。
眼科手術等で用いられる施術ガイド装置は、施術対象の眼を撮影した画像にナビゲーション情報を重畳させ、施術者に提示する(例えば、特許文献1参照)。ナビゲーション情報は例えば術具の挿入位置や眼内レンズの挿入位置を示す情報である。具体的には、施術ガイド装置は、術前に検査装置により撮影された眼の画像(以下、検査画像)を施術者に提示する。施術者は検査画像を参照して術具の挿入位置や眼内レンズの向き等を検討し、術前計画として検査画像に対して指定する。
施術ガイド装置は、施術開始前に手術顕微鏡を介して撮像された施術対象の眼の画像(以下、手術画像)と検査画像を比較し、両画像の位置合わせ(レジストレーション)を行った上で検査画像において指定された術前計画をナビゲーション情報として手術画像に重畳させ、施術者に提示する。
施術が開始されると、施術ガイド装置は、眼の動きをトラッキング処理(連続又は任意のフレーム間の位置合わせ)により追跡し、眼の動きに応じてナビゲーション情報を更新する。施術者はナビゲーション情報を参照しながら施術を行うことにより、経験不足を補い、あるいは手術の安全性や術後QoL(quality of life)を向上させることが可能となる。
特開2014−121643号公報
上記のように、ナビゲーション情報は、検査画像と手術画像の間での位置合わせや手術画像同士での位置合わせに基づいてその配置が決定される。ここで、画像間においては回転やスケール変化、照明変化等が生じる場合がある。施術ガイド装置は、このような撮像条件の変化に応じて高速かつ高精度にナビゲーション情報を更新する必要がある。しかしながら、位置合わせ処理は計算量も多く、処理速度と精度を両立させることは容易ではない。
以上のような事情に鑑み、本技術の目的は、高速かつ高精度に眼科手術のためのナビゲーション情報を提示することが可能な情報処理装置を提供することにある。
上記目的を達成するため、本技術の一形態に係る情報処理装置は、拡大率取得部と、画像生成部とを具備する。
上記拡大率取得部は、施術対象の眼が撮影された画像である参照画像と、上記参照画像が撮影された時刻とは異なる時刻に上記眼が撮影された画像である対象画像について、上記対象画像の上記参照画像に対する拡大率を取得する。
上記画像生成部は、上記拡大率取得部によって取得された拡大率に基づいて、上記眼の施術をガイドするナビゲーション情報を含むナビゲーション画像を生成する。
この構成によれば、参照画像と対象画像の拡大率に基づいてナビゲーション情報を含むナビゲーション画像が生成される。参照画像と対象画像の拡大率は、これらの画像を撮影する撮影装置(手術顕微鏡等)の拡大倍率や撮影装置と眼の距離等によって変動するが、本情報処理装置は拡大率の変動をナビゲーション画像の生成に利用することが可能である。
上記拡大率取得部は、上記参照画像において検出された物体の像の大きさと、上記対象画像において検出された上記物体の像の大きさの比率に基づいて上記拡大率を取得してもよい。
この構成によれば、拡大率取得部は、参照画像と対象画像に含まれる物体(眼の角膜や
瞳孔、施術者により眼に施されたマーカー等)の大きさの比率を利用して参照画像と対象画像の拡大率を取得することができる。
上記拡大率取得部は、上記参照画像が撮影されたときの撮影装置と上記眼の距離と、上記対象画像が撮影されたときの撮影装置と上記眼の距離の比率に基づいて上記拡大率を取得してもよい。
この構成によれば、拡大率取得部は、撮影装置から取得した撮影装置と施術対象の眼の距離を利用して参照画像と対象画像の拡大率を取得することができる。
上記拡大率取得部は、上記参照画像が撮影されたときの撮影装置のズーム率と、上記対象画像が撮影されたときの撮影装置のズーム率の比率に基づいて上記拡大率を取得してもよい。
この構成によれば、拡大率取得部は、撮影装置から取得した撮影装置のズーム率を利用して参照画像と対象画像の拡大率を取得することができる。
上記拡大率取得部は、上記参照画像が撮影されたときの撮影装置と上記眼の距離及び撮影装置のズーム率と、上記対象画像が撮影されたときの撮影装置と上記眼の距離及び撮影装置のズーム率の比率に基づいて上記拡大率を取得してもよい。
この構成によれば、拡大率取得部は、撮影装置から取得した撮影装置と施術対象の眼の距離と撮影装置のズーム率の両者を利用して参照画像と対象画像の拡大率を取得することができる。
上記画像生成部は、上記拡大率を利用して上記参照画像と上記対象画像の画像マッチングを行い、上記画像マッチングの結果を用いて上記ナビゲーション画像を生成してもよい。
画像マッチングは、マッチングの対象である参照画像と対象画像の拡大率が予め判明していれば、より高速かつ高精度に実行することが可能となる。上記構成によれば、画像生成部は拡大率取得部によって取得された拡大率を利用して高速かつ高精度に画像マッチングを実行することが可能となる。
上記画像生成部は、上記参照画像と上記対象画像のそれぞれにおいて特徴点を検出する特徴点検出部を備え、
上記特徴点検出部は、上記拡大率を利用して上記対象画像における特徴点を検出してもよい。
この構成によれば、特徴点検出部は、予め判明している拡大率を利用して対象画像における特徴点検出の検出速度を高速化させることが可能である。
上記特徴点検出部は、上記参照画像と上記対象画像のそれぞれに対して平滑化画像を生成するためのガウシアンフィルタのスケール範囲を決定するスケール範囲決定部と、上記参照画像と上記対象画像のそれぞれに対して上記スケール範囲決定部により決定されたスケール範囲でDoG画像を生成するDoG画像生成部とを備え、
上記スケール範囲決定部は、上記対象画像についてのスケール範囲を上記拡大率によって制限してもよい。
画像マッチング手法であるSIFT(Scale-Invariant Feature Transform)においては、画像間のスケール(拡大率)が既知の場合、DoG(Difference of Gaussian)値が極値となる標準偏差を推定することができ、その近傍範囲の標準偏差値のみを探索範囲としてDoG値の極値を探索すればよいため、計算量を削減することが可能である。このため、上記構成によれば、画像間のスケール(拡大率)が未知の場合に比べ、特徴点検出の検出速度を高速化することが可能であり、即ち画像マッチングの速度を高速化することが可能である。
上記画像生成部は、上記参照画像と上記対象画像のそれぞれにおいて検出された特徴点をマッチングする特徴点マッチング部を備え、
上記特徴点マッチング部は、上記拡大率を利用して上記マッチングを行ってもよい。
この構成によれば、特徴点マッチング部は、参照画像と対象画像の特徴点のペアの正誤判定に予め判明している拡大率を利用することができ、特徴点マッチングの精度を向上させることが可能である。
上記特徴点マッチング部は、上記参照画像において検出された特徴点と上記対象画像において検出された特徴点のペアである特徴点ペアを選択する特徴点ペア選択部と、上記特徴点ペアのスケール比率によって上記特徴点ペアの正誤を判定するスケール値比較部とを備え、
上記スケール値比較部は、正判定とするスケール比率を上記拡大率によって制限してもよい。
SIFTにおいては、比較対象の画像においてそれぞれ検出された特徴点を特徴量の相関値を利用してペアとし、特徴点ペアを生成する。ここで、特徴量の相関値は画像中のノイズの影響等により攪乱され、相関値が最大のペアが必ずしも正しいペアではない場合がある。上記構成によれば、特徴点マッチング部は、特徴量の相関値に加え、特徴点ペアのスケール比率を比較することによって特徴点ペアの正誤を判定することができ、画像間のスケールが未知の場合に比べ、特徴点マッチングの精度を向上させることが可能である。
上記画像生成部は、上記参照画像と上記対象画像のそれぞれにおいて特徴点を検出する特徴点検出部と、上記参照画像と上記対象画像のそれぞれにおいて検出された特徴点をマッチングする特徴点マッチング部とを備え、
上記特徴点検出部は、上記拡大率を利用して上記対象画像における特徴点を検出し、
上記特徴点マッチング部は、上記拡大率を利用して上記マッチングを行ってもよい。
上記のように画像生成部は、特徴点検出に拡大率を利用することにより、特徴点検出の速度を向上させ、特徴点マッチングに拡大率を利用することにより、特徴点マッチングの精度を向上させることが可能である。即ち画像生成部は、拡大率を利用することにより、画像マッチングの速度と精度を共に向上させることが可能である。
上記画像生成部は、上記拡大率に応じて異なるナビゲーション情報を含むナビゲーション画像を生成してもよい。
この構成によれば、情報処理装置は、拡大率に応じて適したナビゲーション情報を施術者に提示することが可能となる。
上記画像生成部は、上記拡大率が閾値未満の場合、所定間隔の目盛りを有する第1のナビゲーション情報を含むナビゲーション画像を生成し、上記拡大率が閾値以上の場合、上記第1のナビゲーション情報より小さい間隔の目盛りを有する第2のナビゲーション情報を含むナビゲーション画像を生成してもよい。
この構成によれば、施術者が対象画像の拡大率を大きくすると、小さい間隔の目盛りを有する第2のナビゲーション情報が提示され、施術者が対象画像の拡大率を小さくすると、大きい間隔の目盛りを有する第2のナビゲーション情報が提示される。これにより、施術者の意図に応じて適切な目盛りを有するナビゲーション情報が提示され、施術者の利便性を向上させることが可能となる。
上記目的を達成するため、本技術の一形態に係る手術顕微鏡システムは、手術顕微鏡と、情報処理装置とを具備する。
上記手術顕微鏡は、施術対象の眼を撮影する。
上記情報処理装置は、施術対象の眼が撮影された画像である参照画像と、上記参照画像が撮影された時刻とは異なる時刻に上記眼が撮影された画像である対象画像について、上記対象画像の上記参照画像に対する拡大率を取得する拡大率取得部と、上記拡大率取得部によって取得された拡大率に基づいて、上記眼の施術をガイドするナビゲーション画像を生成する画像生成部とを備える。
上記目的を達成するため、本技術の一形態に係る情報処理方法は、拡大率取得部が、施術対象の眼が撮影された画像である参照画像と、上記参照画像が撮影された時刻とは異なる時刻に上記眼が撮影された画像である対象画像について、上記対象画像の上記参照画像に対する拡大率を取得する。
画像生成部が、上記拡大率取得部によって取得された拡大率に基づいて、上記眼の施術をガイドするナビゲーション画像を生成する。
以上のように、本技術によれば、高速かつ高精度に眼科手術のためのナビゲーション情報を提示することが可能な情報処理装置を提供することが可能である。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の各実施形態に係る手術顕微鏡システムの利用が可能な眼科手術のプロセスを示す模式図である。 同手術顕微鏡システムの利用が可能な眼科手術のプロセスを示す模式図である。 本技術の第1の実施形態に係る手術顕微鏡システムの構成を示す模式図である。 同手術顕微鏡システムが取得する検査画像及び術前計画の例である。 同手術顕微鏡システムが出力するナビゲーション画像の例である。 同手術顕微鏡システムの拡大率取得部の構成及び動作を示すブロック図である。 同手術顕微鏡システムの角膜検出部によって参照画像において検出された角膜半径を示す模式図である。 同手術顕微鏡システムの角膜検出部によって対象画像において検出された角膜半径を示す模式図である。 同手術顕微鏡システムの拡大率取得部の動作を示すフローチャートである。 同手術顕微鏡システムのハードウェア構成を示すブロック図である。 本技術の第2の実施形態に係る手術顕微鏡システムの構成を示す模式図である。 同手術顕微鏡システムの拡大率取得部の構成及び動作を示すブロック図である。 同手術顕微鏡システムの拡大率取得部が取得する手術顕微鏡と施術対象の眼の距離を示す模式図である。 同手術顕微鏡システムの拡大率取得部の動作を示すフローチャートである。 本技術の第3の実施形態に係る手術顕微鏡システムの構成を示す模式図である。 同手術顕微鏡システムの拡大率取得部の構成及び動作を示すブロック図である。 同手術顕微鏡システムの拡大率取得部の動作を示すフローチャートである。 本技術の第4の実施形態に係る手術顕微鏡システムの構成を示す模式図である。 同手術顕微鏡システムの拡大率取得部の構成及び動作を示すブロック図である。 同手術顕微鏡システムの拡大率取得部の動作を示すフローチャートである。 本技術の第5の実施形態に係る手術顕微鏡システムの構成を示す模式図である。 SIFTにおける、スケールが2倍異なる画像間におけるDoG極値の関係と探索範囲の設定方法の例を示す模式図である。 SIFTにおける、スケールが2倍異なる画像間におけるDoG極値の関係と探索範囲の設定方法の例を示す模式図である。 SIFTにおける、スケールが2倍異なる画像間におけるDoG極値の関係と探索範囲の設定方法の例を示す模式図である。 同手術顕微鏡システムの画像生成部の構成を示すブロック図である。 同手術顕微鏡システムの画像生成部が備える特徴点検出部の構成及び動作を示すブロック図である。 同手術顕微鏡システムの画像生成部が備える特徴点検出部の動作を示すフローチャートである。 同手術顕微鏡システムの画像生成部が備える特徴点マッチング部の構成及び動作を示すブロック図である。 同手術顕微鏡システムの画像生成部が備える特徴点マッチング部の動作を示すフローチャートである。 本技術の第6の実施形態に係る手術顕微鏡システムの構成を示す模式図である。 同手術顕微鏡システムの画像生成部の構成及び動作を示すブロック図である。 同手術顕微鏡システムの画像生成部の動作を示すフローチャートである。 同手術顕微鏡システムの画像生成部によって選択されるナビゲーション情報を示すグラフである。 同手術顕微鏡システムの画像生成部によって生成されるナビゲーション画像の例である。 本技術の第7の実施形態に係る手術顕微鏡システムの構成を示す模式図である。 同手術顕微鏡システムの画像生成部の構成及び動作を示すブロック図である。 同手術顕微鏡システムの画像生成部の動作を示すフローチャートである。 本技術の第8の実施形態に係る手術顕微鏡システムの構成を示す模式図である。 同手術顕微鏡システムの顕微鏡制御部の構成及び動作を示すブロック図である。 同手術顕微鏡システムの顕微鏡制御部の動作を示すフローチャートである。 本技術の第9実施形態に係る手術顕微鏡システムの構成を示す模式図である。 同手術顕微鏡システムの画像生成部の構成及び動作を示すブロック図である。 同手術顕微鏡システムの画像生成部の動作を示すフローチャートである。
(眼科手術の概要)
本技術の各実施形態に係る手術顕微鏡システムを利用することが可能な眼科手術の概要について説明する。図1及び図2は施術対象の眼Eに対する白内障手術のプロセスを示す模式図である。これらの図に示すように、眼Eは、角膜1001、虹彩1002、水晶体1003及び強膜1004等の組織で構成されている。水晶体1003の表面において虹彩1002の間が瞳孔1005であり、角膜1001の外周が角膜輪部1006である。
図1に示すように、白内障手術においては、ナイフ等の術具1100によって角膜1001に創口1001aを形成する。続いて、図2に示すように、創口1001aから吸引用の術具1200を挿入し、水晶体1003の内部(核や皮質)を吸引、除去する。その後、水晶体303を除去した位置に眼内レンズを挿入して手術が完了する。
なお、ここに示した白内障手術は、本技術の各実施形態に係る手術顕微鏡システムの利用が可能な眼科手術の例であり、本技術の各実施形態に係る手術顕微鏡システムは各種の眼科手術において利用することが可能である。また、本技術の各実施形態に係る手術顕微鏡システムは、眼科手術以外の手術に利用することも可能である。
(第1の実施形態)
本技術の第1の実施形態に係る手術顕微鏡システムについて説明する。
[手術顕微鏡システムの構成]
図3は、本実施形態に係る手術顕微鏡システム1の構成を示すブロック図である。同図に示すように、手術顕微鏡システム1は、情報処理装置10及び手術顕微鏡15を具備する。
情報処理装置10は、パーソナルコンピュータ等の情報処理が可能な装置である。情報処理装置10は、手術顕微鏡15に一体的に構成されていてもよく、手術顕微鏡15とは独立した装置であってもよい。情報処理装置10の構成については後述する。
手術顕微鏡15は、図3に示すように施術対象の眼Eに対向し、眼Eの顕微鏡拡大像を撮影する。手術顕微鏡15の構成は特に限定されず、眼Eの撮影が可能なものであればよい。手術顕微鏡15は、光学的あるいはデジタル的に撮影画像の拡大率を変更可能であり、また、手術顕微鏡15と眼Eの相対位置(距離)によっても撮影画像の拡大率が変更可能なものとすることができる。
[情報処理装置の構成]
図3に示すように、情報処理装置10は、画像取得部11、入力受付部12、拡大率取得部13及び画像生成部14を具備する。
画像取得部11は、眼Eを含む画像を取得する。画像取得部11は、検査画像、術前画像及び術中画像を取得するものとすることができる。検査画像は、手術開始前に図示しない検査装置によって撮像される眼Eを含む画像であり、術前画像は、手術開始時に手術顕微鏡15によって撮像される眼Eを含む画像である。術中画像は、手術中に手術顕微鏡15によって撮像される眼Eを含む画像である。
画像取得部11は、検査装置や手術顕微鏡15等から直接に各画像を取得してもよく、ネットワークを介して又は、ストレージに保存されている各画像を取得してもよい。画像取得部11は、取得した各画像を拡大率取得部13及び画像生成部14に供給する。
入力受付部12は、ユーザによる入力を受け付ける。入力受付部12は、検査画像における術前計画の指定を受け付けるものとすることができる。図4は、検査画像G1及び検査画像G1において指定された術前計画の一例を示す模式図である。なお、図4には瞳孔1005、虹彩1002、目蓋1008及び血管1009が含まれている。
同図に示すように、術前計画には、術具の挿入位置P1や眼内レンズの向きP2等が含まれる。ユーザは手術開始前に検査画像G1を参照しながら、術具の挿入位置P1や眼内レンズの向きP2を検討し、術前計画として検査画像G1において指定することができる。入力受付部12は、術前計画の入力を受け付け、術前計画を画像生成部14に供給する。
拡大率取得部13は、検査画像、術前画像及び術中画像の間で画像の拡大率を取得する。拡大率の取得については後述する。拡大率取得部13は、取得した拡大率を画像生成部14に供給する。
画像生成部14は、拡大率取得部13から供給された拡大率を用いてナビゲーション画像を生成する。画像生成部14は、手術が開始され、術前画像が撮影されると、検査画像と術前画像の位置合わせ(レジストレーション)を行う。この位置合わせには、SIFT(Scale-Invariant Feature Transform)等の画像マッチング手法が用いられる。画像生成部14は位置合わせに上記拡大率を利用することができ、その詳細については後述する。
画像生成部14は、レジストレーションの結果に基づいて、検査画像において指定された術前計画の術前画像における配置を決定し、術前計画をナビゲーション情報として術前画像に重畳させ、ナビゲーション画像を生成する。図5はナビゲーション画像の一例であり、術前画像G2に、ナビゲーション情報である術具の挿入位置P1や眼内レンズの向きP2が重畳されている。なお、図5には、瞳孔1005、虹彩1002、開瞼器により広げられた目蓋1008及び血管1009が含まれている。画像生成部14は生成したナビゲーション画像を図示しないディスプレイに表示させる。
画像生成部14は、手術が進行し、術中画像が撮影されると、術前画像G2と術中画像の位置合わせ(トラッキング)を行う。この位置合わせにも、SIFT等の画像マッチング手法が用いられる。画像生成部14は位置合わせに上記拡大率を利用することができ、その詳細については後述する。
画像生成部14は、トラッキングの結果に基づいて、術前画像における術前計画の術中画像における配置を決定し、術前計画をナビゲーション情報として術中画像に重畳させ、ナビゲーション画像を生成する(図5参照)。画像生成部14はナビゲーション画像をディスプレイに表示させ、ナビゲーション画像を更新する。
以後、画像生成部14は、撮影時刻が異なる術中画像(連続する又は任意の間隔のフレーム)を継続的に取得して術中画像同士の間でトラッキングを行い、術前計画をナビゲーション情報として術中画像に重畳させ、ナビゲーション画像を生成する。
上記のように、画像生成部14は、レジストレーションにおいては検査画像と術前画像を比較し、トラッキングにおいては術前画像と術中画像、あるいは術中画像同士を比較する。検査画像と術前画像は撮影装置や照明等の撮影条件が異なり、術前画像と術中画像、あるいは術中画像同士も眼の位置や顕微鏡の拡大率が相違している可能性があるためである。
以下、比較において参照される画像、即ち、レジストレーションにおける検査画像、トラッキングにおける術前画像又は撮影時刻が過去の術中画像を「参照画像」とする。また、比較において比較対象となる画像、即ち、レジストレーションにおける術前画像、トラッキングにおいて撮影時刻が最も新しい術中画像を「対象画像」とする。
情報処理装置10は以上のような構成を有する。なお、上記各画像は必ずしも検査装置又は手術顕微鏡によって撮影されたものでなくてもよく、少なくとも施術対象の眼を含む画像であればよい。さらに、上記各画像は、静止画像でもよく、動画の1フレームであってもよい。
[拡大率取得部の詳細]
上述のように、拡大率取得部13は、参照画像に対する対象画像の拡大率を取得する。図6は、拡大率取得部13の構成及び動作を示すブロック図である。同図に示すように、拡大率取得部13は、角膜検出部131、記憶部132及び拡大率算出部133を具備する。
角膜検出部131は、参照画像及び対象画像に含まれる角膜を検出し、角膜中心と角膜半径を取得する。図7は、参照画像A1と、参照画像A1において検出された角膜の周縁S1、角膜中心C1及び角膜半径R1を示す模式図である。図8は、対象画像A2と、対象画像A2において検出された角膜の周縁S2、角膜中心C2及び角膜半径R2を示す模式図である。
角膜検出部131は、勾配計算、楕円フィッティング、ハフ変換等の一般的な画像処理方法によって各画像において角膜を検出し、角膜中心及び角膜半径を取得することができる。角膜検出部131は、参照画像A1において取得した角膜半径R1を記憶部132に供給し、対象画像A2において取得した角膜半径R2を拡大率算出部133に供給する。
記憶部132は、角膜検出部131から供給された角膜半径R1を記憶する。
拡大率算出部133は、記憶部132から角膜半径R1を、角膜検出部131から角膜半径R2を取得し、角膜半径R1と角膜半径R2を用いて拡大率Mを算出する。角膜半径は生理的に不変であるため、各画像における角膜半径の変化は、画像自体の拡大率の変化に相当する。このため、拡大率算出部133は、角膜半径R1と角膜半径R2の比率、即ちR2/R1を拡大率Mとして算出する。
図9は、拡大率取得部13の動作を示すフローチャートである。同図に示すように、角膜検出部131は、参照画像A1を取得する(St101)と、参照画像A1において角膜を検出し(St102)、角膜半径R1を記憶部132に保存する(St103)。続いて、角膜検出部131は、対象画像A2を取得する(St104)と、対象画像A2において角膜を検出し(St105)、拡大率算出部133に供給する。拡大率算出部123は、角膜半径R1と角膜半径R2を用いて拡大率Mを算出する(St106)。
拡大率取得部13は、以上のようにして拡大率Mを取得し、画像生成部14に供給する。なお、角膜検出部131は、参照画像A1及び対象画像A2において、角膜半径の代わりに瞳孔の半径や施術者により施術対象の眼に直接記されたマーカーの大きさを検出してもよく、拡大率算出部133は、その比率から拡大率Mを算出してもよい。
画像生成部14は上述のように、拡大率Mを用いて参照画像A1と対象画像A2の位置合わせ(トラッキング又はレジストレーション)を行い、ナビゲーション画像を生成する。位置合わせにおける拡大率Mの利用については他の実施形態において説明する。
[ハードウェア構成]
上記のような情報処理装置10の機能的構成は、以下に示すハードウェア構成によって実現することが可能である。
図10は、情報処理装置10のハードウェア構成を示す模式図である。同図に示すように情報処理装置10はハードウェア構成として、CPU1501、メモリ1502、ストレージ1503及び入出力部(I/O)1504を有する。これらはバス1505によって互いに接続されている。
CPU(Central Processing Unit)1501は、メモリ1502に格納されたプログラムに従って他の構成を制御すると共に、プログラムに従ってデータ処理を行い、処理結果をメモリ1502に格納する。CPU1501はマイクロプロセッサであるものとすることができる。
メモリ1502はCPU1501によって実行されるプログラム及びデータを格納する。メモリ1502はRAM(Random Access Memory)であるものとすることができる。
ストレージ1503は、プログラムやデータを格納する。ストレージ1503はHDD(Hard disk drive)やSSD(solid state drive)であるものとすることができる。
入出力部1504は情報処理装置10に対する入力を受け付け、また情報処理装置10の出力を外部に供給する。入出力部1504は、キーボードやマウス等の入力機器やディスプレイ等の出力機器、ネットワーク等の接続インターフェースを含む。
情報処理装置10のハードウェア構成はここに示すものに限られず、情報処理装置10の機能的構成を実現できるものであればよい。また、上記ハードウェア構成の一部又は全部はネットワーク上に存在していてもよい。
(第2の実施形態)
本技術の第2の実施形態に係る手術顕微鏡システムについて説明する。
[手術顕微鏡システムの構成]
図11は、本実施形態に係る手術顕微鏡システム2の構成を示すブロック図である。同図に示すように、手術顕微鏡システム2は、情報処理装置20及び手術顕微鏡25を具備する。
情報処理装置20は、パーソナルコンピュータ等の情報処理が可能な装置である。情報処理装置20は、手術顕微鏡25に一体的に構成されていてもよく、手術顕微鏡25とは独立した装置であってもよい。情報処理装置20の構成については後述する。
手術顕微鏡25は、図11に示すように施術対象の眼Eに対向し、眼Eの顕微鏡拡大像を撮影する。手術顕微鏡25の構成は特に限定されず、眼Eの撮影が可能なものであればよい。手術顕微鏡25は、光学的あるいはデジタル的に撮影画像の拡大率を変更可能であり、また、手術顕微鏡25と眼Eの相対位置(距離)によっても撮影画像の拡大率が変更可能なものとすることができる。
[情報処理装置の構成]
図11に示すように、情報処理装置20は、画像取得部21、入力受付部22、拡大率取得部23及び画像生成部24を具備する。
画像取得部21は、眼Eを含む画像を取得する。画像取得部21は第1の実施形態に係る画像取得部11と同様に、参照画像及び対象画像を取得するものとすることができる。画像取得部21は、検査装置や手術顕微鏡等から直接に各画像を取得してもよく、ネットワークを介して又は、ストレージに保存されている各画像を取得してもよい。画像取得部21は、取得した参照画像及び対象画像を拡大率取得部23及び画像生成部24に供給する。
入力受付部22は、ユーザによる情報入力を受け付ける。入力受付部22は、第1の実施形態に係る入力受付部12と同様に、検査画像における術前計画の指定を受け付けるものとすることができる(図4参照)。入力受付部22は、入力された術前計画を画像生成部14に供給する。
拡大率取得部23は、参照画像と対象画像の拡大率を取得する。拡大率の取得については後述する。拡大率取得部23は、取得した拡大率を画像生成部24に供給する。
画像生成部24は、拡大率取得部23から供給された拡大率を用いてナビゲーション情報を含むナビゲーション画像を生成する。画像生成部24は、第1の実施形態に係る画像生成部14と同様にSIFT等の画像マッチング手法を用いて、検査画像と術前画像の位置合わせ(レジストレーション)や術前画像と術中画像の位置合わせ(トラッキング)を行う。画像生成部24は、位置合わせの結果を用いてナビゲーション情報(術前計画)を術前画像又は術中画像に重畳させ、ナビゲーション画像(図5参照)を生成する。画像生成部24は、生成したナビゲーション画像をディスプレイに表示させる。
以後、画像生成部24は、撮影時刻が異なる術中画像(連続する又は任意の間隔のフレーム)を継続的に取得して術中画像同士の間でトラッキングを行い、術前計画をナビゲーション情報として術中画像に重畳させ、ナビゲーション画像を生成する。
情報処理装置20は以上のような構成を有する。なお、上記各画像は必ずしも検査装置又は手術顕微鏡によって撮影されたものでなくてもよく、少なくとも施術対象の眼を含む画像であればよい。さらに、上記各画像は、静止画像でもよく、動画の1フレームであってもよい。
[拡大率取得部の詳細]
上述のように、拡大率取得部23は、参照画像に対する対象画像の拡大率を取得する。図12は、拡大率取得部23の構成及び動作を示すブロック図である。同図に示すように、拡大率取得部23は、距離取得部231、記憶部232及び拡大率算出部233を具備する。
距離取得部231は、検査装置や手術顕微鏡等の撮影装置と施術対象の眼の距離を検出する。図13は、手術顕微鏡25と施術対象の眼Eを示す模式図である。同図において手術顕微鏡25と眼Eの距離Lを示す。距離取得部231は、撮影装置から3次元位置座標を取得し、その変位から距離Lを取得することができる。また、距離取得部231は、撮影装置に設けられた距離センサーの出力に基づいて距離Lを取得することもできる。さらに、距離取得部231は、撮影装置が複数のカメラを備える場合には、各カメラの視差情報から距離Lを取得することもできる。距離取得部231はここに示す以外の方法によって距離Lを取得してもよい。
距離取得部231は、少なくとも参照画像A1が撮像されたときの距離L(以下、距離L1)と対象画像A2が撮像されたときの距離L(以下、距離L2)を取得する。距離取得部231は、距離L1を記憶部342に供給し、距離L2を拡大率算出部233に供給する。
記憶部232は、距離取得部231から供給された距離L1を記憶する。
拡大率算出部233は、記憶部232から距離L1を、距離取得部231から距離L2を取得し、距離L1と距離L2を用いて拡大率Mを算出する。撮影装置と施術対象の眼の距離は、画像間の拡大率に密接に関連する。このため、拡大率算出部233は、距離L2と距離L1の比率、即ちL1/L2を拡大率Mとして算出する。
図14は、拡大率取得部23の動作を示すフローチャートである。同図に示すように、距離取得部231は、参照画像A1が撮像された時刻における距離L1を取得し(St201)、距離L1を記憶部232に保存する(St202)。続いて、距離取得部231は、対象画像A2が撮像された時刻における距離L2を取得し(St203)、拡大率算出部233に供給する。拡大率算出部233は、距離L1と距離L2を用いて拡大率Mを算出する(St204)。
拡大率取得部23は、以上のようにして拡大率Mを取得し、画像生成部24に供給する。画像生成部24は上述のように、拡大率Mを用いて参照画像A1と対象画像A2の位置合わせ(トラッキング又はレジストレーション)を行い、ナビゲーション画像を生成する。位置合わせにおける拡大率Mの利用については他の実施形態において説明する。
情報処理装置20は、第1の実施形態に係る情報処理装置10と同様のハードウェア構成によって実現されているものとすることができる。
(第3の実施形態)
本技術の第3の実施形態に係る手術顕微鏡システムについて説明する。
[手術顕微鏡システムの構成]
図15は、本実施形態に係る手術顕微鏡システム3の構成を示すブロック図である。同図に示すように、手術顕微鏡システム3は、情報処理装置30及び手術顕微鏡35を具備する。
情報処理装置30は、パーソナルコンピュータ等の情報処理が可能な装置である。情報処理装置30は、手術顕微鏡35に一体的に構成されていてもよく、手術顕微鏡35とは独立した装置であってもよい。情報処理装置30の構成については後述する。
手術顕微鏡35は、図15に示すように施術対象の眼Eに対向し、眼Eの顕微鏡拡大像を撮影する。手術顕微鏡35の構成は特に限定されず、眼Eの撮影が可能なものであればよい。手術顕微鏡35は、光学的あるいはデジタル的に撮影画像の拡大率を変更可能であり、また、手術顕微鏡35と眼Eの相対位置(距離)によっても撮影画像の拡大率が変更可能なものとすることができる。
[情報処理装置の構成]
図15に示すように、情報処理装置30は、画像取得部31、入力受付部32、拡大率取得部33及び画像生成部34を具備する。
画像取得部31は、眼Eを含む画像を取得する。画像取得部31は第1の実施形態に係る画像取得部11と同様に、参照画像及び対象画像を取得するものとすることができる。画像取得部31は、検査装置や手術顕微鏡等から直接に各画像を取得してもよく、ネットワークを介して又は、ストレージに保存されている各画像を取得してもよい。画像取得部31は、取得した参照画像及び対象画像を拡大率取得部33及び画像生成部34に供給する。
入力受付部32は、ユーザによる情報入力を受け付ける。入力受付部32は、第1の実施形態に係る入力受付部12と同様に、検査画像における術前計画の指定を受け付けるものとすることができる(図4参照)。入力受付部32は、入力された術前計画を画像生成部34に供給する。
拡大率取得部33は、参照画像と対象画像の拡大率を取得する。拡大率の取得については後述する。拡大率取得部33は、取得した拡大率を画像生成部34に供給する。
画像生成部34は、拡大率取得部33から供給された拡大率を用いてナビゲーション情報を含むナビゲーション画像を生成する。画像生成部34は、第1の実施形態に係る画像生成部14と同様にSIFT等の画像マッチング手法を用いて、検査画像と術前画像の位置合わせ(レジストレーション)や術前画像と術中画像の位置合わせ(トラッキング)を行う。画像生成部34は、位置合わせの結果を用いてナビゲーション情報(術前計画)を対象画像に重畳させ、ナビゲーション画像(図5参照)を生成する。画像生成部34は、生成したナビゲーション画像をディスプレイに表示させる。
以後、画像生成部34は、撮影時刻が異なる術中画像(連続する又は任意の間隔のフレーム)を継続的に取得して術中画像同士の間でトラッキングを行い、術前計画をナビゲーション情報として術中画像に重畳させ、ナビゲーション画像を生成する。
情報処理装置30は以上のような構成を有する。なお、上記各画像は必ずしも検査装置又は手術顕微鏡によって撮影されたものでなくてもよく、少なくとも施術対象の眼を含む画像であればよい。さらに、上記各画像は、静止画像でもよく、動画の1フレームであってもよい。
[拡大率取得部の詳細]
上述のように、拡大率取得部33は、参照画像に対する対象画像の拡大率を取得する。図16は、拡大率取得部33の構成及び動作を示すブロック図である。同図に示すように、拡大率取得部33は、ズーム率取得部331、記憶部332及び拡大率算出部333を具備する。
ズーム率取得部331は、撮影装置のズーム率を取得する。ズーム率取得部331は、検査装置や手術顕微鏡等の撮影装置から、ズーム率を取得する。ズーム率は、撮影装置の光学ズームの倍率及びデジタルズームの倍率である。ズーム率取得部321は、少なくとも参照画像A1が撮像されたときのズーム率(以下、ズーム率Z1)と対象画像A2が撮像されたときのズーム率(以下、ズーム率Z2)を取得する。ズーム率取得部331は、ズーム率Z1を記憶部332に供給し、ズーム率Z2を拡大率算出部333に供給する。
記憶部332は、ズーム率取得部321から供給されたズーム率Z1を記憶する。
拡大率算出部333は、記憶部332からズーム率Z1を、ズーム率取得部331からズーム率Z2を取得し、ズーム率Z1とズーム率Z2を用いて拡大率Mを算出する。撮影装置のズーム率は、画像間の拡大率に密接に関連する。このため、拡大率算出部333は、ズーム率Z1とズーム率Z2の比率、即ちZ2/Z1を拡大率Mとして算出する。
図17は、拡大率取得部33の動作を示すフローチャートである。同図に示すように、ズーム率取得部331は、参照画像A1が撮像された時刻におけるズーム率Z1を取得し(St301)、ズーム率Z1を記憶部332に保存する(St302)。続いて、ズーム率取得部321は、対象画像A2が撮像された時刻におけるズーム率Z2を取得し(St303)、拡大率算出部333に供給する。拡大率算出部323は、ズーム率Z1とズーム率Z2を用いて拡大率Mを算出する(St304)。
拡大率取得部33は、以上のようにして拡大率Mを取得し、画像生成部34に供給する。画像生成部34は上述のように、拡大率Mを用いて参照画像A1と対象画像A2の位置合わせ(トラッキング又はレジストレーション)を行い、ナビゲーション画像を生成する。位置合わせにおける拡大率Mの利用については他の実施形態において説明する。
情報処理装置30は、第1の実施形態に係る情報処理装置10と同様のハードウェア構成によって実現されているものとすることができる。
(第4の実施形態)
本技術の第4の実施形態に係る手術顕微鏡システムについて説明する。
[手術顕微鏡システムの構成]
図18は、本実施形態に係る手術顕微鏡システム4の構成を示すブロック図である。同図に示すように、手術顕微鏡システム4は、情報処理装置40及び手術顕微鏡45を具備する。
情報処理装置40は、パーソナルコンピュータ等の情報処理が可能な装置である。情報処理装置40は、手術顕微鏡45に一体的に構成されていてもよく、手術顕微鏡45とは独立した装置であってもよい。情報処理装置40の構成については後述する。
手術顕微鏡45は、図18に示すように施術対象の眼Eに対向し、眼Eの顕微鏡拡大像を撮影する。手術顕微鏡45の構成は特に限定されず、眼Eの撮影が可能なものであればよい。手術顕微鏡45は、光学的あるいはデジタル的に撮影画像の拡大率を変更可能であり、また、手術顕微鏡45と眼Eの相対位置(距離)によっても撮影画像の拡大率が変更可能なものとすることができる。
[情報処理装置の構成]
図18に示すように、情報処理装置40は、画像取得部41、入力受付部42、拡大率取得部43及び画像生成部44を具備する。
画像取得部41は、施術対象の眼Eを含む画像を取得する。画像取得部41は第1の実施形態に係る画像取得部11と同様に、参照画像及び対象画像を取得するものとすることができる。画像取得部41は、検査装置や手術顕微鏡等から直接に各画像を取得してもよく、ネットワークを介して又は、ストレージに保存されている各画像を取得してもよい。画像取得部41は、取得した参照画像及び対象画像を拡大率取得部43及び画像生成部44に供給する。
入力受付部42は、ユーザによる情報入力を受け付ける。入力受付部42は、第1の実施形態に係る入力受付部12と同様に、検査画像における術前計画の指定を受け付けるものとすることができる(図4参照)。入力受付部42は、入力された術前計画を画像生成部44に供給する。
拡大率取得部43は、参照画像と対象画像の拡大率を取得する。拡大率の取得については後述する。拡大率取得部43は、取得した拡大率を画像生成部44に供給する。
画像生成部44は、拡大率取得部43から供給された拡大率を用いてナビゲーション情報を含むナビゲーション画像を生成する。画像生成部44は、第1の実施形態に係る画像生成部14と同様にSIFT等の画像マッチング手法を用いて、検査画像と術前画像の位置合わせ(レジストレーション)や術前画像と術中画像の位置合わせ(トラッキング)を行う。画像生成部44は、位置合わせの結果を用いてナビゲーション情報(術前計画)を術前画像又は術中画像に重畳させ、ナビゲーション画像(図5参照)を生成する。画像生成部44は、ナビゲーション画像をディスプレイに表示させる。
以後、画像生成部44は、撮影時刻が異なる術中画像(連続する又は任意の間隔のフレーム)を継続的に取得して術中画像同士の間でトラッキングを行い、術前計画をナビゲーション情報として術中画像に重畳させ、ナビゲーション画像を生成する。
情報処理装置40は以上のような構成を有する。なお、上記各画像は必ずしも検査装置又は手術顕微鏡によって撮影されたものでなくてもよく、少なくとも施術対象の眼を含む画像であればよい。さらに、上記各画像は、静止画像でもよく、動画の1フレームであってもよい。
[拡大率取得の詳細]
上述のように、拡大率取得部43は、参照画像に対する対象画像の拡大率を取得する。図19は、拡大率取得部43の構成及び動作を示すブロック図である。同図に示すように、拡大率取得部43は、距離取得部431、ズーム率取得部432、記憶部433及び拡大率算出部434を具備する。
距離取得部431は、検査装置や手術顕微鏡等の撮影装置と施術対象の眼の距離を検出する。距離取得部431は、第2の実施形態と同様に、撮影装置から撮影装置と施術対象の眼の距離を取得する。距離取得部421は、少なくとも参照画像A1が撮像されたときの撮影装置と眼の距離L1と対象画像A2が撮像されたときの撮影装置と眼の距離L2を取得する。距離取得部431は、距離L1を記憶部433に供給し、距離L2を拡大率算出部434に供給する。
ズーム率取得部432は、撮影装置のズーム率を取得する。ズーム率取得部432は、第3の実施形態と同様に、撮影装置からズーム率を取得する。ズーム率取得部432は、少なくとも参照画像A1が撮像されたときのズーム率Z1と対象画像A2が撮像されたときのズーム率Z2を取得する。ズーム率取得部432は、ズーム率Z1を記憶部433に供給し、ズーム率Z2を拡大率算出部434に供給する。
記憶部433は、距離取得部431から供給された距離L1及びズーム率取得部432から供給されたズーム率Z1を記憶する。
拡大率算出部434は、記憶部433から距離L1及びズーム率Z1を、距離取得部431から距離L2を、ズーム率取得部432からズーム率Z2を取得し、距離L1、距離L2、ズーム率Z1及びズーム率Z2を用いて拡大率Mを算出する。拡大率算出部434は、距離L2と距離L1の比率及びズーム率Z1とズーム率Z2の比率の積、即ち(L1/L2)×(Z2/Z1)を拡大率Mとして算出する。
図20は、拡大率取得部43の動作を示すフローチャートである。同図に示すように、距離取得部431は、参照画像A1が撮像された時刻における距離L1を取得し(St401)、ズーム率取得部432は、同時刻におけるズーム率Z1を取得する(St402)。記憶部433は、距離L1及びズーム率Z1を保存する(St403)。
続いて、距離取得部431は、対象画像A2が撮像された時刻における距離L2を取得し(St404)、拡大率算出部434に供給する。ズーム率取得部432は、同時刻におけるズーム率Z2を取得し(St405)、拡大率算出部434に供給する。拡大率算出部434は、距離L1、距離L2、ズーム率Z1及びズーム率Z2を用いて拡大率Mを算出する(St406)。
拡大率取得部43は、以上のようにして拡大率Mを取得し、画像生成部44に供給する。画像生成部44は上述のように、拡大率Mを用いて参照画像A1と対象画像A2の位置合わせ(トラッキング又はレジストレーション)を行い、ナビゲーション画像を生成する。位置合わせにおける拡大率Mの利用については他の実施形態において説明する。
情報処理装置40は、第1の実施形態に係る情報処理装置10と同様のハードウェア構成によって実現されているものとすることができる。
(第5の実施形態)
本技術の第5の実施形態に係る手術顕微鏡システムについて説明する。
[手術顕微鏡システムの構成]
図21は、本実施形態に係る手術顕微鏡システム5の構成を示すブロック図である。同図に示すように、手術顕微鏡システム5は、情報処理装置50及び手術顕微鏡55を具備する。
情報処理装置50は、パーソナルコンピュータ等の情報処理が可能な装置である。情報処理装置50は、手術顕微鏡55に一体的に構成されていてもよく、手術顕微鏡55とは独立した装置であってもよい。情報処理装置50の構成については後述する。
手術顕微鏡55は、図21に示すように施術対象の眼Eに対向し、眼Eの顕微鏡拡大像を撮影する。手術顕微鏡55の構成は特に限定されず、眼Eの撮影が可能なものであればよい。手術顕微鏡55は、光学的あるいはデジタル的に撮影画像の拡大率を変更可能であり、また、手術顕微鏡55と眼Eの相対位置(距離)によっても撮影画像の拡大率が変更可能なものとすることができる。
[情報処理装置の構成]
図21に示すように、情報処理装置50は、画像取得部51、入力受付部52、拡大率取得部53及び画像生成部54を具備する。
画像取得部51は、眼Eを含む画像を取得する。画像取得部51は第1の実施形態に係る画像取得部11と同様に、参照画像及び対象画像を取得するものとすることができる。画像取得部51は、検査装置や手術顕微鏡等から直接に各画像を取得してもよく、ネットワークを介して又は、ストレージに保存されている各画像を取得してもよい。画像取得部41は、取得した参照画像及び対象画像を拡大率取得部53及び画像生成部54に供給する。
入力受付部52は、ユーザによる情報入力を受け付ける。入力受付部52は、第1の実施形態に係る入力受付部12と同様に、検査画像における術前計画の指定を受け付けるものとすることができる(図4参照)。入力受付部52は、入力された術前計画を画像生成部34に供給する。
拡大率取得部53は、参照画像と対象画像の拡大率を取得する。拡大率取得部53は、実施形態1乃至4において説明したいずれかの方法、即ち、各画像に対する物体認識処理、撮影装置と施術対象の眼の距離又は撮影装置のズーム率の少なくともいずれかを利用して拡大率を取得するものとすることができる。拡大率取得部53は、取得した拡大率を画像生成部54に供給する。
画像生成部54は、拡大率取得部53から供給された拡大率を用いてナビゲーション情報を含むナビゲーション画像を生成する。画像生成部54は、SIFTを用いて検査画像と術前画像の位置合わせ(レジストレーション)や術前画像と術中画像の位置合わせ(トラッキング)を行う。この詳細については後述する。画像生成部54は、位置合わせの結果を用いてナビゲーション情報(術前計画)を対象画像に重畳させ、ナビゲーション画像(図5参照)を生成する。画像生成部44は、生成したナビゲーション画像をディスプレイに表示させる。
以後、画像生成部54は、撮影時刻が異なる術中画像(連続する又は任意の間隔のフレーム)を継続的に取得して術中画像同士の間でトラッキングを行い、術前計画をナビゲーション情報として術中画像に重畳させ、ナビゲーション画像を生成する。
情報処理装置50は以上のような構成を有する。なお、上記各画像は必ずしも検査装置又は手術顕微鏡によって撮影されたものでなくてもよく、少なくとも施術対象の眼を含む画像であればよい。さらに、上記各画像は、静止画像でもよく、動画の1フレームであってもよい。
[画像生成部の詳細]
上述のように画像生成部54は、拡大率Mに基づいて、ナビゲーション情報を対象画像A2に重畳させ、ナビゲーション画像を生成する。上記のように画像生成部54は、拡大率Mを用いて参照画像A1と対象画像A2の位置合わせ(トラッキング又はレジストレーション)を行う。画像生成部54はSIFT(Scale-Invariant Feature Transform)を利用して位置合わせを行うことができる。
SIFTはスケール不変性を特徴とする。スケール不変性を利用すると、スケール(即ち、拡大率)の異なる画像間での位置合わせが可能となる。SIFTでは、スケール不変の特徴点を検出するために、入力画像に対してガウシアンフィルタを適用し、平滑化画像を生成する。このとき、ガウシアンフィルタの標準偏差σを少しずつ変化させ、多数の平滑化画像を準備する。
次に、標準偏差σの隣接する平滑化画像の差分画像(DoG:Difference of Gaussian)を生成する。例えばN枚の平滑化画像を準備した場合、N−1枚の DoG画像が生成される。そして、標準偏差σの連続する3枚のDoG画像を用いて、注目ピクセルの極値判定を行う。先の例では、極値検出対象画像はN−3枚となるため、注目ピクセルに対してN−3回の極値判定が実施される。
ここで、SIFTは、スケールの異なる画像間の位置合わせが可能である反面、スケールの不変性を実現するために、多数の平滑化画像の生成やDoG画像の極値探索が必要となり、計算量が大きくなる。スケールが2倍異なる画像間では、対応点の標準偏差σは2倍だけ異なる関係性になっている。画像間のスケールが異なるほど、標準偏差σの値も大きく異なり、より広範囲の標準偏差σを探索する必要があり、計算量が大きくなる。一方で、探索する標準偏差σの範囲(σmin−σmax)を事前に決めてしまうと、この範囲の標準偏差σでは表現できないスケール変化に対応することができず、画像間で対応する特徴点が欠落してしまうことから、位置合わせの精度が低下する。
したがって、スケールが異なる画像間での位置合わせにおいては、標準偏差σの範囲(σmin−σmax)が大きいと位置合わせの精度は高いものの必要な計算量が大きくなる。反対に標準偏差σの範囲(σmin−σmax)が小さいと必要な計算量は小さいものの、位置合わせの精度は小さくなる。これに対し、本実施形態における画像生成部54は、必要な計算量を抑制しつつ、位置合わせを高精度に実現することが可能である。
画像生成部54は、上記のようにSIFTにおいて拡大率Mを利用する。拡大率MはSIFTにおけるスケールに相当するため、スケールが既知であることによるSIFTの高速化及び精度向上が可能である。図22乃至図24は、スケールが2倍異なる画像間におけるDoG極値の関係と探索範囲の設定方法の例を示す模式図である。図22(a)は参照画像A1を示し、図22(b)は対象画像A2示す。ここでは対象画像A2は参照画像A1の2倍のスケール(拡大率M=2)とする。
図23は参照画像A1の注目ピクセルにけるガウシアンフィルタの標準偏差σとDoG値の関係を示すグラフである。同図に示すように、DoG値が極値を与える標準偏差はσ=6である。図24は対象画像A2の注目ピクセルにおけるガウシアンフィルタの標準偏差σとDoG値の関係を示すグラフである。同図に示すように、DoG値が極値を与える標準偏差はσ=12である。
画像間のスケールが未知の場合は、DoG値が極値となる標準偏差σに関する事前情報がないため、広範囲の標準偏差値(σmin−σmax)を探索して極値を検出する必要がある。一方で、画像間のスケールが既知の場合は、DoG値が極値となる標準偏差σを推定できるため、その近傍範囲の標準偏差値のみを探索すればよい。
次に、画像間の位置合わせ精度の向上について説明する。画像間の位置合わせは、各々の画像で検出された特徴点群から対応する特徴点のペアを選択することで行う。このとき、多数の正しい特徴点のペアが選択されると位置合わせの精度は高く、多数の誤った特徴点のペアが選択されると位置合わせの精度が低くなる。特徴点のマッチング処理は、各特徴点で求めた特徴量の相関値を計算し、最も相関値の高い特徴点を正しいペアとして保持する方法がある。
しかし、実際は、画像中のノイズの影響などにより特徴量が攪乱され、相関値の最大のペアが必ずしも正しいペアでないことが多々ある。これが位置合わせ精度を低下させてしまう原因となる。この問題に対して、画像間のスケールが既知である場合は、特徴点の間で、特徴量の相関値に加えて、スケールの値を比較することで、正しいペアが選ばれる確率を高めることができる。図22乃至図24の例では、特徴量の相関値が最大として選択されたペアに対して、そのスケールの関係が2倍より大きく異なるときは、誤ったペアであると判断することができる。
図25は、画像生成部54の構成を示すブロック図である。同図に示すように、画像生成部54は、特徴点検出部541、特徴点マッチング部542及び画像重畳部543を具備する。
特徴点検出部541は、参照画像A1及び対象画像A2において特徴点を検出する。図26は、特徴点検出部541の構成及び動作を示すブロック図である。同図に示すように、特徴点検出部541は、DoG画像作成部5411、DoG極値探索部5412及びスケール範囲決定部5413を具備する。
DoG画像作成部5411は、与えられたスケール範囲及びステップ幅で変更したスケール幅を使った平滑化画像を作成し、隣接する平滑化画像間の差分画像(DoG画像)を生成する。DoG画像作成部5411は、参照画像A1及び対象画像A2に対して共通であるが、与えられるスケール範囲が異なる。
DoG画像作成部5411は、参照画像A1に対しては、初期値として定められたスケール範囲[σmin init,σmax init]を用い、対象画像A2に対しては、スケール範囲決定部5413によって定められたスケール範囲[σmin A2,σmax A2]を用いる。このスケール範囲は、初期値のスケール範囲より狭く、σmin A2>σmin initであり、σmax A2<σmax initである。対象画像A2に対しては、探索範囲が狭く設定されるため、探索の高速化を実現することができる。
DoG極値探索部5412は、連続する3枚のDoG画像を用いて注目ピクセル毎に極値判定を行い、DoG値が極値となるスケールを求めて出力する。DoG極値探索部5412は、参照画像A1及び対象画像A2に対して共通であるが、参照画像A1に対しては画像全体におけるスケールの最小値σmin A1及びスケールの最大値σmax A1をスケール範囲決定部5413に供給する。
スケール範囲決定部5413は、拡大率取得部53から供給された拡大率Mと参照画像A1のスケール最小値σmin A1及びスケールの最大値σmax A1を用いて下記(式1)及び(式2)により対象画像A2のスケールの最小値σmin A2及びスケールの最大値σmax A2を決定する。
σmin A2=M×σmin A1 (式1)
σmax A2=M×σmax A1 (式2)
スケール範囲決定部5413は、[σmin A2,σmax A2]を含む範囲で設定されたスケールをDoG画像作成部5411に供給する。
図27は、特徴点検出部541による特徴点検出のフローチャートである。同図に示すように、DoG画像作成部5411は、参照画像A1のDoG画像を作成する(St501)。続いて、DoG極値探索部5412は、参照画像A1において注目ピクセル毎にDoG値が極値となるスケールを探索する(St502)。DoG極値探索部5412は、最小値σmin A1及び最大値σmax A1をスケール範囲決定部5413に供給する(St503)。
続いて、スケール範囲決定部5413は、拡大率取得部53から拡大率Mを取得し(St504)、最小値σmin A2(=M×σmin A1)及び最大値σmax A2(=M×σnax A1)を対象画像A2のスケール範囲として決定する(St505)。続いて、DoG画像作成部5411は、対象画像A2のDoG画像を作成し(St506)、DoG極値探索部5412は、対象画像A2において注目ピクセル毎にDoG値が極値となるスケールを探索(St507)する。
特徴点検出部541はこのようにして参照画像A1及び対象画像A2において特徴点を検出し、特徴点マッチング部542に供給する。
特徴点マッチング部542は、参照画像A1及び対象画像A2において検出された特徴点をマッチングする。図28は、特徴点マッチング部542の構成及び動作を示すブロック図である。同図に示すように、特徴点マッチング部542は、特徴量計算部5421、特徴量相関値計算部5422、特徴点ペア選択部5423及びスケール値比較部5424を具備する。
特徴量計算部5421は、参照画像A1及び対象画像A2に対して共通であり、両画像における各々の特徴点に対して特徴量を計算し、特徴量相関値計算部5422に供給する。
特徴量相関値計算部5422は、参照画像A1の着目する特徴点と対象画像A2の各々の特徴点の間で特徴量の相関値を計算し、特徴点ペア選択部5423に供給する。
特徴点ペア選択部5423は、参照画像A1の各特徴点に対して相関値が最大となる対象画像A2の特徴点を算出し、特徴点ペアとしてスケール値比較部5424に供給する。
スケール値比較部5424は、拡大率取得部53から供給された拡大率Mを利用して特徴点ペアの正誤を判定する。スケール値比較部5424は、各特徴点ペアに対して、スケール値を下記(式3)によって比較する。
×M<σA2/σA1<S×M (式3)
σA1は参照画像A1の特徴点のスケール、σA2は対象画像A2の特徴点のスケール、S、Sは拡大率を補正するパラメータであり、Sはスケール比率の下限の許容範囲、Sはスケール比率の上限の許容範囲を制御する。上記(式3)を満足する特徴点ペアは正しい特徴点ペアとして保持し、(式3)を満たさない特徴点ペアは誤った特徴点ペアとして破棄する。
図29は、特徴点マッチング部542による特徴点マッチングのフローチャートである。特徴量計算部5421は、参照画像A1における各々の特徴点に対して特徴量を計算する(St508)。続いて、特徴量計算部5421は、対象画像A2における各々の特徴点に対して特徴量を計算する(St509)。特徴量相関値計算部5422は、参照画像A1の着目する特徴点と対象画像A2の全ての特徴点の間で特徴量の相関値を計算する(St510)。
続いて、特徴点ペア選択部5423は、参照画像A1の各特徴点に対して相関値が最大となる対象画像A2の特徴点を選択する(St511)。スケール値比較部5424は特徴点ペアに対してスケール値の比率を計算し、特徴点ペアの信頼性を判定する(St512)。
特徴点マッチング部542はこのようにして信頼性が高い特徴点ペアを抽出し、画像重畳部533に供給する。
画像重畳部543は、特徴点マッチング部542から供給された特徴点ペアを用いて参照画像A1と対象画像A2の位置合わせを行い、ナビゲーション情報(術前計画)を対象画像A2に重畳させ、ナビゲーション画像を生成する。
画像生成部54は以上のような構成を有する。上記のように特徴点検出部541は、拡大率Mを利用することにより、探索の高速化を実現することができる。また、特徴点マッチング部542は、拡大率Mを利用することにより、特徴点ペアの精度を向上させることができる。
情報処理装置50は、第1の実施形態に係る情報処理装置10と同様のハードウェア構成によって実現されているものとすることができる。
(第6の実施形態)
本技術の第6の実施形態に係る手術顕微鏡システムについて説明する。
[手術顕微鏡システムの構成]
図30は、本実施形態に係る手術顕微鏡システム6の構成を示すブロック図である。同図に示すように、手術顕微鏡システム6は、情報処理装置60及び手術顕微鏡65を具備する。
情報処理装置60は、パーソナルコンピュータ等の情報処理が可能な装置である。情報処理装置60は、手術顕微鏡65に一体的に構成されていてもよく、手術顕微鏡65とは独立した装置であってもよい。情報処理装置60の構成については後述する。
手術顕微鏡65は、図30に示すように施術対象の眼Eに対向し、眼Eの顕微鏡拡大像を撮影する。手術顕微鏡65の構成は特に限定されず、眼Eの撮影が可能なものであればよい。手術顕微鏡65は、光学的あるいはデジタル的に撮影画像の拡大率を変更可能であり、また、手術顕微鏡65と眼Eの相対位置(距離)によっても撮影画像の拡大率が変更可能なものとすることができる。
[情報処理装置の構成]
図30に示すように、情報処理装置60は、画像取得部61、拡大率取得部62及び画像生成部63を具備する。
画像取得部61は、眼Eを含む画像を取得する。画像取得部61は、第1の実施形態に係る画像取得部11と同様に、参照画像及び対象画像を取得するものとすることができる。画像取得部61は、検査装置や手術顕微鏡等から直接に各画像を取得してもよく、ネットワークを介して又は、ストレージに保存されている各画像を取得してもよい。画像取得部61は、取得した各画像を拡大率取得部62及び画像生成部63に供給する。
拡大率取得部62は、参照画像と対象画像の拡大率を取得する。拡大率取得部62は、実施形態1乃至4において説明したいずれかの方法、即ち、各画像に対する物体認識処理、撮影装置と施術対象の眼の距離又は撮影装置のズーム率の少なくともいずれかを利用して拡大率を取得するものとすることができる。拡大率取得部62は、取得した拡大率を画像生成部63に供給する。
画像生成部63は、拡大率取得部62から供給された拡大率を用いてナビゲーション情報を含むナビゲーション画像を生成する。画像生成部63は、拡大率に応じて異なる情報をナビゲーション情報として選択し、ナビゲーション画像を生成する。この詳細については後述する。画像生成部63は、ナビゲーション画像をディスプレイに表示させる。
情報処理装置50は以上のような構成を有する。なお、上記各画像は必ずしも検査装置又は手術顕微鏡によって撮影されたものでなくてもよく、少なくとも施術対象の眼を含む画像であればよい。さらに、上記各画像は、静止画像でもよく、動画の1フレームであってもよい。
[画像生成部の詳細]
上述のように画像生成部63は、拡大率Mに基づいて、ナビゲーション情報を選択し、ナビゲーション情報を生成する。
図31は、画像生成部63の構成及び動作を示すブロック図である。同図に示すように、画像生成部63は、閾値処理部631、提示情報切替部632及び画像重畳部633を具備する。
閾値処理部631は、拡大率Mが供給されると、拡大率Mに対して閾値処理を実行し、提示するナビゲーション情報の識別子を選択する。閾値は一つであってもよく、複数であってもよい。閾値処理部631は、選択した識別子を提示情報切替部632に供給する。
提示情報切替部632は、記憶部に記憶されているナビゲーション情報のうち、閾値処理部631から供給された識別子で指定されたナビゲーション情報を選択し、画像重畳部633に供給する。
画像重畳部633は、提示情報切替部632から供給されたナビゲーション情報を、対象画像に重畳させ、ナビゲーション画像を生成する。画像重畳部633は、対象画像に対する画像処理によって、眼の組織(角膜等)を検出し、その位置に応じてナビゲーション情報を対象画像に重畳させるものとすることができる。
図32は、画像生成部63の動作を示すフローチャートである。同図に示すように、閾値処理部631は、拡大率Mが供給されると、拡大率Mに対して閾値処理を実行する(St601)。即ち、閾値処理部631は、拡大率Mと閾値の大小関係に応じて(St601)、提示するナビゲーション情報の識別子を選択し、選択した識別子を提示情報切替部632に供給する。提示情報切替部632は、閾値処理部631から供給された識別子で指定されたナビゲーション情報を選択し(St603)、画像重畳部633に供給する。画像重畳部633は供給されたナビゲーション情報を対象画像に重畳させてナビゲーション画像を生成し、ディスプレイに表示させる(St604)。
図33は、画像生成部63によるナビゲーション情報の切り替え動作の例である。閾値処理部631は、手術時間の経過に伴う拡大率Mの変動に応じて異なる識別子を選択し、提示情報切替部632は識別子に応じて提示するナビゲーションを選択する。例えば、図33に示すように拡大率Mが閾値2以上である場合、ナビゲーション情報1が選択され、拡大率Mが閾値1以上閾値2未満である場合、ナビゲーション情報2が選択される。また、拡大率Mが閾値1未満である場合、ナビゲーション情報3が選択される。
図34は、画像生成部63によって生成されるナビゲーション画像の例である。同図においてナビゲーション情報は、角膜の周縁に配置された角度目盛である。図34(a)は拡大率Mが閾値2以上の場合であり、ナビゲーション情報1(N1)が含まれている。このナビゲーション情報1は所定の間隔の目盛を有する。図34(b)は拡大率Mが閾値1以上閾値2未満の場合であり、ナビゲーション情報2(N2)が含まれている。ナビゲーション情報2は、ナビゲーション情報1より目盛り間隔が大きくなっている。図34(c)は拡大率Mが閾値1未満の場合であり、ナビゲーション情報3(非表示)が含まれている。
このように画像生成部63は、拡大率Mの大きさによって表示するナビゲーション情報を切り替える。ユーザは、拡大率Mが大きくなるズームインの操作をするとき、眼内レンズの挿入角度をより詳細に確認することを意図していると考えられる。そこで、これをサポートするために、より細かい角度目盛を備えるナビゲーション情報を表示する。また、ユーザは、拡大率Mが小さくなるズームアウトの操作をするとき、出血の有無や眼全体の俯瞰チェックを意図していると考えられる。そこでは、角度の目盛表示は不必要であるため、ナビゲーション情報を非表示にする。
なお、ナビゲーション情報は、角度目盛に限られず、拡大率Mの変動に応じて切り替えられるものであればよい。また、画像重畳部633は、眼の組織の位置に応じて撮影画像に重畳させるものでなくてもよく、眼の組織の位置とは無関係にナビゲーション情報を重畳させてもよい。
画像生成部63は以上のような構成を有する。上記のように画像生成部63は、拡大率Mに応じて異なるナビゲーション情報を含むナビゲーション画像を生成する。ナビゲーション情報は拡大率Mに応じて自動的に選択されるため、ユーザが手動で選択する必要がなく、高い利便性を提供することができる。
(第7の実施形態)
本技術の第7の実施形態に係る手術顕微鏡システムについて説明する。
[手術顕微鏡システムの構成]
図35は、本実施形態に係る手術顕微鏡システム7の構成を示すブロック図である。同図に示すように、手術顕微鏡システム7は、情報処理装置70及び手術顕微鏡75を具備する。
情報処理装置70は、パーソナルコンピュータ等の情報処理が可能な装置である。情報処理装置70は、手術顕微鏡75に一体的に構成されていてもよく、手術顕微鏡75とは独立した装置であってもよい。情報処理装置70の構成については後述する。
手術顕微鏡75は、図35に示すように施術対象の眼Eに対向し、眼Eの顕微鏡拡大像を撮影する。手術顕微鏡75の構成は特に限定されず、眼Eの撮影が可能なものであればよい。手術顕微鏡75は、光学的あるいはデジタル的に撮影画像の拡大率を変更可能であり、また、手術顕微鏡75と眼Eの相対位置(距離)によっても撮影画像の拡大率が変更可能なものとすることができる。
[情報処理装置の構成]
図35に示すように、情報処理装置70は、画像取得部71、拡大率取得部72及び画像生成部73を具備する。
画像取得部71は、施術対象の眼を含む画像を取得する。画像取得部71は、第1の実施形態に係る画像取得部11と同様に、参照画像及び対象画像を取得するものとすることができる。画像取得部71は、検査装置や手術顕微鏡等から直接に各画像を取得してもよく、ネットワークを介して又は、ストレージに保存されている各画像を取得してもよい。画像取得部71は、取得した各画像を拡大率取得部72及び画像生成部73に供給する。
拡大率取得部72は、参照画像と対象画像の拡大率を取得する。拡大率取得部72は、実施形態1乃至4において説明したいずれかの方法、即ち、各画像に対する物体認識処理、撮影装置と施術対象の眼の距離又は撮影装置のズーム率の少なくともいずれかを利用して拡大率を取得するものとすることができる。拡大率取得部72は、取得した拡大率を画像生成部73に供給する。
画像生成部73は、拡大率取得部72から供給された拡大率を用いて画像処理を行い、表示画像を生成する。この詳細については後述する。画像生成部73は、画像処理により生成した表示画像をディスプレイに表示させる。
情報処理装置70は以上のような構成を有する。なお、上記各画像は必ずしも検査装置又は手術顕微鏡によって撮影されたものでなくてもよく、少なくとも施術対象の眼を含む画像であればよい。さらに、上記各画像は、静止画像でもよく、動画の1フレームであってもよい。
[画像生成部の詳細]
上述のように画像生成部73は、拡大率Mに応じて対象画像に画像処理を施す。
図36は、画像生成部73の構成及び動作を示すブロック図である。同図に示すように、画像生成部73は、閾値処理部731及び画像処理切替部732を具備する。
閾値処理部731は、拡大率Mが供給されると、拡大率Mに対して閾値処理を実行し、画像処理の種類を選択する。閾値は一つであってもよく、複数であってもよい。画像処理の種類は特に限定されないが、陰影強調処理や高精彩化処理、血管強調処理等である。閾値処理部731は、選択した画像処理の種類を画像処理切替部732に供給する。
画像処理切替部732は、閾値処理部731によって選択された種類の画像処理を対象画像に施す。
図37は、画像生成部73の動作を示すフローチャートである。同図に示すように、閾値処理部731は、拡大率Mが供給されると、拡大率Mに対して閾値処理を実行する(St701)。即ち、閾値処理部631は、拡大率Mと閾値の比較結果に応じて(St701)、画像処理の種類を選択し、選択した画像処理の種類を画像処理切替部732に供給する。画像処理切替部732は、閾値処理部731によって選択された画像処理を対象画像に施し(St703)、ディスプレイに表示させる(St704)。
このように画像生成部73は、拡大率Mの大きさによって対象画像に異なる画像処理を施す。ユーザは、拡大率Mが大きくなるズームインの操作をするとき、角膜内部を詳細に確認することを意図していると考えられる。そこで、画像生成部73は、角膜内部の視認性を向上させるために、陰影強調や高精細化などの画像処理を適用する。また、ユーザは、拡大率が小さくなるズームアウトの操作をするとき、出血の有無や眼全体の俯瞰チェックを意図していると考えられる。そこで、画像生成部73は血管強調などの画像処理を適用する。
画像生成部73は以上のような構成を有する。上記のように画像生成部73は、拡大率Mに応じて異なる画像処理を対象画像に施し、ナビゲーション画像を生成する。画像処理の種類は拡大率Mに応じて自動的に選択されるため、ユーザが手動で選択する必要がなく、高い利便性を提供することができる。
(第8の実施形態)
本技術の第8の実施形態に係る手術顕微鏡システムについて説明する。
[手術顕微鏡システムの構成]
図38は、本実施形態に係る手術顕微鏡システム8の構成を示すブロック図である。同図に示すように、手術顕微鏡システム8は、情報処理装置80及び手術顕微鏡85を具備する。
情報処理装置80は、パーソナルコンピュータ等の情報処理が可能な装置である。情報処理装置80は、手術顕微鏡85に一体的に構成されていてもよく、手術顕微鏡85とは独立した装置であってもよい。情報処理装置80の構成については後述する。
手術顕微鏡85は、図35に示すように施術対象の眼Eに対向し、眼Eの顕微鏡拡大像を撮影する。手術顕微鏡85の構成は特に限定されず、眼Eの撮影が可能なものであればよい。手術顕微鏡85は、光学的あるいはデジタル的に撮影画像の拡大率を変更可能であり、また、手術顕微鏡85と眼Eの相対位置(距離)によっても撮影画像の拡大率が変更可能なものとすることができる。
[情報処理装置の構成]
図38に示すように、情報処理装置80は、画像取得部81、拡大率取得部82及び顕微鏡制御部83を具備する。
画像取得部81は、眼Eを含む画像を取得する。画像取得部81は、第1の実施形態に係る画像取得部11と同様に、参照画像及び対象画像を取得するものとすることができる。画像取得部81は、検査装置や手術顕微鏡等から直接に各画像を取得してもよく、ネットワークを介して又は、ストレージに保存されている各画像を取得してもよい。画像取得部81は、取得した各画像を拡大率取得部82及び顕微鏡制御部83に供給する。
拡大率取得部82は、参照画像と対象画像の拡大率を取得する。拡大率取得部82は、実施形態1乃至4において説明したいずれかの方法、即ち、各画像に対する物体認識処理、撮影装置と施術対象の眼の距離又は撮影装置のズーム率の少なくともいずれかを利用して拡大率を取得するものとすることができる。拡大率取得部82は、取得した拡大率を顕微鏡制御部83に供給する。
顕微鏡制御部83は、拡大率取得部82から供給された拡大率を用いて手術顕微鏡85を制御する。本実施形態における手術顕微鏡85は、光学系に導入することが可能な帯域通過フィルタを備える手術顕微鏡であるものとする。顕微鏡制御部83は、拡大率に応じて手術顕微鏡85に設けられた帯域通過フィルタを切り替えるものとすることができる。この詳細については後述する。
情報処理装置80は以上のような構成を有する。なお、上記各画像は必ずしも検査装置又は手術顕微鏡によって撮影されたものでなくてもよく、少なくとも施術対象の眼を含む画像であればよい。さらに、上記各画像は、静止画像でもよく、動画の1フレームであってもよい。
[顕微鏡制御部の詳細]
上述のように顕微鏡制御部83は、拡大率Mに応じて手術顕微鏡85を制御する。
図39は、顕微鏡制御部83の構成及び動作を示すブロック図である。同図に示すように、顕微鏡制御部83は、閾値処理部831及び帯域通過フィルタ切替部832を具備する。
閾値処理部831は、拡大率Mが供給されると、拡大率Mに対して閾値処理を実行し、帯域通過フィルタの種類を選択する。帯域通過フィルタの種類は、赤色通過フィルタや緑色・青色通過フィルタ等である。閾値処理部831は例えば、拡大率Mが閾値以上であれば赤色通過フィルタを選択し、拡大率Mが閾値未満であれば緑色・青色通過フィルタを選択するものとすることができる。閾値処理部831は、選択した帯域通過フィルタの種類を帯域通過フィルタ切替部832に供給する。
帯域通過フィルタ切替部832は、閾値処理部831から供給された種類の帯域通過フィルタを光学系に導入するように手術顕微鏡85に指示する。
図40は、顕微鏡制御部83の動作を示すフローチャートである。同図に示すように、閾値処理部831は、拡大率Mが供給されると、拡大率Mに対して閾値処理を実行する(St801)。即ち、閾値処理部631は、拡大率Mと閾値の比較結果に応じて帯域通過フィルタの種類を選択し(St801)、帯域通過フィルタ切替部832に指示する。帯域通過フィルタ切替部832は、閾値処理部831から供給された種類の帯域通過フィルタを光学系に導入するように撮影装置に指示する(St803)。手術顕微鏡85は、導入された帯域通過フィルタを利用して眼Eの画像を撮影する(St804)。
このように、顕微鏡制御部83によって、拡大率Mに応じて手術顕微鏡85の帯域通過フィルタが切り替えられ、眼Eの画像が撮影される。画像取得部81は、手術顕微鏡85からこの画像を取得し、ディスプレイに表示させるものとすることができる。ユーザは、拡大率が大きくなるズームインの操作をするとき、角膜内部を詳細に確認することを意図していると考えられる。そこで、顕微鏡制御部83は角膜内部の視認性を向上させるために、赤色を強調(通過)するような帯域通過フィルタを適用する。また、ユーザは、拡大率が小さくなるズームアウトの操作をするとき、出血の有無や眼全体の俯瞰チェックを意図していると考えられる。そこで、顕微鏡制御部83は血管を強調するために、緑色や青色を強調(通過)するような帯域通過フィルタを適用する。
顕微鏡制御部83は以上のような構成を有する。上記のように顕微鏡制御部83は、拡大率Mに応じて撮影装置の光学系における帯域通過フィルタの種類を切り替える。帯域通過フィルタの切り替えは、拡大率Mに応じて自動的に選択されるため、ユーザが手動で選択する必要がなく、高い利便性を提供することができる。
(第9の実施形態)
本技術の第9の実施形態に係る手術顕微鏡システムについて説明する。
[手術顕微鏡システムの構成]
図41は、本実施形態に係る手術顕微鏡システム9の構成を示すブロック図である。同図に示すように、手術顕微鏡システム9は、情報処理装置90及び手術顕微鏡95を具備する。
情報処理装置90は、パーソナルコンピュータ等の情報処理が可能な装置である。情報処理装置90は、手術顕微鏡95に一体的に構成されていてもよく、手術顕微鏡95とは独立した装置であってもよい。情報処理装置90の構成については後述する。
手術顕微鏡95は、図41に示すように施術対象の眼Eに対向し、眼Eの顕微鏡拡大像を撮影する。手術顕微鏡95の構成は特に限定されず、眼Eの撮影が可能なものであればよい。手術顕微鏡95は、光学的あるいはデジタル的に撮影画像の拡大率を変更可能であり、また、手術顕微鏡95と眼Eの相対位置(距離)によっても撮影画像の拡大率が変更可能なものとすることができる。
(情報処理装置の構成)
図41に示すように、情報処理装置90は、画像取得部91、拡大率取得部92及び画像生成部93を具備する。
画像取得部91は、眼Eを含む画像を取得する。画像取得部91は、第1の実施形態に係る画像取得部11と同様に、参照画像及び対象画像を取得するものとすることができる。画像取得部91は、検査装置や手術顕微鏡等から直接に各画像を取得してもよく、ネットワークを介して又は、ストレージに保存されている各画像を取得してもよい。画像取得部91は、取得した各画像を拡大率取得部92及び画像生成部93に供給する。
拡大率取得部92は、参照画像と対象画像の拡大率を取得する。拡大率取得部92は、実施形態1乃至4において説明したいずれかの方法、即ち、各画像に対する物体認識処理、撮影装置と施術対象の眼の距離又は撮影装置のズーム率の少なくともいずれかを利用して拡大率を取得するものとすることができる。拡大率取得部92は、取得した拡大率を画像生成部93に供給する。
画像生成部93は、拡大率取得部92から供給された拡大率を用いて三次元(3D)画像であるナビゲーション画像を生成する。本実施形態における手術顕微鏡95は、3D撮影が可能な手術顕微鏡であるものとする。画像生成部93は、拡大率に応じて3D視差を調整するものとすることができる。この詳細については後述する。
情報処理装置90は以上のような構成を有する。なお、上記各画像は必ずしも検査装置又は手術顕微鏡によって撮影されたものでなくてもよく、少なくとも施術対象の眼を含む画像であればよい。さらに、上記各画像は、静止画像でもよく、動画の1フレームであってもよい。
[画像生成部の詳細]
上述のように画像生成部93は、拡大率Mに応じて3D画像の視差を調整する。
図42は、画像生成部93の構成及び動作を示すブロック図である。同図に示すように、画像生成部93は、閾値処理部931及び3D視差調整部932を具備する。
閾値処理部931は、拡大率Mが供給されると、拡大率Mに対して閾値処理を実行し、
3D画像における視差の強調程度を選択する。閾値処理部931は例えば、拡大率Mが閾値以上であれば視差の強調程度を小さくし、拡大率Mが閾値未満であれば視差の強調程度を大きくするものとすることができる。また、閾値処理部931は、拡大率Mが閾値以上であれば視差の強調を実行しないものとすることも可能である。閾値処理部831は、選択した視差の強調程度を3D視差調整部932に供給する。
3D視差調整部932は、3D撮影画像に対して、閾値処理部931から供給された強調程度で視差を調整し、3D画像を生成する。
図43は、画像生成部93の動作を示すフローチャートである。同図に示すように、閾値処理部931は、拡大率Mが供給されると、拡大率Mに対して閾値処理を実行する(St901)。即ち、閾値処理部931は、拡大率Mと閾値の比較結果に応じて視差の強調程度を選択し(St901)、3D視差調整部932に指示する。3D視差調整部932は、閾値処理部931から供給された視差の強調程度で3D画像を生成(St903)し、ディスプレイに表示させる(St904)。
このように、画像生成部93によって、拡大率Mに応じて視差強調の程度が異なる3D画像が生成される。画像生成部93は、生成した3D画像をディスプレイに表示させるものとすることができる。ユーザが拡大率を大きくするズームインの操作をすると、画像が拡大されるため視差の強い3D画像が表示されてしまう。そこで、画像生成部93は視差を非強調する処理を行い、目に優しい3D画像を提示する。また、ユーザが拡大率が小さくなるズームアウトの操作をすると、画像が縮小されるため視差の弱い3D画像が表示されてしまう。そこで、画像生成部93は視差を強調処理し、立体感のある3D画像を提示する。
画像生成部93は以上のような構成を有する。上記のように画像生成部93は、拡大率Mに応じて3D画像の視差の強調程度を変更する。視差の強調程度の変更は、拡大率Mに応じて自動的に選択されるため、ユーザが手動で選択する必要がなく、高い利便性を提供することができる。
なお、本技術は以下のような構成もとることができる。
(1)
施術対象の眼が撮影された画像である参照画像と、上記参照画像が撮影された時刻とは異なる時刻に上記眼が撮影された画像である対象画像について、上記対象画像の上記参照画像に対する拡大率を取得する拡大率取得部と、
上記拡大率取得部によって取得された拡大率に基づいて、上記眼の施術をガイドするナビゲーション情報を含むナビゲーション画像を生成する画像生成部と
を具備する情報処理装置。
(2)
上記(1)に記載の情報処理装置であって、
上記拡大率取得部は、上記参照画像において検出された物体の像の大きさと、上記対象画像において検出された上記物体の像の大きさの比率に基づいて上記拡大率を取得する
情報処理装置。
(3)
上記(1)又は(2)に記載の情報処理装置であって、
上記拡大率取得部は、上記参照画像が撮影されたときの撮影装置と上記眼の距離と、上記対象画像が撮影されたときの撮影装置と上記眼の距離の比率に基づいて上記拡大率を取得する
情報処理装置。
(4)
上記(1)から(3)のいずれか一つに記載の情報処理装置であって
上記拡大率取得部は、上記参照画像が撮影されたときの撮影装置のズーム率と、上記対象画像が撮影されたときの撮影装置のズーム率の比率に基づいて上記拡大率を取得する
情報処理装置。
(5)
上記(1)から(4)のいずれか一つに記載の情報処理装置であって、
上記拡大率取得部は、上記参照画像が撮影されたときの撮影装置と上記眼の距離及び撮影装置のズーム率と、上記対象画像が撮影されたときの撮影装置と上記眼の距離及び撮影装置のズーム率の比率に基づいて上記拡大率を取得する
情報処理装置。
(6)
上記(1)から(5)のいずれか一つに記載の情報処理装置であって、
上記画像生成部は、上記拡大率を利用して上記参照画像と上記対象画像の画像マッチングを行い、上記画像マッチングの結果を用いて上記ナビゲーション画像を生成する
情報処理装置。
(7)
上記(1)から(6)のいずれか一つに記載の情報処理措置であって、
上記画像生成部は、上記参照画像と上記対象画像のそれぞれにおいて特徴点を検出する特徴点検出部を備え、
上記特徴点検出部は、上記拡大率を利用して上記対象画像における特徴点を検出する
情報処理装置。
(8)
上記(1)から(7)のいずれか一つに記載の情報処理装置であって、
上記特徴点検出部は、上記参照画像と上記対象画像のそれぞれに対して平滑化画像を生成するためのガウシアンフィルタのスケール範囲を決定するスケール範囲決定部と、上記参照画像と上記対象画像のそれぞれに対して上記スケール範囲決定部により決定されたスケール範囲でDoG画像を生成するDoG画像生成部とを備え、
上記スケール範囲決定部は、上記対象画像についてのスケール範囲を上記拡大率によって制限する
情報処理装置。
(9)
上記(1)から(8)のいずれか一つに記載の情報処理装置であって、
上記画像生成部は、上記参照画像と上記対象画像のそれぞれにおいて検出された特徴点をマッチングする特徴点マッチング部を備え、
上記特徴点マッチング部は、上記拡大率を利用して上記マッチングを行う
情報処理装置。
(10)
上記(1)から(9)のいずれか一つに記載の情報処理装置であって、
上記特徴点マッチング部は、上記参照画像において検出された特徴点と上記対象画像において検出された特徴点のペアである特徴点ペアを選択する特徴点ペア選択部と、上記特徴点ペアのスケール比率によって上記特徴点ペアの正誤を判定するスケール値比較部とを備え、
上記スケール値比較部は、正判定とするスケール比率を上記拡大率によって制限する
情報処理装置。
(11)
上記(1)から(10)のいずれか一つに記載の情報処理装置であって、
上記画像生成部は、上記参照画像と上記対象画像のそれぞれにおいて特徴点を検出する特徴点検出部と、上記参照画像と上記対象画像のそれぞれにおいて検出された特徴点をマッチングする特徴点マッチング部とを備え、
上記特徴点検出部は、上記拡大率を利用して上記対象画像における特徴点を検出し、
上記特徴点マッチング部は、上記拡大率を利用して上記マッチングを行う
情報処理装置。
(12)
上記(1)から(11)のいずれか一つに記載の情報処理装置であって、
上記画像生成部は、上記拡大率に応じて異なるナビゲーション情報を含むナビゲーション画像を生成する
情報処理装置。
(13)
上記(1)から(12)のいずれか一つに記載の情報処理装置であって、
上記画像生成部は、上記拡大率が閾値未満の場合、所定間隔の目盛りを有する第1のナビゲーション情報を含むナビゲーション画像を生成し、上記拡大率が閾値以上の場合、上記第1のナビゲーション情報より小さい間隔の目盛りを有する第2のナビゲーション情報を含むナビゲーション画像を生成する
情報処理装置。
(14)
施術対象の眼を撮影する手術顕微鏡と、
施術対象の眼が撮影された画像である参照画像と、上記参照画像が撮影された時刻とは異なる時刻に上記眼が撮影された画像である対象画像について、上記対象画像の上記参照画像に対する拡大率を取得する拡大率取得部と、上記拡大率取得部によって取得された拡大率に基づいて、上記眼の施術をガイドするナビゲーション画像を生成する画像生成部とを備える情報処理装置と
を具備する手術顕微鏡システム。
(15)
拡大率取得部が、施術対象の眼が撮影された画像である参照画像と、上記参照画像が撮影された時刻とは異なる時刻に上記眼が撮影された画像である対象画像について、上記対象画像の上記参照画像に対する拡大率を取得し、
画像生成部が、上記拡大率取得部によって取得された拡大率に基づいて、上記眼の施術をガイドするナビゲーション画像を生成する
情報処理方法。
1、2、3、4、5、6、7、8、9…手術顕微鏡システム
10、20、30、40、50、60、70、80、90…情報処理装置
15、25、35、45、55、65、75、85、95…手術顕微鏡
11、21、31、41、51、61、71、81、91…画像取得部
12、22、32、42、52…入力受付部
13、23、33、43、53、62、72、82、92…拡大率取得部
14、24、34、44、54、63、73、93…画像生成部
83…顕微鏡制御部
541…特徴点検出部
542…特徴点マッチング部
5411…DoG画像作成部
5412…DoG極値探索部
5413…スケール範囲決定部
5421…特徴量計算部
5422…特徴量相関値計算部
5423…特徴点ペア選択部
5424…スケール値比較部

Claims (15)

  1. 施術対象の眼が撮影された画像である参照画像と、前記参照画像が撮影された時刻とは異なる時刻に前記眼が撮影された画像である対象画像について、前記対象画像の前記参照画像に対する拡大率を取得する拡大率取得部と、
    前記拡大率取得部によって取得された拡大率に基づいて、前記眼の施術をガイドするナビゲーション情報を含むナビゲーション画像を生成する画像生成部と
    を具備する情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記拡大率取得部は、前記参照画像において検出された物体の像の大きさと、前記対象画像において検出された前記物体の像の大きさの比率に基づいて前記拡大率を取得する
    情報処理装置。
  3. 請求項1に記載の情報処理装置であって、
    前記拡大率取得部は、前記参照画像が撮影されたときの撮影装置と前記眼の距離と、前記対象画像が撮影されたときの撮影装置と前記眼の距離の比率に基づいて前記拡大率を取得する
    情報処理装置。
  4. 請求項1に記載の情報処理装置であって、
    前記拡大率取得部は、前記参照画像が撮影されたときの撮影装置のズーム率と、前記対象画像が撮影されたときの撮影装置のズーム率の比率に基づいて前記拡大率を取得する
    情報処理装置。
  5. 請求項1に記載の情報処理装置であって、
    前記拡大率取得部は、前記参照画像が撮影されたときの撮影装置と前記眼の距離及び撮影装置のズーム率と、前記対象画像が撮影されたときの撮影装置と前記眼の距離及び撮影装置のズーム率の比率に基づいて前記拡大率を取得する
    情報処理装置。
  6. 請求項1に記載の情報処理装置であって、
    前記画像生成部は、前記拡大率を利用して前記参照画像と前記対象画像の画像マッチングを行い、前記画像マッチングの結果を用いて前記ナビゲーション画像を生成する
    情報処理装置。
  7. 請求項6に記載の情報処理装置であって、
    前記画像生成部は、前記参照画像と前記対象画像のそれぞれにおいて特徴点を検出する特徴点検出部を備え、
    前記特徴点検出部は、前記拡大率を利用して前記対象画像における特徴点を検出する
    情報処理装置。
  8. 請求項7に記載の情報処理装置であって、
    前記特徴点検出部は、前記参照画像と前記対象画像のそれぞれに対して平滑化画像を生成するためのガウシアンフィルタのスケール範囲を決定するスケール範囲決定部と、前記参照画像と前記対象画像のそれぞれに対して前記スケール範囲決定部により決定されたスケール範囲でDoG画像を生成するDoG画像生成部とを備え、
    前記スケール範囲決定部は、前記対象画像についてのスケール範囲を前記拡大率によって制限する
    情報処理装置。
  9. 請求項6に記載の情報処理装置であって、
    前記画像生成部は、前記参照画像と前記対象画像のそれぞれにおいて検出された特徴点をマッチングする特徴点マッチング部を備え、
    前記特徴点マッチング部は、前記拡大率を利用して前記マッチングを行う
    情報処理装置。
  10. 請求項9に記載の情報処理装置であって、
    前記特徴点マッチング部は、前記参照画像において検出された特徴点と前記対象画像において検出された特徴点のペアである特徴点ペアを選択する特徴点ペア選択部と、前記特徴点ペアのスケール比率によって前記特徴点ペアの正誤を判定するスケール値比較部とを備え、
    前記スケール値比較部は、正判定とするスケール比率を前記拡大率によって制限する
    情報処理装置。
  11. 請求項6に記載の情報処理装置であって、
    前記画像生成部は、前記参照画像と前記対象画像のそれぞれにおいて特徴点を検出する特徴点検出部と、前記参照画像と前記対象画像のそれぞれにおいて検出された特徴点をマッチングする特徴点マッチング部とを備え、
    前記特徴点検出部は、前記拡大率を利用して前記対象画像における特徴点を検出し、
    前記特徴点マッチング部は、前記拡大率を利用して前記マッチングを行う
    情報処理装置。
  12. 請求項1に記載の情報処理装置であって、
    前記画像生成部は、前記拡大率に応じて異なるナビゲーション情報を含むナビゲーション画像を生成する
    情報処理装置。
  13. 請求項12に記載の情報処理装置であって、
    前記画像生成部は、前記拡大率が閾値未満の場合、所定間隔の目盛りを有する第1のナビゲーション情報を含むナビゲーション画像を生成し、前記拡大率が閾値以上の場合、前記第1のナビゲーション情報より小さい間隔の目盛りを有する第2のナビゲーション情報を含むナビゲーション画像を生成する
    情報処理装置。
  14. 施術対象の眼を撮影する手術顕微鏡と、
    前記眼が撮影された画像である参照画像と、前記参照画像が撮影された時刻とは異なる時刻に前記眼が撮影された画像である対象画像について、前記対象画像の前記参照画像に対する拡大率を取得する拡大率取得部と、前記拡大率取得部によって取得された拡大率に基づいて、前記眼の施術をガイドするナビゲーション画像を生成する画像生成部とを備える情報処理装置と
    を具備する手術顕微鏡システム。
  15. 拡大率取得部が、施術対象の眼が撮影された画像である参照画像と、前記参照画像が撮影された時刻とは異なる時刻に前記眼が撮影された画像である対象画像について、前記対象画像の前記参照画像に対する拡大率を取得し、
    画像生成部が、前記拡大率取得部によって取得された拡大率に基づいて、前記眼の施術をガイドするナビゲーション画像を生成する
    情報処理方法。
JP2014256040A 2014-12-18 2014-12-18 情報処理装置、手術顕微鏡システム及び情報処理方法 Pending JP2016112358A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014256040A JP2016112358A (ja) 2014-12-18 2014-12-18 情報処理装置、手術顕微鏡システム及び情報処理方法
PCT/JP2015/005995 WO2016098300A1 (ja) 2014-12-18 2015-12-02 情報処理装置、手術顕微鏡システム及び情報処理方法
EP15869510.6A EP3235477B1 (en) 2014-12-18 2015-12-02 Information processing device, surgical microscope system and information processing method
US15/532,074 US10420468B2 (en) 2014-12-18 2015-12-02 Information processing apparatus, surgery microscope system, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014256040A JP2016112358A (ja) 2014-12-18 2014-12-18 情報処理装置、手術顕微鏡システム及び情報処理方法

Publications (1)

Publication Number Publication Date
JP2016112358A true JP2016112358A (ja) 2016-06-23

Family

ID=56126209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014256040A Pending JP2016112358A (ja) 2014-12-18 2014-12-18 情報処理装置、手術顕微鏡システム及び情報処理方法

Country Status (4)

Country Link
US (1) US10420468B2 (ja)
EP (1) EP3235477B1 (ja)
JP (1) JP2016112358A (ja)
WO (1) WO2016098300A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018105411A1 (ja) * 2016-12-06 2018-06-14 ソニー株式会社 画像処理装置および方法、並びに手術顕微鏡システム
CN111128362A (zh) * 2020-01-22 2020-05-08 复旦大学附属华山医院 一种眼科手术智能控制系统
WO2022163189A1 (ja) 2021-01-29 2022-08-04 ソニーグループ株式会社 画像処理装置、画像処理方法及び手術顕微鏡システム
WO2022181194A1 (ja) * 2021-02-26 2022-09-01 ソニーグループ株式会社 画像処理装置、画像処理方法及び手術顕微鏡システム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3773148A2 (en) * 2018-04-11 2021-02-17 Alcon Inc. Automatic xy centering for digital microscope
US11340441B2 (en) 2019-07-09 2022-05-24 Lightech Fiberoptics, Inc. Microscope made with CMOS camera(s)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10226382B4 (de) * 2002-06-13 2004-05-19 Carl Zeiss Kataraktchirurgie-Mikroskopiesystem und Verfahren hierzu
DE102004055683B4 (de) 2004-10-26 2006-09-07 Carl Zeiss Surgical Gmbh Augenchirurgie-Mikroskopiesystem und Verfahren hierzu
EP2184005B1 (en) 2008-10-22 2011-05-18 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Method and apparatus for image processing for computer-aided eye surgery
CH699888A1 (de) * 2008-11-08 2010-05-14 Leica Instr Singapore Pte Ltd Vorrichtung zur Überwachung der Implantation einer IOL (Orientierungsüberwachung).
JP5511516B2 (ja) * 2010-05-31 2014-06-04 株式会社ニデック 眼科装置
JP5915000B2 (ja) * 2011-06-13 2016-05-11 ソニー株式会社 情報処理装置及びプログラム
US10073515B2 (en) * 2013-09-18 2018-09-11 Nanophthalmos, Llc Surgical navigation system and method
JP5570673B2 (ja) 2014-03-10 2014-08-13 株式会社ニデック 眼科装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018105411A1 (ja) * 2016-12-06 2018-06-14 ソニー株式会社 画像処理装置および方法、並びに手術顕微鏡システム
JPWO2018105411A1 (ja) * 2016-12-06 2019-10-24 ソニー株式会社 画像処理装置および方法、並びに手術顕微鏡システム
CN111128362A (zh) * 2020-01-22 2020-05-08 复旦大学附属华山医院 一种眼科手术智能控制系统
WO2022163189A1 (ja) 2021-01-29 2022-08-04 ソニーグループ株式会社 画像処理装置、画像処理方法及び手術顕微鏡システム
WO2022181194A1 (ja) * 2021-02-26 2022-09-01 ソニーグループ株式会社 画像処理装置、画像処理方法及び手術顕微鏡システム

Also Published As

Publication number Publication date
EP3235477B1 (en) 2022-01-26
EP3235477A4 (en) 2018-08-22
US20170273559A1 (en) 2017-09-28
US10420468B2 (en) 2019-09-24
WO2016098300A1 (ja) 2016-06-23
EP3235477A1 (en) 2017-10-25

Similar Documents

Publication Publication Date Title
WO2016098300A1 (ja) 情報処理装置、手術顕微鏡システム及び情報処理方法
JP6612959B2 (ja) 主観的距離計測に基づく眼の屈折異常の測定のためのシステムおよび方法
US11490986B2 (en) System and method for improved electronic assisted medical procedures
JP6323183B2 (ja) 画像処理装置および画像処理方法
US9613419B2 (en) Image generating device and image generating method
US10776937B2 (en) Image processing apparatus and image processing method for setting measuring point to calculate three-dimensional coordinates of subject image with high reliability
EP3305173A1 (en) Surgery system, and device and method for processing image
JP6797936B2 (ja) レーザ手術のための患者のアイレジストレーション用オーバレイ画像形成
US8052598B2 (en) Systems and methods for calibrating an endoscope
EP2755548B1 (en) Determination of the azimuthal orientation of a patient's eye
JP2017158764A (ja) 画像処理装置、画像処理方法、及び記録媒体
JP2017104343A (ja) 画像処理装置、画像処理方法及びプログラム
JP5822545B2 (ja) 画像処理装置、画像処理装置の制御方法、およびプログラム
WO2021242932A1 (en) Generation of three-dimensional images with digital magnification
JP2018530392A (ja) 眼科手術画像処理
WO2017169014A1 (ja) 医療用立体観察装置、医療用立体観察方法、及びプログラム
JP2009168499A (ja) 内視鏡装置およびプログラム
US20200175656A1 (en) Image processing apparatus, ophthalmic observation apparatus, and ophthalmic observation system
JP5149984B2 (ja) 撮像装置
US20180353053A1 (en) Image processing apparatus, image processing method, and endoscope
JP2011259503A (ja) 撮像装置
JP2013034208A (ja) 撮像装置
US20240180629A1 (en) System and method for improved electronic assisted medical procedures
JP2020124569A (ja) 画像処理装置、画像処理方法及びプログラム
JP2013021706A (ja) 撮像装置