JP2019500132A - 対象の眼組織に対するツール先端部の位置および配向を決定するためのシステムおよび方法 - Google Patents

対象の眼組織に対するツール先端部の位置および配向を決定するためのシステムおよび方法 Download PDF

Info

Publication number
JP2019500132A
JP2019500132A JP2018533646A JP2018533646A JP2019500132A JP 2019500132 A JP2019500132 A JP 2019500132A JP 2018533646 A JP2018533646 A JP 2018533646A JP 2018533646 A JP2018533646 A JP 2018533646A JP 2019500132 A JP2019500132 A JP 2019500132A
Authority
JP
Japan
Prior art keywords
tissue
orientation
tool tip
tool
eye tissue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018533646A
Other languages
English (en)
Other versions
JP6986017B2 (ja
Inventor
シュナイダー,ロン
ゼイトウニー,アブラハム
イエリン,エイナヴ ネイマー
イエリン,エイナヴ ネイマー
Original Assignee
エルビット システムズ リミテッド
エルビット システムズ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エルビット システムズ リミテッド, エルビット システムズ リミテッド filed Critical エルビット システムズ リミテッド
Publication of JP2019500132A publication Critical patent/JP2019500132A/ja
Application granted granted Critical
Publication of JP6986017B2 publication Critical patent/JP6986017B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0008Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0036Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room including treatment, e.g., using an implantable medical device, ablating, ventilating
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/064Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B90/35Supports therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/05Surgical care
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6844Monitoring or controlling distance between sensor and tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7405Details of notification to user or communication with user or patient ; user input means using sound
    • A61B5/7415Sound rendering of measured values, e.g. by pitch or volume variation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Eye Examination Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

対象の眼組織に対するツール先端部の位置および配向(P&O)を決定するためのシステムおよび方法。システムはプロセッサと結合された撮像および追跡モジュールを含む。撮像および追跡モジュールは撮像装置を少なくとも含む。撮像装置は、少なくとも1つの組織基準マーカーの少なくとも1つの画像を取得する。撮像および追跡モジュールは、ツールのP&Oに関する情報をさらに決定する。プロセッサは、組織基準マーカーの取得した画像に従って組織基準マーカーのP&Oを決定する。プロセッサは、組織基準マーカーのP&O、および組織基準マーカーと対象の眼組織との間の所定の相対P&Oに従って対象の眼組織のP&Oを決定する。またプロセッサは、ツールマーカーに従ってツール先端部のP&Oを決定し、ツール先端部と対象の眼組織との間の相対P&Oを決定する。
【選択図】図1A

Description

開示された技法は、一般に対象の眼組織の断裂を防ぐためのシステムおよび方法に関し、詳細には対象の眼組織に対するツール先端部の位置および配向を決定するためのシステムおよび方法に関する。
眼の光学構造は、角膜、虹彩、水晶体および水晶体嚢などの薄く脆弱な透明組織を含む。眼科における一般的な外科的処置(例えば白内障手術、眼内レンズ着床、角膜移植など)は、前眼に関連し、立体顕微鏡を使用して行われる。概して眼組織は透明であり、したがって見難い。これらの外科的処置は、透明の眼組織を通して可視性が低いために複雑である。これらの処置中に外科医はこれらの透明組織を切断し、または切断を避ける必要がある。透明の眼組織への損傷は、手術中に合併症を引き起こすことにより、患者は回復に時間が掛かり、処置の結果が変わり、手術の繰り返しおよび断念をもたらすことがある。外科医が顕微鏡を使用して正確な切開および処置を行う難しさに直面したときに、処置は所望の結果を提供しないことがある。
先行技術のシステムは、手術中に眼胞を配置するための非視覚的走査技術を利用する。ここでHubschmanらに供与された、「リアルタイムの診断走査データから抽出した境界間隔情報に器具を使用する外科的処置」の名称の米国特許第8,945,140号を参照する。この公開は、外科的処置の間に器具の作業端部と眼の後嚢を分離する距離に関する追加誘導を外科医に提供するための外科方法に関する。方法は非視覚的三次元データ(すなわち診断走査データ)を取得し、器具と水晶体組織の後境界との間の距離を決定するための走査データを処理するものである。距離情報の視覚および/または聴覚伝達が外科医に提供される。
開示された技法の目的は、対象の眼組織に対するツール先端部の位置および配向を決定するための新規の方法およびシステムを提供することである。したがって開示された技法の一態様によれば、対象の眼組織に対するツール先端部の位置および配向を決定するためのシステムが提供される。システムは撮像および追跡モジュールならびにプロセッサを含む。プロセッサは撮像および追跡モジュールと結合される。撮像および追跡モジュールは撮像装置を少なくとも含む。撮像装置は少なくとも1つの組織基準マーカーの少なくとも1つの画像を取得する。撮像および追跡モジュールは、ツールの位置および配向に関する情報をさらに決定する。プロセッサは、組織基準マーカーの取得した少なくとも1つの画像に従って、組織基準マーカーの位置および配向を連続してリアルタイムで決定する。プロセッサは、組織基準マーカーの位置および配向、ならびに組織基準マーカーと対象の眼組織との間の所定の相対位置および配向に従って、対象の眼組織の位置および配向を連続してリアルタイムで決定する。またプロセッサは、ツールマーカーに従ってツール先端部の位置および配向を決定し、ツール先端部と対象の眼組織との間の相対位置および配向を決定する。
開示された技法の別の態様によれば、対象の眼組織に対するツール先端部の位置および配向を決定するための方法がこのように提供される。方法は、基準座標系において少なくとも1つの基準マーカーの少なくとも1つの画像を取得する手順、および基準座標系において少なくとも1つの組織基準マーカーの位置および配向を連続してリアルタイムで決定する手順を含む。また方法は、組織基準マーカーの位置および配向、ならびに組織基準マーカーと対象の眼組織との間の所定の相対位置および配向に従って、基準座標系において対象の眼組織の位置および配向を連続してリアルタイムで決定する手順も含む。方法は、基準座標系においてツール先端部の場所および配向を決定し、ツール先端部と対象の眼組織との間の距離を決定する手順をさらに含む。
開示された技法は、図面とともに以下の詳述からより完全に理解され認識されよう。
開示された技法の一実施形態により構成され作動する、対象の眼組織に対するツール先端部の位置および配向を決定するための例示的システムの概略図である。 開示された技法の別の実施形態により構成され作動する、対象の眼組織に対するツール先端部の位置および配向を決定するためのシステムの概略図である。 開示された技法のさらなる実施形態により作動する、対象の眼組織に対するツール先端部の位置および配向を決定するための方法の概略図である。
開示された技法は、対象の眼組織に対するツール先端部の位置を決定するためのシステムおよび方法を提供することにより、先行技術の不都合を克服する。したがって撮像装置は、眼の少なくとも1つの画像、また特に結膜、虹彩、角膜および透明組織の画像を取得する。取得した1つまたは複数の画像は、1つまたは複数の組織基準マーカー(例えば虹彩、1つまたは複数の標準マーカー、血管)の表示を含む。プロセッサは、基準座標系において1つまたは複数の組織基準マーカーの位置および配向(本明細書では「P&O」と略す)を連続してリアルタイムで決定する。また対象の眼組織と1つまたは複数の組織基準マーカーとの間の相対P&Oは予め定められる。プロセッサは、少なくとも2つの要因に従って、基準座標系において対象の眼組織のP&Oを連続してリアルタイムで決定する。第1の要因は、対象の眼組織と1つまたは複数の組織基準マーカーとの間の相対P&Oであり、第2の要因は組織基準マーカーのP&Oである。基準座標系における対象の眼組織のP&Oは、組織に望ましくない損傷をさせることなく(すなわち安全な距離閾値を考慮してもしなくてもよい)ツールを操作できる操作空間を画定する。ツールトラッカーは基準座標系においてツールを追跡する(すなわちP&Oに関する情報を決定する)。プロセッサは、ツール先端部と対象の眼組織との間の距離を決定し、この決定された距離を距離表示器に提供する。距離表示器は、ツール先端部と対象の眼組織との間の距離に関する表示を生成する。開示された技法によるシステムおよび方法は、外科医その他が眼組織の切開、また特に透明組織に望ましくない損傷を防ぐ助けとなる。
本明細書の上記および下記において用語「リアルタイムで」は、システムの要件に関して実質的に高い速度で(例えば毎秒15回を超える)、およびシステムの要件に関して実質的に低い遅延(例えば0.1秒未満)で行われる操作(例えば画像の取得、P&Oの決定)を指す。本明細書の上記および下記において用語「連続して」は、画定された時間の間に操作(例えば画像の取得、P&Oの決定)を繰り返し行うことに関する。
次に図1A〜図1Dを参照する。図1A〜図1Dは、開示された技法の一実施形態により構成され作動する、対象の眼組織に対するツール先端部のP&Oを決定するための、概ね100で示された例示的システムの概略図である。例示的システム100が本明細書に記載されており、この場合水晶体嚢内の対象の眼組織および組織基準マーカーは虹彩である。システム100は三次元(3D)撮像装置102、プロセッサ104、距離表示器106およびデータベース108を含む。プロセッサ104は3D撮像装置102、距離表示器106、およびデータベース108と結合される。
3D撮像装置102は、例えば立体撮像装置、構造化光撮像装置、タイムオブフライト(TOF)撮像装置などである。ツール110はツールマーカー112を含み、ツールマーカー112はアクティブマーカーまたはパッシブマーカーであってもよい。アクティブマーカーは、例えば3D撮像装置102が感知する(すなわち3D撮像装置102はツールマーカー112の画像を取得でき、ツールマーカー112はこれらの画像内で識別できる)波長で光を放つ光発光体(例えば発光ダイオード、LED)である。パッシブマーカーは、例えば3D撮像装置102に向かってその上で衝突する光を反射する反射体(すなわち鏡面反射体、逆反射体または拡散反射体)である。
システム100は、一般に眼114の構造に対する、詳細には対象の眼組織に対する、ツール110、また特にツール先端部111を追跡する(すなわちP&Oを決定する)ために利用される。そのために、システム100は、3D撮像装置102によって取得したその画像に従って基準座標系128においてツールマーカー112のP&Oを決定する。マーカー112に対するツール先端部111のP&Oは予め定められているので、システム100はツール先端部111のP&Oを決定する。
システム100の機能性を記載する前に、以下の段落は眼114の簡単な説明を提供する。眼114は角膜116、虹彩118、前房120、水晶体嚢122、水晶体124、および網膜126を含む。角膜116は、虹彩118および前房120を覆う眼114の透明前部である。角膜116は前房120、水晶体124とともに網膜126上に光を屈折させる。虹彩118は、瞳孔(図示せず)の直径および大きさを、ひいては網膜124に達する光の量を制御するために関与する薄い円形構造である。すなわち虹彩118は開口絞りであり、瞳孔は開口である。前房120は虹彩118と角膜116の内面との間の空間であり、房水で満たされている。水晶体嚢122は水晶体124を完全に包囲する、透き通った(すなわち透明な)膜構造である。水晶体嚢122は水晶体124およびその表面曲率を形づくる支援をする。水晶体124は、網膜126上を通ってそこを通過する光の焦点を合わせるのに(角膜110とともに)役に立つ透明の両凸構造である。網膜126は眼114の球体の内膜であり、組織の感光層である。
データベース108は、虹彩と水晶体嚢との間の相対P&Oに関する情報を記憶する。この相対P&Oは実質的に一定である。データベース108は水晶体嚢の形状および大きさに関する情報をさらに記憶してもよい。この記憶した情報は、水晶体嚢の体積モデルを画定するために利用される。処置の間に3D撮像装置102は虹彩118の3D画像を連続して取得する。3D撮像装置102は、取得した3D画像をプロセッサ104に提供する。プロセッサ104は、取得した画像に従って基準座標系128において虹彩118のP&Oを連続してリアルタイムで決定する。次いでプロセッサ104は、虹彩118の決定されたP&Oに従って、またデータベース108内に記憶された虹彩と水晶体嚢モデルとの間の相対P&Oに従って、基準座標系128において水晶体嚢122のP&Oを連続してリアルタイムで決定する。したがってプロセッサ104は、組織に望ましくない損傷をもたらすことなくツール110を操作110できる、許容された操作空間を決定する。
ツール110または別のツール(すなわち別のツールもツールマーカー112と同様のマーカーと一致する)のいずれかが水晶体嚢122の中に(すなわち手動または自動的に)挿入されると、3D撮像装置102はツールマーカー112のリアルタイムの画像を取得し、取得したリアルタイムの画像をプロセッサ104に提供する。プロセッサ104は、リアルタイムで基準座標系128においてツール先端部111のP&Oを決定する。次いでプロセッサ104は、ツール先端部111と水晶体嚢122との間の距離を決定し、この決定された距離を距離表示器106に提供する。この距離は、例えば水晶体嚢122までの最小距離、またはツール先端部111が配向された方向におけるツール先端部111と水晶体嚢122との間の距離である。距離表示器106は、ツール先端部111と水晶体嚢122の境界との間の距離に関する表示を生成する。
距離表示器106によって生成された表示は、例えば距離の数字表示、距離バーなどの可視表示であってもよい。さらなる例として、可視表示は、ディスプレイ(例えば液晶画面、ヘッドアップディスプレイ、ニアツーアイディスプレイなど)上に表されてもよい。また可視表示は、ツール110の記号を伴う眼の3Dモデル(すなわち上記の記憶されたモデルまたは異なるモデルのいずれか)であってもよい。眼の3Dモデルの位置に対するディスプレイ上のツール110の記号のP&Oは、ツール110と水晶体嚢122との間の相対P&Oに対応する。可視表示は点滅記号をさらに含んでもよく、この場合、点滅頻度はツール先端部111と水晶体嚢122との間の距離に反比例する。表示は別法としてまたは追加として、例えばピッチもしくは音量またはその両方の音などの、距離に応じて変化する音声表示であってもよい。また音声は距離を表示する、または水晶体嚢までの距離を警告する声であることも可能である。さらに別法としてまたは追加として、距離表示器106は、ツール先端部111と水晶体嚢122との間の距離が閾値未満であることを表示してもよい。上に提示された例では、プロセッサは、組織に望ましくない損傷をもたらすことなく(すなわち安全な閾値を考慮せず)ツール110を操作110できる、操作空間として水晶体嚢122全体を決定する。しかしこの操作空間はさらに限定されてもよい(すなわち安全な閾値を考慮する)。例えば図1Dを参照すると、プロセッサ104は、水晶体嚢124またはその一部に関する仮想境界130を画定してもよい。この仮想境界は、ユーザが組織に望ましくない損傷をもたらすことなくツール110を操作できる操作空間をさらに限定する。ツール110がその仮想境界を横断すると、上述のような表示が生成される。またこの仮想境界は、上記の3Dモデルの一部としてユーザに表示されてもよい。
上記のように、ツール110は自動的に動いてもよい。例えばツール110は、プロセッサ104と結合されたロボットアームなどのロボット(図示せず)に取り付けられる。プロセッサ104は、ツール110および水晶体嚢122のP&Oに従って、ツール110を水晶体嚢122に向かって動かすようにロボットに命令する。プロセッサ104は、例えばツール先端部111と水晶体嚢122との間の距離が閾値未満であるとき、停止するようにロボットにさらに命令してもよい。
基準座標系128における水晶体嚢122のP&O、幾何学的構造および大きさの上記の概算の精度(すなわち体積モデルの精度)は、水晶体嚢122の実際のP&Oに関する情報を取得することにより向上(すなわち実際の体積により近づいて一致する)されてもよい。そのために、また図1Bを参照すると、ツール110が動く。3D撮像装置102は、ツール先端部111が1つまたは複数の点で(例えば顕微鏡を通してツール先端部111を見ることによって決定される際に)水晶体嚢122の外側境界と接触する、または接触するほど接近すると、ツールマーカー112の1つまたは複数のそれぞれの3D画像を取得する。3D撮像装置102は取得した画像をプロセッサ104に提供する。図1Cを参照すると、ツール110は動き続ける。3D撮像装置102は、ツール先端部111が1つまたは複数の点で水晶体嚢122の内側境界と接触する、または接触するほど接近すると、ツールマーカー112の別のそれぞれの1つまたは複数の3D画像を取得する。プロセッサ104は、ツール先端部111が水晶体嚢122の外側および内側境界点と接触する、または接触するほど接近すると、基準座標系128におけるツール先端部111の位置および任意選択で配向を決定する。ツール先端部111の決定された位置および/または配向に従って、プロセッサ104は、水晶体嚢122の幾何学的構造および大きさ、ならびに基準座標系128における水晶体嚢122のP&Oを見積もることにより、水晶体嚢122のモデルを決定する。例えば2つの点のみ(すなわち水晶体嚢122の外側境界の1つおよび内側境界の1つ)が利用されると、プロセッサ104は、水晶体嚢122の幅の概算を決定する。それにもかかわらず、ツール先端部111が複数の点で水晶体嚢122の外側および内側境界と接触する、または接触するほど接近すると、ツール先端部111の位置および配向の決定は、水晶体嚢122の幾何学的構造、大きさ、位置および配向の上記の概算の精度を増す。
水晶体嚢122のP&Oをリアルタイムで決定するとき、プロセッサ104は、(例えばこれらの境界点の場所を制限として利用することにより)水晶体嚢122の決定されたP&Oの精度を向上させるために、ツール先端部111が水晶体嚢122の外側および内側境界と接触する、または接触するほど接近すると、ツール先端部111の上記の位置をさらに利用してもよい。別の代替形態によれば、処置の前に水晶体嚢122をモデリングすることは、撮像技法を利用することにより達成されてもよい。例えば処置の前に眼の光干渉断層撮影(OCT)画像または超音波画像(すなわちモデル画像)が取得される。この画像は水晶体嚢122の表示を含む。水晶体嚢122の幾何学的構造および大きさは、画像処理技法を利用することによりこのような画像から抽出されてもよい。また虹彩118と水晶体嚢122との間の相対P&Oは、水晶体嚢122および虹彩118の両方がモデル画像内に見えるときに、取得した画像から決定されてもよい。概して水晶体嚢122をモデリングし、虹彩118のP&Oを決定することは、連続してまたは同時に行われてもよいことに留意されたい。
上述されたように、プロセッサ104は、組織基準マーカーとして虹彩118を利用し、基準座標系128における虹彩118のP&Oを決定する。しかし組織基準マーカーは3D撮像装置102によって検出可能なあらゆるマーカーであってもよく、この場合、水晶体嚢122とマーカーとの間の相対P&Oは予め定められる。例えば組織基準マーカーは、結膜、結膜内または眼の他の器官内の血管であってもよい。別法として、組織基準マーカーは眼の上に置かれた人工マーカー(例えば標準マーカー)であることが可能である。例えば組織基準マーカーは、水晶体嚢122の境界が決定されたときに、水晶体嚢122に取り付けられるパッチである。さらなる例として、組織基準マーカーは、専用のマーカーペンにより眼の上に描かれる。取得した3D画像において組織基準マーカーのP&Oを決定するために、プロセッサ104は、画像処理技法を利用する。例えば組織基準マーカーが虹彩118であるとき、プロセッサ104は、縁に関連する第2のリングによって取り囲まれた虹彩に関連する、第1のリングによって取り囲まれた瞳孔に関連する黒円を同定することにより、取得した3D画像において虹彩を同定する。したがって虹彩のパターンおよび形状は、システムに認識可能な組織基準マーカーを提供する。第1のリングのP&Oは虹彩118の位置に関連する。
図1A〜図1Cとともに本明細書で上記のシステムは、3D撮像装置が撮像ならびに追跡のため利用される例示的システムに関し、この場合、対象の眼組織は水晶体嚢であり、組織基準マーカーは虹彩である。概して開示された技法によるシステムは、光学追跡、電磁追跡、超音波追跡および慣性追跡などの医療ツールを追跡するための様々な技法を利用してもよい。さらに上記のように、3D撮像装置は、立体カメラ、構造化光撮像装置またはTOFカメラなどの様々な3D撮像装置のいずれか1つであってもよい。別法として、撮像装置は二次元(2D)撮像装置であってもよい。撮像装置が2D撮像装置であるときは、少なくとも3つの人工マーカーが眼の上に置かれる。また対象の眼組織は眼内の他の組織、例えば網膜であってもよい。次に図2を参照する。図2は、開示された技法の別の実施形態により構成され作動する、対象の眼組織に対するツール先端部のP&Oを決定するための、概ね200で示されたシステムの概略図である。システム200の作動は、図1A〜図1Cとともに上に記載されたシステム100の作動に類似している。システム200は、撮像および追跡モジュール202、プロセッサ204、距離表示器206、ならびにデータベース208およびツールマーカー210を含む。撮像および追跡モジュール202は、撮像装置212を少なくとも含む。撮像装置212は3D撮像装置または2D撮像装置であってもよい。撮像および追跡モジュール202は、任意選択で光源214およびツールトラッカー216(すなわち斜線によって示されている)を含む。プロセッサ204は撮像および追跡モジュール202、距離表示器206、およびデータベース208と結合される。ツールマーカー210は撮像および追跡モジュール202と結合される。
撮像装置212が3D撮像装置であるとき、撮像装置212は眼の1つまたは複数の3D画像を取得する。本明細書の上記および下記において用語「3D画像」は、状況における様々な特徴のP&O(すなわち基準座標系において)に関する情報を含む画像データに関する。撮像装置212が3D撮像装置であるとき、撮像装置212は、2つの異なる視点から眼の2つの画像を取得する、立体カメラとして具現化されてもよい。撮像装置212が立体カメラであるとき、光源214は任意選択である。撮像装置212は別法として構造化光撮像装置として具現化されてもよい。このような場合、光源214は構造化光で眼を照らし、撮像装置212は照らされた(すなわち構造化光で)眼の画像(すなわち二次元画像であってもよい)を取得する。別の代替形態によれば、撮像装置212はTOFカメラであってもよい。したがって光源214は光の時間的パルスを眼に向かって放つ。撮像装置212は光源214と時刻同期され、眼の1つまたは複数の画像を取得する。撮像装置12は、光パルスが反射して撮像装置に戻ると予期されるときのみ光を統合する。光源214がパルスを放つ時間と、撮像装置212が反射された光パルスの画像を取得する時間との差は、追跡モジュール202に対する撮像装置212と追跡される物体との間の距離に関連する。撮像装置212が2D撮像装置であるとき、撮像装置212は眼の上に置かれた少なくとも3つの人工組織基準マーカーの1つまたは複数の2D画像を取得する。人工マーカー間の相対位置は既知である(例えば比較的高精度が必要なときにデータベース208内に記憶される)。別法としてマーカー間の相対位置は、例えば各マーカー上にツール先端部を置くこと、基準座標系218において各マーカーの位置を決定すること、およびそれに応じてマーカー間の相対位置を決定することによって決定される。
概してツールトラッカー216は、基準座標系218におけるツールマーカー210のP&Oに関する情報を少なくとも取得する。一代替形態によれば、図1A〜図1Cとともに上に記載されたのと同様に、ツールトラッカー216および撮像装置212は、同一である。したがって上述と同様に、ツールマーカー210はアクティブまたはパッシブマーカーである。例えばツールマーカー210は、ツール上に配置されたLEDのアレイまたは標準マーカーであり、撮像装置212によって取得した画像内で識別できる。したがってツールマーカー210は、撮像および追跡モジュール202と光学的に結合すると考えられ、ツールマーカー210のP&Oは、撮像装置212によって取得した画像に従って決定される。別の代替形態によれば、ツールトラッカー216は撮像装置212と異なる光学トラッカーである。どちらの場合も、ツールマーカー210のP&Oに関する情報はツールマーカー210の画像である。またツールトラッカー216もその形状に応じてツールを追跡してもよい。ツールの形状は、システム200の準備習得段階の間に取得したツールモデルに基づいて、データベース208内に記憶されてもよい。したがって撮像装置212はツールの3D画像を取得する。
さらなる代替形態によれば、ツールトラッカー216は電磁トラッカーであり、ツールマーカー210は少なくとも1つの電磁センサ(例えばコイル、ホール効果センサ)である。したがってツールマーカー210は撮像および追跡モジュール202と電磁結合すると考えられ、ツールマーカー210のP&Oは、電磁センサにより磁場の測定に従って決定される。電磁はツールトラッカー216によって発生される。
さらに別の代替形態によれば、ツールトラッカー216は超音波トラッカーであり、ツールマーカー210は少なくとも1つの超音波変換器を含み、ツールトラッカー216は少なくとも3つの超音波受信機を含む。したがってツールマーカー210は撮像および追跡モジュール202と超音波結合されると考えられ、ツールマーカー210のP&Oは、音の送信と受信との間の経過した時間の測定値、および媒体内の音の速度によって決定される。
さらに別の代替形態によれば、ツールトラッカー216は慣性ナビゲーションシステムであり、ツールマーカー210は慣性計測装置(IMU)である。ツールマーカー210はツールの直線および回転加速度に関する情報を提供し、ツールトラッカーは慣性の既知基準に応じてツールマーカー210のP&Oを決定する。
一実施形態によれば、プロセッサ204は、ツールトラッカー216によって提供されたツールマーカー210のP&Oに関する情報に従って、ツールマーカー210のP&Oを決定する。別法として、ツールトラッカー216はツールマーカー210のP&Oを決定し、決定されたP&Oをプロセッサ204に提供する。どちらの場合も、プロセッサ204はツール先端部のP&Oおよびツール先端部と対象の眼組織との間の距離を決定する。
プロセッサ204は、従来のマイクロプロセッサとともに実装されてもよい中央処理装置、情報を一時的に記憶するためのランダムアクセスメモリ(RAM)、および情報を永久に記憶するための読み取り専用メモリ(ROM)などの、演算操作を行うために必要な構成要素を含む。メモリ制御装置はRAMを制御するために提供される。バスはプロセッサシステムの構成要素を相互接続する。バス制御装置はバスを制御するために提供される。割り込み制御装置は、システム構成要素から様々な割り込み信号を受信し処理するために使用される。大容量記憶装置はハードディスクドライブ(HDD)によって、またはフラッシュドライブによって提供されてもよい。プロセッサシステムは、システムをローカルエリアネットワーク(LAN)または広域ネットワーク(WAN)に接続できるネットワークインターフェースをさらに含む。プロセッサの作動は、概してメモリ上に記憶できるシステム・ソフトウェアを作動することによって制御され調整される。プロセッサ204は、この決定された距離を距離表示器206に提供する。距離表示器206は、上述と同様にツール先端部と対象の眼組織との間の距離の表示を提供する。
処置の間に、撮像装置212は1つまたは複数の組織基準マーカーの画像を連続して取得する。撮像装置212は取得した画像をプロセッサ204に提供する。取得した画像は、1つまたは複数の組織基準マーカーの位置および配向に関する情報を含む。例えば撮像装置212が立体カメラであるとき、1つのカメラによって取得された画像内の画像特徴の位置と、第2のカメラによって取得された画像内の同じ画像特徴の位置との間の関係は、基準座標系218において実際の特徴の位置と関連付けられる。1つまたは複数の組織基準マーカーと関連付けられた画像特徴を同定することにより、基準座標系218においてその位置および配向が決定されてもよい。撮像装置212が2D撮像装置であるとき、撮像装置212は少なくとも3つの人工マーカーの画像を取得する。各マーカーの画像画素の場所は2つの角度(すなわち撮像センサの中心から測定された水平角および鉛直角)に関連付けられる。本質的にこれらの角度は、組織基準マーカーの間の既知の相対位置とともに6つの六元方程式(すなわち位置に対して3つおよび配向に対して3つ)を定義する。したがってプロセッサ204は、取得した画像に従って基準座標系218において組織基準マーカーのP&Oを連続してリアルタイムで決定する。次いでプロセッサ204は、組織基準マーカーの決定されたP&Oに従って、また1つまたは複数の組織基準マーカーと眼組織との間の記憶された相対P&Oに従って、基準座標系218において対象の眼組織のP&Oを連続してリアルタイムで決定する。したがってプロセッサ204は、ユーザが組織に望ましくない損傷をもたらすことなく(すなわち安全距離閾値を考慮してもしなくてもよい)ツール110を操作できる操作空間を決定する。
プロセッサ204は、ツール先端部のP&Oをリアルタイムで決定し、ツール先端部と対象の眼組織との間の距離を決定する。プロセッサ204は、この決定された距離を距離表示器206に提供する。距離表示器206は、上述と同様にツール先端部と対象の眼組織との間の距離の表示を提供する。システム100と同様に、ユーザが組織に望ましくない損傷をもたらすことなく操作できる操作ツール110を操作できる操作空間は、例えば対象の眼組織に関する仮想境界を画定することにより、安全距離閾値を考慮する。ツールがその仮想境界を横切ると、表示が上記のように生成される。
基準座標系218における対象の眼組織の幾何学的構造、大きさ、位置および配向の概算の精度は、処置の前に眼組織をモデリングすることによって向上されてもよい。そのために、プロセッサ204は、ツール先端部が複数点で対象の眼組織と接触する、または接触するほど接近すると、ツール先端部の位置を利用する。別の代替形態によれば、処置の前に眼および対象の眼組織をモデリングすることは、撮像技法を利用することによって達成されてもよい。例えば処置の前に眼の光干渉断層撮影(OCT)画像または超音波画像(すなわちモデル画像)が取得される。このモデル画像は対象の眼組織の表示を含む。対象の眼組織の幾何学的構造および大きさは、画像処理技法を利用することによりこのような画像から抽出されてもよい。対象の眼組織および組織基準マーカーのどちらもモデル画像内に見られるとき、撮像技法で眼および対象の眼組織ならびに組織基準マーカー(すなわち解剖学的または生物学的)と対象の眼組織との間の相対P&Oが取得した画像から決定され得るとき。
上述のように、対象の眼組織は網膜であってもよい。このような場合、基準マーカーは好ましくは標準マーカーであり、網膜のP&Oはそれに対して計算される。プロセッサ204は、ツール先端部のP&Oをリアルタイムで決定し、ツール先端部と網膜との間の距離を決定する。プロセッサ204は、この決定された距離を距離表示器206に提供する。距離表示器206は上記と同様にツール先端部と対象の眼組織との間の距離の表示を提供する。
次に図3を参照する。図3は、開示された技法のさらなる実施形態により作動する、対象の眼組織に対するツール先端部の位置および配向を決定するための方法の概略図である。手順250では、少なくとも1つの組織基準マーカーの少なくとも1つの画像が、基準座標系において取得される。1つまたは複数の画像は2D画像または3D画像であってもよい。3D画像は立体画像、構造化光画像またはTOF画像であってもよい。1つまたは複数の画像が2D画像であるとき、少なくとも3つの組織基準マーカーが利用されてもよい。図2を参照すると、撮像装置212は少なくとも1つの組織基準マーカーの画像を取得する。手順250の後、方法は手順254に進む。
手順252では、対象の眼組織がモデリングされる。対象の眼組織がモデリングされ、例えばツール先端部が組織上の点と接触する、または接触するほど接近すると、ツール先端部の位置、および任意選択で配向を決定することにより、対象の眼組織のP&O、幾何学的構造および大きさの概算に関する先験的情報の精度が向上する。別法として、対象の眼組織は、OCTまたは超音波撮像などの撮像を利用することによってモデリングされる。例えば図1A〜図1Cおよび図2を参照すると、プロセッサ204は対象の眼組織のモデルを決定する。そのためにツール110が動く。ツールトラッカー216は、ツールの先端部が1つまたは複数の点で対象の眼組織と接触する、または接触するほど接近すると、ツール先端部の位置に関する情報を取得し、取得した情報をプロセッサ204に提供する。プロセッサ204は、対象の眼組織の水晶体のモデルをその幾何学的構造および大きさ、ならびに基準座標系218におけるP&Oを見積もることによって決定する。手順252の後、方法は手順256に進む。また手順252は任意選択であることに留意されたい。
手順254では、1つまたは複数の組織基準マーカーのP&Oが基準座標系において決定される。少なくとも1つの組織基準マーカーのP&Oが、取得したその1つまたは複数の画像に従って連続してリアルタイムで決定される。組織基準マーカーは虹彩などの解剖学的マーカーであってもよい。しかしまた1つまたは複数の組織基準マーカーは、結膜、結膜内または眼の他の器官内の血管であってもよい。別法として、1つまたは複数の組織基準マーカーは、眼の上に置かれた人工マーカー、例えば眼の上に取り付けられたパッチ、標準マーカーまたは眼の上に描かれた専用ペンマーカーであってもよい。図2を参照すると、プロセッサ204は、基準座標系218において組織基準マーカーのP&Oを決定する。
手順256では、対象の眼組織のP&Oは基準座標系において決定される。対象の眼組織のP&Oは、1つまたは複数の組織基準マーカーのP&Oに従って、また1つまたは複数の組織基準マーカーと対象の眼組織との間の所定の相対P&Oに従って、連続してリアルタイムで決定される。したがって組織に望ましくない損傷をもたらすことなく(すなわち安全距離閾値を考慮してもしなくてもよい)ツールを操作することができる操作空間が決定される。図2を参照すると、プロセッサ204は、対象の眼組織のP&Oを決定する。手順254は任意選択であることに留意されたい。手順254の後、方法は手順258に進む。
手順258では、ツールの先端部のP&Oが基準座標系において決定される。図2を参照すると、ツールトラッカー216はツール先端部のP&Oに関する情報を取得し、プロセッサ204はそれに応じてツール先端部のP&Oを決定する。
手順260では、ツール先端部と対象の眼組織との間の距離が決定される。図2を参照すると、プロセッサ204はツール先端部と対象の眼組織との間の距離を決定する。
手順262では、ツール先端部と対象の眼組織との間の距離に関する表示が生成される。この表示は、例えば距離の数字表示、発光ダイオードのアレイ、距離バーなどの可視表示であってもよい。さらなる例として、可視表示は、ディスプレイ(例えば液晶スクリーン、ヘッドアップディスプレイ、ニアツーアイディスプレイなど)上に表されてもよく、これは、ツールの記号を伴う眼の決定された3Dモデルを表示するものとする。表示は別法としてまたは追加として、例えばピッチもしくは音量またはその両方の音などの、距離に応じて変化する音声表示であってもよい。さらに別法としてまたは追加として、生成される表示は、ツール先端部と対象の眼組織との間の距離が閾値未満であることを表示してもよい。図2を参照すると、距離表示器206は、ツール先端部と対象の眼組織との間の距離に関する表示を生成する。
開示された技法は、具体的に上に示され記載されたことに限定されないことが当業者には理解されよう。むしろ開示された技法の範囲は以下の特許請求の範囲のみによって定義される。

Claims (29)

  1. 対象の眼組織に対するツール先端部の位置および配向を決定するためのシステムであって、
    撮像および追跡モジュールであって、前記撮像および追跡モジュールは撮像装置を少なくとも含み、前記撮像装置は少なくとも1つの組織基準マーカーの少なくとも1つの画像を取得し、前記少なくとも1つの組織基準マーカーは前記対象の眼組織と異なり、前記撮像および追跡モジュールは、前記ツールの位置および配向に関する情報をさらに決定する、撮像および追跡モジュールと、
    前記撮像および追跡モジュールと結合されたプロセッサであって、前記プロセッサは、前記組織基準マーカーの前記取得した少なくとも1つの画像に従って前記組織基準マーカーの位置および配向を連続してリアルタイムで決定する、プロセッサと
    を備え、
    前記プロセッサは、前記組織基準マーカーの前記位置および配向、ならびに前記組織基準マーカーと前記対象の眼組織との間の所定の相対位置および配向に従って、前記対象の眼組織の位置および配向を連続してリアルタイムで決定し、
    前記プロセッサは、ツールマーカーに従ってツール先端部の位置および配向を決定し、前記プロセッサは、前記ツール先端部と前記対象の眼組織との間の相対位置および配向をさらに決定する、
    システム。
  2. 前記プロセッサと結合され、前記ツール先端部と前記対象の眼組織との間の距離に関する表示を提供する、距離表示器をさらに含む、請求項1に記載のシステム。
  3. 前記距離表示器は、前記ツール先端部と前記対象の眼組織との間の前記距離の可視表示を表示するディスプレイである、請求項2に記載のシステム。
  4. 前記可視表示は前記ツールの記号を伴う前記眼の三次元モデルであり、
    前記眼の前記三次元モデルの位置に対する前記ディスプレイ上の前記記号の位置および配向は、前記ツール先端部と前記対象の眼組織との間の相対位置および配向に対応する、請求項3に記載のシステム。
  5. 前記ディスプレイは、ヘッドアップディスプレイおよびヘッドマウントディスプレイの1つである、請求項3に記載のシステム。
  6. 前記距離表示器は、前記ツール先端部と前記対象の眼組織との間の距離に応じて変化する音声表示を提供する、請求項2に記載のシステム。
  7. 前記撮像装置は三次元撮像装置である、請求項1に記載のシステム。
  8. 前記三次元撮像装置は立体カメラである、請求項7に記載のシステム。
  9. 前記三次元撮像装置はタイムオブフライトカメラであり、
    前記撮像追跡モジュールはパルス光を放つ光源さらに含む、請求項7に記載のシステム。
  10. 前記三次元撮像装置は構造化光カメラであり、
    前記撮像追跡モジュールは構造化光を放つ光源をさらに含む、請求項7に記載のシステム。
  11. 前記撮像装置は二次元撮像装置である、請求項1に記載のシステム。
  12. 前記少なくとも1つの組織基準マーカーは少なくとも3つの人工マーカーを含む、請求項11に記載のシステム。
  13. 前記少なくとも1つの組織基準マーカーは、
    虹彩と、
    結膜と、
    前記結膜内の血管と、
    人工マーカーと
    からなる群の少なくとも1つである、請求項1に記載のシステム。
  14. 前記組織基準マーカーと前記対象の眼組織との間の前記所定の相対位置および配向は、前記対象の眼組織の体積モデルから決定される、請求項1に記載のシステム。
  15. 前記体積モデルの精度は、前記ツール先端部が前記対象の眼組織と1つまたは複数の点で少なくとも接触するほど接近すると、前記ツール先端部の少なくとも位置を決定することにより向上される、請求項14に記載のシステム。
  16. 前記モデルは、取得される前記眼の光干渉断層撮影画像および超音波画像の1つを取得することによって決定される、請求項14に記載のシステム。
  17. 前記プロセッサと結合されたデータベースをさらに含み、前記データベースは前記体積モデルを記憶する、請求項14に記載のシステム。
  18. 対象の眼組織に対するツール先端部の位置および配向を決定するための方法であって、
    基準座標系において少なくとも1つの組織基準マーカーの少なくとも1つの画像を取得することであって、前記組織基準マーカーは前記対象の眼組織と異なる、取得する手順と、
    前記基準座標系において前記少なくとも1つの組織基準マーカーの位置および配向を連続してリアルタイムで決定する手順と、
    前記組織基準マーカーの前記位置および配向、ならびに前記組織基準マーカーと前記対象の眼組織との間の所定の相対位置および配向に従って、前記基準座標系において前記対象の眼組織の位置および配向を連続してリアルタイムで決定する手順と、
    前記基準座標系において前記ツール先端部の場所および配向を決定する手順と、
    前記ツール先端部と前記対象の眼組織との間の距離を決定する手順と
    から構成される、方法。
  19. 前記ツール先端部と前記対象の眼組織との間の距離に関する表示を生成する手順をさらに含む、請求項18に記載の方法。
  20. 前記表示は前記距離の可視化表示である、請求項19に記載の方法。
  21. 前記可視化表示は、前記ツールの記号を伴う前記眼の三次元モデルであり、
    前記眼の前記三次元モデルの表示された位置に対する前記記号の表示された位置および配向は、前記ツール先端部と前記対象の眼組織との間の相対位置および配向に対応する、請求項20に記載の方法。
  22. 前記表示は、前記ツール先端部と前記対象の眼組織との間の距離に応じて変化する音声表示である、請求項19に記載の方法。
  23. 前記対象の眼組織をモデリングする予備手順をさらに含む、請求項18に記載の方法。
  24. 前記組織基準マーカーと前記対象の眼組織との間の前記所定の相対位置および配向は、前記対象の眼組織の体積モデルから決定される、請求項18に記載の方法。
  25. 前記体積モデルの精度は、前記ツール先端部が前記対象の眼組織と複数点で少なくとも接触するほど接近すると、前記ツール先端部の少なくとも位置を決定することによって向上される、請求項24に記載の方法。
  26. 前記モデルは、取得される前記眼の光干渉断層撮影画像および超音波画像の1つを取得することによって決定される、請求項24に記載の方法。
  27. 前記少なくとも1つの画像は三次元画像であり、
    前記三次元画像は、立体画像、タイムオブフライト画像および構造化光画像の1つである、請求項18に記載の方法。
  28. 前記少なくとも1つの画像は三次元画像である、請求項18に記載の方法。
  29. 前記組織基準マーカーは、
    虹彩と、
    結膜と、
    前記結膜内の血管と、
    人工マーカーと
    からなる群の少なくとも1つである、請求項18に記載の方法。
JP2018533646A 2015-12-28 2016-12-22 対象の眼組織に対するツール先端部の位置および配向を決定するためのシステムおよび方法 Active JP6986017B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IL243384A IL243384A (en) 2015-12-28 2015-12-28 A method and system for determining the position and orientation of an instrument's tip relative to eye tissue
IL243384 2015-12-28
PCT/IL2016/051370 WO2017115352A1 (en) 2015-12-28 2016-12-22 System and method for determining the position and orientation of a tool tip relative to eye tissue of interest

Publications (2)

Publication Number Publication Date
JP2019500132A true JP2019500132A (ja) 2019-01-10
JP6986017B2 JP6986017B2 (ja) 2021-12-22

Family

ID=55646028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018533646A Active JP6986017B2 (ja) 2015-12-28 2016-12-22 対象の眼組織に対するツール先端部の位置および配向を決定するためのシステムおよび方法

Country Status (7)

Country Link
US (1) US10433916B2 (ja)
EP (1) EP3397217B1 (ja)
JP (1) JP6986017B2 (ja)
CN (1) CN108601669B (ja)
ES (1) ES2935796T3 (ja)
IL (1) IL243384A (ja)
WO (1) WO2017115352A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021194538A (ja) * 2020-06-09 2021-12-27 グローバス メディカル インコーポレイティッド 基準シードを介した可視光での外科手術での対象の追跡および合成画像登録

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11642182B2 (en) * 2016-09-27 2023-05-09 Brainlab Ag Efficient positioning of a mechatronic arm
WO2018097831A1 (en) 2016-11-24 2018-05-31 Smith Joshua R Light field capture and rendering for head-mounted displays
US11116420B2 (en) 2017-12-26 2021-09-14 Biosense Webster (Israel) Ltd. Monitoring distance to selected anatomical structures during a procedure
CN109480767B (zh) * 2018-12-13 2021-03-19 孙艳 一种医用眼科手术前用辅助检查装置
EP3725277A1 (de) * 2019-04-17 2020-10-21 Ziemer Ophthalmic Systems AG Ophthalmologische vorrichtung zum bearbeiten eines auges
DE102020102012B4 (de) 2020-01-28 2022-12-01 Carl Zeiss Meditec Ag Anordnung mit einer OCT-Einrichtung für das Ermitteln einer 3D-Rekonstruktion eines Objektbereichsvolumens sowie Computerprogramm und computerimplementiertes Verfahren hierfür
DE102020102011A1 (de) 2020-01-28 2021-07-29 Carl Zeiss Meditec Ag Augenchirurgie-Operationssystem mit einer OCT-Einrichtung sowie Computerprogramm und computerimplementiertes Verfahren für das fortlaufende Ermitteln einer Lage eines Chirurgie-Gegenstands
CN111166472B (zh) * 2020-02-27 2020-11-06 连云港市第一人民医院 一种眼科手术训练用机械臂
CN111588469B (zh) * 2020-05-18 2021-02-02 四川大学华西医院 眼科机器人末端执行器引导和定位系统
WO2021258113A1 (en) 2020-06-19 2021-12-23 Remedy Robotics, Inc. Systems and methods for guidance of intraluminal devices within the vasculature
US20220007937A1 (en) * 2020-07-13 2022-01-13 Johnson & Johnson Surgical Vision, Inc. Probe for eye examination using a distal convex mirror
CN112006777B (zh) * 2020-07-31 2022-03-29 清华大学 基于表面跟踪的打钉手术机器人系统及控制方法
AU2022305235A1 (en) 2021-07-01 2024-01-18 Remedy Robotics, Inc. Vision-based position and orientation determination for endovascular tools
US11707332B2 (en) 2021-07-01 2023-07-25 Remedy Robotics, Inc. Image space control for endovascular tools
WO2023250131A1 (en) * 2022-06-24 2023-12-28 Zeta Surgical Inc. Systems for real-time noninvasive surgical navigation

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110213342A1 (en) * 2010-02-26 2011-09-01 Ashok Burton Tripathi Real-time Virtual Indicium Apparatus and Methods for Guiding an Implant into an Eye
US20120330129A1 (en) * 2011-06-23 2012-12-27 Richard Awdeh Medical visualization systems and related methods of use
US20140213892A1 (en) * 2013-01-28 2014-07-31 The Johns Hopkins University System for Tracking Microsurgical Instrumentation
US20140364870A1 (en) * 2013-06-11 2014-12-11 Auris Surgical Robotics, Inc. Method, apparatus, and a system for robotic assisted cataract surgery
US20150077528A1 (en) * 2013-09-18 2015-03-19 Nanophthalmos, Llc Surgical navigation system and method
US20150335480A1 (en) * 2012-04-24 2015-11-26 Auris Surgical Robotics, Inc. Apparatus and method for a global coordinate system for use in robotic surgery

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100603543B1 (ko) * 1999-10-21 2006-07-24 테크노라스 게엠베하 옵탈몰로지쉐 시스템 광학 치료용 홍체 인식 및 추적
BR0116991B1 (pt) * 2001-04-27 2011-01-25 sistema de diagnóstico e terapêutico para cirurgia a laser de olho.
DE102006002001B4 (de) * 2006-01-16 2009-07-23 Sensomotoric Instruments Gmbh Verfahren zur Bestimmung der räumlichen Relation eines Auges einer Person bezüglich einer Kameravorrichtung
US7535991B2 (en) * 2006-10-16 2009-05-19 Oraya Therapeutics, Inc. Portable orthovoltage radiotherapy
US20100324542A1 (en) * 2007-11-02 2010-12-23 Kurtz Ronald M Method to Guide a Cataract Procedure by Corneal Imaging
JP5774596B2 (ja) * 2009-10-30 2015-09-09 ザ・ジョンズ・ホプキンス・ユニバーシティー 外科的介入のための臨床上重要な解剖学的標識点の視覚的追跡/アノテーション
US8945140B2 (en) 2010-06-18 2015-02-03 Vantage Surgical Systems, Inc. Surgical procedures using instrument to boundary spacing information extracted from real-time diagnostic scan data
US20140142591A1 (en) * 2012-04-24 2014-05-22 Auris Surgical Robotics, Inc. Method, apparatus and a system for robotic assisted surgery
IL221863A (en) * 2012-09-10 2014-01-30 Elbit Systems Ltd Digital video photography system when analyzing and displaying
EP2950763A1 (en) * 2013-02-04 2015-12-09 The Cleveland Clinic Foundation Instrument depth tracking for oct-guided procedures
US9597009B2 (en) * 2013-12-19 2017-03-21 Novartis Ag Marker-based tool tracking

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110213342A1 (en) * 2010-02-26 2011-09-01 Ashok Burton Tripathi Real-time Virtual Indicium Apparatus and Methods for Guiding an Implant into an Eye
US20120330129A1 (en) * 2011-06-23 2012-12-27 Richard Awdeh Medical visualization systems and related methods of use
US20150335480A1 (en) * 2012-04-24 2015-11-26 Auris Surgical Robotics, Inc. Apparatus and method for a global coordinate system for use in robotic surgery
US20140213892A1 (en) * 2013-01-28 2014-07-31 The Johns Hopkins University System for Tracking Microsurgical Instrumentation
US20140364870A1 (en) * 2013-06-11 2014-12-11 Auris Surgical Robotics, Inc. Method, apparatus, and a system for robotic assisted cataract surgery
US20150077528A1 (en) * 2013-09-18 2015-03-19 Nanophthalmos, Llc Surgical navigation system and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021194538A (ja) * 2020-06-09 2021-12-27 グローバス メディカル インコーポレイティッド 基準シードを介した可視光での外科手術での対象の追跡および合成画像登録

Also Published As

Publication number Publication date
ES2935796T3 (es) 2023-03-10
JP6986017B2 (ja) 2021-12-22
EP3397217A4 (en) 2019-08-14
CN108601669A (zh) 2018-09-28
US10433916B2 (en) 2019-10-08
IL243384A0 (en) 2016-03-31
EP3397217B1 (en) 2022-12-21
EP3397217A1 (en) 2018-11-07
CN108601669B (zh) 2021-01-01
IL243384A (en) 2017-05-29
US20190000563A1 (en) 2019-01-03
WO2017115352A1 (en) 2017-07-06

Similar Documents

Publication Publication Date Title
JP6986017B2 (ja) 対象の眼組織に対するツール先端部の位置および配向を決定するためのシステムおよび方法
US10582972B2 (en) 3D system and method for guiding objects
US11484363B2 (en) System and method for determining the position and orientation of a tool tip relative to eye tissue of interest
US8945140B2 (en) Surgical procedures using instrument to boundary spacing information extracted from real-time diagnostic scan data
CN110200702B (zh) 集成眼球凝视跟踪用于立体观看器的医疗装置、系统和方法
US10537389B2 (en) Surgical system, image processing device, and image processing method
US9563266B2 (en) Haptic augmented and virtual reality system for simulation of surgical procedures
US20120197102A1 (en) Ophthalmic surgical microscope
JP7033552B2 (ja) 眼科の外科的処置用局部的光干渉断層撮影画像
WO2009135084A1 (en) System and method for controlling measurement in an eye during ophthalmic procedure
US20210228284A1 (en) Eye surgery surgical system having an oct device and computer program and computer-implemented method for continuously ascertaining a relative position of a surgery object
JP2011120892A (ja) 眼科装置
US20170276926A1 (en) Information processing apparatus, information processing method, and operation microscope apparatus
JP7304493B2 (ja) 対象領域ボリュームの3d再構成を確認するためのoctデバイスを備えるアセンブリ、コンピュータプログラム、及びそのためのコンピュータ実装方法
US11698535B2 (en) Systems and methods for superimposing virtual image on real-time image
JP6819223B2 (ja) 眼科情報処理装置、眼科情報処理プログラム、および眼科手術システム
US20240081921A1 (en) System and method for verification of conversion of locations between coordinate systems
WO2020254920A1 (en) Surgical tool tip and orientation determination
CN113490472A (zh) 用于眼科手术的医疗装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211126

R150 Certificate of patent or registration of utility model

Ref document number: 6986017

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150