JP2019502460A - 脊柱の領域、並びに、胸郭、骨盤又は頭部の隣接領域における、外科手術処置中の術中画像制御ナビゲーション装置 - Google Patents

脊柱の領域、並びに、胸郭、骨盤又は頭部の隣接領域における、外科手術処置中の術中画像制御ナビゲーション装置 Download PDF

Info

Publication number
JP2019502460A
JP2019502460A JP2018533261A JP2018533261A JP2019502460A JP 2019502460 A JP2019502460 A JP 2019502460A JP 2018533261 A JP2018533261 A JP 2018533261A JP 2018533261 A JP2018533261 A JP 2018533261A JP 2019502460 A JP2019502460 A JP 2019502460A
Authority
JP
Japan
Prior art keywords
detection
detection device
image
data
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018533261A
Other languages
English (en)
Other versions
JP6700401B2 (ja
Inventor
イェシェンシュキ、デジュー・ヤーノシュ
フェケテ、タマーシュ・ヒュレプ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Spinemind AG
Original Assignee
Spinemind AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Spinemind AG filed Critical Spinemind AG
Publication of JP2019502460A publication Critical patent/JP2019502460A/ja
Application granted granted Critical
Publication of JP6700401B2 publication Critical patent/JP6700401B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/0507Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  using microwaves or terahertz waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0875Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of bone
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • A61B8/5253Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode combining overlapping images, e.g. spatial compounding
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/17Guides or aligning means for drills, mills, pins or wires
    • A61B17/1739Guides or aligning means for drills, mills, pins or wires specially adapted for particular parts of the body
    • A61B17/1757Guides or aligning means for drills, mills, pins or wires specially adapted for particular parts of the body for the spine
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • A61B2090/3782Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Rheumatology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Analysis (AREA)
  • Surgical Instruments (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本発明は、脊柱の領域、及び/又は胸郭、骨盤又は頭部の隣接領域における、外科手術処置中の術中画像制御ナビゲーション装置(1)であって、各々が、手術が施される少なくとも1つの対象(2)の周囲に分散されるように配置され、手術が施される対象(2)の少なくとも1つの小領域の少なくとも外輪郭に関する情報と、検出デバイス(11〜17)のそれぞれに対する小領域の位置に関する情報とを含む、画像データ及び位置データをそれぞれ術中にリアルタイムに取り込むように設計された、X線ベースではない複数の検出デバイス(11〜17)を備える装置(1)に関する。さらに、固定基準系(30)に対する検出デバイス(11〜17)のそれぞれのポジションを決定するポジション決定デバイス(20)と、検出デバイス(11〜17)及びポジション決定デバイス(20)と作動的に接続されるデータ処理デバイス(40)とが設けられ、それらは、検出デバイス(11〜17)のそれぞれの画像データ及び位置データと、ポジション決定デバイス(20)のポジションデータとに基づいて、画像表示デバイス(50)に表示される、固定基準系(30)に対して基準付けされる、手術が施される対象(2)のバーチャルな、好ましくは3次元のリアルタイム画像(41)を作成するように設計される。本発明により、検出デバイス(13〜17)のうちの少なくとも1つは、体内に面する対象(2)の少なくとも1つの小領域の少なくとも外輪郭に関する情報を含む画像データを取り込むために、体内に配置されるように設計された少なくとも1つの検出手段(13.1〜17.1)を有する。

Description

本発明は、請求項1又は請求項16のそれぞれの前文に係る、外科手術処置中の術中画像制御ナビゲーション装置に関する。
従来から、手術中、使用されている器具又はインプラントの患者に対する配置を外科医に対して可視化する、術中画像制御ナビゲーションのためのさまざまな装置及び方法が知られている。これらのナビゲーション装置及び方法の基本的な目的は、手術中の外科医の3次元定位を改善し、それにより、最終的に、患者の安全性を向上させるということである。多数のナビゲーションシステムは、術前画像データ、たとえばコンピュータ断層撮影(CT)及び/又は磁気共鳴断層撮影(MRT)画像データにおける、レジストレーション(位置合せ)と呼ばれる、患者の術中座標系との相関又は参照に基づいている。
基本的に、こうしたレジストレーション方法は、医用画像処理から既知である。そこでは、レジストレーション方法は、同じシーン又は少なくとも同様のシーンの2つ以上の画像を、それらの組合せからより適切な知識を得るために、最適に相関させる役割を果たす。したがって、たとえば、軟組織又は脳構造を十分に提示するMRT画像がCT画像と重ね合わされて、たとえば、骨構造(CT画像)と中間要素(MRT画像)との3次元関係を再現することができる。レジストレーションが行われる画像は、一般に、互いに異なる。それはたとえば、それらの画像が、異なる位置から、異なる時点で、又は異なる方法(モダリティ)により撮影されたためである。レジストレーションのために、一般に、画像のうちの1つが基準画像として確立され、残りの対象画像は、たとえば、平均二乗誤差の最小化に基づいて、補償変換の計算を通して基準画像に最適に適合される。
類似の方法で、画像制御ナビゲーション中のレジストレーションプロセスでは、患者の座標系と術前画像データのセットとの間で変換が行われ、それは、術前画像データと患者に対する実際の手術状況との両方において表すことができる特徴又はマーカそれぞれの識別に基づく。レジストレーションの結果は、大部分の場合、アフィン変換であり、それは、患者座標系に対する画像データの回転、並進及び拡大縮小を含む。
患者座標系の表現のために、一方では、いわゆる解剖学的ランドマーク又は人工ランドマーク、他方では、術中撮像方法が使用される。
解剖学的ランドマークを用いるレジストレーションでは、患者における好適な解剖学的箇所の選択が必要である。脊柱手術では、解剖学的ランドマークは、たとえば、椎骨の骨表面に位置するように選択される。これをスキャンするためには、一般に、椎骨の骨表面が露出される。選択される特徴は、可能な限り手術野を包囲するべきであり、それは、それにより、レジストレーションの精度が向上するためである。しかしながら、解剖学的ランドマークに基づく方法は、時間の大量の消費に関連することが多い。したがって、実際には、正常な解剖学的構造が存在する場合、ランドマークの正確な位置特定は比較的高精度に可能である。これとは対照的に、脊柱に関する病理学的変化のある患者においては、たとえば、腫瘍、先天的変化、退行性変化又は外傷性変化の場合、ランドマークの特定は、明確に妨げられ精度が低くなる。この結果、ナビゲーション精度が不十分なものとしかならないことが多い。さらに、この方法は非常に時間がかかる。
さらなる展開により、人工ランドマークを共同で再現する、人工ランドマークと術中撮像方法との使用が提示されている。人工ランドマークに基づくシステムは、一般に、位置センサ、コンピュータ、表示装置、及び人工ランドマークとしての役割を果たすさまざまなローカライザから構成される。ローカライザは、好適な基準体であり、それらの3次元位置は、使用される位置センサによって測定される。ナビゲーションのために、たとえば、骨スクリューの形態のこれらのローカライザは、患者に又はインプラントに固定される。解剖学的ランドマークと比較すると、人工ランドマークのポジションは、画像データにおいて、且つ現実に、すなわち、患者に対する実際の手術状況において、実質的により正確に測定することができ、それにより、レジストレーションの精度が向上する。しかしながら、人工ランドマークもまた、干渉影響物の影響を受ける。これらは、主に、患者に対する術中手技により、又は手術中の不注意による変位によってもまたもたらされる、ランドマークの術中変位であり、この場合もまた、非常に時間のかかる複数のレジストレーションが必要となる。専ら手術中に人工ランドマークがシフトしたことに気付くのが遅すぎる可能性が高いということが分かり、最終的に、ナビゲーションにおける基本的な信頼が低下する。
対照的に、術中撮像方法を用いることにより、時間の消費は著しく低減し、患者座標系の画像データとのレジストレーションは、本質的により再現性が高くなる。これに関して、特に、X線ベースのレジストレーション、又は2次元若しくは3次元イメージインテンシファイア若しくは術中CTそれぞれに基づくレジストレーションは、十分に確立されている。ここで、たとえば、術前に取得される、脊柱のCTベースの2次元又は3次元画像が、ソフトウェアアルゴリズムを介して、脊柱の術中2次元X線画像と併合され、又は、術中に3次元データセットが作成される(術中CT又は3次元イメージインテンシファイア)。それにより、特に、術者は、手術器具のポジションと、導入されたインプラント、たとえばスクリューの位置とを、術中にリアルタイムで、脊柱の3次元データセットで追跡することができる。さらに、手術中に追加としてX線による術中撮像により、埋め込まれたインプラントの位置をモニタリングすることができ、適用可能な場合は、X線を用いる撮像の繰返しにより補正することができ、これにより、放射線がより高く通常は相当の線量になる。術中撮像方法により、脊柱の位置合せの評価及び適合もまた可能である。しかしながら、術中撮像用の装置の多くの要素は、非常に柔軟性を欠くことが多く、大量の空間を占有する。そのため、そうした要素は、患者の周囲の隣接した手術領域に対して非常に制限的な影響を与える。さらに、すでに上述したように、X線放射に基づく撮像方法では、患者及び医療従事者に対する放射線への曝露が、さらなる不都合として追加される。
これに代わるものとして、さらに、術中超音波撮像に基づくナビゲーション方法及びナビゲーション装置が、従来から知られている。そこでは、好ましくは脊柱の3次元データセットをリアルタイムに取得するために、上述した術中X線ベース画像の代わりに、術中に取得された超音波データセットが術前画像データと併合される。こうした装置は、たとえば、国際特許出願(特許文献1)から既知である。そこでは、超音波データセットが、体外から体内の方向において取得される。それは、手術が施される骨領域に隣接する背中の部分を、外側から超音波ヘッドにより、すなわち、たとえば背中の皮膚の上に位置している超音波ヘッドによりスキャンすることによって行われる。
しかしながら、従来のX線ベースの術中撮像において、また超音波ベースの術中撮像においても、手術が施される対象は、小領域の輪郭画像の形態で、投影でのみ、又は部分的にのみ撮像される。これらの投影画像又は小領域画像はそれぞれ、後に、術前画像データと重ね合わされるために、基準として使用される。そうした基準に基づいて、術中画像データを基準とするバーチャルリアルタイム画像が生成される。しかしながら、このバーチャル画像は、手術が施される対象自体をリアルタイムに再現するのではなく、そのリアルタイムのポジションのみを再現する。しかしながら、投影画像又は小領域輪郭画像はそれぞれ、実際には、投影のみ又は小領域のみをそれぞれ再現するだけであるため、手術が施される対象全体又は現術中状況それぞれのリアルタイムでの視覚的再現には、本質的に適していない。
国際公開第96/11624号
したがって、本発明の目的は、ナビゲーションの目的で固定基準系を基準とする、手術が施される対象のバーチャルな、好ましくは3次元のリアルタイム画像が生成されるのを可能にする、脊柱の領域、及び/又は胸郭、骨盤若しくは頭部の隣接領域における、外科手術処置中の術中画像制御ナビゲーション装置を提供することである。さらに、この装置は、手術中に術者を妨げるべきではなく、いかなる術中の干渉影響物に関しても影響を受けにくいものであるべきであり、それにより、十分なナビゲーション精度が常に保証される。
この問題は、請求項1又は請求項16のそれぞれに係る、術中画像制御ナビゲーション装置によって解決される。本発明の有利な実施形態は、従属請求項の主題である。
本発明によれば、装置は、X線ベースではない複数の検出デバイスを備える。複数の検出デバイスは、各々、脊柱の領域、及び/又は胸郭、骨盤若しくは頭部の隣接領域における、手術が施される少なくとも1つの対象の周囲に分散されるように配置され、手術が施される対象の少なくとも1つの小領域の少なくとも外輪郭に関する情報と、それぞれの検出デバイスに対する小領域の位置に関する情報とを含む、画像データ及び位置データのそれぞれを術中にリアルタイムで取り込むように構成されている。
本発明に関して、手術が施される対象の3次元表面は、手術が施される骨領域の外輪郭として理解される。それぞれの検出デバイスに対する小領域の位置は、本発明に関して、それぞれの検出デバイスに対する、手術が施される対象の取り込まれた3次元表面の3次元配置として定義される。そこで、配置/位置は、一方では距離を含み、他方ではそれぞれの検出デバイスに関する3次元の向き/位置合せを含む。基準点「検出デバイス」は、主に、検出デバイスの取込み部、すなわち実際の検出手段、たとえばセンサシステムを意味するように理解されるべきである。したがって、本発明によれば、検出デバイスは、一方では距離を決定し、他方では、検出デバイス自体に対する、手術が施される対象における、検出デバイスによってそれぞれ取り込まれた3次元表面領域の向き/位置合せを決定する。したがって、対応する位置データは、距離と外輪郭データの位置合せとの両方に関するデータを含む。
手術が施される対象は、排他的にではないが、基本的に、骨組織、他の支持組織及び/又は軟組織(たとえば、病理学的構造、空間を占有する病変部及び腫瘍)を含むことができる。脊柱の領域では、手術が施される対象は、特に、脊柱自体の骨性部分及び/又は軟骨部分、たとえば、1つ若しくは複数の椎骨、又は、1つ若しくは複数の椎骨の1つ若しくは複数の部分(椎体、横突起、棘突起、椎弓、肋骨突起)、仙骨(Os sacrum)、尾骨(Os coccygis)及び/又は1つ若しくは複数の椎間板を含むことができる。手術が施される対象は、頸椎(Pars cervicalis)、胸椎(Pars thoracica)及び/又は腰椎(Pars lumbalis)の領域に位置することができる。さらに、手術が施される対象は、1つ又は複数の靭帯又はその一部、たとえば、前縦靭帯(Ligamentum longitudinale anterius)、後縦靭帯(Ligamentum longitudinale posterius)、1つ若しくは複数の黄色靭帯(Ligamenta flava)、1つ若しくは複数の横突間靭帯(Ligamenta intertransversaria)、1つ若しくは複数の棘間靭帯(Ligamenta interspinalia)及び/又は棘上靭帯(Ligamentum supraspinale)を含むことができる。また、手術が施される対象は、脊柱に隣接する骨盤領域にも位置することができ、したがって、たとえば、骨性骨盤の隣接する領域、特に骨盤輪に関することができる。また、手術が施される対象は、脊柱に隣接する胸郭領域にも位置することができ、特に、椎骨の上の1つ又は複数の肋骨突起、1つ又は複数の肋骨(領域)、又はさらには、大規模な病理学的変化の場合、胸骨に関することができる。また、手術が施される対象は、脊柱に隣接する頭部領域にも位置することができる。そこでは、それは、特に、いわゆるC0椎骨、すなわち、後頭骨(Os occipitale)又は後頭部それぞれの領域を含むことができる。また、手術が施される対象は、脊柱の領域における、及び/又はそれに隣接する胸郭、骨盤又は頭部の領域における、他の軟組織、特に、神経要素又は病理学的構造も含むことができる。
本発明によれば、検出デバイスは、それぞれ、手術が施される対象又はその小領域それぞれの少なくとも外輪郭に関する情報を含む画像データを取り込むように構成されている。検出デバイスのタイプ又は検出原理それぞれに応じて、また手術が施される対象の組成に従って、X線ベースではないこれらの検出デバイスのうちの1つ又は複数は、手術が施される対象の外輪郭に加えて、手術が施される対象の内部構造に関する撮像情報も取り込むように構成することができる。したがって、たとえば、超音波又はテラヘルツ放射線に基づく検出デバイスは、手術が施される対象の構造、組成及び組織/物質に応じて、手術が施される対象の内部構造に関する、物質によって決まる浸透深さ又はさらには浸透率を含む、外輪郭を超える情報を提供することができる可能性がある。
本発明による装置は、固定基準系に対して、好ましくは手術室に対する固定基準系に対して、検出デバイスのそれぞれのポジションに関するデータをリアルタイムに決定するように構成されている、ポジション決定デバイスをさらに備える。ここで、また、固定基準系に対する相対位置に関する基準点「検出デバイス」は、主に、検出デバイスの取込み部、すなわち、実際の検出手段、たとえばセンサシステムを意味するように理解されるべきである。ポジション決定デバイスにより、手術が施される対象と固定基準系との間の連鎖における最終リンクとして、それぞれ取り込まれた小領域に対する検出デバイスの位置データを介して、さらに固定基準系に対する検出デバイスの位置データを介して、手術が施される対象の各小領域の3次元表面の取り込まれた外輪郭データに対して、固定基準系を3次元で基準とすることができることが、全体として保証される。それにより、全体として、小領域に関する情報は、手術が施される対象の3次元表面の個々の取り込まれた小領域が固定基準系に対していかに向けられるかに関して利用可能である。
本発明によれば、さらに、データ処理デバイスは、複数の検出デバイス及びポジション決定デバイスと、それぞれ作動的(operative)に接続されている。データ処理デバイスは、固定基準系を基準とする、手術が施される対象のバーチャルな、好ましくは3次元のリアルタイム画像を、すなわち、検出デバイスのそれぞれの画像データ及び位置データに基づいて、またポジション決定デバイスのそれぞれのポジションデータに基づいて、生成するように構成されている。
バーチャルリアルタイム画像の表現に対して、本発明によれば、画像表示デバイスがさらに設けられ、それは処理デバイスと作動的に接続されている。
本発明によれば、さらに、複数の検出デバイスのうちの少なくとも1つは、体内に面する、手術が施される対象の少なくとも1つの小領域の少なくとも外輪郭に関する情報を含む画像データを取り込むために、体内に配置されるように構成されている少なくとも1つの検出手段を備える。
「体内に面する」とは、ここでは、脊柱又は脊柱に隣接する胸郭、骨盤若しくは頭部の領域の対応する外輪郭が、手術中に体内に位置することを意味する。したがって、「体内に面する」は、「内側の」又は「深い」、すなわち、身体の中心に向かう、特に「腹側に」位置する下領域のみではなく、外側に、後部に向かって斜めに外側に、前部に向かって斜めに外側に、後部において斜め上方に、後部において斜め下方に、前部において斜め上方に、前部において斜め下方に、上方に斜めに外側に、又は下方に斜めに外側に向くことも含む可能性がある。これらの位置及び方向についての記述は、単に定義として、直立している患者に関連する。対応する小領域は、手術中に露出し、部分的に露出し、又は組織によって完全に包囲される場合がある。
本発明による方法において、手術部位の周囲に分散される、特に少なくとも1つは体内に配置される複数の検出デバイスを使用して、限られた部分的詳細又は投影それぞれのみの代わりに、手術が施される対象の実質的により包括的な画像を、さまざまな視野角から生成することができ、それは特に、体内に面する、手術が施される対象の少なくとも1つの小領域の少なくとも外輪郭に関する情報を含む。理想的には、さらには、手術が施される対象の外輪郭のバーチャルな、好ましくは3次元のリアルタイムパノラマ画像、又は完全なリアルタイム3次元再現それぞれを生成することができ、それにより、本発明による方法において、ナビゲーション精度及び術者にとっての安心感、並びに最終的には患者の安全が明確に向上する。
特に、本発明による装置によって生成されるバーチャルリアルタイム画像は、固定基準系に対する手術領域のリアルタイムポジションのモニタリングを可能にするだけでなく、準インサイチュ(quasi in situ)で、手術が施される対象の実際の外輪郭をリアルタイムに視覚的に再現する、実際のリアルタイム画像データに基づく。したがって、手術部位のバーチャル画像は、ポジションデータとは別に、排他的に、術前データ、又は手術の第1部の間、すなわち、アクセス段階中に取得されるデータに基づく方法及び装置とは対照的に、有利な方法で、本発明による装置により、手術が施される対象の外輪郭に対する、手術部位の環境における術中変化が、リアルタイムに視覚的に取り込まれる。したがって、たとえば、手術領域において行われる骨又は他の組織の除去、導入されるスクリュー、使用される手術器具、位置合せに対する位置/調整の修正等は、インサイチュ(in situ)で視覚的に取り込まれ、それにより、さらに、ナビゲーション精度及び術者にとっての安心感が、本発明に本質的な方法で向上する。
当然ながら、1つの検出デバイスのみが、体内に配置されるように、又は術中に配置されるようにそれぞれ構成することができるのではなく、複数の検出デバイスのうちの少なくとも2個、少なくとも3個、少なくとも4個、少なくとも5個、少なくとも6個、少なくとも7個、少なくとも8個、少なくとも9個、少なくとも10個、少なくとも11個、少なくとも12個又はそれより多く、特に、2個、3個、4個、5個、6個、7個、8個、9個、10個、11個、12個をそのように構成することができる。
複数の検出デバイスの総数及び配置は、手術が施される対象のサイズ及びポジションによって決めることができる。たとえば、手術が脊柱のわずかな部位/部分のみに関することが考えられる。このためには、わずかな数の検出デバイスですでに十分である可能性があり、それらは、手術部位の周囲の密接に限られた領域に配置される。別の場合では、手術は、実質的により広い領域に関する場合があり、それは特に、脊柱の全長にわたって広がる可能性があり、それにより、手術領域の全長にわたって脊柱に沿って分散して配置される、より多くの検出デバイスが必要となる。
同様に、検出デバイスのタイプは、複数の検出デバイスに対するポジションに従って、特に、体内又は体外の配置に応じて異なり得る。たとえば、体内に配置される検出デバイスは、超音波に基づく検出デバイスであり、体外に配置される同じ装置システムの検出デバイスは、光学輪郭スキャナであることが考えられる。タイプの異なる複数の検出デバイスを使用することにより、手術が施される対象に関するより多くの且つより詳細な情報を有利な方法で得ることができる。
さらに、それぞれ異なる検出デバイスに関連する、手術が施される対象の取り込まれた小領域は、部分的にオーバーラップし、すなわち、異なる検出デバイスの検出フィールドは部分的にオーバーラップすることが考えられる。
バーチャルリアルタイム画像の生成は、それぞれが手術が施される対象の小領域の少なくとも外輪郭を再現する、検出デバイスによって取り込まれる個々の画像データセットが、データ処理デバイスにより、少なくとも、手術が施される対象の外輪郭の画像全体に編集されるように、行うことができる。このために、一方では、それぞれの検出デバイスに対する対応する小領域の位置、すなわち、向き及び距離に関する、検出デバイスによって決定されるデータが使用され、他方では、固定基準系に対するそれぞれの検出デバイスの、ポジション決定デバイスによって取り込まれたポジションデータが使用され、それにより、この情報を用いて、個々の小領域の画像データのセットから手術が施される対象の画像全体を編集する。このために、検出デバイスでは、具体的な画像レジストレーション、画像生成及び/又は画像処理ソフトウェアを使用することができ、それは、画像データのセット、関連する位置データ又はポジションデータそれぞれから、少なくとも、手術が施される対象の外輪郭のバーチャル画像を再構築する。画像データの個々のセットを画像全体に3次元で正確に編集するために、データ処理デバイスは、特に、手術が施される対象の解剖学的に特有の特徴、たとえば、棘突起、横突起、関節突起、肋骨、肋骨突起、又は脊柱、胸郭、骨盤若しくは後頭部の領域における他の特有の特徴を有する、具体的な画像領域を特定するように構成することができる。解剖学的に特有の特徴として、手術が施される対象の領域に位置する血管、たとえば、それぞれ横突孔を通って伸びる椎骨動脈も使用することができる。好ましくは、データ処理デバイスは、画像データのセットにおいて、異なる検出デバイスから生じる同一の解剖学的に特有の対象を探索し、これらの解剖学的に特有の対象のポジション及び向きを用いて、異なる検出デバイスの画像データのセットを互いに3次元で割り当て、又は互いに対して3次元で正確な方法でそれらを配置するように、それぞれ構成することができる。
バーチャルリアルタイム画像を生成するために、特に、画像レジストレーションの基本的に既知の方法を使用することができる。たとえば、レジストレーション方法は、以下のステップを含むことができる。すなわち、第1ステップにおいて、いわゆる特徴抽出が行われ、レジストレーションが行われる画像データのセットから、たとえば、棘突起又は横突起等、手術が施される対象の解剖学的に特有の特徴が、手動で又は自動的に検出される。第2ステップにおいて、いわゆる特徴マッチング、すなわち、抽出された特徴点の相関性が生成される。このために、検出デバイスは、たとえば、異なる検出デバイスのリアルタイム画像データセットにおいて相関性のための定性的基準を示す関数を用いることができる。この基準は、その後、最適化方法において最小化又は最大化される。第3ステップにおいて、変換計算が行われる。そこでは、好適な変換型、たとえば、アフィン変換型、投影変換型等が選択され、変換パラメータが計算される。最後に、第4ステップにおいて、実際の変換が行われる。このために、画像データのセットは、先行するステップにおいて計算された変換によって変換され、そこでは、時に、補間技法もまた使用することができる。
本発明の第1の有利な態様によれば、リアルタイム画像データに加えて、術前に又はアクセス段階中に取得された、手術が施される対象の画像データを、バーチャルリアルタイム画像の生成に組み込むことができる。したがって、特に、データ処理デバイスは、検出デバイスの画像データと、術前に又はアクセス段階中に取得された、手術が施される対象の画像データとを重ね合わせ、それにより、検出デバイスの画像データと重ね合わされた、術前に又はアクセス段階中に取得された画像データに基づいて、固定基準系を基準とする、手術が施される対象のバーチャルリアルタイム画像を生成するように構成されるようにすることができる。ここでまた、この場合もまた基本的に既知の画像レジストレーション方法を使用することができる。術前に取得された画像データをさらに組み込むことにより、手術が施される対象に関するより多くの且つより詳細な情報を、有利な方法で得ることができる。
しかしながら、基本的に、外輪郭データと重ね合わされた、術前に取得された画像データのみに基づいて、手術が施される対象のグラフィック再現に関するバーチャルリアルタイム画像が生成され、このバーチャルリアルタイム画像が固定基準系を実際に基準とするためにのみ、術中に取得される画像データ、位置データ及びポジションデータが使用されることも考えられる。これに関して、本発明の独立した概念によれば、脊柱の領域、及び/又は胸郭、骨盤若しくは頭部の隣接領域における、外科手術処置中の術中画像制御ナビゲーションのためのさらなる装置が提案される。この装置は、好ましくはX線ベースではない、手術が施される対象の少なくとも1つの小領域の少なくとも外輪郭に関する情報と、検出デバイスに対する小領域の位置に関する情報とを含む、画像データ及び位置データを術中にリアルタイムに取り込むように構成された、少なくとも1つの検出デバイスを備える。装置は、ポジション決定デバイスをさらに備え、固定基準系に対する少なくとも1つの検出デバイスのポジションに関するデータをリアルタイムに決定するように構成されている。さらに、装置は、少なくとも1つの検出デバイス及びポジション決定デバイスと作動的に接続されているデータ処理デバイスを備える。データ処理デバイスは、少なくとも1つの検出デバイスの画像データと、術前に又はアクセス段階中に取得された、手術が施される対象の画像データとを重ね合わせ、それにより、検出デバイスの画像データと重ね合わされた、術前に又はアクセス段階中に取得された画像データに基づいて、固定基準系を基準とする、手術が施される対象のバーチャルリアルタイム画像を生成するように構成されている。ここでまた、この場合もまた基本的に既知の画像レジストレーション方法を使用することができる。バーチャルリアルタイム画像の表現のために、データ処理デバイスと作動的に接続されている画像表示デバイスがさらに提供される。また、この装置では、少なくとも1つの検出デバイスは、体内に面する、手術が施される対象の少なくとも1つの小領域の少なくとも外輪郭に関する情報を含む画像データを取り込むために、体内に配置するように構成された少なくとも1つの検出手段を備える。これに関して、少なくとも1つの検出デバイスは、主に、体内に面する、手術が施される対象の少なくとも1つの小領域を取り込むことにより、また術前に又はアクセス段階中に取得された画像データと重ね合わせるための基準領域として、固定基準系に対する手術領域のリアルタイムポジションをモニタリングする役割を果たす。
したがって、請求項1に係る装置と請求項16に係る装置はともに、同じ発明の概念、すなわち、少なくとも1つの検出デバイス又は検出手段はそれぞれ、体内に面する、手術が施される対象の少なくとも1つの小領域の少なくとも外輪郭に関する情報を含む画像データを取り込むために、体内に配置されるように構成されている、という概念に基づく。本発明による方法では、検出デバイス又は体内の検出手段それぞれの配置により、ナビゲーション全体が、術中の干渉影響物に対して影響されにくくなり、それにより、十分なナビゲーション精度が常に保証される、ということが認識された。体内に配置することにより、特に、検出デバイスの検出フィールドが術者によって妨げられるリスクは、あるとしても非常にわずかにしか存在しない。逆に、体内に配置することができる少なくとも1つの検出デバイスもまた、有利に、術者に対する手術領域のアクセス可能性を損なわない。さらに、検出手段は、たとえば、体内で使用される、たとえば超音波等、たとえばX線以外の他の撮像モダリティを可能にする。超音波は、特に、頸椎の領域において非常に大きな利点がある。したがって、たとえば経食道心エコー用の装置等、対応して適合された装置により、正面から頸椎を撮像することができ、それにより、重要な構造(たとえば、椎骨動脈又は神経根)を特定することができる。同時に、脊柱の可動性が高いことにより外科手術手技又は他の操作によってもたらされる椎骨の移動を、連続的に補償することができる。さらに、体内の検出手段により、手術が施される対象へのアクセス経路を介してすでに可視ではない、手術が施される対象の他の態様を表すことができる。これにより、さらに精度が向上する。
ポジション決定デバイスによってポジションを能動的に決定するため、体内に配置することができる検出デバイスを固定する必要がないことが、同様に重要である。むしろ、そうした検出デバイスは自由に移動することができ、それにより、ナビゲーションは、術中の干渉影響物、たとえば、術者による患者に対する手技、転位、呼吸運動、又は消化管の運動等に対して影響を受けにくい。これは、ポジション決定デバイスが、本発明により、一方では、固定基準系に対する検出デバイスのそれぞれの位置を連続的に取り込むためである。他方で、検出デバイス自体は、それらによって取り込まれる手術部位の小領域に対してそれらのポジションを永久的にリアルタイムにモニタリングする。これにより、取り込まれた外輪郭データ、したがってバーチャルリアルタイム画像に、リアルタイムに固定基準系を参照させることが可能になる。
本発明のさらなる有利な態様によれば、体内に配置することができる少なくとも1つの検出デバイスは、超音波ベースの検出デバイスである。超音波ベースの検出デバイスは、リアルタイムでの撮像に特に適している。
さらに、超音波ベースの検出デバイスは、手術が施される対象の外輪郭が、軟組織を通して、したがってたとえば、脂肪組織、筋肉組織及び/又は結合組織を通して取り込まれるのを可能にする。したがって、そうした検出デバイスは、特に、術中に露出されない、手術が施される対象のこうした小領域の画像取込みに適している。さらに、超音波ベースの検出デバイスは、検出デバイスと取り込まれた対象との間の距離測定及びポジション測定を可能にし、手術が施される対象の3次元測定を可能にするように構成され、それにより、検出デバイスに対する取り込まれた小領域の位置をリアルタイムに非常に高精度に取り込むことができる。超音波ベースの検出デバイスは、さらに、流体の流量のドップラー超音波検査測定を可能にする。したがって、たとえば、重要な血管を危険なゾーン又は解剖学的ランドマークとして特定することができる。また、脳脊椎流体空間内の流体の流量を検出することができ、それは実際には主として極小であるが、それにも関わらず、手術に対して最大の関連性がある。
体内に配置することができる少なくとも1つの検出デバイスは、テラヘルツ放射線に基づく検出デバイスであることも考えられる。テラヘルツスペクトルにおける有機組織の屈折率が高いことにより、非常に高コントラストな記録が可能になり、従来の記録技法を補うことができる。放射線は、非イオン性であり、医療用途及び生物学的用途に対してリスクなしに使用することができる。テラヘルツ放射線は、場合により、物質/組織に応じて、手術が施される対象の内部構造に関する情報をさらに提供することができる。内部構造に関する情報は、たとえば、健康な細胞と腫瘍細胞とを識別するのに役立つことができる。
特に、本発明のさらなる態様によれば、体内に配置することができる少なくとも1つの検出デバイスは、予め形成されている体腔、特に、鼻、口、咽頭、食道、気管、消化管、膀胱を介して、又は血管を介して、体内に導入されるように構成されている。こうした応用では、特に、超音波内視鏡用の内視鏡検出デバイスは、たとえば、消化器超音波内視鏡検査に適している。後者の消化器超音波内視鏡検査用の検出デバイスの位置/ポジションは、内視鏡を介して直接、又はたとえば、外部に向かう電磁波(高周波)を用いて行うことができる。位置を決定するために、特に位置センサを考慮することができ、それは時に、内視鏡で発生する加速度を測定して、そこから、検出手段の位置及びポジションを推断することができる。
さらに、体内に配置することができる少なくとも1つの検出デバイスは、組織内、たとえば傍脊椎筋肉組織若しくは殿筋の筋肉組織内に、及び/又は脂肪組織、たとえば硬膜外腔内に、手術により導入されるように構成されている。こうした応用では、上述した従来の超音波内視鏡プローブに加えて、特に、いわゆる超音波検査細径プローブシステムが適しており、それは、たとえば、生検チャネルを通して挿入され、従来の超音波内視鏡検査の場合より実質的に細いプローブを有することができる。
体内に配置することができる少なくとも1つの検出デバイスと類似する方法で、複数の検出デバイスのうちの少なくとも1つを、体外に面する、手術が施される対象の小領域の少なくとも外輪郭に関する情報を含む画像データを取り込むために、体外に配置されるように構成することができる。
同様に、さらに、体外に配置することができる少なくとも1つの検出デバイスは、超音波ベースの検出デバイス、又はテラヘルツ放射線に基づく検出デバイスであるようにすることができる。しかしながら、体外にも配置することができる少なくとも検出デバイスは、光学輪郭スキャナとして構成されることも考えられる。
ポジション決定デバイスとして、たとえば、電磁、特に光学ポジション決定デバイスが考慮される。そこでは、検出デバイスにおいて、パッシブポジションマーカ又はアクティブポジショントランスミッタがそれぞれ配置され、それは、遠隔に配置されたポジションマーカ認識デバイス、又は、ポジショントランスミッタによって放出される信号を受信する遠隔に配置されたレシーバデバイスを介してモニタリングされる。こうしたポジション決定デバイスは、従来から基本的に既知であり、たとえば、「StealthStation」という商標名で脊髄手術に対して売り出されている、Medtronicによるポジション検出デバイスである。
先に説明したように、手術器具並びに手術部位に対するそれらのポジション及び向きに関するリアルタイム情報もまた、術中に術者に提供するために、本発明のさらなる態様により、装置が、一方では、少なくとも1つの手術器具を備えるように、他方では、ポジション決定デバイスが、さらに固定基準系に対する少なくとも手術器具の位置を決定するように構成され、処理ユニットはさらに、バーチャルリアルタイム画像内に標識を重ね合わせるように構成され、この標識は、少なくとも1つの手術器具と固定基準系に対するその位置とを表すようにすることができる。
さらに、検出デバイスのうちの少なくとも1つは、手術器具に配置することができ、又はそれぞれ配置されるようにすることができる。このために、本発明による装置は、それぞれ、少なくとも1つの検出デバイスを受け入れるように構成された、又は少なくとも1つの検出デバイスが配置される、手術器具を備えることができる。
任意の外部干渉影響物に対してデバイスの機能を保護し、したがって、術者にとっての安心感を常に維持するために、本発明のさらなる有利な態様によれば、データ処理デバイスは、検出デバイスのうちの少なくとも1つの画像データ、位置データ及び/又はポジションデータの決定を一時的に失敗した場合、位置データ及びポジションデータの決定が機能している状態でこの検出デバイスにより初期の時点で取り込まれた画像データに基づいて、バーチャルリアルタイム画像において、この検出デバイスによって取り込まれる、手術が施される対象の小領域を生成するように構成され、初期の時点で取り込まれた対応する小領域の画像データは、残りの検出デバイスによって取り込まれた小領域の現位置にリアルタイムで適合されるようにすることができる。
検出デバイスのうちの1つ又は複数に対して位置データ及び/又はポジションデータの決定のみが一時的に失敗し、関連する検出デバイスの画像取込みは失敗していない場合、本発明のさらなる態様により、依然として現時点で取り込まれている画像データに基づいて、バーチャルリアルタイム画像において、この検出デバイスによって取り込まれる、手術が施される対象の小領域を生成するが、リアルタイムに固定基準系に対する位置に関する対応する小領域の現時点で取り込まれている画像データを、残りの検出デバイスによって取り込まれる小領域の現位置に適合させるようにすることができる。
さらに、検出デバイスは、特に、好ましくは固定基準系に対する、それらのそれぞれのポジション及び/又は位置に関する情報を交換するように、互いに通信するように構成されるようにすることができる。さらに、複数の検出デバイスのうちの少なくとも1つ、特に、検出デバイスのうちの少なくとも1つの少なくとも1つの検出手段は、少なくとも1つの他の検出デバイスのポジション及び/若しくは位置、又は、少なくとも他の検出デバイスのそれぞれの検出手段のそれ自体に対する、それにより、ポジション決定デバイスを介して固定基準系に対する、ポジション及び/若しくは位置をそれぞれ決定するように構成されるようにすることができる。これにより、ナビゲーション精度をさらに明確に向上させることができる。たとえば、複数の検出デバイスのうちの1つは、手術が施される対象の少なくとも1つの小領域に関する画像データ及び位置データを取り込むだけでなく、少なくとも1つの他の検出デバイスに対するそれ自体に対する少なくとも位置及びポジションデータ、好ましくは画像データも取り込むように構成された、超音波検出デバイスであることが考えられる。
手術が施される対象の外輪郭及び特に内部構造に関するさらなる情報をさらに取得するために、装置は、手術が施される対象の少なくとも1つの小領域の外輪郭及び内部構造に関する情報を含む画像データを術中にリアルタイムに取り込むように構成された、少なくとも1つのX線ベースの検出デバイスをさらに備えるようにすることができる。そこでは、データ処理デバイスは、X線ベースの検出デバイスに作動的に接続され、X線ベースではない検出デバイスの画像データと、X線ベースの検出デバイスの画像データとを重ね合わせ、それにより、互いに重ね合わされた画像データに基づいて、固定基準系を基準とする、手術が施される対象のバーチャルリアルタイム画像を生成するように構成されている。この画像は、手術が施される対象の外輪郭及び内部構造に関する情報を含む。さらに、さらに上述したように、術前に又はアクセス段階中に取得された画像データが、X線ベースの検出デバイス及びX線ベースではない検出デバイスの上述した術中データと重ね合わされることも考えられる。
本発明のさらなる態様によれば、装置は、手術が施される対象の少なくとも1つの小領域の外輪郭及び内部構造に関する情報と、X線ベースの検出デバイスに対する小領域の位置に関する情報とを含む、画像データ及び位置データを、術中にリアルタイムで取り込むように構成された、X線ベースの検出デバイスをさらに備えるようにもすることができる。そこでは、ポジション決定デバイスは、さらに、固定基準系に対するX線ベースの検出デバイスのポジションに関するデータをリアルタイムに決定するように構成されており、データ処理デバイスは、X線ベースの検出デバイスと作動的に接続され、X線ベースではない検出デバイスのそれぞれの画像データ及び位置データ、X線ベースの検出デバイスの画像データ及び位置データ、並びにポジション決定デバイスのそれぞれのポジションデータに基づいて、固定基準系を基準とする、手術が施される対象のバーチャルな、好ましくは3次元のリアルタイム画像を生成するように構成されている。この画像は、手術が施される対象の外輪郭及び内部構造に関する情報を含む。
好ましくは、X線ベースの検出デバイスは、患者及び手術従事者に対して、放射線に対する曝露を可能な限り低く維持するために、可能な限り弱く放射するか又は低線量である。
バーチャルリアルタイム画像を提示する本発明によって提供される画像表示デバイスは、たとえば、手術室における固定モニタとして具現化することができる。しかしながら、画像表示デバイスは、特に、術者の手首に若しくは術者の眼の正面において頭部に、又は器具/用具に配置することができる、ポータブルモニタとして具現化されることも考えられる。
本発明のさらなる詳細、特に、提案される装置の実施形態の例示的な形態について、添付の図面を用いて以下に説明する。
本発明に係る装置の可能な実施形態例の概略図である。 図1による、本発明に係る装置の詳細図である。 本発明に係る装置のさらなる可能な配置の概略図である。
図1及び図2は、本発明による、脊柱3の領域、及び/又は胸郭、骨盤5若しくは頭部4の隣接領域における、外科手術処置中の術中画像制御ナビゲーション装置の可能な実施形態例を示している。
装置1は、X線ベースではない複数の検出デバイス11〜17を備えている。それらは各々、患者の脊柱3の上の手術が施される対象2の周囲に分散されるように配置されるように構成されている。さらに、これらの検出デバイス11〜17のそれぞれは、手術が施される対象2の少なくとも1つの小領域の少なくとも外輪郭と、検出デバイス11〜17のそれぞれに対するこの小領域の位置とを、術中にリアルタイムでそれぞれ取り込むように構成されている。
図1及び図2から分かるように、検出デバイス11及び12、又はそれらに関連する検出手段11.1及び12.1は、それぞれ体外に配置され、検出デバイス13〜17、又はそれらに関連する検出手段13.1〜17.1は、体内に配置される。本実施形態例では、検出デバイス13及び14、又はそれらに関連する検出手段13.1及び14.1は、それぞれ手術が施される露出した骨領域2の周囲の傍脊椎筋肉組織内に、手術によって導入される。同様に、検出デバイス16の検出手段16.1は、手術が施される脊柱3の骨領域2の正面側に、腹腔を介して手術によって導入される。
対照的に、検出デバイス15の検出手段15.1は、内視鏡として具現化され、口、咽頭腔及び食道を介して胃の中に導入されて、そこから、胃の方向又は食道の方向から手術が施される骨領域2の小領域の外輪郭を取り込む。同様に、検出デバイス17の検出手段17.1も、内視鏡として具現化され、直腸から結腸内に導入されて、そこから、体内から手術が施される骨領域2の別の小領域の外輪郭を取り込む。
好ましくは、本実施形態例では、体内に導入される検出デバイス13〜17又はそれらに関連する検出手段13.1〜17.1のそれぞれ全てが、それぞれ超音波ベースの検出デバイス又は検出手段として具現化される。本実施形態例では、2つの検出手段13.1及び14.1は、いわゆる細径プローブシステムとして具現化される。それらは、それぞれの生検チャネルを通して、傍脊椎筋肉組織内に挿入することができる。対照的に、検出手段15.1及び17.1は、内視鏡超音波プローブとして具現化される。
体外に配置される2つの検出デバイス11及び12、又は検出手段11.1及び12.1のそれぞれは、本実施形態例では、光学輪郭スキャナとして具現化される。それらは、それぞれ、手術が施される骨領域2の外輪郭の小領域を、レーザ光によって光学的にスキャンする。
検出手段11.1〜17.1のそれぞれから始まる、図1及び図2においてダッシュで描かれている線は、それぞれ、検出デバイス11〜17のそれぞれ対応する検出フィールドを表している。見てとれるように、異なる検出デバイス11〜17の検出フィールドは、オーバーラップする可能性がある。本実施形態例では、検出フィールドは、特に、手術が施される骨領域2のほぼ完全なパノラマ表現が可能となるようにオーバーラップする。
さらに、全ての検出デバイス11〜17は、それら自体に対するそれぞれ取り込まれた小領域の位置を取り込むように構成されている。特に、超音波ベースの検出デバイス及び光学輪郭スキャナは、これに適している。これは、取り込まれた外輪郭データを固定基準系に実際に関連付けるための基本的な前提条件である。
固定基準系30、たとえば、手術室に関する固定基準系30に関して、検出デバイス11〜17のそれぞれの位置/ポジションを決定するために、本発明による装置1は、さらに、ポジション決定デバイス20を備えている。検出デバイス11〜17の位置/ポジションは、特に、固定基準系30に関する検出手段11.1〜17.1のそれぞれの位置/ポジションを意味する。
本実施形態例では、ポジション決定デバイス20は、電磁ポジション認識システムとして具現化される。このシステムは、検出デバイスのそれぞれにおける、パッシブポジションマーカ11.2、12.2、又はポジショントランスミッタ13.2〜17.2を備えている。パッシブポジションマーカ11.2、12.2、又はポジショントランスミッタ13.2〜17.2は、遠隔に配置された、結合されたポジションマーカ認識デバイス及びポジショントランスミッタ−レシーバデバイス21を介してモニタリングされる。この結合されたデバイスは、一方では、ポジションマーカ11.2及び12.2の3次元ポジションをリアルタイムで認識してモニタリングし、それにより、検出デバイス11及び12の3次元ポジションを認識してモニタリングし、他方では、ポジショントランスミッタ13.2〜17.2から放出されるポジション信号を受信し、それらから、関連する検出デバイス13〜17の3次元ポジションを決定するように構成されている。
認識のために、ポジションマーカ11.2及び12.2は、典型的には、体外に配置されなければならない。対照的に、ポジショントランスミッタ13.2〜17.2は、体内及び体外の両方に配置することができる。本実施形態例では、特に、ポジショントランスミッタ16.2は、体内に配置され、そこから体外に、ポジション信号、すなわち検出手段16.1の位置に関する情報を送信し、それにより、体外でポジショントランスミッタ−レシーバデバイス21によりそうした信号を受信することができるように、構成されている。本実施形態例では、ポジショントランスミッタ13.2〜17.2はすべて、それぞれのポジション信号をポジショントランスミッタ−レシーバデバイス21に無線で送信するように配置されている。しかしながら、ポジション信号の送信は、ポジショントランスミッタのうちの1つ又は複数によって有線で行うことも考えられる。
固定基準系30に関してポジション決定デバイス20によって決定された、検出デバイス13〜17、又は検出手段13.1〜17.1のそれぞれの位置データと、手術が施される骨領域2における、外輪郭に関して取り込まれた小領域に対する検出手段13.1〜17.1、又は検出デバイス13〜17のそれぞれによって決定された位置データとは、データ処理デバイス40によって利用可能となる。
さらに、検出デバイス13〜17は、手術が施される骨領域2におけるそれぞれの小領域の、検出デバイス13〜17によってリアルタイムに取り込まれた、対応する外輪郭を表す画像データ又は外輪郭データのそれぞれを、データ処理デバイス40にそれぞれ伝達する。このデータ転送の目的で、検出デバイス13〜17及びポジション決定デバイス20は、処理デバイス40に作動的(operative)に接続されている。このデータ転送は、たとえば、有線データ接続を介して又は無線データ接続を介して行うことができる。
さらに、データ処理デバイス40は、送信された画像データ及び位置データに基づいて、固定基準系30を基準とする、手術が施される骨領域のバーチャルな、好ましくは3次元のリアルタイム画像41を生成するように構成されている。この画像は、それぞれの小領域の個々の画像データセットから構成される。このバーチャルリアルタイム画像は、本発明による方法によって、完全に実際のリアルタイム画像データに基づく。それにより、固定基準系30に対する手術領域のリアルタイムポジションのモニタリングのみではなく、手術が施される骨領域2の少なくとも実際の外領域をリアルタイムに準インサイチュ(quasi in situ)で視覚的に再現することも可能となる。本発明による方法によって、体内に複数の検出デバイス13〜17が配置されていることにより、従来技術と比較して、手術が施される骨領域の実質的により包括的な画像を生成することができる。検出デバイス15〜17が背中の側部の方向で取り込むことにより、特に、体内に面する、手術が施される骨領域の少なくとも1つの小領域の外輪郭に関する情報を含めることができる。理想的には、さらには、手術が施される骨領域の外輪郭のバーチャルリアルタイムパノラマ画像を生成することができ、それにより、ナビゲーション精度及び術者にとっての安心感が著しく向上する。
処理デバイス40によって生成されるバーチャルリアルタイム画像41は、処理デバイス40に作動的に接続されている画像表示デバイス50において提示することができる。有利な方法では、この画像表示デバイス50は、本実施形態例では、ポータブルモニタとして又はポータブルディスプレイとしてそれぞれ具現化される。それは特に、術者の手首に若しくはモニタアイウエアの方法で術者の眼の正面に、又は手術用具/器具に締結することができる。
本実施形態例では、本発明による装置1は、さらに、少なくとも1つの手術器具60を備えている。これには、検出デバイス13〜17と同様に、ポジショントランスミッタ又はポジションマーカが備えられており、それにより、固定基準系30に対する、これによって手術される骨領域2に対する手術器具60の3次元位置を決定することができる。この目的で、ポジション決定デバイス20はさらに、固定基準系30に対する少なくとも1つの手術器具の位置を決定するように構成されている。さらに、処理ユニット40は、少なくとも1つの手術器具60と固定基準系30に対するその位置とを表す標識を、バーチャルリアルタイム画像41内に重ね合わせるように構成することができる。これにより、ナビゲーション精度及び術者にとっての安心感がさらに向上する。
特に図2に示すように、検出デバイスのうちの少なくとも1つ、すなわち、本実施形態例では検出デバイス12は、手術器具60の上に配置されるようにすることができる。このために、手術器具60は、その上に検出デバイス12を締結するために、特に取付台があるように具現化される。
任意の外部干渉影響物に対して装置の機能を保護し、したがって、術者にとっての安心感を常に維持するために、処理デバイス40は、さらに、画像取込み及び/又は検出デバイス11〜17の位置/ポジション決定の一時的な失敗の場合、位置の決定が機能している状態でこの検出デバイス11〜17によって初期の時点で取り込まれた画像データに基づいて、バーチャルリアルタイム画像41において、この検出デバイス11〜17によって取り込まれる、手術が施される骨領域2の小領域を生成するように構成されている。このために、特に、初期の時点で取り込まれた対応する小領域の画像データは、残りの検出デバイス11〜17によって取り込まれる小領域の現位置にリアルタイムで適合されるようにすることができる。
検出デバイス11〜17のうちの1つ又は複数に対する位置/ポジション決定のみが一時的に失敗し、関連する検出デバイス11〜17自体の画像取込みは失敗していない場合、さらに、現時点で取り込まれている画像データに基づいて、バーチャルリアルタイム画像41において、それぞれ関連する検出デバイス11〜17によって取り込まれる、手術が施される骨領域2の小領域を生成するようにすることができる。このために、対応する小領域の現時点で取り込まれている画像データは、固定基準系41に対するそれらの位置に関して、残りの検出デバイスによって取り込まれる小領域の現位置にリアルタイムに適合される。
図3は、体内における、本発明による装置の検出デバイス15〜17又は関連する検出手段15.1〜17.1のそれぞれのさらなる可能な配置を示している。この例示的な構成によれば、例として3つの検出デバイス15〜17のうちの少なくとも検出手段15.1〜17.1は、脊柱3のそれぞれ左側又は右側に外側に配置され、遠位方向において身体の左側及び右側に面する、手術が施される骨領域2の領域の外輪郭を取り込むように位置合せされる。当然ながら、図3による検出デバイス15〜17の配置は、体内又は体外に配置することができるさらなる検出デバイスによって補うことができる。特に、図3による検出デバイスの具体的な配置を、図1及び図2による検出デバイスの配置と組み合わせることも可能である。理想的には、体内及び体外の検出デバイスの対応する全般にわたる配置により、さらには、手術が施される骨領域の外輪郭のバーチャルリアルタイムパノラマ画像を生成することができ、それにより、ナビゲーション精度及び術者にとっての安心感が著しく向上する。

Claims (20)

  1. 脊柱(3)の領域、及び/又は胸郭、骨盤(5)若しくは頭部(4)の隣接領域における、外科手術処置中の術中画像制御ナビゲーション装置(1)であって、
    X線ベースではない複数の検出デバイス(11〜17)であって、各々が、脊柱(3)の領域、及び/又は胸郭、骨盤若しくは頭部の隣接領域における、手術が施される少なくとも1つの対象(2)の周囲に分散されるように配置され、手術が施される前記対象(2)の少なくとも1つの小領域の少なくとも外輪郭に関する情報と、前記検出デバイス(11〜17)のそれぞれに対する前記小領域の位置に関する情報とを含む、画像データ及び位置データをそれぞれ術中にリアルタイムで取り込むように構成されている、検出デバイス(11〜17)と、
    固定基準系(30)に対する前記検出デバイス(11〜17)のそれぞれのポジションに関するデータをリアルタイムに決定するように構成されている、ポジション決定デバイス(20)と、
    前記検出デバイス(11〜17)及び前記ポジション決定デバイス(20)と作動的に接続されているデータ処理デバイス(40)であって、前記検出デバイス(11〜17)のそれぞれの画像データ及び位置データと、前記ポジション決定デバイス(20)のそれぞれのポジションデータとに基づいて、前記固定基準系(30)を基準とする、手術が施される前記対象(2)のバーチャルな、好ましくは3次元のリアルタイム画像(41)を生成するように構成されている、データ処理デバイス(40)と、
    前記バーチャルリアルタイム画像(41)を表示する、前記データ処理デバイス(40)と作動的に接続されている、画像表示デバイス(50)と
    を備え、
    前記複数の検出デバイス(13〜17)のうちの少なくとも1つは、体内に面する、手術が施される前記対象(2)の少なくとも1つの小領域の少なくとも外輪郭に関する情報を含む画像データを取り込むために、体内に配置されるように構成されている少なくとも1つの検出手段(13.1〜17.1)を備えることを特徴とする、外科手術処置中の術中画像制御ナビゲーション装置(1)。
  2. 前記データ処理デバイス(40)は、前記検出デバイス(13〜17)の前記画像データに、手術が施される前記対象の術前に取得された画像データを重ね合わせ、
    それにより、前記検出デバイス(13〜17)の前記画像データに重ね合わされた、前記術前に取得された画像データに基づいて、前記固定基準系を基準とする、手術が施される前記対象の前記バーチャルリアルタイム画像を生成するように構成されていることを特徴とする、請求項1に記載の装置(1)。
  3. 体内に配置することができる前記少なくとも1つの検出手段(13.1〜17.1)を備える前記少なくとも1つの検出デバイス(13〜17)は、超音波ベースの検出デバイス、又はテラヘルツ放射線に基づく検出デバイスであることを特徴とする、請求項1又は2に記載の装置(1)。
  4. 前記少なくとも1つの検出デバイス(13〜17)における、体内に配置することができる前記少なくとも1つの検出手段(13.1〜17.1)は、予め形成されている体腔、特に、鼻、口、咽頭腔、食道、気管、消化管、膀胱を介して、又は血管を介して、体内に導入されるように構成されていることを特徴とする、請求項1〜3のいずれか一項に記載の装置(1)。
  5. 前記少なくとも1つの検出デバイス(13〜17)における、体内に配置することができる前記少なくとも1つの検出手段(13.1〜17.1)は、組織内、たとえば傍脊椎組織又は殿筋の筋肉組織内に、及び/又は脂肪組織、たとえば硬膜外腔内に、手術により導入されるように構成されていることを特徴とする、請求項1〜4のいずれか一項に記載の装置(1)。
  6. 前記複数の検出デバイス(11、12)のうちの少なくとも1つ、及び/又は前記複数の検出デバイス(11、12)の少なくとも1つにおける少なくとも1つの検出手段(11.1、12.1)は、体外に面している、手術が施される前記対象(2)の小領域の少なくとも外輪郭に関する情報を含む画像データを取り込むために、体外に配置されるように構成されていることを特徴とする、請求項1〜5のいずれか一項に記載の装置(1)。
  7. 体外に配置することができる前記少なくとも1つの検出デバイス(11、12)、及び/又は体外に配置することができる前記少なくとも1つの検出手段(11.1、12.1)は、超音波ベースの検出デバイス、又は光学輪郭スキャナ、又はテラヘルツ放射線に基づく検出デバイスであることを特徴とする、請求項6に記載の装置(1)。
  8. 少なくとも1つの手術器具(60)を備え、
    前記ポジション決定デバイス(20)はさらに、前記固定基準系(30)に対する前記少なくとも1つの手術器具(60)のポジションに関するデータをリアルタイムに決定するように構成され、
    前記データ処理ユニット(40)はさらに、前記手術器具(60)及びその位置を表す標識を前記バーチャルリアルタイム画像(41)内に重ね合わせるように構成されていることを特徴とする、請求項1〜7のいずれか一項に記載の装置(1)。
  9. 前記複数の検出デバイス(11〜17)のうちの少なくとも1つ、及び/又は前記複数の検出デバイス(11〜17)のうちの少なくとも1つにおける少なくとも1つの検出手段(11.1〜17.1)は、手術器具(60)に配置されるように構成され、
    特に、前記複数の検出デバイス(11〜17)のうちの少なくとも1つ、及び/又は前記複数の検出デバイス(11〜17)のうちの少なくとも1つにおける少なくとも1つの検出手段(11.1〜17.1)は、前記手術器具(60)に配置されることを特徴とする、請求項1〜8のいずれか一項、特に請求項8に記載の装置(1)。
  10. 前記データ処理デバイス(40)は、前記検出デバイス(11〜17)のうちの少なくとも1つの画像データ、位置データ、及び/又はポジションデータの決定を一時的に失敗した場合、位置データ及びポジションデータの決定が機能している状態でこの検出デバイス(11〜17)によって初期の時点で取り込まれた前記画像データに基づいて、前記バーチャルリアルタイム画像(41)において、この検出デバイス(11〜17)によって取り込まれる、手術が施される前記対象(2)の小領域を生成するように構成されており、
    初期の時点で取り込まれた前記対応する小領域の前記画像データは、残りの検出デバイス(11〜17)によって取り込まれる他の小領域の現位置にリアルタイムで適合されることを特徴とする、請求項1〜9のいずれか一項に記載の装置(1)。
  11. 前記処理デバイス(40)は、検出デバイス(11〜17)の位置データ及び/又はポジションデータの決定を一時的に失敗した場合、現時点で取り込まれている画像データに基づいて、前記バーチャルリアルタイム画像(41)において、この検出デバイス(11〜17)によって取り込まれる、手術が施される前記対象(2)の前記小領域を生成するように構成されており、
    前記対応する小領域の前記現時点で取り込まれている画像データは、残りの検出デバイス(11〜17)によって取り込まれた他の小領域の現位置にリアルタイムで適合されることを特徴とする、請求項1〜9のいずれか一項に記載の装置(1)。
  12. 手術が施される前記対象(2)の少なくとも1つの小領域の外輪郭及び内部構造に関する情報を含む画像データを、術中にリアルタイムに取り込むように構成された、少なくとも1つのX線ベースの検出デバイスをさらに備え、
    前記データ処理デバイス(40)は、前記X線ベースの検出デバイスに作動的に接続され、前記X線ベースではない前記検出デバイス(13〜17)の前記画像データに前記X線ベースの検出デバイスの前記画像データを重ね合わせ、それにより、互いに重ね合わされた前記画像データに基づいて、手術が施される前記対象の外輪郭及び内部構造に関する情報を含む、前記固定基準系を基準とする、手術が施される前記対象の前記バーチャルリアルタイム画像を生成するように構成されていることを特徴とする、請求項1〜11のいずれか一項に記載の装置(1)。
  13. 少なくとも1つのX線ベースの検出デバイスであって、手術が施される前記対象(2)の少なくとも1つの小領域の外輪郭及び内部構造に関する情報と、前記X線ベースの検出デバイスに対する前記小領域の位置に関する情報とを含む、画像データ及び位置データを、術中にリアルタイムで取り込むように構成された、少なくとも1つのX線ベースの検出デバイスをさらに備え、
    前記ポジション決定デバイス(20)はさらに、前記固定基準系(30)に対する前記X線ベースの検出デバイスのポジションに関するデータをリアルタイムに決定するように構成され、
    前記データ処理デバイス(40)はさらに、前記X線ベースの検出デバイスと作動的に接続され、前記非X線ベースの検出デバイス(11〜17)のそれぞれの画像データ及び位置データと、前記X線ベースの検出デバイスの画像データ及び位置データと、前記ポジション決定デバイス(20)のそれぞれのポジションデータとに基づいて、前記固定基準系(30)を基準とする、手術が施される前記対象(2)のバーチャルな、好ましくは3次元のリアルタイム画像(41)を生成するように構成され、その画像が、手術が施される前記対象の外輪郭及び内部構造に関する情報を含むことを特徴とする、請求項1〜11のいずれか一項に記載の装置(1)。
  14. 前記検出デバイス(13〜17)は、互いに通信するように構成されており、特に、好ましくは前記固定基準系(30)に対する、それらのそれぞれのポジション及び/又は位置に関する情報を交換するように構成されていることを特徴とする、請求項1〜13のいずれか一項に記載の装置(1)。
  15. 前記複数の検出デバイス(13〜17)のうちの少なくとも1つ、特に、前記検出デバイス(13〜17)のうちの少なくとも1つにおける少なくとも1つの検出手段(13.1〜17.1)は、少なくとも1つの他の検出デバイス(13〜17)のポジション及び/若しくは位置、又は前記少なくとも1つの他の検出デバイス(13〜17)のそれぞれの検出手段(13.1〜17.1)のそれ自体に対する、好ましくはそれによって前記固定基準系(30)に対する前記ポジション決定デバイス(20)にも関する、ポジション及び/又は位置をそれぞれ決定するように構成されていることを特徴とする、請求項1〜14のいずれか一項に記載の装置(1)。
  16. 脊柱の領域、及び/又は胸郭、骨盤若しくは頭部の隣接領域における、外科手術処置中の術中画像制御ナビゲーション装置であって、
    少なくとも1つの検出デバイスであって、手術が施される対象の少なくとも1つの小領域の少なくとも外輪郭に関する情報と、X線ベースの検出デバイスに対する前記小領域の位置に関する情報とを含む、画像データ及び位置データを、術中にリアルタイムで取り込むように構成されている、検出デバイスと、
    固定基準系に対する前記少なくとも1つの検出デバイスのポジションに関するデータをリアルタイムに決定するように構成されている、ポジション決定デバイスと、
    前記少なくとも1つの検出デバイス及び前記位置決定デバイスと作動的に接続されているデータ処理システムであって、前記少なくとも1つの検出デバイスの前記画像データと、手術が施される前記対象の術前に取得された画像データとを重ね合わせて、前記検出デバイスの前記画像データに重ね合わされた前記術前に取得された画像データに基づいて、前記固定基準系を基準とする、手術が施される前記対象のバーチャルリアルタイム画像を生成するように構成されている、データ処理デバイスと、
    前記バーチャルリアルタイム画像を表示するように、前記データ処理デバイスと作動的に接続されている、画像表示デバイスと
    を備え、
    前記少なくとも1つの検出デバイスは、体内に面する、手術が施される前記対象の少なくとも1つの小領域の少なくとも外輪郭に関する情報を含む画像データを取り込むために、体内に配置されるように構成されている少なくとも1つの検出手段を備えることを特徴とする、外科手術処置中の術中画像制御ナビゲーション装置。
  17. 体内に配置することができる前記少なくとも1つの検出手段を備える前記少なくとも1つの検出デバイスは、超音波ベースの検出デバイス、又はテラヘルツ放射線に基づく検出デバイスであることを特徴とする、請求項16に記載の装置。
  18. 前記少なくとも1つの検出デバイスにおける、体内に配置することができる前記少なくとも1つの検出手段は、予め形成されている体腔、特に、鼻、口、咽頭腔、食道、気管、消化管、膀胱を介して、又は血管を介して、体内に導入されるように構成されていることを特徴とする、請求項16又は17に記載の装置。
  19. 前記少なくとも1つの検出デバイスにおける、体内に配置することができる前記少なくとも1つの検出手段は、組織内、たとえば傍脊椎組織又は殿筋の筋肉組織内に、及び/又は脂肪組織、たとえば硬膜外腔内に、手術によって導入されるように構成されていることを特徴とする、請求項16〜18のいずれか一項に記載の装置。
  20. 少なくとも1つの手術器具を備え、
    前記ポジション決定デバイスはさらに、前記固定基準系に対する前記少なくとも1つの手術器具のポジションに関するデータをリアルタイムに決定するように構成され、
    前記データ処理ユニットはさらに、前記手術器具及びその位置を表す標識を前記バーチャルリアルタイム画像内に重ね合わせるように構成されていることを特徴とする、請求項16〜19のいずれか一項に記載の装置。
JP2018533261A 2015-12-22 2016-12-15 脊柱の領域、並びに、胸郭、骨盤又は頭部の隣接領域における、外科手術処置中の術中画像制御ナビゲーション装置 Active JP6700401B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP15405076.9 2015-12-22
EP15405076.9A EP3184071A1 (de) 2015-12-22 2015-12-22 Vorrichtung für die intraoperative bildgesteuerte navigation bei chirurgischen eingriffen im bereich der wirbelsäule und im daran angrenzenden thorax-, becken- oder kopfbereich
PCT/CH2016/000155 WO2017106980A1 (de) 2015-12-22 2016-12-15 Vorrichtung für die intraoperative bildgesteuerte navigation bei chirurgischen eingriffen im bereich der wirbelsäule und im daran angrenzenden thorax-, becken- oder kopfbereich

Publications (2)

Publication Number Publication Date
JP2019502460A true JP2019502460A (ja) 2019-01-31
JP6700401B2 JP6700401B2 (ja) 2020-05-27

Family

ID=55129498

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018533261A Active JP6700401B2 (ja) 2015-12-22 2016-12-15 脊柱の領域、並びに、胸郭、骨盤又は頭部の隣接領域における、外科手術処置中の術中画像制御ナビゲーション装置

Country Status (6)

Country Link
US (1) US11426241B2 (ja)
EP (2) EP3184071A1 (ja)
JP (1) JP6700401B2 (ja)
CN (1) CN108601630B (ja)
ES (1) ES2937169T3 (ja)
WO (1) WO2017106980A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021019967A (ja) * 2019-07-30 2021-02-18 春仁 上園 拡張現実情報表示方法、手術支援装置、及びプログラム

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10695099B2 (en) 2015-02-13 2020-06-30 Nuvasive, Inc. Systems and methods for planning, performing, and assessing spinal correction during surgery
US11141221B2 (en) * 2015-11-19 2021-10-12 Eos Imaging Method of preoperative planning to correct spine misalignment of a patient
EP3868294B1 (en) 2016-03-02 2024-04-24 Nuvasive, Inc. System for spinal correction surgical planning
US20220008141A1 (en) * 2016-10-04 2022-01-13 Petal Surgical, Inc. Enhanced reality medical guidance systems and methods of use
CN107595387B (zh) * 2017-07-28 2020-08-07 浙江大学 一种基于超声拓片技术的脊椎图像生成系统以及脊柱手术导航定位系统
US11127212B1 (en) * 2017-08-24 2021-09-21 Sean Asher Wilens Method of projecting virtual reality imagery for augmenting real world objects and surfaces
CN110060771A (zh) * 2019-04-16 2019-07-26 江苏信美医学工程科技有限公司 一种基于原位投影技术的远程手术导航方法和装置
CN110731817B (zh) * 2019-10-11 2021-04-13 浙江大学 一种基于光学扫描自动化轮廓分割匹配的无辐射经皮脊柱定位方法
CN111415404B (zh) * 2020-03-16 2021-06-29 广州柏视医疗科技有限公司 术中预设区域的定位方法、装置、存储介质及电子设备
CN111772584B (zh) * 2020-07-08 2022-08-09 莆田学院附属医院(莆田市第二医院) 一种智能脊柱数字化手术装置
CN111870268A (zh) * 2020-07-30 2020-11-03 上海联影医疗科技有限公司 一种限束装置的目标位置信息的确定方法和系统
CN113052838B (zh) * 2021-04-26 2023-06-06 拉扎斯网络科技(上海)有限公司 置物检测方法、装置以及智能柜
US20230110791A1 (en) * 2021-09-29 2023-04-13 Cilag Gmbh International Instrument Control Imaging Systems for Visualization of Upcoming Surgical Procedure Steps
CN114041826B (zh) * 2021-11-11 2024-01-30 苏州国科昂卓医疗科技有限公司 椎骨钉道血管成像方法、系统及椎骨钉道创建引导装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001204738A (ja) * 2000-01-26 2001-07-31 Olympus Optical Co Ltd 手術用ナビゲーションシステム
US20010035871A1 (en) * 2000-03-30 2001-11-01 Johannes Bieger System and method for generating an image
US20050085714A1 (en) * 2003-10-16 2005-04-21 Foley Kevin T. Method and apparatus for surgical navigation of a multiple piece construct for implantation
JP2007007041A (ja) * 2005-06-29 2007-01-18 Hitachi Medical Corp 手術支援装置
JP2008284162A (ja) * 2007-05-17 2008-11-27 Olympus Medical Systems Corp 超音波診断装置
US20090318756A1 (en) * 2008-06-23 2009-12-24 Southwest Research Institute System And Method For Overlaying Ultrasound Imagery On A Laparoscopic Camera Display
WO2013145730A1 (ja) * 2012-03-29 2013-10-03 パナソニック株式会社 手術支援装置および手術支援プログラム
US20130272572A1 (en) * 2010-10-08 2013-10-17 Teleios S.R.L. Apparatus and method for mapping a three-dimensional space in medical applications for diagnostic, surgical or interventional medicine purposes
US20140218366A1 (en) * 2011-06-28 2014-08-07 Scopis Gmbh Method and device for displaying an object
JP2014533964A (ja) * 2011-06-27 2014-12-18 ボード オブ リージェンツ オブ ザ ユニバーシティ オブ ネブラスカ コンピュータ支援手術の搭載器具追跡システム及び方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5224376A (en) * 1989-12-08 1993-07-06 Digital Instruments, Inc. Atomic force microscope
DE29521895U1 (de) 1994-10-07 1998-09-10 St. Louis University, St. Louis, Mo. Chirurgisches Navigationssystem umfassend Referenz- und Lokalisationsrahmen
US5910827A (en) * 1997-02-26 1999-06-08 Kwan; Katherine W. Video signal decoding arrangement and method for improved error concealment
DE10015815A1 (de) * 2000-03-30 2001-10-11 Siemens Ag System und Verfahren zur Erzeugung eines Bilddatensatzes
JP2003334163A (ja) * 2002-03-14 2003-11-25 Olympus Optical Co Ltd 内視鏡画像処理装置
US8379734B2 (en) * 2007-03-23 2013-02-19 Qualcomm Incorporated Methods of performing error concealment for digital video
US8494608B2 (en) * 2008-04-18 2013-07-23 Medtronic, Inc. Method and apparatus for mapping a structure
CN101862220A (zh) * 2009-04-15 2010-10-20 中国医学科学院北京协和医院 基于结构光图像的椎弓根内固定导航手术系统和方法
US20110184684A1 (en) * 2009-07-21 2011-07-28 Eigen, Inc. 3-d self-correcting freehand ultrasound tracking system
JP6324721B2 (ja) * 2010-09-30 2018-05-16 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 追跡可能な画像装置と画像ツールを用いる分岐の検出
WO2012056034A1 (de) * 2010-10-28 2012-05-03 Fiagon Gmbh Navigationsaufsatz für optische geräte in der medizin und verfahren
CN103930790A (zh) * 2011-10-18 2014-07-16 皇家飞利浦有限公司 使用图像间的共用信息的具有不同对比度的mr成像
CN202859314U (zh) * 2012-10-30 2013-04-10 华南理工大学 一种基于超声波的实时无线手术导航装置
GB201303917D0 (en) * 2013-03-05 2013-04-17 Ezono Ag System for image guided procedure
US9509886B2 (en) * 2013-04-29 2016-11-29 Disney Enterprises, Inc. Flicker removal for high speed video
IL229527A (en) * 2013-11-21 2015-06-30 Elbit Systems Ltd A wide-field medical tracking system
WO2015191871A1 (en) * 2014-06-11 2015-12-17 The Johns Hopkins University Synthetic aperture ultrasound system

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001204738A (ja) * 2000-01-26 2001-07-31 Olympus Optical Co Ltd 手術用ナビゲーションシステム
US20010035871A1 (en) * 2000-03-30 2001-11-01 Johannes Bieger System and method for generating an image
US20050085714A1 (en) * 2003-10-16 2005-04-21 Foley Kevin T. Method and apparatus for surgical navigation of a multiple piece construct for implantation
JP2007007041A (ja) * 2005-06-29 2007-01-18 Hitachi Medical Corp 手術支援装置
JP2008284162A (ja) * 2007-05-17 2008-11-27 Olympus Medical Systems Corp 超音波診断装置
US20090318756A1 (en) * 2008-06-23 2009-12-24 Southwest Research Institute System And Method For Overlaying Ultrasound Imagery On A Laparoscopic Camera Display
US20130272572A1 (en) * 2010-10-08 2013-10-17 Teleios S.R.L. Apparatus and method for mapping a three-dimensional space in medical applications for diagnostic, surgical or interventional medicine purposes
JP2014533964A (ja) * 2011-06-27 2014-12-18 ボード オブ リージェンツ オブ ザ ユニバーシティ オブ ネブラスカ コンピュータ支援手術の搭載器具追跡システム及び方法
US20140218366A1 (en) * 2011-06-28 2014-08-07 Scopis Gmbh Method and device for displaying an object
WO2013145730A1 (ja) * 2012-03-29 2013-10-03 パナソニック株式会社 手術支援装置および手術支援プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021019967A (ja) * 2019-07-30 2021-02-18 春仁 上園 拡張現実情報表示方法、手術支援装置、及びプログラム

Also Published As

Publication number Publication date
US20180368921A1 (en) 2018-12-27
EP3393391A1 (de) 2018-10-31
ES2937169T3 (es) 2023-03-24
CN108601630A (zh) 2018-09-28
EP3184071A1 (de) 2017-06-28
CN108601630B (zh) 2022-06-14
WO2017106980A1 (de) 2017-06-29
US11426241B2 (en) 2022-08-30
JP6700401B2 (ja) 2020-05-27
EP3393391B1 (de) 2022-11-02

Similar Documents

Publication Publication Date Title
JP6700401B2 (ja) 脊柱の領域、並びに、胸郭、骨盤又は頭部の隣接領域における、外科手術処置中の術中画像制御ナビゲーション装置
US8320992B2 (en) Method and system for superimposing three dimensional medical information on a three dimensional image
US11819290B2 (en) Direct visualization of a device location
JP5328137B2 (ja) 用具又は埋植物の表現を表示するユーザ・インタフェイス・システム
JP5121401B2 (ja) 埋植物距離測定のシステム
CN103997982B (zh) 将手术器械相对患者身体进行定位的机器人辅助装置
US20140031668A1 (en) Surgical and Medical Instrument Tracking Using a Depth-Sensing Device
CN109416841A (zh) 影像增强真实度的方法与应用该方法在可穿戴式眼镜的手术导引
US20080154120A1 (en) Systems and methods for intraoperative measurements on navigated placements of implants
JP2008126075A (ja) Ctレジストレーション及びフィードバックの視覚的検証のためのシステム及び方法
CN102784003A (zh) 一种基于结构光扫描的椎弓根内固定手术导航系统
WO2008035271A2 (en) Device for registering a 3d model
WO2012033739A2 (en) Surgical and medical instrument tracking using a depth-sensing device
US20080119724A1 (en) Systems and methods for intraoperative implant placement analysis
WO2015091226A1 (en) Laparoscopic view extended with x-ray vision
Uddin et al. Three-dimensional computer-aided endoscopic sinus surgery
KR20230059730A (ko) 이미지 등록을 위한 시스템 및 방법
Galloway et al. Overview and history of image-guided interventions
Ling et al. Advances in imaging of the paranasal sinuses
Linte et al. Image-guided procedures: tools, techniques, and clinical applications
Trobaugh et al. Ultrasound in image fusion: A framework and applications
Langlotz State‐of‐the‐art in orthopaedic surgical navigation with a focus on medical image modalities
Kyriakides Accuracy assessment of a novel optical image guided system for trans-nasal sinus and skull base surgeries
US20240206973A1 (en) Systems and methods for a spinal anatomy registration framework
Hawkes et al. Computational models in image guided interventions

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180820

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200430

R150 Certificate of patent or registration of utility model

Ref document number: 6700401

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250