JP2016193222A - 画像を分析するための方法および装置 - Google Patents

画像を分析するための方法および装置 Download PDF

Info

Publication number
JP2016193222A
JP2016193222A JP2016127479A JP2016127479A JP2016193222A JP 2016193222 A JP2016193222 A JP 2016193222A JP 2016127479 A JP2016127479 A JP 2016127479A JP 2016127479 A JP2016127479 A JP 2016127479A JP 2016193222 A JP2016193222 A JP 2016193222A
Authority
JP
Japan
Prior art keywords
image
brain
coordinate system
robot
surgical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016127479A
Other languages
English (en)
Inventor
ストリートフィールド ギル スティーブン
Streatfield Gill Steven
ストリートフィールド ギル スティーブン
シェン ジエン−クン
Jian-Kun Shen
シェン ジエン−クン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renishaw Ireland Ltd
Original Assignee
Renishaw Ireland Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renishaw Ireland Ltd filed Critical Renishaw Ireland Ltd
Publication of JP2016193222A publication Critical patent/JP2016193222A/ja
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/501Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the head, e.g. neuroimaging or craniography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G13/00Operating tables; Auxiliary appliances therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00694Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/303Surgical robots specifically adapted for manipulations within body lumens, e.g. within lumen of gut, spine, or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Robotics (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Quality & Reliability (AREA)
  • Gynecology & Obstetrics (AREA)
  • Pulmonology (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Dentistry (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

【課題】脳外科手術の介入に続いて起きる脳偏位など、脳偏位を決定するための方法が述べられる。
【解決手段】方法は、被術者の脳(4)の第1の画像を取り込むステップを含み、第1の画像は、基準位置(30)に対する、脳中の血管の位置(20)を示す。また、被術者に対する介入に続いて取得される脳(4)の第2の画像が、取り込まれる。この第2の画像は、コンピュータ制御断層撮影法(CT)撮像装置を使用して取得されている。第2の画像は、基準位置(30)に対する、脳中の血管の位置(20’)を示す。次いで、脳偏位は、第1の画像と第2の画像の間で基準位置(30)に対する、脳の少なくとも1つの対象領域(32)中の血管の位置の偏位から決定される。対応する装置も述べられる。
【選択図】図4

Description

本発明は、脳の画像を分析するための装置および方法に関し、詳細には、血管が見られる脳の画像から脳偏位(brain shift)を決定するためのコンピュータ実装技法に関する。
カテーテルまたは電極など、脳外科手術器具を脳実質内の標的まで挿入することに関与する、様々な脳外科手術技法が、ここ何年にもわたって開発されてきた。これらは、たとえば特許文献1に述べられているタイプの定位技法を使用して、サブミリメートルの精度で所定の位置に誘導することができる。
事前に決定された場所に脳外科手術器具を精密に誘導することができる定位装置が利用できるが、そのような器具は、手術前のMRIスキャンなどから外科医によって識別される脳内の標的構造に実際に到達することが、全く保証されない。たとえば、脳構造を標的にすることがある精度は、脳の標的を識別するために使用されたMRIスキャンの後に続いてしばしば起きる、いわゆる「脳偏位」によって影響される恐れがある。そのような脳偏位がなぜ生じる可能性があるのかについては様々な理由が存在する。たとえば、それは、画像取得と手術台上の配置の間で患者の頭部の方向付けがいくらかでも変化すると生じることがある。また、手術中の脳脊髄液(CSF:cerebrospinal fluid)の漏れおよび頭蓋中への空気の進入によって、脳を沈下させる可能性がある。さらに、脳外科手術器具を、脳組織中を貫通させたとき、頭蓋内の脳が移動する、または膨れることがある。
今まで、脳偏位の存在は、外科医によって注目され、外科的処置は、工夫されて、その影響を最小にするように適合させてきた。これは、脳偏位を最小にするために、たとえば、手術中、患者の頭部を一定の方向付けで常に配置することによって試みられてきた(しかし、そのような方向付けは、外科的なアクセス目的には次善である場合がある)。同様に、脳神経外科医は、起こりそうな脳偏位の大きさに関する以前の外科的処置から得られる経験に基づき、MRI画像で識別される標的位置にオフセットを加えることによって、脳偏位をしばしば補償している。そのような知られた技法は、ほとんどの場合、脳偏位の影響を補償することができるが、極めて主観的であり、脳神経外科医の技能および判断に完全に依存する。また、脳偏位の存在は、外科的処置自体の間、埋め込まれる脳外科手術器具(たとえば、電極、カテーテルなど)が、所望の標的に達したかどうかを言うことは、通常、可能でないということを意味し、これは、経過観察のMRIスキャンによってだけ、その後に証明される。
欧州特許出願公開第1509153号明細書 国際公開第2005/025404号パンフレット 国際公開第2010/037850号パンフレット 国際公開第2006/028474号パンフレット
M Bucki他著の出版物「Framework for a low-cost intra-operative image-guided neuronavigator including brain shift compensation」2007 Annual international conference of the IEEE engineering in medicine and biology society, Lyon, France, 22-26 August 2007, pages 872-875(ISBN:987-1-4244-0787-3)
脳偏位を測定する、または予測することを試みる画像誘導の脳神経外科のために、様々な技法が、既に開発されている。たとえば、特許文献2に、皮質表面の位置合わせ技法が述べられている。具体的には、特許文献2に、ラインストライブレーザスキャナ(line stripe laser scanner)を使用して、皮質表面の3次元プロフィールを手術中に測定することが述べられている。次いで、この表面プロフィールは、前もって取得されるMRIデータと位置合わせされる。特許文献3に、手術前に取得されるMRI画像と手術中に取得されるドップラー超音波画像(Doppler ultrasound image)を分析する生体力学モデルを使用して、脳偏位をどのようにして評価することができるのかが述べられている。また、脳偏位を評価するための生体力学のモデルは、非特許文献1中に述べられている。特許文献4に、脳表面の手術中の画像を使用して、脳移動の統計的アトラス(atlas)を作成することが述べられている。しかし、これらの技法のいずれも、複雑な(たとえば、脳深部の)脳外科手術の処置中に、デバイスを配置する精度を査定する、および/または向上させるために使用することができる、脳偏位の十分に正確で信頼性のある測定をもたらさない。
本発明によれば、脳の画像を分析することによって、脳偏位を決定するためのコンピュータ実装方法が提供され、その方法は、
(i)被術者の脳の第1の画像を取り込むステップであって、第1の画像は、基準位置に対する、脳中の血管の位置を示す、ステップと、
(ii)被術者に対する介入の後に続いて取得される、脳の第2の画像を取り込むステップであって、第2の画像は、コンピュータ制御断層撮影法(CT:Computed Tomography)撮像装置によって取得されており、基準位置に対する、脳中の血管の位置を示す、ステップと、
(iii)第1の画像と第2の画像の間で基準位置に対する、脳の少なくとも1つの対象領域中の血管の位置の偏位から脳偏位を計算するステップと
を含む。
そのように、本発明は、被術者の脳の第1の画像および第2の画像から脳偏位を確立するためのコンピュータ実装方法を含む。これらの画像は、介入の前後で、一定の基準位置に対する、被術者の脳中の血管の位置を示す。脳の第2の画像は、CT撮像装置(たとえば、手術中のCT血管造影図撮像装置)を使用して取得され、それゆえ脳生体構造の空間的に正確な表示をもたらすと見なすことができる。具体的には、CT撮像装置を使用すると、脳内の深部の領域に関する正確な空間的情報がもたらされる。画像は、脳全体または脳の選択された部分だけを示すことができる。方法は、第1の画像と第2の画像の間で固定の基準位置(たとえば、頭蓋または共通の座標系でのポイント)に対する血管の移動を査定し、それによって、脳偏位量を定量化することを可能にするステップを含む。血管の移動量は、第1の画像および第2の画像中に存在する血管のすべて、または好ましくはいくらかだけを使用して、確立することができる。以下に述べるように、ステップ(iii)は、脳偏位を直接計算するステップ(たとえば、ベクトルまたはスカラーの脳偏位値を確立する)、あるいは脳偏位を間接的に決定するステップ(たとえば、脳内の位置が定められる座標系に対する修正または調節を確立することによって、または、そのような座標系内で、1つまたは複数の標的の位置、および/または軌跡を変更することによって)を含むことができる。
本発明の方法は、1つまたは複数の事例において脳外科手術の処置中、脳内の1つまたは複数の場所で脳偏位の測定をするために、(たとえば、手術中にCT装置を使用して取得される第1のCT血管造影図画像および第2のCT血管造影図画像を使用して)完全に手術室で実施することができるという利点を有する。そのような脳偏位の測定は、脳中の構造を標的にするとき、(たとえば、手動の定位装置の設定を調節することを可能にすることによって)外科医を支援するために、または外科手術ロボットシステムの標的座標をアップデートするために使用することができる。このようにして、標的を狙う精度、それゆえ治効を向上させることができる。あるいは、手術前に取得される第1の画像は、手術中に(または、手術後に)取得される第2の画像と比較することができる。
有利にも、ステップ(iii)は、前記少なくとも1つの対象領域中の血管の位置の偏位を決定するために、相互位置合わせプロセスを使用するステップを含む。言い換えると、相互位置合わせ処置は、第1の画像から第2の画像上に、またはその逆も、血管(前記少なくとも1つの対象領域中)を最良にマッピングする変換を見出すために、実施される。
好ましくは、そのような位置合わせ処置は、明暗度ベースの位置合わせ技法を使用して実施する。位置合わせ処置は、非線形位置合わせプロセスを含む。そのような非線形位置合わせ処置は、非変形性の位置合わせ処置を含むことができる。非変形性の位置合わせ処置は、アフィン位置合わせプロセスを含むことができる。
好ましくは、位置合わせ処置は、剛体位置合わせ処置を含む。そのような剛体位置合わせ処置は、前記少なくとも1つの対象領域中に存在する血管の間の最良の対応を見出すために、1つの画像が、平行移動される、回転される、および/または拡大縮小される剛体変換を使用するステップを含むことができる。好ましい実施形態では、第2の画像は、変更しないままにしておくことができ、第1の画像は、最良の対応を見出すために、平行移動、回転および/または拡大縮小のうちの少なくとも1つを実施することができる。剛体位置合わせ処置の使用は、第1の画像と第2の画像の両方がCT撮像装置を使用して取得され、次いで、画像が、空間的に正確であると見なすことができる(たとえば、実質的には、歪みがない)とき、特に好ましい。共通の基準位置が、第1の画像と第2の画像の両方中で定められるとき、変換は、対象領域中で血管の移動(それゆえ、脳偏位)の大きさをもたらす。
ステップ(iii)は、脳中の1つの対象領域中で脳偏位を決定するステップを含むことができる。あるいは、ステップ(iii)は、複数の対象領域について脳偏位を確立するステップを含むことができる。脳中の複数の対象領域が使用される場合、そのような領域が、重なり合っていても、または互いに排他的であってもよい。脳偏位は、脳内の標的部位または複数の部位に近接する対象領域(複数可)中で、および/または脳を貫通してそのような標的部位または複数の標的部位に達する軌跡または複数の軌跡に沿った対象領域(複数可)中で決定することができる。対象領域は、深部の脳の標的を含むことができる。脳内の各対象領域の容積が、脳全体の容積より小さいことが好ましい。好ましくは、各対象領域の容積が、全体の脳の容積の50%以下である、より好ましくは、全体の脳の容積の25%以下である、およびより好ましくは、全体の脳の容積の10%以下である。絶対的には、好ましくは、各対象領域が、200cm3より小さい、100cm3より小さい、より好ましくは、50cm3より小さい。対象領域として、脳のそのようなサブ領域を使用すると、血管の移動が実質的により小さい、脳の他の領域(たとえば、頭蓋近く)によって影響されないで、局在化される脳偏位が、その領域中で決定されることが保証される。これは、脳偏位量が、皮質表面の近くで存在するそれと著しく異なることがある深部の標的について、脳偏位を確立するとき、特に有利である。
第1の画像および第2の画像中に見られる血管は、動脈および/または静脈を含むことができる。脳中の大部分の動脈が、それらが貫通する脳組織とともに移動するが、いくつかの静脈は、それほどの移動を示さないことがある、たとえば、末梢静脈は、頭蓋の内部に、ある程度固定されることがあることに留意すべきである。したがって、第1の画像および第2の画像が、動脈からなる血管を示すことは、有利であるが、しかし決してもっとも重要なことではない。また、任意の対象領域が、脳組織とともに移動する傾向がない血管(頭蓋に対してある程度固定される末梢静脈など)を含む脳の範囲を排除することは有利であるが、決してもっとも重要なことではない。
好都合なことに、第1の画像と第2の画像の両方に共通の基準位置が、それらの画像中で見られる基準構造を使用して、確立される。そのような場合、2つの位置合わせプロセスを実施することができる。第1の位置合わせプロセスは、各画像中で見られる基準構造の間で第1の変換を確立するために、実施することができる。この第1の位置合わせプロセスは、第1の画像および第2の画像の全体の比較に基づいてもよく、または基準構造が見られる、それらの画像の選択される一部分の比較に基づいてもよい。次いで、第2の位置合わせプロセスは、各画像の選択される対象領域中に存在する血管の間で第2の変換を確立するために、実施することができる。次いで、第1の変換と第2の変換の間の差は、(血管の移動によって証明されるので)基準構造に対する脳偏位の大きさをもたらすことができる。
第1の画像および第2の画像中で見られる、任意の適切な基準構造を使用することができる。有利にも、基準構造は、実質的に身体内に不変の位置を有する被術者の解剖学的な特徴を含む。たとえば、解剖学的な特徴は、被術者の頭蓋または頭蓋の一部分を含むことができる。あるいは、基準構造は、被術者の頭蓋に対して固定される基準マーカ集合を含むことができる。たとえば、基準マーカ集合は、(たとえば、ねじ、または接着剤で)頭蓋骨に取り付けることができる。
画像中に見られる基準構造を設ける代わりに、脳の第1の画像および第2の画像は、被術者の頭部が、撮像装置に対して同じ固定の場所に配置される状態で、前記撮像装置を用いて取得することができる。そのような実施形態では、基準位置は、前記撮像装置の位置の基準ポイントまたは原点を含むことができる。言い換えると、基準位置は、撮像装置の画像系によって定められる、内部の原点、またはある知られた基準ポイントとすることができる。
上記に概略を述べたように、第2の画像を取得するために使用される撮像装置は、X線コンピュータ制御による断層撮影法(CT)撮像装置など、コンピュータ化/コンピュータ制御断層撮影法(CT)撮像装置を含む。第1の画像を取得するために使用される撮像装置は、任意の適切な医用撮像装置を含むことができる。たとえば、それは、断層撮影装置(tomograph)、コンピュータ制御断層撮影法(CT)、X線コンピュータ制御断層撮影法、X線、磁気共鳴映像法(MRI:magnetic resonance imaging)、ポジトロン放出断層撮影法(PET:positron emission tomography)、超音波などを含むことができる。好ましくは、医用撮像装置は、3次元画像すなわちボリューム画像をもたらす、またはそのようなボリューム画像は、その装置を使用して収集されるデータから、構築することができる。異なるタイプの撮像装置を含む、異なる撮像装置を、第1の画像および第2の画像を収集するために、使用することができる。好ましくは、第1の画像および第2の画像を収集するために、同じ撮像装置を使用する。好ましい実施形態では、第1の画像および第2の画像を取得するために、手術室でのコンピュータ化断層撮影法血管造影図(CTA:computerised tomography angiogram)撮像装置が使用される。そのような例では、第1の画像および第2の画像は、第1のCTA画像および第2のCTA画像を含む。好都合にも、そのようなCTA装置は、手術室で使用することができる、Medtronics, Incから販売されているO−arm(登録商標)外科的(CT)撮像システムなど、CTスキャナ装置を含むことができる。手術室で医用撮像装置を使用すると、患者が、外科的処置を受けている間、本発明の方法を使用して分析される第1の画像および第2の画像を収集することが可能になるという利点がある。それゆえ、脳偏位の測定は、迅速に(たとえば、数秒または数分中に)実施することができ、その結果は、外科医がその後の外科的アクションを最適化することを支援するために使用することができる。
有利にも、方法は、第1の画像中で少なくとも第1の標的部位を定めるステップを含む。このステップは、たとえば、外科医が第1の画像をレビューし、1つまたは複数の脳外科手術器具(たとえば、カテーテル、電極など)をどこに配置することが必要であるのかを識別するステップを含む。次いで、外科医によって識別される部位または複数の部位は、第1の画像上に直接定めることができる、たとえば、第1の画像上のある位置に(電子的に)、ポイントをマークすることができる。複数のそのような標的部位は、必要に応じて定めることができる。
有利にも、第1の標的部位(および、任意の追加の標的部位)は、少なくとも1つのさらなる画像から標的情報をインポートすることによって、第1の画像中に定めることができる。さらなる画像は、さらなる撮像装置を使用して取り込むことができる、すなわち、これは、第1の画像および第2の画像を取得するために使用されるものと異なるタイプの撮像装置とすることができる。さらなる画像から第1の画像上に標的(複数可)をマッピングするステップは、位置合わせ技法(たとえば、上記に述べたタイプのもの)を使用して実施することが好ましい。
好都合なことに、さらなる画像は、MRIスキャナを使用して取得される画像を含む。有利にも、さらなる画像は、脳内の血管を示す。血管が見られるMR画像を取得するために、いくつかの異なるMRI取得プロトコルを使用することができる。たとえば、磁気共鳴血管造影法(MRA:magnetic resonance angiography)によって、血管中を流れる血液を静止した組織から区別することが可能になる。また、血管は、「T1」MRIスキャン上で見ることができ、そのような画像のコントラストは、任意選択で、患者の血液流中に造影剤を注入することによって向上させることができる(いわゆるコントラストMRA画像をもたらす)。次いで、位置合わせ処置は、第1の画像およびさらなる画像中で見られる血管の比較(たとえば、位置合わせ)に基づくことができる。好ましくは、位置合わせプロセスが、脳内の少なくとも1つの対象領域を示すデータを使用して実施される。そのような対象領域は、ある標的部位を囲繞する容積、または対象容積とすることができ、第1の画像と第2の画像を比較するとき使用される対象領域と同じであっても、または異なっていてもよい。
有利にも、上記に述べた相互位置合わせプロセスは、位置をさらなる画像と第1の画像の間にマッピングすることを可能にする、必要な位置のリンクまたは変換をもたらす。さらなる画像自体は、外科医が、被術者の脳中に挿入されることになる器具に関する標的部位または軌跡を識別するために使用することができる。あるいは、標的情報は、さらなる画像との位置関係が知られている1つまたは複数の他の画像の分析からインポートすることができる。たとえば、有利にも、第1の画像をさらなる画像と相互に位置合わせさせるステップは、また、さらなる撮像装置(すなわち、位置合わせプロセス中で使用される、さらなる画像を取得するために使用される装置)を使用して取得される外科的な計画画像(または、複数のそのような外科的な計画画像)を、第1の画像と位置合わせさせることを可能にする。外科的な計画画像は、脳神経外科医によって、または適切な計画ソフトウェアを使用することによって識別される標的または複数の標的を含むことができる。そのような外科的な計画画像は、たとえば、手術前に取得される画像(たとえば、関連する脳構造を示すために、T2取得モードで動作するMRI装置を使用して取り込まれる)を含むことができ、それについて、外科チームが、数日または数週間にわたって極めて詳細に分析する時間がある。
任意の適切な医用撮像装置を使用することができるが、さらなる画像が、MRIスキャナを含むさらなる装置を使用して取り込まれる血管造影図を含むことが好ましい。有利にも、外科的な計画画像は、(たとえば、T2モードで動作する)同じMRIスキャナを使用して、手術前に取得される。被術者は、さらなる画像および外科的な計画画像が取得されるとき、MRIスキャナ内の同じ場所に維持することができる。このようにして、さらなる画像中の位置は、外科的な計画画像中の位置と対応することになる。必要な場合、MR可視の基点は、取得されるMRI画像すべてを共通の基準位置に結び付けることを可能にするために、MR画像取得の間に使用することができる、すなわち、これは、また、スキャンの間の被術者の任意の移動を明らかにすることができる。MRIデータが、歪みを被る可能性があるので、また、さらなる(MRI)画像と第1の画像の間の変換を生成するために使用される位置合わせ処置を弾性的にすることが可能である。次いで、さらなる(MRI)画像は、第1の画像と最良に整合するように、モーフィングすることができる(すなわち、伸ばす/押しつぶす、単に平行移動させる/回転させるだけではない)。このようにして、標的を狙う精度に対するMRI歪みの影響を減少させることができる、または実質的に除去することができる。あるいは、剛体位置合わせ処置を使用することができる。
本発明の方法を使用して分析される第2の画像は、患者に対する介入の後、取得される。施された介入は、頭蓋内で脳を偏位させる可能性がある、任意のイベントまたは被術者との相互作用を含むことができる。介入は、外科的介入(たとえば、被術者の脳の切断またはその中への器具の挿入)、または非外科的な介入(たとえば、被術者の再方向付け)を含むことができる。外科的介入は、本明細書に述べる本発明の第1の態様の方法の一部分を含まないことに留意すべきである。有利にも、第2の画像(すなわち、ステップ(ii)で定められるような)は、脳外科手術器具を前記第1の標的部位に挿入することを含む介入の後、取得されている。それゆえ、第2の画像は、挿入された脳外科手術器具を示すことができる。介入は、また、さらなる脳外科手術器具をさらなる標的部位に挿入することを含むことができる。次いで、ステップ(iii)は、第1の標的部位に対する、挿入された脳外科手術器具の場所を査定するステップをさらに含むことができる。脳偏位を測定するステップに加えて、これはまた、任意の位置付けエラー(たとえば、予期せぬ器具のたわみなどに関係する)を測定することを可能にする。
ステップ(iii)は、脳偏位を直接的に、または間接的に確立するステップを含むことができる。たとえば、ステップ(iii)は、脳偏位の大きさを定めるスカラー量を計算することによって、脳偏位を直接的に確立するステップを含むことができる。有利にも、ステップ(iii)は、脳偏位の大きさと方向の両方(たとえば、基準位置に対して)を記述する脳偏位ベクトルを計算することによって、脳偏位を直接的に確立するステップを含む。有利にも、ステップ(iii)で決定される脳偏位は、たとえば外科手術ロボットまたは定位システムによって使用されるとき、標的の座標をアップデートするために使用することができる。ステップ(iii)は、あるいは、脳偏位を間接的に確立するステップを含むことができる。たとえば、ステップ(iii)は、脳偏位を考慮する、新しい、またはアップデートされる標的座標を計算するステップ、または脳偏位を明らかにするために座標系に対するオフセットを確立するステップを含むことができる。有利にも、やはり、脳偏位のそのような間接的な測定は、脳偏位の影響が考慮に入れられている標的座標(たとえば、外科手術ロボットまたは定位システムの)を提示するために使用することができる。また、外科的処置中の脳偏位の影響を補償する能力は、特に有利であることに留意すべきである。
用語「画像」は、撮像装置から(たとえば、容積測定の医用撮像装置または断層撮影装置から)収集されるデータを示すために本明細書に使用されることに、かつそのようなデータをどうにかして見られるように表示しなければならないことを意味するものでないことに留意すべきである。同様に、画像中で「見られる」構造への参照は、そのような構造に関する情報が画像中に存在することを意味し、用語「見られる」は、そのような画像または構造がグラフィックで表示されることを要求するものとして読むべきでないことを意味すると意図される。句「画像を取り込む」は、取得されている画像を読み出すこと(たとえば、画像をコンピュータ中にロードすることによって)、および/または適切な撮像装置を使用して画像を取得することを本明細書では意味すると意図される。
上記に述べた方法は、コンピュータを使用して実施される。したがって、本発明は、また、上記の方法を実施するようにプログラムされるコンピュータを包含する。適切なコンピュータによって実行されたとき、上記の方法を実施するコンピュータソフトウェアが、また、想定される。上記に述べた方法を実施するように構成されるプロセッサを含む装置はまた、本発明が包含する。
また、脳偏位を測定するための装置を本明細書に述べ、装置は、被術者の脳の第1の画像を取り込むための手段であって、第1の画像は、基準位置に対する、脳中の血管の位置を示す、手段と、被術者に対する介入に続いて取得される脳の第2の画像を取り込むための手段であって、第2の画像は、基準位置に対する、脳中の血管の位置を示す、手段と、第1の画像と第2の画像の間で基準位置に対する、脳の少なくとも1つの対象領域中の血管の位置の偏位から脳偏位を決定するための手段とを含む。装置は、関連する方法について、上記に述べた特徴のいずれも含むことができる。脳偏位を測定するための装置は、外科手術ロボットと組み合わせて使用することができ、外科手術ロボットによって使用される標的座標および/または座標系は、脳偏位を決定するための手段によって決定されるような脳偏位を明らかにするために、アップデートされる。
また、外科手術ロボットシステムを本明細書に述べ、それは、外科用器具を、被術者の脳実質内に位置決めされる少なくとも1つの標的部位に誘導するためのロボットと、被術者の頭部の少なくとも一部分を画像化するための医用撮像装置(たとえば、CT撮像装置)であって、医用撮像装置は、脳実質内の血管を示す、頭部の一連の画像を収集するのに適している、医用撮像装置と、脳偏位を明らかにするためにロボットによって使用されるとき、前記少なくとも1つの標的部位の座標をアップデートするためのコンピュータのコントローラであって、前記脳偏位は、医用撮像装置によって取得される複数の画像から決定される、コンピュータのコントローラとを含む。
本発明のさらなる態様は、患者に対してロボットによる脳神経外科処置を施すための装置を提供する。好ましくは、装置が、ロボット座標系で定められる位置に医療器具を移動させるためのモータ駆動の脳外科手術ロボットを含む。ロボットは、コンピュータによって制御することができる。有利にも、装置は、また、患者の脳の手術中の画像を取得するための撮像装置を備える。たとえば、装置は、CT撮像装置(たとえば、O−arm)を含むことができる。好ましくは、各手術中の画像中の少なくとも1つの位置が、ロボット座標系中で知られている。たとえば、好ましくは、ロボット座標系と手術中の画像の座標の間に、マップまたはリンクが設けられる。
また、医療器具を進めるべきである患者の脳内の標的場所を計算するための標的装置が、提供される。好ましくは、標的装置は、標的が識別される、患者の少なくとも1つの前もって(たとえば、手術前に)取得される画像を取り込み、前記少なくとも1つの前もって取得される画像を、撮像装置を使用して取り込まれる少なくとも1つの手術中の画像と位置合わせさせることによって、ロボット座標系中の対応する標的場所を計算する。少なくとも1つの前もって取得される画像は、手術前に(たとえば、MRI装置を使用して)、または外科的処置中のより早期のポイントで(たとえば、手術中の画像を取得するために使用される撮像装置によって)取得しておくことができる。好ましい実施形態では、標的装置は、少なくとも1つの前もって取得される画像を、少なくとも1つの手術中の画像と、画像中で見られる血管を使用して位置合わせさせる。ある対象領域中の血管は、本明細書に詳細に述べるように、ロボット座標系中で標的場所を提示するために、位置合わせさせることができる。
また、本明細書において、CT画像とMRI画像を位置合わせさせるための方法が記載され、本方法は、(a)CT装置を使用して取得される被術者の脳の第1の画像を取り込むステップであって、第1の画像は、脳中の血管の位置を示す、ステップと、(b)MRI装置を使用して取得される脳の第2の画像を取り込むステップであって、第2の画像は、脳中の血管の位置を示す、ステップと、(c)第1の画像と第2の画像を、その中で見られる血管を使用して位置合わせさせるステップとを含む。上記に述べた位置合わせ技法のいずれも、ステップ(c)使用することができる。たとえば、剛体位置合わせを使用することができる。好ましくは、第1の画像と第2の画像を位置合わせさせるステップ(c)が、第2の画像中に見られる血管を第1の画像中に見られる対応する血管と重ね合わすように、第2の画像を弾性的に変形させるステップを含む。そのような第2の(MRI)画像の弾性的な歪みによって、そのようなMRI装置を使用して取得される画像中に本質的に存在する任意の歪みが除去される。好都合にも、第1の画像と第2の画像を位置合わせさせるステップ(c)は、第1の画像および第2の画像内の少なくとも1つの対象領域中で位置合わせを実施するステップを含む。好ましくは、各対象領域の容積が、脳容積全体の50%以下である、より好ましくは、脳容積全体の25%以下である、より好ましくは、脳容積全体の10%以下である。次いで、MRI座標系で定められる標的は、CT座標系中にマッピングすることができる。
外科手術装置についても、本明細書に記載され、この外科手術装置は、患者に手術を施す外科手術ロボットであって、外科手術ロボットは、ロボット座標系中で知られる位置を有する多関節アームを含む、外科手術ロボットと、患者の手術中の画像を取得するための医用撮像装置であって、医用撮像装置によって取得される画像中の位置が、画像座標系中で定められる、医用撮像装置とを備え、この外科手術装置は、多関節アームによってロボット座標系中で知られる位置を有するように保持することができる基準マーカユニットを含み、基準マーカユニットは、医用撮像装置によって取得される画像中で見られる基準構造を含む。このようにして、ロボットの座標系と医用撮像装置の座標系の間の位置関係は、患者の頭蓋に基準マーカを直接(たとえば、ネジで)取り付ける必要がなく、見出すことができる。これによって、脳外科手術処置を施す前に、患者の頭蓋にマーカまたはフレームを取り付けるための小規模な手術に対する必要性が除去される。好ましくは、基準マーカユニットが、ツールの形態で設けられ、外科手術ロボットの多関節アームのツールホルダ中に保持することができる。好ましくは、基準マーカユニットを、繰り返し可能な位置で(たとえば、運動学的な、または疑似運動学的な取り付け機構を使用して)多関節アームに取り付けることができる。
脳偏位を決定するための方法も本明細書に記載され、本方法は、(i)被術者の脳の第1の画像を取り込むステップであって、第1の画像は、基準位置に対する、脳中の血管の位置を示す、ステップと、(ii)被術者に対する介入に続いて取得される脳の第2の画像を取り込むステップであって、第2の画像は、基準位置に対する、脳中の血管の位置を示す、ステップと、(iii)第1の画像と第2の画像の間で基準位置に対する、脳の少なくとも1つの対象領域中の血管の位置の偏位から脳偏位を決定するステップとを含む。また、本方法は、本明細書に述べるステップまたは特徴のいずれか1つまたは複数を含むことができる。
ここで、本発明を、単なる例として、添付図面を参照して述べる。
手術前に取得されるMRI(T2)データを例示する図である。 手術前に取得されるMRAデータを例示する図である。 脳神経外科処置前に「手術室で」患者について取得されるCT血管造影図を例示する図である。 カテーテルが外科的に埋め込まれた後、手術室で患者について取得されるCT血管造影図を例示する図である。 外科手術ロボットおよび手術室でのCTスキャナを示す図である。 適切な位置合わせプロセスを概説するフローチャートである。 手術前のCTデータと手術後のCTデータの位置合わせのためのプロセスを概説するフローチャートである。 MRAデータとCTAデータの位置合わせのためのプロセスを概説するフローチャートである。
ここで、脳偏位を測定する方法に関する本発明を、そのような脳偏位を導入する可能性があり得る外科的処置の文脈で述べる。画像を分析するための本明細書に述べるコンピュータ実装方法は、そのような外科的処置中に取り込まれる医用画像の分析に関し、以下に概説する外科的なステップのいずれをも含むことを意図されないことに留意すべきである。これらの外科的なステップは、本発明のコンピュータ実施の分析方法をどのようにして使用することができるのかについて理解する単に助けとして、以下に述べる。
図1を参照すると、手術前に取得される(T2)MRI画像が極めて概括的な表現で例示されている。画像は、患者の頭蓋2および脳4を示す。そのようなT2MRI画像は、また、脳内の様々な構造を詳細に示すことになるが、そのような構造は、理解を容易にするために、図1から省略されている。
脳神経外科の技術で伝統的であるように、そのようなMRI画像は、外科的処置を計画するために外科医によって使用され、通常、手術前に(たとえば、数日または数週間前に)取得される。そのようなMRI画像を使用して計画することができる外科的処置の一例は、脳内の特定の構造に治療薬を送り届けるためにカテーテルを配置することである。図1に、また、標的領域または標的部位6、および軌跡8を例示し、軌跡8に沿って、カテーテルが、挿入されて、識別される脳構造に位置決めされる標的に達することになる、すなわち、それらは、概して、脳神経外科医によって手動で計画される。図1に示す画像内の位置は、MRI座標系で定められる。そのようなMRI座標系は、たとえば、画像化の前に患者の頭部に固定されるMR可視の基準マーカを基準として定めることができる(しかし、図1には示していない)。
次に図2を参照すると、MRI造影剤が患者の血液流中に注入された後、取り込まれる(T1)MRI画像の例示図が示されている。この画像は、「コントラストMR血管造影図」または「コントラストMRA」と称すことができ、脳内の様々な血管10を示しているが、それは、脳内の様々な構造を全く詳細に示していない、したがって、この画像は、典型的には、標的の識別および詳細な外科的計画の目的には不適切である。コントラストMRAの代わりに、標準MRA(そこでは、血管内の血液の流れが、それらの血管を囲繞する静止した組織から区別される)を取得することができるはずであることに留意すべきである。
図2に示すコントラストMRA画像は、図1のMRI画像と同じ患者のものであり、すべての位置は、同じMRI座標系で記述される。これは、たとえば頭蓋に対する固定の位置を有するMR可視の基準マーカを参照することによって、達成することができる。あるいは、患者の頭部は、スキャンの間、同じ姿勢に維持することができ、それによって、基準マーカに対する必要性が除去される。MRI画像と同じ座標系でコントラストMRA画像を取得すると、図1に示すMRI画像からの標的部位6および軌跡8を、血管が見られる図2のコントラストMRA画像上にマッピングすることが可能になる。
図3を参照すると、患者の第1のCT血管造影図(CTA)画像が示されている。このCTA画像は、患者が手術台上で位置決めされて、その頭部が、その後の脳外科手術処置に所望の姿勢でその台に固定されている間、手術室でCT装置(可動性であることが好ましい)を使用して取得される。第1のCTA画像は、適切なCT造影剤を患者の血液流中に注入した後、取得されて、CT座標系で、脳内の血管20の場所を示す。この例では、CT座標系は、第1のCTA画像中で、また、見られる頭蓋30の形態の基準構造に対して定められる。
次いで、図2のコントラストMRA画像(標的部位および軌跡の情報を含む)を、図3の第1のCTA画像と位置合わせさせるために、位置合わせ処置が実施される。この位置合わせプロセスは、標的部位6のまわりで対象領域32を定めるステップと、次いで、この対象領域中でCTA画像とコントラストMRA画像の間で最良の位置の一致を見出すために、相互位置合わせプロセスを実施するステップとを包含する。好ましくは、この位置合わせプロセスが、明暗度ベースであり、CTA画像とコントラストMRA画像の両方中で見られる血管を使用する。MRI歪みを明らかにするために、位置合わせプロセスは、コントラストMRA画像をモーフィングして(圧縮する/伸ばす)、CTA画像の血管構造に整合させることを可能にするように、完全に、または部分的に弾性的とすることができる。好ましい相互位置合わせ処置のさらなる細部は、より詳細に以下に概略を述べるが、基本的な結果は、MRI座標系で測定される位置をCT座標系にマッピングすることを可能にする数学的変換である。したがって、この位置合わせプロセスは、図3に示すように、MR座標系で定められた標的部位6および軌跡8を、CT座標系にマッピングすることを可能にする。
それゆえ、上記に述べたプロセスは、手術前に取得されるMRIデータに基づく標的および軌跡の情報を、手術の日に「手術室で」確立されるCT座標系にマッピングことを可能にする。重要なことに、これは、基準マーカが、手術前のMRIスキャンと外科的処置の間、患者に取り付けられたままにしておく必要がなくて、実施することができる。以下により詳細に述べるように、CT座標系によって、また、定位フレームまたは外科手術ロボットなど、外部の装置が、CTベースの座標で記述されている脳内の所望の標的に外科用器具を挿入することを可能にするロボットまたは定位の座標系にリンクすることができる。
図4を参照すると、カテーテル40の挿入後に取り込まれる第2のCTA画像が、概略的に例示されている。この第2のCTA画像は、図3の第1のCTA画像を取得するために使用された、同じ手術室のCT装置を用いて、患者の頭部が、手術台にいまだに固定されている状態で取り込まれる(注記すると、いくらかの頭部の移動が、手術中に生じた可能性がある)。図4から分かるように、カテーテルは、図3に示す軌跡に沿って正確に挿入されていて、その先端は、図3に示す第1のCTA画像を使用して定められた標的座標に、精密に位置決めされている。しかし、脳は、外科的処置中に、あるポイントで頭蓋に対して偏位している(注記すると、この脳偏位は、図4では、極めて誇張されている)。この脳偏位(それによって、血管が図4に20’として示す位置を取ることになる)は、カテーテルの先端が、治療薬を送り届けることが求められている、脳内の標的部位に実際に配置されていないことを意味する。言い換えると、脳偏位は、図4に示すベクトルBによって定められて、脳実質内のその所望の標的からカテーテルの先端を逸脱させている。
図4では、カテーテルが、それが当初意図された場所に精密に位置決めされ、すべてのエラーは、脳偏位から生じると仮定されていることに留意すべきである。もちろん、カテーテルの位置付けに、いくつかの他のエラーが存在する場合がある、またはカテーテルが、脳組織の密度の変化のために、所望の軌跡からはずれて歪む場合がある可能性がある。そのような場合、また、第2のCTA画像から、実際のカテーテルの位置の、計画された位置からの任意の変化を確立することが可能である。
通常、上記に述べたタイプの脳偏位は、手術後に(たとえば、その後のMRIスキャン中に)、または治療が失敗したとき、やっと識別されることになる。しかし、第2のCTA画像の取得によって、手術に際して次のように、任意の脳偏位を測定することが可能になる。最初に、位置合わせ処置を実施して、第1のCTA画像および第2のCTA画像中に示される頭蓋(または、頭蓋の1つまたは複数の所定の領域)の間の空間的な関係を記述する基準変換を確立する。次いで、第1のCTA画像が、標的部位を囲繞する、脳の対象領域32中で第2のCTAと位置合わせされ、すなわち、これにより、脳(血管)の変換がもたらされる。基準変換と脳(血管)の変換の間の差は、脳内の対象領域32が、第1のCTA画像および第2のCTA画像の間で頭蓋に対してどのくらいの量で移動したのかを記述する。言い換えると、対象領域32中の脳偏位を記述するベクトルは、固定位置の基準的な特徴として頭蓋を使用して、確立することができる。
脳偏位を測定するこの方法は、ある脳外科手術処置に付随する脳偏位の量を定量化するために、単にツールとして使用することができる。脳偏位が、一定量を超えた場合、その処置は、(たとえば、カテーテルを外に出すことによって)位置を置き換えて、(たとえば、偏位した標的部位までカテーテルを埋め込むことによって)再び実施することができる。あるいは、脳偏位は、外科的処置中に多数回、測定することができ、いずれかの著しい脳偏位が測定された場合、標的座標に対して適切な修正を加えることができる。たとえば、脳偏位は、頭蓋に開口部を穴開けして、硬膜を刺し通した後、測定することができることになる。次いで、測定された脳偏位は、標的座標をアップデートするために使用することができることになり、その標的座標は、その後の定位またはロボットの処置中に、脳外科手術器具を挿入するために使用されることになる。上記の方法を使用する脳偏位の測定は、また、脳外科手術器具の埋め込み中、周期的に実施することができることになり、それによって、標的座標または外科的座標系の原点がアップデートされる。
ここで、図5を参照して、Renishaw Mayfieldによって製造される、ニューロメイトロボットシステム50のような脳外科手術用の定位ロボットの座標系を、付随するCT装置52の座標系に関連付けるための技法を述べる。具体的には、図5に、ニューロメイトロボットシステム50を示し、それは、その頭部が、ロボット50に連結される台56上で所定の位置にきつく保持される患者54に対して手術を施すように配列される。手術室の可動のCTスキャナ52は、患者の頭部のまわりに位置決めされ、頭部を包み込むCT画像容積58中でCT画像を取得するように配列される。ロボットシステム50は、また、脳外科手術器具などをそれに取り付けることができるマウント62を、その遠位端部で有する多関節ロボットアーム60を含む。図5では、多関節アーム60は、マウント62に対して知られる(予め較正される)位置を有するCT可視マーカ配列64を載せる、すなわち、CT可視マーカ配列64は、ロボット座標系内で知られる位置を有する。
ロボット座標系とCT座標系の間の位置リンクを確立するために、多関節アーム60は、CT可視マーカ配列64をCT画像容積58中に配置し、可動CTスキャナ52が、CTスキャンを実施する。そのようなスキャン中のCT可視マーカ配列64に適切な位置を64’として図5に示す。その結果得られるCT画像(それは、上記に述べたCT血管造影図画像とすることができる)は、それゆえ、CT可視マーカ配列64に対する、患者の頭部内の位置(たとえば、血管および標的部位の位置)を示す。それゆえ、CT画像を分析すると、CT座標系とロボット座標系の間のリンクまたは変換を確立することが可能になり、それによって、CT座標系(それは、上記に述べたように、MRI座標系からCT座標系にマッピングしていることがある)で定められた標的の位置および軌跡を、ロボット座標系にマッピングすることが可能になる。次いで、マーカ配列64は、マウントから取り外すことができて、外科用器具と付け替えることができ、それは、標的座標まで所望の軌跡に沿って誘導することができる。マーカ配列64は、必要になるたび毎に、マウントに(同じ位置に)再び取り付けて、再画像化することができる、たとえば、CT座標系とロボット座標系の間のマッピングを再び確立する、または確認する必要がある場合、そうすることができる。
また、患者が現れる前に、CT座標系とロボット座標系の間のマッピングを確立することが、可能であることに留意すべきである。たとえば、CT可視マーカ配列は、患者が台56上に置かれる前に、CTスキャナの画像容積内の様々な異なる場所に、ロボットのアームによって保持することができ得る。しかし、これは、患者が搬入されたとき、CTスキャナと外科手術ロボットの相対的な位置が変わらないことを仮定している。あるいは、患者54は、CT可視マーカ配列を、その頭蓋に、たとえば頭部フレームの一部分として、直接の取り付けによって(たとえば、ねじ止め)、取り付けられることができ得る。そのような取り付けは、CT可視マーカの位置をロボット座標系で確立できるようにするために、ロボット50のアーム60によって保持される器具と係合する特徴を含むことができる。
一度CT座標系とロボット座標系の間の変換が確立されると、標的の位置が変わった場合(たとえば、脳偏位によって)、ロボット座標系で定められる、それら標的の位置をアップデートすることが、可能である。たとえば、脳偏位の量は、上記に述べたように測定することができる(すなわち、頭蓋に対する、そのような脳偏位を探すことによって)。患者の頭蓋が、ロボットに対して移動しないことを仮定すると、測定される脳偏位は、そのとき、ロボット座標系の標的座標を修正するために、そのまま使用することができる。脳偏位が、上記に述べた方法で、頭蓋に対して測定されるので、CTスキャナは、測定の間、患者に対して移動させることができることに留意すべきである。さらにまた、脳偏位に関するそのような修正は、処置中、周期的に、または一定のポイントで決定することができる。次いで、ロボット座標系中の標的の位置(複数可)は、処置中に、任意の脳偏位を明らかにするために、それに応じて変更することができる。また、脳偏位を明らかにするために、ロボット座標系の原点を調節することができる、すなわち、これは、標的の位置を変更することと同じ効果を有することに留意すべきである。
上記の例が、標的の領域中の脳偏位を査定することに言及しているが、脳偏位は、脳内の複数の対象領域について測定することができることに留意すべきである。これらの対象領域は、多数の標的部位(たとえば、複数の脳外科手術器具を埋め込む場合)、および/または挿入軌跡に沿った多数のポイント(たとえば、挿入された器具が、傷つきやすい組織を損傷させない、または任意の大きい血管に穴を開けないことを保証するために)に対応することができる。また、上記の例が2次元画像を示しているが、これらは、3次元画像すなわちボリューム画像を貫通したスライスであることに留意することが、重要である。上記に述べた2次元の例示は、単に理解を容易にするために提示したものであり、当業者は、ほとんどの実際的な状況下では、座標系および任意の脳偏位が、3次元で定められて測定されることになることを完全に理解されるはずである。
画像の位置合わせを概括論として上記に述べたが、適切な位置合わせプロセスのより細部を図6〜8を参照して述べる。
血管を示す2つのデータ集合(たとえば、Angio−MR、Angio−CT、血管モデルまたは血管アトラスデータ集合)の相互位置合わせは、様々な知られる位置合わせ技法を使用して実施することができる。たとえば、適切な位置合わせ方法は、次の技法の3つの群のいずれか1つを含む。まず、明暗度ベースの位置合わせ方法を使用することが可能である。3Dの血管データが、血管モデルまたはアトラスを含む場合、それは、位置合わせの前に、3Dの容積データに変換することが好ましい。そのような技法では、変換は、明暗度相似を最大化することによって決定される。2番目に、特徴ベースの位置合わせ方法を使用することが可能である。これらの方法は、概して、両方のデータ集合からある特徴を抽出する。適切な特徴は、血管の分離合流および/または血管の形状を含むことができる。最適変換は、異なる集合の識別される特徴の間の距離を最小にすることによって評価することができる。最後に、明暗度による位置合わせ方法と特徴による位置合わせ方法の両方に基づくハイブリッド技法を使用することができる。そのようなハイブリッド技法は、いわゆるアクティブアピアランスモデル(active appearance model)および粒子システム法(particle system method)を含む。
図6を参照すると、明暗度ベースの位置合わせプロセスのフローチャートが示されている。図6から分かるように、ステップ70は、いわゆる移動データ(上記に述べた第2のCTA画像など)を取り込むステップを含み、ステップ72は、固定データ(上記に述べた第1のCTA画像など)を取り込むステップを含む。脳中に定められる標的部位を囲繞する小領域など、対象領域が、固定データおよび移動データについて定められる。変換(Tmoving→fixed)を使用して移動データ(対象領域中の)をたわませるステップ74が実施される。ステップ76で、たわませた移動データおよび固定データの明暗度が、費用関数を計算することによって、比較される。次いで、ステップ78では、ステップ74にフィードバックされる、変換(Tmoving→fixed)で使用された値に対して向上されるパラメータを選択する試みが実施される。このプロセスは、たわませた移動データと固定データの間の相関を、それ以上向上させることができなくなるまで、反復して繰り返される。次いで、ステップ80で、変換(Tmoving→fixed)の最終的な最適化された値が返される。
また、この位置合わせプロセスは、2つの基本的な部分の重ね合わせとして見なすことができる。第1の部分は、変換モデルの選択であり、第2の部分は、変換パラメータの評価である。さらに、ほとんどの画像位置合わせ問題は、概括的な数学的な表現で次のように述べることができる、最適化問題として扱うことができる。
ただし、lmovingおよびlfixedは、移動(たわませることになる)データおよび固定(標的)データであり、Tmoving→fixedは、選択される変換モデル中のパラメータベクトルであり、W(lmoving|Tmoving→fixed)は、変換モデル下でパラメータTmoving→fixedを用いて、たわませた移動データであり、およびfcost(・)は、たわませた移動データと固定データの間で明暗度相似を測定するための費用関数である。
次に、図7を参照すると、手術前のCTA画像と手術後のCTA画像の間の脳偏位を測定するための位置合わせ技法の使用を述べるフローチャートが示されている。位置合わせ技法は、手術前のCTAデータおよび手術後のCTAデータを使用する、2つの領域ベースの剛体位置合わせ(3つの平行移動と3つの回転角度)を使用する。それゆえ、方法は、脳偏位が測定されることになるポイントで(たとえば、スタイレットの先端で)、頭蓋に対する空間的な変化を測定することによって、脳偏位を評価する。これは、頭蓋に対する脳偏位の大きさと方向を示すベクトルを与える。位置合わせは、ボリュームCTAデータに基づき、それは、スライス距離およびスライス厚さを最小にする。それがCTベースであるので、また、それは、任意のMRI歪みを防止する。
図7をより詳細に参照すると、ステップ90および92は、それぞれ、手術前のCTA画像および手術後のCTA画像を取り込むステップを含む。両方の画像は、脳内の基準構造(たとえば、頭蓋)および血管を示す。基準構造(たとえば、頭蓋)に基づき、手術前のCTA画像と手術後のCTA画像の間の剛体位置合わせを含むステップ94が実施され、すなわち、これは、
を生成する。また、手術前のCTA画像と手術後のCTA画像中の所定の対象領域で血管を相互に位置合わせさせるステップを含むステップ96が実施される、すなわち、これは、変換
を生成する。この対象領域のサイズは、たとえば、50×40×15mmとすることができる。
次いで、次のように、2つのスタイレット(左と右のスタイレット)の先端が、挿入後に位置決めされる2つのポイントで、脳偏位が計算される。最初に、各スタイレットの先端位置が、CTマシンのUVW座標で、手術前のCTA画像および手術後のCTA画像中で決定される、すなわち、これらの位置は、(a)rfixedおよび(b)lfixedとして定められる。次いで、スタイレットの先端の位置が、
変換を使用して、手術前のCTA中で計算され、それによって、位置(a)
および位置(b)
が与えられる。次いで、スタイレットの先端の位置が、
を使用して、手術前のCTA中で計算され、それは、位置(a)
および位置(b)
を与える。
これは、各スタイレットの位置での脳偏位(SlおよびSr)を式
から計算することを可能にする。
図8を参照すると、MRAデータをCTAデータと位置合わせさせるためのプロセスが、例示されている。ステップ100および102は、それぞれ、CTAデータおよびMRAデータを取り込む(たとえば、読み出す、または取得する)ステップを含む。次いで、血管が見られる範囲中の対象領域を定めるステップ104が、実施される。この対象領域は、脳外科手術器具が、そこに挿入されることになる、脳内の標的構造または部位のまわりに位置決めすることができる。次いで、データの間の対応を記述するための最適変換を決定することによって、2つの(MRAおよびCTA)データ集合を相互に位置合わせさせるためのステップ106が、実施される。次いで、MRAデータからの情報(たとえば、標的構造に位置に関する)は、CTAデータ上にマッピングすることができる。
上記に述べた技法は、適切にプログラムされるコンピュータを使用して、実施することが好ましい。また、上記の例は、限定するものでなく、本発明の理解を助けるためだけに提示されていることを念頭に置くべきである。当業者は、上記の例に対して、上記に概略を述べた概括的な教示に従って可能であり得る多くの変形形態に十分に気付くはずである。

Claims (17)

  1. 患者に手術を施す外科手術ロボットであって、ロボット座標系中で知られる位置を有する多関節アームを含む、前記外科手術ロボットと、
    前記患者の手術中の画像を取得するための医用撮像装置であって、取得された前記手術中の画像中の位置が、画像座標系中で定められる、前記医用撮像装置と、
    繰り返し可能な位置で前記多関節アームに取り付けることができる基準マーカユニットであって、位置関係が前記ロボット座標系と前記画像座標系との間に確立できるように、前記ロボット座標系中で知られる位置を有し、前記医用撮像装置によって取得される画像中で見られるように配列される、基準構造を備える、前記基準マーカユニットと
    を備える手術を施す装置。
  2. 前記多関節アームは、マウントと、前記マウントに取り付け可能である前記基準マーカユニットとを備えることを特徴とする請求項1に記載の装置。
  3. 前記基準マーカユニットが前記マウントに取り付けられたときに、前記基準マーカユニットが前記マウントに対する知られた位置を有することを特徴とする請求項2に記載の装置。
  4. 前記基準マーカユニットと前記マウントは、前記知られた位置で前記多関節アームに前記マウントを着脱可能に取り付けるための運動学的な取り付け機構を提供することを特徴とする請求項3に記載の装置。
  5. ツールホルダが前記多関節アームの遠位端部に設けられ、前記基準マーカユニットが前記ツールホルダにより保持できることを特徴とする請求項1に記載の装置。
  6. 前記ツールホルダにより保持できる少なくとも1つの外科的ツールをさらに備え、前記外科的ツールが前記基準マーカユニットとは別であることを特徴とする請求項5に記載の装置。
  7. 前記医用撮像装置は、コンピュータ制御断層撮像(CT:Computed Tomography)スキャナを備え、前記基準構造は、複数のCT可視マーカを備えることを特徴とする請求項1乃至6のいずれか1項に記載の装置。
  8. 前記基準マーカユニットの前記基準構造は、複数のボールを備えることを特徴とする請求項1乃至7のいずれか1項に記載の装置。
  9. 前記外科手術ロボットは、前記多関節アームの動作を制御するコンピュータを備えることを特徴とする請求項1乃至8のいずれか1項に記載の装置。
  10. 医用撮像装置と外科手術ロボットを位置合わせする方法であって、
    前記医用撮像装置は、画像容積から画像を取得するように構成され、前記取得された画像の1または複数の位置が画像座標系内で知られ、
    前記外科手術ロボットは、前記医用撮像装置により取得された画像内で見られる基準構造を有する基準マーカユニットを載せる多関節アームを備え、
    前記方法は、
    (i)前記医用撮像装置の画像容積内に前記基準構造を配置するステップであって、前記基準構造の位置は、前記外科手術ロボットのロボット座標系中で知られるステップと、
    (ii)前記基準構造の画像を取得するために前記医用撮像装置を使用するステップと、
    (iii)ステップ(ii)で取得された前記画像から前記画像座標系内の前記基準構造の位置を計算するステップと、
    (iv)前記ロボット座標系内の前記基準構造の前記位置と前記画像座標系内の前記基準構造の前記位置との差から、前記画像座標系と前記ロボット座標系との間の座標変換を計算するステップと
    を含むことを特徴とする方法。
  11. 前記画像座標系内で測定された位置を前記ロボット座標系の位置に変換するために、ステップ(iv)で計算された前記座標変換を使用するステップをさらに備えることを特徴とする請求項10に記載の方法。
  12. 少なくとも1つの更なる画像を取得するために前記医用撮像装置を使用する追加のステップと、
    前記少なくとも1つの更なる画像で識別された位置を前記ロボット座標系の位置に変換するために、ステップ(iv)で計算された前記座標変換を使用するステップと
    を含むことを特徴とする請求項10または11に記載の方法。
  13. 前記少なくとも1つの更なる画像は、患者の少なくとも1部分の画像を備えることを特徴とする請求項12に記載の方法。
  14. ステップ(ii)で取得された前記画像が前記基準構造及び患者の少なくとも1部分の両方を含むように、患者の少なくとも1部分は、ステップ(i)の前記画像容積内でも位置決めされることを特徴とする請求項10乃至13のいずれか1項に記載の方法。
  15. 前記外科手術ロボットの前記多関節アームに前記基準マーカユニットに取り付けられる初期ステップを備えることを特徴とする請求項10乃至14のいずれか1項に記載の方法。
  16. 前記医用撮像装置は、CTスキャナを備え、前記基準構造は、複数のCT可視マーカを備えることを特徴とする請求項10乃至15のいずれか1項に記載の方法。
  17. 患者の外科的処置を実施するために前記外科手術ロボットを使用する前に、前記外科手術ロボットの前記多関節アームから前記基準マーカユニットを取り外すステップを含むことを特徴とする請求項10乃至16のいずれか1項に記載の方法。
JP2016127479A 2010-12-21 2016-06-28 画像を分析するための方法および装置 Pending JP2016193222A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP10252178A EP2468207A1 (en) 2010-12-21 2010-12-21 Method and apparatus for analysing images
EP10252178.8 2010-12-21

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013545489A Division JP2014511186A (ja) 2010-12-21 2011-12-21 画像を分析するための方法および装置

Publications (1)

Publication Number Publication Date
JP2016193222A true JP2016193222A (ja) 2016-11-17

Family

ID=43877224

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013545489A Pending JP2014511186A (ja) 2010-12-21 2011-12-21 画像を分析するための方法および装置
JP2016127479A Pending JP2016193222A (ja) 2010-12-21 2016-06-28 画像を分析するための方法および装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2013545489A Pending JP2014511186A (ja) 2010-12-21 2011-12-21 画像を分析するための方法および装置

Country Status (5)

Country Link
US (2) US9463073B2 (ja)
EP (2) EP2468207A1 (ja)
JP (2) JP2014511186A (ja)
CN (1) CN103313673B (ja)
WO (1) WO2012085511A1 (ja)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020022730A (ja) * 2018-06-07 2020-02-13 グローバス メディカル インコーポレイティッド 自然基準を使用した共登録を提供するロボットシステムおよび関連方法
US10842461B2 (en) 2012-06-21 2020-11-24 Globus Medical, Inc. Systems and methods of checking registrations for surgical systems
US10874466B2 (en) 2012-06-21 2020-12-29 Globus Medical, Inc. System and method for surgical tool insertion using multiaxis force and moment feedback
US11045267B2 (en) 2012-06-21 2021-06-29 Globus Medical, Inc. Surgical robotic automation with tracking markers
JP2021108965A (ja) * 2020-01-10 2021-08-02 公立大学法人公立はこだて未来大学 標準脳モデル生成システム、標準脳モデル生成方法および標準脳モデル生成プログラム
US11253327B2 (en) 2012-06-21 2022-02-22 Globus Medical, Inc. Systems and methods for automatically changing an end-effector on a surgical robot
US11298196B2 (en) 2012-06-21 2022-04-12 Globus Medical Inc. Surgical robotic automation with tracking markers and controlled tool advancement
US11317971B2 (en) 2012-06-21 2022-05-03 Globus Medical, Inc. Systems and methods related to robotic guidance in surgery
US11399900B2 (en) 2012-06-21 2022-08-02 Globus Medical, Inc. Robotic systems providing co-registration using natural fiducials and related methods
US11589771B2 (en) 2012-06-21 2023-02-28 Globus Medical Inc. Method for recording probe movement and determining an extent of matter removed
US11786324B2 (en) 2012-06-21 2023-10-17 Globus Medical, Inc. Surgical robotic automation with tracking markers
US11793570B2 (en) 2012-06-21 2023-10-24 Globus Medical Inc. Surgical robotic automation with tracking markers
US11801097B2 (en) 2012-06-21 2023-10-31 Globus Medical, Inc. Robotic fluoroscopic navigation
US11819365B2 (en) 2012-06-21 2023-11-21 Globus Medical, Inc. System and method for measuring depth of instrumentation
US11857149B2 (en) 2012-06-21 2024-01-02 Globus Medical, Inc. Surgical robotic systems with target trajectory deviation monitoring and related methods
US11857266B2 (en) 2012-06-21 2024-01-02 Globus Medical, Inc. System for a surveillance marker in robotic-assisted surgery
US11864839B2 (en) 2012-06-21 2024-01-09 Globus Medical Inc. Methods of adjusting a virtual implant and related surgical navigation systems
US11864745B2 (en) 2012-06-21 2024-01-09 Globus Medical, Inc. Surgical robotic system with retractor
US11883217B2 (en) 2016-02-03 2024-01-30 Globus Medical, Inc. Portable medical imaging system and method
US11896446B2 (en) 2012-06-21 2024-02-13 Globus Medical, Inc Surgical robotic automation with tracking markers
US11963755B2 (en) 2012-06-21 2024-04-23 Globus Medical Inc. Apparatus for recording probe movement
US11974822B2 (en) 2012-06-21 2024-05-07 Globus Medical Inc. Method for a surveillance marker in robotic-assisted surgery
US12004905B2 (en) 2018-06-07 2024-06-11 Globus Medical, Inc. Medical imaging systems using robotic actuators and related methods

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2686829B1 (en) * 2011-03-18 2020-11-11 Koninklijke Philips N.V. Tracking brain deformation during neurosurgery
US10758315B2 (en) 2012-06-21 2020-09-01 Globus Medical Inc. Method and system for improving 2D-3D registration convergence
WO2014093367A1 (en) 2012-12-10 2014-06-19 Intuitive Surgical Operations, Inc. Collision avoidance during controlled movement of image capturing device and manipulatable device movable arms
CN103169503B (zh) * 2013-03-22 2014-10-22 北京汇影互联科技有限公司 一种脑部血流测量系统及方法
US9592095B2 (en) 2013-05-16 2017-03-14 Intuitive Surgical Operations, Inc. Systems and methods for robotic medical system integration with external imaging
JP2015002922A (ja) * 2013-06-21 2015-01-08 国立大学法人信州大学 外科手術用装置
US10052161B2 (en) 2014-08-06 2018-08-21 Brainlab Ag Brain shift compensation for catheter trajectory planning
FR3036279B1 (fr) 2015-05-21 2017-06-23 Medtech Sa Robot d'assistance neurochirurgicale
JP6710946B2 (ja) * 2015-12-01 2020-06-17 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
US10467497B2 (en) 2016-02-22 2019-11-05 Sony Corporation System and method for providing assistance in surgery in presence of tissue deformation
CN105816192A (zh) * 2016-03-03 2016-08-03 王雪原 个体化人脑多模态医学影像的三维配准及提取脑组织方法
CN105852970B (zh) * 2016-04-29 2019-06-14 北京柏惠维康科技有限公司 神经外科机器人导航定位系统及方法
EP3490482B1 (en) 2016-07-26 2023-09-06 7D Surgical ULC System and method for verification of fiducial correspondence during image-guided surgical procedures
KR101848027B1 (ko) 2016-08-16 2018-04-12 주식회사 고영테크놀러지 정위수술용 수술로봇 시스템 및 정위수술용 로봇의 제어방법
CN106345062B (zh) * 2016-09-20 2018-01-16 华东师范大学 一种基于磁共振成像的经颅磁刺激线圈定位方法
CN110036408B (zh) * 2016-10-28 2023-08-15 皇家飞利浦有限公司 活动性出血和血液外渗的自动ct检测和可视化
US10627464B2 (en) 2016-11-22 2020-04-21 Hyperfine Research, Inc. Low-field magnetic resonance imaging methods and apparatus
AU2017363608A1 (en) 2016-11-22 2019-05-23 Hyperfine Operations, Inc. Systems and methods for automated detection in magnetic resonance images
DE102016225613A1 (de) * 2016-12-20 2018-06-21 Kuka Roboter Gmbh Verfahren zum Kalibrieren eines Manipulators eines diagnostischen und/oder therapeutischen Manipulatorsystems
WO2018127501A1 (en) * 2017-01-04 2018-07-12 Medivation Ag A mobile surgical tracking system with an integrated fiducial marker for image guided interventions
WO2018150336A1 (en) * 2017-02-14 2018-08-23 Atracsys Sàrl High-speed optical tracking with compression and/or cmos windowing
WO2018232514A1 (en) 2017-06-23 2018-12-27 7D Surgical Inc. SYSTEMS AND METHODS FOR PEROPERATIVE SURFACE RECORDING AND NAVIGATION
JP6995535B2 (ja) * 2017-08-31 2022-01-14 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
CN109745119B (zh) * 2017-11-06 2023-09-29 艾博纽诺股份公司 用于校准和测量用于脑神经导航仪的目标点的装置和方法
FR3073135B1 (fr) * 2017-11-09 2019-11-15 Quantum Surgical Dispositif robotise pour une intervention medicale mini-invasive sur des tissus mous
KR101925483B1 (ko) 2018-07-24 2018-12-05 재단법인 대구경북첨단의료산업진흥재단 Mri 영상 장치와 호환 가능한 수술 로봇의 구동 장치
EP3886706B1 (en) 2018-11-30 2023-09-06 Accuray, Inc. Method and apparatus for image reconstruction and correction using inter-fractional information
US11744655B2 (en) 2018-12-04 2023-09-05 Globus Medical, Inc. Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems
US11602402B2 (en) 2018-12-04 2023-03-14 Globus Medical, Inc. Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems
US11806084B2 (en) * 2019-03-22 2023-11-07 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
US11382549B2 (en) 2019-03-22 2022-07-12 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
US11045179B2 (en) 2019-05-20 2021-06-29 Global Medical Inc Robot-mounted retractor system
US20210322112A1 (en) * 2020-04-21 2021-10-21 Mazor Robotics Ltd. System and method for aligning an imaging device
US11452492B2 (en) 2020-04-21 2022-09-27 Mazor Robotics Ltd. System and method for positioning an imaging device
US11794039B2 (en) 2021-07-13 2023-10-24 Accuray, Inc. Multimodal radiation apparatus and methods
US11854123B2 (en) 2021-07-23 2023-12-26 Accuray, Inc. Sparse background measurement and correction for improving imaging
CN114948215A (zh) * 2022-04-27 2022-08-30 苏州景昱医疗器械有限公司 手术机器人和系统
CN117137626B (zh) * 2023-10-30 2024-04-12 北京三博脑科医院有限公司 一种神经外科手术机器人的无创注册方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005334650A (ja) * 2004-05-27 2005-12-08 General Electric Co <Ge> エンド・エフェクタを被検者の体内の目標位置まで案内するシステム、方法並びに製造物品
JP2008253808A (ja) * 2004-09-24 2008-10-23 Icat:Kk 人体情報抽出装置、人体撮影情報の基準面変換方法および断面情報検出装置

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5961454A (en) 1993-08-13 1999-10-05 The Brigham And Women's Hospital Fusion of anatomical data sets into stereotactic coordinates
US5999840A (en) 1994-09-01 1999-12-07 Massachusetts Institute Of Technology System and method of registration of three-dimensional data sets
CN1100516C (zh) * 1997-08-27 2003-02-05 北京航空航天大学 机器人脑外科设备系统及其所采用的图象和坐标处理方法
US7191110B1 (en) 1998-02-03 2007-03-13 University Of Illinois, Board Of Trustees Patient specific circulation model
GB9803364D0 (en) 1998-02-18 1998-04-15 Armstrong Healthcare Ltd Improvements in or relating to a method of an apparatus for registering a robot
US6591127B1 (en) 1999-03-15 2003-07-08 General Electric Company Integrated multi-modality imaging system and method
FR2802002B1 (fr) 1999-12-02 2002-03-01 Ge Medical Syst Sa Procede de recalage automatique d'images tridimensionnelles
US6389104B1 (en) 2000-06-30 2002-05-14 Siemens Corporate Research, Inc. Fluoroscopy based 3-D neural navigation based on 3-D angiography reconstruction data
US6351513B1 (en) 2000-06-30 2002-02-26 Siemens Corporate Research, Inc. Fluoroscopy based 3-D neural navigation based on co-registration of other modalities with 3-D angiography reconstruction data
US7225012B1 (en) 2000-09-18 2007-05-29 The Johns Hopkins University Methods and systems for image-guided surgical interventions
DE10117752C1 (de) 2001-04-09 2003-02-27 Siemens Ag Kernspintomographievorrichtung mit einer Einrichtung zur Bewegungskorrektur
GB0205773D0 (en) 2002-03-12 2002-04-24 Gill Steven S Clamp
DE10230877A1 (de) 2002-07-09 2004-02-12 Siemens Ag Kernspintomographiegerät mit einer Einrichtung zur graphischen Planung Kontrastmittel-gestützter angiographischer Messungen
US7570791B2 (en) 2003-04-25 2009-08-04 Medtronic Navigation, Inc. Method and apparatus for performing 2D to 3D registration
DE10322738A1 (de) 2003-05-20 2004-12-16 Siemens Ag Verfahren zur markerlosen automatischen Fusion von 2D-Fluoro-C-Bogen-Bildern mit präoperativen 3D-Bildern unter Verwendung eines intraoperativ gewonnenen 3D-Datensatzes
JP2007502647A (ja) 2003-08-21 2007-02-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 血管造影図及び現x線画像の複合表示のための装置及び方法
US7103399B2 (en) 2003-09-08 2006-09-05 Vanderbilt University Apparatus and methods of cortical surface registration and deformation tracking for patient-to-image alignment in relation to image-guided surgery
WO2005025404A2 (en) * 2003-09-08 2005-03-24 Vanderbilt University Apparatus and methods of cortical surface registration and deformation tracking for patient-to-image alignment in relation to image-guided surgery
US20050171558A1 (en) 2003-10-17 2005-08-04 Abovitz Rony A. Neurosurgery targeting and delivery system for brain structures
WO2005039391A2 (en) 2003-10-21 2005-05-06 The Board Of Trustees Of The Leland Stanford Junior University Systems and methods for intraoperative targetting
DE10357184A1 (de) 2003-12-08 2005-07-07 Siemens Ag Verfahren zur fusionierten Bilddarstellung
CN100559397C (zh) 2004-01-21 2009-11-11 美国西门子医疗解决公司 手术中二维图像与手术前三维图像的仿射配准方法和系统
EP1751712A2 (en) 2004-05-14 2007-02-14 Philips Intellectual Property & Standards GmbH Information enhanced image guided interventions
US20060036167A1 (en) 2004-07-03 2006-02-16 Shina Systems Ltd. Vascular image processing
DE502004003843D1 (de) 2004-08-31 2007-06-28 Brainlab Ag Fluoroskopiebild-Verifizierung
EP1835855B1 (en) 2005-01-11 2017-04-05 Volcano Corporation Vascular image co-registration
EP1855607B1 (en) 2005-01-13 2017-10-25 Mazor Robotics Ltd. Image-guided robotic system for keyhole neurosurgery
US7729746B2 (en) 2005-11-04 2010-06-01 Siemens Aktiengesellschaft Three-dimensional co-registration between intravascular and angiographic data
US8427475B2 (en) 2005-11-14 2013-04-23 Koninklijke Philips Electronics N.V. Silhouette blend rendering of anatomical structures
US7835500B2 (en) 2005-11-16 2010-11-16 Accuray Incorporated Multi-phase registration of 2-D X-ray images to 3-D volume studies
EP1820465B1 (en) 2006-02-21 2010-04-07 BrainLAB AG Universal image registration interface
US8060181B2 (en) 2006-04-07 2011-11-15 Brainlab Ag Risk assessment for planned trajectories
EP2018119A2 (en) * 2006-05-11 2009-01-28 Koninklijke Philips Electronics N.V. System and method for generating intraoperative 3-dimensional images using non-contrast image data
DE102006026752B4 (de) 2006-06-08 2009-04-16 Siemens Ag Verfahren und Vorrichtung zur Durchführung des Verfahrens zur Registrierung von funktionellen MR-Bilddaten mit Röntgendurchleuchtung
DE102006045423B4 (de) 2006-09-26 2016-07-14 Siemens Healthcare Gmbh 07.09.07Verfahren zur Nachbearbeitung eines dreidimensionalen Bilddatensatzes einer Gefäßstruktur
GB2445961B (en) * 2006-10-31 2009-02-04 Prosurgics Ltd Fiducial marker placement
WO2008059417A1 (en) 2006-11-13 2008-05-22 Koninklijke Philips Electronics N. V. Fused perfusion and functional 3d rotational angiography rendering
EP1925256A1 (de) 2006-11-24 2008-05-28 BrainLAB AG Verfahren und Vorrichtung zur Registrierung einer anatomischen Struktur mit Markern
GB2444738A (en) 2006-12-12 2008-06-18 Prosurgics Ltd Registration of the location of a workpiece within the frame of reference of a device
DE102007010806B4 (de) 2007-03-02 2010-05-12 Siemens Ag Verfahren zum Schaffen erweiterter Möglichkeiten bei der Verwendung von für den Einsatz von Registrierungsverfahren ungeeigneten Bilddaten eines Patienten und Röntgenangiographiesystem
US8150494B2 (en) 2007-03-29 2012-04-03 Medtronic Navigation, Inc. Apparatus for registering a physical space to image space
US8010177B2 (en) 2007-04-24 2011-08-30 Medtronic, Inc. Intraoperative image registration
US9289270B2 (en) 2007-04-24 2016-03-22 Medtronic, Inc. Method and apparatus for performing a navigated procedure
EP2044975B1 (de) 2007-10-01 2012-02-22 BrainLAB AG Verfahren zum Registrieren von 2D-Bilddaten, Computerprogrammprodukt, Navigationsverfahren zum Navigieren eines Behandlungsgerätes im Bereich der Medizin und Recheneinrichtung zum Registrieren von 2D-Bilddaten
US8190232B2 (en) 2007-10-04 2012-05-29 Siemens Aktiengesellschaft Automatic alignment of magnetic resonance imaging (MRI) brain scan by anatomic landmarks
DE102007060689B4 (de) 2007-12-17 2017-07-13 Siemens Healthcare Gmbh Verfahren zur Aufnahme von angiographischen Datensätzen und Magnetresonanzanlage dafür
US9579161B2 (en) 2008-05-06 2017-02-28 Medtronic Navigation, Inc. Method and apparatus for tracking a patient
FR2936890B1 (fr) 2008-10-03 2010-12-03 Univ Grenoble 1 Procede de traitement d'image pour estimer une deformation d'un cerveau d'un patient
EP2230641B1 (de) 2009-03-18 2016-06-29 Brainlab AG Verfahren zur Ermittlung der Lage einer Struktur in einem Körper
US8503745B2 (en) 2009-05-13 2013-08-06 Medtronic Navigation, Inc. System and method for automatic registration between an image and a subject
US8737708B2 (en) 2009-05-13 2014-05-27 Medtronic Navigation, Inc. System and method for automatic registration between an image and a subject
US8238631B2 (en) 2009-05-13 2012-08-07 Medtronic Navigation, Inc. System and method for automatic registration between an image and a subject
GB2472066A (en) 2009-07-23 2011-01-26 Medi Maton Ltd Device for manipulating and tracking a guide tube with radiopaque markers
EP2707823B1 (en) 2011-05-11 2017-07-05 Brainlab AG Method for optimising local drug delivery

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005334650A (ja) * 2004-05-27 2005-12-08 General Electric Co <Ge> エンド・エフェクタを被検者の体内の目標位置まで案内するシステム、方法並びに製造物品
JP2008253808A (ja) * 2004-09-24 2008-10-23 Icat:Kk 人体情報抽出装置、人体撮影情報の基準面変換方法および断面情報検出装置

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11793570B2 (en) 2012-06-21 2023-10-24 Globus Medical Inc. Surgical robotic automation with tracking markers
US11864745B2 (en) 2012-06-21 2024-01-09 Globus Medical, Inc. Surgical robotic system with retractor
US11974822B2 (en) 2012-06-21 2024-05-07 Globus Medical Inc. Method for a surveillance marker in robotic-assisted surgery
US11045267B2 (en) 2012-06-21 2021-06-29 Globus Medical, Inc. Surgical robotic automation with tracking markers
US11801097B2 (en) 2012-06-21 2023-10-31 Globus Medical, Inc. Robotic fluoroscopic navigation
US11253327B2 (en) 2012-06-21 2022-02-22 Globus Medical, Inc. Systems and methods for automatically changing an end-effector on a surgical robot
US11298196B2 (en) 2012-06-21 2022-04-12 Globus Medical Inc. Surgical robotic automation with tracking markers and controlled tool advancement
US11819365B2 (en) 2012-06-21 2023-11-21 Globus Medical, Inc. System and method for measuring depth of instrumentation
US11399900B2 (en) 2012-06-21 2022-08-02 Globus Medical, Inc. Robotic systems providing co-registration using natural fiducials and related methods
US11589771B2 (en) 2012-06-21 2023-02-28 Globus Medical Inc. Method for recording probe movement and determining an extent of matter removed
US11963755B2 (en) 2012-06-21 2024-04-23 Globus Medical Inc. Apparatus for recording probe movement
US11786324B2 (en) 2012-06-21 2023-10-17 Globus Medical, Inc. Surgical robotic automation with tracking markers
US10874466B2 (en) 2012-06-21 2020-12-29 Globus Medical, Inc. System and method for surgical tool insertion using multiaxis force and moment feedback
US11896446B2 (en) 2012-06-21 2024-02-13 Globus Medical, Inc Surgical robotic automation with tracking markers
US11317971B2 (en) 2012-06-21 2022-05-03 Globus Medical, Inc. Systems and methods related to robotic guidance in surgery
US11819283B2 (en) 2012-06-21 2023-11-21 Globus Medical Inc. Systems and methods related to robotic guidance in surgery
US11857149B2 (en) 2012-06-21 2024-01-02 Globus Medical, Inc. Surgical robotic systems with target trajectory deviation monitoring and related methods
US11857266B2 (en) 2012-06-21 2024-01-02 Globus Medical, Inc. System for a surveillance marker in robotic-assisted surgery
US11864839B2 (en) 2012-06-21 2024-01-09 Globus Medical Inc. Methods of adjusting a virtual implant and related surgical navigation systems
US10842461B2 (en) 2012-06-21 2020-11-24 Globus Medical, Inc. Systems and methods of checking registrations for surgical systems
US11883217B2 (en) 2016-02-03 2024-01-30 Globus Medical, Inc. Portable medical imaging system and method
JP2020022730A (ja) * 2018-06-07 2020-02-13 グローバス メディカル インコーポレイティッド 自然基準を使用した共登録を提供するロボットシステムおよび関連方法
US12004905B2 (en) 2018-06-07 2024-06-11 Globus Medical, Inc. Medical imaging systems using robotic actuators and related methods
JP2021108965A (ja) * 2020-01-10 2021-08-02 公立大学法人公立はこだて未来大学 標準脳モデル生成システム、標準脳モデル生成方法および標準脳モデル生成プログラム
JP7323893B2 (ja) 2020-01-10 2023-08-09 公立大学法人公立はこだて未来大学 標準脳モデル生成システム、標準脳モデル生成方法および標準脳モデル生成プログラム

Also Published As

Publication number Publication date
US9463073B2 (en) 2016-10-11
EP2654592B1 (en) 2018-11-21
JP2014511186A (ja) 2014-05-15
US20130279784A1 (en) 2013-10-24
EP2468207A1 (en) 2012-06-27
WO2012085511A1 (en) 2012-06-28
US20150335390A1 (en) 2015-11-26
CN103313673B (zh) 2016-12-07
CN103313673A (zh) 2013-09-18
EP2654592A1 (en) 2013-10-30

Similar Documents

Publication Publication Date Title
JP2016193222A (ja) 画像を分析するための方法および装置
JP6420938B2 (ja) 低侵襲性治療の誘導及びシミュレーションのためのシステム及び方法
US9913733B2 (en) Intra-operative determination of dimensions for fabrication of artificial bone flap
US10166078B2 (en) System and method for mapping navigation space to patient space in a medical procedure
US20220313190A1 (en) System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
US11931140B2 (en) Systems and methods for navigation and simulation of minimally invasive therapy
US11191595B2 (en) Method for recovering patient registration
US10588702B2 (en) System and methods for updating patient registration during surface trace acquisition
DE102007013807A1 (de) Bildakquisitions-, Bildverarbeitungs- und Bildvisualisierungssystem zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen
WO2014174326A1 (en) Pathology localizer and therapeutical procedure guide system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170328

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170628

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171205