JP2022517807A - 医療用ナビゲーションのためのシステムおよび方法 - Google Patents

医療用ナビゲーションのためのシステムおよび方法 Download PDF

Info

Publication number
JP2022517807A
JP2022517807A JP2021541277A JP2021541277A JP2022517807A JP 2022517807 A JP2022517807 A JP 2022517807A JP 2021541277 A JP2021541277 A JP 2021541277A JP 2021541277 A JP2021541277 A JP 2021541277A JP 2022517807 A JP2022517807 A JP 2022517807A
Authority
JP
Japan
Prior art keywords
registration
data
preoperative
landmark
patient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021541277A
Other languages
English (en)
Inventor
コラン,トビー
ソーサ・バレンシア,レオナルド
オステトレ,アレクサンドル
トロンプ,カロリーヌ
マレスコー,ジャック
Original Assignee
アンスティテュ オスピタロ-ユニベルシテール ドゥ ストラスブール
アンスティテュ ドゥ ルシェルシェ コントル レ カンセル ドゥ ラパレイル ディジェスティフ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アンスティテュ オスピタロ-ユニベルシテール ドゥ ストラスブール, アンスティテュ ドゥ ルシェルシェ コントル レ カンセル ドゥ ラパレイル ディジェスティフ filed Critical アンスティテュ オスピタロ-ユニベルシテール ドゥ ストラスブール
Publication of JP2022517807A publication Critical patent/JP2022517807A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0883Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4416Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to combined acquisition of different diagnostic modalities, e.g. combination of ultrasound and X-ray acquisitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Urology & Nephrology (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Endoscopes (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

医療用ナビゲーションのためのシステムであって:・リアルタイムの超音波信号および/またはビデオ信号を取得するように構成されたエコー内視鏡;・エコー内視鏡の遠位端を空間的に追跡するように構成された追跡システムまたはデバイス;・ユーザインターフェースおよびディスプレイ;・患者の術前放射線学的データを含む計算および記憶手段を含み:・計算および記憶手段が、リアルタイムの術中データと術前放射線学的データとの間のレジストレーションを行うように構成されており、・ディスプレイが、前記レジストレーションに基づいて、術前放射線学的データ内にリアルタイムの術中データビューを統合するナビゲーションビューをユーザに提供するように構成されていることを特徴とする、システム。

Description

本発明は、いくつかのタイプのデータのレジストレーションを含む医療用ナビゲーションのための医療デバイスおよびシステムの分野に属するものである。本発明の第1の目的は、放射線学的データおよび超音波データのレジストレーションを含む医療用ナビゲーションのためのデバイスである。本発明の第2の目的は、放射線学的データおよび超音波データのレジストレーションを含む医療用ナビゲーションのための方法である。
超音波内視鏡(EUS)は、上部消化管のイメージングおよび診断のために重要でありますます使用されている医療処置である。EUSは基本的に、先端に超音波(US)センサを取り付けた胃カメラシステムであり、内視鏡タワーはUSユニットを含む。ビデオフィードおよびUSフィードの両方がユーザに表示される。EUSは、表面および表面下の構造の両方に近接して、高解像度で侵襲を最小限に抑えた低コストのマルチモーダルイメージングを提供する。しかし、EUSは内視鏡超音波検査者が習得するのが難しい技術であり、オペレータに大きく依存する。
この難しさは、主に2つのナビゲーションの難しさに起因する。第1に、EUSプローブは、小さな空間ウィンドウ(典型的には、幅10cm未満)で映像を生成する。これは、優れた空間分解能を提供するが、患者に対してプローブがどこにあるかの全体的な理解は内視鏡超音波検査者により頭の中で行われる必要があり、これは困難である。第2の難しさは、機械的な制御を伴う:EUSでは、近位端で機械的に制御される柔軟なスコープが必要である。これは、EUSの先端の正確な位置決めと定位を難しくする。
以上の困難が組み合わさり、EUSを非専門家に対して非常に難しくしており、高い習熟度に達するには何年もかかる(5000件より多い処置)。これまでにも、処置前のコンピュータ断層撮影(CT)または磁気共鳴画像(MRI)のスライスセットと、処置中のライブUS画像との融合が提案されてきた。これらのシステムは、USプローブが空間で追跡されることに頼っており、CTまたはMRIのスライスセットとライブUS画像との間のレジストレーションステップを伴っている。シーメンスのACUSON S3000超音波システムのような経腹腔的なUSプローブを有する市販のナビゲーションシステムでは、次のようにしてレジストレーションが完了される:超音波検査者がCTまたはMRI画像セット内に正確な解剖学的ランドマークを選択し、患者においてUSシステムを使って解剖学的ランドマークを表示することで、手動でレジストレーションを完了し、次いで、表示された画像内でランドマークの正しい場所を選択する。次いで、システムが2つの画像をレジストレーションする。このレジストレーションプロセスは、USシステムとCTまたはMRIスライスセットの両方を習得している放射線医師に適合される:このレジストレーションプロセスは、ユーザがCTまたはMRIスライスセットを理解している必要があり、ユーザがUSシステムを使用して要求された解剖学的領域の画像を表示できることを要する。
これは、手で制御されるUSプローブでは効率的であることが判明しているが、このアプローチはEUS環境で実装するのは不可能である。実際、EUSスコープを体の事前に決められたエリアにナビゲートすることは、専門家のスキルを必要とする深刻な困難を呈し、初心者にはガイダンスシステムが最も必要とされる。
文献US2015/0086956A1は、3Dおよび/または2Dの超音波画像が、患者の仮想画像および/またはCTもしくはMRIスキャン、または医療分野で使用される他の同様のイメージング技術と一緒に表示される、コレジストレーション(co-registration)およびナビゲーションシステムを含むデバイスを説明している。
このシステムは、事前にレジストレーションされたUSおよび放射線学的データに基づいて、オペレータのオフライントレーニングに有用である。これは、リアルタイムのレジストレーションのための技術的な解決策を提供するものではなく、特にEUSスコープのリアルタイムのナビゲーションには有用ではない。
文献US2019/0307516は、患者の領域を通して器具を導くためのシステムと、そのシステムを使用する方法を説明している。
それにもかかわらず、このシステムは、EUSスコープを所与の場所に導くことの難しさを克服するために適合されておらず、上述の技術的問題を解決していない。
米国特許出願公開第2015/0086956号明細書 米国特許出願公開第2019/0307516号明細書
本開示の目的は、画像融合に基づいて、初心者でも使えるEUSナビゲーションのための新規のガイダンスシステムを導入することによって、これらの限界を克服することである。
本発明の目的は、医療用ナビゲーションのためのシステムであって:
・リアルタイムの超音波信号および/またはビデオ信号を取得するように構成されたエコー内視鏡;
・エコー内視鏡の遠位端を空間的に追跡するように構成された追跡システムまたはデバイス;
・ユーザインターフェースおよびディスプレイ;
・患者の術前放射線学的データを含む計算および記憶手段
を含み:
・計算および記憶手段は、リアルタイムの術中データと術前放射線学的データとの間のレジストレーションを行うように構成されており、
・ディスプレイは、レジストレーションに基づいて、術前放射線学的データ内にリアルタイムの術中データビューを統合するナビゲーションビューをユーザに提供するように構成されている
ことを特徴とする。
本開示は、上記の難しさを克服し、EUS処置の術中ガイダンスを提供する技術的解決策を提示する。本開示の目的は、医療用ナビゲーションを提供する方法およびシステムを説明することである。
エコー内視鏡とは、超音波トランスデューサを含み、リアルタイムの超音波信号を取得するように適合された内視鏡を意味する。例えば、エコー内視鏡は、超音波画像を取得するように適合されている。また、エコー内視鏡は、リアルタイムの光学信号またはビデオ信号を取得するように構成されることもできる。
リアルタイムの術中データとは、エコー内視鏡の処置中に取得されたデータを意味する。リアルタイムの術中データは、内視鏡によって取得された超音波および/または光学データ、および/または追跡デバイスによって取得された追跡データを含み得る。
ユーザインターフェースおよびディスプレイとは、ユーザに情報を提供するのに適合され、およびユーザから情報またはコマンドを収集するのに適合されたインターフェースを意味する。
術前データとは、超音波内視鏡検査の前に取得されたデータを意味する。
放射線学的データとは、医療デバイスによって取得された画像またはその他の医療データを意味する。例えば、放射線学的データは、コンピュータ断層撮影(CT)画像、磁気共鳴画像(MRI)、またはポジトロン放出断層撮影(PET)画像などの3Dイメージングツールによって提供されることができる。
リアルタイムの術中データと術前放射線学的データとの間のレジストレーションとは、術中データと術前データの両方で、所与の解剖学的ランドマークまたは構造を識別することを意味する。
つまり、リアルタイムの術中データと術前データとの間のレジストレーションは、内視鏡または追跡システムの空間座標を患者の空間座標に変換する、空間座標の変換である。
ナビゲーションビューとは、術中データおよび/または術前放射線学的データの表現を意味する。本発明によるシステムによって行われるレジストレーションのおかげで、術中および術前のデータは同時に表示されることができる。
有利には、本発明による医療用ナビゲーションシステムは、臨床ワークフローの中断を最小限に抑えながら、効率的かつ信頼性の高い方法でこのようなレジストレーションを行う。
有利には、本発明による医療用ナビゲーションシステムは、熟練していないオペレータでも簡単に使用できる効率的なナビゲーションビューを表示する。本発明による医療用ナビゲーションビューは、熟練していないオペレータがエコー内視鏡を事前定義された解剖学的領域に向かってナビゲートすることを可能にする。
例えば、本発明によるシステムは、放射線学的データに対する超音波信号のリアルタイムの位置と配向を計算するように構成されている。つまり、システムは、内視鏡または追跡システムの空間座標系を患者の空間座標系に変換するように適合されており、超音波信号と放射線学的データのリアルタイムのレジストレーションを可能にする。
有利には、本発明による医療用ナビゲーションのためのシステムは、使用が容易であり、高度に熟練したオペレータを必要としない。
一実施形態によれば、本発明による医療用ナビゲーションシステムの計算および記憶手段は、第1のレジストレーション計算およびレジストレーション精密化を行うように構成されている。
また、本発明による医療用ナビゲーションのためのシステムは、個別に、またはその技術的に可能なすべての組み合わせに従って考慮される、以下の特徴の1つ以上を有し得る:
- 超音波信号は超音波画像である;
- 術中データは:エコー内視鏡によって取得された超音波信号、および/または、エコー内視鏡によって取得されたビデオ信号、および/または、追跡デバイスによって取得された追跡信号を含む;
- 計算手段は、術前放射線学的データに対する超音波信号のリアルタイムの位置および配向を計算するように構成されている;
- ディスプレイは、前記位置および配向に基づいて、術前放射線学的データ内に超音波リアルタイムビューを統合するナビゲーションビューをユーザに提供するように構成される;
- 追跡システムまたはデバイスは、追跡基準フレーム(reference frame)を定義し、前記追跡基準フレーム内の内視鏡の遠位端の位置および配向を提供するようにさらに構成される;
- 追跡システムは、電磁的追跡デバイスまたは光ファイバー追跡デバイスを含む;
- 追跡システムは、超音波信号中のランドマークを選択し、術前データ上で前記ランドマークを識別しマークする手段を含む;
- 計算および記憶手段は、超音波信号と術前データとの間でレジストレーションを行うように構成されており、前記レジストレーションは選択されたランドマークに基づく;
- レジストレーションは、1つの追加の解剖学的情報にさらに基づく;
- 追加の解剖学的情報は、解剖学的な軸またはランドマークを含む;
- 追加の解剖学的情報は、食道の位置および配向を含む;
- システムは、追跡デバイスによって追跡される、追跡されるポインタをさらに含む;
- システムは、第1のレジストレーション計算およびレジストレーション精密化を行うように構成される;
- システムは、解剖学的ランドマークの定位、患者の軸の識別、および少なくとも解剖学的ランドマークと少なくとも患者の軸とに基づくレジストレーションを含む第1のレジストレーション計算を行うように構成され、解剖学的ランドマークは内部または外部にある;
- システムは、超音波解剖学的ランドマークの定位、光学的ランドマークの定位、および超音波解剖学的ランドマークと光学的ランドマークとの間の局所的剛体(locally-rigid)アライメントを含むレジストレーション精密化を行うように構成される;
- 計算および記憶手段は、第1のレジストレーション計算およびレジストレーション精密化を行うように構成される;
- 計算および記憶手段は、外部の解剖学的ランドマークの定位、患者の軸の識別、および少なくとも外部の解剖学的ランドマークと少なくとも患者の軸とに基づくレジストレーションを含む第1のレジストレーション計算を行うように構成される;
- 計算および記憶手段は、超音波解剖学的ランドマークの定位、光学的ランドマークの定位、および超音波解剖学的ランドマークと光学的ランドマークとの間の局所的剛体アライメントを含むレジストレーション精密化を行うように構成される。
本発明の別の目的は、以下のステップ:
- エコー内視鏡を用いて、リアルタイムの超音波信号および/またはビデオ信号を取得するステップと;
- エコー内視鏡の遠位端を追跡するステップと;
- 患者の術前放射線学的データを受信し記憶するステップと;
- 術中データと術前放射線学的データとの間のレジストレーションを行うステップと;
- 前記レジストレーションに基づいて、術前放射線学的データ内にリアルタイムの術中データビューを統合するナビゲーションビューを表示するステップと
を含む、医療用ナビゲーションのための方法である。
本発明による医療用ナビゲーションのための方法は、個別に、またはその技術的に可能なすべての組み合わせに従って考慮される、以下のステップの1つ以上も含み得る:
- 超音波トランスデューサまたはエコー内視鏡を用いて、超音波信号または画像を取得するステップ;
- 超音波トランスデューサの遠位端を追跡するステップ;
- 術前放射線学的データに対する超音波信号または画像の位置および配向を計算するステップ;
- 前記位置と配向に基づいて、術前放射線学的データ内に超音波信号を統合するナビゲーションビューを表示するステップ。
- 方法は、超音波信号および術前放射線学的データをレジストレーションするステップを含み;
- レジストレーションステップは、第1のレジストレーション計算およびレジストレーション精密化を含み;
- 第1のレジストレーション計算は、解剖学的ランドマークの定位ステップと、患者の軸の識別ステップと、少なくとも解剖学的ランドマークと少なくとも患者の軸とに基づくレジストレーションステップとを含み、解剖学的ランドマークは外部または内部にあり;
- レジストレーション精密化は、超音波解剖学的ランドマークの定位ステップと、光学的ランドマークの定位ステップと、超音波解剖学的ランドマークと光学的ランドマークとの間の局所的剛体アライメントステップとを含み;
- 表示されたナビゲーションビューを用いてエコー内視鏡処置を行うステップ。
本発明の他の特徴および利点は、添付の図を参照して、指針的目的で、決して限定するものではない以下に与えられる説明から明らかになるであろう:
図1は、本発明による医療用ナビゲーションシステムの概略を示す図である。 図2は、本発明による医療用ナビゲーション方法の概略を示す図である。 図3は、本発明による方法の実現に関与する異なる空間座標系の概略を示す図である。 図4は、本発明による方法に含まれる初期レジストレーション計算ステップの概略を示す図である。 図5は、本発明による方法に含まれるレジストレーション精密化ステップの概略を示す図である。
図1を参照すると、本明細書で説明する医療用ナビゲーションのためのシステムは、エコー内視鏡EESと、エコー内視鏡の遠位端を空間的に追跡するように適合された追跡システムまたはデバイスと、ユーザインターフェースUIと、ディスプレイDと、少なくともアルゴリズムおよび患者の術前放射線学的データRDを含む計算ユニットCUおよび記憶ユニットSUとを含む。計算ユニットおよび記憶ユニットは、計算および記憶ユニットに融合されることもできる。エコー内視鏡EESは、超音波画像などの超音波信号を取得するように適合されている。システムは、術前放射線学的データに対するリアルタイムの超音波画像のライブ位置および配向を計算し、前記位置および配向に基づいて術前放射線学的データ内に超音波ライブビューを統合するナビゲーションビューをユーザに表示するように適合されている。
図2を参照すると、本明細書で説明する医療用ナビゲーション方法は:
- エコー内視鏡、エコー内視鏡の遠位端を空間的に追跡するように適合された追跡システムまたはデバイス、ユーザインターフェース、ディスプレイ、ならびに、少なくともアルゴリズムを含む計算および記憶手段を含む医療用ナビゲーションのためのシステムを提供するステップ;
- 患者の術前放射線学的データをインポートするステップSTO;
- 患者に対するエコー内視鏡処置を開始するステップACQ;
- 内視鏡の遠位端を追跡するステップTRA;
- 術前放射線学的データに対するライブ超音波画像のライブ位置および配向を計算するステップCOMP;
- 前記位置と配向に基づいて、術前放射線学的データ内に超音波ライブビューを統合するナビゲーションビューをユーザに表示するステップDISP;
- 表示されたナビゲーションビューを使用してエコー内視鏡処置を行うステップ
を含む。
本明細書で開示するシステムは、エコー内視鏡EESと、追跡基準フレームを定義し、この基準フレーム内で内視鏡の遠位端の3D位置および配向を提供する追跡デバイスまたはシステムとを備える。
追跡デバイスまたはシステムは、3D位置および配向のデータが計算CUおよび記憶SUユニットに送られ、計算CUおよび記憶SUユニットにより解釈され記憶されることができるような方法で、計算CUおよび記憶SUユニットと通信している。内視鏡の先端の形状と寸法が分かっているので、計算および記憶手段は、いずれかのライブ超音波画像に含まれる任意の点を、追跡基準フレーム内のこの点のライブ位置に関連付けるように構成されている。
本文書の残りの部分では、ユーザインターフェースを使用してライブUS画像内のポイントを選択し、計算および記憶ユニットに追跡基準フレーム内の選択されたポイントの位置を記録させることを、「US画像内のポイントを選択する」と呼ぶ。
異なる実施形態では、EESプローブの追跡方法は、電磁的性質(EM追跡)または別のタイプの追跡(すなわち、光ファイバー追跡)に基づいている。一実施形態によれば、追跡デバイスは、EM追跡デバイスまたは光ファイバー追跡デバイスを含む。
本発明の目的は、EUS処置の前に取得された3D放射線学的データに基づいて、ユーザが患者の生体構造をナビゲートするのを助けることにより、EUS処置中のガイダンスを提供するシステムを提供することである。EUS処置中、患者の体内であらかじめ決められた正確な場所にナビゲートするには、専門家のスキルが必要である。そのため、レジストレーションプロセスの一部として、ユーザが体内のあらかじめ決められた正確な場所にナビゲートすることを必要とするEUSのためのナビゲーションシステムを実装することは有用ではない。
ここで、レジストレーションプロセスに関するいくつかの実施形態について説明する。
一般的な一実施形態では、本明細書で説明する医療用ナビゲーションのためのシステムは、ユーザがユーザインターフェースを用いてEUS処置中にランドマークを選択し、次に術前放射線学的データ上で同等のランドマークを識別しマークする手段を備える。
一実施形態によれば、レジストレーションは2つのステップでなされ、各ステップ内で解剖学的ランドマークのマッチングが行われる。解剖学的ランドマークのマッチングは、オペレータにより手動で行われることができる。あるいは、ランドマークのマッチングは、計算および記憶手段によって行われる。
計算および記憶ユニットに記憶されたアルゴリズムが、レジストレーションを完了する。
すなわち、本発明によるシステムは、術前放射線学的データと、エコー内視鏡EESによって取得されたリアルタイムの超音波画像とをレジストレーションするようにさらに構成されている。
本実施形態によれば、本発明による医療用ナビゲーションのためのシステムは、追跡される超音波内視鏡EESと、ディスプレイDと、ユーザインターフェースUIと、計算ユニットCUとを備え、計算ユニットは、少なくともアルゴリズムと、患者の術前放射線学的データとを含み、システムは、ユーザが、ユーザインターフェースを用いて、患者に対する処置中のUS画像内のランドマークを選択し、ユーザインターフェースを用いて、患者の術前放射線学的データ内のマッチする解剖学的ランドマークの位置を選択するように構成されている。計算および記憶ユニットは、少なくとも1つのアルゴリズムによって2つの位置の間のレジストレーションを計算し、患者の術前放射線学的データの3D視覚化を計算し、患者の術前放射線学的データに対するUS画像のライブ位置および配向を計算し、術前放射線学的データの3D視覚化内に統合するライブビューと、術前スキャンの3D視覚化内の計算された位置および配向における患者のライブUS画像とをユーザに表示する。
本発明による医療用ナビゲーション方法は:
- 計算ユニットおよび追跡されるEUSプローブを含むガイダンスシステムを提供するステップ;
- 広い関心領域(region of interest)の患者の術前放射線学的データを記憶するステップ;
- US内視鏡を広い関心領域にナビゲートし、US画像と術前放射線学的データの両方で識別しやすいターゲット解剖学的ポイントを選択するステップ;
- 術前放射線学的データにおいてマッチするランドマークを選択するステップ;
- 追跡されるスコープの基準フレームと術前データセットの基準フレームとの間の剛体レジストレーションを計算するステップ;
- 術前放射線学的データの3D視覚化を計算するステップ;
- レジストレーション情報に基づいて、ライブUS画像を3D視覚化内に埋め込むステップ;
- 埋め込まれたUS画像とともに、術前放射線学的データの3D視覚化を表示するステップ
を含む。
別の一般的な実施形態では、レジストレーションプロセスは、ユーザによって選択されたランドマーク以外の追加の解剖学的情報を統合する。このような実施形態は、レジストレーションを高速化したりレジストレーションの精度を高めたりすることができるので興味深い。例えば、システムは、解剖学的構造の自動認識を使用することができる。追加の解剖学的構造の例は、食道である。
解剖学的構造またはランドマークの認識は、術中データを用いてなされ得る。術中データは、USデータ、光学データまたはビデオデータなどの内視鏡データ、および追跡デバイスからのデータを含む。
上部消化管エコー内視鏡検査の場合を考慮し、本実施形態を例示する。ここでのコンセプトは、レジストレーションの予備ステップとして解剖学的構造を自動的に認識することである。自動認識は、追跡デバイスのデータに基づく解剖学的形状の自動認識に基づき得る。自動認識は、ビデオ画像を用いた解剖学的ランドマークの認識に基づき得る。従属する実施形態では、計算および記憶ユニットは、術前放射線学的データ内の食道の位置および方向を自動的に識別し抽出するように適合された抽出アルゴリズムと、EUS処置中に、食道が内視鏡医によって探索される瞬間を識別することによって、ライブの食道の位置および配向を識別するように適合された認識アルゴリズムとを含む。食道の探索は、解剖学的および動作上の特徴に基づいて、処置の残りの部分から分離され、例えば:探索は処置の最初に起こり;変位は20cmの経路に沿って実質的に直線的である。
計算および記憶ユニットは、レジストレーションアルゴリズムを使用して、次いで、術前放射線学的スキャンから自動的に抽出された食道の方向を、処置中に識別されたライブの食道の位置および配向と共にマッチさせることにより、部分的なレジストレーションを行う。
次いで、本明細書に説明されている任意の他の実施形態に従ってレジストレーションが完了されることができる。このような実施形態は、形状、サイズ、および/または処置のタイミングの分離基準を適合させることによって、他の解剖学的構造に適用されることができることは、当業者には理解されるであろう。
別の実施形態では、計算および記憶ユニットは、術前放射線学的データ内のランドマークの位置および配向を自動的に抽出するように適合された抽出アルゴリズムと、EUS処置中に、ランドマークを含むビデオフレームを識別し、追跡デバイスの座標を記録することにより、ランドマークの位置および配向を識別するように適合されたビデオ認識アルゴリズムとを含む。計算および記憶ユニットは、レジストレーションアルゴリズムを使用して、次いで、術前放射線学的スキャンから抽出されたランドマークの方向および位置を、処置中に識別されたランドマークの位置および配向と共にマッチさせることにより、部分的なレジストレーションまたは第1のレジストレーション計算を行う。次いで、本明細書に説明されている任意の他の実施形態に従ったレジストレーション精密化ステップによって、レジストレーションが完了されることができる。
別の一般的な実施形態では、システムは、外部の患者ランドマークを使用してレジストレーションの一部を完了する手段を統合する。このような実施形態は、より迅速なレジストレーションをもたらす。そのような実施形態では、システムは、追跡デバイスによって追跡される、追跡されるポインタをさらに備える。ユーザは、ユーザインターフェースを用いて、術前放射線学的データから患者の身体の外部にあるランドマークの位置を選択し、次いで、追跡されるポインタを用いて対応するランドマークの位置を指し示すことができる。計算および記憶ユニットは、レジストレーションアルゴリズムを用いて、次いで、術前放射線学的データから選択されたランドマークの位置を、追跡されるポインタでマークされたランドマークの位置と共にマッチさせることによって、部分的なレジストレーションを行う。次いで、本明細書で説明する任意の他の実施形態に従って、レジストレーションが完了されることができる。
本明細書で説明した医療用ナビゲーションのためのシステムおよび方法は、EUSの専門家ではない内視鏡医により使用されることを意図している。これらのユーザは、典型的には、胃腸科医または外科医であり、典型的には、生のCTまたはMRI画像スライスを解釈し理解することに習熟しておらず、および/または、EUS USおよび/または内視鏡画像の視覚的解釈に高度には熟練していない。広く採用されている画像ファイル規格はほとんどなく、生のCTまたはMRI画像しかシステム間で交換されることができない。
一般的な一実施形態では、計算および記憶ユニットは、術前放射線学的生データの3D視覚化を計算するように適合された視覚化アルゴリズムを含み、それで、3D視覚化は、ユーザに表示され、ユーザがEUS処置中に少なくとも1つのランドマークを選択してレジストレーションを完了するようになっている。レジストレーションが完了すると、術前放射線学的生データの3D視覚化に埋め込まれたライブUS画像がユーザに表示される。術前放射線学的生データの3D視覚化に埋め込まれたライブUS画像は、以下ではナビゲーション視覚化と呼ばれる。
従属する一実施形態では、ナビゲーション視覚化は、スコープの先端から見た視点とマッチするように、リアルタイムで方向付けられる。
従属する一実施形態では、3D視覚化は、処置の開始時に計算され、3D視覚化のサブセットのみがユーザに表示される。
従属する一実施形態では、ナビゲーション視覚化は、現在イメージングされている3D視覚化のセクションを示すために、ライブUS画像の平面に沿って切断された、術前の放射線学的画像の3D視覚化を含む。
一般的な一実施形態では、ナビゲーション視覚化は、エコー内視鏡の遠位端に設置されたカメラによって記録されるライブ内視鏡ビューをさらに統合する。現在のシステムでのEUS処置中、内視鏡の先端の位置および配向は知られている。レジストレーションプロセス後には、術前放射線学的画像に対する内視鏡画像の位置および配向が知られている。かくして、ライブ内視鏡ビューは、術前放射線学的画像の3D視覚化内に現実的な位置および配向で埋め込まれることができる。
一般的な実施形態では、術前放射線学的データは、術前画像セット(CTまたはMR)、または術前画像(CTまたはMR)から自動的にセグメント化された3D皮膚表面モデル、またはセグメント化された術前3D画像(CTまたはMR)、または検査前に自動的に作られた3D皮膚表面モデル、または柔体(soft-body)変化に対処する生体力学的術前モデル(CTまたはMR)とすることができる。
一実施形態では、本方法はさらに、術前計画を立てるステップを含む。再構成されているか否かに関わらず、術前放射線学的データは、システムの入力として使用される前に、ユーザによってアノテートされたり、強化されたりする。このステップには、例えば、ユーザが、術前データを慎重に調べ、生検または切除される病変、およびレジストレーション目的で使用される解剖学的ランドマークなどの関連構造を識別することを可能にする。
一実施形態では、ユーザインターフェースは、ユーザが術前放射線学的データの表示をオンおよびオフすることを可能にする。ユーザ入力インターフェースは、例えば、カラーマップ、ラベルマップなどの異なる視覚化モード間を切り替える、透明度を調整する、表示されるセグメントモデルの一部を変更する、および視覚化の視点特徴(角度、ズームなど)を変化させるなど、術前放射線学的データの視覚化を修正するために使用されることもできる。当業者であれば、表示モードを識別することができる。
当業者は、当技術で知られている任意のタイプのEUSが、本明細書で説明する医療用ナビゲーションのためのシステムおよび方法に使用され得ることを認識するであろう。例えば、EUSプローブは、線形EUS、二次元EUS、または三次元EUS、および、放射状、正面または側方視EUSの間で変わり得る。
一実施形態によれば、医療用ナビゲーションのためのシステムは、以下のシステムとして説明されることができる:
患者の解剖学的ゾーンの内視鏡超音波検査処置中に、ガイダンスを、同じ患者の同じ解剖学的ゾーンの3D放射線学的スキャンが取得され、かくして術前放射線学的生データを生成した後に提供する、医療用ナビゲーションのためのシステムであって:
i)内視鏡超音波検査処置中にビデオ画像と超音波画像を生成する、超音波内視鏡を備えた超音波内視鏡システム
ii)ディスプレイおよびユーザインターフェース
iii)追跡基準フレームを定義し、この追跡基準フレーム内の超音波内視鏡の先端の3D位置および配向を提供する追跡デバイスまたはシステム
iv)計算および記憶手段
を含み、
前記計算および記憶手段は、「術前」放射線学的生データを取り出すように構成されており、前記超音波画像のいずれかに含まれる任意の点を前記追跡基準フレーム内の座標に関連付けるように構成されており、医療システムは、
i)術前放射線学的生データの3D視覚化を計算する、
ii)内視鏡超音波検査処置中に、ユーザが超音波画像内の少なくとも1つのランドマークの位置を選択しタグ付けするためのインターフェースを提供し、システムは、USランドマークの3D位置を、関連付けられたマークされた超音波画像と共に記憶する、
iii)ユーザが「術前」放射線学的生データまたは3D視覚化内に、少なくとも1つのランドマークの解剖学的位置を選択するためのインターフェースを提供する、
iv)術前放射線学的生データおよび追跡基準フレーム内のランドマークの位置に基づいて、「術前」放射線学的生データと追跡基準フレームとの間の空間的な対応を計算する
術前放射線学的生データの前記3D視覚化内にライブUS画像を統合するライブナビゲーションビューを計算しユーザにリアルタイムで表示し、ライブUS画像は、その実際のライブ位置および配向にマッチするように位置決めされ、方向付けられる
ように構成されていることを特徴とする。
図3は、本発明によるシステムおよび方法の適用に関与する異なる座標系を示す図である。
図3に基づいて、レジストレーションシステムおよび方法の実装について説明することが可能である。このシステムの目的は、難しい計算上の問題:臨床ワークフローの中断を最小限に抑えながらの高速で信頼性の高いレジストレーションを解決することである。
図3は、ソースデータs、患者p、内視鏡e、超音波画像u、光学画像o、追跡センサt、およびワールド座標wの間の座標変換の概略を説明する。ワールド座標は、追跡システムの座標系と定義される。本文書では、ソースデータ、術前データ、および術前放射線学的データは、同じデータを参照する。
以下の座標系の定義を使う:
ソースデータ座標:3Dソースデータは、コンピュータにより支援される処置のナビゲーションのためにレジストレーションされ視覚化される医療画像データである。3Dソースデータは、以下を含むが以下に限定されない3Dイメージングシステムによって生成される:
・コンピュータ断層撮影(CT)画像
・磁気共鳴(MR)画像
・ポジトロン放出断層撮影(PET)画像
3Dソースデータは、術前に診断検査中に取得されることも、術中にEUS処置中に取得されることもできる。ソースデータは、以下を含むが以下に限定されない1つ以上のプロセスを用いて、強化された視覚化のために前処理され得る:
・人間の専門家により計算されるか、またはAIベースのセグメンテーションシステムで自動的に計算された3Dセグメンテーション
・クロッピング、スケーリング、または強度ウィンドウ化などの画像変換
・患者座標で異なるソース画像を組み合わせる、ソースデータ融合
ワールド座標:ワールド座標を、内視鏡の追跡デバイスの座標系と定義する。追跡デバイスは、最低でも、リアルタイムのプローブ先端の6自由度(DoF)の3Dポーズ(回転と配向)をワールド座標系で作り出す必要がある。コンパチブルな追跡デバイスは、以下を含むが以下に限定されない:
・先端に埋め込まれた6DoFのEM追跡デバイスを有する内視鏡
・先端に6DoFのEM追跡デバイスを含み、スコープ内にEMセンサの埋め込まれたチェーンを有する内視鏡
・補助チャンネル遠位端に6DoFのEM追跡デバイスが固定されている内視鏡
・6DoFのEM追跡デバイスを内視鏡先端にキャップを用いて外部から取付けられた内視鏡
・埋め込まれた6DoFの光ファイバー追跡システムを有する内視鏡
・キネマティクスによりスコープ先端の位置が知られているロボット制御の内視鏡。
超音波座標:これは、内視鏡の超音波画像の座標フレームである。
光学的座標:これは、内視鏡の光学画像の座標フレームである。
追跡センサ座標:これは、内視鏡の先端にある追跡センサの座標フレームである。
患者座標:これは、すべてのデータがレジストレーションされた標準的な座標フレームである。患者座標には3つの主要な軸:前/後、左/右、上/下軸がある。
以下の変換が知られており、レジストレーションプロセスに対する外部プロセスで計算されることができる:
- 内視鏡から追跡センサへの変換(Te,t)。一般性を失うことなく、内視鏡の座標を追跡センサの座標と同じと定義する、つまり(Te,t)は恒等変換である。これは、追跡センサが内視鏡の先端に対して硬く固定されており、したがって、経時的に変化しないことを想定しているから可能である。
- 内視鏡から超音波画像への変換(Te,u)。内視鏡先端は剛性であるため、これは経時的に変化せず、例えば手と目のキャリブレーション[プラスツールキット]のような1回限りの外部キャリブレーションプロセスで計算される。
- 内視鏡から光学画像への変換(Te,o)。内視鏡の先端は剛性であるため、これは経時的に変化せず、例えば手と目のキャリブレーション[X]のような1回限りの外部キャリブレーションプロセスで計算される。
- 追跡センサからワールドへの変換(Tt,w)。これは追跡センサによって提供される。上記の変換とは異なり、これは時間的に変化し、3D追跡システムによって提供される。
- ソースデータから患者への変換(Ts,p)。患者は仰向けの状態でソースデータにイメージングされると想定しており、つまり、患者の軸はスキャナの軸とほぼ整列している。圧倒的に多くの場合において、これが生じる。ソース画像が1枚のとき、ソースデータおよび患者の座標は同じと定義する。多数のソース画像(例えばMRおよびCT)があるときは、これらはコレジストレーションを必要とする。
知られていない座標変換は、時間的に変わる内視鏡から患者への変換である。これは、内視鏡からワールドへの変換(知られている)を、ワールドから患者への変換(Tw,p:知られていない)と合成することによって決定される。本発明によるレジストレーションプロセスは、臨床ワークフローの中断を最小限に抑えてTw,pを計算するための、新規で高速かつ信頼性の高い解決策を与える。
一実施形態によれば、レジストレーションステップは、2つのさらなるステップを含む:
初期レジストレーション計算。このプロセスは、外部または内部の解剖学的ランドマークおよび患者の軸情報を使用して、第1のワールドから患者への変換を計算する。
レジストレーション精密化。このプロセスは、処置中に識別された内部の解剖学的または病理学的なランドマークからの情報を使用して更新することにより、初期レジストレーションを改善する。
これらのプロセスを詳細に説明する。まず、様々な物理的および仮想的なエンティティを定義する:
患者グラフィカルユーザインターフェースPGUI:患者座標でのすべての関連情報(ソースデータ、内視鏡、超音波および光学画像)のインタラクティブな融合イメージングのバーチャルリアリティ表示のためのソフトウェアコンポーネント。NGUIは、後述するインタラクティブなレジストレーションのためのレジストレーション中に使用される。
ピッカーデバイス:外部の解剖学的ランドマークをワールド座標に定位させるために使用される、尖った先端を有するハンドヘルドデバイス。これは、3D追跡システムによって提供される専用のピッカーデバイスの場合もあれば、内視鏡の先端の場合もある。内視鏡をピッカーデバイスとして使用する利点は、手術室での追加のデバイスを除去することであるが、専用のピッカーデバイスに比べて低い精度という代償を払う。
外部の解剖学的ランドマークEAL:処置中にソースデータと患者の外面の両方で繰り返し配置され得る解剖学的ランドマーク。腹部の処置では、良いEALは呼吸運動やその他の生理的な動きに対して比較的安定しているものである。これらは、胸骨体および胸骨基部などを含むが、これらに限定されるものではない。
超音波解剖学的ランドマークUAL:処置中にソースデータおよびEUS超音波画像の両方で配置され得る解剖学的ランドマーク。腹部の処置では、我々の可能なUALは、噴門、胃食道(esophigal)接合部、十二指腸乳頭、膵頭部、膵尾部、大動脈、および大動脈/腹腔動脈接合部などを含むが、これらに限定されない。
光学解剖学的ランドマークOAL:処置中にソースデータおよび内視鏡の光学画像の両方で配置され得る解剖学的ランドマーク。腹部の処置では、我々のOALは噴門および十二指腸乳頭を含むが、これらに限定されない。
解剖学的ランドマークAL:EAL、UALおよびOALを含む。
術中EAL、UALおよびOAL位置:それぞれの座標系(それぞれ、ワールド、超音波画像および光学画像)で定義された、EAL、UALまたはOALの3D位置。
術中EAL、UALおよびOAL共分散マトリックス:EAL、UALまたはOAL位置の信頼性の評価。これは3×3の共分散マトリックスを用いて実装され、共分散マトリックス中の値が大きいほど、ランドマークの位置の不確実性が高いことを示す。
ソース解剖学的ランドマーク(SAL)位置:ソースデータに配置されたEAL、UALまたはOALの3D位置であり、ソースデータ座標で定義されている。
SAL共分散行列:SAL位置の信頼性の評価。これは3×3の共分散マトリックスを用いて実装される。
畳み込みニューラルネットワーク(CNN):畳み込みパターンで構成されたニューロンを有する人工ニューラルネットワークの良く知られたタイプ。
図4に、初期レジストレーションステップまたは計算が示されている。初期レジストレーションは、以下の3つのステップを含む。
解剖学的ランドマークの定位-AL‐L。このステップの目的は、ソースデータとワールド座標のマッチする解剖学的ランドマークALのセットを決定することである。ワールド座標の外部のランドマークについては、ピッキングデバイスまたはピッカーデバイスが使用される。ソースデータ座標の内部または外部のランドマークについては、以下のメカニズムのいずれかを使用してランドマークが配置される。
- 手動定位。これらはPGUIを使用する人間のオペレータを使って決定される。
- 自動的に配置されたAL。これらは、ソースデータ内の解剖学的ランドマークを自動的に定位することができるAIシステム、典型的にはCNN、を使用して決定される。手動定位と比較して、主な利点は低減したワークフローの中断である。
自動的に配置されたEALは、PGUI上で人間のオペレータに対して視覚化され、人間のオペレータはそれらの正しさを検証する。正しくないと判断された場合は、人間のオペレータは手動定位でそれらを再配置することができる。
患者の軸の識別-PA‐ID。マッチしたEALが3つ以上ある場合、特異値分解(SVD)を用いたランドマークの剛体アライメントを用いて、ワールドから患者への変換を推定することが可能である。しかし、これは、定位に必要な時間、および3つの安定したランドマークを見つけることの難しさのため、望ましくない。この難しさを解決するために、より少ないEALを許して(少なくとも1つは必要)、追加の患者の軸情報によりこれを補完している。EALの数がより少ないと、ワールドから患者への変換を解決するために、より多くの軸情報が必要になる。
EALの数と、ワールドから患者への座標変換を一意に計算するために決定されなければならない必要な患者の軸の数との関係は以下の通りである。3つのEALがマッチした場合、必要な患者の軸の数は0である。2つのEALがマッチした場合、1つの患者の軸が必要である。1つのEALがパッチされた場合、2つの患者の軸が必要である。
ここで、1つのEALを所与として患者の軸を決定するための我々のアプローチについて説明する。仰臥位に基づいた2つの場合を考慮する。
患者のテーブルの法線ベクトルが後/前軸と対応するという事実を利用する。したがって、この軸を決定するためには、患者のテーブルの法線ベクトルを決定する必要がある。一般的には、人間のオペレータがピッキングデバイスを使って、患者のテーブル上の同一直線上にない3点に触れることでこれを計算する。これらの点からSVDを使って平面の法線が計算される。EM追跡デバイスを使用する特殊な場合では、追跡デバイスのフィールドジェネレーターが患者のテーブル上、または患者のテーブルに平行な面上に配置されることを仮定して、さらにシンプルな解決策が得られる。これがなされると、追跡デバイスシステムの軸の1つによって後/前軸が直ちに与えられる。
次いで、上/下軸を計算する。これに対する2つの解決策を、非常にシンプルなオペレータのワークフローで説明する。オペレータはどちらの解決策を選好するか自由に選べる。
解決策1:軸のトレーシング
人間のオペレータは、ピッキングデバイスを使って胸骨を下へとラインをトレースする。これが、胸骨に沿った一連の3Dポイントを生成し、これを患者のテーブル面に仮想的に投影して、仮想テーブル面に2Dポイントのパスを形成する。最後に、ロバストなラインフィッティングアルゴリズムが用いられて、2Dポイントを通過するベストフィッティングラインを推定し(RANSAC)、このラインの方向が上/下軸を与える。
解決策2:内視鏡先端のアライメント
人間のオペレータは、USプローブを上/下軸と整列させ、内視鏡の先端を患者の胸骨の上に置く。一度だけ、追跡デバイスを用いて内視鏡の3D位置が記録され、US画像面の3D位置がワールド座標で決定される。最後に、US画像面をテーブル面と交差させることにより、上/下軸が決定される。
変換計算
次いで、左/右の患者の軸は、後/前軸と上/下軸の外積により計算される。EALと3つの患者の軸を所与として、ワールドから患者への座標変換(6DoFs)を計算するのに十分な情報(6つの幾何学的方程式)がある。これをHornの絶対配向アルゴリズムを用いて計算する。
ほとんどの場合、ソースデータは患者が仰向けの状態で取得されており、そのため患者の軸は画像座標系と整列している。患者が仰向けでスキャンされない特殊な場合では、2つのメカニズムのうちの1つによって軸が決定される。第1は、NGIを使用する人間のオペレータにより、3つの主要な軸のうち2つに対応する3Dベクトルをソースデータにインタラクティブに描くことである。このデータから、ベクトルの外積を使って第3の軸が自動的に決定されることができる。第2のメカニズムは、CNNなどに基づく訓練されたAIシステムを使って軸を計算することである。EAL‐Lまたはコンポーネント1と同様に、これの視覚化が、結果を検証する人間のオペレータに提供される。
非仰向けの場合は、EUSプローブがGI管に入る際のEUSプローブからの追跡データを用いて患者の軸を決定する。具体的には、EUSプローブの先端が食道を通って胃に到達するまでのEUSプローブの3D位置を経時的に記録する。これが、ワールド座標上の点の3Dチェーンを生成する。ソースデータでは、食道の中心軸が、PGUIを使って手動で、またはAI認識システムを使って自動的に決定される。これが、患者座標での点の3Dチェーンを提供する。最後に、ポイントチェーンと少なくとも1つの外部のランドマーク(胸骨基部など)を用いて、ロバストな線形最小二乗法によるポイントとパスのアライメントを用いてレジストレーションを行う。
初期レジストレーションは、粗いアライメントを提供し、典型的には、膵臓のように呼吸運動で大きく動かない臓器では、2cm未満の精度になる。全地球測位システム(GPS)のような用途ではこれで十分である場合があり、意図しているのはEUS内視鏡の位置と配向を患者座標で大まかな視覚化を与えるだけである。より精密なレジストレーションが望まれるときは、レジストレーション精密化システムが実行される。
図5は、レジストレーション精密化ステップまたは手順を示している。
レジストレーション精密化は3つのステップを含む:超音波解剖学的ランドマークマッチングUAL‐M、光学解剖学的ランドマークマッチングOAL‐M、および局所的剛体アライメントLORA。
超音波解剖学的ランドマークマッチングUAL‐M:処置中にUALに遭遇したとき(例えば上記の定義を参照)、それが定位され、レジストレーションを改善するために使用されることができる。定位は、手動定位(人間がPGUIを使ってUS画像内のランドマーク場所をマークする)でなされることもできる。あるいは、US映像中のUALを自動的に認識するAIシステムによって提供される自動定位でなされることも可能である。ランドマークの位置に加えて、ランドマークの位置に対する信頼度の量を決定する信頼度マトリクスも提供される。手動定位の場合は、これは、PGUIを使ってランドマークの周りにゾーンをマークして信頼度を示することによりなされる。自動定位の場合は、ランドマークの位置と同時に信頼度マトリックスが機械により出力される。
UALが定位されると、それは次いでソースデータ(ソース解剖学的ランドマーク)に定位される。UALと同様に、SALはPGUIを使って手動で決定されるか、またはAIランドマーク認識システムを使って自動的に決定される。
光学解剖学的ランドマークマッチングOAL‐M:UAL‐Mと同様に、内視鏡の光学画像を使ってランドマークが配置されることができる。プロセスはUAL‐Mと同様である。
局所的剛体アライメントLORA:このステップの目的は、UAL‐MおよびOAL‐Mのステップでマッチしたすべてのランドマークを使用して、経時的に変わるレジストレーションマトリックスを自動的に計算することである。また、初期レジストレーションで使用された固定のマッチしたランドマークのセットも使用される。レジストレーションマトリクスは、数値最適化プロセスを解くことによって計算される。レジストレーションは、2つの特徴を持つ剛体3Dマトリックスとして計算される:
1.より高い信頼度のランドマークの影響は、より低い信頼度のランドマークに比べて、レジストレーションマトリックスにより大きな影響を与える。
2.内視鏡の現在の位置に近いランドマークの影響は、レジストレーションマトリクスにより大きな影響を与える。これが、遠くのランドマークの生理的な動きがレジストレーションマトリクスにより小さい影響を与えることを可能にする。
次に、最適化プロセスが行われる。具体的には、数値的な損失関数として実装された、上記の両方の性質を持つレジストレーションマトリクスを見つけることを目的とした数値探索問題を作成する。1を満たすためには、ランドマークの信頼度マトリックスを用いて、マッチした各ランドマークのジェンソン-シャノンダイバージェンスを最小化するレジストレーションマトリックスを探索する。2を満たすためには、ワールド座標における内視鏡の現在の3D位置に対する各ランドマークの距離に基づいて、指数的な重み付けを用いて損失関数を重み付けする。

Claims (14)

  1. 医療用ナビゲーションのためのシステムであって、
    ・リアルタイムの超音波信号および/またはビデオ信号を取得するように構成されたエコー内視鏡、
    ・エコー内視鏡の遠位端を空間的に追跡するように構成された追跡システム、
    ・ユーザインターフェースおよびディスプレイ、
    ・患者の術前放射線学的データを含む計算および記憶手段
    を含み、
    ・計算および記憶手段が、リアルタイムの術中データと術前放射線学的データとの間のレジストレーションを行うように構成されており、
    ・ディスプレイが、前記レジストレーションに基づいて、術前放射線学的データ内にリアルタイムの術中データビューを統合するナビゲーションビューをユーザに提供するように構成されている
    ことを特徴とする、システム。
  2. システムが、第1のレジストレーション計算およびレジストレーション精密化を行うように構成されていることを特徴とする、請求項1に記載の医療用ナビゲーションのためのシステム。
  3. システムが、解剖学的ランドマークの定位、患者の軸の識別、および少なくとも解剖学的ランドマークと少なくとも患者の軸とに基づくレジストレーションを含む第1のレジストレーション計算を行うように構成されることを特徴とする、請求項2に記載の医療用ナビゲーションのためのシステム。
  4. システムが、超音波解剖学的ランドマークの定位、光学的ランドマークの定位、および超音波解剖学的ランドマークと光学的ランドマークとの間の局所的剛体アライメントを含むレジストレーション精密化を行うように構成されることを特徴とする、請求項2または3に記載の医療用ナビゲーションのためのシステム。
  5. 追跡システムが、電磁的追跡デバイスまたは光ファイバー追跡デバイスを含むことを特徴とする、請求項1から4のいずれか一項に記載の医療用ナビゲーションのためのシステム。
  6. システムが、超音波信号中のランドマークを選択し、術前データ上で前記ランドマークを識別してマークするように構成された手段を含むことを特徴とする、請求項1から5のいずれか一項に記載の医療用ナビゲーションのためのシステム。
  7. 計算および記憶手段が、超音波信号と術前データとの間でレジストレーションを行うように構成されており、前記レジストレーションが選択されたランドマークに基づくことを特徴とする、請求項6に記載の医療用ナビゲーションのためのシステム。
  8. 計算および記憶手段が、1つの追加の解剖学的情報にさらに基づいてレジストレーションを行うように構成されていることを特徴とする、請求項1から7のいずれか一項に記載の医療用ナビゲーションのためのシステム。
  9. 追加の解剖学的情報が、食道の位置および配向を含むことを特徴とする、請求項8に記載の医療用ナビゲーションのためのシステム。
  10. - エコー内視鏡を用いて、リアルタイムの超音波信号および/またはビデオ信号を取得するステップと、
    - エコー内視鏡の遠位端を追跡するステップと、
    - 患者の術前放射線学的データを受信し記憶するステップと、
    - 術中データと術前放射線学的データとの間のレジストレーションを行うステップと、
    - 前記レジストレーションに基づいて、術前放射線学的データ内にリアルタイムの術中データビューを統合するナビゲーションビューを表示するステップと
    を含むことを特徴とする、医療用ナビゲーションのための方法。
  11. レジストレーションを行うステップが、超音波信号と術前放射線学的データとの間のレジストレーションを含むことを特徴とする、請求項10に記載の医療用ナビゲーションのための方法。
  12. レジストレーションを行うステップが、第1のレジストレーション計算およびレジストレーション精密化を含むことを特徴とする、請求項10に記載の医療用ナビゲーションのための方法。
  13. 第1のレジストレーション計算が、解剖学的ランドマークの定位ステップと、患者の軸の識別ステップと、少なくとも解剖学的ランドマークと少なくとも患者の軸とに基づくレジストレーションステップとを含むことを特徴とする、請求項12に記載の医療用ナビゲーションのための方法。
  14. レジストレーション精密化が、超音波解剖学的ランドマークの定位ステップと、光学的ランドマークの定位ステップと、超音波解剖学的ランドマークと光学的ランドマークとの間の局所的剛体アライメントステップとを含むことを特徴とする、請求項12または13に記載の医療用ナビゲーションのための方法。
JP2021541277A 2019-01-18 2020-01-17 医療用ナビゲーションのためのシステムおよび方法 Pending JP2022517807A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962793963P 2019-01-18 2019-01-18
US62/793,963 2019-01-18
PCT/EP2020/051193 WO2020148450A1 (en) 2019-01-18 2020-01-17 System and method for medical navigation

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024091991A Division JP2024125310A (ja) 2019-01-18 2024-06-06 医療用ナビゲーションのためのシステムおよび方法

Publications (1)

Publication Number Publication Date
JP2022517807A true JP2022517807A (ja) 2022-03-10

Family

ID=69182524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021541277A Pending JP2022517807A (ja) 2019-01-18 2020-01-17 医療用ナビゲーションのためのシステムおよび方法

Country Status (4)

Country Link
US (1) US20220079557A1 (ja)
EP (1) EP3911262A1 (ja)
JP (1) JP2022517807A (ja)
WO (1) WO2020148450A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220317294A1 (en) * 2021-03-30 2022-10-06 GE Precision Healthcare LLC System And Method For Anatomically Aligned Multi-Planar Reconstruction Views For Ultrasound Imaging
AU2022299436A1 (en) * 2021-06-22 2023-12-07 Boston Scientific Scimed, Inc. Systems and methods utilizing machine-learning for in vivo navigation

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030165794A1 (en) * 2000-07-19 2003-09-04 Kazunari Matoba Identification type instrument assembly, identification type adapter, identification type tube, and medical apparatus using them
JP2007268259A (ja) * 2006-03-21 2007-10-18 Biosense Webster Inc 局所的に重み付けされた適合化を使用する画像位置合わせ
JP2008005923A (ja) * 2006-06-27 2008-01-17 Olympus Medical Systems Corp 医用ガイドシステム
US20090287089A1 (en) * 2008-01-31 2009-11-19 The University Of Vermont And State Agriculture College Methods, devices and apparatus for imaging for reconstructing a 3-D image of an area of interest
JP2014176431A (ja) * 2013-03-13 2014-09-25 Toshiba Corp 超音波診断装置及び位置合わせプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012172474A1 (en) * 2011-06-17 2012-12-20 Koninklijke Philips Electronics N.V. System and method for guided injection during endoscopic surgery
US20150086956A1 (en) 2013-09-23 2015-03-26 Eric Savitsky System and method for co-registration and navigation of three-dimensional ultrasound and alternative radiographic data sets
US10548666B2 (en) * 2015-11-17 2020-02-04 Covidien Lp Systems and methods for ultrasound image-guided ablation antenna placement
US20190307516A1 (en) 2018-04-06 2019-10-10 Medtronic, Inc. Image-based navigation system and method of using same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030165794A1 (en) * 2000-07-19 2003-09-04 Kazunari Matoba Identification type instrument assembly, identification type adapter, identification type tube, and medical apparatus using them
JP2007268259A (ja) * 2006-03-21 2007-10-18 Biosense Webster Inc 局所的に重み付けされた適合化を使用する画像位置合わせ
JP2008005923A (ja) * 2006-06-27 2008-01-17 Olympus Medical Systems Corp 医用ガイドシステム
US20090287089A1 (en) * 2008-01-31 2009-11-19 The University Of Vermont And State Agriculture College Methods, devices and apparatus for imaging for reconstructing a 3-D image of an area of interest
JP2014176431A (ja) * 2013-03-13 2014-09-25 Toshiba Corp 超音波診断装置及び位置合わせプログラム

Also Published As

Publication number Publication date
US20220079557A1 (en) 2022-03-17
EP3911262A1 (en) 2021-11-24
WO2020148450A1 (en) 2020-07-23

Similar Documents

Publication Publication Date Title
US11426254B2 (en) Method and apparatus for virtual endoscopy
US10229496B2 (en) Method and a system for registering a 3D pre acquired image coordinates system with a medical positioning system coordinate system and with a 2D image coordinate system
US20190320876A1 (en) Apparatus and Method for Four Dimensional Soft Tissue Navigation in Endoscopic Applications
JP6509906B2 (ja) 医療機器の作動方法
US6996430B1 (en) Method and system for displaying cross-sectional images of a body
CN109998678A (zh) 在医学规程期间使用增强现实辅助导航
CN107106241B (zh) 用于对外科器械进行导航的系统
US11026747B2 (en) Endoscopic view of invasive procedures in narrow passages
CN109124766A (zh) 利用轨迹信息与形状感测来改进配准
US20130245461A1 (en) Visualization of Anatomical Data by Augmented Reality
US20080234570A1 (en) System For Guiding a Medical Instrument in a Patient Body
JP2020522827A (ja) 外科ナビゲーションにおける拡張現実の使用
JP2016511049A (ja) デュアルデータ同期を用いた解剖学的部位の位置の再特定
JP2007531553A (ja) 術中ターゲティングのシステムおよび方法
US10951837B2 (en) Generating a stereoscopic representation
CN109833092A (zh) 体内导航系统和方法
JP2022517807A (ja) 医療用ナビゲーションのためのシステムおよび方法
WO2023129562A1 (en) Systems and methods for pose estimation of imaging system
JP2024125310A (ja) 医療用ナビゲーションのためのシステムおよび方法
WO2020181498A1 (zh) 体内导航系统和方法
CN118695821A (zh) 用于将术中图像数据与微创医疗技术集成的系统和方法
EP4329581A1 (en) Method and device for registration and tracking during a percutaneous procedure

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231031

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240213