JP6745879B2 - 身体部内の超音波プローブを追跡するためのシステム - Google Patents

身体部内の超音波プローブを追跡するためのシステム Download PDF

Info

Publication number
JP6745879B2
JP6745879B2 JP2018526762A JP2018526762A JP6745879B2 JP 6745879 B2 JP6745879 B2 JP 6745879B2 JP 2018526762 A JP2018526762 A JP 2018526762A JP 2018526762 A JP2018526762 A JP 2018526762A JP 6745879 B2 JP6745879 B2 JP 6745879B2
Authority
JP
Japan
Prior art keywords
ultrasound
image
probe
ray image
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018526762A
Other languages
English (en)
Other versions
JP2018535019A5 (ja
JP2018535019A (ja
Inventor
フランク ミカエル ウェーバー
フランク ミカエル ウェーバー
ニルス ナイホフ
ニルス ナイホフ
ユルゲン ウェイス
ユルゲン ウェイス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2018535019A publication Critical patent/JP2018535019A/ja
Publication of JP2018535019A5 publication Critical patent/JP2018535019A5/ja
Application granted granted Critical
Publication of JP6745879B2 publication Critical patent/JP6745879B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/12Devices for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4417Constructional features of apparatus for radiation diagnosis related to combined acquisition of different diagnostic modalities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/547Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0883Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4263Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors not mounted on the probe, e.g. mounted on an external reference frame
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4416Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to combined acquisition of different diagnostic modalities, e.g. combination of ultrasound and X-ray acquisitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • A61B6/487Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Description

本発明は、身体部内の超音波プローブの位置を追跡するためのシステム、及び身体部内の超音波プローブの位置を追跡するための方法、並びにコンピュータプログラム要素及びコンピュータ可読媒体に関する。
経食道エコー(TEE)X線一体型システムは、介入性手順を支援する。TEEでは、患者の食道に通される超音波プローブが利用されるが、経胸壁超音波画像と比べて信号減衰が少ないために鮮明な画像が得られる。TEEは、食道の近くに心臓が位置しているので、特に心臓の超音波画像に適している。現在、TEE/X線一体型システムでは、TEEプローブがX線で位置特定され、TEEプローブの位置及び配向がX線画像により決定される。しかし、TEEプローブは、X線画像を連続して取得しなければ、又は追加の追跡デバイスを使用しなければ、追跡することができない。
R.J.HousdenらのUltrasound in Med. & Biol.、Vol.39、No.6、993〜1005頁、2013年には、画像ベースのX線プローブ追跡を使用する拡張視野三次元経食道エコー法が記載されている。
身体部内の超音波プローブの位置を追跡するための改善された技法があれば有利である。
本発明の目的は、独立請求項の主題によって解決され、さらなる実施形態が従属請求項に組み込まれている。下記の本発明の態様はまた、身体部内の超音波プローブの位置を追跡するためのシステム、身体部内の超音波プローブの位置を追跡するためのワークステーション、身体部内の超音波プローブの位置を追跡するための方法、並びにコンピュータプログラム要素及びコンピュータ可読媒体にも適用されることに留意されたい。
第1の態様によれば、身体部内の超音波プローブの位置を追跡するためのシステムが提供され、このシステムは、
超音波プローブ、
X線画像取得ユニット、及び
処理ユニット
を含む。
X線画像取得ユニットは、超音波プローブが位置付けられている身体部の一部のX線画像を取得するように構成される。処理ユニットは、身体部の一部内の超音波プローブの第1の幾何学的位置情報を、X線画像を利用して決定するように構成される。超音波プローブは、身体特徴部を含む少なくとも1つの超音波画像を取得するように構成され、この少なくとも1つの超音波画像は、身体部の一部のX線画像の取得時点よりも後の時点に取得される超音波画像を含む。処理ユニットはまた、後の時点における身体部内の超音波プローブの第2の幾何学的位置情報を、第1の幾何学的位置情報と、身体特徴部を含む少なくとも1つの超音波画像とを利用して決定するように構成される。任意選択で、システムは、超音波プローブの第2の幾何学的位置情報を表すデータを出力するように構成されている出力ユニットを含む。言い換えると、追跡を第1及び第2の幾何学的位置情報に基づいて処理ユニット自体によって効果的に行うことができるので、システムはデータを出力しなくてもよい。
言い換えると、身体部内の超音波プローブの位置(場所及び配向)は、X線画像により決定することができ、超音波プローブと心臓などの身体特徴部との間の相対位置は、X線画像及び/又は超音波画像により決定することができる。もっと後の超音波画像に基づいて、超音波画像と身体特徴部の間の相対位置を決定することができ、これにより、超音波プローブの新しい位置(場所及び配向)を決定することができる。
別の言い方をすると、システムは、たとえば経食道エコー(TEE)超音波プローブである超音波プローブをTEE/X線一体型システムにおいて追跡することができる。別の言い方をすると、超音波プローブが間接的に、超音波画像自体を介して追跡される。
このようにして、X線画像を使用して、身体部内の超音波プローブの位置を決定すること、並びに、たとえば心臓などの身体部及び身体部内の特徴又は特徴部に対するプローブの場所及び/又は配向を決定することができる。次に、もっと後の時点で超音波プローブによって取得された超音波画像を使用して、たとえば心臓などの身体部及び身体部内の特徴又は特徴部に対する超音波プローブの相対位置を決定することができる。場所及び配向などの、X線画像によって決定されたような位置情報と、もっと後の時点で取得された超音波画像によって決定されたような相対位置情報とについての知識を用いて、超音波プローブの場所及び配向などの位置情報を後の時点に決定することができる。言い換えると、超音波プローブの位置を追跡するのにX線画像を使用するのではなく少なくとも1つの超音波画像を使用することによって、X線吸収線量が低減され、外部追跡システムが不要になる。別の言い方をすると、X線画像取得ユニットがオフにされたときに、超音波プローブによって取得された少なくとも1つの超音波画像、及び最後に取得されたX線画像を間接的に使用して、超音波プローブの位置を追跡することができる。
一例では、身体特徴部を含む少なくとも1つの超音波画像は、その身体特徴部を含む少なくとも2つの超音波画像を含み、超音波プローブは、その身体部の一部のX線画像の取得時点と実質的に同じ時点に超音波画像を取得するように構成される。言い換えると、処理ユニットは、第1の幾何学的位置情報と、X線画像の取得と実質的に同じ時点に取得された身体特徴部を含む超音波画像と、X線画像の取得の時点よりも後の時点に取得された身体特徴部の超音波画像とを利用して、後の時点における身体部内の超音波プローブの第2の幾何学的位置情報を決定するように構成される。
このようにして、X線画像を使用して身体部内の超音波プローブの位置を決定することができる。実質的に同じ時点に取得された身体特徴又は身体特徴部の超音波画像は、超音波プローブと既知の場所から取得された身体特徴部との間の相対位置についての情報を提供する。次に、身体特徴又は身体特徴部の後続の超音波画像が、異なる場所及び/又は配向などの、超音波プローブと異なる位置から取得された身体特徴との間の相対位置についての情報を提供する。2つの超音波画像間での身体特徴の超音波画像の変化を用いて、超音波プローブの位置の変化を場所及び/又は配向の変化の点から決定することができる。X線画像によって決定されたように元の既知の場所及び/又は配向を再び参照することによって、超音波プローブの新しい場所及び/又は配向を決定することができる。
言い換えると、超音波プローブを移動及び/又は回転させるとまた、以前に取得された超音波画像に対して、現在取得されている超音波画像中の心臓などの身体特徴部の位置が移動及び/又は回転する。こうすることにより、現在のプローブの場所及び/又は配向(又は回転位置)を推定することが可能になる。一例では、心臓などの身体特徴部の動きが最初の近似で無視されてよく、又は除去若しくは低減される。このようにして、推定された超音波プローブの場所及び/又は配向により、超音波プローブの実際の位置の放射線なし近似が得られる。
言い換えると、超音波プローブの場所及び配向をX線画像から決定し、同時に、超音波画像を超音波プローブにより取得することによって、大域的及び解剖学的なコンテキスト及び空間の情報を決定することが可能になる。
このようにして、超音波プローブは、継続的なX線照射被曝の必要なしに、又は追加の追跡デバイスを使用する必要なしに、継続して追跡することができる。
一例では、X線画像取得ユニットは、処理ユニットが、第1の幾何学的位置情報及び第2の幾何学的位置情報の関数としてのある閾値が超えられたと決定する場合に、超音波プローブが位置付けられている身体部の一部の第2のX線画像を取得するように構成される。
言い換えると、超音波プローブのx、y、及びz座標に関する場所及び/又は角度回転(若しくは配向)が、以前のX線画像によって決定されて以来、閾値レベルよりも大きく変化した場合には、超音波プローブの場所及び/又は配向の正確な決定を行うために、新しいX線画像が取得される。
別の言い方をすると、超音波画像自体に基づいて決定された超音波プローブの場所及び/又は配向は、動きの閾値に到達したときに、X線画像によって増強することができる。この閾値は、超音波プローブの推定された場所及び/又は配向がエラーの影響を受けやすいことを示すこともあり、その場合、X線画像を取得することが、超音波プローブの正確な場所及び/又は配向を得ることに役立つ。次に、超音波プローブの場所及び/又は配向は、少なくとも1つの超音波画像を使用して追跡することができ、これは、取得されるX線画像の数を最小限にしてX線照射を低減することができ、追加の追跡機器が使用されることはないが、超音波プローブの場所及び/又は配向は追跡できることを意味する。
一例では、処理ユニットは、少なくとも1つの超音波画像を利用することによって、身体特徴部の少なくとも1つの位置に対して超音波プローブの少なくとも1つの位置を決定するように構成され、処理ユニットにより超音波プローブの第2の幾何学的位置情報を決定するように構成されていることは、身体特徴部の少なくとも1つの位置に対して超音波プローブの少なくとも1つの位置を利用することを含む。
一例では、処理ユニットは、身体特徴部を含む少なくとも1つの超音波画像を利用することによって、モデルベースのセグメンテーションを使用する身体特徴部のセグメント化データを決定するように構成され、処理ユニットにより超音波プローブの第2の幾何学的位置情報を決定するように構成されていることは、身体特徴部のセグメント化データを利用することを含む。
別の言い方をすると、超音波画像により決定されたような身体特徴部は、体のX線画像が使用される患者の体内で場所を特定することができる。
一例では、処理ユニットは、身体特徴部を含む少なくとも1つの超音波画像を利用することによって、身体特徴部の1つの位置を基準位置として決定するように構成され、処理ユニットにより超音波プローブの第2の幾何学的位置情報を決定するように構成されていることは、身体特徴部のその基準位置を利用することを含む。
このようにして、超音波プローブの動きに起因しない超音波プローブと身体特徴部の間の相対的な動きを明らかにすることができ、これにより、超音波プローブの動きに起因する超音波プローブの場所及び/又は配向を決定することが可能になる。
一例では、処理ユニットにより身体部の一部内の超音波プローブの第1の幾何学的位置情報を決定するように構成されていることは、超音波プローブの三次元モデルの利用を含む。
一例では、処理ユニットは、超音波プローブの三次元モデルの投影像とX線画像とを比較するように構成される。
一例では、処理ユニットは、三次元モデルとX線画像との間の類似点を、画像比較メトリックを利用して、繰り返し決定するように構成される。
一例では、処理ユニットは、三次元モデルの位置及び/又は配向を、画像比較メトリックを最大にすることによって、最適にするように構成される。
一例では、処理ユニットは、三次元モデルの少なくとも1つの並進自由度の調整、及び/又は三次元モデルの少なくとも1つの回転自由度の調整を含めて、三次元モデルとX線画像とを比較するように構成される。
第2の態様では、身体部内の超音波プローブの位置を追跡するためのワークステーションが提供され、ワークステーションは、
少なくとも1つの入力ユニット、及び
処理ユニット
を含む。
少なくとも1つの入力ユニットは、超音波プローブが位置付けられた身体部の一部のX線画像を提供するように構成される。処理ユニットは、身体部の一部内の超音波プローブの第1の幾何学的位置情報を、X線画像を利用して決定するように構成される。少なくとも1つの入力ユニットはまた、身体特徴部を含む少なくとも1つの超音波画像を提供するように構成され、この少なくとも1つの超音波画像は超音波プローブによって取得され、超音波画像が、身体部の一部のX線画像の取得時点よりも後の時点に取得された。処理ユニットはまた、後の時点における身体部内の超音波プローブの第2の幾何学的位置情報を、第1の幾何学的位置情報と、身体特徴部を含む少なくとも1つの超音波画像とを利用して決定するように構成される。任意選択で、ワークステーションは、超音波プローブの第2の幾何学的位置情報を表すデータを出力するように構成されている出力ユニットを含む。
言い換えると、ワークステーションは、事前取得画像に基づいて超音波プローブの位置を追跡することができる。このようにして、身体部内の超音波プローブの位置を検査又は確認して、超音波プローブが特定の時点に正しく位置付けられたことを確実にすることができる。さらに、ワークステーションは訓練の目的に使用することができる。
第3の態様では、身体部内の超音波プローブの位置を追跡するための方法が提供され、この方法は、
a)超音波プローブが位置付けられている身体部の一部のX線画像を取得するステップと、
b)身体部の一部内の超音波プローブの第1の幾何学的位置情報を、X線画像を利用して決定するステップと、
c)身体特徴部を含む少なくとも1つの超音波画像を超音波プローブによって、X線画像の取得時点よりも後の時点に超音波画像を取得することを含めて、取得するステップと、
g)後の時点における身体部内の超音波プローブの第2の幾何学的位置情報を、第1の幾何学的位置情報と、身体特徴部を含む少なくとも1つの超音波画像とを利用して決定するステップと
を有する。
一例では、この方法は、
i)超音波プローブの第2の幾何学的位置情報を表すデータを出力するステップ
を有する。
一例では、ステップc)は、身体特徴部を含む少なくとも2つの超音波画像を超音波プローブによって取得するステップを含み、またステップc)は、身体部の一部のX線画像を取得する時点と実質的に同じ時点に超音波画像を取得するステップをさらに含む。
一例では、ステップc)は、身体特徴部を含む少なくとも2つの超音波画像を超音波プローブによって取得するステップを含み、またステップc)は、身体部の一部のX線画像が取得されたときの超音波プローブの位置と実質的に同じ位置で超音波画像を取得するステップをさらに含む。
言い換えると、X線画像が取得されたときの超音波プローブの位置と同じ位置で超音波画像を取得する最も容易な手法は、X線画像を取得するのと同じ時点で超音波画像を取得することであるが、これは、超音波画像取得をする唯一の手法ではない。
一例では、この方法は、
h)第1の幾何学的位置情報及び第2の幾何学的位置情報の関数としてのある閾値が超えられた場合に、超音波プローブが位置されている身体部の一部の第2のX線画像を取得するステップを有する。
一例では、この方法は
d)少なくとも1つの超音波画像を利用して、身体特徴部の少なくとも1つの位置に対して超音波プローブの少なくとも1つの位置を決定するステップを有し、
ステップg)は、身体特徴部の少なくとも1つの位置に対して超音波プローブの少なくとも1つの位置を利用するステップを含む。
一例では、この方法は
e)モデルベースのセグメンテーションを使用する身体特徴部のセグメント化データを、その身体特徴部を含む少なくとも1つの超音波画像を利用して決定するステップを有し、
ステップg)は、身体特徴部のセグメント化データを利用するステップを含む。
一例では、この方法は
f)基準位置としての身体特徴部の位置を、その身体特徴部を含む少なくとも1つの超音波画像を利用して決定するステップを有し、
ステップg)は、身体特徴部の基準位置を利用するステップを含む。
一例では、位相調整を行って心臓の運動を明らかにすることができる。これは、後続の超音波画像の心臓位相が以前の超音波画像のものと同じでなければならないという点で、位相が超音波画像間で整合されることを意味する。
別の態様によれば、前述のような装置(すなわち、システム及びワークステーション)を制御するコンピュータプログラム要素が提供され、このコンピュータプログラム要素は、処理ユニットによって実行されるコンピュータプログラム要素の中で、前述のような方法ステップを実行するように適合される。
別の態様によれば、前述のようなコンピュータ要素を記憶したコンピュータ可読媒体が提供される。
有利には、上記の態様及び例のいずれかによって提供される利益は、その他の態様及び例のすべてに等しく適用され、逆も同様である。
上記の態様及び例は、以下に記述される実施形態から明らかになり、これらの実施形態を参照して説明される。
例示的な実施形態について、次の図面を参照して以下に説明する。
身体部内の超音波プローブの位置を追跡するためのシステムの一例の概略構成を示す図である。 身体部内の超音波プローブの位置を追跡するためのシステムの別の例の概略構成を示す図である。 身体部内の超音波プローブの位置を追跡するための方法の一例を示す図である。 身体部内の超音波プローブの位置を追跡するための作業の流れの一例を示す図である。 心臓のモデルに対する超音波プローブの位置を概略的に表したものを左側に、超音波プローブ位置が示されているX線画像に重ね合わされた心臓のセグメント化超音波画像データを概略的に表したものを右側に示す図である。 図5に示されたものと同じ情報を、概略的に表したものを画像データに置き換えて示す図である。
図1は、身体部内の超音波プローブの位置を追跡するためのシステム10の一例を示す。システム10は、超音波プローブ20、X線画像取得ユニット30、処理ユニット40を含み、任意選択で出力ユニット50を含む。X線画像取得ユニット30は、超音波プローブ20が位置付けられている身体部の一部のX線画像を取得するように構成され、このX線画像は処理ユニット40に提供される。処理ユニット40は、身体部の一部内の超音波プローブの第1の幾何学的位置情報を、X線画像を利用して決定するように構成される。超音波プローブ20は、身体特徴部を含む少なくとも1つの超音波画像を取得するように構成され、この少なくとも1つの超音波画像は、身体部の一部のX線画像の取得時点よりも後の時点に取得される超音波画像を含む。処理ユニット40はまた、後の時点における身体部内の超音波プローブの第2の幾何学的位置情報を、第1の幾何学的位置情報と、身体特徴部を含む少なくとも1つの超音波画像とを利用して決定するように構成される。出力ユニットは、超音波プローブの第2の幾何学的位置情報を表すデータを出力するように構成される。
一例では、超音波プローブは、経食道エコー(TEE)超音波プローブである。一例では、超音波プローブは、剛性のヘッドに封入されたトランスデューサを備える。一例では、「超音波プローブ」とは剛性の封入ヘッドを意味する。
一例では、X線画像取得ユニットは、C形アームCTシステムを含む。一例では、画像取得ユニットは、介入性X線システムを含む。
一例では、身体部の一部のX線画像は、蛍光画像データを含む。一例では、画像取得ユニットは、蛍光透視X線機器を含む。一例では、身体部の一部のX線画像は、蛍光透視低線量X線調査中に取得された。一例では、蛍光透視低線量X線調査は、身体部の一部内の超音波プローブの第1の幾何学的位置情報を決定するために使用される。
一例では、身体部のX線画像は、身体特徴部を含む。
一例では、身体部の一部内の超音波プローブの第1の幾何学的位置情報は、超音波プローブの場所を含む。一例では、この位置は、超音波プローブ又は超音波プローブの一部分のx、y及びz座標を含む。一例では、超音波プローブ又は超音波プローブの一部分のx、y及びz座標は、医療台の一部分若しくは一点、又はX線画像取得ユニットの一部分又は一点などの基準点と関係づけられる。一例では、身体部内の超音波プローブの第1の幾何学的位置情報は、超音波プローブ又は超音波プローブの一部分の配向を含む。一例では、この配向は、超音波プローブ又は超音波プローブの一部分の、その長手方向軸のまわりの角度位置(たとえば出力窓の中心を通る長手方向軸から延びる、長手方向軸のまわりの垂直方向又は垂直軸についての軸の角度位置)を含む。一例では、この配向は、超音波プローブ座標系をX線画像取得ユニット又は医療台の座標系と整合させるための3つの回転角(オイラー角、又はロール・ピッチ・ヨー角)を含む。
一例では、身体部の一部内の超音波プローブの第1の幾何学的位置情報を決定することは、X線画像の2D−3D位置合わせを含む。一例では、2D−3D位置合わせは、超音波プローブの3Dモデルを決定することを含む。一例では、2D−3D位置合わせは、2D−3D画像位置合わせアルゴリズムを使用して、超音波プローブの3DモデルとX線画像を位置合わせすることを含む。一例では、2D−3D位置合わせは、超音波プローブの3DモデルをX線ユニット又は医療台の座標系の中に位置付けすること、並びに、3D超音波プローブのモデル化投影像と超音波プローブの実際の投影像を明示するX線画像とをX線ユニット又は医療台の座標系の中で比較することを含む。一例では、超音波プローブの3Dモデルは、超音波プローブのモデル化X線投影像が超音波プローブの実際の取得投影像と一致するまで、繰り返し再位置付けられる。このようにして、超音波プローブの場所及び配向は、X線ユニット又は医療台の座標系に対しても身体部に対しても決定することができる。このようにして、超音波プローブが、X線画像により決定された超音波プローブの場所及び配向からの、既知の視野を有するので、身体部に対する超音波プローブの視野を決定することができる。言い換えると、超音波プローブが見ている体の領域を決定することができる。別の言い方をすると、超音波プローブが調べている体腔のボリュームの位置をX線画像内で特定することができる。
一例では、身体部の領域とは、身体部の一部の領域のことである。
一例では、身体部内の超音波プローブの第2の幾何学的位置情報は、身体部の一部の中に位置付けられている超音波プローブと関連がある。一例では、身体部内の超音波プローブの第2の幾何学的位置情報は、超音波プローブの場所を含む。一例では、その場所は、超音波プローブ又は超音波プローブの一部分のx、y、及びz座標を含む。一例では、超音波プローブのx、y、及びz座標は、医療台の一部若しくは一点、又はX線画像取得ユニットの一部若しくは一点などの基準点と関連づけられる。一例では、身体部内の超音波プローブの第2の幾何学的位置情報は、超音波プローブの配向を含む。一例では、この配向は、超音波プローブの一部の、その長手方向軸のまわりの角度位置(たとえば、長手方向軸のまわりの、垂直方向についての出力窓の角度位置)を含む。一例では、超音波プローブの第2の幾何学的位置情報は、第1の幾何学的位置情報に関する超音波プローブの場所と異なる場所にある超音波プローブと関連がある。一例では、超音波プローブの第2の幾何学的位置情報は、第1の幾何学的位置情報に関する超音波プローブの配向と異なる配向である超音波プローブと関連がある。一例では、超音波プローブの第2の幾何学的位置情報は、第1の幾何学的位置情報に関する超音波プローブの場所と同じ場所にあるが、第1の幾何学的位置情報に関する超音波プローブの配向と異なる配向を有する超音波プローブと関連がある。一例では、超音波プローブの第2の幾何学的位置情報は、第1の幾何学的位置情報に関する超音波プローブの場所と異なる場所にあるが、第1の幾何学的位置情報に関する超音波プローブの配向と同じ配向を有する超音波プローブと関連がある。一例では、超音波プローブの第2の幾何学的位置情報は、第1の幾何学的位置情報に関する超音波プローブの場所と異なる場所にある、かつ第1の幾何学的位置情報に関する超音波プローブの配向と異なる配向を有する超音波プローブと関連がある。
一例では、身体特徴部は、少なくとも1つの超音波画像中で検出される。一例では、身体特徴部の位置は、超音波プローブの視野内で決定される。一例では、身体特徴部の位置は、超音波プローブが身体部内で調査しているか、又は調査するように構成されている腔のボリューム内で決定される。一例では、身体特徴部はX線画像中で検出される。一例では、体内の身体特徴部の位置は、X線画像により決定される。言い換えると、超音波プローブが見ている体腔のボリューム内の身体特徴部の位置は、超音波プローブによって取得された超音波画像により決定することができ、かつ/又はX線画像により決定することができる。
一例では、身体特徴部は患者の心臓である。言い換えると、身体特徴部は、たとえば心臓であることもある身体特徴のすべてを含む。一例では、身体特徴は患者の脊椎である。一例では、身体特徴は、取得画像に基づいて特定することができる患者の任意の他の部位又は器官であり得る。
一例では、出力ユニットは、X線画像を表すデータを出力するように構成される。一例では、出力ユニットは、少なくとも1つの超音波画像を表すデータを出力するように構成される。一例では、出力ユニットは、X線画像、第1の幾何学的位置情報、少なくとも1つの超音波画像、及び第2の幾何学的位置情報のうちの任意の1つと関連があるデータを保存するように構成される。一例では、出力ユニットは、たとえば、1つ又は複数の視覚的表示装置VDUなどの1つ又は複数のモニタに画像を表示して、画像データを表示するように構成される。一例では、出力ユニットは、少なくとも1つの身体特徴の超音波画像を表示するように構成される。一例では、出力ユニットは、身体特徴の超音波画像を表示するように構成される。一例では、出力ユニットは、身体部の一部のX線画像を表示するように構成される。一例では、出力ユニットは、身体部の一部のX線画像と、超音波プローブの第2の幾何学的位置情報とを表示するように構成される。言い換えると、超音波プローブの現在の場所及び/又は配向を取得X線画像で提示することができる。別の言い方をすると、一例では、超音波プローブの現在の場所及び/又は配向は、身体部の一部のX線画像に重ね合わせたものとして示すことができる。言い換えると、少なくとも1つの超音波画像により決定される現在のプローブ位置の可視化の増強を、より早い時点に取得されたX線静止画像上で実現することができる。
一例によれば、身体特徴部を含む少なくとも1つの超音波画像は、その身体特徴部を含む少なくとも2つの超音波画像を含む。その場合、超音波プローブは、その身体部の一部のX線画像の取得時点と実質的に同じ時点に超音波画像を取得するように構成される。
一例によれば、X線画像取得ユニットは、超音波プローブが位置付けられている身体部の一部の第2のX線画像を取得するように構成される。この画像取得は、処理ユニットが、第1の幾何学的位置情報及び第2の幾何学的位置情報の関数としてのある閾値が超えられたと決定する場合に行われる。
一例として、処理ユニットは、その閾値が超えられたかどうかを、第1の幾何学的位置情報と第2の幾何学的位置情報の間の差異がある閾値を超えると決定する場合に、判定する。
一例では、第2のX線画像を取得するように構成されたX線画像取得ユニットには、閾値が超えられたことを知らされる医師又は臨床医が含まれ、その場合、医師又は臨床医は、第2のX線画像の取得を手動で起動することができる。このようにして、X線吸収線量に関して追加の安全方策が提供される。
一例によれば、処理ユニットは、少なくとも1つの超音波画像を利用することによって、身体特徴部の少なくとも1つの位置に対して超音波プローブの少なくとも1つの位置を決定するように構成される。その場合、処理ユニットにより超音波プローブの第2の幾何学的位置情報を決定するように構成されていることは、身体特徴部の少なくとも1つの位置に対して超音波プローブの少なくとも1つの位置を利用することを含む。
一例によれば、処理ユニットは、モデルベースのセグメンテーションを使用する身体特徴部のセグメント化データを、その身体特徴部を含む少なくとも1つの超音波画像を利用することによって決定するように構成される。処理ユニットにより超音波プローブの第2の幾何学的位置情報を決定するように構成されていることは、身体特徴部のセグメント化データを利用することを含む。
一例では、現在の超音波画像により、たとえば心臓又は心臓の一部であるセグメント化身体特徴部に対して超音波プローブの場所及び配向の推定が行われる。
一例では、たとえば心臓である身体特徴部のセグメンテーションにより、超音波プローブが見ている腔のボリューム内の身体特徴部の輪郭が得られる。このようにして、超音波プローブの位置を提示した、また超音波プローブが見ている腔のボリュームのマッピングも提示したX線画像による、体及びX線画像との超音波プローブの2D−3D位置合わせから、超音波画像により決定された身体特徴部の輪郭は、X線画像の上に描く、又は重ね合わせることができる。
一例では、たとえば心臓である身体特徴部は、超音波プローブによって取得された少なくとも1つの超音波画像で連続してセグメント化される。一例では、セグメンテーションは、メッシュモデルを身体特徴部の超音波画像に適合させる。一例では、メッシュ構造は変化しない。このようにして、メッシュ構造が変化しないので、異なる超音波画像にまたがる異なるセグメンテーションの結果の間で対応する点が分かる。このようにして、異なる超音波画像間の身体特徴部の移動及び/又は回転を決定することができ、これにより超音波プローブの場所及び/又は配向を決定することができる。
一例によれば、処理ユニットは、その身体特徴部を含む少なくとも1つの超音波画像を利用することによって、身体特徴部の1つの位置を基準位置として決定するように構成される。処理ユニットにより超音波プローブの第2の幾何学的位置情報を決定するように構成されていることは、身体特徴部のその基準位置を利用することを含む。
一例では、身体特徴部の位置を基準位置として決定することは、身体特徴部が動くことをなくすことを含む。一例では、たとえば心臓である身体特徴部の決定された位置は、固定基準として使用される。
一例では、処理ユニットは、少なくとも1つの超音波画像を、心周期、患者の動き若しくは患者の呼吸、又はこれらの任意の組合せに対して位置合わせするように構成される。言い換えると、たとえば、超音波プローブの場所及び/又は配向を決定するために使用される少なくとも1つの超音波画像は、患者の1つの心周期内の同一若しくは同様の時点において、又は患者の1つの呼吸周期内の同一若しくは同様の時点において取得された画像と関連づけることができる。一例では、処理ユニットは、少なくとも1つの超音波画像及びX線画像を、心周期、患者の動き若しくは患者の呼吸、又はこれらの任意の組合せに対して位置合わせするように構成される。言い換えると、たとえば、超音波プローブの場所及び/又は配向を決定するために使用される少なくとも1つの超音波画像及びX線画像は、患者の1つの心周期内の同一若しくは同様の時点において、又は患者の1つの呼吸周期内の同一若しくは同様の時点において取得された画像と関連づけることができる。
一例では、本来の心臓運動は、収縮終期などの一定の心臓位相を解析することによって除外することができる。一例では、安定した心臓位相を解析することは、心電図(ECG)信号を監視することを含む。一例では、患者の呼吸周期を、たとえば磁気共鳴(MR)画像法で同様に使用されるような呼吸ベルトを用いて検出することができる。一例では、安定した呼吸位相を解析することはセグメンテーションデータを利用することを含み、或いは言い換えると、本来の心臓運動は、たとえばチャンバボリュームを見るときにセグメンテーション結果を解析することによって除外することができる。
このようにして、超音波プローブの動きに起因しない超音波プローブと身体特徴部の間の相対的な動きを明らかにすることによって、超音波プローブの動きに起因する超音波プローブの場所及び/又は配向を決定することができる。
一例では、身体部の一部のX線画像は、その身体特徴部のX線画像データを含み、処理ユニットにより後の時点で身体部内の超音波プローブの第2の幾何学的位置情報を決定するように構成されていることは、その身体特徴部のX線画像データを利用することを含む。一例では、X線画像中の身体特徴部の位置が利用される。
図2は、身体部内の超音波プローブの位置を追跡するためのシステム60の一例を示す。システム60は、少なくとも1つの入力ユニット70、処理ユニット80、及び任意選択で出力ユニット90を備える。少なくとも1つの入力ユニット70は、超音波プローブ20が位置付けられた身体部の一部のX線画像を処理ユニット80に提供するように構成される。処理ユニット80は、身体部の一部内の超音波プローブの第1の幾何学的位置情報を、X線画像を利用して決定するように構成される。少なくとも1つの入力ユニット70は、身体特徴部を含む少なくとも1つの超音波画像を提供するように構成され、この少なくとも1つの超音波画像は超音波プローブ20によって取得された。また、この少なくとも1つの超音波画像のうちの1つの超音波画像が、身体部の一部のX線画像の取得時点よりも後の時点で取得された。処理ユニット80はまた、後の時点における身体部内の超音波プローブの第2の幾何学的位置情報を、第1の幾何学的位置情報と、身体特徴部を含む少なくとも1つの超音波画像とを利用して決定するように構成される。出力ユニット90は、超音波プローブの第2の幾何学的位置情報を表すデータを出力するように構成される。
一例では、少なくとも1つの入力ユニットは、X線画像を提供するように構成されたデータ記憶装置又は転送ユニットを含む。一例では、X線画像取得ユニットはX線画像を取得するように構成され、この画像はデータ記憶装置又は転送ユニットに提供される。一例では、入力ユニットはX線画像取得ユニットを含む。一例では、少なくとも1つの入力ユニットは超音波プローブを含む。
一例では、少なくとも1つの入力ユニットは、少なくとも1つの超音波画像をたとえば連続送り込み装置を介して提供するように構成されたデータ記憶装置又は転送ユニットを含む。このようにして、既存のX線/超音波システムへの付加ボックスを追跡目的のためだけに設けることができる。
一例では、X線画像の取得よりも後の時点に取得された超音波画像が2つの直交スライスを含み、また、X線画像の取得の時点と実質的に同じ時点に取得された超音波画像が2つの直交スライスを含む。言い換えると、超音波画像はx平面モードで取得することができ、このモードでは2つの直交スライスが記録され、この記録により、たとえば心臓である身体特徴部の位置の変化を追跡することができ、それによって、更新された超音波プローブ場所を推定することが可能になる。x平面モードは、完全3Dボリューム取得よりも速い一方で、超音波プローブ位置変化を推定することを依然として可能にして、超音波プローブの追跡を実現する。
図3は、身体部内の超音波プローブの位置を追跡する方法100を、データを出力するステップが任意選択であることを除いて、その基本的なステップで示す。この方法は、以下のステップを含む。
ステップa)とも呼ばれる第1の取得ステップ110で、超音波プローブ20が位置付けられている身体部の一部のX線画像が取得される。
ステップb)とも呼ばれる第1の決定ステップ120で、身体部の一部内の超音波プローブ20についての第1の幾何学的位置情報が決定され、この決定は、X線画像を利用することを含む。
ステップc)とも呼ばれる第2の取得ステップ130で、身体特徴部を含む少なくとも1つの超音波画像が超音波プローブによって取得され、取得ステップ130は、少なくとも1つの超音波画像のうちの1つの超音波画像をX線画像の取得の時点よりも後の時点で取得するステップ140を含む。
ステップg)とも呼ばれる第2の決定ステップ150で、後の時点における身体部内の超音波プローブ20についての第2の幾何学的位置情報が、第1の幾何学的位置情報と、身体特徴部を含む少なくとも1つの超音波画像とを利用して決定される。
ステップi)とも呼ばれる任意選択の出力ステップ160で、超音波プローブの第2の幾何学的位置情報を表すデータが出力される。
一例によれば、ステップc)は、身体特徴部を含む少なくとも2つの超音波画像を超音波プローブによって取得するステップを含む。この例では、ステップc)はさらに、身体部の一部のX線画像の取得の時点と実質的に同じ時点で超音波画像を取得するステップ170を含む。
一例では、ステップc)は、身体特徴部を含む少なくとも2つの超音波画像を超音波プローブによって取得するステップを含み、この例のステップc)はさらに、身体部の一部のX線画像が取得されたときの超音波プロープの位置と実質的に同じ位置で超音波画像を取得するステップを含む。
一例によれば、この方法は、第1の幾何学的位置情報と第2の幾何学的位置情報の関数としてのある閾値が超えられた場合に、超音波プローブが位置付けられている身体部の一部の第2のX線画像を取得する、ステップh)とも呼ばれるステップ180を含む。
一例によれば、この方法は、身体特徴部の少なくとも1つの位置に対して超音波プローブの少なくとも1つの位置を少なくとも1つの超音波画像を利用して決定する、ステップd)とも呼ばれるステップ190を含む。この例では、ステップg)は、身体特徴部の少なくとも1つの位置に対して超音波プローブの少なくとも1つの位置を利用するステップ200を含む。
一例によれば、この方法は、モデルベースのセグメンテーションを使用する身体特徴部のセグメント化データを、その身体特徴部を含む少なくとも1つの超音波画像を利用して決定する、ステップe)とも呼ばれるステップ210を含む。この例では、ステップg)は、身体特徴部のセグメント化データを利用するステップ220を含む。
一例によれば、この方法は、身体特徴部の1つの位置を基準位置として決定して、その身体特徴部を含む少なくとも1つの超音波画像を利用する、ステップf)とも呼ばれるステップ230を含む。この例では、ステップg)は、身体特徴部の基準位置を利用するステップ240を含む。
一例では、身体部内の超音波プローブの位置を追跡する方法が提供され、この方法は、超音波プローブが位置付けられた身体部の一部のX線画像を提供するステップと、身体部の一部内の超音波プローブの第1の幾何学的位置情報を、X線画像を利用して決定するステップと、身体特徴部を含む少なくとも1つの超音波画像を提供するステップであって、この少なくとも1つの超音波画像が超音波プローブによって取得され、また、この少なくとも1つの超音波画像のうちの1つの超音波画像が、身体部の一部のX線画像の取得時点よりも後の時点に取得されたステップと、後の時点における身体部内の超音波プローブの第2の幾何学的位置情報を、第1の幾何学的位置情報と、身体特徴部を含む少なくとも1つの超音波画像とを利用して決定するステップと、超音波プローブの第2の幾何学的位置情報を表すデータを出力するステップとを含む。
図4は、身体部内の超音波プローブを追跡するための詳細な作業の流れを示す。要約すると、TEEプローブが置かれている最初のX線ユニットにより、TEEプローブとX線ユニットの3Dボリュームとの対応関係が、TEEプローブをX線画像中で位置合わせすることによって確立される。言い換えると、TEEプローブは、X線ユニットの大域空間内に置かれ、また患者の解剖学的腔内に置かれる。X線ユニットがオフのとき、TEE画像供給は連続してセグメント化されて、新しいTEEプローブ場所が推定される。一例でTEEプローブの小さい動きと関連づけることができる、動き閾値が超えられていない場合には、推定された場所がX線画像上に示される。一例でTEEプローブの大きい動きと関連づけることができる、動き閾値が超えられた場合には、新しいX線画像が起動されて現在のプローブ位置が測定される。TEEプローブはX線画像中で位置特定することができ、超音波画像はX線画像にTEEプローブの位置と共に重ね合わせることができ、注釈(たとえば、マーカ楕円)又は心臓セグメンテーションもまた、X線画像に重ね合わせることができる。
上記を異なるやり方に要約すると、
1.超音波プローブは、2D−3D位置合わせによって、X線画像中で位置特定することができる。2D−3D位置合わせにより、X線画像中でプローブの位置及び配向が得られる。
2.たとえば心臓である身体特徴部は、超音波画像においてセグメント化される。超音波画像のセグメンテーションにより、超音波ボリューム内の心臓の輪郭が得られる。
3.X線画像中のプローブの2D−3D位置合わせにより、超音波プローブによって画像化されている超音波ボリュームが分かり、X線画像中で場所を特定することができる。このようにして、たとえば心臓の輪郭をX線画像の上に描くことができる。
上記の要約は、少し詳しく以下のように説明することができる。
1.2D−3D位置合わせを使用してX線画像中のプローブの位置特定するための、プローブの3Dモデルが知られる(たとえば、ナノCT画像を取得することにより)。次に、プローブの所与の推定の配向に対し、モデルの投影像、いわゆるデジタル再構築放射線写真(DRR)が、画像中のプローブが位置特定されるべき実際の1つ又は複数のX線画像と比較される。この処理は数回繰り返され、DDRとX線画像の間の類似性が画像比較メトリックを使用して評価される。自由度(並進運動及び回転)が、DDRとX線画像が最適に一致するように調整される。言い換えると、位置及び配向のパラメータが、DDRとX線画像の間の画像類似メトリックを最大にすることによって最適化される。この位置合わせ処理は、Gaoらの論文、Registration of 3D trans−esophageal echocardiography to X−ray fluoroscopy using image−based probe tracking、Medical Image Analysis 16(2012)、38〜49頁で詳細に論じられている。
2.超音波画像における、たとえば心臓のモデルベースのセグメンテーションは、たとえば、N個の点と、これらの点をつなぐT個の三角形とから成る三角形メッシュである平均モデルを含む。その最初の形状は、たとえば平均的又は典型的な形状を表す。次に、モデルは、いくつかのステップで1つの画像に適合される。まず、一般的な位置(たとえば重心)及び配向が決められ、それに応じて画像にメッシュが配置される。モデル訓練中に、各三角形は、それがどの特定の画像特徴を検索すべきかを学習した。次いで、適合中に、各三角形はこれらの画像特徴を検索して、引力のセットを得る(このセットから、いわゆる外部エネルギーが導き出される)。この外部エネルギーに基づいて、モデルは、大域又は局所アフィン変換のパラメータを推定することによって、連続して適合される(エネルギーが最小化される)。最終ステップで、局所変形が外部力に基づいて可能になる。同時に、いわゆる内部エネルギーが、平均形状からのあまりに大きい偏差にペナルティを科す。複数回の反復の後、メッシュの形状は画像に適合された。どのメッシュ部分がどの解剖学的構造に属するかが分かっているので、これにより解剖学的コンテキストが画像に加わる。CT画像に適用されるが本明細書では超音波画像に適用されているセグメンテーションアルゴリズムが、Ecabertらの論文、Automatic Model−Based Segmentation of the Heart in CT Images、IEEE Transactions on Medical Imaging,Vol.27,No.9、2008年9月、1189〜1201頁で詳細に論じられている。
3.ステップ2で、解剖学的コンテキストが超音波画像において局所的に確立される。ステップ1により、超音波プローブ(したがって、超音波画像の座標系)と大域空間(すなわち、X線画像も)の間の関係が分かっているので、解剖学的コンテキスト(たとえば、セグメンテーションメッシュ又は特別な目印)は、X線画像上に表示することができる。
より詳細には、また図4を参照すると、超音波プローブを追跡するために使用されるシステムは、X線ユニット及び経食道エコー(TEE)プローブを含む。X線源と検出器の間の3Dオブジェクト(たとえば、患者の心臓)は本来、放射線に沿って吸収することによって、3D空間を投影2DのX線画像に変換される。TEEプローブは3Dボリューム内にあり、したがって、X線画像中に見える。画像処理アルゴリズムを用いると、TEEプローブは自動的に検出することができる。こうして、X線ユニットの3Dボリューム内のTEEプローブの位置を、また配向さえも(2D−3D位置合わせを使用して)決定することができる。ここでは、X線ユニットに対してTEEプローブの位置及び配向を決定できることについて説明するが、しかし、これはまた、この位置及び配向をX線ユニットが収納される空間の基準座標に対して決定できることも意味する。このようにして、TEEプローブのx、y、及びz座標、並びにTEEプローブの長手方向軸の角度方向、及びその軸まわりのTEEプローブの回転角度を決定することができる。一例では、配向は、超音波プローブ座標系をX線画像取得ユニット又は医療台の座標系と位置合わせするための3つの回転角度(オイラー角、又はロール・ピッチ・ヨー角)を含む。言い換えると、TEEプローブの基準座標、並びにTEEプローブが指し示しているところ、及びその決定された位置におけるTEEプローブの軸回転特性を決定することができる。
X線画像と同じ時点でTEE超音波画像を取得することによって、TEE画像からX線ユニットの3Dボリュームへの変換行列TTEE、Xvolを決定することができる。この変換には、z軸まわりのユーザ定義回転、いわゆる「スキャン角」又はシーク角など、他の知られている変換が含まれる。したがって、X線ユニットボリューム内のどこにTEE画像ボクセルがあるかが分かる。この情報を使用して、3DのTEE画像の任意の点を2D投影X線画像中の正しい位置に表示できるように3DのTEEデータをX線画像の上に投影することができる。これは数学的に、2×3投影行列「P」及び2D変位ベクトル「s」によって表される。したがって、3D座標系の任意の点「a」が、2D座標系の点「b」にb=Pa+sとして投影される。言い換えると、TEEプローブの場所及び配向をX線画像から決定し、同時に超音波画像をTEEプローブにより取得することによって、大域的及び解剖学的なコンテキスト及び空間の情報を、音響画像をX線画像の上にマッピングすることによって決定することが可能になる。
この情報を使用して、たとえば、3DのTEE画像中の目印を選択し、その目印を2DのX線画像に投影する、又は3DのTEE画像中の心臓をセグメント化し、次に、そのセグメンテーション結果を2DのX線画像の上に重ね合わせる。この方法に関しては、共同位置合わせが、ある期間にわたって維持される必要があり、すなわち、プローブが、TTEE,Xvolを最新に保持するために継続的に追跡される必要があり得る。X線を用いずに追跡を行うことができれば、X線吸収線量を減らすことができる。
したがって、身体部内の超音波プローブを追跡する作業の流れは以下のように進む。
1.X線画像及びTEE画像が取得される瞬間に開始する。
2.TEE画像中で、したがってまた、大域空間内で心臓を検出し(TTEE,Xvolを使用して)、それによって心臓の位置を検出できるようにする。
3.X線画像データがないもっと後の瞬間では、決定された心臓位置を基準として使用する。
4.TEE画像だけのセグメンテーション結果からTEEプローブの動きを検出する。
5.検出されたTEEプローブの動きを使用して、
a.現在のTEEプローブの推定の位置を与える(X線画像を取得せずに)
b.検出されたTEEプローブの動きが特定の閾値を超える場合、新しいX線画像の取得を起動して、TEEプローブの新しい絶対位置を決定する。
c.追跡されたTEEプローブを静止X線画像上にTEEプローブの3Dモデルを使用して仮想的に表示する。
心臓は、モデルベースのセグメンテーションを使用してTEE画像内で連続してセグメント化される。たとえば、上で参照したようにEcabert、Oliverらの論文を参照されたい。たとえば、セグメンテーションでは、メッシュモデルをTEE画像に適合させる。メッシュは、N個の点とN個の三角形を含む。メッシュ構造は変化しないので、異なるセグメンテーション結果の間で対応する点が分かる。
TEE画像は常に、その位置座標と、TEEプローブ軸まわりの角度指示方向及び角度位置とに関して、TEEプローブの場所及び配向を基準として取得される。したがって、TEE画像中の心臓の位置が変化する場合、これは、心臓自体が動いている場合(拍動、呼吸)、又はTEEプローブ場所又は配向が変化した場合に起き得る。
本来の心臓運動は、たとえば、収縮終期などの一定の心臓位相を解析することによって除外される。この情報は、入手可能なECG信号から、又はセグメンテーション結果からも(たとえば、チャンバボリュームを見ているときに)引き出すことができる。呼吸がプローブを含めて全胸部を動かすので、心臓に対するプローブの相対位置はわずかしか影響を受けない。或いは、必要であれば、呼吸は、X線を用いずに、たとえば、MR画像法で同様に使用されるような「呼吸ベルト」を用いて検出することができる。次に、TEE画像中の心臓の残りの移動/回転から、TEEプローブの並進運動及び配向の変化が以下のように推定される。
TEEプローブ場所は、時点tでX線画像から分かり、この時点でまた、3DのTEE画像Iが取得される。3D画像空間におけるプローブ場所はxである。画像中の心臓の位置は、セグメント化メッシュMによって示される。
もっと後の時点tで、TEE画像Iが取得されるが、X線画像は取得する必要がない。Iの3DのTEE空間における新しいプローブ場所はxである。画像I中の心臓の新しい位置は、セグメント化メッシュMによって示される。
心臓位置MとMの間の変換行列T1,0が推定される。たとえば、MとMにおける対応する点の間の剛体変換を計算することができる。したがって、T1,0は、Iの画像座標で与えられた点をI中の対応する点に変換する。
からのプローブ場所xは、I中の元の画像空間にx’=T1.0として変換される。
次に、元の位置xとの差異dが計算される。
新しい位置x’、及びIのTEE画像座標系で分かっている移動dは、tからの分かっているTTEE,Xvolを使用して、X線ユニットの3Dボリューム座標系へ変換することができる。こうして、新3D座標及びボリューム座標でのプローブ移動が分かる。
言い換えると、ライブX線が利用できない場合、適切な考察により、解剖学的心臓位置が固定されていると仮定することができ、この仮定に基づきTEE画像データを使用して、TEEプローブ移動及び/又は回転が推定される。
図5及び図6は、左側の画像でプローブ位置の移動を示し、右側の画像ではX線画像上への重ね合わせとして示されたTEEプローブの推定の場所を示す。図5及び図6の左側の画像に、最後のX線画像の時点における心臓モデル250に対するTEEプローブ位置が位置260として表示されている。その後にTEEプローブは動いた。さらにX線画像が取り込まれる必要なしに、新しいTEE画像における心臓のセグメンテーションから新しいプローブ場所270、及び2つの位置260と270の間の移動dを推定することができる。図5及び図6の左側の画像に、新しいTEEプローブ場所270が再度、心臓モデル250に対して示されている。図5及び図6の右側の画像に、心臓280のTEE画像セグメンテーションがX線画像上への重ね合わせとして示されている。心臓280はいくつかの領域にセグメント化されており、そのうちの一部がセグメント282、284、及び286として識別される。X線画像には、患者のいくつかの椎骨310が示されている。右側の画像では、TEEプローブ位置が画像の上方左部分に示されている。最後のX線画像の時点において、TEEプローブの位置が位置290として示され、後の時点においてセグメント化TEE画像から得られた新しい推定場所が300として示されている。移動距離|d|が特定の閾値dthreshを超えた場合、新しいX線画像の取得を自動的に起動することができる。したがって、この方法では、照射被曝と追跡精度の間の良好な妥協点が得られる。
上記の作業の流れは3Dボリュームのモデルベースのセグメンテーションと関連づけられるが、他の超音波画像から移動を検出することが可能であることを理解されたい。たとえば、画像はx平面モードで取得することができ、すなわち、2つの直交超音波スライスが記録される。このような画像間で追跡される心臓の位置の変化により、更新されたプローブ場所を次いで推定し表示することができる。
別の例示的な実施形態では、前出の実施形態のうちの1つによる方法の方法ステップを適切なシステムで実行するように構成されていることを特徴とする、コンピュータプログラム又はコンピュータプログラム要素が提供される。
したがって、コンピュータプログラム要素は、一実施形態の一部でもあり得るコンピュータユニットに記憶され得る。この計算ユニットは、上述の方法のステップを実行する、又はステップの実行を誘導するように構成される。さらに、計算ユニットは、上述の装置(すなわちシステム及びワークステーション)の構成要素を動作させるように構成される。計算ユニットは、自動的に動作するように、かつ/又はユーザの命令を実行するように構成することができる。コンピュータプログラムは、データプロセッサのワーキングメモリにロードされ得る。したがって、データプロセッサは、前出の実施形態のうちの1つによる方法を実施するように装備される。
本発明のこの例示的な実施形態は、まさに最初から本発明を使用するコンピュータプログラムと、更新によって既存のプログラムを本発明が使用されるプログラムに変えるコンピュータプログラムとの両方を包含する。
さらに、コンピュータプログラム要素は、上述の方法の例示的な実施形態の手順を実行するためのすべての必要なステップを提供することができる。
本発明の別の例示的な実施形態によれば、CD−ROMなどのコンピュータ可読媒体が提示され、このコンピュータ可読媒体には、前の段落で記述されているコンピュータプログラム要素が記憶されている。
コンピュータプログラムが、他のハードウェアと一緒に、又はその一部として供給される光記憶媒体又は固体媒体などの適切な媒体によって記憶及び/又は配布されるが、インターネット又は他の有線若しくは無線遠隔通信システムなどを介する他の形でも配布される。
しかし、コンピュータプログラムはまた、ワールドワイドウェブのようなネットワークを介して提示され、このようなネットワークからデータプロセッサのワーキングメモリにダウンロードすることができる。本発明のさらなる例示的な実施形態によれば、コンピュータプログラム要素をダウンロードできるようにするための媒体が提供され、このコンピュータプログラム要素は、本発明の前述の実施形態のうちの1つによる方法を実行するように構成される。
本発明の実施形態は、異なる主題に関して説明されていることに留意すべきである。特に、いくつかの実施形態は方法特許請求に関して説明されているのに対し、他の実施形態は装置特許請求に関して説明されている。しかし、当業者であれば、上記及び下記の説明から、特にことわらない限り、一種類の主題に属する特徴の任意の組合せに加えて、異なる主題に関連する特徴の間の任意の組合せもまた、本出願によって開示されるものと考えられることが推論されよう。しかし、すべての特徴を組み合わせて、これらの特徴のただ1つの和をとるよりも多くの相乗効果をもたらすことができる。
本発明を図面及び上記の説明で詳細に図示及び説明してきたが、このような図示及び説明は限定的なものではなく、説明的又は例示的なものと考えられるべきである。本発明は、開示された実施形態に限定されない。開示された実施形態に対する他の諸変形形態が、特許請求された本発明を実践する際に、図面、本開示、及び従属請求項を検討することにより、当業者によって理解され、達成され得る。
特許請求の範囲中で、「備える、含む」という語は他の要素又はステップを除外せず、また不定冠詞「a」又は「an」は複数を除外しない。単一のプロセッサ又は他のユニットが、特許請求の範囲に列挙されたいくつかの物品の機能を実現する。いくつかの方策が互いに異なる従属請求項に列挙されているにすぎないことは、これらの方策の組合せを有利に使用できないことを示すものではない。特許請求の範囲中のいかなる参照符号も特許請求の範囲を限定するものと解釈されるべきではない。

Claims (16)

  1. 超音波プローブ、X線画像取得ユニット、及び処理ユニットを含む、身体部内の超音波プローブの位置を追跡するためのシステムであって、
    前記X線画像取得ユニットは、前記超音波プローブが位置付けられている身体部の一部のX線画像を取得し、
    前記処理ユニットは、前記身体部の一部内の前記超音波プローブの第1の幾何学的位置情報を、前記X線画像を利用して決定し、
    前記超音波プローブは、身体特徴部を含む少なくとも1つの超音波画像を取得し、前記少なくとも1つの超音波画像は、前記身体部の一部のX線画像の取得時点よりも後の時点に取得される超音波画像を含む、システムにおいて、
    前記処理ユニットは、さらに、前記後の時点における前記身体部内の前記超音波プローブの第2の幾何学的位置情報を、前記第1の幾何学的位置情報と、前記身体特徴部を含む前記少なくとも1つの超音波画像とを利用して決定することを特徴とする、システム。
  2. 前記少なくとも1つの超音波画像は、前記身体部の一部の前記X線画像の取得時点と実質的に同じ時点で取得される超音波画像を含む、請求項1に記載のシステム。
  3. 前記X線画像取得ユニットは、前記処理ユニットが、前記第1の幾何学的位置情報及び前記第2の幾何学的位置情報の関数としてのある閾値が超えられたと決定する場合に、前記超音波プローブが位置付けられている身体部の一部の第2のX線画像を取得する、請求項1又は2に記載のシステム。
  4. 前記処理ユニットは、前記少なくとも1つの超音波画像を利用することによって、前記身体特徴部の少なくとも1つの位置に対して前記超音波プローブの少なくとも1つの位置を決定し、前記処理ユニットにより前記超音波プローブの前記第2の幾何学的位置情報を決定することは、前記身体特徴部の前記少なくとも1つの位置に対して前記超音波プローブの前記少なくとも1つの位置を利用することを含む、請求項1乃至3の何れか一項に記載のシステム。
  5. 前記処理ユニットは、前記身体特徴部を含む前記少なくとも1つの超音波画像を利用することによって、モデルベースのセグメンテーションを使用する前記身体特徴部のセグメント化データを決定し、前記処理ユニットにより前記超音波プローブの前記第2の幾何学的位置情報を決定することは、前記身体特徴部の前記セグメント化データを利用することを含む、請求項1乃至4の何れか一項に記載のシステム。
  6. 前記処理ユニットは、前記身体特徴部を含む前記少なくとも1つの超音波画像を利用することによって、前記身体特徴部の位置を基準位置として決定し、前記処理ユニットにより前記超音波プローブの前記第2の幾何学的位置情報を決定することは、前記身体特徴部の前記基準位置を利用することを含む、請求項1乃至5何れか一項に記載のシステム。
  7. 前記処理ユニットにより前記身体部の一部内の前記超音波プローブの第1の幾何学的位置情報を決定することは、前記超音波プローブの三次元モデルの利用を含む、請求項1乃至6の何れか一項に記載のシステム。
  8. 前記処理ユニットは、前記超音波プローブの前記三次元モデルの投影像と前記X線画像とを比較する、請求項7に記載のシステム。
  9. 前記処理ユニットは、前記三次元モデルと前記X線画像の間の類似点を、画像比較メトリックを利用して、繰り返し決定する、請求項7又は8に記載のシステム。
  10. 前記処理ユニットは、前記三次元モデルの位置及び/又は配向を、前記画像比較メトリックを最大にすることによって、最適にする、請求項9に記載のシステム。
  11. 前記処理ユニットは、前記三次元モデルの少なくとも1つの並進自由度の調整、及び/又は前記三次元モデルの少なくとも1つの回転自由度の調整を含めて、前記三次元モデルと前記X線画像を比較する、請求項7乃至9の何れか一項に記載のシステム。
  12. 少なくとも1つの入力ユニット及び処理ユニットを含む、身体部内の超音波プローブの位置を追跡するためのワークステーションであって、
    前記少なくとも1つの入力ユニットは、超音波プローブが位置付けられた身体部の一部のX線画像を提供し、
    前記処理ユニットは、前記身体部の一部内の前記超音波プローブの第1の幾何学的位置情報を、前記X線画像を利用して決定し、
    前記少なくとも1つの入力ユニットは、身体特徴部を含む少なくとも1つの超音波画像を提供し、前記少なくとも1つの超音波画像は前記超音波プローブによって取得され、超音波画像は前記身体部の一部の前記X線画像の取得時点よりも後の時点に取得される、ワークステーションにおいて、
    前記処理ユニットは、さらに、後の時点における前記身体部内の前記超音波プローブの第2の幾何学的位置情報を、第1の幾何学的位置情報と前記身体特徴部を含む前記少なくとも1つの超音波画像とを利用して決定することを特徴とする、ワークステーション。
  13. 身体部内の超音波プローブの位置を追跡するための、請求項1乃至11の何れか一項に記載のシステムを動作させる方法であって、
    a)前記X線画像取得ユニットが、前記超音波プローブが位置付けされている前記身体部の一部のX線画像を取得するステップと、
    b)前記処理ユニットが、前記身体部の一部内の超音波プローブの第1の幾何学的位置情報を、前記X線画像を利用して決定するステップと、
    c)前記超音波プローブが、前記X線画像の取得時点よりも後の時点で、前記超音波プローブによって、身体特徴部を含む少なくとも1つの超音波画像を取得するステップと
    を含む、方法において、
    d)前記処理ユニットが、前記後の時点における前記身体部内の前記超音波プローブの第2の幾何学的位置情報を、前記第1の幾何学的位置情報と前記身体特徴部を含む前記少なくとも1つの超音波画像とを利用して決定するステップを更に有することを特徴とする、方法。
  14. 身体部内の超音波プローブの位置を追跡するための、請求項12に記載のワークステーションを動作させる方法であって、
    a)前記少なくとも1つの入力ユニットが、前記超音波プローブが位置付けられた前記身体部の一部のX線画像を提供するステップと、
    b)処理ユニットが、前記身体部の一部内の超音波プローブの第1の幾何学的位置情報を、前記X線画像を利用して決定するステップと、
    c)前記少なくとも1つの入力ユニットが、身体的特徴を含む少なくとも1つの超音波画像を提供するステップであり、前記少なくとも1つの超音波画像が前記超音波プローブによって取得され、超音波画像が前記身体部の一部の前記X線画像の取得時点よりも後の時点に取得される当該ステップと
    を含む、方法において、
    d)前記処理ユニットが、前記後の時点における前記身体部内の前記超音波プローブの第2の幾何学的位置情報を、前記第1の幾何学的位置情報と前記身体特徴部を含む前記少なくとも1つの超音波画像とを利用して決定するステップを更に有することを特徴とする、方法。
  15. プロセッサにより実行されたとき、請求項13に記載の方法を実施する、請求項1乃至11の何れか一項に記載のシステム又は、請求項14に記載の方法を実施する、請求項12に記載のワークステーションを制御するための、コンピュータプログラム。
  16. 請求項15に記載のコンピュータプログラムを記憶した、コンピュータ可読媒体。
JP2018526762A 2015-11-25 2016-11-25 身体部内の超音波プローブを追跡するためのシステム Active JP6745879B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP15196173 2015-11-25
EP15196173.7 2015-11-25
PCT/EP2016/078756 WO2017089509A1 (en) 2015-11-25 2016-11-25 System for tracking an ultrasonic probe in a body part

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019190027A Division JP2020032198A (ja) 2015-11-25 2019-10-17 身体部内の超音波プローブを追跡するためのシステム

Publications (3)

Publication Number Publication Date
JP2018535019A JP2018535019A (ja) 2018-11-29
JP2018535019A5 JP2018535019A5 (ja) 2019-01-24
JP6745879B2 true JP6745879B2 (ja) 2020-08-26

Family

ID=54703893

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018526762A Active JP6745879B2 (ja) 2015-11-25 2016-11-25 身体部内の超音波プローブを追跡するためのシステム
JP2019190027A Pending JP2020032198A (ja) 2015-11-25 2019-10-17 身体部内の超音波プローブを追跡するためのシステム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019190027A Pending JP2020032198A (ja) 2015-11-25 2019-10-17 身体部内の超音波プローブを追跡するためのシステム

Country Status (5)

Country Link
US (1) US10426414B2 (ja)
EP (1) EP3349660B1 (ja)
JP (2) JP6745879B2 (ja)
CN (1) CN108289651B (ja)
WO (1) WO2017089509A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102114417B1 (ko) * 2013-06-11 2020-05-22 삼성메디슨 주식회사 영상 정합 방법 및 장치
US10529088B2 (en) * 2016-12-02 2020-01-07 Gabriel Fine Automatically determining orientation and position of medically invasive devices via image processing
JP2018175227A (ja) * 2017-04-10 2018-11-15 富士フイルム株式会社 医用画像表示装置、方法およびプログラム
US10341456B2 (en) * 2017-11-20 2019-07-02 Marc Berger Caching sticker profiles within a sticker communication system
JP7204424B2 (ja) * 2017-11-24 2023-01-16 キヤノンメディカルシステムズ株式会社 医用画像診断装置及び医用画像処理装置
JP7258907B2 (ja) * 2018-03-19 2023-04-17 コーニンクレッカ フィリップス エヌ ヴェ 複数方式画像化位置合わせ
WO2019219861A1 (en) * 2018-05-18 2019-11-21 Koninklijke Philips N.V. Multi-modal image registration
US11638569B2 (en) 2018-06-08 2023-05-02 Rutgers, The State University Of New Jersey Computer vision systems and methods for real-time needle detection, enhancement and localization in ultrasound
CN110772280B (zh) * 2018-07-31 2023-05-23 佳能医疗系统株式会社 超声波诊断装置和方法以及图像处理装置和方法
EP3836843A4 (en) * 2018-08-13 2022-02-16 Rutgers, the State University of New Jersey ARTIFICIAL VISION SYSTEMS AND METHODS FOR REAL-TIME LOCATION OF NEEDLES IN ULTRASOUND IMAGES
US10820871B1 (en) 2019-08-09 2020-11-03 GE Precision Healthcare LLC Mobile X-ray imaging system including a parallel robotic structure
CN113303888A (zh) * 2021-06-25 2021-08-27 山东大学齐鲁医院(青岛) 一种超声介入疗法病灶定位装置
CN113712631A (zh) * 2021-09-02 2021-11-30 南京广慈医疗科技有限公司 一种随机分布三维相控阵探头的制备方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3167367B2 (ja) 1991-09-09 2001-05-21 株式会社東芝 循環器診断装置
JP3668822B2 (ja) 1996-11-11 2005-07-06 株式会社島津製作所 医用画像処理装置
EP4197447A1 (en) * 2004-08-16 2023-06-21 Corindus, Inc. Image-guided navigation for catheter-based interventions
JP4835245B2 (ja) * 2006-04-19 2011-12-14 株式会社島津製作所 循環器用画像診断装置
US7916919B2 (en) * 2006-09-28 2011-03-29 Siemens Medical Solutions Usa, Inc. System and method for segmenting chambers of a heart in a three dimensional image
DE102009043069A1 (de) 2009-09-25 2011-04-07 Siemens Aktiengesellschaft Visualisierungsverfahren und Bildgebungssystem
CN102651999B (zh) 2009-12-09 2015-07-22 皇家飞利浦电子股份有限公司 超声和x射线系统的组合
US9687204B2 (en) 2011-05-20 2017-06-27 Siemens Healthcare Gmbh Method and system for registration of ultrasound and physiological models to X-ray fluoroscopic images
CN102824699B (zh) * 2011-06-13 2015-08-05 重庆微海软件开发有限公司 一种治疗系统及其超声监控方法
US9155470B2 (en) * 2012-01-24 2015-10-13 Siemens Aktiengesellschaft Method and system for model based fusion on pre-operative computed tomography and intra-operative fluoroscopy using transesophageal echocardiography
US20130303907A1 (en) 2012-05-11 2013-11-14 Volcano Corporation Device and System For Imaging and Blood Flow Velocity Measurement
JP5677399B2 (ja) * 2012-10-31 2015-02-25 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法、及びプログラム
WO2014072890A1 (en) * 2012-11-06 2014-05-15 Koninklijke Philips N.V. Enhancing ultrasound images
EP2938260B1 (en) 2012-12-28 2019-11-06 Koninklijke Philips N.V. Real-time scene-modeling combining 3d ultrasound and 2d x-ray imagery
BR112015018841A2 (pt) * 2013-02-11 2017-07-18 Koninklijke Philips Nv sistema de imageamento por ultrassom, método para detectar ao menos um contorno de camada de tecido de um objeto de exame, e, programa de computador
WO2014126955A1 (en) 2013-02-13 2014-08-21 Siemens Aktiengesellschaft Method and apparatus for image fusion based planning of c-arm angulation for structural heart disease

Also Published As

Publication number Publication date
US20180333112A1 (en) 2018-11-22
EP3349660A1 (en) 2018-07-25
WO2017089509A1 (en) 2017-06-01
US10426414B2 (en) 2019-10-01
JP2020032198A (ja) 2020-03-05
CN108289651B (zh) 2019-07-12
EP3349660B1 (en) 2019-03-27
CN108289651A (zh) 2018-07-17
JP2018535019A (ja) 2018-11-29

Similar Documents

Publication Publication Date Title
JP6745879B2 (ja) 身体部内の超音波プローブを追跡するためのシステム
JP7195279B2 (ja) 画像の三次元再構成及び改善された対象物定位のために、放射状気管支内超音波プローブを用いるための方法
US9811913B2 (en) Method for 2D/3D registration, computational apparatus, and computer program
US9265468B2 (en) Fluoroscopy-based surgical device tracking method
US8126239B2 (en) Registering 2D and 3D data using 3D ultrasound data
JP5243754B2 (ja) 画像データの位置合わせ
US6782287B2 (en) Method and apparatus for tracking a medical instrument based on image registration
US20080300478A1 (en) System and method for displaying real-time state of imaged anatomy during a surgical procedure
JP6316572B2 (ja) 体内プローブ追跡システムにおける患者の動きの補正
JP5547070B2 (ja) 対象の骨の取り込み投影画像におけるモーションアーチファクトを修正するための方法、および画像処理システム、コンピュータプログラムコード、およびコンピュータ読み取り可能な媒体
JP5896737B2 (ja) 呼吸測定器、呼吸測定器の作動方法、及び呼吸測定コンピュータプログラム
WO2015051622A1 (zh) 超声融合成像方法、超声融合成像导航系统
JP2009022754A (ja) 放射線画像の位置揃えを補正する方法
JP2014509895A (ja) 血管インターベンションプロシージャにおいてインターベンション装置の正確な誘導を支援する画像表示を提供する画像診断システム及び方法
CN110301883B (zh) 用于导航管状网络的基于图像的向导
JP6349278B2 (ja) 放射線撮像装置、画像処理方法及びプログラム
CN114886560A (zh) 使用标准荧光镜进行局部三维体积重建的系统和方法
US20150015582A1 (en) Method and system for 2d-3d image registration
CN108430376B (zh) 提供投影数据集
Choi et al. X-ray and magnetic resonance imaging fusion for cardiac resynchronization therapy
Gao et al. Rapid image registration of three-dimensional transesophageal echocardiography and X-ray fluoroscopy for the guidance of cardiac interventions
WO2016131955A1 (en) Automatic 3d model based tracking of deformable medical devices with variable appearance
TWI836493B (zh) 註冊二維影像資料組與感興趣部位的三維影像資料組的方法及導航系統
TWI836492B (zh) 註冊二維影像資料組與感興趣部位的三維影像資料組的方法及導航系統
TWI836491B (zh) 註冊二維影像資料組與感興趣部位的三維影像資料組的方法及導航系統

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181206

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181206

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190404

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200804

R150 Certificate of patent or registration of utility model

Ref document number: 6745879

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250