JP7051286B2 - Ct画像に対して局所的に適用される透過法 - Google Patents

Ct画像に対して局所的に適用される透過法 Download PDF

Info

Publication number
JP7051286B2
JP7051286B2 JP2016222216A JP2016222216A JP7051286B2 JP 7051286 B2 JP7051286 B2 JP 7051286B2 JP 2016222216 A JP2016222216 A JP 2016222216A JP 2016222216 A JP2016222216 A JP 2016222216A JP 7051286 B2 JP7051286 B2 JP 7051286B2
Authority
JP
Japan
Prior art keywords
interface
representation
instrument
subject
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016222216A
Other languages
English (en)
Other versions
JP2017086917A (ja
Inventor
アサフ・ゴバリ
バディム・グリナー
ラム・ビー・メイヤー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Biosense Webster Israel Ltd
Original Assignee
Biosense Webster Israel Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Biosense Webster Israel Ltd filed Critical Biosense Webster Israel Ltd
Publication of JP2017086917A publication Critical patent/JP2017086917A/ja
Application granted granted Critical
Publication of JP7051286B2 publication Critical patent/JP7051286B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/037Emission tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/24Surgical instruments, devices or methods, e.g. tourniquets for use in the oral cavity, larynx, bronchial passages or nose; Tongue scrapers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/469Arrangements for interfacing with the operator or the patient characterised by special input means for selecting a region of interest [ROI]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5252Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data removing objects from field of view, e.g. removing patient table from a CT image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/547Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/008Cut plane or projection plane definition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Pulmonology (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Robotics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Databases & Information Systems (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Data Mining & Analysis (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Description

本発明は概ね、画像提示に関し、具体的には、侵襲的医療処置用の画像提示に関する。
磁気共鳴画像法(MRI)及びX線によるコンピュータ断層撮影法(CT)などの断層撮影システムの出現により、侵襲的処置を実施している医師は、手術が行われている被験者の体内の要素を可視化することが可能になった。
断層撮影システムは、医師に三次元画像を提供し、以前に利用可能であった簡易なX線システムを顕著に改善している。しかしながら、断層撮影データから生成された被験者の内部構造の画像は、場合によっては、医師にあまりにも多くの視覚情報を提供する場合があるので、提示された視覚情報を限定することが有用である。
本特許出願において参照により組み込まれている文献は、組み込まれたこれらの文献中において、いずれの用語も本明細書において明示又は暗示的になされている定義と矛盾している程度に定義されている場合を除き、本出願の一体部分と見なされるべきであり、本明細書における定義だけが考慮されるべきである。
本発明のある実施形態は、
生存被験者の身体に関する三次元断層撮影データを受信することと、
データを使用して、身体の外側表面の表現を生成し、表現を画面上に表示することと、
侵襲的器具を身体のある領域の中へ挿入し、身体内の器具の位置を特定することと、
特定された位置に近接した身体の内部構造を画面上に可視化するために、器具の特定された位置を取り囲む外側表面の区域を、表示された表現内で局所的に透明にレンダリングすることと、を含む、方法を提供する。
通常、断層撮影データは、X線を使用するコンピュータ断層撮影法、磁気共鳴画像法、陽電子放射断層撮影法、単一光子放射コンピュータ断層撮影法、及び超音波断層撮影法のうち少なくとも1つに由来する。
開示された実施形態では、侵襲的器具は、センサを備え、センサは、センサを横断する磁場に応じて信号を生成するように構成され、器具の位置を特定することは、信号を使用して、位置を特定することを含む。
方法は、侵襲的器具を表すアイコンを表示された表現内に組み込むことを含んでもよい。更に又はあるいは、方法は、表現の撮像座標系を、器具の位置の探知に使用される探知座標系と位置合わせすることを含んでもよい。
別の開示された実施形態では、方法は、器具の特定された位置に関する境界面を画定することを含み、外側表面の区域は、境界面の第1の側にあり、可視化された内部構造は、第1の側とは反対側の、境界面の第2の側にある。
方法は、境界面内で特定された位置を取り囲む境界領域を画定することを含んでもよく、外部領域の区域及び可視化された内部構造は、境界面に対して直交して投影されると、境界領域内に存在する。通常、外側表面の表現は、画像面上への外部の投影を含み、境界面は、画像面に対して平行である。あるいは、外側表面の表現は、画像面上への外側表面の投影を含み、境界面は、画像面に対して平行ではない。
境界面は、器具の特定された位置を含有してもよい。あるいは、境界面は、器具の特定された位置を含有しなくてもよい。
断層撮影データは、生存被験者の身体のX線撮影に由来するコンピュータ断層撮影(CT)データを含み、X線の低い減衰を有する身体の内部構造の領域は、表示された表現において透明にレンダリングされてもよい。
更に別の開示された実施形態では、表示された表現内の内部構造は、断層撮影データに由来する非分割化画像を含む。
代替的な実施形態では、身体の領域は、生存被験者の副鼻腔を含む。侵襲的器具は、副鼻腔内に挿入されるガイドワイヤであってもよい。
本発明のある実施形態により、装置が更に提供され、この装置は、
生存被験者の身体のある領域の中へ挿入されるように構成された侵襲的器具と、
身体の外側表面の表現を表示するように構成された画面と、
プロセッサであって、
身体に関する三次元断層撮影データを受信することと、
データを使用して、外側表面の表現を生成することと、
身体内の器具の位置を特定することと、
特定された位置に近接した身体の内部構造を画面上に可視化するために、器具の特定された位置を取り囲む外側表面の区域を、表示された表現内で局所的に透明にレンダリングすることと、を行なうように構成されている、プロセッサと、を備える。
本開示は、図面と併せて、以下の本開示の実施形態の詳細説明からより完全に理解されるであろう。
本発明の実施形態による、副鼻腔手術システムの概略図である。 本発明の実施形態による、図1のシステムを用いた手術を受けている被験者の頭部の概略図である。 本発明の実施形態による、システムの操作において実行される工程のフローチャートである。 本発明の実施形態による、システムの画面上に表示される画像の概略図である。 本発明の実施形態による、境界面及び境界領域の概略図である。 本発明の実施形態による、画像の要素の局所的な透明レンダリングの後に、画面上に表示された画像の概略図である。 本発明の代替的な実施形態による、画面上に表示された画像の概略図である。
概要
生存被験者の身体に対する侵襲的医療処置の間、特に最小限の侵襲的処置の間、手術が行われている体内の要素、又はそのような要素に近接した体内の要素は、通常、処置を行っている医師は見ることができない。処置で使用される侵襲的器具は、探知され、被験者の画像上に重ねられてもよいが、とりわけ、合成画像において提示される視覚情報が比較的大量である場合、通常、そのような合成画像は、医師にとって解釈が困難である場合がある。
本発明の実施形態は、この課題に対する解決法を提供する。被験者の身体の三次元断層撮影データは、処置において使用される侵襲的器具の位置を特定するように構成されたシステムを操作するプロセッサによって受信される。断層撮影データは、実際の処置が実施される前に、ある時間、場合により数日にもわたって受信される場合がある。このデータを使用して、被験者の皮膚に通常近似している身体の外側表面の表現が生成され、この表現は、画面上に表示される。
処置中、医師は、ガイドワイヤなどの侵襲的器具を、被験者の身体のある領域内へ挿入する。プロセッサは、器具内の磁気センサを探知する磁気探知システムなどの器具探知システムを操作して、被験者の身体内の器具の位置を特定する。
プロセッサは、特定された位置を取り囲む外側表面の区域を描写し、表面の表示された表現においてその区域を局所的に透明にレンダリングする。局所的に透明にレンダリングされた区域は、外側表面の観察者の位置に応じて選択されてもよい。通常、この区域は、外側表面が画像化される画面に対して平行であるので、画面は、観察者にとって「バーチャルカメラ」として機能する。区域を局所的に透明にレンダリングすることによって、特定された位置に近接する身体の内部構造を画面上で可視化することができる。この内部構造は、以前は外側表面によって覆い隠されていた。
通常、局所的に透明にされた区域の寸法は、医師によって調整することができる。あるいは又は更には、寸法は、プロセッサが少なくとも部分的にこの区域を自動的に描写するように、あらかじめ調整されてもよい。
示される区域は、侵襲的器具の位置を取り囲む領域に限定されるが、身体の内部構造を示すことによって、本発明の実施形態は、視覚的な「過負荷」を生じることなく医師に有用な情報を提供することができる。
システムの説明
ここで、本発明の実施形態による、副鼻腔手術システム20の概略図である図1、及びこのシステムを用いた手術を受けている被験者22の頭部の概略図である図2を参照する。システム20は、被験者22の副鼻腔に対する医療処置の間、通常使用される。そのような処置の前に、一組の磁場発生器24が、通常、被験者の頭部に固定されたフレーム26内に発生器を組み込むことによって、被験者の頭部に固定される。以下に説明するとおり、磁場発生器により、外側表面34を有することが想定される被験者の副鼻腔内に挿入される器具28の位置を探知することができる。
以下の説明において明確にするために、別途記載がある場合を除いて、器具28は、その遠位端32にコイル30を有するガイドワイヤを備えることが想定され、ガイドワイヤは、副鼻腔拡張(sinuplasty)処置の前に副鼻腔内に挿入される。コイル30は、探知センサとして機能し、コイルを使用して探知する方法を以下で更に説明する。あるいは、Hallデバイスなどの他の種類のセンサがコイル30の代わりに使用されてもよい。ガイドワイヤ28に類似するガイドワイヤは、その内容が参照により本明細書に援用される、本発明の譲受人に譲渡された米国特許出願第14/792,823号に記載されている。しかしながら、当業者は、必要な変更を加えれば、挿入及び探知されるガイドワイヤ以外の器具の場合にもこの説明を適用することができるであろう。
発生器24を備えるシステム20の要素は、1つ又は2つ以上のメモリと通信する処理部を備えるシステムプロセッサ40によって制御され得る。プロセッサ40は、キーパッド及び/又はマウス若しくはトラックボールなどのポインティングデバイスを通常備える操作制御部51を備えるコンソール50内に搭載されてもよい。コンソール50はまた、ガイドワイヤ28の近位端52などのシステム20の他の要素と接続している。医師54は、処置を実施する間、操作用制御部を使用して、プロセッサと情報のやり取りをし、プロセッサは、システム20によって生成された結果を画面56上に提示することができる。通常、結果に由来する様々な画像を画面56上に提示することができる。提示することができる画像の更なる詳細を以下に更に説明する。
プロセッサ40は、プロセッサのメモリ内に記憶されたソフトウェアを用いてシステム20を操作する。ソフトウェアは、例えば、ネットワークを介して、電子的形態でプロセッサ40にダウンロードされてもよいし、又は代替的若しくは追加的に、磁気メモリ、光メモリ、若しくは電子メモリなどの、非一時的な有形媒体上に提供かつ/若しくは記憶されてもよい。
プロセッサ40は、とりわけ、ソフトウェアを使用して、磁場発生器24を操作及び校正する。発生器は、様々な周波数の交番磁場をフレーム26の近位にある領域内へ伝播するように操作される。フレーム内の発生器は、被験者に装着する前に、フレームに対して既知の場所及び向きにある領域内にコイルを位置付けることによって校正することができる。信号は、交番磁場によってコイル内で誘導され、プロセッサは、信号を取得及び記録する。(Biosense Webster(Diamond Bar、CA)により生産されるCarto(登録商標)システムは、磁場によって照射された領域内のコイルの場所及び向きを見つけるために、本明細書に記載されるシステムと類似するシステムを使用している。)次いで、プロセッサは、コイルの場所と向きとの間の校正関係、並びにこれらの場所及び向きに対して記録された信号を定式化する。プロセッサ40は、校正関係を使用して、コイル30、ひいては、ガイドワイヤ28の遠位端32の場所及び向きを探知することができることが理解されよう。
校正関係が定式化されるとすぐに、フレームは、被験者の頭部に装着されてもよい。装着後、フレームは、適所で固定され、例えば、取り付けられたフレームを含む被験者の頭部を複数の様々な角度から画像化することによって、被験者の頭部の外形形体と位置合わせされる。フレームの位置合わせにより、磁場発生器を被験者の外形形体とも位置合わせすることができる。あるいは又は更には、位置合わせは、フレーム並びに被験者の外形形体に対して1つ又は2つ以上の既知の場所及び向きにコイルを設置することを含み得る。
被験者の外形形体と位置合わせすることによって、位置合わせは、通常、上で言及した投影された副鼻腔拡張処置の前に通常取得されている頭部の画像を使用して、被験者の副鼻腔と位置合わせすることを含む。したがって、フレーム26は、被験者の副鼻腔と位置合わせされ、かつ被験者の外形形体と位置合わせされる。使用される画像は、被験者から受信した断層撮影データから形成され、この断層撮影データは、断層撮影手順に由来してもよく、この断層撮影手段としては、X線を使用するコンピュータ断層撮影法(CT)、MRI(磁気共鳴画像法)、陽電子放射断層撮影法(PET)、単一光子放射コンピュータ断層撮影法(SPECT)、又は超音波断層撮影法が挙げられるが、これらに限定されない。あるいは又は更には、画像は、そのような画像の組み合わせを含んでもよいが、以下の説明において簡略化するために、画像は、CTデータに由来する想定とし、当業者は、他の断層撮影データに由来する画像にこの説明を適用することができるであろう。
上述した位置合わせにより、発生器24によってそれぞれ画定された、個別の座標系、被験者の頭部の形体、及びCT画像を一緒に確実に位置合わせすることができるので、3つのエンティティ全てに由来する要素に言及する際に使用することができる1つの共通座標系64が有効に存在することとなる。例として、本説明では、座標系64は、被験者22の矢状面及び冠状面によって画定されると想定し、y軸の方向を画定する平面の交差は、本明細書では被験者に対して上向きであると想定し、x軸の方向は、y軸に直交し、冠状面にあり、かつ被験者の左に向かい、z軸の方向は、x軸及びy軸に直交し、かつ被験者の前方に向かう。
言及されたCT画像は、一組のボクセルに由来し、それぞれのボクセルは、座標系64で画定され得るものなどの三次元(3D)空間においてボクセルの位置を表す順序付けられた3つの値を含む。それぞれのボクセルはまた、ボクセルの特性、典型的には、X線に対するボクセルの減衰を表す値を含む。一組のボクセルを使用して、通常、ボクセルのそれぞれの減衰値に対して様々な諧調レベルを割り当てることによって、CT画像を生成することができる。当該技術分野で既知であるように、減衰値は、Hounsfield単位(HU)で通常測定され、空気は、X線減衰が実質上ないことに対応する-1000HUであり、緻密骨は、大きなX線減衰に対応するおよそ+3000HUである。医学的文脈において使用される通常の諧調レベルのCT画像は、-1000HUの値を有するボクセルを黒色で、+3000の値を有するボクセルを白色で提示する。
図3は、システム20の操作で実行される工程のフローチャートであり、図4~図7は、本発明の実施形態による工程を示す。フローチャートは、医師54によって実施される副鼻腔手術処置の画像がどのように医師に対して画面56上に提示されるのかを説明している。
最初の工程100において、被験者22の頭部は、コンピュータ断層撮影法(CT)によってスキャンされ、このスキャン由来のCTデータは、プロセッサ40によって取得される。被験者22のCTスキャンは、副鼻腔手術処置に対応するフローチャートの残りの工程の実施から独立して実施されてもよい。通常、工程100は、以下の処置の手術工程の数日前に実施されてもよい。
被験者22が麻酔を施された後、通常実施される第1の手術工程102において、磁場発生器24は、通常、被験者の頭部にフレーム26を固定することによって、被験者22の頭部に対して固定して装着される。次いで、発生器が動作し、位置合わせ工程104において、発生器の探知座標系が被験者の頭部の座標系に位置合わせされる。位置合わせは、通常、上述のとおり、すなわち、被験者の頭部を様々な角度から画像化することによって、かつ/又は発生器を保持するフレーム、並びに被験者の外形形体に対して1つ又は2つ以上の既知の場所及び向きにコイルを配置することによって実施される。位置合わせにより、共通の座標系が生成され、本明細書において座標系64を含むことが想定される。
最初の表示工程106において、プロセッサ40は、工程100で受信したCTデータを使用して、被験者の外側表面34の、本明細書では画像150とも称される表現150を生成し、その画像を画面56上に表示する。図4は、画面56上に表示された画像150を概略的に示す。画像150は、被験者の冠状面に対して平行、すなわち、座標軸が図4にも描かれている座標系64のxy平面に対して平行である平面上に形成されることが想定される。
器具操作工程108において、医師は、例えば、器具の遠位先端を被験者の鼻孔の近くに位置付けることによって、器具28を被験者の副鼻腔に近づける。コイル30は、発生器24由来の磁場に応じて、プロセッサ40へ信号を提供し、信号により、プロセッサは、コイル、ひいてはガイドワイヤ28の遠位先端32の位置及び向きを判定することができる。プロセッサは、遠位先端の位置及び向きを使用して、図4に図示したとおり、画像150の上に、遠位先端の位置及び向きを表す位置及び向きを有するアイコン152を重ね合わせる。
一部の実施形態では、医師54は、この段階で工程104の位置合わせを視覚的に検証してもよく、必要であれば、制御部51を使用して位置合わせを調整してもよい。検証は、医師が被験者の鼻孔に対して遠位先端32の配置を観察することによって行われてもよく、画像150に対するアイコン152の表現が正しいと思われることを確認することによって行われてもよい。表現が正しいと思われない場合、医師は、制御部51を使用して、画像150に対してアイコン152を手動で調整してもよく、プロセッサ40は、行われた調整を画像150と発生器24の座標系の位置合わせに組み込んでもよい。
侵襲的工程110において、医師は、器具28を被験者の鼻腔内に挿入するので、器具の遠位先端が医師からもはや見えなくなる。プロセッサ40は、遠位先端の追跡を継続し、遠位先端の追跡された位置及び向きが画像150内のアイコンの位置及び向きによって表されるようにアイコン152を移動させる。
一部の実施形態では、器具28の表現もまた、画像150内に組み込まれる。器具28が剛性である場合、この表現は、当該技術分野で既知の方法で、コイル30の器具との幾何学的関係に由来してもよい。器具28が柔軟である場合、この表現は、器具に取り付けられた、概ねコイル30に類似した追加の追跡コイルを更に使用して生成されてもよい。あるいは、コイル30の位置は、記録されてもよく、器具の表現は、記録された経路に対応すると想定されてもよい。
図5は、境界面160及び境界領域170を概略的に示す。遠位先端32の位置を使用して、透明にレンダリングされる画像150の領域を描写し、残された領域は「そのまま」とする。描写を実施するために、遠位先端の位置を使用して、境界面160、及び遠位先端を取り囲みかつ境界面内にある境界領域170を画定することができる。後述のとおり、プロセッサ40は、境界面及び境界領域を使用して、画像150のどの要素が局所的に透明にレンダリングされるか、かつどの要素がそのようにレンダリングされないかを判定する。
一実施形態では、境界面160は、遠位先端32の位置を通過する平面であり、境界面の方向は、プロセッサ40によって自動的に設定されてもよい。あるいは又は更には、境界面の方向及び/又は位置は、制御部51を使用して医師54によって設定されてもよい。明確にするために、以下の説明では、境界面及び遠位先端の位置は、被験者22に由来することが想定される座標系64に応じて画定されると想定されている。遠位先端は、正のz値zbpを有することが想定され、例として、境界面160は、座標系64のxy平面に対して平行であると想定され、すなわち、被験者の冠状面に対して平行であり、かつ図5に概略的に図示したとおり、遠位先端の位置を通過すると想定される。境界面160は、遠位先端の位置を通過するため、境界面に関する式は下式である。
z=zbp (1)
境界領域170はまた、プロセッサ40によって自動的に、かつ/又は医師54によって少なくとも部分的に手動で設定されてもよい。境界領域170は、外周172を有し、かつ遠位先端32の位置を取り囲む境界面内の任意の閉区域であってもよい。簡略化するために、以下の説明では、区域170は、遠位先端の位置に中心を有し、医師54によって半径が設定された円であることが想定されるが、当業者は、遠位先端の位置を取り囲む任意の規則的又は不規則的な閉区域に対してこの説明を適用するであろう。
プロセッサ40は、z≧zbpの値を有し、z軸に沿って投影すると、区域170内にある、画像150の要素を判定する。次いで、プロセッサは、その要素を透明にレンダリングするので、結果的に、これらの要素は、画像150においてもはや見ることができない。例えば、被験者の鼻の先端部の近位にある破線180は、画像150内ではもはや見ることができない外側表面34の部分を図示しているので、図5では、被験者22の鼻の先端部176は、z≧zbpの値を有している。
上記で定義された透明にレンダリングされる要素の結果として、z<zbpの値を有し、かつz軸に沿って投影されると、区域170内にある画像150の要素は、このとき見ることができるので、画像内に表示される。局所的な透明レンダリング以前は、「現在見えている」要素は、表面要素によって覆い隠されていたため、見えなかった。
図6は、区域170内の画像の要素の局所的な透明レンダリング後に、画面56上に表示された画像150を概略的に示す。明確にするために、外周172(図5)に対応する破線円172Aは、画像に重ね合わせてあり、座標系64もまた、図中に描かれている。円172A内の要素を透明にレンダリングすることにより、ここで、円内の区域190は、工程100で受信された被験者22のCT断層撮影データに由来する内部構造を示している。
図6に図示されたケースにおいて、画面56は、xy平面内にあるので、画面は、z軸に沿って画像150に向かって見ている観察者の「バーチャルカメラ」として機能していることが理解されよう。
上記の説明は、断層撮影データに由来する画像への局所的な透過法の適用の一例を提供し、この事例における画像は、被験者の冠状面に対して平行な平面上に形成されている。断層撮影データの三次元性により、本発明の実施形態が被験者22を通る実質的に任意の平面上に形成される画像を使用することができるように、かつ画像が座標系64内で画定され得るように、データを操作してもよいことが理解されよう。
図7は、本発明の代替な実施形態による、画面56上に表示された画像150を概略的に示す。図7では、画像150は、被験者22の矢状面に対して平行、すなわち、座標系64のyz平面上の境界面を使用して形成されることが想定される。yz平面の位置は、本明細書ではxbpと呼ばれる、遠位先端32のx値に対応することが想定されるので、境界面の式は、式(2)によって与えられる。
x=xbp (2)
図5及び図6を参照して上述した例に関して、遠位先端を取り囲みかつ境界面上にある境界領域は、簡略化のために、例えば、遠位先端32の位置に中心を有し、かつ医師54によって設定された半径を有する円であることが想定される。図7では、アイコン152を中心とする破線円172Bは、境界領域の外周に相当する。
図7で図示された実施形態について、プロセッサ40は、x≧xbpの値を有し、x軸に沿って投影されると、境界領域内にある画像150の要素を判定する。その後、プロセッサは、これらの要素を透明にレンダリングするので、画像150内でもはや見えなくなる。局所的に透明にレンダリングした結果として、このとき、円172B内で、x<xbpの値を有し、かつx軸に沿って投影されると、境界領域内にある画像150の要素194は、画像150内で見ることができる。
図7では、図6と対照的に、画面56は、このときyz平面内にあり、画面は、x軸に沿って画像150に向かって見ている観察者のバーチャルカメラとして機能する。
一般的に、任意の所与の境界面及び境界領域に関して、プロセッサは、平面より上にあり、かつ境界面上に直交して投影されると、境界領域内にある、画像150の要素を判定することが理解されよう。プロセッサは、これらの要素を透明にレンダリングするので、平面より下にあり、境界面上に直交して投影される要素は、画像150内で見えるようになる。
また当然のことながら、図6及び図7は、本発明の実施形態の2つの例のみを図示しているが、他の実施形態は、当業者に明白であることが理解されるであろう。いくつかの例を以下に提示する。
器具の遠位先端の位置は、上で言及した境界面上にあるのではなく、平面が遠位先端の上又は下にあってもよい。一部の実施形態では、平面と遠位先端との間の距離は、通常、医師によって実施される処置中に、医師54によって変えられてもよく、したがって、医師は、上述した事例以外に、被験者22の所望の内部構造の画像を見ることができる。
境界領域の寸法は、医師が内部構造の他の所望の画像もまた見ることができるように変えられてもよい。
医師は、例えば、特定の内部構造の視認性を改善するように境界面の方向を変えてもよい。境界面は、通常、画面56上に提示される画像の平面に平行であるが、これは必要条件ではないので、例えば、医師が特定の構造のより詳細を見たいと望む場合、医師は、境界面が画像面に対して平行ではないように境界面を回転させてもよい。
CT画像の場合では、局所的透過法の適用によって可視化された被験者22の内部構造は、上述のとおり、測定された減衰値を有するCTボクセルデータに基づいている。内部構造の画像は、通常、画面56上に黒色又は白色の不透過画素によって表現されている、空気に対するボクセルなどの低減衰ボクセルを用いて生成されるが、本発明の一部の実施形態では、内部構造の低減衰ボクセルの画素は、透明にレンダリングされる。低減衰のボクセルに対応する画素を透明にレンダリングすることにより、これらのボクセルによって覆い隠されていた内部構造を可視化することができる。したがって、低減衰のボクセルは、通常、可視光に対して透過性である空気に対応するため、ボクセルによって通常覆い隠された構造を可視化することにより、画像150に対してより現実的な表示をもたらすことができる。
断層撮影データの一部の表示は、生成された画像をより有意義にするために分割化を使用する。しかしながら、そのような分割化は、分かりにくい、又は更には不正確な画像を生成する場合があることを、発明者は観察してきた。したがって、本発明の一部の実施形態では、分割化画像ではなく、断層撮影データに由来し、被験者の外側表面及び内部構造の画像を含む、分割されていない「未加工の」画像が、画面56に表示される。
上記の説明は、ガイドワイヤの1つの遠位先端及び関連付けられた局所的透過領域に言及する一方で、ガイドワイヤ以外のツールの場合も、ツールのそれぞれが、それぞれの局所的透過領域を有する複数のツールが同時に探知される場合も、この説明が対象としていることを、当業者は理解するであろう。
したがって、上記に述べた実施形態は、例として引用したものであり、また本発明は、上記に詳細に示し説明したものに限定されないことが認識されよう。むしろ、本発明の範囲は、上文に記載された様々な特徴の組み合わせ及び部分的組み合わせ、並びに、先行技術において開示されていないが前述の記載を読めば当業者が発想するであろうそれらの変更例及び改良例の両方を含む。
〔実施の態様〕
(1) 生存被験者の身体に関する三次元断層撮影データを受信することと、
該データを使用して、該身体の外側表面の表現を生成し、該表現を画面上に表示することと、
侵襲的器具を該身体のある領域の中へ挿入し、該身体内の該器具の位置を特定することと、
該特定された位置に近接した該身体の内部構造を該画面上に可視化するために、該器具の該特定された位置を取り囲む該外側表面の区域を、該表示された表現内で局所的に透明にレンダリングすることと、を含む、方法。
(2) 前記断層撮影データは、X線を使用するコンピュータ断層撮影法、磁気共鳴画像法、陽電子放射断層撮影法、単一光子放射コンピュータ断層撮影法、及び超音波断層撮影法のうち少なくとも1つに由来する、実施態様1に記載の方法。
(3) 前記侵襲的器具は、センサを備え、該センサは、該センサを横断する磁場に応じて信号を生成するように構成され、前記器具の前記位置を特定することは、該信号を使用して、前記位置を特定することを含む、実施態様1に記載の方法。
(4) 前記侵襲的器具を表すアイコンを前記表示された表現内に組み込むことを含む、実施態様1に記載の方法。
(5) 前記表現の撮像座標系を、前記器具の前記位置の探知に使用される探知座標系と位置合わせすることを含む、実施態様1に記載の方法。
(6) 前記器具の前記特定された位置に関する境界面を画定することを含み、前記外側表面の前記区域は、該境界面の第1の側にあり、前記可視化された内部構造は、該第1の側とは反対側の、該境界面の第2の側にある、実施態様1に記載の方法。
(7) 前記境界面内で前記特定された位置を取り囲む境界領域を画定することを含み、前記外部領域の前記区域及び前記可視化された内部構造は、前記境界面に対して直交して投影されると、該境界領域内に存在する、実施態様6に記載の方法。
(8) 前記外側表面の前記表現は、画像面上への前記外部の投影を含み、前記境界面は、該画像面に対して平行である、実施態様6に記載の方法。
(9) 前記外側表面の前記表現は、画像面上への前記外側表面の投影を含み、前記境界面は、該画像面に対して平行ではない、実施態様6に記載の方法。
(10) 前記境界面は、前記器具の前記特定された位置を含有する、実施態様6に記載の方法。
(11) 前記境界面は、前記器具の前記特定された位置を含有しない、実施態様6に記載の方法。
(12) 前記断層撮影データは、前記生存被験者の前記身体のX線撮影に由来するコンピュータ断層撮影(CT)データを含み、該X線の低い減衰を有する前記身体の前記内部構造の領域は、前記表示された表現において透明にレンダリングされる、実施態様1に記載の方法。
(13) 前記表示された表現内の前記内部構造は、前記断層撮影データに由来する非分割化画像を含む、実施態様1に記載の方法。
(14) 前記身体の前記領域は、前記生存被験者の副鼻腔を含む、実施態様1に記載の方法。
(15) 前記侵襲的器具は、前記副鼻腔内に挿入されるガイドワイヤを含む、実施態様14に記載の方法。
(16) 生存被験者の身体のある領域の中へ挿入されるように構成された侵襲的器具と、
該身体の外側表面の表現を表示するように構成された画面と、
プロセッサであって、
該身体に関する三次元断層撮影データを受信することと、
該データを使用して、該外側表面の該表現を生成することと、
該身体内の該器具の位置を特定することと、
該特定された位置に近接した該身体の内部構造を該画面上に可視化するために、該器具の該特定された位置を取り囲む該外側表面の区域を、該表示された表現内で局所的に透明にレンダリングすることと、を行なうように構成されている、プロセッサと、を備える、装置。
(17) 前記断層撮影データは、X線を使用するコンピュータ断層撮影法、磁気共鳴画像法、陽電子放射断層撮影法、単一光子放射コンピュータ断層撮影法、及び超音波断層撮影法のうち少なくとも1つに由来する、実施態様16に記載の装置。
(18) 前記侵襲的器具は、センサを備え、該センサは、該センサを横断する磁場に応じて信号を生成するように構成され、前記器具の前記位置を特定することは、該信号を使用して、前記位置を特定することを含む、実施態様16に記載の装置。
(19) 前記プロセッサは、前記侵襲的器具を表すアイコンを前記表示された表現内に組み込むように構成されている、実施態様16に記載の装置。
(20) 前記プロセッサは、前記表現の撮像座標系を、前記器具の前記位置の探知に使用される探知座標系と位置合わせするように構成されている、実施態様16に記載の装置。
(21) 前記プロセッサは、前記器具の前記特定された位置に関する境界面を画定するように構成され、前記外側表面の前記区域は、該境界面の第1の側にあり、前記可視化された内部構造は、該第1の側とは反対側の、該境界面の第2の側にある、実施態様16に記載の装置。
(22) 前記プロセッサは、前記境界面内で前記特定された位置を取り囲む境界領域を画定するように構成され、前記外部領域の前記区域及び前記可視化された内部構造は、前記境界面に対して直交して投影されると、該境界領域内に存在する、実施態様21に記載の装置。
(23) 前記外側表面の前記表現は、画像面上への前記外側表面の投影を含み、前記境界面は、該画像面に対して平行である、実施態様21に記載の装置。
(24) 前記外側表面の前記表現は、画像面上への前記外側表面の投影を含み、前記境界面は、該画像面に対して平行ではない、実施態様21に記載の装置。
(25) 前記境界面は、前記器具の前記特定された位置を含有する、実施態様21に記載の装置。
(26) 前記境界面は、前記器具の前記特定された位置を含有しない、実施態様21に記載の装置。
(27) 前記断層撮影データは、前記生存被験者の前記身体のX線撮影に由来するコンピュータ断層撮影(CT)データを含み、該X線の低い減衰を有する前記身体の前記内部構造の領域は、前記表示された表現において透明にレンダリングされる、実施態様16に記載の装置。
(28) 前記表示された表現内の前記内部構造は、前記断層撮影データに由来する非分割化画像を含む、実施態様16に記載の装置。
(29) 前記身体の前記領域は、前記生存被験者の副鼻腔を含む、実施態様16に記載の装置。
(30) 前記侵襲的器具は、前記副鼻腔内に挿入されるガイドワイヤを含む、実施態様29に記載の装置。

Claims (14)

  1. 生存被験者の身体のある領域の中へ挿入されるように構成された侵襲的器具と、
    該身体の外側表面の表現を表示するように構成された画面と、
    プロセッサであって、
    該身体に関する三次元断層撮影データを受信することと、
    該データを使用して、該外側表面の該表現を生成することと、
    該身体内の該器具の位置を特定することと、
    該特定された位置に近接した該身体の内部構造を該画面上に可視化するために、該器具の該特定された位置を取り囲む該外側表面の区域を、該表示された表現内で、該器具の位置に基づき自動的に、局所的に透明にレンダリングすることと、を行なうように構成されている、プロセッサと、を備え
    前記プロセッサは、前記器具の前記特定された位置に関する境界面を画定するように構成され、前記外側表面の前記区域は、該境界面の第1の側にあり、前記可視化された内部構造は、該第1の側とは反対側の、該境界面の第2の側にあり、
    前記境界面は、前記器具の遠位先端から事前に設定された距離にある、前記被験者の冠状面又は矢状面に対して平行な平面である、装置。
  2. 前記断層撮影データは、X線を使用するコンピュータ断層撮影法、磁気共鳴画像法、陽電子放射断層撮影法、単一光子放射コンピュータ断層撮影法、及び超音波断層撮影法のうち少なくとも1つに由来する、請求項1に記載の装置。
  3. 前記侵襲的器具は、センサを備え、該センサは、該センサを横断する磁場に応じて信号を生成するように構成され、前記器具の前記位置を特定することは、該信号を使用して、前記位置を特定することを含む、請求項1に記載の装置。
  4. 前記プロセッサは、前記侵襲的器具を表すアイコンを前記表示された表現内に組み込むように構成されている、請求項1に記載の装置。
  5. 前記プロセッサは、前記表現の撮像座標系を、前記器具の前記位置の探知に使用される探知座標系と位置合わせするように構成されている、請求項1に記載の装置。
  6. 前記プロセッサは、前記境界面内で前記特定された位置を取り囲む境界領域を画定するように構成され、前記外側領域の前記区域及び前記可視化された内部構造は、前記境界面に対して直交して投影されると、該境界領域内に存在する、請求項に記載の装置。
  7. 前記外側表面の前記表現は、画像面上への前記外側表面の投影を含み、前記境界面は、該画像面に対して平行である、請求項に記載の装置。
  8. 前記外側表面の前記表現は、画像面上への前記外側表面の投影を含み、前記境界面は、該画像面に対して平行ではない、請求項に記載の装置。
  9. 前記境界面は、前記器具の前記特定された位置を含有する、請求項に記載の装置。
  10. 前記境界面は、前記器具の前記特定された位置を含有しない、請求項に記載の装置。
  11. 前記断層撮影データは、前記生存被験者の前記身体のX線撮影に由来するコンピュータ断層撮影(CT)データを含み、該X線の低い減衰を有する前記身体の前記内部構造の領域は、前記表示された表現において透明にレンダリングされる、請求項1に記載の装置。
  12. 前記表示された表現内の前記内部構造は、前記断層撮影データに由来する非分割化画像を含む、請求項1に記載の装置。
  13. 前記身体の前記領域は、前記生存被験者の副鼻腔を含む、請求項1に記載の装置。
  14. 前記侵襲的器具は、前記副鼻腔内に挿入されるガイドワイヤを含む、請求項13に記載の装置。
JP2016222216A 2015-11-16 2016-11-15 Ct画像に対して局所的に適用される透過法 Active JP7051286B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/942,455 US9947091B2 (en) 2015-11-16 2015-11-16 Locally applied transparency for a CT image
US14/942,455 2015-11-16

Publications (2)

Publication Number Publication Date
JP2017086917A JP2017086917A (ja) 2017-05-25
JP7051286B2 true JP7051286B2 (ja) 2022-04-11

Family

ID=57345733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016222216A Active JP7051286B2 (ja) 2015-11-16 2016-11-15 Ct画像に対して局所的に適用される透過法

Country Status (8)

Country Link
US (1) US9947091B2 (ja)
EP (1) EP3173023B1 (ja)
JP (1) JP7051286B2 (ja)
KR (1) KR20170057141A (ja)
CN (1) CN107016662B (ja)
AU (1) AU2016253613A1 (ja)
CA (1) CA2947873A1 (ja)
IL (1) IL248535B (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017122322A1 (ja) * 2016-01-14 2017-07-20 オリンパス株式会社 医療用マニピュレータシステム
US11154363B1 (en) * 2016-05-24 2021-10-26 Paul A. Lovoi Terminal guidance for improving the accuracy of the position and orientation of an object
US11026747B2 (en) * 2017-04-25 2021-06-08 Biosense Webster (Israel) Ltd. Endoscopic view of invasive procedures in narrow passages
US10561370B2 (en) * 2017-04-26 2020-02-18 Accalrent, Inc. Apparatus to secure field generating device to chair
WO2019045144A1 (ko) * 2017-08-31 2019-03-07 (주)레벨소프트 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
US20190159843A1 (en) * 2017-11-28 2019-05-30 Biosense Webster (Israel) Ltd. Low profile dual pad magnetic field location system with self tracking
US11350847B2 (en) 2018-12-13 2022-06-07 Biosense Webster (Israel) Ltd. Composite visualization of body part
JP7235519B2 (ja) * 2019-01-29 2023-03-08 ザイオソフト株式会社 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002510230A (ja) 1997-06-27 2002-04-02 ザ・ボード・オブ・トラスティーズ・オブ・ザ・リーランド・スタンフォード・ジュニア・ユニバーシティ 立体的画像ナビゲーション方法及び装置
JP2003265408A (ja) 2002-03-19 2003-09-24 Mitsubishi Electric Corp 内視鏡誘導装置および方法
JP2007044507A (ja) 2005-08-01 2007-02-22 Biosense Webster Inc 経皮的僧帽弁形成術のモニタリング
WO2008093517A1 (ja) 2007-01-31 2008-08-07 National University Corporation Hamamatsu University School Of Medicine 手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラム
JP2011523577A (ja) 2008-06-04 2011-08-18 チェック−キャップ リミテッド 組織を撮像するための装置及び方法
US20120253200A1 (en) 2009-11-19 2012-10-04 The Johns Hopkins University Low-cost image-guided navigation and intervention systems using cooperative sets of local sensors
US20140187948A1 (en) 2012-12-31 2014-07-03 General Electric Company Systems and methods for ultrasound image rendering

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3232612B2 (ja) * 1992-01-10 2001-11-26 株式会社日立製作所 三次元画像情報提示方法
US5558091A (en) * 1993-10-06 1996-09-24 Biosense, Inc. Magnetic determination of position and orientation
US6167296A (en) 1996-06-28 2000-12-26 The Board Of Trustees Of The Leland Stanford Junior University Method for volumetric image navigation
US7225012B1 (en) * 2000-09-18 2007-05-29 The Johns Hopkins University Methods and systems for image-guided surgical interventions
US7006085B1 (en) * 2000-10-30 2006-02-28 Magic Earth, Inc. System and method for analyzing and imaging three-dimensional volume data sets
US8190238B2 (en) * 2005-12-09 2012-05-29 Hansen Medical, Inc. Robotic catheter system and methods
US8926511B2 (en) * 2008-02-29 2015-01-06 Biosense Webster, Inc. Location system with virtual touch screen
US8494608B2 (en) * 2008-04-18 2013-07-23 Medtronic, Inc. Method and apparatus for mapping a structure
US8690776B2 (en) * 2009-02-17 2014-04-08 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image guided surgery
WO2012088535A1 (en) * 2010-12-23 2012-06-28 Bard Access System, Inc. System, device, and method to guide a rigid instrument
US9918659B2 (en) * 2013-03-15 2018-03-20 Intuitive Surgical Operations, Inc. Shape sensor systems for tracking interventional instruments and mehods of use

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002510230A (ja) 1997-06-27 2002-04-02 ザ・ボード・オブ・トラスティーズ・オブ・ザ・リーランド・スタンフォード・ジュニア・ユニバーシティ 立体的画像ナビゲーション方法及び装置
JP2003265408A (ja) 2002-03-19 2003-09-24 Mitsubishi Electric Corp 内視鏡誘導装置および方法
JP2007044507A (ja) 2005-08-01 2007-02-22 Biosense Webster Inc 経皮的僧帽弁形成術のモニタリング
WO2008093517A1 (ja) 2007-01-31 2008-08-07 National University Corporation Hamamatsu University School Of Medicine 手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラム
JP2011523577A (ja) 2008-06-04 2011-08-18 チェック−キャップ リミテッド 組織を撮像するための装置及び方法
US20120253200A1 (en) 2009-11-19 2012-10-04 The Johns Hopkins University Low-cost image-guided navigation and intervention systems using cooperative sets of local sensors
JP2013511355A (ja) 2009-11-19 2013-04-04 ザ・ジョンズ・ホプキンス・ユニバーシティー 局所センサの協調セットを使用した低コストの画像誘導ナビゲーション/介入システム
US20140187948A1 (en) 2012-12-31 2014-07-03 General Electric Company Systems and methods for ultrasound image rendering

Also Published As

Publication number Publication date
EP3173023B1 (en) 2023-06-07
US9947091B2 (en) 2018-04-17
CN107016662A (zh) 2017-08-04
AU2016253613A1 (en) 2017-06-01
US20170140527A1 (en) 2017-05-18
EP3173023C0 (en) 2023-06-07
CA2947873A1 (en) 2017-05-16
CN107016662B (zh) 2022-05-24
JP2017086917A (ja) 2017-05-25
KR20170057141A (ko) 2017-05-24
IL248535A0 (en) 2017-01-31
EP3173023A1 (en) 2017-05-31
IL248535B (en) 2019-02-28

Similar Documents

Publication Publication Date Title
JP7051286B2 (ja) Ct画像に対して局所的に適用される透過法
EP3395282B1 (en) Endoscopic view of invasive procedures in narrow passages
JP6559532B2 (ja) X線透視画像のリアルタイムシミュレーション
JP7375001B2 (ja) Entツールを備えるカメラの使用
JP2009022754A (ja) 放射線画像の位置揃えを補正する方法
JP2019042506A (ja) 解剖学的画像における内視鏡の位置及び光軸の表示
JP6349278B2 (ja) 放射線撮像装置、画像処理方法及びプログラム
JP6995586B2 (ja) コンピュータ断層撮影画像補正
IL270532B (en) Correction of medical scans
EP4202843A1 (en) Method and device for enhancing the display of features of interest in a 3d image of an anatomical region of a patient
JP6703470B2 (ja) データ処理装置及びデータ処理方法
JP7301573B2 (ja) 静的仮想カメラの配置方法
JP7505081B2 (ja) 狭い通路における侵襲的手順の内視鏡画像
IL265519A (en) Locating an opening of a space in the body

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220330

R150 Certificate of patent or registration of utility model

Ref document number: 7051286

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150