JPWO2017043150A1 - マッピング画像表示制御装置および方法並びにプログラム - Google Patents

マッピング画像表示制御装置および方法並びにプログラム Download PDF

Info

Publication number
JPWO2017043150A1
JPWO2017043150A1 JP2017538890A JP2017538890A JPWO2017043150A1 JP WO2017043150 A1 JPWO2017043150 A1 JP WO2017043150A1 JP 2017538890 A JP2017538890 A JP 2017538890A JP 2017538890 A JP2017538890 A JP 2017538890A JP WO2017043150 A1 JPWO2017043150 A1 JP WO2017043150A1
Authority
JP
Japan
Prior art keywords
region
branch
position information
lung
mapping image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017538890A
Other languages
English (en)
Other versions
JP6396597B2 (ja
Inventor
健太 山田
健太 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2017043150A1 publication Critical patent/JPWO2017043150A1/ja
Application granted granted Critical
Publication of JP6396597B2 publication Critical patent/JP6396597B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/481Diagnostic techniques involving the use of contrast agents
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00743Type of operation; Specification of treatment sites
    • A61B2017/00809Lung operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4405Constructional features of apparatus for radiation diagnosis the apparatus being movable or portable, e.g. handheld or mounted on a trolley
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Hardware Design (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Quality & Reliability (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

気管支の末梢に染料を吹き付けた場合にその染料が滲み出す肺表面の位置を高精度にシミュレーションすることができ、その位置をマッピングしたマッピング画像を生成し、表示することができるマッピング画像表示制御装置および方法並びにプログラムを提供する。3次元画像に含まれる肺領域を抽出する肺領域抽出部11と、肺領域内に含まれる気管支領域を抽出する気管支領域抽出部12と、気管支領域の分岐位置の情報を取得する分岐位置情報取得部13と、分岐位置の情報に基づいて、気管支領域に含まれる分枝の延長線が肺領域の表面に到達する到達位置情報を推定する到達位置情報推定部14と、到達位置情報を肺領域の表面にマッピングしたマッピング画像を生成して表示装置3に表示させる表示制御部15とを備える。

Description

本発明は、気管支の末梢に染料を吹き付けた場合に、その染料が滲み出す肺表面の位置をシミュレーションし、その位置を肺表面上にマッピングしたマッピング画像を生成して表示させる装置および方法並びにプログラムに関するものである。
近年、肺の切除領域をマーキングする方法としてVAL-MAP(Virtual Assisted Lung Mapping)法が提案されている(非特許文献1参照)。このVAL-MAP法では、腫瘍の周辺にある気管支を任意に選択し、その気管支に対して気管支鏡の手技を実施する。そして、カテーテルを気管支の末梢まで進ませ、その末梢に染料を吹きかけることによって肺表面を染色する。
このように肺表面を染色することによって、開胸あるいは胸腔鏡の手技時には染色された領域をランドマークとして、腫瘍の存在位置を高精度に予測できる。
Masaaki Sato、外8名、"Thoracoscopic wedge lung resection using virtual-assisted lung mapping"、[online]、2014年6月12日、Asian Cardiovascular and Thoracic Annals、〈URL:http://aan.sagepub.com/content/early/2014/06/12/0218492314539332〉
ここで、上述したVAL-MAP法を実施する際、どの気管支を選択して染料を吹き付けると肺表面のどの辺りが染色されるかを術前にシミュレーションによって確認したい場合がある。そこで、画像処理により抽出された気管支領域に基づいて、肺表面に染色できる位置をシミュレーションする方法が考えられる。
このようなシミュレーションを行う場合、通常、気管支領域は、肺表面に触れるところまでは存在しないので、気管支領域を肺表面まで引き延ばすことが考えられる。気管支領域を肺表面まで引き延ばす方法としては、たとえば気管支領域の経路をグラフ構造として抽出し、そのグラフ構造の末端を肺表面まで延長させる方法が考えられる。
しかしながら、画像処理による気管支経路の抽出精度が低い場合には、気管支経路が誤認識され、その結果、グラフ構造の末端が不自然な方向に曲がる場合がある。その場合、グラフ構造の末端の延長方向も不自然な方向となり、本来の気管支領域の延伸方向とは異なる方向となってしまうため、肺表面における染色される位置を高精度にシミュレーションすることができない。
本発明は、上記事情に鑑み、気管支の末梢に染料を吹き付けた場合にその染料が滲み出す肺表面の位置を高精度にシミュレーションすることができ、その位置をマッピングしたマッピング画像を生成し、表示させることができるマッピング画像表示制御装置および方法並びにプログラムを提供することを目的とするものである。
本発明のマッピング画像表示制御装置は、3次元画像に含まれる肺領域を抽出する肺領域抽出部と、肺領域内に含まれる気管支領域を抽出する気管支領域抽出部と、気管支領域の分岐位置の情報を取得する分岐位置情報取得部と、分岐位置の情報に基づいて、気管支領域に含まれる分枝の延長線が肺領域の表面に到達する到達位置情報を推定する到達位置情報推定部と、到達位置情報を肺領域の表面にマッピングしたマッピング画像を生成して表示部に表示させる表示制御部とを備えたことを特徴とする。
また、本発明のマッピング画像表示制御装置において、到達位置情報推定部は、分岐位置の情報と分枝の末端とに基づいて設定された直線を分枝の延長線として推定することができる。
また、本発明のマッピング画像表示制御装置において、到達位置情報推定部は、分枝の末端とその末端から1つの目の分岐位置の情報とに基づいて設定された直線を分枝の延長線として推定することができる。
また、本発明のマッピング画像表示制御装置において、到達位置情報推定部は、分枝上の点とその分枝の末端から1つの目の分岐位置の情報に基づいて特定された点とを用いてスプライン補間し、そのスプライン補間によって求められた曲線を分枝の延長線として推定することができる。
また、本発明のマッピング画像表示制御装置において、到達位置情報推定部は、分岐位置の情報に基づいて分枝を特定し、肺領域における特定した分枝の支配領域を特定し、その支配領域の重心と分枝の末端とを結んだ直線を分枝の延長線として推定することができる。
また、本発明のマッピング画像表示制御装置において、到達位置情報推定部は、分岐位置の情報に基づいて分枝を特定し、肺領域における特定した分枝の支配領域を特定し、その支配領域の表面のうちの肺領域の表面となる領域の重心を到達位置情報として推定することができる。
また、上記本発明のマッピング画像表示制御装置においては、肺領域内に含まれる血管領域を抽出する血管領域抽出部を備えることができ、到達位置情報推定部は、血管領域および分岐位置の情報に基づいて、分枝の延長線を推定することができる。
また、上記本発明のマッピング画像表示制御装置において、血管領域抽出部は、血管領域として、肺静脈領域および肺動脈領域のうちの少なくとも一方を抽出することができる。
また、本発明のマッピング画像表示制御装置は、表示制御部は、到達位置情報によって特定される到達位置を含む領域を設定し、その領域を肺領域の表面にマッピングしたマッピング画像を生成して表示部に表示させることができる。
本発明のマッピング画像表示制御方法は、3次元画像に含まれる肺領域を抽出し、肺領域内に含まれる気管支領域を抽出し、気管支領域の分岐位置の情報を取得し、分岐位置の情報に基づいて、気管支領域に含まれる分枝の延長線が肺領域の表面に到達する到達位置情報を推定し、到達位置情報を肺領域の表面にマッピングしたマッピング画像を生成して表示部に表示させることを特徴とする。
本発明のマッピング画像表示制御プログラムは、コンピュータを、3次元画像に含まれる肺領域を抽出する肺領域抽出部と、肺領域内に含まれる気管支領域を抽出する気管支領域抽出部と、気管支領域の分岐位置の情報を取得する分岐位置情報取得部と、分岐位置の情報に基づいて、気管支領域に含まれる分枝の延長線が肺領域の表面に到達する到達位置情報を推定する到達位置情報推定部と、到達位置情報を肺領域の表面にマッピングしたマッピング画像を生成して表示部に表示させる表示制御部として機能させることを特徴とする。
本発明のマッピング画像表示制御装置および方法並びにプログラムによれば、3次元画像に含まれる肺領域を抽出し、肺領域内に含まれる気管支領域を抽出し、気管支領域の分岐位置の情報を取得する。そして、その分岐位置の情報に基づいて、気管支領域に含まれる分枝の延長線が肺領域の表面に到達する到達位置情報を推定するようにしたので、上述したVAL-MAP法において染料が到達する位置を高精度にシミュレーションすることができる。すなわち、上述したように気管支経路の抽出精度が低く、気管支経路の末端が不自然な方向に曲がっている場合においても、分岐位置の情報に基づいて到達位置情報を推定するようにしたので、染料が到達する位置を高精度にシミュレーションすることができる。なお、分岐位置の情報に基づいて到達位置情報を推定する方法については、後で詳述する。
そして、その高精度にシミュレーションされた到達位置情報を肺領域の表面にマッピングしたマッピング画像を生成して表示させることができる。
本発明のマッピング画像表示制御装置および方法並びにプログラムの一実施形態を用いた医用画像診断支援システムの概略構成を示すブロック図 気管支領域から取得されたグラフ構造の末端の形状がいびつな形状となった場合を示す図 気管支領域のグラフ構造の分枝の末端とその末端から1つの目の分岐点とを結んだ直線を気管支領域の分枝の延長線として推定する場合を説明するための図 本発明のマッピング画像表示制御装置および方法並びにプログラムの一実施形態を用いた医用画像診断支援システムによって生成されたマッピング画像の一例を示す図 本発明のマッピング画像表示制御装置および方法並びにプログラムの一実施形態を用いた医用画像診断支援システムの作用を説明するためのフローチャート 分枝上の2つの点と分岐点とを用いてスプライン補間した曲線を気管支領域の分枝の延長線として推定する場合を説明するための図 スプライン補間によって気管支領域の分枝の延長線を推定する場合のその他の例を説明するための図 分枝の支配領域の重心と分枝の末端とを結んだ直線を気管支領域の分枝の延長線として推定する場合を説明するための図 支配領域の表面のうちの肺領域の表面となる領域の重心を到達位置情報として推定する場合を説明するための図 血管領域抽出部をさらに備えた医用画像診断支援システムの概略構成を示すブロック図 血管領域および分岐位置の情報に基づいて、気管支領域の分枝の延長線が肺表面に到達する位置を推定する場合を説明するための図
以下、本発明のマッピング画像表示制御装置および方法並びにプログラムの一実施形態を用いた医用画像診断支援システムについて、図面を参照しながら詳細に説明する。図1は、本実施形態の医用画像診断支援システムの概略構成を示すブロック図である。
本実施形態の医用画像診断支援システムは、上述したVAL-MAP法を行う際の支援を行うものであり、具体的には、気管支の末梢に染料を吹き付けた場合に、その染料が滲み出す肺表面の位置をシミュレーションし、その位置を肺表面上にマッピングしたマッピング画像を生成して表示させるものである。医者は、このマッピング画像を観察することによって、気管支を選択してその末梢に染料を吹き付けた場合に、肺表面のどの位置に染料が滲み出すかを把握することができるので、術前に、染料を吹き付ける気管支を適切に選択することができる。
本実施形態の医用画像診断支援システムは、具体的には、図1に示すように、マッピング画像表示制御装置1と、医用画像保管サーバ2と、表示装置3(表示部に相当するものである)と、入力装置4とを備えている。
マッピング画像表示制御装置1は、コンピュータに本実施形態のマッピング画像表示制御プログラムをインストールしたものである。
マッピング画像表示制御装置1は、中央処理装置(CPU(central processing unit))、半導体メモリ、およびハードディスクやSSD(Solid State Drive)等のストレージデバイスを備えている。ストレージデバイスには、本実施形態のマッピング画像表示制御プログラムがインストールされており、このマッピング画像表示制御プログラムが中央処理装置によって実行されることによって、図1に示す医用画像取得部10、肺領域抽出部11、気管支領域抽出部12、分岐位置情報取得部13、到達位置情報推定部14および表示制御部15が動作する。
マッピング画像表示制御プログラムは、DVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)などの記録媒体に記録されて配布され、その記録媒体からコンピュータにインストールされる。または、マッピング画像表示制御プログラムは、ネットワークに接続されたサーバコンピュータの記憶装置もしくはネットワークストレージに対して外部からアクセス可能な状態で記憶され、要求に応じてコンピュータにダウンロードされ、インストールされる。
医用画像取得部10は、予め撮影された患者の胸部の3次元画像6を取得するものである。3次元画像6は、たとえばCT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置などによって患者の胸部を撮影したものである。
3次元画像6は、医用画像保管サーバ2に患者の識別情報とともに予め保管されており、医用画像取得部10は、入力装置4などを用いてユーザによって入力された患者の識別情報に基づいて、その識別情報を有する3次元画像6を医用画像保管サーバ2から読み出して一時記憶するものである。
肺領域抽出部11は、医用画像取得部10によって取得された胸部の3次元画像6から肺領域を抽出する処理を行うものである。肺領域を抽出する方法としては、肺野は空気が存在する領域であるため、3次元画像6の各画素位置の信号値をヒストグラム化し、肺領域をしきい値処理することにより抽出する方法や、肺領域を表すシード点に基づく領域拡張法などの公知の手法を用いることができる。
気管支領域抽出部12は、胸部の3次元画像6の肺領域内に含まれる気管支領域を抽出する処理を行うものである。3次元画像6に含まれる気管支は、気管支の内部の画素は空気領域に相当するため低い画素値を示す領域として表れるが、気管支壁は比較的高い画素値を示す円柱あるいは線状の構造物であると考えられる。そこで、画素毎に画素値の分布に基づく形状の構造解析を行なって気管支を抽出する。たとえば特開2012−200403号公報に記載の方法のように、各画素の画素値に基づいてヘッセ解析を行うことによって気管支領域および気管支領域を細線化したグラフ構造を抽出することができる。なお、気管支領域を抽出方法としては、その他の公知の手法を用いるようにしてもよい。
分岐位置情報取得部13は、気管支領域抽出部12によって抽出された気管支領域の分岐位置の情報を取得するものである。具体的には、分岐位置情報取得部13は、気管支領域抽出部12において抽出された気管支領域のグラフ構造を、開始点、端点、分岐点、エッジに分類し、その分岐点の位置情報を気管支領域の分岐位置の情報として取得するものである。
到達位置情報推定部14は、分岐位置情報取得部13によって取得された分岐位置の情報に基づいて、気管支領域に含まれる分枝の延長線が肺領域の表面に到達する到達位置情報を推定するものである。
ここで、VAL-MAP法において気管支の末梢に染料を吹き付けた場合に、その染料が肺の組織内を通過し、肺表面に到達して滲み出す位置は、気管支の分枝の延長線が肺表面に到達する位置と推定することができる。
そこで、3次元画像から気管支領域のグラフ構造を抽出し、そのグラフ構造に含まれる分枝の末端とその末端近傍のエッジ上の点(たとえば末端から一つ手前の点)とを結ぶ直線を分枝の延長線とし、その延長線が肺領域の表面に到達する位置を染料が到達する(滲み出す)位置として推定することが考えられる。
しかしながら、グラフ構造の抽出精度によっては、分枝の末端の形状がいびつな形状となる場合があり、その場合、上述したように分枝の末端とその末端近傍のエッジ上の点とを結ぶ直線を分枝の延長線とすると、その延長線の延伸方向と本来の気管支領域の分枝の延伸方向とが全く異なる場合があり、その結果、染料が到達する位置の推定精度が著しく低下する場合がある。
図2は、上述したようにグラフ構造の分枝の末端の形状がいびつな形状となった場合を示すものである。図2では、肺領域および気管支領域のボリュームレンダリング画像を示すとともに、気管支領域のグラフ構造を黒の細線により示し、グラフ構造の分枝の延長線をグレーの太線により示し、グラフ構造の分枝の延長線が肺領域の表面に到達する位置を球体または半球体により示している。図2に示す黒線の丸印内のグラフ構造の末端近傍は、実際の形状よりも図面右側に曲がった形状として抽出されており、その結果、染料が到達すると推定される位置が、実際に到達する位置よりも図面右方向(白い矢印方向)にずれた位置となっている。
そこで、本実施形態の到達位置情報推定部14は、上述したような問題を解決するため、分岐位置情報取得部13によって取得された分岐位置の情報とグラフ構造の分枝の末端とに基づいて設定された直線を気管支領域の分枝の延長線として推定する。そして、その延長線が肺領域の表面に到達する到達位置情報を染料が肺表面に到達する位置として推定するものである。
具体的には、到達位置情報推定部14は、図3に示すように、気管支領域のグラフ構造の分枝の末端Tとその末端Tから1つの目の分岐点Sとを結んだ直線を気管支領域の分枝の延長線L1として推定する。そして、その延長線L1と肺領域表面との交点を到達位置情報として取得する。末端Tから1つ目の分岐点とは、気管支領域の末端から気管上流側に向かう方向について1つの目の分岐である。
なお、本実施形態においては、末端Tから1つ目の分岐点を用いるようにしたが、これに限らず、末端Tから2つ目の分岐点や3つ目の分岐点などを用いるようにしてもよい。
また、本実施形態においては、気管支領域のグラフ構造の分枝の末端Tとその末端Tから1つの目の分岐点Sとを結ぶようにしたが、必ずしも分岐点Sを用いなくてもよく、実質的に同等の結果が得られるような点であれば、分岐点Sの近傍の点を用いてもよい。すなわち、分岐位置の情報とグラフ構造の分枝の末端とに基づいて設定された直線とは、分枝の末端Tと分岐点Sの近傍の点とを結んで設定された直線も含むものとする。
また、本実施形態の到達位置情報推定部14は、気管支領域の分枝の延長線と肺領域表面との交点を到達位置情報として取得するようにしたが、到達位置情報は必ずしも1点の座標でなくてもよく、その交点を含む2次元的または3次元的な範囲を到達位置情報として取得するようにしてもよい。到達位置情報推定部14によって取得される到達位置情報が、気管支の末梢に染料を吹き付けた場合に、その染料が肺の組織内を通過し、肺表面に到達する到達点または到達範囲を表す情報である。
表示制御部15は、肺領域抽出部11によって抽出された肺領域および気管支領域抽出部12によって抽出された気管支領域に基づいて、肺領域および気管支領域のボリュームレンダリング画像を生成するものである。肺領域のボリュームレンダリング画像の不透明度については、肺領域内の気管支領域が視認できる程度に設定され、肺領域と気管支領域の色はそれぞれ異なる色に設定される。
また、表示制御部15は、気管支領域を細線化することによって取得されたグラフ構造、到達位置情報推定部14において設定された気管支領域の分枝の延長線および到達位置情報を、肺領域および気管支領域のボリュームレンダリング画像に重ね合わせたマッピング画像を表示装置3に表示させるものである。
図4は、表示装置3に表示させるマッピング画像の一例を示す図である。図4に示されるように、気管支領域のグラフ構造は黒の細線で表示され、気管支領域の分枝の延長線はグレーの太線により表示され、到達位置情報は球体または半球体により表示される。図4に示すように、黒線の丸印内のグラフ構造の末端近傍は、本来の形状よりも図面右側に曲がった形状となっているが、気管支領域の延長線は気管支領域の分枝の延伸方向と同じ方向に設定されており、染料の肺表面への到達位置が高精度に推定されていることがわかる。なお、到達位置情報を表す球体または半球体が、本発明における到達位置情報によって特定される到達位置を含む領域に相当するものである。
また、マッピング画像内に表示される到達位置情報を表す球体または半球体の大きさは、ユーザによって入力装置4を用いて任意に設定可能である。また、到達位置情報を表す球体または半球体は、表示および非表示を切り替え可能にしてもよく、また、点滅表示させるようにしてもよい。また、気管支領域の延長線は必ずしも表示しなくてもよく、ユーザによって表示と非表示を切り替え可能としてもよい。
表示装置3は、液晶ディスプレイなどの表示デバイスを備えたものであり、上述したボリュームレンダリング画像などを表示するものである。
入力装置4は、ユーザによる種々の設定入力を受け付けるものであり、キーボードやマウスなどの入力デバイスを備えたものである。入力装置4は、たとえば患者の識別情報の設定入力、ボリュームレンダリング画像の不透明度および色の設定入力、並びに到達位置情報の表示形状および大きさの設定入力などを受け付けるものである。なお、タッチパネルを用いることによって表示装置3と入力装置4と兼用するようにしてもよい。
次に、本実施形態の医用画像診断支援システムの作用について、図5に示すフローチャートを参照しながら説明する。
まず、ユーザによる患者の識別情報などの入力に基づいて、医用画像取得部10によって医用画像保管サーバ2から3次元画像6が読み出されて取得される(S10)。
医用画像取得部10によって取得された3次元画像6は、肺領域抽出部11および気管支領域抽出部12に入力される。肺領域抽出部11は、入力された3次元画像6から肺領域を抽出し(S12)、気管支領域抽出部12は、入力された3次元画像6から気管支領域を抽出し、さらにその気管支領域を細線化したグラフ構造を取得する(S14)。
気管支領域抽出部12によって取得されたグラフ構造は、分岐位置情報取得部13に入力され、分岐位置情報取得部13は、入力されたグラフ構造に基づいて、気管支領域の分岐位置の情報を取得する(S16)。
分岐位置情報取得部13によって取得された分岐位置の情報は、到達位置情報推定部14に入力され、到達位置情報推定部14は、入力された分岐位置の情報に基づいて、気管支領域の分枝の延長線を設定し、その延長線と肺領域表面との交点の情報を到達位置情報として取得する(S18)。
肺領域抽出部11によって抽出された肺領域および気管支領域抽出部12によって抽出された気管支領域が表示制御部15に入力され、表示制御部15は、入力された肺領域および気管支領域に基づいて、そのボリュームレンダリング画像を生成する。さらに、気管支領域を細線化することによって取得されたグラフ構造、到達位置情報推定部14において設定された気管支領域の分枝の延長線および到達位置情報が表示制御部15に入力され、表示制御部15は、入力されたグラフ構造、分枝の延長線および到達位置情報を肺領域および気管支領域のボリュームレンダリング画像に重ね合わせたマッピング画像を生成し(S20)、そのマッピング画像を表示装置3に表示させる(S22)。
上記実施形態の医用画像診断支援システムによれば、3次元画像に含まれる肺領域を抽出し、肺領域内に含まれる気管支領域を抽出し、気管支領域の分岐位置の情報を取得する。そして、その分岐位置の情報に基づいて、気管支領域に含まれる分枝の延長線が肺領域の表面に到達する到達位置情報を推定するようにしたので、上述したVAL-MAP法において染料が到達する位置を高精度にシミュレーションすることができる。すなわち、上述したようにグラフ構造の抽出精度が低く、グラフ構造の末端が不自然な方向に曲がっている場合においても、分岐位置の情報に基づいて到達位置情報を推定するようにしたので、染料が到達する位置を高精度にシミュレーションすることができる。
そして、その高精度にシミュレーションされた到達位置情報を肺領域の表面にマッピングしたマッピング画像を生成して表示させることができる。
また、上記実施形態においては、末端Tとその末端Tから1つの目の分岐点Sとを結んだ直線を気管支領域の分枝の延長線L1として推定するようにしたので、簡易な演算処理によって延長線L1を推定することができる。
なお、上記実施形態においては、グラフ構造の末端と分岐点とを結ぶ直線を気管支領域の分枝の延長線として推定するようにしたが、気管支領域の分枝の延長線の設定方法としてはこれに限らない。たとえば、図6に示すように、分枝上の2つの点P1および点P2と分枝の末端Tから1つの目の分岐点Sとを用いてスプライン補間し、そのスプライン補間によって求められた曲線L2を気管支領域の分枝の延長線として推定するようにしてもよい。
このようにスプライン補間によって求められた曲線L2を気管支領域の分枝の延長線として推定するようにした場合には、より高精度に分枝の延長線を推定することができる。
なお、このようにスプライン補間によって分枝の延長線を推定する場合においても、必ずしも分岐点Sを用いなくてもよく、実質的に同等の結果が得られるような点であれば、分岐点Sの近傍の点を用いてもよい。
また、上記説明では、分岐点Sと分枝上の2つの点P1,P2を用いてスプライン補間を行うようにしたが、分岐点S以外の点については、3つ以上の点を設定するようにしてもよい。また、図6に示すように分枝上の2点を設定するのではなく、図7に示すように、分枝上の少なくとも1つ以上の点P1と分岐点Sと分岐点Sよりも気管上流側の点P3とを用いてスプライン補間して曲線L3を推定するようにしてもよい。点P3は、分岐点Sと分岐点Sから気管上流側に1つ前の分岐点との間に設定することが望ましい。なお、スプライン補間に用いる点P1〜P3は、ユーザが入力装置4を用いて任意に設定するようにしてもよいし、分岐点Sからの距離を予め設定しておき、自動的に設定するようにしてもよい。
また、分岐位置情報取得部13によって取得された分岐位置の情報に基づいて、分枝を特定し、肺領域におけるその特定した分枝の支配領域を特定し、その支配領域の重心と分枝の末端とを結んだ直線を気管支領域の分枝の延長線として推定するようにしてもよい。
具体的には、図8に示すように、分岐位置情報取得部13によって取得された分岐点Sに基づいて分枝Bを特定し、肺領域における分枝Bの支配領域Rを特定し、その支配領域Rの重心G1と分枝Bの末端Tとを結んだ直線L4を気管支領域の分枝の延長線として推定するようにしてもよい。なお、気管支領域の分枝の支配領域については、解剖学的な見地から分枝毎に予め設定されるものであり、ここでいう重心G1は、3次元的な形状である支配領域の3次元空間上の重心である。
このように、支配領域Rの重心G1と分枝Bの末端Tとを結んだ直線L4を気管支領域の分枝の延長線として推定した場合には、解剖学的な見地に基づいて、より高精度に分枝の延長線を推定することができる。
また、上述したように気管支領域の分枝の支配領域を用いて分枝の延長線の肺表面における到達位置を推定するその他の方法として、たとえば分岐位置情報取得部13によって取得された分岐位置の情報に基づいて、分枝を特定し、肺領域におけるその特定した分枝の支配領域を特定し、その支配領域の表面のうちの肺領域の表面となる領域の重心を到達位置情報として推定するようにしてもよい。
具体的には、図9に示すように、分岐位置情報取得部13によって取得された分岐点Sに基づいて分枝Bを特定し、肺領域における分枝Bの支配領域Rを特定し、その支配領域Rの表面のうちの肺領域の表面となる領域Aの重心G2を到達位置情報として推定するようにしてもよい。なお、ここでいう重心G2は、3次元空間上の面として表される領域Aの重心である。
また、気管支の周辺には肺動脈および肺静脈があり、気管支の延伸方向と肺動脈および肺静脈の延伸方向とは類似していることが知られている。そこで、肺動脈や肺動脈の延伸方向の情報に基づいて、気管支領域の分枝の延長線が肺表面に到達する位置を推定するようにしてもよい。
具体的には、図10に示すように、マッピング画像表示制御装置1に対してさらに血管領域抽出部16を設ける。血管領域抽出部16は、3次元画像6から肺領域内に含まれる血管領域を抽出するものである。具体的には、血管領域抽出部16は、肺動脈領域および肺静脈領域を抽出する。肺動脈領域および肺静脈領域の抽出方法としては、たとえば領域拡張法などの公知な手法を用いることができる。
そして、到達位置情報推定部14は、分岐位置情報取得部13によって取得された分岐位置の情報に基づいて気管支領域の分枝に沿って延びる肺動脈領域および肺静脈領域を特定し、その特定した肺動脈領域および肺静脈領域に基づいて、気管支領域の分枝の延長線を推定する。具体的には、図11に示すように、分岐位置情報取得部13によって取得された分岐点Sに最も近い肺動脈領域の位置v1と分岐点Sに最も近い肺静脈領域の位置a1とを検出し、さらに、グラフ構造の分枝の末端Tに最も近い肺動脈領域上の位置v2と末端Tに最も近い肺静脈領域上の位置a2とを検出する。
なお、分岐点Sは、グラフ構造の分枝の末端Tから気管上流側に向かって一つ目の分岐点である。また、分岐点Sに最も近い肺動脈領域上の位置v1とは、分岐点Sとの距離が最も短い肺動脈領域上の位置であり、分岐点Sに最も近い肺静脈領域上の位置a1とは、分岐点Sとの距離が最も短い肺静脈領域上の位置である。また、末端Tに最も近い肺動脈領域上の位置v2とは、末端Tとの距離が最も短い肺動脈領域上の位置であり、末端Tに最も近い肺静脈領域上の位置a2とは、末端Tと距離が最も短い肺静脈領域上の位置である。
そして、肺動脈領域上の位置v1から位置v2へ向かう方向を肺動脈領域の延伸方向として推定して第1のベクトルを設定し、肺静脈領域上の位置a1から位置a2へ向かう方向を肺静脈領域の延伸方向として推定して第2のベクトルを設定し、第1のベクトルと第2のベクトルの平均を算出する。そして、その平均のベクトルを伸ばした直線L5を気管支領域の分枝の延長線として推定し、この延長線が肺表面に到達する位置を取得する。
このように肺静脈領域および肺動脈領域を用いて分枝の延長線を推定することによって、解剖学的な見地に基づいて、より高精度に分枝の延長線を推定することができる。
なお、上記説明では、肺動脈領域上の位置v1と位置v2を用いて第1のベクトルを設定し、肺静脈領域上の位置a1と位置a2を用いて第2のベクトルを設定するようにしたが、たとえば肺動脈領域上の位置v1と位置v2とこれらの位置の間の点を用いてスプライン補間して第1の曲線を設定し、肺静脈領域上の位置a1と位置a2とこれらの位置の間の点を用いてスプライン補間して第2の曲線を設定し、第1の曲線と第2の曲線を平均化した曲線を気管支領域の分枝の延長線として推定するようにしてもよい。
また、上記説明では、肺静脈領域と肺動脈領域の両方を使用して分枝の延長線を推定するようにしたが、いずれか一方のみを用いて分枝の延長線を推定するようにしてもよい。たとえば、肺動脈領域に基づいて設定された第1のベクトルに平行であり、かつ分枝の末端Tを通る直線を分枝の延長線を推定するようにしてもよい。また、肺静脈領域に基づいて設定された第2のベクトルに平行であり、かつ分枝の末端Tを通る直線を分枝の延長線を推定するようにしてもよい。
1 マッピング画像表示制御装置
2 医用画像保管サーバ
3 表示装置
4 入力装置
10 医用画像取得部
11 肺領域抽出部
12 気管支領域抽出部
13 分岐位置情報取得部
14 到達位置情報推定部
15 表示制御部
16 血管領域抽出部

Claims (11)

  1. 3次元画像に含まれる肺領域を抽出する肺領域抽出部と、
    前記肺領域内に含まれる気管支領域を抽出する気管支領域抽出部と、
    前記気管支領域の分岐位置の情報を取得する分岐位置情報取得部と、
    前記分岐位置の情報に基づいて、前記気管支領域に含まれる分枝の延長線が前記肺領域の表面に到達する到達位置情報を推定する到達位置情報推定部と、
    前記到達位置情報を前記肺領域の表面にマッピングしたマッピング画像を生成して表示部に表示させる表示制御部とを備えたことを特徴とするマッピング画像表示制御装置。
  2. 前記到達位置情報推定部が、前記分岐位置の情報と前記分枝の末端とに基づいて設定された直線を前記分枝の延長線として推定する請求項1記載のマッピング画像表示制御装置。
  3. 前記到達位置情報推定部が、前記分枝の末端と該末端から1つの目の分岐位置の情報とに基づいて設定された直線を前記分枝の延長線として推定する請求項2記載のマッピング画像表示制御装置。
  4. 前記到達位置情報推定部が、前記分枝上の点と該分枝の末端から1つの目の分岐位置の情報に基づいて特定された点とを用いてスプライン補間し、該スプライン補間によって求められた曲線を前記分枝の延長線として推定する請求項1記載のマッピング画像表示制御装置。
  5. 前記到達位置情報推定部が、前記分岐位置の情報に基づいて前記分枝を特定し、前記肺領域における前記特定した分枝の支配領域を特定し、該支配領域の重心と前記分枝の末端とを結んだ直線を前記分枝の延長線として推定する請求項1記載のマッピング画像表示制御装置。
  6. 前記到達位置情報推定部が、前記分岐位置の情報に基づいて前記分枝を特定し、前記肺領域における前記特定した分枝の支配領域を特定し、該支配領域の表面のうちの前記肺領域の表面となる領域の重心を前記到達位置情報として推定する請求項1記載のマッピング画像表示制御装置。
  7. 前記肺領域内に含まれる血管領域を抽出する血管領域抽出部を備え、
    前記到達位置情報推定部が、前記血管領域および前記分岐位置の情報に基づいて、前記分枝の延長線を推定する請求項1記載のマッピング画像表示制御装置。
  8. 前記血管領域抽出部が、前記血管領域として、肺静脈領域および肺動脈領域のうちの少なくとも一方を抽出する請求項7記載のマッピング画像表示制御装置。
  9. 前記表示制御部が、前記到達位置情報によって特定される到達位置を含む領域を設定し、該領域を前記肺領域の表面にマッピングしたマッピング画像を生成して表示部に表示させる請求項1から8いずれか1項記載のマッピング画像表示制御装置。
  10. 3次元画像に含まれる肺領域を抽出し、
    前記肺領域内に含まれる気管支領域を抽出し、
    前記気管支領域の分岐位置の情報を取得し、
    前記分岐位置の情報に基づいて、前記気管支領域に含まれる分枝の延長線が前記肺領域の表面に到達する到達位置情報を推定し、
    前記到達位置情報を前記肺領域の表面にマッピングしたマッピング画像を生成して表示部に表示させることを特徴とするマッピング画像表示制御方法。
  11. コンピュータを、3次元画像に含まれる肺領域を抽出する肺領域抽出部と、
    前記肺領域内に含まれる気管支領域を抽出する気管支領域抽出部と、
    前記気管支領域の分岐位置の情報を取得する分岐位置情報取得部と、
    前記分岐位置の情報に基づいて、前記気管支領域に含まれる分枝の延長線が前記肺領域の表面に到達する到達位置情報を推定する到達位置情報推定部と、
    前記到達位置情報を前記肺領域の表面にマッピングしたマッピング画像を生成して表示部に表示させる表示制御部として機能させることを特徴とするマッピング画像表示制御プログラム。
JP2017538890A 2015-09-09 2016-06-22 マッピング画像表示制御装置および方法並びにプログラム Active JP6396597B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015177523 2015-09-09
JP2015177523 2015-09-09
PCT/JP2016/068562 WO2017043150A1 (ja) 2015-09-09 2016-06-22 マッピング画像表示制御装置および方法並びにプログラム

Publications (2)

Publication Number Publication Date
JPWO2017043150A1 true JPWO2017043150A1 (ja) 2018-03-08
JP6396597B2 JP6396597B2 (ja) 2018-09-26

Family

ID=58239539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017538890A Active JP6396597B2 (ja) 2015-09-09 2016-06-22 マッピング画像表示制御装置および方法並びにプログラム

Country Status (4)

Country Link
US (1) US10568705B2 (ja)
JP (1) JP6396597B2 (ja)
DE (1) DE112016003634T5 (ja)
WO (1) WO2017043150A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7034306B2 (ja) * 2018-08-31 2022-03-11 富士フイルム株式会社 領域分割装置、方法およびプログラム、類似度決定装置、方法およびプログラム、並びに特徴量導出装置、方法およびプログラム
WO2020066132A1 (ja) * 2018-09-27 2020-04-02 富士フイルム株式会社 医用画像診断支援装置、方法及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006081906A (ja) * 2004-09-13 2006-03-30 Siemens Corporate Res Inc 器官内の塞栓症により冒されている領域を分析するための自動化された方法および装置ならびに器官内の塞栓症により冒されている領域を分析するためのコンピュータプログラムコードが記憶されているコンピュータ読み取り可能媒体
JP2010517633A (ja) * 2007-01-31 2010-05-27 ザ ペン ステイト リサーチ ファンデーション 中空臓器を通る3d経路計画のためのシステム
WO2010086909A1 (ja) * 2009-01-27 2010-08-05 財団法人仙台市医療センター 術具挿入支援システム
WO2014045539A1 (ja) * 2012-09-20 2014-03-27 富士フイルム株式会社 画像処理装置および方法ならびにプログラム
JP2014223311A (ja) * 2013-05-14 2014-12-04 株式会社東芝 画像処理装置、画像処理方法及び医用画像診断装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050207630A1 (en) * 2002-02-15 2005-09-22 The Regents Of The University Of Michigan Technology Management Office Lung nodule detection and classification
JP5279291B2 (ja) * 2008-02-19 2013-09-04 株式会社東芝 医用画像表示装置および画像表示方法
EP2316341B1 (en) * 2009-03-31 2013-03-06 FUJIFILM Corporation Image processing apparatus and method and program
JP5723541B2 (ja) * 2010-03-31 2015-05-27 富士フイルム株式会社 医用画像診断支援装置およびその作動方法、並びにプログラム
JP4931027B2 (ja) * 2010-03-29 2012-05-16 富士フイルム株式会社 医用画像診断支援装置および方法、並びにプログラム
JP5597429B2 (ja) * 2010-03-31 2014-10-01 富士フイルム株式会社 医用画像処理装置および方法、並びにプログラム
JP5584006B2 (ja) * 2010-03-31 2014-09-03 富士フイルム株式会社 投影画像生成装置、投影画像生成プログラムおよび投影画像生成方法
JP5748520B2 (ja) 2011-03-25 2015-07-15 富士フイルム株式会社 内視鏡挿入支援装置およびその作動方法、並びに内視鏡挿入支援プログラム
JP5814853B2 (ja) * 2012-04-18 2015-11-17 富士フイルム株式会社 立体モデルデータ生成装置および方法並びにプログラム
JP6080249B2 (ja) * 2012-09-13 2017-02-15 富士フイルム株式会社 3次元画像表示装置および方法並びにプログラム
JP5777070B2 (ja) * 2012-09-14 2015-09-09 富士フイルム株式会社 領域抽出装置、領域抽出方法および領域抽出プログラム
JP5992853B2 (ja) * 2013-03-27 2016-09-14 富士フイルム株式会社 手術支援装置、方法およびプログラム
JP6434635B2 (ja) * 2015-09-09 2018-12-05 富士フイルム株式会社 マッピング画像表示制御装置および方法並びにプログラム
US20180140359A1 (en) * 2016-11-21 2018-05-24 Covidien Lp Electromagnetic navigation registration using ultrasound
CN108470331B (zh) * 2017-02-23 2021-12-21 富士通株式会社 图像处理装置和图像处理方法
JP6702902B2 (ja) * 2017-02-24 2020-06-03 富士フイルム株式会社 マッピング画像表示制御装置および方法並びにプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006081906A (ja) * 2004-09-13 2006-03-30 Siemens Corporate Res Inc 器官内の塞栓症により冒されている領域を分析するための自動化された方法および装置ならびに器官内の塞栓症により冒されている領域を分析するためのコンピュータプログラムコードが記憶されているコンピュータ読み取り可能媒体
JP2010517633A (ja) * 2007-01-31 2010-05-27 ザ ペン ステイト リサーチ ファンデーション 中空臓器を通る3d経路計画のためのシステム
WO2010086909A1 (ja) * 2009-01-27 2010-08-05 財団法人仙台市医療センター 術具挿入支援システム
WO2014045539A1 (ja) * 2012-09-20 2014-03-27 富士フイルム株式会社 画像処理装置および方法ならびにプログラム
JP2014223311A (ja) * 2013-05-14 2014-12-04 株式会社東芝 画像処理装置、画像処理方法及び医用画像診断装置

Also Published As

Publication number Publication date
DE112016003634T5 (de) 2018-04-26
JP6396597B2 (ja) 2018-09-26
WO2017043150A1 (ja) 2017-03-16
US10568705B2 (en) 2020-02-25
US20180185101A1 (en) 2018-07-05

Similar Documents

Publication Publication Date Title
JP6434635B2 (ja) マッピング画像表示制御装置および方法並びにプログラム
CN110010249B (zh) 基于视频叠加的增强现实手术导航方法、系统及电子设备
JP2022527360A (ja) 空間トラッキングシステムと拡張現実ディスプレイとのレジストレーション
EP2827301B1 (en) Image generation device, method, and program
JP2004534584A5 (ja)
KR20210051141A (ko) 환자의 증강 현실 기반의 의료 정보를 제공하는 방법, 장치 및 컴퓨터 프로그램
KR20130109988A (ko) 최소 침습 수술 훈련을 위한 자동 툴 포지션 결정 방법 및 시스템
Loukas et al. An integrated approach to endoscopic instrument tracking for augmented reality applications in surgical simulation training
US9808145B2 (en) Virtual endoscopic image generation device, method, and medium containing program
US9830737B2 (en) Virtual endoscopic image generation device, method, and medium containing program
US11304762B2 (en) Mapping image display control device, method, and program
KR102433473B1 (ko) 환자의 증강 현실 기반의 의료 정보를 제공하는 방법, 장치 및 컴퓨터 프로그램
Collins et al. A system for augmented reality guided laparoscopic tumour resection with quantitative ex-vivo user evaluation
JP6396597B2 (ja) マッピング画像表示制御装置および方法並びにプログラム
US10368763B2 (en) Apparatus and method for visualizing a conduction tract of heart
Wang et al. Visualization techniques for augmented reality in endoscopic surgery
Palumbo et al. Mixed reality and deep learning for external ventricular drainage placement: A fast and automatic workflow for emergency treatments
CN112331311B (zh) 一种腹腔镜手术中视频与术前模型融合显示的方法及装置
US20190019433A1 (en) Method and system for a preoperative surgical intervention simulation
Stoyanov et al. Intra-operative visualizations: Perceptual fidelity and human factors
Singh et al. A novel enhanced hybrid recursive algorithm: Image processing based augmented reality for gallbladder and uterus visualisation
US10062184B2 (en) Medical image display control device, method of operation for same, and medical image display control program
JP2020520759A (ja) ライブ2次元x線画像において介入装置の空間情報を提供する装置及び対応する方法
Wang et al. Stereoscopic augmented reality for single camera endoscopy: a virtual study
JP7444569B2 (ja) 鏡視下手術支援装置、鏡視下手術支援方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180829

R150 Certificate of patent or registration of utility model

Ref document number: 6396597

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250