JP7355514B2 - 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム - Google Patents

医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム Download PDF

Info

Publication number
JP7355514B2
JP7355514B2 JP2019064197A JP2019064197A JP7355514B2 JP 7355514 B2 JP7355514 B2 JP 7355514B2 JP 2019064197 A JP2019064197 A JP 2019064197A JP 2019064197 A JP2019064197 A JP 2019064197A JP 7355514 B2 JP7355514 B2 JP 7355514B2
Authority
JP
Japan
Prior art keywords
port
medical image
image processing
subject
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019064197A
Other languages
English (en)
Other versions
JP2020162699A (ja
Inventor
卓朗 林田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ziosoft Inc
Original Assignee
Ziosoft Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ziosoft Inc filed Critical Ziosoft Inc
Priority to JP2019064197A priority Critical patent/JP7355514B2/ja
Priority to US16/832,303 priority patent/US20200311928A1/en
Publication of JP2020162699A publication Critical patent/JP2020162699A/ja
Application granted granted Critical
Publication of JP7355514B2 publication Critical patent/JP7355514B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3417Details of tips or shafts, e.g. grooves, expandable, bendable; Multiple coaxial sliding cannulas, e.g. for dilating
    • A61B17/3421Cannulas
    • A61B17/3423Access ports, e.g. toroid shape introducers for instruments or hands
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Quality & Reliability (AREA)
  • Human Computer Interaction (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Pathology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本開示は、医用画像処理装置、医用画像処理方法、及び医用画像処理プログラムに関する。
従来、術式の1つとして、単孔式腹腔鏡下手術(SILS:Single Incisional Laparoscopic Surgery)が知られている。SILSでは、患部等のターゲットに向かって医療的処置を行うために、単一のポートから手術器具が挿入される(特許文献1参照)。
米国特許第8517933号明細書
本開示は、被検体において手術器具が通るポートを設置可能な範囲を認識でき、術者及び被検体の負担を低減できる医用画像処理装置、医用画像処理方法、及び医用画像処理プログラムを提供する。
本開示の一態様は、取得部と、処理部と、表示部と、を備え、前記取得部は、被検体のボリュームデータを取得する機能を有し、前記処理部は、前記ボリュームデータに基づく3Dデータにおいて、前記被検体の内部に配置されるターゲットを設定し、前記3Dデータを可視化して前記上皮組織を非表示とし、透明化し、又は半透明化した画像とともに、前記上皮組織において前記ターゲットに至る手術器具を挿通するポートを設置可能なポート設置可能範囲を示す情報を、前記表示部に表示させる、機能を有する、医用画像処理装置、である。
本開示によれば、被検体において手術器具が通るポートを設置可能な範囲を認識でき、術者及び被検体の負担を低減できる。
第1の実施形態における医用画像処理装置のハードウェア構成例を示すブロック図 医用画像処理装置の機能構成例を示すブロック図 ポート範囲情報の第1表示例を示す図 ポート範囲情報の第2表示例を示す図 ポート範囲情報の第3表示例を示す図 ポート範囲情報の第4表示例を示す図 ポート範囲情報の第5表示例を示す図 ポート範囲情報の第6表示例を示す図 ポート範囲情報の第7表示例を示す図 医用画像処理装置の動作例を示すフローチャート
以下、本開示の実施形態について、図面を用いて説明する。
(本開示の一形態を得るに至った経緯)
SILSでは、被検体内部での気密を保持するために、ポート気密保持器具が用いられる。SILSのポート気密保持器具は、比較的太めに設計されており、また、体表において斜めに捻り難い。そのため、SILSにおいてポートを設置できる場所は限定される。また、手術器具が挿入された被検体の体表(皮膚)等への負担が大きくなり易い。この場合、ターゲットが指定された場合に、手術器具が通るポートを設置可能な範囲(ポート設置可能範囲)を認識可能であると、ポートを設置し易くなり、術者及び被検体の負担を低減し易く、好ましい。
以下の実施形態では、被検体において手術器具が通るポートを設置可能な範囲を認識でき、術者及び被検体の負担を低減できる医用画像処理装置、医用画像処理方法、及び医用画像処理プログラムについて説明する。
(第1の実施形態)
図1は、第1の実施形態における医用画像処理装置100の構成例を示すブロック図である。医用画像処理装置100は、取得部110、UI120、ディスプレイ130、プロセッサ140、及びメモリ150を備える。医用画像処理装置100は、術者の手動による手術(手動手術とも称する)又はロボット手術を画像処理によって支援する。
医用画像処理装置100には、CT装置200が接続される。医用画像処理装置100は、CT装置200からボリュームデータを取得し、取得されたボリュームデータに対して処理を行う。医用画像処理装置100は、PCとPCに搭載されたソフトウェアにより構成されてもよい。
CT装置200は、被検体へX線を照射し、体内の組織によるX線の吸収の違いを利用して、画像(CT画像)を撮像する。被検体は、生体、人体、動物、等を含んでよい。CT装置200は、被検体内部の任意の箇所の情報を含むボリュームデータを生成する。CT装置200は、CT画像としてのボリュームデータを医用画像処理装置100へ、有線回線又は無線回線を介して送信する。CT画像の撮像には、CT撮像に関する撮像条件や造影剤の投与に関する造影条件が考慮されてよい。
医用画像処理装置100内の取得部110は、通信ポートや外部装置接続ポート、組み込みデバイスへの接続ポートを含み、CT装置200で得られたボリュームデータを取得する。取得されたボリュームデータは、直ぐにプロセッサ140に送られて各種処理されてもよいし、メモリ150において保管された後、必要時にプロセッサ140へ送られて各種処理されてもよい。また、ボリュームデータは、記録媒体や記録メディアを介して取得されてもよい。また、ボリュームデータは中間データ、圧縮データやシノグラムの形で取得されてもよい。また、ボリュームデータは医用画像処理装置100に取り付けられたセンサデバイスからの情報から取得されてもよい。このように、取得部110は、ボリュームデータ等の各種データを取得する機能を有する。
UI120は、例えば、タッチパネル、ポインティングデバイス、キーボード、又はマイクロホンを含んでよい。UI120は、医用画像処理装置100のユーザから、任意の入力操作を受け付ける。ユーザは、術者、医師、看護師、放射線技師、学生、等を含んでよい。
UI120は、各種操作を受け付ける。例えば、ボリュームデータやボリュームデータに基づく画像(例えば後述する3次元画像、2次元画像)における、関心領域(ROI)の指定や輝度条件の設定等の操作を受け付ける。関心領域は、各種組織(例えば、血管、気管支、臓器、器官、骨、脳)の領域を含んでよい。組織は、病変組織、正常組織、腫瘍組織、等を含んでよい。
ディスプレイ130は、例えばLCDを含んでよく、各種情報を表示する。各種情報は、ボリュームデータから得られる3次元画像や2次元画像を含んでよい。3次元画像は、ボリュームレンダリング画像、サーフェスレンダリング画像、仮想内視鏡画像、仮想超音波画像、CPR画像、等を含んでもよい。ボリュームレンダリング画像は、レイサム(RaySum)画像、MIP画像、MinIP画像、平均値画像、レイキャスト画像、等を含んでもよい。2次元画像は、アキシャル画像、サジタル画像、コロナル画像、MPR画像、等を含んでよい。
メモリ150は、各種ROMやRAMの一次記憶装置を含む。メモリ150は、HDDやSSDの二次記憶装置を含んでもよい。メモリ150は、USBメモリやSDカードの三次記憶装置を含んでもよい。メモリ150は、各種情報やプログラムを記憶する。各種情報は、取得部110により取得されたボリュームデータ、プロセッサ140により生成された画像、プロセッサ140により設定された設定情報、各種プログラムを含んでもよい。メモリ150は、プログラムが記録される非一過性の記録媒体の一例である。
プロセッサ140は、CPU、DSP、又はGPUを含んでよい。プロセッサ140は、メモリ150に記憶された医用画像処理プログラムを実行することにより、各種処理や制御を行う処理部160として機能する。
図2は、処理部160の機能構成例を示すブロック図である。処理部160は、領域処理部161、変形処理部162、画像生成部163、位置設定部164、範囲情報処理部165、及び表示制御部166を備える。なお、処理部160に含まれる各部は、1つのハードウェアにより異なる機能として実現されてもよいし、複数のハードウェアにより異なる機能として実現されてもよい。また、処理部160に含まれる各部は、専用のハードウェア部品により実現されてもよい。
領域処理部161は、例えば取得部110を介して、被検体のボリュームデータを取得する。領域処理部161は、ボリュームデータに含まれる任意の領域を抽出する。領域処理部161は、例えばボリュームデータの画素値に基づいて、自動で関心領域を指定し、関心領域を抽出してよい。領域処理部161は、例えばUI120を介して、手動で関心領域を指定し、関心領域を抽出してよい。関心領域は、臓器、骨、血管、患部(例えば病変組織や腫瘍組織)、等の領域を含んでよい。
変形処理部162は、手術対象の被検体における変形に関する処理を行う。例えば、変形処理部162は、仮想的に被検体に対して気腹する気腹シミュレーションを行ってよい。気腹シミュレーションの具体的な方法は、公知の方法であってよく、例えば参考非特許文献1に記載された方法でよい。つまり、変形処理部162は、非気腹状態のボリュームデータを基に、気腹シミュレーションを行い、仮想気腹状態のボリュームデータを生成してよい。気腹シミュレーションにより、ユーザは、被検体に対して実際に気腹しなくても、被検体が気腹された状態を仮定し、仮想的に気腹された状態を観察できる。なお、気腹状態のうち、気腹シミュレーションにより推定される気腹の状態を仮想気腹状態と称し、実際の気腹された状態を実気腹状態と称してよい。
(参考非特許文献1)Takayuki Kitasaka, Kensaku Mori, Yuichiro Hayashi, Yasuhito Suenaga, Makoto Hashizume, and Jun-ichiro Toriwaki, "Virtual Pneumoperitoneum for Generating Virtual Laparoscopic Views Based on Volumetric Deformation", MICCAI ( HYPERLINK "https://link.springer.com/book/10.1007/b100270" Medical Image Computing and Computer-Assisted Intervention), 2004, P559-P567
気腹シミュレーションは、有限要素法を用いた大変形シミュレーションでよい。この場合、変形処理部162は、被検体の皮下脂肪を含む体表と、被検体の腹部内臓と、をセグメンテーションしてよい。そして、変形処理部162は、体表を皮膚と体脂肪との2層の有限要素にモデル化し、腹部内臓を有限要素にモデル化してよい。変形処理部162は、任意に、例えば肺と骨とをセグメンテーションし、モデルに追加してよい。また、体表と腹部内臓との間にガス領域を設け、仮想的なガス注入に応じてガス領域(気腹空間)が拡張(膨張)してよい。
変形処理部162は、被検体内の臓器や病変等のターゲットを仮想的に変形させてよい。例えば、臓器が鉗子により引っ張られたり押されたり、切断される様子をシミュレートしてよい。例えば、体位変換による臓器の移動をシミュレートしてよい。この場合、臓器や病変の接点に加わる弾性力や臓器や病変の剛性、その他の物理的な特性が加味されてよい。
画像生成部163は、各種画像を生成する。画像生成部163は、取得されたボリュームデータの少なくとも一部(例えばボリュームデータにおいて抽出された領域)に基づいて、3次元画像や2次元画像を生成する。画像生成部163は、変形処理部162により変形されたボリュームデータ(例えば仮想気腹状態のボリュームデータや手術器具(例えば鉗子、カメラ、その他の手術器具)の動きに対応して変形されたボリュームデータ)に基づいて、3次元画像や2次元画像を生成してよい。鉗子は、把持鉗子、剥離鉗子、電気メス、等を含んでよい。
位置設定部164は、被検体において手術器具が到達するターゲットを設定する。ターゲットは、被検体における点又は領域でよい。ターゲットは、非気腹状態のボリュームデータ(気腹前ボリュームデータ)において設定されてもよいし、仮想気腹状態のボリュームデータ(気腹ボリュームデータ)において設定されてもよい。ターゲットは、関心領域と同じでもよいし、関心領域に含まれる特にユーザが注目したい点又は領域(例えば患部)でもよい。また、ターゲットは、ユーザが注目したい点又は領域を含む臓器全体、点又は領域を含む臓器の一部(例えば区域、支配血管)でもよい。ターゲットの設定方法は、上記の関心領域の指定方法と同様でよく、手動又は自動で設定されてよい。
範囲情報処理部165は、被検体において設定されたターゲットの位置に基づいて、被検体の体表にポート設置可能範囲を導出(例えば算出)する。ポート設置可能範囲は、3次元空間において様々な形状を有する。そして、ポート設置可能範囲を含むポート範囲情報を生成する。
範囲情報処理部165は、ポートを設置するためのポート設置可能条件を取得する。ポート設置可能条件は、メモリ150から読み出されてもよいし、取得部110を介して外部サーバから取得されてもよい。範囲情報処理部165は、ポート設置可能条件を満たしているか否かを判定する。例えば被検体におけるボクセル毎に、ポート設置可能条件を満たしているか否かを判定してよい。ポート設置可能条件を満たすボクセルは、ポート設置可能範囲に含められ、ポート設置可能条件を満たさないボクセルは、ポート設置可能範囲から除外される。
ポート設置可能条件は、障害物との干渉を回避可能であることを含んでよい。この場合、範囲情報処理部165は、被検体内におけるポートの配置に障害となるような障害物を加味して、ポート設置可能範囲を算出してよい。例えば、ターゲットを通り、障害物の位置を通らないポート設置可能範囲が算出されてよい。障害物は、取扱いに注意が必要な組織(例えば血管、損傷し易い臓器)、物理的に重複して配置することが困難な組織(例えば骨)、等が含まれてよい。損傷し易い臓器は、直接鉗子で刺したり、圧迫したり、挟んだりして傷つける可能性がある臓器、を含んでよい。範囲情報処理部165は、障害物の特性に関する情報(例えば障害物の性質、障害物が存在する被検体における範囲)を取得し、障害物の特性に関する情報に基づいてポート設置可能範囲を算出してよい。
ポート設置可能条件は、他の鉗子との干渉を回避可能であることを含んでよい。この場合、範囲情報処理部165は、設定されたターゲットに到達する鉗子の可動範囲(自可動範囲)の情報を取得してよい。自可動範囲は、設定されたターゲットの位置や鉗子の特性(例えば鉗子のサイズ、曲がり具合、)に応じて決定されてよい。ポート設置可能範囲は、設定されたターゲットに到達する鉗子とは異なる他の鉗子(例えば作業対象の鉗子とは異なる他の鉗子)の可動範囲(他可動範囲)の情報を取得してよい。他可動範囲は、他の鉗子の特性(例えば他の鉗子の用途やサイズや曲がり具合の少なくとも1つ)に応じて決定されてよい。範囲情報処理部165は、設定されたターゲットに到達する鉗子とは異なる他の鉗子との干渉を加味して、ポート設置可能範囲を算出してよい。例えば、ターゲットを通り、他の鉗子の可動範囲を通らないポート設置可能範囲が算出されてよい。自可動範囲及び他可動範囲の情報は、例えば、メモリ150に保持しておいてメモリ150から読み出されてもよいし、取得部110を介して外部サーバから取得されてもよい。
ポート設置可能条件は、角度条件を含んでよい。この角度条件は、ポート設置可能範囲にポートが設定される場合における、ポートの仮定位置でのポートに挿入される鉗子と被検体の体表面との成す角度が、被検体への負荷が許容される所定範囲の角度であることを含んでよい。この場合、所定範囲は、例えば10°より大きく170°より小さい角度範囲に含まれる所定範囲でよい。この場合、10°が角度の下限となり、170°が角度の上限となる。この場合には、角度の最大値を180°としている。また、体表面と鉗子との成す角度の対称性を考慮して、角度の最大値を90°としてもよい。この場合、角度が10°~90°となる。この場合、角度の表示は、10°以上として表示されてよく、90°側が省略されて10°側(下限側)のみ表示されてもよい。
また、ポート設置可能条件は、例えば鉗子の特性情報が参照され、鉗子がターゲットとポート(ポート設置可能範囲内におけるポートの仮定位置)とを通過可能であることを含んでよい。この場合、範囲情報処理部165は、鉗子が直線的であることや曲がることを考慮し、鉗子の特性情報を取得してよい。この特性情報は、取得部110を介して外部サーバから取得されてもよいし、メモリ150に保持されていたものが読み出されて取得されてもよい。鉗子の特性情報は、鉗子の曲がり方に関する情報を含んでよい。例えば、鉗子がシャフト部において可撓性を有する場合、可撓性の度合いを示す情報を含んでよい。例えば、鉗子が可撓性を有さず、シャフト部において直線的に鉗子における1つ以上の箇所で折れ曲がる場合、折れ曲がる位置と角度を示す情報を含んでよい(例えばオジギ鉗子)。つまり、鉗子は、何らかの方法で曲がり、先端部が角度調整可能でよい。範囲情報処理部165は、鉗子に限らず、他の手術器具の特性情報を取得してもよい。そして、手術器具の特性情報を基に、ポート設置可能範囲を算出し、ポート範囲情報を生成してよい。
なお、変形処理部162は、鉗子の特性情報を基に、鉗子を押し当てることによる臓器や病変の変形をシミュレートしてよい。
位置設定部164は、導出されたポート設置可能範囲の内部において、被検体の体表に設置(穿孔)される1つ以上のポートの位置(ポート位置)を設定(計画)する。位置設定部164は、非気腹状態のボリュームデータに対してポート位置を設定してよい。また、仮想気腹状態のボリュームデータに対してポート位置を設定してよい。また、術式に応じて、ポート位置を設定してよい。
また、ロボット手術が行われる場合、位置設定部164は、ロボット手術を行うための手術器具(例えば鉗子に相当するエンドエフェクタやロボットアーム)のキネマティクスの情報に応じて、ポート位置を設定してよい。キネマティクスの情報は、手術器具の形状に関する形状情報や動作に関する動作情報を含んでよい。ポート位置は、メモリ150に保持されたポート位置でもよいし、取得部110を介して外部サーバから取得されたポート位置でもよい。ポート位置は、UI120を介してユーザが指定したポート位置でもよい。
表示制御部166は、各種データ、情報、画像をディスプレイ130に表示させる。画像は、画像生成部163で生成された画像(例えばレンダリング画像)を含む。表示制御部166は、レンダリング画像に重畳して、ポート設置可能範囲を含むポート範囲情報を表示させる。また、表示制御部166は、レンダリング画像の輝度調整を行ってよい。輝度調整は、例えばウインドウ幅(WW:Window Width)及びウインドウレベル(WL:Window Level)の少なくとも一方の調整を含んでよい。ここで、WW/WLの変換値が所定値以下の時に透明としても良い。輝度調整は、例えば、ボクセル値に対応したRGBA値を設定するLUT(Look Up Table)を用いて行ってもよい。
次に、本実施形態で想定する術式について説明する。
ポート範囲情報の表示は、例えばSILSにおいて行われる。SILSは、腹腔鏡手術の一種であり、被検体の腹部に1つのポート(孔)が設置され、1つのポートから複数の鉗子類が挿入される。SILS用のポートは、例えば臍に設置される。これによって術後の傷跡が目立たないので審美性に優れ、美容上好まれる。SILSは、例えば、婦人科手術、胆嚢摘出、盲腸手術、腎臓手術に適用される。なお、単一のポートとともに、補助用ポートが設置されることがあるが、この場合もSILSに含まれてよい。
経管腔的内視鏡手術(NOTES:Natural Orifice Translumenal Endoscopic Surgery) においては内腔にポートを設置してよい。NOTESには、経肛門的全直腸間膜切除術(TaTME:Transanal Total Mesorectal Excision)が含まれる。NOTESでは、内腔を穿刺して内視鏡を伸ばすときに、体表の代わりに、内腔表面にポートが設置される。よって、内腔表面におけるポート設置可能範囲が導出され、表示されてよい。なお、SILS、NOTES、TaTMEのいずれにおいても、手動手術及びロボット手術のいずれが行われてよい。TaTMEは、例えば患部に対して、腹腔側と直腸側との2方向から同時に手術器具がアプローチされる。また、複数の鉗子を利用した腹腔鏡手術及び低侵襲ロボット手術のいずれが行われてよい。
次に、ポート範囲情報の表示例について説明する。
図3は、ポート範囲情報の第1表示例を示す図である。図4は、ポート範囲情報の第2表示例を示す図である。図3では、体表を半透明化したレンダリング画像とポート範囲情報とが表示されている。図4では、体表を透明化したレンダリング画像とポート範囲情報とが表示されている。被検体内の3次元空間においてターゲットAの位置が設定されると、体表上のポート設置可能範囲PR1が導出され、図3及び図4のポート範囲情報が表示される。このポート範囲情報は、例えば、ターゲットAの位置と、被検体の体表におけるポート設置可能範囲PR1の位置と、を示す情報を含む。また、ポート設置可能範囲PR1においてポートAの位置が設定されると、ポート範囲情報は、例えば、ポートAの位置と、ターゲットAとポートAとを結ぶ鉗子FC1の位置と、を含んでよい。
なお、レンダリング画像において体表を表示しても、体表を非表示にしても、体表を透明化しても、又は体表を半透明化しても、レンダリング画像に重畳して示されるポート設置可能範囲PR1の位置は、体表上の位置でよい。これにより、体表上でポートの設置を要する範囲を明確に把握可能である。
図5は、ポート範囲情報の第3表示例を示す図である。図5では、被検体内に障害物A(図5では「Risk A」と表示)が存在する場合のレンダリング画像とポート範囲情報とが表示されている。被検体内の3次元空間においてターゲットBの位置が設定されると、ターゲットBの位置と被検体内の障害物Aの領域に基づいて、体表上のポート設置可能範囲PR2が導出され、図5のポート範囲情報が表示される。このポート範囲情報は、例えば、ターゲットBの位置と、障害物Aの位置と、被検体の体表におけるポート設置可能範囲PR2の位置と、を示す情報を含む。また、ポート設置可能範囲PR2においてポートBの位置が設定されると、ポート範囲情報は、例えば、ポートBの位置と、ターゲットBとポートBとを結ぶ鉗子FC2の位置と、を含んでよい。
術者は、図5に示したポート範囲情報を確認することで、障害物Aとなる組織(例えば血管、損傷し易い臓器、骨)との干渉を回避して、設定されたターゲットBへ鉗子FC2を挿入できる。よって、術者は、鉗子FC2により障害物Aとなる組織を不意に刺したり圧迫したり挟んだりして、組織が損傷すること抑制できる。
図6は、ポート範囲情報の第4表示例を示す図である。図6では、複数の鉗子の存在を考慮したレンダリング画像とポート範囲情報とが表示されている。図6では、複数のポートC,Dから挿入された鉗子FC3,FC4が、同じターゲットBに対して処置を行うことを想定している。
範囲情報処理部165は、鉗子FC4の可動範囲を避けて、体表上における鉗子FC3が挿通されるポートCのポート設置可能範囲PR3を算出する。この場合、範囲情報処理部165は、ターゲットBを基点として鉗子FC3の可動範囲を算出し、鉗子FC3の可動範囲と鉗子FC4の可動範囲が重複しないように、ポートCのポート設置可能範囲PR3を算出してよい。鉗子FC3,FC4の可動範囲は、鉗子FC3,FC4が使用される手術の術式や、鉗子FC3,FC4の特性に関する情報に基づいて導出されてよい。範囲情報処理部165は、鉗子FC3,FC4の可動範囲の情報を、メモリ150から取得しても、取得部110を介して取得しても、自ら生成してもよい。
図6では、鉗子FC4の可動範囲の外縁が、鉗子FC4から所定距離(安全距離)離れた直線SLで示されている。このため、ポート設置可能範囲PR3の外縁の一部は、直線SLで切断されたような形状を有している。安全距離は、所定値でもよいし、可変値でもよい。安全距離は、術式や鉗子の使用用途によって定まってよい。なお、図6の「Eyesight」は、ポートC,Dとは異なる内視鏡ポートから挿入された手術器具としてのカメラにより撮像可能な範囲(視野)を示している。視野の範囲では、ユーザは、手術時の撮像画像により被検体内の様子を観察できる。そして、視野外において鉗子FC3と鉗子FC4が干渉することや、視野外において鉗子FC3と鉗子FC4が組織を不意に挟んだりして、組織が損傷すること抑制できる。
被検体内の3次元空間においてターゲットBの位置が設定されると、体表上のポート設置可能範囲が導出されて表示される。このポート設置可能範囲は、複数の鉗子の干渉が考慮されておらず、図6のポート設置可能範囲PR3より広く、例えば図3及び図4に示したポート設置可能範囲PR1の形状に近くなる(図6では不図示)。この状態で、ポートDの位置を設定した後に、ポートCの位置を設定することを想定する。ポートDの位置が設定されると、ポートCの位置の設定の際、ポート設置可能範囲は、ポートCに挿入される鉗子FC3とは異なる鉗子FC4の可動範囲を基に再算出され、ポート設置可能範囲PR3が得られる。ポートCの位置の設定の際には、ポート範囲情報は、例えば、ターゲットBの位置と、ポートDの位置と、ターゲットBとポートDとを結ぶ鉗子FC4の位置と、ポート設置可能範囲PR3の位置と、ユーザが視認可能な視野(eyesight)の位置と、鉗子FC4からの視野外での安全距離を示した直線SLと、を含む。ポートCの位置が設定されると、ポート範囲情報は、例えば、ポートCの位置と、ターゲットBとポートCとを結ぶ鉗子FC3の位置と、を含んでよい。
術者は、図6に示したポート範囲情報を確認することで、安全距離を示す直線SLを確認でき、手術時に、使用中の鉗子と他の鉗子との距離を確保し易くなる。よって、医用画像処理装置100は、例えば、複数の鉗子FC3,FC4に臓器や血管が挟まれて損傷することを回避できる。特に、腹腔鏡の視野外において臓器や血管が挟まれることを抑制できる。ここでは、設定済みのポートDに挿通される鉗子FC4の可動範囲と、新たに計画されるポートCに挿通される鉗子FC3の可動範囲と、を基に、これらの可動範囲が重複しないように、ポート設置可能範囲PR3が導出される。なお、手術器具としての腹腔鏡(カメラ)と鉗子との干渉を避けるように、ポート設置可能範囲PR3が導出されてもよい。
図7は、ポート範囲情報の第5表示例を示す図である。図8は、ポート範囲情報の第6表示例を示す図である。図7及び図8では、NOTESにおいて内腔からターゲットにアプローチする場合のレンダリング画像とポート範囲情報とが表示されている。図7では、レンダリング画像がMPR画像であることを例示する。図8では、レンダリング画像が仮想内視鏡画像であることを例示する。
ターゲットCが設定されると、図7及び図8のポート範囲情報が表示される。ここでは、管状組織30(例えば直腸)の内腔表面SF2にポートEを設置可能なポート設置可能範囲PR4が導出され、表示される。図7及び図8のポート範囲情報は、例えば、ターゲットCの位置と、被検体の内腔表面SF2におけるポート設置可能範囲PR4の位置と、を示す情報を含む。また、ポート設置可能範囲PR4においてポートEの位置が設定されると、ポート範囲情報は、例えば、ポートEの位置と、ターゲットCとポートEとを結ぶ鉗子FC5の位置と、を含んでよい。なお、図8の左下端部には、被検体における管状組織30の走行状態を示す情報PSが表示され、図8に示された仮想内視鏡画像が管状組織30におけるどの位置の画像であるかを示している。
表示制御部166は、MPR画像のMPR面と被検体の3次元空間におけるポート設置可能範囲PR4との交線を、MPR画像に重畳して表示させてよい。また、内腔を可視化した仮想内視鏡画像の画像面と被検体の3次元空間におけるポート設置可能範囲PR4との交線を、仮想内視鏡画像に重畳して表示させてよい。仮想内視鏡画像は、内腔の3次元画像の一例である。内腔の3次元画像は、透視投影画像、平行投影画像、円筒投影画像、等でもよい。
図9は、ポート範囲情報の第7表示例を示す図である。図9では、複数のターゲットとしてターゲットD,Eが存在する場合のレンダリング画像と角度情報とが表示されている。ターゲットD,Eの位置が設定されると、図9の角度情報を含むポート範囲情報が生成され、表示される。このポート範囲情報は、例えば、ターゲットD,Eの位置と、ポート設置可能範囲PR5の位置と、を示す情報を含む。また、ポート設置可能範囲PR5においてポートFの位置が設定されると、ポート範囲情報は、例えば、ポートFの位置と、ターゲットDとポートFとを結ぶ鉗子FC6の位置と、ターゲットEとポートFとを結ぶ鉗子FC7の位置と、を含んでよい。また、角度情報は、ポートFの位置における鉗子FC6と体表面との角度AG1が46°であり、ポートFの位置における鉗子FC7と体表面との角度AG2が40°であることを示す情報を含む。そのため、図9では、角度情報は、ポートFに挿入される鉗子の角度が40°~46°で調整される可能性があることを示す情報を含む。
このように、医用画像処理装置100は、単一のポートFからアクセスするターゲットD,Eが複数存在する場合、ターゲットD,Eにアクセスする角度の範囲を、例えば角度上限の角度(例えば46°)と下限の角度(例えば40°)とを用いて表示できる。図7では、鉗子FC6,FC7の向きによって、異なる2つの角度が考慮されている。
また、ポート設置可能範囲を導出する際に、ポートFの位置を任意の位置に仮定してよい。仮定されたポートFの位置に対応する角度の範囲が所定の安全角度の範囲内である場合、仮定されたポートFの位置にポート設置可能であると判断可能できる。この場合、ポートの仮定位置をポート設置可能範囲に含めることができる。
図10は、医用画像処理装置100の動作例を示すフローチャートである。図10では、被検体の体表にポートを設定することを例示する。
まず、被検体(例えば患者)の非気腹状態のボリュームデータを取得する(S11)。非気腹状態のボリュームデータにおいてターゲットの位置を設定する(S12)。気腹シミュレーションを行い、仮想気腹状態のボリュームデータを生成する(S13)。また、非気腹状態のボリュームデータと仮想気腹状態のボリュームデータとの対応関係を示す変形情報を生成する(S13)。仮想気腹状態のボリュームデータの例えば輪郭を抽出して、被検体の体表を取得する(S14)。体表上の各ボクセルにおいてポート設置可能条件を満たすか否かを判定し、ポート設置可能条件を満たすボクセルの集合で構成されるポート設置可能範囲を算出する(S15)。体表を透明にする輝度設定で輝度調整して、仮想気腹状態のボリュームデータをボリュームレンダリングし、レンダリング画像にポート設置可能範囲を重畳して表示させる(S16)。ポート設置可能範囲の範囲内において、ポートを設定する(S17)。
以上、図面を参照しながら各種の実施形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。
例えば、ポート設置可能条件が複数存在してもよい。例えば、障害物との干渉回避や他の鉗子との干渉回避するための安全距離、鉗子挿入時の安全角度が段階的に複数用意されてよく、推奨ポート設置可能範囲や許容ポート設置可能範囲のように、ポート設置可能範囲が段階的に複数導出されてもよい。
また、図10のS13が省略され、被検体に対して気腹シミュレーションや実際の気腹が行われなくてもよい。組織によっては(例えば肺では)、気腹しないことが考えられるためである。
また、NOTESの場合、変形処理部162が変形シミュレーションにより胃や腸を仮想的に変形させてから、範囲情報処理部165がポート設置可能範囲を導出してポート範囲情報を生成し、表示制御部166がポート範囲情報を表示させてよい。例えば、内視鏡手術において内視鏡が挿入された管状組織の内腔から鉗子を押して穿刺することが想定されるためである。この場合、被検体の体表ではなく、例えば、被検体の管状組織の内面(内腔表面)に設置されるポートのポート設置可能範囲が導出されてよい。
また、術前シミュレーションの他に、術中ナビゲーションにおいて、ポート設置可能範囲の導出、ポート範囲情報の生成、ポート範囲情報の表示等が行われてよい。範囲情報処理部165は、術前シミュレーションにおける上記のポート設置可能範囲の導出、ポート範囲情報の生成、ポート範囲情報の表示、等の結果を、メモリ150に保持させておいてよい。術中ナビゲーションでは、範囲情報処理部165は、術前シミュレーションの結果をメモリ150から読み出して、表示制御部166及びディスプレイ130を介してポート範囲情報を表示させてよい。
また、範囲情報処理部165は、読み出したポート設置可能範囲やポート範囲情報を、術中ナビゲーション時に得られたデータや情報を基に補正してよい。例えば、術前シミュレーション時のポート設置可能範囲と実際のポート設置可能範囲とが異なる場合、範囲情報処理部165は、実際のポート設置可能範囲を基にポート範囲情報を再生成し、このポート範囲情報を表示させてよい。この場合、磁気センサ等の各種センサにより、ポート位置、鉗子の位置、ターゲットの位置、他の鉗子の位置、障害物の位置、等が検出されてよい。そして、範囲情報処理部165により、術中ナビゲーション時のポート設置可能範囲が算出されてよい。
また、SILSが適用される内視鏡手術には、腹腔鏡を用いた手術、胃カメラを用いた手術、大腸鏡を用いた手術、等が含まれてよい。また、上記実施形態は、1つのポートを介してカメラや複数の鉗子が挿入されるSILSではなく、複数のポートを介してカメラや複数の鉗子が挿入される複数孔式の腹腔鏡下手術に適用されてもよい。
また、ポート位置の設定が変形シミュレーションの後に行われ、ターゲット位置の設定が変形シミュレーションの前に行われることを例示したが、これに限られない。ポート位置及びターゲット位置の設定は、変形シミュレーションの前に行われても、変形シミュレーション後に行われてもよい。ポート位置及びターゲット位置は、例えば、UI120を介して、被検体のボリュームデータに基づく所定の断面画像(MPR)を用いて指定されてよい。
また、ポートが設定される上皮組織は、被検体の体表でもよいし、被検体の内部の臓器の内腔表面であってもよい。また、腹腔鏡、内視鏡、鉗子類、ロボット手術装置のエンドエフェクタ、その他の手術器具を総称して、「低侵襲手術器具」とも称する。
また、医用画像処理装置100は、少なくともプロセッサ140及びメモリ150を備えてよい。取得部110、UI120、及びディスプレイ130は、医用画像処理装置100に対して外付けであってもよい。
また、撮像されたCT画像としてのボリュームデータは、CT装置200から医用画像処理装置100へ送信されることを例示した。この代わりに、ボリュームデータが一旦蓄積されるように、ネットワーク上のサーバ(例えば画像データサーバ(PACS)(不図示))等へ送信され、保管されてもよい。この場合、必要時に医用画像処理装置100の取得部110が、ボリュームデータを、有線回線又は無線回線を介してサーバ等から取得してもよいし、任意の記憶媒体(不図示)を介して取得してもよい。
また、撮像されたCT画像としてのボリュームデータは、CT装置200から医用画像処理装置100へ取得部110を経由して送信されることを例示した。これは、実質的にCT装置200と医用画像処理装置100とを併せて一製品として成立している場合も含まれるものとする。また、医用画像処理装置100がCT装置200のコンソールとして扱われている場合も含む。
また、CT装置200により画像を撮像し、被検体内部の情報を含むボリュームデータを生成することを例示したが、他の装置により画像を撮像し、ボリュームデータを生成してもよい。他の装置は、MRI(Magnetic Resonance Imaging)装置、PET(Positron Emission Tomography)装置、血管造影装置(Angiography装置)、又はその他のモダリティ装置を含む。また、PET装置は、他のモダリティ装置と組み合わせて用いられてもよい。
また、医用画像処理装置100における動作が規定された医用画像処理方法として表現可能である。また、コンピュータに医用画像処理方法の各ステップを実行させるためのプログラムとして表現可能である。
(上記実施形態の概要)
上記実施形態の一態様は、医用画像処理装置100であって、取得部110と、処理部160と、表示部(例えばディスプレイ130)と、を備える。取得部110は、被検体のボリュームデータを取得する機能を有する。処理部160は、ボリュームデータに基づく3Dデータ(例えば無加工の非気腹状態のボリュームデータ、胃や腸を変形させたボリュームデータ、ボリュームデータから作成したサーフィスモデルを変形させたもの、又は仮想気腹状態のボリュームデータ)において、被検体の内部に配置されるターゲット(例えばターゲットA)を設定する機能を有する。処理部160は、3Dデータを可視化(例えばレンダリング)して上皮組織を非表示とし、透明化し、又は半透明化した画像とともに、上皮組織においてターゲットに至る手術器具(例えば鉗子)を挿通するポートを設置可能なポート設置可能範囲を示す情報(例えばポート範囲情報)を、表示部に表示させる、機能を有する。
これにより、医用画像処理装置100は、設定されたターゲットの位置を基準に、手術器具が挿通されるポートを設置可能な範囲の情報を、ユーザに提供できる。よって、被検体において手術器具が通るポートを設置可能な範囲をユーザが認識でき、術者及び被検体の負担を低減できる。ユーザは、ポート設置可能範囲の内部においてポートを設置(穿孔)することで、ターゲットに対する処置の安全性を向上できる。よって、ユーザは、術前シミュレーションや術中ナビゲーションにおいて、ポート設置可能範囲を示す情報を加味して必要な処置を講じることができる。また、上皮組織を非表示とし、透明化し、又は半透明化することで、ユーザは、ターゲット及び周辺組織を確認しながらポート設置可能範囲、ポートからターゲットまでの鉗子のシャフトの配置、鉗子の挿入経路及びターゲット位置を同時に直感的に把握し易くなる。
また、処理部160は、上皮組織における前記ポート設置可能範囲を算出し、ポート設置可能範囲の範囲内において、被検体の上皮組織に配置されるポートを設定してよい。これにより、医用画像処理装置100は、上皮組織を非表示とし、透明化し、又は半透明化して上皮組織でのポート設置可能範囲を可視化できる。よってユーザは、被検体の内部を確認しつつ、上皮組織上でのポート設置可能範囲を確認できる。
また、処理部160は、被検体の変形シミュレーションにより被検体の変形に関する変形情報を生成し、ボリュームデータと変形情報に基づいて、3Dデータを生成してよい。これにより、医用画像処理装置100は、気腹や手術器具の動きに起因する被検体内の組織の変形を加味して、手術時の実態に即したポート設置可能範囲を算出し、ポート設置可能範囲を示す情報を提供できる。
また、ターゲットは、被検体における複数の点又は領域を含んでよい。ポート範囲情報は、ポートの位置における手術器具と上皮組織との成す角度の上限及び下限の少なくとも一つを示す情報を含んでよい。なお、上記の領域は、複数の点を含む。これにより、ユーザは、複数のターゲットに対して処置を行う場合でも、手術器具を動かして調整可能と許容される角度の範囲を確認することができる。よって、ユーザは、例えば、この角度の範囲が安全範囲である場合、仮定したポートの位置にポート設置可能と判断してよい。
また、ポート設置可能範囲は、手術器具が配置されるポートとターゲットとの間の経路上の器官に基づいて決定されてよい。なお、経路とは、例えばポートからターゲットの間に挿入される鉗子が通る経路の位置や、挿入された状態での鉗子のシャフトの位置でよい。これにより、医用画像処理装置100は、例えば手術器具の配置位置が器官の位置と重複することを抑制でき、器官を損傷することを抑制できる。
また、ポートは、少なくとも1つ設けられてよい。少なくとも1つのポートに、複数の手術器具が挿入可能でよい。例えば、単一のポートを利用したSILSでは、被検体内に挿入される複数の手術器具の動きの自由度が小さい。この場合でも、ユーザは、制限された手術器具を用いて処置する際に、ポート設置可能範囲を確認することで、安全に配慮したポートの設置が可能である。
また、複数の手術器具は、第1の手術器具と第2の手術器具を含んでよい。ポート設置可能範囲は、第1の手術器具を挿通するポートについてのポート設置可能範囲であり、被検体において第2の手術器具が配置される位置を基に決定されてよい。これにより、医用画像処理装置100は、他の手術器具等との干渉を抑制でき、手術時の安全性を向上できる。
また、手術器具は、シャフト部に可撓性を有し又は折り曲げ機構を有し、手術器具の先端部の角度を調整可能でよい。この場合でも、医用画像処理装置100は、手術器具の調整される角度範囲等を加味して、ポート設置可能範囲を導出し、ポート範囲情報を提示できる。また、同じポート位置及びターゲット位置を通る手術器具であっても、手術器具の調整角度が異なる場合、被検体内において処置を行うためのスペース(ワーキングエリア)を確保し易くなる。
また、手術器具は、ロボット手術装置に用いられるエンドエフェクタでよい。これにより、医用画像処理装置100は、ロボット手術をポート範囲情報の提示により支援できる。特に、ロボット手術の場合には、ポートからターゲットまでのアプローチが長いので、的確にポート設置位置を決定することが困難である。医用画像処理装置100によれば、術前シミュレーションにおいてターゲットを指定すると、ポートを設置可能な箇所を可視化された画像上で表示できる。
また、被検体の上皮組織は、被検体の内腔表面SF2の組織でよい。内腔表面SF2は、被検体内に位置するので、ユーザからは直接視認できない。これに対し、医用画像処理装置100は、ユーザに内腔表面SF2におけるポート設置可能範囲PR4を含むポート範囲情報を提供でき、手術の安全性を一層向上できる。よって、医用画像処理装置100は、NOTESの術前シミュレーション又は術中ナビゲーションにおいても、ポート範囲情報を示して手術を支援できる。
上記実施形態の一態様は、被検体のボリュームデータを取得するステップと、前記ボリュームデータに基づく3Dデータにおいて、前記被検体の内部に配置されるターゲットを設定するステップと、前記3Dデータを可視化して前記被検体の上皮組織を非表示とし、透明化し、又は半透明化した画像とともに、前記上皮組織において前記ターゲットに至る手術器具を挿通するポートを設置可能なポート設置可能範囲を示す情報を、表示部に表示させるステップと、を有する医用画像処理方法である。
本実施形態の一態様は、上記の医用画像処理方法をコンピュータに実行させるための医用画像処理プログラムである。
本開示は、被検体において手術器具が通るポートを設置可能な範囲を認識でき、術者及び被検体の負担を低減できる医用画像処理装置、医用画像処理方法、及び医用画像処理プログラムに有用である。
30 管状組織
100 医用画像処理装置
110 取得部
120 ユーザインタフェース(UI)
130 ディスプレイ
140 プロセッサ
150 メモリ
160 処理部
161 領域処理部
162 変形処理部
163 画像生成部
164 位置設定部
165 範囲情報処理部
166 表示制御部
200 CT装置
PR1,PR2,PR3,PR4,PR5 ポート設置可能範囲
FC1,FC2,FC3,FC4,FC5,FC6,FC7 鉗子
SF2 内腔表面

Claims (12)

  1. 医用画像処理装置であって、
    取得部と、処理部と、表示部と、を備え、
    前記取得部は、被検体のボリュームデータを取得する機能を有し、
    前記処理部は、
    前記ボリュームデータに基づく3Dデータにおいて、前記被検体の内部に配置されるターゲットを設定し、
    前記3Dデータを可視化して前記被検体の上皮組織を非表示とし、透明化し、又は半透明化した画像とともに、前記上皮組織において前記ターゲットに至る手術器具を挿通するポートを設置可能なポート設置可能範囲を示す情報を、前記表示部に表示させる、機能を有する、
    医用画像処理装置。
  2. 前記処理部は、
    前記上皮組織における前記ポート設置可能範囲を算出し、
    前記ポート設置可能範囲の範囲内において、前記被検体の上皮組織に配置されるポートを設定する、
    請求項1に記載の医用画像処理装置。
  3. 前記処理部は、
    前記被検体の変形シミュレーションにより前記被検体の変形に関する変形情報を生成し、
    前記ボリュームデータと前記変形情報とに基づいて、前記3Dデータを生成する、
    請求項1または2に記載の医用画像処理装置。
  4. 前記ターゲットは、前記被検体における複数の点又は領域を含み、
    前記ポート設置可能範囲を示す情報は、前記ポートの位置における前記手術器具と前記上皮組織との成す角度の上限及び下限の少なくとも一つを示す情報を含む、
    請求項1~3のいずれか1項に記載の医用画像処理装置。
  5. 前記ポート設置可能範囲は、前記手術器具が配置される前記ポートと前記ターゲットとの間の経路上の器官に基づいて決定される、
    請求項1~4のいずれか1項に記載の医用画像処理装置。
  6. 前記ポートは、少なくとも1つ設けられ、
    少なくとも1つの前記ポートに、複数の前記手術器具が挿入可能である、
    請求項1~5のいずれか1項に記載の医用画像処理装置。
  7. 前記被検体には複数の前記手術器具が挿入可能であり、
    複数の前記手術器具は、第1の手術器具と第2の手術器具を含み、
    前記ポート設置可能範囲は、前記第1の手術器具を挿通する前記ポート設置可能範囲であり、前記被検体において前記第2の手術器具が配置される位置を基に決定される、
    請求項1~5のいずれか1項に記載の医用画像処理装置。
  8. 前記手術器具は、シャフト部に可撓性を有し又は折り曲げ機構を有し、前記手術器具の先端部の角度を調整可能である、
    請求項1~7のいずれか1項に記載の医用画像処理装置。
  9. 前記手術器具は、ロボット手術に用いられるエンドエフェクタである、
    請求項1~8のいずれか1項に記載の医用画像処理装置。
  10. 前記被検体の上皮組織は、前記被検体の内腔表面の組織である、
    請求項1~9のいずれか1項に記載の医用画像処理装置。
  11. 被検体のボリュームデータを取得するステップと、
    前記ボリュームデータに基づく3Dデータにおいて、前記被検体の内部に配置されるターゲットを設定するステップと、
    前記3Dデータを可視化して前記被検体の上皮組織を非表示とし、透明化し、又は半透明化した画像とともに、前記上皮組織において前記ターゲットに至る手術器具を挿通するポートを設置可能なポート設置可能範囲を示す情報を、表示部に表示させるステップと、
    を有する医用画像処理方法。
  12. 請求項11に記載の医用画像処理方法をコンピュータに実行させるための医用画像処理プログラム。
JP2019064197A 2019-03-28 2019-03-28 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム Active JP7355514B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019064197A JP7355514B2 (ja) 2019-03-28 2019-03-28 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
US16/832,303 US20200311928A1 (en) 2019-03-28 2020-03-27 Medical image processing apparatus, medical image processing method, and medical image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019064197A JP7355514B2 (ja) 2019-03-28 2019-03-28 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2020162699A JP2020162699A (ja) 2020-10-08
JP7355514B2 true JP7355514B2 (ja) 2023-10-03

Family

ID=72606030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019064197A Active JP7355514B2 (ja) 2019-03-28 2019-03-28 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム

Country Status (2)

Country Link
US (1) US20200311928A1 (ja)
JP (1) JP7355514B2 (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030109780A1 (en) 2001-06-07 2003-06-12 Inria Roquencourt Methods and apparatus for surgical planning
JP2005334650A (ja) 2004-05-27 2005-12-08 General Electric Co <Ge> エンド・エフェクタを被検者の体内の目標位置まで案内するシステム、方法並びに製造物品
JP2008512212A (ja) 2004-09-09 2008-04-24 オンセット メディカル コーポレイション 拡張可能な経中隔シース
JP2011235089A (ja) 2010-05-03 2011-11-24 General Electric Co <Ge> 変形自在の組織基質での器具の挿入軌跡を決定する方法、及び該方法を実行するロボット・システム
JP2014111083A (ja) 2012-11-09 2014-06-19 Toshiba Corp 穿刺支援装置
JP2014212812A (ja) 2013-04-22 2014-11-17 日立アロカメディカル株式会社 超音波診断装置
JP2015047303A (ja) 2013-08-30 2015-03-16 株式会社東芝 X線ct装置
JP2015083040A (ja) 2013-10-25 2015-04-30 富士フイルム株式会社 画像処理装置、方法、及びプログラム
JP2017074221A (ja) 2015-10-15 2017-04-20 株式会社日立製作所 医療システム
JP2017528289A (ja) 2014-08-23 2017-09-28 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 画像誘導処置における病理学的データの表示のためのシステム及び方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7881823B2 (en) * 2004-09-24 2011-02-01 Institut National Des Sciences Appliquees Robotic positioning and orientation device and needle holder comprising one such device
AU2008351907A1 (en) * 2008-02-25 2009-09-03 Inventive Medical Limited Medical training method and apparatus
US9387083B2 (en) * 2013-01-30 2016-07-12 Conformis, Inc. Acquiring and utilizing kinematic information for patient-adapted implants, tools and surgical procedures
WO2017160651A1 (en) * 2016-03-12 2017-09-21 Lang Philipp K Devices and methods for surgery
US10568706B2 (en) * 2016-12-15 2020-02-25 Ethicon Llc Trocar Simulation
US10806532B2 (en) * 2017-05-24 2020-10-20 KindHeart, Inc. Surgical simulation system using force sensing and optical tracking and robotic surgery system

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030109780A1 (en) 2001-06-07 2003-06-12 Inria Roquencourt Methods and apparatus for surgical planning
US20120253515A1 (en) 2001-06-07 2012-10-04 Inria Roquencourt Methods and apparatus for surgical planning
JP2005334650A (ja) 2004-05-27 2005-12-08 General Electric Co <Ge> エンド・エフェクタを被検者の体内の目標位置まで案内するシステム、方法並びに製造物品
JP2008512212A (ja) 2004-09-09 2008-04-24 オンセット メディカル コーポレイション 拡張可能な経中隔シース
JP2011235089A (ja) 2010-05-03 2011-11-24 General Electric Co <Ge> 変形自在の組織基質での器具の挿入軌跡を決定する方法、及び該方法を実行するロボット・システム
JP2014111083A (ja) 2012-11-09 2014-06-19 Toshiba Corp 穿刺支援装置
JP2014212812A (ja) 2013-04-22 2014-11-17 日立アロカメディカル株式会社 超音波診断装置
JP2015047303A (ja) 2013-08-30 2015-03-16 株式会社東芝 X線ct装置
JP2015083040A (ja) 2013-10-25 2015-04-30 富士フイルム株式会社 画像処理装置、方法、及びプログラム
JP2017528289A (ja) 2014-08-23 2017-09-28 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 画像誘導処置における病理学的データの表示のためのシステム及び方法
JP2017074221A (ja) 2015-10-15 2017-04-20 株式会社日立製作所 医療システム

Also Published As

Publication number Publication date
JP2020162699A (ja) 2020-10-08
US20200311928A1 (en) 2020-10-01

Similar Documents

Publication Publication Date Title
JP7188970B2 (ja) ロボット手術支援装置、ロボット手術支援装置の作動方法、及びプログラム
JP7469120B2 (ja) ロボット手術支援システム、ロボット手術支援システムの作動方法、及びプログラム
US20100022874A1 (en) Image Guided Navigation System and Method Thereof
JP6049202B2 (ja) 画像処理装置、方法、及びプログラム
JP2019162339A (ja) 手術支援システムおよび表示方法
US11779412B2 (en) Robotically-assisted surgical device, robotically-assisted surgery method, and system
EP3571671A1 (en) Virtual shadows for enhanced depth perception
KR20190080706A (ko) 수술보조 영상 표시방법, 프로그램 및 수술보조 영상 표시장치
US11771508B2 (en) Robotically-assisted surgical device, robotically-assisted surgery method, and system
US20210298848A1 (en) Robotically-assisted surgical device, surgical robot, robotically-assisted surgical method, and system
EP2777593A2 (en) Real time image guidance system
US11657547B2 (en) Endoscopic surgery support apparatus, endoscopic surgery support method, and endoscopic surgery support system
EP4003135B1 (en) Instrument navigation in endoscopic surgery during obscured vision
JP7264689B2 (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
JP7355514B2 (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
KR101864411B1 (ko) 수술보조 영상 표시방법 및 프로그램
US20210298854A1 (en) Robotically-assisted surgical device, robotically-assisted surgical method, and system
JP7495216B2 (ja) 鏡視下手術支援装置、鏡視下手術支援方法、及びプログラム
JP7182127B2 (ja) ロボット手術支援装置、情報出力方法、及びプログラム
WO2020106664A1 (en) System and method for volumetric display of anatomy with periodic motion

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230921

R150 Certificate of patent or registration of utility model

Ref document number: 7355514

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150