JP2020036708A - 手術支援装置及び手術ナビゲーションシステム - Google Patents

手術支援装置及び手術ナビゲーションシステム Download PDF

Info

Publication number
JP2020036708A
JP2020036708A JP2018164579A JP2018164579A JP2020036708A JP 2020036708 A JP2020036708 A JP 2020036708A JP 2018164579 A JP2018164579 A JP 2018164579A JP 2018164579 A JP2018164579 A JP 2018164579A JP 2020036708 A JP2020036708 A JP 2020036708A
Authority
JP
Japan
Prior art keywords
intervention
image
medical image
surgery support
surgical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018164579A
Other languages
English (en)
Inventor
悠介 関
Yusuke Seki
悠介 関
信隆 阿部
Nobutaka Abe
信隆 阿部
喜太郎 吉光
Kitaro Yoshimitsu
喜太郎 吉光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018164579A priority Critical patent/JP2020036708A/ja
Priority to US16/385,079 priority patent/US20200069374A1/en
Publication of JP2020036708A publication Critical patent/JP2020036708A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Robotics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Epidemiology (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Primary Health Care (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Urology & Nephrology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

【課題】介入前後における臓器の移動・変形を予測し、術者に提示する術具等の位置情報の精度を向上させる。【解決手段】対象物に対する介入前後のデータを解析することにより、介入に起因して変形する前記対象物の変形規則を学習した人工知能アルゴリズムを記憶する記憶装置と、前記人工知能アルゴリズムを用いて、介入前のデータに基づいて介入後の前記対象物の形状を予測した予測データを生成する予測データ生成部と、を備えた手術支援装置を提供する。【選択図】図1

Description

本発明は、手術時に医用画像を用いて術者を支援する手術用支援装置及び手術用ナビゲーションシステムに関する。
手術前に作成した治療計画データと手術中に獲得したデータとを統合して、術具等の位置や姿勢をガイドすることにより安全・安心に手術が行われるように術者を支援する手術用ナビゲーションシステムが知られている。
より詳細には、手術用ナビゲーションシステムは、例えば、CTやMRIなどの医用画像撮影装置によって術前に取得された医用画像上に、位置計測装置等のセンサを用いて検出した術具等の各種医療機器の実空間における位置情報を重畳して表示させることにより、術者に対して術具の位置を提示して手術の支援を行うシステムである。
ところで、臓器は術中に移動あるいは変形する場合があり、このような場合には、術前に撮像された医用画像における対象臓器と術中の変形した対象臓器とにおいて、その形状や位置が必ずしも一致しない。従って、手術ナビゲーションシステムにおいて、術前に撮影した画像上に術具の位置情報を表示させても、その位置情報の信頼性が低い場合がある。
このような臓器が移動・変形する現象の一例として、脳神経外科手術における開頭時に脳が移動・変形する「ブレインシフト」が知られている。ブレインシフトは数mmから数cmもの脳の移動又は変形を伴うため、術前画像に基づいた手術ナビゲーションすなわち、術具等の位置情報の提示の精度は顕著に低下してしまう(非特許文献1)。
ここで、ブレインシフトについて説明する。
図11に、脳腫瘍を摘出する施術を行う際に、介入前後でブレインシフトが生じたことを表す医用画像、つまり、介入前後の脳の断層像の例を示す。具体的には、図11(A)は、介入前すなわち開頭前の脳の断層像を示し、図11(B)は介入後すなわち開頭後の脳の断層像を示している。
図11(A)に示す開頭前の脳の断層像では、頭蓋骨102に囲まれた領域に脳実質103および脳腫瘍104が存在している。ここで、脳腫瘍104を摘出する手術を実施する場合、頭蓋骨102および硬膜の一部が切除され、開頭範囲106が形成される。この時、図11(B)に示すように、脳脊髄液に浮かんでいた脳実質103や脳腫瘍104は重力などの影響によって開頭前の位置から移動・変形する。これがブレンインシフトと呼ばれる現象である。
上述のように、手術ナビゲーションにおいては、図11(A)の手術前の医用画像を用いて術具の位置情報を提示する手術支援が行われる。ところが、手術中は、ブレインシフトが発生するため、脳は図11(B)に示すような状況になっている。すなわち、手術ナビゲーションシステムで用いられる術前の医用画像における脳の位置と術中の脳の位置に差異が生じるため、提示する位置情報の精度を低下させる要因となってしまう。
この他、脳外科手術に限らず、臓器は開腹手術によっても変形する。また、臓器の変形は、仰臥位、伏臥位、立位、座位など、被検体の体位の変化によっても生じ得る。そこで、手術等の介入前後における臓器の移動・変形を予測して、手術ナビゲーションシステムに適用することができれば、位置情報の提示の精度を向上させることが考えられる。臓器の移動・変形を予測する手法として、有限要素法を用いた構造解析に関する研究が行われている。
Gerard IJ, et al.「Brain shift in neuronavigation of brain tumors: A review」Med Image Anal. 35号 403-420頁 2017年
しかしながら、非特許文献1にも記載されているように、介入前後における臓器の移動・変形は複数の要因が関与する複雑な現象であることから、正確な物理モデルを構築することが困難であり、臓器の移動・変形を予測する実用的な技術の開発には至っていない。従って、手術ナビゲーションシステムにおいて提示する術具等の位置情報の信頼性が充分とは言い難い。
本発明は、上記事情に鑑みてなされたものであり、介入前後における臓器の移動・変形を予測し、術者に提示する術具等の位置情報の精度を向上させることを目的とする。
上記課題を解決するために、本発明は以下の手段を提供する。
本発明の一態様は、対象物に対する介入前後のデータを解析することにより、介入に起因して変形する前記対象物の変形規則を学習した人工知能アルゴリズムを記憶する記憶装置と、前記人工知能アルゴリズムを用いて、介入前のデータに基づいて介入後の前記対象物の形状を予測した予測データを生成する予測データ生成部と、を備えた手術支援装置を提供する。
また、本発明の他の態様は、上記手術支援装置を備えた手術ナビゲーションシステムを提供する。
本発明によれば、介入前後における臓器の移動・変形を予測し、術者に提示する術具等の位置情報の精度を向上させることができる。
本発明の実施形態に係る手術支援装置を適用した手術ナビゲーションシステムの概略構成を示すブロック図である。 図1の手術ナビゲーションシステムにおける位置計測装置の概略構成を示す説明図である。 本発明の実施形態に係る手術支援装置に適用する手術支援に係る人工知能アルゴリズムを生成する処理を説明するフローチャートである。 本発明の実施形態に係る手術支援装置において予測データとしての予測医用画像を生成する処理を説明するフローチャートである。 本発明の実施形態に係る手術ナビゲーションシステムにおいて、手術ナビゲーションを行う処理を説明するフローチャートである。 本発明の実施形態に係る手術ナビゲーションシステムのディスプレイに表示される表示画面の一例を示す説明図であり、(A)は術前画像及びブレインシフト予測画像を示し、(B)は(A)の画像に術具の位置情報を重畳させた画像を示す。 本発明の実施形態に係る手術ナビゲーションシステムのディスプレイに表示される表示画面の一例を示す説明図である。 本発明の実施形態に手術ナビゲーションシステムのディスプレイに表示される表示画面の一例を示す説明図である。 本発明の実施形態の変形例1に係る手術ナビゲーションシステムにおいて、予測医用画像の補正処理を説明するフローチャートである。 本発明の実施形態の変形例2に係る手術ナビゲーションシステムにおいて、予測医用画像の補正処理を説明するフローチャートである。 ブレインシフトを説明する脳の断層画面の参考図であり、(A)は開頭前、(B)は開頭後を示す。
本発明の実施形態に係る手術支援装置は、対象物に対する介入前後のデータを解析することにより、介入に起因して変形する前記対象物の変形規則を学習した人工知能アルゴリズムを記憶する記憶装置と、前記人工知能アルゴリズムを用いて、介入前のデータに基づいて介入後の前記対象物の形状を予測した予測データを生成する予測データ生成部と、を備えている。
以下、本発明の実施形態に係る手術支援装置について、図面を参照してより詳細に説明する。なお、本実施形態においては、一例として、上記した手術支援装置及びこの手術支援装置を適用した手術ナビゲーションシステムに説明する。
図1に本実施形態に係る手術支援装置を適用した手術ナビゲーションシステムの概略構成図を示す。手術ナビゲーションシステム300は、手術支援装置301、手術支援装置301から提供される位置情報等を表示させるディスプレイ302、ネットワーク303を介して手術支援装置301に通信可能に接続される医用画像データベース304、及び術具等の位置を計測する位置計測装置305を備えている。
手術支援装置301は、所望の医用画像上に術具等の位置情報を重畳して、位置情報をリアルタイムに提示することにより術者を支援する装置であり、中央処理装置311、主メモリ312、記憶装置313、表示メモリ314、コントローラ315及びネットワークアダプタ316を備えている。手術支援装置301を構成するこれらの各構成は、システムバス317を介して夫々接続されている。また、システムバス317にはキーボード309が接続されると共にコントローラ315にはマウス308が接続され、マウス308及びキーボード309は医用画像の処理条件の入力を受付ける入力装置として機能する。
手術支援装置301としては、上述の各部を備えた汎用又は専用のコンピュータを適用することができる。マウス308は、例えば、トラックパッドやトラックボールなどの他のポインティングデバイスであってもよく、また、表示装置306にタッチパネル機能を持たせ、これによってマウス308やキーボード309の機能を代替させることもできる。
中央処理装置311は、手術支援装置301全体を制御し、マウス308又はキーボード309を介して入力された処理条件に従って医用画像や位置計測装置305によって計測された位置情報に対して所定の演算処理を実行する。
このため、図1に示すように、中央処理装置311は、入力データ生成部318及び予測データ生成部319の機能を実現する。なお、これらの中央処理装置311が実現する入力データ生成部318及び予測データ生成部319の機能は、中央処理装置311が予め記憶装置313等のメモリに格納されたプログラムを読み込んで実行することによりソフトウエアとして実現することができる。
なお、中央処理装置311は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、あるいは両者の組み合わせによって構成することができる。また、中央処理装置311に含まれる各部が実行する動作の一部又は全部を、ASIC(application specific integrated circuit)やFPGA(field-programmable gate array)により実現することもできる。
入力データ生成部318は、マウス等の入力装置によって入力された処理条件や医用画像データベース304から読み込んだ医用画像に基づいて、介入前の対象物の形状を含む対象物に係る情報を示す入力データを生成する。入力データは介入後の対象物の形状を予測した予測データを生成するために必要となる情報であり、入力データとして、医用画像データベース304から読み込んだ2次元あるいは3次元の医用画像の他、当該医用画像から画像処理によって対象物の特徴領域を抽出したセグメンテーション画像、又は画像処理によって抽出された特徴点等を用いることができる。対象物が脳である場合には、例えば、頭蓋骨、脳実質、脳腫瘍などが特徴領域として考えられ、このような特徴領域の輪郭に含まれる任意の点を特徴点とすることができる。
予測データ生成部319は、記憶装置318に記憶された人工知能アルゴリズムを用い、入力データ生成部318によって生成された入力データに基づく介入前のデータから介入後の前記対象物の形状を予測した予測データを生成する。人工知能アルゴリズム及び予測データの生成の詳細については後述する。
主メモリ312は、中央処理装置311が実行するプログラムや演算処理の途中経過を記憶するものである。
記憶装置313は、対象物に対する介入前後のデータを解析することにより、介入に起因して変形する対象物の変形規則を学習した人工知能アルゴリズムを記憶している。言い換えると、記憶装置313は、何らかの処置や手術等を含む介入によって変形する臓器等の対象物について、介入前及び介入後の形状や位置、介入の手法や条件等のデータを解析することにより、対象物である臓器等の変形規則を学習した手術支援に係る人工知能アルゴリズムを予め生成し、記憶している。
また、記憶装置313は、中央処理装置311が実行するプログラムやプログラム実行に必要なデータを格納する。さらに、記憶装置313は、医用画像データベース304から読み込んだ医用画像及び医用画像に係る関連医療情報を格納する。医用画像に係る関連医療情報としては、例えば、診断名、年齢、性別、医用画像撮像時の体位、手術時の体位・姿勢、腫瘍部位、腫瘍領域、開頭領域、開腹領域、組織病理診断などの対象物、対象臓器に対する手術関連情報などが挙げられる。記憶装置313として、例えば、ハードディスク等のCD/DVD、USBメモリ、SDカード等の可搬性記録媒体とデータの授受が可能な装置を適用することができる。
表示メモリ314は、表示装置302に画像等を表示させるための表示データを一時的に格納するものである。
コントローラ315は、マウス308の状態を検出して、表示装置306上のマウスポインタの位置を取得し、取得した位置情報等を処理装置2へ出力する。ネットワークアダプタ316は、手術支援装置301をLAN(Local Area Network)、電話回線及びインターネット等から構成されるネットワーク303に接続させる。
ディスプレイ302は、手術支援装置301によって生成される位置情報が重畳された医用画像を表示することで、医用画像及び術具等の位置情報を術者に提供する。
医用画像データベース304は、被検体301の断層画像等の医用画像及び医用画像に係る関連医療情報を記憶する。医用画像データベース304に記憶される医用画像は、例えば、MRI装置、X線CT装置、超音波撮像装置、シンチレーションカメラ装置、PET装置、又はSPECT装置などの医用画像撮影装置によって撮影されたものを用いることが好ましい。
また、関連医療情報として、例えば、介入が開頭術である場合には、開頭領域や患者の体位、患者情報など、臓器の移動・変形に影響を与えると考えられる因子に係る情報を記憶させておく。医用画像データベース304は、ネットワーク303を介して、ネットワークアダプタ316と信号送受可能に接続されている。ここで、「信号送受可能に」とは、電気的、光学的に有線、無線を問わずに、相互にあるいは一方から他方へ信号送受可能な状態を示す。
位置計測装置305は、手術等の介入後において、被検体内における術具等の三次元的な位置を計測する。すなわち、図2に示すように位置計測装置305は、寝台602上の被検体601を、被検体601近傍に設けられたマーカ603からの光と術具604に設けられた605の光を赤外線カメラ606により計測することで、被検体601における術具604等の位置を示す位置情報を取得し、取得した位置情報をシステムバス31を介して中央処理装置311に出力する。
(手術支援に係る人工知能アルゴリズムの生成について)
記憶装置313には、上述のように、介入に起因して変形する対象物の変形規則を学習した人工知能アルゴリズムが記憶されている。この手術支援に係る人工知能アルゴリズムは、何らかの処置や手術等を含む介入によって変形する臓器等の対象物について、介入前及び介入後の形状や位置、介入の手法や条件等のデータを解析し、対象物である臓器等の変形規則を学習した学習済み人工知能アルゴリズムであり、例えば、図3に示すフローチャートに示す手順に従って生成する。
人工知能アルゴリズムは、手術支援装置を用いて生成することができる他、他のコンピュータ等を用いて生成することもできる。以下の説明においては、ブレインシフトの予測、つまり介入前後における脳の形状の変形規則を学習した人工知能アルゴリズムを、手術支援装置を用いて生成する例について説明する。
図3に示すように、ステップS201では、中央処理装置311により医用画像データベース304から介入前後すなわち開頭術の前後における医用画像及び当該医用画像に係る関連医療情報の読み込みを行う。ステップS202では、ステップS201で読み込まれた医用画像及び関連医療情報に基づいて、人工知能アルゴリズムに入力し学習させるための入力データと教師データを生成する。
生成する医用画像に関する入力データとしては、上述のように、医用画像の他、医用画像から特徴領域を抽出したセグメンテーション画像や特徴点を入力データとすることができる。同様に、教師データとして、医用画像、セグメンテーション画像、特徴点の他、介入前後の対象物の移動や変形を対応づける変位行列を選択することができる。
次のステップS203、ステップS204及びステップ205は人工知能アルゴリズムによる機械学習のプロセスである。このステップS203において入力データを人工知能アルゴリズムに代入し、ステップS204において予測データを取得し、ステップS205において得られた予測データと教師データとの比較を行う。そして、比較結果を人工知能アルゴリズムにフィードバックして修正、すなわち、ステップS203〜ステップS205の処理を繰り返すことで、予測データと教師データとの誤差が最小となるように人工知能アルゴリズムを最適化する。
人工知能アルゴリズムとしては、例えば、畳込みニューラルネットワークなど、深層学習(ディープラーニング)の人工知能アルゴリズムを用いることが好ましいが、この限りではない。ステップS205において、所望の条件が満たされた場合、S206において学習済み人工知能アルゴリズムを出力する。
最適化された人工知能アルゴリズムは、学習済ネットワークとも呼ばれ、入力データに対して特定のデータを出力する関数と同様の機能を有するプログラムである。本実施形態において最適化された人工知能アルゴリズムは、介入前のデータに対して介入後における脳の形状の予測データを出力する手術支援に係る人工知能アルゴリズムである。このようにして生成(最適化)された手術支援に係る学習済みの人工知能アルゴリズムは、記憶装置313に記憶される。
なお、ステップS204において生成される予測データの例として、移動・変形した後の臓器の医用画像、セグメンテーションされた医用画像、移動量あるいは変形量を定量的に示す値、あるいは介入前の画像から介入後の画像を対応させる変換行列などが挙げられる。
そして、記憶装置313に記憶した手術支援に係る学習済みの人工知能アルゴリズムを用いて、上述のように構成された手術ナビゲーションシステム300では、入力されたデータに基づいて介入対象の臓器の予測データを生成し、予測データを用いて術者に対して術具等の位置情報を提示する手術ナビゲーションを実施する。
(手術支援に係る人工知能アルゴリズムを用いた予測データの生成について)
以下、本実施形態に係る手術支援装置において人工知能アルゴリズムを用いて予測データを生成する処理について、図4のフローチャートに従って説明する。なお、本実施形態で生成する予測データは、介入後、すなわち開頭後の脳の変形を表す医用画像である。
ステップS401では、医用画像データベース313から、介入前すなわち開頭前に撮影した医用画像及び関連医療情報の読み込みを行う。ステップS402では、ステップS401で読み込まれたデータに基づいて、入力データ生成部318により記憶装置313に記憶された人工知能アルゴリズムに入力するための入力データを生成する。
ステップS403では、入力データを人工知能アルゴリズムに代入し、ステップS404において予測データ生成部319が人工知能アルゴリズムに従って演算を行い、予測データを生成する。中央処理装置311は、次のステップS405において、得られた予測データを記憶装置313または医用画像データベース304に記憶させたり、表示メモリ314を介してディスプレイ302に表示させたりする。
続いて、本実施形態に係る手術ナビゲーションシステム300における、手術ナビゲーション処理(位置情報提示処理)について図5のフローチャートに従って説明する。
以下の説明で用いる位置情報には、計測対象の空間座標における位置及び向き、姿勢等の情報を含む。
ステップS501において、中央処理装置311が医用画像データベース304から術前に撮像した医用画像及び予測データ生成部319により生成された予測データとして介入後の対象物の形状を示す予測医用画像を取得する。ステップS502では、取得した医用画像のDICOM(Digital Imaging and Communication in Medicine)情報、関連医療情報、予測医用画像に関する情報から、ナビゲーションに用いる医用画像や予測医用画像の位置及び方向を取得する。
ステップS503では、中央処理装置311が位置計測装置305を用いて、被検体601の位置を検出するためのマーカ603の位置情報を計測する(図2参照)。ステップS504では、ステップS502とステップS503で得られた医用画像の位置情報及び被検体の位置情報から、被検体位置に対応する医用画像上の位置を算出して、被検体の位置と医用画像上の位置の位置合わせを行う。
ステップS505では、術具等の操作を誘導するために、術具の位置情報を計測する。すなわち、中央処理装置311は、位置計測装置605を用いて、術具604に設けられたマーカ605の位置情報を計測し、医用画像座標系でのマーカ605の座標を算出する。なお、マーカ605の位置情報には、術具604の先端までのオフセットも含まれているものとする。
ステップS506では、ステップS505において得られた術具等の位置情報を医用画像上に重畳させたナビゲーション画像を生成し、表示メモリ314を介してディスプレイ302に表示させる。このとき、術具等の位置情報を重畳させ表示させる医用画像は、術前に取得した介入前の医用画像又は予測データ生成部により生成された介入後の予測医用画像の何れか一方又は両方を選択することができる。
なお、画像処理条件(パラメータ等)については、マウス308およびキーボード309により入力が可能であり、中央処理装置311は、入力された画像処理条件に応じた処理を施したナビゲーション画像を生成する。
図6は、本実施形態に係る手術ナビゲーションシステムによって生成されたナビゲーション画像をディスプレイ302に表示させた表示画面の一例である。図6(A)に示す例は、介入前の医用画像すなわち術前画像901と介入後の予測医用画像すなわちブレインシフト予測画像911を同時に表示させたものであり、図6(B)は図6(A)の医用画像に術具914の位置情報を重畳して表示させたものである。
図6(A)の術前画像901では、セグメンテーションされた開頭前の脳実質902と開頭前の脳腫瘍903が表示されている。図6(A)のブレインシフト予測画像911では、予測された開頭後の脳実質912と予測された開頭後の脳腫瘍913が表示されている。
図6(B)に示すように、図6(A)の術前画像901とブレインシフト予測画像911の両方の画像に術具の位置情報を表示させることによって、術前画像901に基づいた手術ナビゲーションとブレインシフト予測画像911に基づいた手術ナビゲーションの両方を同時に実施することができる。図6(A)及び(B)では、一例としてアキシャル断面について示したが、サジタル断面、コロナル断面、3次元レンダリング画像のいずれの画像についても同様に術前画像とブレインシフト予測画像を同時に表示することができる。
このように本実施形態によれば、位置計測装置605により計測される被検体601又は被検体601との相対的な位置関係が変化しない寝台や固定具等の剛体に固定されたマーカ603の位置情報と、医用画像に付された画像位置情報であるDICOM情報とから、被検体位置と画像位置との位置合わせに必要な位置合わせ情報を生成する。そして、術具604に設けられたマーカ605から取得した術具604の位置情報を医用画像に仮想的に重畳したナビゲーション画像を生成しディスプレイ302に表示させることができる。
このとき、介入後の予測画像上に位置情報を重畳させることで、介入後に臓器が移動または変形する場合であっても、提示する位置情報の精度を向上させることができる。つまり、本実施形態に係る手術ナビゲーションシステムによれば、介入前後における臓器の移動・変形を予測した予測医用画像を生成し、これをナビゲーション画像として用いることで、短時間で術者に対する術具の画像誘導、すなわち、術者に提示する術具等の位置情報の精度を向上させることができる。
(ナビゲーション画像の他の表示例1)
図7は、本実施形態に係る手術ナビゲーションシステムによって生成されたナビゲーション画像をディスプレイ302に表示させた表示画面の他の例である。図7に示すように、表示画面701は、ナビゲーション画像として、被検体601の手術部位の直交3断面画像であるアキシャル断面711、サジタル断面712及びコロナル断面713と、3次元レンダリング画像714に、位置合わせ情報に従って形成された仮想術具表示715が重ねて表示されている。
また、表示画面701の右部上には、被検体位置計測インターフェイスである位置取得アイコン721と、位置合わせ実行インターフェイスであるレジストレーションアイコン722、介入による移動・変形を予測した医用画像を表示する移動・変形予測アイコン723が入力用として表示されている。
ユーザが、位置取得アイコン721を押下することよって、位置計測装置305による被検体位置の計測指示を受け付け、レジストレーションアイコン722を押下することによって、位置計測装置305によって計測された被検体の位置情報に応じた被検体の医用画像上の位置を算出し、被検体の位置と医用画像上の位置の位置合わせを行う。また、移動・変形予測アイコン723を押下することによって、生成された予測医用画像を表示装置302に表示させる。
また、表示画面701の右部下には、画像処理指令を入力する画像閾値インターフェイス731、視点位置平行移動インターフェイス732、視点位置回転移動インターフェイス733及び画像拡大インターフェイス734のアイコンが表示されている。画像閾値インターフェイス731を操作することにより、医用画像の表示領域を調節することができる。また、視点位置平行移動インターフェイス732を操作することによって、医用画像に対する視点の位置を平行移動させ、視点位置回転移動インターフェイス733を操作することによって、視点の位置を回転移動させることができる。さらに、画像拡大インターフェイス734を操作することによって、選択領域を拡大させことができる。
(ナビゲーション画像の他の表示例2)
図8は、本実施形態に係る手術ナビゲーションシステムによって生成されたナビゲーション画像をディスプレイ302に表示させた表示画面の他の例である。図8の例は、介入前の医用画像すなわち術前画像に、介入後の予測医用画像すなわちブレインシフト予測画像を重畳表示させたものである。
術前画像とブレインシフト予測画像の重畳画像1001では、セグメンテーションされた開頭前の脳実質1002と開頭前の脳腫瘍1003、予測された開頭後の脳実質1012、予測された開頭後の脳腫瘍1013が表示される。ここで、状況に応じて、術前画像のみの表示、あるいはブレインシフト予測画像のみの表示に切り替えることも可能である。
また、図8では、一例としてアキシャル断面について示したが、サジタル断面、コロナル断面、3次元レンダリング画像のいずれの画像についても同様に術前画像とブレインシフト予測画像を重畳表示できるものとする。
[変形例1]
本実施形態の変形例1に係る手術支援ナビゲーションシステムについて説明する。本変形例では、記憶装置313に記憶された手術支援に係る学習済み人工知能アルゴリズムを用いて生成された予測医用画像を必要に応じて補正する。すなわち、手術支援装置301によって生成される予測データとしての予測医用画像を、術具604によって実際の被検体601の臓器の位置を計測することによって随時補正する。以下、図9のフローチャートに従って本変形例における予測医用画像の補正処理の流れを説明する。
図9において、ステップS801からステップS805は、図4のフローチャートにおけるステップS401からS405と同様に、予測データを生成し、ディスプレイに表示させる処理を行う。すなわち、ステップS801において、中央処理装置311が、医用画像データベース313から、介入前すなわち開頭前に撮影した医用画像及び関連医療情報の読み込みを行い、ステップS802において、読み込まれたデータに基づいて入力データを生成する。
ステップS803〜ステップS804では、入力データを人工知能アルゴリズムに代入し、予測データ生成部319によって人工知能アルゴリズムに従って演算を行い予測データを生成する。次のステップS805において、中央処理装置311は、得られた予測データを記憶装置313または医用画像データベース304に記憶させたり、表示メモリ314を介してディスプレイ302に表示させたりする。
ステップS806では、中央処理装置311が位置計測装置605を用いて、術具604の位置情報を計測する。すなわち、術具604をプローブとして、介入によって移動・変形した後の臓器の表面や特徴点の現実の位置情報を計測する。例えば、脳神経外科手術の場合では、ステップS805においてディスプレイ302に予測医用画像を表示させた状態で、術具604の先端を脳表面に配置させることによって、開頭によってブレインシフトが生じた現実の脳表面の位置を捉えることができる。このとき、ステップS805の予測医用画像に表示される脳表面と術具604の先端位置にずれが生じている場合には、計測された特徴点を用いて予測医用画像を随時補正する。
ステップ807では、補正された予測医用画像を表示装置306に表示する。ここで、特徴点の位置計測による予測医用画像の補正処理は随時行うことができるものとし、介入前の医用画像、介入後の予測医用画像、補正された予測医用画像はそれぞれ画面操作により随時表示できるものとする。なお、上記した補正処理は介入前の医用画像に対して行ってもよい。
[参考例]
本実施形態に係る手術支援ナビゲーションシステムの参考例について説明する。本参考例では、学習済み人工知能アルゴリズムを用いた予測画像に代えて、術中の位置情報計測によって予測画像を生成、つまり、特徴点の位置計測によって介入前の医用画像を補正する。以下、参考例に係る補正処理について図10のフローチャートに従って説明する。
ステップS1101では、医用画像データベース313から、介入前すなわち開頭前の医用画像の読み込みを行う。ステップS1102では医用画像をディスプレイ302に表示する。ステップS1103では、術具604をプローブとして、介入によって移動・変形した後の臓器の表面や特徴点の現実の位置情報を計測する。
より具体的には、ステップS1102において介入前の医用画像がディスプレイ302に表示された状態で、特徴点を画面上で指定し、さらに術具604の先端を対応する現実の移動後の特徴点に配置して位置計測することによって、開頭前後の特徴点の位置の変化を定義することができる。
さらに、介入前後に位置が移動する特徴点と、介入前後で位置が変化しないと推定される特徴点を指定することによって定義される境界条件に基づいて介入前の画像を補正し、介入後の状態に近い画像を生成・表示することができる。ステップ1104では、補正された医用画像をディスプレイ302に表示する。ここで、特徴点の位置計測による医用画像の補正処理は随時行うことができるものとし、介入前の医用画像と補正された医用画像はそれぞれ画面操作により随時表示できるものとする。
本実施形態によれば、特定の介入を与える前後のデータから被検体が介入によって移動・変形する現象を学習した学習済みの人工知能アルゴリズムを生成し、これを用いて介入前の画像データおよび手術関連情報から、介入後の被検体の画像を予測する。そして、この予測した画像をディスプレイに表示させ、被検体と術具の位置情報とを取得し、医用画像に重畳させることで、術前の画像を用いた従来の手術ナビゲーションに比して精緻な手術ナビゲーションが可能となる。
300・・・手術ナビゲーションシステム、301・・・手術支援装置、302・・・ディスプレイ、303・・・ネットワーク、304・・・医用画像データベース、305・・・位置計測装置、308・・・マウス、309・・・キーボード、311・・・中央処理装置、312・・・主メモリ、313・・・記憶装置、314・・・表示メモリ、315・・・コントローラ、316・・・ネットワークアダプタ、318・・・入力データ生成部、319・・・予測データ生成部、601・・・被検体、602・・・寝台、603,605・・・マーカ、604・・・術具、606・・・赤外線カメラ

Claims (9)

  1. 対象物に対する介入前後のデータを解析することにより、介入に起因して変形する前記対象物の変形規則を学習した人工知能アルゴリズムを記憶する記憶装置と、
    前記人工知能アルゴリズムを用いて、介入前のデータに基づいて介入後の前記対象物の形状を予測した予測データを生成する予測データ生成部と、を備えた手術支援装置。
  2. 前記データが医用画像および/または前記対象物に対する手術関連情報である請求項1記載の手術支援装置。
  3. 前記データが画像処理によって抽出された、前記対象物を示す領域の画像又は前記対象物の特徴点を含む請求項1記載の手術支援装置。
  4. 前記予測データが、介入前の対象物と介入後の対象物を対応づける変位行列を含む請求項1記載の手術支援装置。
  5. 前記介入が開頭手術であり、前記対象物が脳である請求項1記載の手術支援装置。
  6. 前記介入が開腹手術であり、前記対象物が肝臓等の消化器である請求項1記載の手術支援装置。
  7. 前記介入が開胸手術であり、前記対象物が肺又は心臓である請求項1記載の手術支援装置。
  8. 請求項1乃至請求項7の何れか1項記載の手術支援装置と、
    医用画像を表示する表示装置と、
    被検体の位置情報及び術具の位置を計測する位置計測装置と、を備え、
    前記手術支援装置によって生成された予測データと、前記位置計測装置によって計測された被検体及び術具の位置を重畳させて前記表示装置に表示させる手術ナビゲーションシステム。
  9. 前記位置計測装置によって前記被検体の特徴点の位置情報を計測し、該位置情報を用いて前記予測データを補正する請求項8記載の手術ナビゲーションシステム。
JP2018164579A 2018-09-03 2018-09-03 手術支援装置及び手術ナビゲーションシステム Pending JP2020036708A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018164579A JP2020036708A (ja) 2018-09-03 2018-09-03 手術支援装置及び手術ナビゲーションシステム
US16/385,079 US20200069374A1 (en) 2018-09-03 2019-04-16 Surgical support device and surgical navigation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018164579A JP2020036708A (ja) 2018-09-03 2018-09-03 手術支援装置及び手術ナビゲーションシステム

Publications (1)

Publication Number Publication Date
JP2020036708A true JP2020036708A (ja) 2020-03-12

Family

ID=69639693

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018164579A Pending JP2020036708A (ja) 2018-09-03 2018-09-03 手術支援装置及び手術ナビゲーションシステム

Country Status (2)

Country Link
US (1) US20200069374A1 (ja)
JP (1) JP2020036708A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112515767A (zh) * 2020-11-13 2021-03-19 中国科学院深圳先进技术研究院 手术导航装置、设备及计算机可读存储介质
KR20220161597A (ko) * 2021-05-27 2022-12-07 자이메드 주식회사 대상체의 움직임에 따른 위치정보 예측 방법 및 장치

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112541941B (zh) * 2020-12-07 2023-12-15 明峰医疗系统股份有限公司 一种基于ct定位片的扫描流程决策方法及系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112515767A (zh) * 2020-11-13 2021-03-19 中国科学院深圳先进技术研究院 手术导航装置、设备及计算机可读存储介质
CN112515767B (zh) * 2020-11-13 2021-11-16 中国科学院深圳先进技术研究院 手术导航装置、设备及计算机可读存储介质
KR20220161597A (ko) * 2021-05-27 2022-12-07 자이메드 주식회사 대상체의 움직임에 따른 위치정보 예측 방법 및 장치
KR102600615B1 (ko) * 2021-05-27 2023-11-10 자이메드 주식회사 대상체의 움직임에 따른 위치정보 예측 방법 및 장치

Also Published As

Publication number Publication date
US20200069374A1 (en) 2020-03-05

Similar Documents

Publication Publication Date Title
JP6039903B2 (ja) 画像処理装置、及びその作動方法
JP4738270B2 (ja) 手術支援装置
CN103415255B (zh) 利用血管内装置形状对血管图像进行非刚性体变形
JP2023053108A (ja) 同時x平面撮像を用いた画像レジストレーション及び誘導
JP5027922B2 (ja) 超音波診断装置
US20110245660A1 (en) Projection image generation apparatus and method, and computer readable recording medium on which is recorded program for the same
JP6071282B2 (ja) 情報処理装置、超音波撮影装置および情報処理方法
JP2021510107A (ja) 超音波画像データの三次元撮像およびモデリング
JP2012217770A (ja) 画像処理装置、その処理方法及びプログラム
JP6706576B2 (ja) 最小侵襲性のインターベンションのための形状センスされるロボット超音波
JP2020036708A (ja) 手術支援装置及び手術ナビゲーションシステム
CN105096306B (zh) 用于对医学图像进行配准的方法和设备
US11464583B2 (en) Surgery support apparatus and surgical navigation system
JP2022031179A (ja) デバイス対画像レジストレーションの方法、装置及び記憶媒体
CN113171174A (zh) 荧光镜图像中的取向检测
JP2020099672A (ja) 2次元画像上の3次元画像データの可視化
US11406278B2 (en) Non-rigid-body morphing of vessel image using intravascular device shape
US10925679B2 (en) Position determination device for determining a position of an instrument within a tubular structure
JP6487999B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20220183759A1 (en) Determining a surgical port for a trocar or laparoscope
JP6263248B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5485853B2 (ja) 医用画像表示装置及び医用画像誘導方法
US20210074021A1 (en) Registration of an anatomical body part by detecting a finger pose
JP7495216B2 (ja) 鏡視下手術支援装置、鏡視下手術支援方法、及びプログラム
US20230210627A1 (en) Three-dimensional instrument pose estimation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210120

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20211013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220524