JP2021049198A - 手術支援装置及び手術ナビゲーションシステム - Google Patents

手術支援装置及び手術ナビゲーションシステム Download PDF

Info

Publication number
JP2021049198A
JP2021049198A JP2019174600A JP2019174600A JP2021049198A JP 2021049198 A JP2021049198 A JP 2021049198A JP 2019174600 A JP2019174600 A JP 2019174600A JP 2019174600 A JP2019174600 A JP 2019174600A JP 2021049198 A JP2021049198 A JP 2021049198A
Authority
JP
Japan
Prior art keywords
image
support device
intervention
surgical support
surgical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019174600A
Other languages
English (en)
Inventor
佑子 佐野
Yuko Sano
佑子 佐野
悠介 関
Yusuke Seki
悠介 関
信隆 阿部
Nobutaka Abe
信隆 阿部
貴文 島本
Takafumi Shimamoto
貴文 島本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019174600A priority Critical patent/JP2021049198A/ja
Priority to CN202010426995.3A priority patent/CN112545647A/zh
Priority to US16/881,127 priority patent/US11464583B2/en
Publication of JP2021049198A publication Critical patent/JP2021049198A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2059Mechanical position encoders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Robotics (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Gynecology & Obstetrics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】手術における適切な介入部位を予測し、予測された介入部位を術者に提示することで介入部位の精度を向上させる。【解決手段】手術支援装置は、人工知能アルゴリズムを用いて、介入前のデータに基づいて介入部位を予測した予測データを生成する予測データ生成部を備える。人工知能アルゴリズムは、対象物に対する介入前のデータと介入部位データを解析することにより、介入部位を学習した人工知能アルゴリズムであり、介入部位の1点の座標、領域或いは形状を予測データとして出力する。人工知能アルゴリズムの学習に用いる介入前のデータ及び予測データ生成のために人工知能アルゴリズムに入力される入力データは、画像データ、セグメント画像、特徴点などである。予測データは、事前に取得した患者の画像とともに表示装置に表示される。【選択図】図1

Description

本発明は、手術時に医用画像を用いて術者を支援する手術用支援装置及び手術用ナビゲーションシステムに関する。
手術前に作成した治療計画データと手術中に獲得したデータとを統合して、術具等の位置や姿勢をガイドすることにより安全・安心に手術が行われるように術者を支援する手術用ナビゲーションシステムが知られている。
より詳細には、手術用ナビゲーションシステムは、例えば、MRIなどの医用画像撮影装置によって術前に取得された医用画像上に、位置計測装置等のセンサを用いて検出した術具等の各種医療機器の実空間における位置情報を重畳して表示させることにより、術者に対して術具の位置を提示して手術の支援を行うシステムである。
手術用ナビゲーションシステムで解決すべき課題の一つに、術者に対する適切な介入部位の提示が挙げられる。介入部位とは、手術の対象である体内の組織や臓器に対し処置を施すために、まず対象者即ち患者の体表を術具で切開等する際の体表部分であり、処置を施す部位の位置に応じて適切な位置や大きさを設定する必要がある。これまでは、手術中に術者が患者の身体に介入するときは、医用画像を参考に術者の経験に基づいて介入部位を決めていた。しかし、術者の経験が浅い場合は、手術の目的に合致した適切な介入部位を適切に決めることができず、位置がずれていたり、範囲が小さすぎたりしていた。この場合は、介入後に改めて介入部位を拡張する等の補正が行われることとなり、手術時間の超過による患者への身体的負荷が増大していた。
特に、脳腫瘍を摘出などの頭蓋骨の切除と開頭を伴う脳外科手術等の手術では、腫瘍の大きさ・腫瘍までの距離・損傷を回避すべき脳の領野の位置など、様々な要因に基づいて総合的にその切除部位(介入位置)を判断しなければならず、また切除部位に応じて患者の体位を適切に設定する必要がある。熟練していない術者は切除部位を適切に決められず、切除後にさらに頭蓋骨を追加の切除が必要となる状況も起こり得る。しかし、このような課題に対応する技術はこれまで提案されていない。
一方、近年、深層学習(ディープラーニング)などの人工知能アルゴリズムを用いて、医用画像の精度を向上する技術が開発されている。例えば、特許文献1には、医用画像から頭蓋内出血などを判定する技術が開示されている。
特表2019−500110号公報
特許文献1に開示された人工知能アルゴリズムを用いた技術は、例えば手術部位の判定精度を高めることによって間接的に手術支援に資するものであるが、画像精度の向上に留まり、手術ナビゲーション技術と組み合わせた支援情報を提供するものではない。これに対し、本出願人は、介入前後の画像を教師データとして学習した人工知能アルゴリズムを用いて、介入後の対象臓器位置を予測し、手術ナビゲーションにより提示する術具位置の精度を向上する技術を提案している。この技術では、術者の介入、例えば切開によって、対象臓器が変形してしまい、手術ナビゲーションによる術具位置提示機能の精度が低下するという課題、例えば脳外科手術において開頭によって脳の形状や位置が変化する所謂「ブレインシフト」に起因する問題を解決することができる。
しかし、介入後の臓器の形状・位置の変化は、介入位置や患者の体位によって異なるが、この技術では介入位置自体の支援情報は提示されない。介入位置は、患者の状態(例えばどのような体位を取りえるか)等を考慮して臨機応変に変化させなければならない場合もあり、上述した人工知能アルゴリズムだけでは十分な手術支援機能が得られない可能性もある。また介入位置や患者体位も考慮して介入後の臓器の形状・位置変化を予測できる人工知能アルゴリズムを作成するためには、膨大な教師データが必要となる。
そこで、本発明は、手術用ナビゲーションシステムにおいて、手術の適切な介入部位を予測する技術を提供すること目的とする。
上記課題を解決するために、本発明の手術支援技術は、対象物に対する介入前のデータと介入部位データを解析することにより、介入部位を学習した人工知能アルゴリズムを作成し、この学習済み人工知能アルゴリズムを用いて、介入前のデータに基づいて介入部位を予測し、提示する。
具体的には、本発明の手術支援装置は、生体内の対象物への介入を、画像表示によって支援する手術支援装置であって、介入前の前記対象物を含む画像データまたは当該画像データを処理したデータと、生体の表面における介入位置に関する情報とを用いて学習した学習済み人工知能アルゴリズムを用いて、処置の対象である生体への介入位置を予測し、予測データを出力する予測データ生成部を備えたことを特徴とする。
また、本発明は、上記手術支援装置を備えた手術ナビゲーションシステムを提供する。この手術ナビゲーションシステムは、上述した手術支援装置と、医用画像を表示する表示装置と、処置の対象である生体の位置と術具の位置を計測する位置計測装置と、を備える。手術支援装置は、予測データ生成部により出力された介入位置に関する情報と、前記位置計測装置が計測した術具の位置とを、前記表示装置に表示させる。
本発明によれば、手術対象に対する適切な介入部位を予測し、予測された介入部位を術者に提示することで介入部位の精度を向上させることができる。その結果、患者への身体的負荷を軽減させることができる。
本発明の実施形態に係る手術ナビゲーションシステムの概略構成を示すブロック図である。 実施形態1の手術支援装置とそれを含む手術ナビゲーションシステムの構成を示すブロック図である。 実施形態1の手術支援装置の中央処理装置の構成ブロック図である。 図2の手術ナビゲーションシステムにおける位置計測装置の概略構成を示す説明図である。 実施形態1の手術支援装置に適用する人工知能アルゴリズムの生成処理を説明するフローチャートである。 介入位置と姿勢との関係を示す説明図である。 手術支援装置に適用する人工知能アルゴリズムの一例を示す図である。 実施形態1の手術支援装置において、予測データを生成する処理を説明するフローチャートである。 実施形態1の手術支援装置において、表示装置に表示される表示画面の一例を示す図である。 (A)、(B)は、それぞれ実施形態1の手術支援装置において、表示装置に表示される表示画面の別の例を示す図である。 実施形態1に係る手術ナビゲーションシステムの処理を説明するフローチャートである。 実施形態1に係る手術ナビゲーションシステムにおいて、表示装置に表示される表示画面の一例を示す図である。 ブレインシフトを説明する脳の断層画面の参考図であり、(A)は開頭前、(B)は開頭後を示す。 実施形態2の手術支援装置の中央処理装置の構成ブロック図である。 実施形態2の手術支援装置の人工知能アルゴリズムの出力データの一例を示す図である。 実施形態2の手術支援装置に適用する人工知能アルゴリズムの一例を示す図である。 実施形態2に係る手術ナビゲーションシステムの処理を説明するフローチャートである。
本発明の手術ナビゲーションシステムの実施形態について、図面を参照して説明する。
手術ナビゲーションシステム100は、図1に示すように、手術支援に必要な情報(支援情報)を生成する手術支援装置10と、手術支援装置10が生成した情報を術者に提示する出力手段、例えば表示装置20と、手術室内に置かれた患者や術具の位置を計測する位置計測装置30とを備えている。
手術支援装置10は、所望の医用画像上に術具等の位置情報を重畳して、位置情報をリアルタイムに提示することにより術者を支援する装置である。具体的には、位置計測装置30から、患者(対象部位)や術具の位置に関する情報を取得し、術前画像とともに表示装置20に表示させる。さらに、本実施形態では、患者に対する介入に先立って取得した対象部位の画像データ(術前画像のデータ)から生成した入力データをもとに、適切な介入位置に関する情報を含む支援情報を生成し、術具の位置情報とともに表示装置20に表示させる。
術前画像は、MRI装置、CT装置などの医用撮像装置で取得した患者の画像を手術支援装置10内の記憶装置或いは外部の記憶装置に格納しておき、入力データを作成する際や支援情報として表示装置20に表示する際に、手術支援装置10が読み出して用いることができる。
手術支援装置10が生成する入力データは、術前画像そのものでもよいし、術前画像から所定の特徴を持つ領域(以下、特徴領域)を抽出したセグメンテーション画像、組織や部位の特徴を抽出した特徴点データ、などであってもよい。また手術支援装置10が出力する支援情報は、介入位置に関する情報のほか、ブレインシフトのような介入後の変化を表す情報などを含んでいてもよい。介入位置に関する情報は、介入すべき位置や領域、大きさ、介入位置と対象部位とを結ぶ線の傾きやそれから推定される患者の推奨体位、などを含む。
手術支援装置10は、例えば、上述した入力データと同種の入力データと、手術支援装置10の出力である介入位置に関するデータ(教師データ)とからなるセットを多数用いて、予め学習させた学習済み人工知能アルゴリズム(以下、AIアルゴリズムと略す)を用いて上述した支援情報を出力する。このようなAIアルゴリズムは、手術支援装置10または別の装置において作成され、手術支援装置10の内部の記憶装置或いは外部の記憶装置に格納されている。AIアルゴリズムの作成方法については後に詳述する。
上述した機能を実現するため、手術支援装置10は、術前画像から入力データを生成する入力データ生成部110、AIアルゴリズムを用いて入力データから介入位置に関する情報等を生成する予測データ生成部130、予測データ生成部130の出力や位置計測装置30からの出力を表示装置20に表示させるための表示制御部150を備えることができる。これらの機能は、CPU(Central Processing Unit)やGPU(Graphices Processing Unit)或いはその組み合わせなどの処理装置を備えた汎用又は専用のコンピュータ上で実現することができる。入力データ生成部110や予測データ生成部130や表示制御部150として機能するプログラムをコンピュータのメモリに読み込んで実行することにより、ソフトウェアとして実現される。但し、処理装置が実行する機能の一部または全部を、ASIC(Application Specific Integrated Circuit)やFPGA(Field−Programmable Gate Array)などのハードウェアで実現することも可能である。また実施形態によっては、いくつかの機能を省略することも可能である。
位置計測装置30は、手術室内において手術対象である患者の近傍に置かれたマーカや術具に固定されたマーカの位置を検出し、患者や術具の実空間座標系における三次元位置を取得する。マーカの検出は、磁気検出器、赤外線検出器など公知の位置検出器を採用することができる。対象部位や術具の実空間座標系における位置は、DICOMデータの座標(画像空間の座標)の位置に座標変換されて、術前画像と重畳して表示装置20に表示される。座標変換は、例えば、中央処理装置11内にレジストレーション部(座標変換部)を設けて、ここで実現することができる。レジストレーションの手法は公知の手術ナビゲーションの手法を用いることができる。
本実施形態の手術ナビゲーションシステムによれば、多数のデータのセットを用いて、入力データに対し適切な介入位置を出力するように学習されたAIアルゴリズムを用意しておき、手術対象について当該AIアルゴリズムの入力データと同種の入力データを生成し、この学習済みAIアルゴリズムに入力することで、手術対象にとって最適な介入位置を術者に提示することができる。これにより不適切な介入を防止し、例えば、患者に適切な体位を取らせたり、最短経路で侵襲を極力少なくした手術ができるよう支援することができる。
以上、説明した手術ナビゲーションシステムの基本的な構成の実施形態を踏まえ、以下、本発明の具体的な実施形態について、手術が開頭を伴う脳外科手術である場合を例に、説明する。なお以下の実施形態において、図1に含まれる要素と同じ要素は同じ符号で示し、重複する説明は省略する。
<実施形態1>
本実施形態の手術ナビゲーションシステムは、手術支援装置10を、中央処理装置を備えたコンピュータ上に構築した実施形態であり、その中央処理装置に、手術支援装置10を構成する入力データ生成部110、予測データ生成部130、表示制御部150などが含まれる。
以下、本実施形態の手術ナビゲーションシステム100を、図2を参照して説明する。本実施形態の手術ナビゲーションシステム100は、手術支援装置10、手術支援装置10から提供される位置情報等を表示させるディスプレイ(表示装置)20、ネットワーク40を介して手術支援装置10に通信可能に接続される医用画像データベース50、及び術具等の位置を計測する位置計測装置30を備えている。
手術支援装置10は、中央処理装置11、主メモリ12、記憶装置13、表示メモリ14、コントローラ15及びネットワークアダプタ16を備えている。手術支援装置10を構成するこれらの各構成は、システムバス17を介して夫々接続されている。また、システムバス17にはキーボード19が接続されると共にコントローラ15にはマウス18が接続されている。マウス18及びキーボード19は医用画像の処理条件の入力を受付ける入力装置として機能する。なおマウス18は、例えば、トラックパッドやトラックボールなどの他のポインティングデバイスであってもよく、また、ディスプレイ20にタッチパネル機能を持たせ、これによってマウス18やキーボード19の機能を代替させることもできる。
中央処理装置11は、手術支援装置10全体を制御し、マウス18又はキーボード19を介して入力された処理条件に従って医用画像や位置計測装置30によって計測された位置情報に対して所定の演算処理を実行する。このため、中央処理装置11は、入力データ生成部110、予測データ生成部130、表示制御部150等の機能を実現する。中央処理装置11は、これらの機能のほか、図3に示すように、位置計測装置で計測した実空間座標における位置と画像座標における位置との位置合わせを行うためのレジストレーション部140等や、学習済みAIアルゴリズムを作成する場合には機械学習部120を備えていてもよい。
入力データ生成部110は、マウス18等の入力装置によって入力された処理条件や医用画像データベース50から読み込んだ医用画像に基づいて、介入前の対象物の形状を含む対象物に係る情報を示す入力データを生成する。入力データは介入後の対象物の形状を予測した予測データを生成するために必要となる情報であり、学習済みAIアルゴリズムの作成に用いた入力データに対応している。具体的には、入力データして、医用画像データベース50から読み込んだ2次元あるいは3次元の医用画像、当該医用画像から画像処理によって対象物の特徴領域を抽出したセグメンテーション画像、又は画像処理によって抽出された特徴点等を生成する。対象物が脳である場合には、頭蓋骨、脳実質、脳腫瘍などが特徴領域として考えられ、これら特徴領域を公知のセグメンテーション手法を用いて抽出しセグメンテーション画像としてもよい。さらにこのような特徴領域の輪郭に含まれる任意の点を特徴点とすることができる。
予測データ生成部130は、記憶装置13に記憶された人工知能アルゴリズムを用い、入力データ生成部110によって生成された入力データに基づく介入前のデータから介入部位を予測した予測データを生成する。人工知能アルゴリズム及び予測データの生成の詳細については後述する。
主メモリ12は、中央処理装置11が実行するプログラムや演算処理の途中経過を記憶するものである。
記憶装置13は、対象物に対する介入前のデータと介入部位を解析することにより、介入前のデータから適切な介入部位を求める規則を学習した人工知能アルゴリズムを記憶している。記憶装置13は、また、中央処理装置11が実行するプログラムやプログラム実行に必要なデータを格納する。さらに、記憶装置13は、医用画像データベース50から読み込んだ医用画像(画像データ)及び医用画像に係る関連医療情報を格納する。関連医療情報には、診断名、年齢、性別、医用画像撮像時の体位のほか、腫瘍部位、腫瘍領域、組織病理診断などの対象物や対象臓器に関する手術関連情報や、介入部位に影響を与えると考えられる因子に係る情報を含んでもよい。記憶装置13として、例えば、ハードディスク等のCD/DVD、USBメモリ、SDカード等の可搬性記録媒体とデータの授受が可能な装置を適用することができる。
表示メモリ14は、表示装置20に画像等を表示させるための表示データを一時的に格納するものである。
コントローラ15は、マウス18の状態を検出して、ディスプレイ20上のマウスポインタの位置を取得し、取得した位置情報等を中央処理装置11へ出力する。ネットワークアダプタ16は、手術支援装置10をLAN(Local Area Network)、電話回線或いはインターネット等から構成されるネットワーク40に接続させる。
ディスプレイ20は、手術支援装置10によって生成される位置情報が重畳された医用画像を表示することで、医用画像及び術具等の位置情報を術者に提供する。
医用画像データベース50は、患者の断層画像等の医用画像及び医用画像に係る関連医療情報を記憶する。医用画像データベース50に記憶される医用画像は、例えば、MRI装置、CT装置、超音波撮像装置、シンチレーションカメラ装置、PET装置、又はSPECT装置などの医用画像撮影装置によって撮影されたものを用いることが好ましい。手術支援装置10以外の撮像装置や画像処理装置で作成したセグメンテーション画像等の画像データをもとの画像データとともに記憶していてもよい。
医用画像データベース50は、ネットワーク40を介して、ネットワークアダプタ16と信号送受可能に接続されている。ここで、「信号送受可能に」とは、電気的、光学的に有線、無線を問わずに、相互にあるいは一方から他方へ信号送受可能な状態を示す。
位置計測装置30は、手術等の介入後において、被検体内における術具等の三次元的な位置を計測するものであり、例えば、図4に示すように、手術室内に固定された1ないし複数の赤外線カメラ301を備える。一方、寝台302上の被検体(患者)60の近傍や術具303には、赤外線カメラ301により検出可能な光を複数個所から発するマーカ304、305に設けられており、これらマーカ304、305からの光を赤外線カメラ301により計測することで、患者60における術具303等の位置を示す位置情報を取得する。位置計測装置30は取得した位置情報を、手術支援装置10内のシステムバス117を介して中央処理装置11に出力する。
次に、記憶装置13に格納されるAIアルゴリズムの生成について説明する。
記憶装置13に格納されているAIアルゴリズムは、上述のように、介入前のデータから適切な介入部位を求める規則を学習したAIアルゴリズムであり、手術支援装置10または別のコンピュータ等を用いて生成することができる。
以下、開頭術において開頭前のデータから適切な開頭部位(介入位置)を求める規則を学習したAIアルゴリズムを手術支援装置10内で生成する場合を例に、その生成手順を説明する。この場合、手術支援装置10の中央処理装置11は、図3に示したように、上述した入力データ生成部110や予測データ生成部130のほかに、機械学習部120を備える。また医用画像データベース50には、介入前後すなわち開頭術の前後における医用画像がその関連医療情報とともに格納されているものとする。
AIアルゴリズムの生成は、図5に示すように、まずステップS501で、中央処理装置11(入力データ生成部110)が医用画像データベース50から介入前後すなわち開頭術の前後における医用画像及び当該医用画像に係る関連医療情報の読み込みを行う。
続いてステップS502で、入力データ生成部110は、ステップS501で読み込まれた医用画像及び関連医療情報に基づいて、人工知能アルゴリズムに入力し学習させるための入力データと教師データを生成する。
入力データとしては、上述のように、医用画像の他、医用画像から特徴領域を抽出したセグメンテーション画像や特徴点を入力データとすることができる。ここでは、脳のMRI画像から、脳実質・頭蓋骨・腫瘍をセグメンテーションしておくものとする。セグメンテーションは、医用画像から所望の臓器や部位を抽出して臓器のみ或いは部位のみの画像を生成する技術であり、Snakes、Level set法、Deep Learningに基づく方法など公知の手法を用いることができ、腫瘍領域のみの画像を取り出してもよいし、腫瘍の有無を表す二値画像としてもよい。脳のMRI画像として、例えば、術前の脳実質のMRIのT1画像(或いはT1強調画像)とT2画像(或いはT2強調画像)を用いることができる。これらは脳実質や腫瘍を異なるコントラストで描出している画像であり精度よくセグメンテーションを行うことができる。その他、病変の描出能に優れたFRAIR(Fluid−Attenuated Inversion Recovery)画像等を用いてもよい。
入力データとして、複数の画像を用いてもよく、その場合、互いに位置のずれがないように位置合わせをしておく。具体的には,2つの画像の類似度を最大化するように片方の画像に変換行列(ここでは並進、回転に限る)を適用することで,位置合わせを行う。類似度としてはゼロ平均正規化相互相関(ZNCC)や、差分二乗和(SSD)、差分絶対値和(SAD)、正規化相互相関(NCC)、相互情報量を用いることができる。
教師データは、介入位置情報を示すデータであり、具体的には、開頭領域(切除する頭蓋骨の部分)のセグメンテーション画像、開頭領域の重心や半径などの特徴量などを選択することができる。本実施形態では、MRI画像などの医用画像から得た頭蓋骨の三次元の二値画像の中から、例えば領域拡張法などを用いて開頭領域の画像を抽出し、二値化した画像を教師データとする。或いは抽出した開頭領域を簡単な図形で近似し、その図形を表す特徴量を教師データとして用いてもよい。例えば、円で近似する場合は、その重心と半径を教師データとすればよい。以上の入力データと教師データも位置のずれがないように位置合わせしておく。さらに開頭領域は、脳を比較的大きな領域(前頭葉、側頭葉など)に分けた領域としてもよい。
教師データは、開頭領域を示すデータのほかに、患者の頭部の姿勢(頭位)を含んでもよい。特に頭蓋骨の切開を伴う脳外科手術では、頭蓋骨内の脳脊髄液等が外部にこぼれないように、開頭位置を垂直方向の上部に設定することが重要であり、開頭位置が上部となるように頭部の姿勢を設定する必要がある。教師データとして用いる頭部の姿勢に関するデータは、例えば、図6で示すように、入力データである頭部画像の座標を基準として、その座標軸(例えばY軸)からの傾きをオイラー角で表したものを用いることができる。或いは、手術の対象部位と開頭領域の中心とを結ぶ線Lが基準座標の座標軸(垂直方向の軸)と一致するように頭部画像を回転させた画像を教師データとしてもよい。
上述したステップS501、S502により入力データ生成部110による入力データ及び教師データの生成が終了すると、機械学習部120は学習前の人工知能アルゴリズムを用いてステップS503〜S505の機械学習プロセスを開始する。すなわちステップS503において入力データを学習前の人工知能アルゴリズムに代入し、ステップS504において予測データを取得し、ステップS505において得られた予測データと教師データとの比較を行う。そして、比較結果を人工知能アルゴリズムにフィードバックして修正、すなわち、ステップS503〜ステップS505の処理を繰り返すことで、予測データと教師データとの誤差が最小となるように人工知能アルゴリズムを最適化する。
人工知能アルゴリズムとしては、例えば、畳込みニューラルネットワークなど、深層学習(ディープラーニング)のAIアルゴリズムを用いることが好ましい。具体的には、AIアルゴリズムとして、U−net、Seg−net、DenseNetなどの公知のAIアルゴリズムを用いることができる。一例として、U−netの構造を図7に示す。U−netは、図示するように、複数のエンコーダECと、それと同数のデコーダDCとを、ブリッジBRを介して接続するとともに、同レベルのエンコーダECとデコーダDCとを接続した構造のネットワークであり、エンコーダ、デコーダ及びブリッジは、それぞれ、同図の下部に示すように、畳込み層(C層)やReLU(ランプ関数)層或いはleakyReLU層(L層)などを重ねた構造を持っている。U−netは、各層のエンコーダとデコーダとを直接連結することで、特徴の伝播過程で消失する画素のディテールを補うことができ、また比較的計算量が少なく短い計算時間で結果が得られるという特徴がある。図示する例では、入力データはMRI画像(例えば、セグメント画像)であり、出力される予測データは開頭領域画像(例えば、二値化画像)であり、例えば百数十例の脳腫瘍データを用いて学習させる。
ステップS505において、予測データと教師データとの誤差を評価する評価関数としては、平均絶対誤差(Mean Absolute Error)、平均二乗誤差平方根(Root Mean Squared Error)など指標を用いることができる。本実施形態では、例えば、AIアルゴリズム(U−net)は平均絶対誤差を最小にするように学習され、平均絶対誤差が所定の値を下回った場合に(S506)、U−netは最適化されたと考え、ステップS507において学習済みAIアルゴリズムとして出力される。
このように最適化されたAIアルゴリズム(学習済みAIアルゴリズム)は、入力データに対して特定のデータを出力する関数と同様の機能を有し、本実施形態においては、介入前の入力データに対して介入部位の予測データを出力する手術支援用AIアルゴリズムである。介入部位の予測データは、学習に用いた教師データによって決まり、本実施形態では、開頭領域のみを抽出した二値画像(開頭領域画像)、開頭領域の境界を表す二値画像、開頭領域を簡単な図形で近似したときの図形を表す特徴量などである。また教師データが、体位(頭部の姿勢)を含む場合には、推奨される体位も予測データとして出力される。機械学習部120により出力された学習済みAIアルゴリズムは、記憶装置13に記憶される。
次に、学習済みのAIアルゴリズムを用いた手術ナビゲーションの具体例について説明する。本実施形態の手術ナビゲーションシステム100は、介入位置に関する情報の提示及び術具の位置情報の提示の2つの機能を実行することができる。
最初に、学習済みAIアルゴリズムを用いた予測データの生成と介入位置の提示について、図8のフローチャートに従って説明する。ここでは、予測データとして開頭領域画像が出力される場合を例に説明する。
まずステップS801で、入力データ生成部110は、医用画像データベース50から、手術対象である患者について介入前すなわち開頭前に撮影した医用画像及び関連医療情報の読み込みを行う。ついでステップS802では、ステップS801で読み込まれたデータに基づいて、学習済みAIアルゴリズムに入力するための入力データを生成する。入力データの生成手順は、図5のステップS502における入力データの生成手順と同一であり、AIアルゴリズムの学習に用いた入力データと同種のデータを生成する。入力データは、例えば、患者の脳実質のT1画像、T2画像及び腫瘍画像である。これら全部を用いてもよし、統合して用いてもよい。
ステップS803では、予測データ生成部130が記憶装置13に記憶された学習済みAIアルゴリズムを読み込むとともに、ステップS802で作成した入力データを学習済みAIアルゴリズムに代入し、演算を行い、予測データを出力する。本実施形態では、図7のU−netに従って演算を行い、予測データとして開頭領域の画像データが得られる。ステップS804で、表示制御部150は、予測データ生成部130が生成した開頭領域の画像データを受け取り、表示メモリ14を介してディスプレイ20に表示させる。
ディスプレイ20に表示される介入前の医用画像すなわち術前画像の表示画面900の一例を図9及び図10に示す。図9に示す例では、脳実質902や腫瘍部位903を含む介入前の脳のMRI画像に重畳して、開頭領域画像を示す画像(二値画像)905が表示されている。このような表示から、術者は開頭領域の位置と大きさを把握することができ、この表示を支援情報として開頭の準備を進めることができる。
なお図9では、アキシャル面の画像のみを表示しているが、それ以外の面、サジタル面やコロナル面の画像やレンダリング画像を同時に表示してもよく、それらの画像にもサジタル面やコロナル面の開頭領域画像あるいは開頭領域のレンダリング画像を重畳して示すことができる。
図10は、予測データとして開頭領域の画像データに加えて、頭部の姿勢に関するデータが出力される場合の表示例を示す。図10(A)に示す例では、表示制御部150は、予測データとして頭部の姿勢(手術時の姿勢として推奨される姿勢:推奨姿勢)のオイラー角を予測データ生成部130から受け取ると、術前画像の上に画像座標に対し予測データの角度だけ傾きを持つ線分910を重畳して表示メモリ14に渡す。これにより図示するように、術前画像上に開頭領域の中心と腫瘍の重心とを結ぶ線910が表示される。図10(B)は、術前画像上に開頭領域を重畳した画像を、開頭領域の中心と腫瘍の重心とを結ぶ線が画像の座標軸(Y軸:垂直方向)に一致するように回転させて表示したものである。これらの表示により、術者は頭部をどの程度傾けた状態で開頭すればよいかを視覚的に把握することができる。
なお、予測データ生成部130が生成した予測データは、必要に応じて記憶装置13や医用画像データベース50に格納する。これにより事後的な確認・検証やAIアルゴリズムの学習等に使用することができる。
次に、上述した介入位置の提示と術具位置の提示を含む手術ナビゲーション処理について図11のフローチャートに従って説明する。
まずステップS811において、中央処理装置11が医用画像データベース50から手術対象である患者について術前に撮像した医用画像、及び予測データ生成部130により生成された予測データとして介入後の対象物の形状を示す予測医用画像を取得する。ステップS812では、取得した医用画像のDICOM(Digital Imaging and Communication in Medicin)情報、関連医療情報、予測医用画像に関する情報から、ナビゲーションに用いる医用画像や予測医用画像における被検体の位置及び方向(画像空間座標に置ける位置)を取得する。
ステップS813では、中央処理装置11が位置計測装置30を用いて、図4に示したように、被検体60の近傍に置かれたマーカ304の位置情報を計測し、被検体60の位置(実空間座標における位置)を検出する。マーカ304の位置は、マーカ304に固定された3以上の光学的あるいは磁気的に検出可能な球体マーカを位置計測装置30で検出することにより3次元実空間における位置を検出できる。また被検体60位置は、例えば、予めマーカ304を被検体60の所定部位(例えば頭部)に仮置したときの位置と、手術を行う際に固定する位置とを計測しておき、これら2つの位置の関係を把握しておくことにより検出することができる。
ステップS814では、中央処理装置11のレジストレーション部140が、ステップS812で得られた医用画像における被検体の位置情報(画像空間座標上の位置)とステップS813で及び被検体の位置情報(実空間座標における位置)から、被検体位置に対応する医用画像上の位置を算出して、被検体の位置と医用画像上の位置の位置合わせ(レジストレーション)を行う。
一方、ステップS815では、入力データ生成部110及び予測データ生成部130が、画像上での介入部位及び推奨姿勢の算出を行う。このステップは、図8のフローで説明した処理(ステップS802〜S804)と同じであり、入力データ生成部110が。ステップS812で取得した被検体の術前画像から入力データを生成し、予測データ生成部130が学習済みのAIアルゴリズムを用いて、例えば開頭領域と推奨姿勢を予測データとして生成する。
ステップS816では、術具等の操作を誘導するために、術具の位置情報を計測する。すなわち、中央処理装置11は、位置計測装置30を用いて、術具303に設けられたマーカ305の位置(実空間座標における位置)を計測し、それを座標変換して、医用画像座標系でのマーカ305の座標を算出する。なお、マーカ305の位置情報には、術具303の先端までのオフセットも含まれているものとする。
ステップS817では、表示制御部150が、ステップS815において得られた介入部位(開頭領域)、および、ステップS816において得られた術具等の位置情報を医用画像上に重畳させたナビゲーション画像を生成し、表示メモリ14を介してディスプレイ20に表示させる。このとき、術具等の位置情報を重畳させ表示させる医用画像は、術前に取得した介入前の医用画像を用いる。この際、必要に応じて、マウス18およびキーボード19などの入力装置を介して、所望の画像処理条件(パラメータ等)を入力してもよく、中央処理装置11(表示制御部150)は、入力された画像処理条件に応じた処理を施したナビゲーション画像を生成する。
上述した各ステップは、それぞれ、ユーザ所望するタイミングで行うようにしてもよいし、いずれかのステップを手術中、継続して行ってもよい。図11は、術具の計測(S816)を継続して行う場合を示しており、その場合、術具303の位置が変化する毎に、医用画像座標系におけるマーカ305の座標の算出(S816)と術具位置の表示(S817)を更新して行う。これらステップを手術が終了するまで(S818)、或いは入力装置を介した終了指示があるまで継続する。
本実施形態に係る手術ナビゲーションシステムによって、介入部位及び術具位置がともに表示されるナビゲーション画像の表示例を、図12に示す。
図12に示す表示画面900は、ナビゲーション画像として、被検体60の手術部位の直交3断面画像であるアキシャル断面911、サジタル断面912及びコロナル断面913と、3次元レンダリング画像914に、位置合わせ情報に従って形成された仮想術具(術具アイコン)904を重ねて表示したものである。また、予測された介入部位905も重ねて表示されている。
図示する例では、画像を表示する画面900の右側は、ユーザからの指示や指定を受付けるインターフェイス用表示の画面であり、その上部には、被検体の位置計測を指示するための位置取得アイコン921と、実空間位置と画像空間位置との位置合わせを実行するためのレジストレーションアイコン922、予測された介入部位915が重ねて表示された医用画像を表示する介入部位予測アイコン923が表示されている。
このようなインターフェイスを介してユーザからの指示や指定を受付ける場合には、図11で示すステップS813〜S815は、ユーザからの指示によって起動する。例えば、ユーザが、位置取得アイコン921を押下することによって、位置計測装置30による被検体位置の計測指示を受け付け(S813)、レジストレーションアイコン922を押下することによって、位置計測装置30によって計測された被検体の位置情報に応じた被検体の医用画像上の位置を算出し(S814)、被検体の位置と医用画像上の位置の位置合わせを行う。また、介入部位予測アイコン923を押下することによって、予測された介入部位を重畳した医用画像をディスプレイ20に表示させる(S815)。
また、画像表示画面900の右側下部には、画像処理指令を入力する画像閾値インターフェイス931、視点位置平行移動インターフェイス932、視点位置回転移動インターフェイス933及び画像拡大インターフェイス934のアイコンが表示されている。画像閾値インターフェイス931を操作することにより、医用画像の表示領域を調節することができる。また、視点位置平行移動インターフェイス932によって、医用画像に対する視点の位置を平行移動し、視点位置回転移動インターフェイス933によって、視点の位置を回転移動することができる。さらに、画像拡大インターフェイス934によって、選択領域を拡大することができる。
なお図12では、ナビゲーション画像として手術部位の直交3断面画像を用いる場合を示したが、これに限定されず、例えば、図9に示した表示画面900において術前画像上に術具を示すアイコンを重畳して表示させてもよい。
いずれの場合においても、術具アイコン904をリアルタイムに表示することで、術者は予測された介入部位905との位置関係が分かり、適切に被検体60に介入することができる。
このように本実施形態によれば、位置計測装置30により計測される被検体60又は被検体60との相対的な位置関係が変化しない寝台や固定具等の剛体に固定されたマーカ304の位置情報と、医用画像に付された画像位置情報であるDICOM情報とから、被検体位置と画像位置との位置合わせに必要な位置合わせ情報を生成する。そして、術具303に設けられたマーカ305から取得した術具303の位置情報を医用画像に仮想的に重畳したナビゲーション画像を生成しディスプレイ20に表示させることができる。このとき、予測された介入部位の画像を重畳させることで、術者が適切な介入を行えるため、介入の精度を向上させることができる。
なお本実施形態で用いたAIアルゴリズムを用いて、65例の症例について予測した結果を実際の結果と比較して評価したところ、予測データとして得た開頭領域と実際の開頭領域との重なり度(Dice係数)は0.6以上の値(重なり度60%以上)を示し、良好な結果が得られた。特に脳の領域との一致では100%の一致度が得られた。
なお本実施形態では、脳外科手術の開頭について説明したが、他の身体部位の手術にも適用可能である。例えば、肝臓等の消化器を対象とした開腹手術における開腹位置や、心臓を対象とした開胸手術にも適用可能である。
<実施形態2>
本実施形態は、予測された介入部位の情報を用いて、さらに、介入後の臓器の移動あるいは変形を予測する機能が追加されたことが特徴である。
介入(例えば開頭)によって脳などの臓器は移動したり変形したりする場合がある。例えば、図13(A)に示すように、開頭前の脳の断層像では、頭蓋骨901に囲まれた領域に脳実質902および脳腫瘍903が存在している。ここで、脳腫瘍903を摘出する手術を実施する場合、頭蓋骨901および硬膜の一部が切除され、開頭範囲906が形成されると、図13(B)に示すように、脳脊髄液に浮かんでいた脳実質902や脳腫瘍903は重力などの影響によって開頭前の位置から移動・変形する。このような現象はブレインシフトと呼ばれる。ブレインシフトは、数mmから数cmもの脳の移動又は変形を伴う。このため、介入前の画像を用いた手術ナビゲーションでは、その画像上に術具位置を表示しても、位置情報の信頼性が損なわれる。またブレインシフトは、介入位置によっても大きく影響を受ける。本実施形態は、介入位置の情報を加えて介入後変形等(ブレインシフト)を予測することにより手術ナビゲーションの精度を向上する。
本実施形態において、介入部位の予測は実施形態1と同様であり、また本実施形態を実現するための主な構成は図2に示すものと同様である。以下、実施形態1と異なる点を中心に本実施形態を説明する。
本実施形態の中央処理装置11の構成を図14に示す。図示するように、本実施形態の中央処理装置11は、入力データ生成部110と、第1予測データ生成部131と、第2予測データ生成部132とを含む。また記憶装置13には、介入位置を予測するように学習された第1学習済みAIアルゴリズムと、介入後の臓器等の移動/変形を予測するための第2学習済みAIアルゴリズムとが格納されている。第2学習済みAIアルゴリズムを、中央処理装置11において作成する場合には、中央処理装置11は、図3の中央処理装置と同様に機械学習部120を備える。
第1学習済みAIアルゴリズムは、実施形態1の学習済みAIアルゴリズムと同様であり、介入前の画像等を入力データとして、介入位置の予測データを出力する。
第2学習済みAIアルゴリズムは、介入に起因して変形する臓器等の対象物の変形規則を学習したものである。例えば、図13に示したような、介入前の臓器を含む画像及び第1学習済みAIアルゴリズムの予測データ(介入位置情報)を入力データとして、介入後に移動/変形した臓器を含む画像を出力する。但し、入力データは医用画像に限らず、医用画像から特徴領域を抽出したセグメンテーション画像や特徴点でもよい。教師データ(出力データ)としては、たとえば、介入前後の対象物の移動や変形を対応づける変位場行列とすることができる。変位場行列は、たとえば、図15に示すように、画像のピクセル毎にピクセル値(x、y)に加算する値(Δx、Δy)を定めたマップであり、出力データを変位場行列とした場合には、変形規則そのものを直接学習することになり、精度の向上が期待できる。但し、出力データは、これに限定されず、介入後の医用画像、セグメンテーション画像、特徴点などでもよい。
また学習に用いるAIアルゴリズムは、第1学習済みAIアルゴリズムと同様に、畳込みニューラルネットワークなど深層学習のAIアルゴリズムを用いることが好ましい。第2AIアルゴリズムに用いるU−netの例を図16に示す。U−netの構造は、図7に示したものと同様であるが、この例では、入力データは、介入前の脳実質の三次元MRI画像(T1画像及びT2画像)と介入部位を表した三次元画像(介入部位画像)であり、教師データは、図15に示した、術前のMRI画像の各点が、術中のMRI画像においてどこに移動するかを示す変位場行列(変位場マップ)である。また入力データの介入部位画像としては、第1の学習済みAIアルゴリズムの出力(予測データ)である介入画像、例えば、介入部位を1とし、それ以外の0とする二値画像を用いることができる。但し、介入部位を表す画像は二値画像ではある必要はなく、例えば、介入部位の確率が最も高い部分を1、最も低い部分を0として、その間の確率は0〜1の間の値を取るような画像でもよい。
なお人工知能アルゴリズムはU−netである必要はなく、例えば、Seg−netやDenseNetなど他のアルゴリズムでもよい。
次に本実施形態による手術ナビゲーション処理(主として中央処理装置の処理)を、図17のフローチャートに従って説明する。なお図17において、図11と同じ内容のステップは同じ符号で示し、重複する説明を省略する。
まず医用画像を読み込み、その位置情報と被検体位置情報をそれぞれ算出し、レジストレーション情報を算出する(S820(S811〜S814))。ついで読み込んだ医用画像から入力データを生成し、第1予測データ生成部131にて、第1学習済みAIアルゴリズムを用いて画像上での介入部位と姿勢を算出する(S815)。次のステップS821では、第2予測データ生成部132が、ステップS815で予測された介入部位の情報とステップS815で生成した入力データとを、第2学習済みAIアルゴリズムに入力し、介入後の脳実質の移動/変形を表す変位場行列(図15)を予測データとして取得する。さらに、この変位場行列を介入前の画像に適用することにより、図13(B)に示すように、介入後の画像を得ることができる。
変位場行列の適用方法としては、MRI画像の各ピクセルのX座標とY座標にΔXとΔY(変位場行列の中の同ピクセルに該当する点のX値とY値)をそれぞれ加算することで、移動先のX’座標とY’座標を得る。X’座標とY’座標におけるピクセルの画素値を、移動前のピクセルの画素値とした画像が、ブレインシフト後の予測画像となる。このような変位場行列を用いた介入後画像の生成は、第2予測データ生成部132で行ってもよいし、中央処理装置11に別途演算部(不図示)を設け、その演算部で行ってもよい。
一方、ステップS816において、レジストレーション部140は位置計測装置30によって計測された被検体の位置情報に応じた被検体の医用画像上の位置を算出し(S816)、被検体の位置と医用画像上の位置の位置合わせを行うとともに、位置計測装置30が計測した術具(マーカ)の位置を計測し、それを座標変換して、医用画像座標系でのマーカの座標を算出する。
その後、表示制御部150が医用画像の上に仮想術具を重畳した画像をディスプレイ20に表示させる。ここで介入前は、医用画像として介入前の画像を用いて、介入前画像に重畳して介入部位画像と術具アイコンを表示し(S822、S823)、介入後は、医用画像としてステップS821で予測された介入後画像を表示し、それに重畳して術具位置を表示する(S822、S824)。
このように本実施形態によれば、介入位置の情報を加えてブレインシフト(介入後画像)を予測し、ブレインシフト後の画像に対し術具等の位置情報を提示するので、手術ナビゲーションの精度を大幅に向上することができる。
10・・・手術支援装置、11・・・中央処理装置、20・・・ディスプレイ(表示装置)、30・・・位置計測装置、40・・・ネットワーク、50・・・医用画像データベース、60・・・被検体100・・・手術ナビゲーションシステム、110・・・入力データ生成部、120・・・機械学習部、130・・・予測データ生成部、131・・・第1予測データ生成部、132・・・第2予測データ生成部、140・・・レジストレーション部、150・・・表示制御部、301・・・赤外線カメラ、302・・・寝台、303・・・術具、304,305・・・マーカ。

Claims (15)

  1. 生体内の対象物への介入と処置とを、画像表示によって支援する手術支援装置であって、
    介入前の前記対象物を含む画像データまたは当該画像データを処理したデータと、生体の表面における介入位置に関する情報とを用いて学習した学習済み人工知能アルゴリズムを用いて、処置の対象である生体への介入位置を予測し、予測データを出力する予測データ生成部を備えたことを特徴とする手術支援装置。
  2. 請求項1に記載の手術支援装置であって、
    前記介入位置に関する情報は、画像空間における前記介入位置の1点の座標、前記1点の座標を含む所定の領域、及び前記1点の座標で特定される所定の形状のいずれかを含むことを特徴とする手術支援装置。
  3. 請求項1に記載の手術支援装置であって、
    前記予測データは、前記介入を行う際の前記生体の推奨体位を含むことを特徴とする手術支援装置。
  4. 請求項1に記載の手術支援装置であって、
    前記処置の対象である生体について事前に取得した事前画像を用いて、前記学習済み人工知能アルゴリズムに入力する入力データを生成する入力データ生成部をさらに備えたことを特徴とする手術支援装置。
  5. 請求項4に記載の手術支援装置であって、
    前記入力データ生成部が生成する入力データは、前記学習済み人工知能アルゴリズムの学習に用いたデータと同種のデータであることを特徴とする手術支援装置。
  6. 請求項4に記載の手術支援装置であって、
    前記入力データ生成部は、前記入力データとして、前記事前画像を複数の領域の画像に分割したセグメント画像を生成することを特徴とする手術支援装置。
  7. 請求項4に記載の手術支援装置であって、
    前記入力データ生成部は、前記事前画像として複数の画像を用いることを特徴とする手術支援装置。
  8. 請求項7に記載の手術支援装置であって、
    前記複数の画像は、組織のコントラスト、又は、撮像したモダリティが異なる画像であることを特徴とする手術支援装置。
  9. 請求項1に記載の手術支援装置であって、
    前記予測データ生成部が生成した前記介入位置に関する情報を、前記処置の対象である生体について事前に取得した事前画像とともに表示装置に表示させる表示制御部をさらに備えたことを特徴とする手術支援装置。
  10. 請求項9に記載の手術支援装置であって、
    前記表示制御部は、前記対象物の重心位置と前記介入位置とを結ぶ線の、前記事前画像の座標軸に対する傾きを表示装置に表示させることを特徴とする手術支援装置。
  11. 請求項10に記載の手術支援装置であって、
    前記表示制御部は、前記傾きを直線として前記事前画像上に重畳表示させることを特徴とする手術支援装置。
  12. 請求項10に記載の手術支援装置であって、
    前記表示制御部は、前記傾きの表示として、前記事前画像を前記傾きに相当する角度だけ回転させた画像を、前記事前画像とともに表示させることを特徴とする手術支援装置。
  13. 請求項1に記載の手術支援装置であって、
    介入前の画像及び介入位置と、介入後の画像とを用いて学習した第二の学習済み人工知能アルゴリズムを用いて、処置の対象である生体について、介入後の画像を予測する第二の予測データ生成部をさらに備え、
    前記第二の予測データ生成部は、前記処置の対象である生体について事前に取得した事前画像及び前記予測データ生成部が生成した予測データを、前記第二の学習済み人工知能アルゴリズムに入力し、介入後における前記対象物の位置変化を予測することを特徴とする手術支援装置。
  14. 請求項1に記載の手術支援装置であって、
    前記対象物は脳であり、前記予測データ生成部が生成する予測データは、開頭位置を示す領域、当該領域の輪郭、前記領域を模式的に示す図形、介入位置の中心位置と半径を含む座標、のいずれかである手術支援装置。
  15. 請求項1乃至請求項14のいずれか一項記載の手術支援装置と、
    医用画像を表示する表示装置と、
    処置の対象である生体の位置と術具の位置を計測する位置計測装置と、を備え、
    前記手術支援装置は、前記予測データ生成部により出力された介入位置に関する情報と、前記位置計測装置が計測した術具の位置とを、前記表示装置に表示させることを特徴とする手術ナビゲーションシステム。
JP2019174600A 2019-09-25 2019-09-25 手術支援装置及び手術ナビゲーションシステム Pending JP2021049198A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019174600A JP2021049198A (ja) 2019-09-25 2019-09-25 手術支援装置及び手術ナビゲーションシステム
CN202010426995.3A CN112545647A (zh) 2019-09-25 2020-05-19 手术辅助装置以及手术导航系统
US16/881,127 US11464583B2 (en) 2019-09-25 2020-05-22 Surgery support apparatus and surgical navigation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019174600A JP2021049198A (ja) 2019-09-25 2019-09-25 手術支援装置及び手術ナビゲーションシステム

Publications (1)

Publication Number Publication Date
JP2021049198A true JP2021049198A (ja) 2021-04-01

Family

ID=74881482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019174600A Pending JP2021049198A (ja) 2019-09-25 2019-09-25 手術支援装置及び手術ナビゲーションシステム

Country Status (3)

Country Link
US (1) US11464583B2 (ja)
JP (1) JP2021049198A (ja)
CN (1) CN112545647A (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022047374A (ja) * 2020-09-11 2022-03-24 富士フイルムヘルスケア株式会社 手術ナビゲーションシステム、手術ナビゲーション機能を備えた医用撮像システム、および、手術ナビゲーション用の医用画像の位置合わせ方法
US20220354585A1 (en) * 2021-04-21 2022-11-10 The Cleveland Clinic Foundation Robotic surgery
CN113262130B (zh) * 2021-04-27 2023-09-12 浙江大学医学院附属邵逸夫医院 一种适用于手术体位的检测系统及检测设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001157199A (ja) * 1999-11-26 2001-06-08 Canon Inc 画像処理装置、撮影装置、画像処理システム、画像処理方法、及び記憶媒体
JP2015019777A (ja) * 2013-07-18 2015-02-02 株式会社東芝 体位決定支援装置及び医用画像診断装置
JP2016538006A (ja) * 2013-09-30 2016-12-08 ストライカー・コーポレイション 外科手技の際に患者の解剖学的構造を操作するためのロボットシステムを制御するシステム及び方法
US20180217734A1 (en) * 2017-01-31 2018-08-02 Medtronic Navigation, Inc. Method and Apparatus for Image-Based Navigation
WO2019116593A1 (ja) * 2017-12-14 2019-06-20 オリンパス株式会社 手術支援装置
US20190206564A1 (en) * 2017-12-28 2019-07-04 Ethicon Llc Method for facility data collection and interpretation

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015154069A1 (en) * 2014-04-04 2015-10-08 Surgical Theater LLC Dynamic and interactive navigation in a surgical environment
US10136818B2 (en) * 2014-04-28 2018-11-27 Tel Hashomer Medical Research, Infrastructure And Services Ltd. High resolution intraoperative MRI images
WO2017028916A1 (en) * 2015-08-19 2017-02-23 Brainlab Ag Reference array holder
US11200664B2 (en) 2015-12-18 2021-12-14 The Regents Of The University Of California Interpretation and quantification of emergency features on head computed tomography
KR102001398B1 (ko) * 2018-01-25 2019-07-18 재단법인 아산사회복지재단 기계학습을 통한 뇌질환 상태변화 예측방법, 장치 및 프로그램
WO2019219387A1 (en) * 2018-05-16 2019-11-21 Koninklijke Philips N.V. Automated tumor identification during surgery using machine-learning
WO2020056086A1 (en) * 2018-09-12 2020-03-19 Orthogrid Systems, Inc. An artificial intelligence intra-operative surgical guidance system and method of use
TW202105406A (zh) * 2019-07-15 2021-02-01 美商外科劇院股份有限公司 用於推薦手術程序之參數的系統及方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001157199A (ja) * 1999-11-26 2001-06-08 Canon Inc 画像処理装置、撮影装置、画像処理システム、画像処理方法、及び記憶媒体
JP2015019777A (ja) * 2013-07-18 2015-02-02 株式会社東芝 体位決定支援装置及び医用画像診断装置
JP2016538006A (ja) * 2013-09-30 2016-12-08 ストライカー・コーポレイション 外科手技の際に患者の解剖学的構造を操作するためのロボットシステムを制御するシステム及び方法
US20180217734A1 (en) * 2017-01-31 2018-08-02 Medtronic Navigation, Inc. Method and Apparatus for Image-Based Navigation
WO2019116593A1 (ja) * 2017-12-14 2019-06-20 オリンパス株式会社 手術支援装置
US20190206564A1 (en) * 2017-12-28 2019-07-04 Ethicon Llc Method for facility data collection and interpretation

Also Published As

Publication number Publication date
US20210085401A1 (en) 2021-03-25
CN112545647A (zh) 2021-03-26
US11464583B2 (en) 2022-10-11

Similar Documents

Publication Publication Date Title
US12064183B2 (en) Methods, apparatuses and storage mediums for ablation planning and performance
CN103371870B (zh) 一种基于多模影像的外科手术导航系统
Salcudean et al. Robot-assisted medical imaging: A review
JP4738270B2 (ja) 手術支援装置
JP5662638B2 (ja) 副鼻洞形成術ナビゲーションのためのフルオロスコープと計算機式断層写真法との位置揃えのシステム及び利用方法
US20120296202A1 (en) Method and System for Registration of Ultrasound and Physiological Models to X-ray Fluoroscopic Images
JP7188970B2 (ja) ロボット手術支援装置、ロボット手術支援装置の作動方法、及びプログラム
US11464583B2 (en) Surgery support apparatus and surgical navigation system
JP2022548237A (ja) Vats及び低侵襲手術での術中仮想アノテーションのためのインタラクティブ内視鏡検査
JP7182126B2 (ja) ロボット手術支援装置、ロボット手術支援方法、及びプログラム
US20200069374A1 (en) Surgical support device and surgical navigation system
JP2022031179A (ja) デバイス対画像レジストレーションの方法、装置及び記憶媒体
CN113171174A (zh) 荧光镜图像中的取向检测
EP4135567A1 (en) Systems and methods for computer-assisted shape measurements in video
JP6493885B2 (ja) 画像位置合せ装置、画像位置合せ装置の作動方法および画像位置合せプログラム
US20220249174A1 (en) Surgical navigation system, information processing device and information processing method
US11495342B2 (en) Planning an external ventricle drainage placement
JP7152240B2 (ja) ロボット手術支援装置、ロボット手術支援方法、及びプログラム
US20220183759A1 (en) Determining a surgical port for a trocar or laparoscope
CN118215936A (zh) 用于腹腔镜和视频辅助手术的交互式增强现实系统
KR20200056855A (ko) 기복모델 생성방법, 장치 및 프로그램
Kramers et al. A mobile augmented reality application for image guidance of neurosurgical interventions
EP4091567A1 (en) Technique of providing user guidance for obtaining a registration between patient image data and a surgical tracking system
Baumhauer et al. Soft tissue navigation for laparoscopic prostatectomy: Evaluation of camera pose estimation for enhanced visualization
JP7495216B2 (ja) 鏡視下手術支援装置、鏡視下手術支援方法、及びプログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20211013

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231114