JP2022010852A - 手術支援システム及び手術支援方法 - Google Patents

手術支援システム及び手術支援方法 Download PDF

Info

Publication number
JP2022010852A
JP2022010852A JP2020111615A JP2020111615A JP2022010852A JP 2022010852 A JP2022010852 A JP 2022010852A JP 2020111615 A JP2020111615 A JP 2020111615A JP 2020111615 A JP2020111615 A JP 2020111615A JP 2022010852 A JP2022010852 A JP 2022010852A
Authority
JP
Japan
Prior art keywords
information
abnormality
medical
image
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020111615A
Other languages
English (en)
Inventor
光雄 関根
Mitsuo Sekine
紗佳 滝川
Sayaka Takigawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2020111615A priority Critical patent/JP2022010852A/ja
Priority to CN202110724018.6A priority patent/CN113925608A/zh
Priority to US17/304,969 priority patent/US20210401511A1/en
Publication of JP2022010852A publication Critical patent/JP2022010852A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Robotics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Gynecology & Obstetrics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Urology & Nephrology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Endoscopes (AREA)

Abstract

【課題】術中に生じたイベントに関する情報の確認を容易にすること。【解決手段】実施形態に係る手術支援システムは、取得部と、検出部と、生成部とを備える。取得部は、術中の被検体の医用情報を取得する。検出部は、取得された被検体の医用情報に基づいて、異常を検出する。生成部は、異常を検出した時刻と、当該時刻に取得された医用情報とを関連付けた異常情報を生成する。【選択図】図1

Description

本明細書及び図面に開示の実施形態は、手術支援システム及び手術支援方法に関する。
従来、術中に用いられる様々な手術支援システムが知られている。例えば、腹腔鏡手術においては、血管や臓器の損傷を回避するために、術前に撮影したCT(Computed Tomography)画像から仮想内視鏡画像を生成し、手術中に実際の内視鏡画像に連動して提示する手術支援システムが知られている。
特開2011-036371号公報 特開2016-182228号公報 特表2017-006337号公報
本明細書及び図面に開示の実施形態が解決しようとする課題の一つは、術中に生じたイベントに関する情報の確認を容易にすることである。ただし、本明細書及び図面に開示の実施形態により解決しようとする課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置付けることもできる。
実施形態に係る手術支援システムは、取得部と、検出部と、生成部とを備える。取得部は、術中の被検体の医用情報を取得する。検出部は、取得された前記被検体の医用情報に基づいて、異常を検出する。生成部は、前記異常を検出した時刻と、当該時刻に取得された前記医用情報とを関連付けた異常情報を生成する。
図1は、第1の実施形態に係る手術支援システムの構成の一例を示す図である。 図2は、第1の実施形態に係る制御機能による表示制御の一例を示す図である。 図3は、第1の実施形態に係る制御機能による表示制御の一例を示す図である。 図4は、第1の実施形態に係る制御機能による表示制御の一例を示す図である。 図5は、図5は、第1の実施形態に係る手術支援装置の処理の手順を説明するためのフローチャートである。
以下、図面を参照しながら、手術支援システム及び手術支援方法の実施形態について詳細に説明する。なお、本願に係る手術支援システム及び手術支援方法は、以下に示す実施形態によって限定されるものではない。また、実施形態は、処理内容に矛盾が生じない範囲で他の実施形態や従来技術との組み合わせが可能である。
(第1の実施形態)
図1は、第1の実施形態に係る手術支援システム10の構成の一例を示す図である。ここで、図1では、本願に係る手術支援を実行する手術支援装置を含む手術支援システム10について説明するが、実施形態はこれに限定されるものではなく、以下で説明する手術支援方法は、手術支援システム10におけるいずれの装置によって実行される場合でもよい。
例えば、図1に示すように、本実施形態に係る手術支援システム10は、医用画像診断装置1と、内視鏡システム2と、仮想化腹腔鏡画像システム3と、位置センサ4と、手術支援装置5とを含む。ここで、各装置及びシステムは、ネットワークを介して通信可能に接続されている。また、第1の実施形態では、手術として腹腔鏡手術を行う場合を例に挙げて説明するが、手術はこれに限定されるものではなく、その他の手術に対して適用する場合でもよい。また、手術支援システム10は、図示以外のシステム(例えば、HIS(Hospital Information System)など)や装置(例えば、画像保管装置)などを含む場合でもよい。
医用画像診断装置1は、被検体を撮像して医用画像を収集する。そして、医用画像診断装置1は、収集した医用画像を仮想化腹腔鏡画像システム3や手術支援装置5などに送信する。例えば、医用画像診断装置1は、X線診断装置、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、超音波診断装置、SPECT(Single Photon Emission Computed Tomography)装置、PET(Positron Emission computed Tomography)装置等である。
医用画像診断装置1は、手術を受ける被検体に関する医用画像を収集する。具体的には、医用画像診断装置1は、術前、術後において、手術の対象となる部位の医用画像を収集する。そして、医用画像診断装置1は、収集した医用画像を仮想化腹腔鏡画像システム3や手術支援装置5などに送信する。
内視鏡システム2は、内視鏡21と、ディスプレイ22と、処理回路23と、記憶回路24とを有する。内視鏡21は、被検体内に挿入される挿入部と、挿入部を操作する操作部とを含む。挿入部は、被検体内の手術の対象部位(患部)に対する処置を行う処置部や、被検体内を撮像する撮像部である。操作部は、処置部や、撮像部に対する術者の操作を受け付ける。
処置部は、例えば、鉗子、電気メス、縫合器などである。また、撮像部は、CCD(Charge Coupled Device)型イメージセンサまたはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子と、レンズ、光出射部とを有し、光出射部から光が照射された患部を、撮像素子にて撮像する。
ディスプレイ22は、撮像部によって撮像された映像(内視鏡画像)を表示する。処理回路23は、内視鏡21、ディスプレイ22、及び、記憶回路24に接続され、内視鏡システム全体を制御する。例えば、処理回路23は、内視鏡21における処置部の操作や、撮像部による内視鏡画像の収集、ディスプレイ22による内視鏡画像の表示、記憶回路24に対する内視鏡画像の格納、内視鏡画像のなどを制御する。記憶回路24は、内視鏡21の撮像部によって収集された内視鏡画像241を記憶する。
例えば、医師などの術者は、鉗子や電気メスなどの処置部を挿入部として有する内視鏡21や、撮像部を挿入部として有する内視鏡21を被検体内に挿入し、撮像部によって収集されてディスプレイ22に表示された内視鏡画像を観察しながら、処置部を操作することで、被検体内の手術の対象部位(患部)に対する処置を行う。
仮想化腹腔鏡画像システム3は、ディスプレイ31と、処理回路32と、記憶回路33とを有する。ディスプレイ31は、処理回路32によって生成された画像を表示する。具体的には、ディスプレイ31は、医用画像診断装置1によって収集された医用画像に基づいて生成した仮想化腹腔鏡画像を表示する。
処理回路32は、ディスプレイ31、及び、記憶回路33に接続され、仮想化腹腔鏡画像システム全体を制御する。具体的には、処理回路32は、医用画像診断装置1からの医用画像の取得、ディスプレイ22による仮想化腹腔鏡画像の表示、記憶回路33に対する仮想化腹腔鏡画像の格納などを制御する。また、処理回路32は、生成機能321を実行することで、医用画像を用いた仮想化腹腔鏡画像を生成する。例えば、生成機能321は、医用画像診断装置1であるX線CT装置が術前に被検体の腹部から収集した3次元のCT画像に基づいて、仮想化腹腔鏡画像を生成する。
一例を挙げると、生成機能321は、3次元のCT画像を用いて生成された2次元のCT画像に含まれる腹腔内の部位の情報に基づいて、当該腹腔内を所定の視線方向から投影した仮想化腹腔鏡画像を生成する。記憶回路33は、処理回路32によって生成された仮想化腹腔鏡画像331を記憶する。
位置センサ4は、センサ部と、磁場発生部と、信号受信部とを有する。センサ部は、例えば、磁気センサであり、内視鏡21における挿入部の先端や、被検体内に配置される。磁場発生部は、被検体の近傍に配置され、自装置を中心として外側に向かって磁場を形成する。信号受信部は、センサ部によって出力された信号を受信する。
センサ部は、磁場発生部によって形成された3次元の磁場を検出する。そして、センサ部は、検出した3次元の磁場の情報に基づいて、磁場発生部を原点とする空間における自装置の位置情報(座標及び角度)を:算出し、算出した自装置の位置情報を信号受信部に送信する。例えば、内視鏡21における挿入部の先端に取り付けられたセンサ部から受信する位置情報は、磁場発生部を原点とする空間における挿入部の先端の位置を示す。また、被検体内(例えば、患部の臓器)に配置されたセンサ部から受信する位置情報は、磁場発生部を原点とする空間における患部の位置を示す。信号受信部は、センサ部から受信した位置情報を仮想化腹腔鏡画像システム3や、手術支援装置5に送信する。
ここで、仮想化腹腔鏡画像システム3は、上記した位置センサ4によって取得される位置情報を用いることで、内視鏡画像に連動した仮想化腹腔鏡画像を生成して表示することができる。かかる場合には、まず、磁場発生部を原点とする空間の3次元座標と、仮想化腹腔鏡画像の生成に用いる3次元の医用画像における3次元座標との位置合わせが行われる。
例えば、生成機能321は、被検体内(例えば、患部の臓器)に配置されたセンサ部によって取得された位置情報に対応する、3次元の医用画像内の位置(センサ部が配置された臓器の位置)を抽出し、抽出した位置をセンサ部によって取得された位置と同一位置とする位置合わせを行う。ここで、生成機能321は、被検体内の複数の位置に配置されたセンサ部からの位置情報について上記位置合わせを行うことで、磁場発生部を原点とする空間の3次元座標と、仮想化腹腔鏡画像の生成に用いる3次元の医用画像における3次元座標との位置合わせを行う。
なお、磁場発生部を原点とする空間の3次元座標と、仮想化腹腔鏡画像の生成に用いる3次元の医用画像における3次元座標との位置合わせは、上記した方法に限らず、その他の方法が用いられる場合でもよい。例えば、センサ部が取り付けられた内視鏡21の撮像部によって撮像された内視鏡画像に描出された被検体内の部位の位置情報が用いられる場合でもよい。
かかる場合には、例えば、生成機能321は、撮像部に取り付けられたセンサ部からの位置情報に基づいて、磁場発生部を原点とする空間における内視鏡画像に描出された部位(特徴的な部位など)の3次元座標を算出する。そして、生成機能321は、3次元座標を算出した部位に対応する、3次元の医用画像内の位置を抽出し、抽出した位置と3次元座標を算出した位置とを同一位置とする位置合わせを行う。ここで、生成機能321は、被検体内の複数の位置について上記位置合わせを行うことで、磁場発生部を原点とする空間の3次元座標と、仮想化腹腔鏡画像の生成に用いる3次元の医用画像における3次元座標との位置合わせを行う。
このように、位置合わせを実行すると、生成機能321は、内視鏡21の撮像部に取り付けられたセンサ部の位置情報に基づいて、内視鏡画像と連動した仮想化腹腔鏡画像を生成する。例えば、生成機能321は、内視鏡21の撮像部に取り付けられたセンサ部によって取得された3次元座標を視点とし、センサ部の角度から導出される撮像方向を投影方向として、3次元のCT画像内(腹腔内)を投影した仮想化腹腔鏡画像を生成する。
そして、生成機能321は、撮像部の位置の変化(センサ部によって取得される3次元座標及び角度の変化)に応じて、視点と投影方向を変化させた仮想化腹腔鏡画像を順次生成する。このように順次生成される仮想化腹腔鏡画像が順次表示されることで、内視鏡画像の変化に連動した仮想化腹腔鏡画像が表示されることとなる。
ここで、生成機能321は、被検体内(例えば、患部の臓器)に配置されたセンサ部によって取得された位置情報を用いることで、術中の臓器形状の変化を仮想化腹腔鏡画像に反映させることができる。例えば、生成機能321は、臓器に配置されたセンサ部によって取得された位置情報が変化するごとに変化量を算出し、3次元の医用画像における対応する位置に算出した変化量で変化を加える。そして、生成機能321は、変化後の医用画像を用いて仮想化腹腔鏡画像を生成することで、術中の臓器形状の変化を仮想化腹腔鏡画像に反映させる。
手術支援装置5は、術中の種々の情報に基づいて、術中の異常に関する情報を生成する。具体的には、手術支援装置5は、術中に、医用画像装置や種々の医用機器から情報を取得し、取得した情報に基づいて、術中の異常に関する情報を生成する。例えば、手術支援装置5は、ワークステーションやパーソナルコンピュータ、タブレット端末等のコンピュータ機器によって実現される。
例えば、手術支援装置5は、入力インタフェース51と、ディスプレイ52と、記憶回路53と、処理回路54とを備える。そして、手術支援装置5は、ネットワークを介して、医用画像診断装置1、内視鏡システム2、仮想化腹腔鏡画像システム3、位置センサ4と接続される。
入力インタフェース51は、利用者から各種指示及び各種情報の入力操作を受け付ける。具体的には、入力インタフェース51は、処理回路54に接続されており、利用者から受け取った入力操作を電気信号へ変換して処理回路54に出力する。例えば、入力インタフェース51は、トラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力インタフェース、及び音声入力インタフェース等によって実現される。なお、本明細書において、入力インタフェース51は、マウス、キーボード等の物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御回路へ出力する電気信号の処理回路も入力インタフェース51の例に含まれる。
ディスプレイ154は、各種情報及び各種データを表示する。具体的には、ディスプレイ154は、処理回路155に接続されており、処理回路155から出力された各種情報及び各種データを表示する。例えば、ディスプレイ154は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイ、有機ELディスプレイ、プラズマディスプレイ、タッチパネル等によって実現される。
記憶回路53は、各種データ及び各種プログラムを記憶する。具体的には、記憶回路53は、処理回路54に接続されており、処理回路54から入力されたデータを記憶、又は、記憶しているデータを読み出して処理回路54に出力する。例えば、記憶回路53は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子や、ハードディスク、光ディスク等によって実現される。
例えば、記憶回路53は、判定条件531と、異常情報532とを記憶する。なお、判定条件531及び異常情報532については、後に詳述する。
処理回路54は、手術支援装置5の全体を制御する。例えば、処理回路54は、入力インタフェース51を介して利用者から受け付けた入力操作に応じて、各種処理を行う。例えば、処理回路54は、他の装置から送信されたデータを記憶回路53に記憶する。また、例えば、処理回路54は、記憶回路53から読み出したデータを出力することで、当該データを他の装置に送信する。また、例えば、処理回路54は、記憶回路53から読み出したデータをディスプレイ52に表示させる。
ここで、上述した内視鏡システム2、仮想化腹腔鏡画像システム3及び手術支援装置5における各処理回路は、例えば、プロセッサによって実現される。その場合に、上述した各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路に記憶される。そして、各処理回路は、各記憶回路に記憶された各プログラムを読み出して実行することで、各プログラムに対応する機能を実現する。換言すると、各処理回路は、各プログラムを読み出した状態で、図1に示した各処理機能を有することとなる。
なお、各処理回路は、複数の独立したプロセッサを組み合わせて構成され、各プロセッサがプログラムを実行することによって各処理機能を実現するものとしてもよい。また、各処理回路が有する各処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。また、各処理回路が有する各処理機能は、回路等のハードウェアとソフトウェアとの混合によって実現されても構わない。また、ここでは、各処理機能に対応するプログラムが単一の記憶回路に記憶される場合の例を説明したが、実施形態はこれに限られない。例えば、各処理機能に対応するプログラムが複数の記憶回路が分散して記憶され、処理回路が、各記憶回路から各プログラムを読み出して実行する構成としても構わない。
以上、本実施形態に係る手術支援システム10の構成の一例について説明した。例えば、本実施形態に係る手術支援システム10は、病院や診療所等の医療施設の手術室に設置され、医師等の利用者によって行われる手術において生じたイベントに関する確認を支援する。
例えば、腹腔鏡手術においては、術者の気付かない出血が生じる場合がある。一例を挙げると、器具が血管へ接触した場合や、電気メスで膜を剥離した際に奥の血管まで傷つけてしまった場合、臓器を鉗子で抑える力が強くなってしまい、圧力のかかっていた別の場所で裂け目が生じた場合、血管を鉗子で持っていた際に、少し引っ張った結果、弱くなっていた別のところに裂け目が生じた場合などが挙げられる。
このような出血が生じた場合、出血箇所を特定して止血し、内視鏡下手術を続行することになるが、出血すると内視鏡視野が悪くなり、出血箇所の特定が困難になる。また、出血箇所を調べるために内視鏡画像による映像を巻き戻して確認しても、いつ・どこでその操作をしたか術者が把握していないため、映像からの特定は困難かつ時間がかかる場合がある。さらに、仮想内視鏡画像により視野外の体内臓器構造を把握することができるが、術中に発生した出血イベント等の異常が仮想内視鏡画像に反映させるわけではないため、仮想内視鏡画像での特定は困難である。
このように、出血箇所の特定に時間がかかり、止血できない場合、開腹手術に切り替えて手術を続行することになるが、傷口が大きくなり、開腹手術の切り替えに手間取って患者が危険な状態に陥ることもあり、患者の負担が大きい。
そこで、本実施形態に係る手術支援システム10における手術支援装置5は、術中に種々の情報を取得して、取得した情報と時刻情報を対応付けた情報を生成することにより、術中に生じたイベントに関する情報の確認を容易にすることができるように構成されている。
具体的には、手術支援装置5は、術中に用いられている医用画像診断装置1、内視鏡システム2、及び、その他種々の医用機器から情報を取得し続け、取得した情報を解析して異常と判定した情報を取得時刻と対応付けて記憶する。これにより、手術支援システム10は、術中に出血などのイベントが発生した場合に、異常と判定した情報について提示することができ、術中に生じたイベントに関する情報の確認を容易にすることができる。以下、このような構成を有する手術支援装置5について、詳細に説明する。
例えば、図1に示すように、本実施形態では、手術支援装置5の処理回路54が、制御機能541と、解析機能542と、生成機能543とを実行する。ここで、制御機能541は、取得部と表示制御部の一例である。また、解析機能542は、検出部の一例である。また、生成機能543は、生成部の一例である。
制御機能541は、ネットワークを介して接続された他の装置から種々のデータ(医用情報)を取得し、取得した医用情報を記憶回路53に記憶する。例えば、制御機能541は、医用画像診断装置1によって収集された医用画像や、内視鏡システム2によって生成された内視鏡画像、仮想化腹腔鏡画像システム3によって生成された仮想化腹腔鏡画像などを取得する。
ここで、制御機能541は、術前及び術中における被検体の医用情報を取得することができる。例えば、制御機能541は、術前に収集された医用画像及び術中に収集されている医用画像をそれぞれ取得する。また、制御機能541は、術中の内視鏡画像を取得する。また、制御機能541は、術前に生成された仮想化腹腔鏡画像及び術中に生成されている仮想化腹腔鏡画像をそれぞれ取得する。
また、制御機能541は、術中に被検体から取得されている種々の医用情報を取得することができる。例えば、制御機能541は、術中に被検体から取得されているバイタル場情報や、位置センサ4によって取得されている位置情報、或いは、内視鏡21に取り付けられた種々のセンサによって取得されている各種情報を取得する。ここで、内視鏡21に取り付けられた種々のセンサとしては、例えば、鉗子における圧力情報を取得するMEMS(Micro Electro Mechanical Systems)センサなどが挙げられる。内視鏡21に上記したMEMSセンサが取り付けられている場合、制御機能541は、MEMSセンサによって取得された圧力情報を取得することもできる。
また、制御機能541は、種々の医用情報をディスプレイ52に表示させる。例えば、制御機能541は、取得した医用情報の解析結果に基づいて生成された情報をディスプレイ52に表示させる。ここで、制御機能541は、生成された情報をネットワークを介して他の装置に送信して、他の装置のディスプレイに表示させるように制御することもできる。例えば、制御機能541は、生成された情報を内視鏡システム2や、仮想化腹腔鏡画像システム3に送信する。内視鏡システム2及び仮想化腹腔鏡画像システム3は、手術支援装置5から受信した情報を、自装置のディスプレイに表示させる。
解析機能542は、取得された被検体の医用情報に基づいて、異常を検出する。具体的には、解析機能542は、制御機能541によって取得された医用情報と、記憶回路53によって記憶された判定条件531とを比較し、取得された医用情報のうち判定条件に適合した情報を異常として検出する。例えば、解析機能542は、医用画像診断装置1から取得した医用画像や、内視鏡システム2から取得された内視鏡画像、バイタル情報などに基づいて、術中の異常を検出する。
ここで、判定条件531は、取得される医用情報に対応する種々の条件を含む。例えば、内視鏡画像を用いた解析に対応する判定条件としては、「処置部の血管への接触の有無」、「電気メスの組織への侵入の程度」、「血管を鉗子で挟んでいる時間」、「臓器を鉗子で押さえている時間」、「臓器の変形の程度」などの条件が挙げられる。
例えば、判定条件531における「処置部の血管への接触の有無」は、内視鏡21の処置部が、血管に接触したか否か、さらに、接触の程度を段階的に分類した条件を示す。なお、接触の程度は、例えば、処置具の移動量によって分類されてもよい。一例を挙げると、処置具の移動量が大きいほど接触の程度が大きくなるように分類される。
解析機能542は、内視鏡システム2から順次取得された各内視鏡画像の画像解析により、処置部が血管に接触したか否かを判定する。そして、解析機能542は、処置部が血管に接触したと判定した場合に、時系列的に前の内視鏡画像からの処置部の移動量を算出し、算出した移動量を判定条件531における分類と比較することで、接触の程度を分類する。ここで、解析機能542は、例えば、処置部が血管に接触した場合を異常と検出し、分類した接触の程度をリスクレベルとして判定する。例えば、解析機能542は、接触の程度が大きいほどリスクレベルが高いと判定する。
また、判定条件531における「電気メスの組織への侵入の程度」は、電気メスの侵入の程度を段階的に分類した条件を示す。なお、侵入の程度は、例えば、電気メスの移動量によって分類されてもよい。一例を挙げると、電気メスの移動量が大きいほど侵入の程度が大きくなるように分類される。解析機能542は、内視鏡システム2から順次取得された各内視鏡画像の画像解析により、時系列的に前の内視鏡画像からの電気メスの移動量を算出し、算出した移動量を判定条件531における分類と比較することで、侵入の程度を分類する。ここで、解析機能542は、所定の侵入の程度を超えた場合を異常と検出し、分類した侵入の程度をリスクレベルとして判定する。例えば、解析機能542は、侵入の程度が大きいほどリスクレベルが高いと判定する。
また、判定条件531における「血管を鉗子で挟んでいる時間」及び「臓器を鉗子で押さえている時間」は、時間の長さを段階的に分類した条件を示す。解析機能542は、内視鏡システム2から順次取得された各内視鏡画像の画像解析により、「血管を鉗子で挟んでいる時間」や「臓器を鉗子で押さえている時間」を算出し、算出した時間を判定条件531における分類と比較することで、算出した時間を分類する。ここで、解析機能542は、算出した時間が所定の時間を超えた場合を異常と検出し、時間の長さをリスクレベルとして判定する。例えば、解析機能542は、算出した時間が長いほどリスクレベルが高いと判定する。
また、判定条件531における「臓器の変形の程度」は、臓器変形の程度を段階的に分類した条件を示す。なお、臓器変形の程度は、例えば、臓器の形状の変化量によって分類されてもよい。一例を挙げると、臓器の形状の変化量が大きいほど変形の程度が大きくなるように分類される。解析機能542は、内視鏡システム2から順次取得された各内視鏡画像の画像解析により、時系列的に前の内視鏡画像からの臓器形状の変化量を算出し、算出した変化量を判定条件531における分類と比較することで、変形の程度を分類する。ここで、解析機能542は、所定の変化量を超えた場合を異常と検出し、分類した変形の程度をリスクレベルとして判定する。例えば、解析機能542は、変形の程度が大きいほどリスクレベルが高いと判定する。
なお、臓器の変形は、例えば、臓器が鉗子で押さえられたり、臓器が鉗子で引っ張られたりすることで生じる。また、臓器の変形は、例えば、体内に挿入された内視鏡21の挿入部が臓器を押すことで生じる。
なお、上述した画像解析は、AI(Artificial Intelligence)による特徴検出によって行われる場合でもよい。また、上述した例では、処置部の移動量や、臓器の変化量を画像解析によって算出する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、位置センサ4が用いられている場合、位置センサ4によって取得された位置情報を用いる場合でもよい。一例を挙げると、解析機能542は、処置部の先端に取り付けられたセンサ部によって取得された位置情報に基づいて、処置部の移動量を算出する。また、例えば、解析機能542は、患部の臓器に配置されたセンサ部によって取得された位置情報に基づいて、臓器の変形量を算出する。
次に、例えば、医用画像を用いた解析に対応する判定条件としては、「Color Doppler Imagingにより検出される血流の漏れの有無」などの条件が挙げられる。例えば、判定条件531における「Color Doppler Imagingにより検出される血流の漏れの有無」は、血流の漏れが発生したか否か、さらに、血流の漏れの程度を段階的に分類した条件を示す。
例えば、解析機能542は、医用画像診断装置1である超音波診断装置から順次取得されたカラードプラ画像の画像解析により、血流の漏れの有無を判定する。そして、解析機能542は、血流の漏れがあると判定した場合を異常として検出し、判定条件531に応じて血流の漏れの程度をリスクレベルとして判定する。例えば、解析機能542は、血流の漏れの程度が大きいほどリスクレベルが高いと判定する。
また、例えば、バイタル情報を用いた解析に対応する判定条件としては、「血圧の低下」、「心電図の異常」、「虚血」などの条件が挙げられる。例えば、判定条件531における「血圧の低下」は、血圧が所定の値以下となったか否か、さらに、血圧の低下の程度を段階的に分類した条件を示す。
例えば、制御機能541は、術中に被検体の血圧情報を血圧モニタから取得する。解析機能542は、血圧モニタから順次取得された血圧情報により、血圧が所定の値以下となったか否かを判定する。そして、解析機能542は、血圧が所定の値以下になったと判定した場合を異常として検出し、判定条件531に応じて血圧の低下の程度をリスクレベルとして判定する。例えば、解析機能542は、血圧の低下の程度が大きいほどリスクレベルが高いと判定する。
また、例えば、判定条件531における「心電図の異常」は、心電図におけるリズムや波形が所定の変化量を超えて変化したか否か、さらに、変化の程度を段階的に分類した条件を示す。
例えば、制御機能541は、術中に被検体の心電図を心電計から取得する。解析機能542は、心電計から順次取得された心電図により、心電図におけるリズムや波形が所定の変化量を超えて変化したか否かを判定する。そして、解析機能542は、心電図におけるリズムや波形が所定の変化量を超えて変化した場合を異常として検出し、判定条件531に応じて変化量の程度をリスクレベルとして判定する。例えば、解析機能542は、変化量が大きいほどリスクレベルが高いと判定する。
また、例えば、判定条件531における「虚血」は、虚血が生じているか否か、さらに、虚血の程度を段階的に分類した条件を示す。解析機能542は、心電計から順次取得された心電図の波形により、虚血が生じているか否かを判定する。そして、解析機能542は、虚血が生じている場合を異常として検出し、判定条件531に応じて虚血の程度をリスクレベルとして判定する。例えば、解析機能542は、虚血の程度が大きいほどリスクレベルが高いと判定する。
上述したように、解析機能542は、術中に取得された医用情報に基づいて、異常を検出し、検出した異常のリスクレベルを判定する。ここで、上述した判定条件は、あくまでも一例であり、その他の情報によって異常を検出する場合でもよい。例えば、処置部にMEMSセンサが取り付けられ、MEMSセンサによって圧力情報が取得されている場合、取得された圧力情報に基づいて異常を検出する場合でもよい。
かかる場合には、判定条件531として、圧力情報に関する条件が記憶される。例えば、判定条件531における「圧力」は、取得された圧力値が所定の値を超えたか否か、さらに、圧力の程度を段階的に分類した条件を示す。
例えば、制御機能541は、MEMSセンサによって取得された圧力情報を取得する。解析機能542は、制御機能541によって取得された圧力情報により、圧力が所定の値を超えたか否かを判定する。そして、解析機能542は、圧力が所定の値を超えたと判定した場合を異常として検出し、判定条件531に応じて圧力の程度をリスクレベルとして判定する。例えば、解析機能542は、圧力の値が大きいほどリスクレベルが高いと判定する。
以上、解析機能542による解析の例について説明した。なお、上述した例では、1つの条件に基づいて異常を検出する場合について説明したが、実施形態はこれに限定されるものではなく、複数の条件を組み合わせて異常を検出する場合でもよい。例えば、単独機器による解析(例えば、内視鏡画像を用いた解析)に含まれる複数の条件(例えば、処置部の血管への接触の有無及び臓器の変形の程度など)を組み合わせて異常を検出する場合でもよく、或いは、複数機器による解析(例えば、内視鏡画像を用いた解析とバイタル情報を用いた解析)の条件を組み合わせて異常を検出する場合でもよい。また、解析機能542によって参照される判定条件531の各種条件は、任意に設定することができる。例えば、手技や、患部の臓器の種類などに応じて、適宜設定することができる。
生成機能543は、異常を検出した時刻と、当該時刻に取得された医用情報とを関連付けた異常情報を生成する。具体的には、生成機能543は、解析機能542によって異常が検出された際の医用情報と、当該医用情報が取得された時刻とを対応付けた異常情報を生成する。例えば、「臓器の変形の程度」に基づく解析において異常が検出された場合、生成機能543は、異常が検出された内視鏡画像と、当該内視鏡画像が撮影された時刻とを関連付けた異常情報を生成する。なお、内視鏡画像を撮影した時刻は、制御機能541が内視鏡画像を取得する際に同時に取得される。
ここで、生成機能543は、異常を検出した医用情報のみを時刻に対応付けた異常情報を生成してもよく、或いは、異常を検出した医用情報が取得された時刻の他の医用情報をさらに対応付けた異常情報を生成してもよい。例えば、内視鏡画像とともにバイタル情報が取得され、内視鏡画像による「臓器の変形の程度」に基づく解析において異常が検出された場合に、生成機能543は、同時に取得されていたバイタル情報をさらに関連付けた異常情報を生成することができる。すなわち、生成機能543は、異常が検出された内視鏡画像が撮影された時刻のバイタル情報をさらに関連付けた異常情報を生成する。
また、さらに、生成機能543は、異常を検出した医用情報が取得された時刻と、当該時刻に取得された医用情報とを関連付けた異常情報に、リスクレベルを関連付けることもできる。例えば、生成機能543は、「臓器の変形の程度」に基づく解析において判定したリスクレベルを異常情報にさらに関連付ける。
また、さらに、生成機能543は、位置情報を関連付けた異常情報を生成することもできる。具体的には、生成機能543は、異常を検出した時刻と、当該時刻に取得された医用情報と、当該時刻に取得された位置情報とを関連付けた異常情報を生成する。かかる場合には、まず、位置センサ4のセンサ部が内視鏡21の挿入部の先端に取り付けられ、術中の挿入部の先端の位置情報が取得される。制御機能541は、位置センサ4によって取得される位置情報を位置センサ4から取得し、取得した位置情報に、当該位置情報が取得された時刻を対応付けて記憶回路53に格納する。
生成機能543は、解析機能542によって異常が検出された際の医用情報が取得された時刻の位置情報を記憶回路53から取得して、異常を検出した医用情報が取得された時刻と、当該時刻に取得された医用情報とを関連付けた異常情報を生成する。例えば、「臓器の変形の程度」に基づく解析において異常が検出された場合、生成機能543は、異常が検出された内視鏡画像と、当該内視鏡画像が撮影された時刻と、当該時刻における位置情報とを関連付けた異常情報を生成する。
なお、異常情報に関連付けられる情報は、適宜設定することができる。例えば、生成機能543は、術中に取得される情報に応じて、時刻と、医用情報と、解析結果と、位置情報を、適宜異常情報として関連付ける。
生成機能543は、術中、解析機能542によって異常が検出されるごとに、上述した異常情報を生成して、記憶回路53に格納する。記憶回路53における異常情報532は、上述したように生成機能543によって生成され、記憶されたものである。なお、異常情報532は、手術ごとに記憶され、術後に読み出されて利用されてもよい。
上述したように異常情報が生成されると、制御機能541は、異常情報を用いた種々の情報をディスプレイ52に表示させる。また、制御機能541は、異常情報を用いた種々の情報を内視鏡システム2におけるディスプレイ22や、仮想化腹腔鏡画像システム3におけるディスプレイ31に表示させることもできる。
以下、制御機能541によって表示される情報の例について説明する。
例えば、制御機能541は、異常情報を時刻順に表したタイムライン情報を表示させる。図2は、第1の実施形態に係る制御機能541による表示制御の一例を示す図である。ここで、図2は、内視鏡システム2によって表示されている内視鏡画像に対するタイムライン情報の表示を示す。
例えば、図2の上段の図に示すように、内視鏡システム2においては、術中に取得されている内視鏡画像をもとに、リアルタイムの腹腔内の映像をディスプレイ22に表示させる。この間、手術支援装置5は、種々の医用情報を取得して異常が発生しているか否かを判定する。
ここで、解析機能542が異常を検出して、生成機能543が異常情報を生成すると、制御機能541は、図2の中段の図に示すように、生成された異常情報に基づいて、内視鏡画像にタイムライン情報101を表示させるように制御する。
ここで、制御機能541は、タイムライン情報101の位置1に示すように、検出された異常の度合い及び検出手段のうち少なくとも1つについて、識別可能な情報を表示させる。例えば、制御機能541は、検出された異常のリスクレベルに応じた色でタイムライン情報の位置1を表示させる。また、例えば、制御機能541は、異常を検出した検出手段(例えば、解析に用いた条件)に応じた色でタイムライン情報の位置1を表示させる。ここで、リスクレベル及び検出手段を識別可能とする場合、制御機能541は、例えば、タイムライン情報101上における位置1の外枠の色と内側の色を検出手段とリスクレベルに割り当てる。一例を挙げると、制御機能541は、位置1を示す外枠の色を検出手段に応じた色で示し、位置1を示す枠内の色をリスクレベルに応じた色で示す。
また、制御機能541は、リスクレベルの変化に応じて表示を変化させることができる。上述したように、解析機能542は、制御機能541によって順次取得される医用情報に基づいて異常を検出する。したがって、順次取得される医用情報において継続して異常が検出されている場合、異常情報が連続して生成されることとなり、制御機能541は、タイムライン情報に対して連続して識別可能な情報を表示させることとなる。
ここで、例えば、臓器の変形の程度が徐々に変化するような場合、解析機能542によって判定されるリスクレベルが徐々に変化することとなる。かかる場合には、生成機能543によって生成される異常情報に関連付けられるリスクレベルが変化することとなる。その結果、例えば、制御機能541は、図2の下段に示すように、タイムライン情報101における位置1における色を変化させて表示させる。
例えば、制御機能541は、異常情報が生成されるまで、図2の上段に示すようにタイムライン情報101を表示させず、異常情報が生成された際に、図2の中段及び下段に示すタイムライン情報101を自動で表示させる。そして、制御機能541は、異常情報が生成されなくなると、タイムライン情報を非表示とするように制御することもできる。
また、例えば、制御機能541は、異常を検出した時刻に収集された術中の医用画像を、タイムライン情報における対応する時刻に関連付けて表示させることもできる。図3は、第1の実施形態に係る制御機能541による表示制御の一例を示す図である。ここで、図3は、内視鏡システム2によって表示されている内視鏡画像に対するタイムライン情報の表示を示す。
例えば、制御機能541は、操作者の操作に応じて、図3に示すように、タイムライン情報101を表示させたり、サムネイル102を表示させたりする。一例を挙げると、術中に操作者がタイムライン情報101の表示操作を実行すると、制御機能541は、図3の中段に示すように、これまでに生成された異常情報に基づくタイムライン情報101を表示させる。
さらに、操作者がタイムライン情報101における位置6を指定すると、制御機能541は、図3の下段に示すように、指定された位置6に対応する内視鏡画像のサムネイル102を位置6に対応付けて表示させる。
例えば、術中に出血などのイベントが発生した場合に、操作者がタイムライン情報を表示させると、制御機能541は、図3の中段に示すように、異常が検出された時点を識別可能とするタイムライン情報101を表示させる。これにより、操作者は、イベントの原因となりうる事象が発生した時刻を容易に特定することができる。
そして、操作者がタイムライン情報101における位置を指定すると、制御機能541は、図3の下段に示すように、指定された時刻に取得された画像のサムネイル102を表示させる。これにより、操作者は、異常が発生した際の処置状況を把握することができ、出血などのイベントの原因を迅速に特定することができる。
また、例えば、制御機能541は、被検体の医用画像において、異常を検出した時刻に対応する医用器具の位置を表示させる。すなわち、制御機能541は、異常情報に位置情報が含まれる場合に、異常情報に関連づけられた位置情報に基づいて、異常が検出された時刻に取得された位置情報を示す医用画像を表示させる。
図4は、第1の実施形態に係る制御機能541による表示制御の一例を示す図である。ここで、図4における左側の図は、タイムライン情報101が表示された内視鏡画像を示す。また、図4における右側の図は、位置情報が示された医用画像を示す。
例えば、制御機能541は、図4に示すように、内視鏡画像にタイムライン情報101を表示させるとともに、異常情報が生成された時刻における医用機器の位置情報を示した医用画像を表示させる。ここで、制御機能541は、位置センサ4における磁場発生部を原点とする空間の3次元座標と位置合せが実行された3次元の医用画像を用いて、位置情報を示した医用画像を表示させる。
例えば、制御機能541は、図4の右側に図に示すように、磁場発生部を原点とする空間の3次元座標と位置合せが実行された3次元の医用画像に基づく仮想化腹腔鏡画像や、CT画像を用いて位置情報を表示させる。一例を挙げると、制御機能541は、タイムライン情報101における位置1~6の時刻に対応する位置情報と、位置合わせの情報に基づいて、各位置情報に対応する3次元の医用画像における位置をそれぞれ特定する。
そして、制御機能541は、特定した各位置に識別情報を示した医用画像を表示させる。例えば、制御機能541は、図4に示すように、CT画像上の特定した位置に、タイムライン情報101における位置1~6に対応する数字を表示させる。ここで、制御機能541は、タイムライン情報101と同様に、検出されたリスクレベル及び検出手段を識別可能となるように、各数字を表示させることができる。例えば、制御機能541は、数字を囲む外枠の形状や、形状内部の色などにより、リスクレベル及び検出手段を識別可能に表示させる。
また、制御機能541は、異常が検出された医用情報が取得された時刻の医用機器の位置情報だけではなく、被検体の医用画像において、医用器具(内視鏡21の先端)の現在位置を表示させることもできる。すなわち、制御機能541は、位置センサ4から取得した医用器具の現在位置に対応する3次元の医用画像における位置を特定する。そして、制御機能541は、特定した位置に識別情報を示した医用画像を表示させる。例えば、制御機能541は、図4の右側の図に示すように、医用器具の現在位置104を表示させる。
また、さらに、制御機能541は、操作者の操作に応じて、図4に示すように、サムネイル103を表示させることができる。一例を挙げると、術中に操作者がタイムライン情報101の表示操作と、タイムライン情報101における位置6の指定操作とを実行すると、制御機能541は、図4に示すように、指定された位置6の情報を仮想化腹腔鏡画像に反映させ、位置6の時刻に対応する仮想化腹腔鏡画像のサムネイル103を数字に関連付けて表示させる。
例えば、術中に出血などのイベントが発生した場合に、制御機能541は、異常が検出された医用情報が取得された時点の医用器具の位置を示す画像を表示させる。これにより、操作者は、イベントの原因となりうる事象が発生した位置を容易に特定することができる。
そして、操作者がタイムライン情報101における位置を指定すると、制御機能541は、図3の下段に示すように、指定された時刻の画像のサムネイル103を表示させる。これにより、操作者は、異常が発生した際の処置状況を把握することができ、出血などのイベントの原因を迅速に特定することができる。
次に、図5を用いて、第1の実施形態に係る手術支援装置5の処理について説明する。図5は、第1の実施形態に係る手術支援装置5の処理の手順を説明するためのフローチャートである。なお、図5においては、異常情報として、時刻と医用情報と位置情報とを関連付ける場合の例を示す。
ここで、図5におけるステップS101~S102、S106~S109は、処理回路54が、記憶回路53から制御機能541に対応するプログラムを読み出して実行することで実現されるステップである。また、図5におけるステップS103は、処理回路54が、記憶回路53から解析機能542に対応するプログラムを読み出して実行することで実現されるステップである。また、図5におけるステップS104~S105は、処理回路54が、記憶回路53から生成機能543に対応するプログラムを読み出して実行することで実現されるステップである。
図5に示すように、手術支援装置5においては、まず、処理回路54が、手技が開始されたか否かを判定する(ステップS101)。例えば、処理回路54は、処理を開始するための操作を受け付けたか否かによって、手技の開始を判定する。ここで、手技が開始されると(ステップS101、肯定)、処理回路54は、医用情報を取得する(ステップS102)。なお、手技が開始されるまで手術支援装置5は待機状態である(ステップS101、否定)。
そして、処理回路54は、医用情報を解析して(ステップS103)、異常があるか否かを判定する(ステップS104)。ここで、異常がある場合には(ステップS104、肯定)、処理回路54は、異常を検出した医用情報、時刻、位置情報を対応付けた異常情報を生成して、記憶させる(ステップS105)。一方、ステップS104において異常が検出されない場合には(ステップS104、否定)、処理回路54は、ステップS106に進む。
そして、ステップS106では、処理回路54は、医用情報を表示させる。例えば、処理回路54は、内視鏡画像などを表示させる。ここで、異常情報が生成されている場合、処理回路54は、異常情報に基づくタイムライン情報などを含む内視鏡画像などを表示させる。そして、処理回路54は、指定操作を受け付けたか否かを判定する(ステップS107)。
ここで、指定操作を受け付けた場合(ステップS107、肯定)、処理回路54は、指定された医用情報の詳細情報(例えば、サムネイルなど)を表示させて(ステップS108)、手技が終了したか否かを判定する(ステップS109)。一方、指定操作を受け付けていない場合(ステップS107、否定)、処理回路54は、手技が終了したか否かを判定する(ステップS109)。
ステップS109において、手技が終了していない場合には(ステップS109、否定)、処理回路54は、ステップS102に戻って、医用情報の取得を継続する。一方、手技が終了した場合には(ステップS109、肯定)、処理回路54は、処理を終了する。
上述したように、第1の実施形態によれば、制御機能541は、術中の被検体の医用情報を取得する。解析機能542は、取得された被検体の医用情報に基づいて、異常を検出する。生成機能543は、異常を検出した時刻と、当該時刻に取得された医用情報とを関連付けた異常情報を生成する。したがって、第1の実施形態に係る手術支援装置5は、異常が発生した時刻に関する情報を提供することができ、術中に生じたイベントに関する情報の確認を容易にすることを可能にする。
例えば、内視鏡下手術において出血が生じた場合でも、異常が検出された時刻を提示することで、出血箇所の特定を迅速に行うことができ、その結果、開腹手術に切り替えることなく、内視鏡下手術を続行でき、術後の患者QOL(Quality of Life)向上に寄与することができる。
また、第1の実施形態によれば、制御機能541は、異常情報を時刻順に表したタイムライン情報を表示させる。したがって、第1の実施形態に係る手術支援装置5は、異常が検出された時刻について、観察しやすい情報を提供することを可能にする。
また、第1の実施形態によれば、制御機能541は、異常を検出した時刻に収集された術中の医用画像を、タイムライン情報における対応する時刻に関連付けて表示させる。したがって、第1の実施形態に係る手術支援装置5は、リアルタイムの画像ではなく、異常が検出された時刻の画像を提示することができ、例えば、出血箇所の特定をより迅速に行うことを可能にする。
また、第1の実施形態によれば、制御機能541は、術中に用いられる医用器具の位置を表す位置情報をさらに取得する。生成機能543は、異常を検出した時刻と、当該時刻に取得された医用情報と、当該時刻に取得された位置情報とを関連付けた異常情報を生成する。したがって、第1の実施形態に係る手術支援装置5は、さらに位置情報を提示することができ、出血箇所の特定などをより迅速に行うことを可能にする。
また、第1の実施形態によれば、制御機能541は、術中に被検体内で操作される医用器具の位置を表す位置情報を取得する。したがって、第1の実施形態に係る手術支援装置5は、被検体内の医用器具の位置情報を取得することを可能にする。
また、第1の実施形態によれば、制御機能541は、被検体の医用画像をさらに取得する。制御機能541は、被検体の医用画像において、異常を検出した時刻に対応する医用器具の位置を表示させる。したがって、第1の実施形態に係る手術支援装置5は、より観察しやすい位置情報の表示を行うことを可能にする。
また、第1の実施形態によれば、制御機能541は、被検体の医用画像において、医用器具の現在位置を表示させる。したがって、第1の実施形態に係る手術支援装置5は、医用器具の現在位置と、異常が検出された医用情報が取得された時刻における位置との位置関係を容易に把握することを可能にする。
また、第1の実施形態によれば、制御機能541は、検出された異常の度合い及び検出手段のうち少なくとも1つについて、識別可能な情報を表示させる。したがって、第1の実施形態に係る手術支援装置5は、異常の程度や検出手段を一目で把握することを可能にする。
(他の実施形態)
さて、これまで第1の実施形態について説明したが、上述した第1の実施形態以外にも、種々の異なる形態にて実施されてよいものである。
上述した実施形態では、手術支援システム10が手術支援装置5を含み、手術支援装置5が各種処理を実行する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、本願にかかる手術支援方法の各種処理は、手術支援システム10におけるいずれの装置で単独で実行される場合でもよく、手術支援システム10における複数の装置で分散して実行される場合でもよい。
例えば、各医用情報を対象とした解析処理は、各医用情報を取得した装置によって実行される場合でもよい。例えば、内視鏡システム2が、上述した内視鏡画像を対象とした解析を行う場合でもよい。かかる場合には、処理回路23が、上記した解析機能542を実行することで、内視鏡画像に基づく異常の検出を行う。また、超音波診断装置が超音波画像に基づく異常の検出を行い、心電計などの装置がバイタル情報に基づく異常の検出を行う場合でもよい。
また、異常情報の生成処理及び異常情報に関する各種表示処理が、仮想化腹腔鏡画像システム3において実行される場合でもよい。
また、上述した実施形態では、本願に係る手術支援方法を腹腔鏡手術に適用する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、本願に係る手術支援方法は、その他種々の手術に適用される場合でもよい。
なお、上述した実施形態では、本明細書における取得部、検出部、生成部及び表示制御部を、それぞれ、処理回路の制御機能、解析機能、生成機能及び制御機能によって実現する場合の例を説明したが、実施形態はこれに限られない。例えば、本明細書における取得部、検出部、生成部及び表示制御部は、実施形態で述べた制御機能、解析機能、生成機能及び制御機能によって実現する他にも、ハードウェアのみ、ソフトウェアのみ、又は、ハードウェアとソフトウェアとの混合によって同機能を実現するものであっても構わない。
また、上述した実施形態の説明で用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。ここで、記憶回路にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合には、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。また、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて一つのプロセッサとして構成され、その機能を実現するようにしてもよい。
ここで、プロセッサによって実行されるプログラムは、ROM(Read Only Memory)や記憶回路等に予め組み込まれて提供される。なお、このプログラムは、これらの装置にインストール可能な形式又は実行可能な形式のファイルでCD(Compact Disk)-ROM、FD(Flexible Disk)、CD-R(Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な非一過性の記憶媒体に記録されて提供されてもよい。また、このプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納され、ネットワーク経由でダウンロードされることによって提供又は配布されてもよい。例えば、このプログラムは、上述した各処理機能を含むモジュールで構成される。実際のハードウェアとしては、CPUが、ROM等の記憶媒体からプログラムを読み出して実行することにより、各モジュールが主記憶装置上にロードされて、主記憶装置上に生成される。
また、上述した実施形態及び変形例において、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散又は統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散又は統合して構成することができる。更に、各装置にて行なわれる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、或いは、ワイヤードロジックによるハードウェアとして実現され得る。
また、上述した実施形態及び変形例において説明した各処理のうち、自動的に行なわれるものとして説明した処理の全部又は一部を手動的に行なうこともでき、或いは、手動的に行なわれるものとして説明した処理の全部又は一部を公知の方法で自動的に行なうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
以上説明した少なくとも一つの実施形態によれば、術中に生じたイベントに関する情報の確認を容易にすることができる。
いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
2 内視鏡システム
3 仮想化腹腔鏡画像システム
4 位置センサ
5 手術支援装置
10 手術支援システム
23、32、54 処理回路
541 制御機能
542 解析機能
543 生成機能

Claims (9)

  1. 術中の被検体の医用情報を取得する取得部と、
    取得された前記被検体の医用情報に基づいて、異常を検出する検出部と、
    前記異常を検出した時刻と、当該時刻に取得された前記医用情報とを関連付けた異常情報を生成する生成部と、
    を備える、手術支援システム。
  2. 前記異常情報を時刻順に表したタイムライン情報を表示させる表示制御部をさらに備える、請求項1に記載の手術支援システム。
  3. 前記表示制御部は、前記異常を検出した時刻に収集された術中の医用画像を、前記タイムライン情報における対応する時刻に関連付けて表示させる、請求項2に記載の手術支援システム。
  4. 前記取得部は、術中に用いられる医用器具の位置を表す位置情報をさらに取得し、
    前記生成部は、前記異常を検出した時刻と、当該時刻に取得された前記医用情報と、当該時刻に取得された前記位置情報とを関連付けた異常情報を生成する、請求項1~3のいずれか1つに記載の手術支援システム。
  5. 前記取得部は、術中に前記被検体内で操作される医用器具の位置を表す位置情報を取得する、請求項4に記載の手術支援システム。
  6. 前記取得部は、前記被検体の医用画像をさらに取得し、
    前記被検体の医用画像において、前記異常を検出した時刻に対応する前記医用器具の位置を表示させる表示制御部をさらに備える、請求項4又は5に記載の手術支援システム。
  7. 前記表示制御部は、前記被検体の医用画像において、前記医用器具の現在位置を表示させる、請求項6に記載の手術支援システム。
  8. 前記表示制御部は、検出された異常の度合い及び検出手段のうち少なくとも1つについて、識別可能な情報を表示させる、請求項2、3、6、7のいずれか1つに記載の手術支援システム。
  9. 術中の被検体の医用情報を取得し、
    取得した前記被検体の医用情報に基づいて、異常を検出し、
    前記異常を検出した時刻と、当該時刻に取得された前記医用情報とを関連付けた異常情報を生成する、
    ことを含む、手術支援方法。
JP2020111615A 2020-06-29 2020-06-29 手術支援システム及び手術支援方法 Pending JP2022010852A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020111615A JP2022010852A (ja) 2020-06-29 2020-06-29 手術支援システム及び手術支援方法
CN202110724018.6A CN113925608A (zh) 2020-06-29 2021-06-29 手术辅助系统以及手术辅助方法
US17/304,969 US20210401511A1 (en) 2020-06-29 2021-06-29 Surgery support system and surgery support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020111615A JP2022010852A (ja) 2020-06-29 2020-06-29 手術支援システム及び手術支援方法

Publications (1)

Publication Number Publication Date
JP2022010852A true JP2022010852A (ja) 2022-01-17

Family

ID=79032803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020111615A Pending JP2022010852A (ja) 2020-06-29 2020-06-29 手術支援システム及び手術支援方法

Country Status (3)

Country Link
US (1) US20210401511A1 (ja)
JP (1) JP2022010852A (ja)
CN (1) CN113925608A (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007029232A (ja) * 2005-07-25 2007-02-08 Hitachi Medical Corp 内視鏡手術操作支援システム
JP2011036371A (ja) * 2009-08-10 2011-02-24 Tohoku Otas Kk 医療画像記録装置
JPWO2011142189A1 (ja) * 2010-05-10 2013-07-22 オリンパスメディカルシステムズ株式会社 医療装置
WO2015020093A1 (ja) * 2013-08-08 2015-02-12 オリンパスメディカルシステムズ株式会社 手術画像観察装置
US20190206562A1 (en) * 2017-12-28 2019-07-04 Ethicon Llc Method of hub communication, processing, display, and cloud analytics
WO2020070510A1 (en) * 2018-10-03 2020-04-09 Cmr Surgical Limited Automatic endoscope video augmentation

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018235533A1 (en) * 2017-06-21 2018-12-27 Sony Corporation SYSTEM, METHOD, AND COMPUTER PROGRAM PRODUCT FOR MEDICAL IMAGING

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007029232A (ja) * 2005-07-25 2007-02-08 Hitachi Medical Corp 内視鏡手術操作支援システム
JP2011036371A (ja) * 2009-08-10 2011-02-24 Tohoku Otas Kk 医療画像記録装置
JPWO2011142189A1 (ja) * 2010-05-10 2013-07-22 オリンパスメディカルシステムズ株式会社 医療装置
WO2015020093A1 (ja) * 2013-08-08 2015-02-12 オリンパスメディカルシステムズ株式会社 手術画像観察装置
US20190206562A1 (en) * 2017-12-28 2019-07-04 Ethicon Llc Method of hub communication, processing, display, and cloud analytics
WO2020070510A1 (en) * 2018-10-03 2020-04-09 Cmr Surgical Limited Automatic endoscope video augmentation

Also Published As

Publication number Publication date
CN113925608A (zh) 2022-01-14
US20210401511A1 (en) 2021-12-30

Similar Documents

Publication Publication Date Title
EP3845193B1 (en) System for determining, adjusting, and managing resection margin about a subject tissue
JP6355875B2 (ja) 内視鏡システム
US10966590B2 (en) Surgical system, information processing device, and method
JP7166809B2 (ja) リアルタイム3次元(3d)心臓撮像におけるガラス状態ビューのためのシステム及び方法
JP5486432B2 (ja) 画像処理装置、その作動方法およびプログラム
US20180160910A1 (en) Medical support device, method thereof, and medical support system
JP2019093144A (ja) 対話型イベントタイムラインのためのシステム及び方法
JP5504028B2 (ja) 観察支援システムおよび方法並びにプログラム
JP2006198032A (ja) 手術支援システム
EP3733047A1 (en) Surgical system, image processing device, and image processing method
JP2007014483A (ja) 医用診断装置及び診断支援装置
WO2020036091A1 (ja) 情報処理装置および情報処理方法
JP2022071617A (ja) 内視鏡システム及び内視鏡装置
JP6687393B2 (ja) 医用画像診断装置
WO2015091226A1 (en) Laparoscopic view extended with x-ray vision
US11954897B2 (en) Medical image processing system, recognition processing processor device, and operation method of medical image processing system
JP2022010852A (ja) 手術支援システム及び手術支援方法
US11910995B2 (en) Instrument navigation in endoscopic surgery during obscured vision
JP2021194268A (ja) 血管観察システムおよび血管観察方法
CN111354453A (zh) 医疗成像系统
JP7495242B2 (ja) 医用画像診断装置、手術支援ロボット装置、手術支援ロボット用制御装置及び制御プログラム
JP7220542B2 (ja) 医用画像処理装置、医用画像処理方法及び医用画像処理プログラム
WO2021156926A1 (ja) 内視鏡制御装置、内視鏡制御方法および内視鏡制御プログラム
JP7257544B2 (ja) 情報表示システムおよび情報表示方法
US20240127450A1 (en) Medical image processing apparatus and non-transitory computer readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402