JP2020046893A - 手術支援システム及び仮想手術支援システム - Google Patents

手術支援システム及び仮想手術支援システム Download PDF

Info

Publication number
JP2020046893A
JP2020046893A JP2018174380A JP2018174380A JP2020046893A JP 2020046893 A JP2020046893 A JP 2020046893A JP 2018174380 A JP2018174380 A JP 2018174380A JP 2018174380 A JP2018174380 A JP 2018174380A JP 2020046893 A JP2020046893 A JP 2020046893A
Authority
JP
Japan
Prior art keywords
support system
information
surgery support
surgery
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018174380A
Other languages
English (en)
Inventor
尚紀 北村
Hisanori Kitamura
尚紀 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2018174380A priority Critical patent/JP2020046893A/ja
Publication of JP2020046893A publication Critical patent/JP2020046893A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)

Abstract

【課題】 そこで、本発明は、人為的ミスを低減しつつ、手術技能の標準化や効果的な教育を行うことを可能にする手術支援システムを提供すること。【解決手段】本発明による手術支援システムは、手術対象に対し手術を行うオペレータの手術情報を取得する手段と、手術に関する情報を学習した学習済情報を有し手術情報と学習済情報とに基づいてオペレータによる手術を支援する手術支援手段と、を備ている。詳しくは、システムは、手術対象に対し手術を行う作業ユニット;作業ユニットに対するオペレータからの操作を受け付ける操作ユニット;並びに作業ユニット及び操作ユニットを制御する制御ユニット;を有する手術装置と、学習済情報を備え、手術装置と通信可能に構成された手術支援装置であって、手術情報と学習済情報とに基づいて少なくとも手術装置による手術を支援する手術支援装置と、を備えている。【選択図】図1

Description

本発明は、手術支援システム及び仮想手術システムに関し、特に作業ユニットを利用して行われる手術の支援を行う技術に関する。
近年、身体への外傷が少なく、回復が早く、入院期間が短くなるなどの多くの利益を患者に提供する低侵襲遠隔手術システム(以下、「手術システム」と呼ぶ)が提案されている(例えば、特許文献1参照)。
また、このようなシステムにおいて、外科医にとって必要な情報をシステムのディスプレイ(ディスプレイ等に)に重畳して表示する技術も提案されている(特許文献2及び特許文献3)。
特表2013−531538号公報 特表2015−529489号公報 特開2017−104567号公報
ところで、このような手術システムは、システムを利用するために相当の訓練が必要であり、経験のある外科医であってもその熟練度のばらつきがある。また、経験数がない又は浅い外科医が当該システムの操作を訓練するための実践的な機会が少ないことも課題となっている。
即ち、図1に示されるように、経験のある外科医の場合、経験に基づいて手術をしていることもあり、作業の理屈を説明することができない一方、初心者は経験によってしかその技能を育成することができない。
また、初心者にとっては、技術の上達は経験を積み重ねていく必要があり、人によって技能のレベルがばらばらであり、かつ、手術においては絶対的な判断軸(統一的な判断軸)がない。これに対して、経験のある外科医の場合、そもそも効果的に教える方法がないことに加え、教える時間も少ない。
上述した特許文献1乃至特許文献3のいずれの文献においては、外科医に対する一定の支援策はあるものの、このような熟練度のバラツキや教育機会に対する課題等の根本的な部分の解決については何ら触れられていない。
そこで、本発明は、人為的ミスを低減しつつ、手術技能の標準化や効果的な教育を行うことを可能にする手術支援システムを提供することを目的とする。
図2に示されるように、本発明の上述した課題へのアプローチとしては、外科医の手術内容をノウハウとして蓄積し、初心者の外科医等に認識の補助や、計画のガイド、そして、最終的には操作の代行ということを視野に入れつつ解決するものである。
即ち、本発明によれば
手術対象に対し手術を行うオペレータの手術情報を取得する手段と、
手術に関する情報を学習した学習済情報を有し前記手術情報と前記学習済情報とに基づいて前記オペレータによる前記手術を支援する手術支援手段と、を備える
手術支援システムが得られる。
本発明によれば、人為的ミスを低減しつつ、手術技能の標準化や効果的な教育を行うことを可能にする手術支援システムを提供することができる。
本発明に関するシステムの背景と課題とを説明する表である。 本発明に関するシステムの課題に対するアプローチを説明する表である。 本発明に関するシステムの技術を概念的に示す図である。 本発明の実施の形態によるシステムの構成を示す図である。 本発明の第1の実施の形態によるシステムの機能ブロック図である。 本発明の第1の実施の形態によるシステムの学習済情報を利用した制御の一例を示す図である。 本発明の第1の実施の形態によるシステムの学習済情報を構築するための入力情報を示す図である。 本発明の第2の実施の形態によるシステムの機能ブロック図である。 本発明の第2の実施の形態によるシステムの学習済情報を利用した制御の一例を示す図である。 本発明の第2の実施の形態によるシステムの学習済情報を構築するための入力情報を示す図である。 本発明の第3の実施の形態によるシステムの機能ブロック図である。 本発明の第3の実施の形態によるシステムの学習済情報を利用した制御の一例を示す図である。 本発明の第3の実施の形態によるシステムの学習済情報を構築するための入力情報を示す図である。 本発明のシステムを利用したプラットフォームの概念図。
本発明の実施形態の内容を列記して説明する。本発明の実施の形態による手術支援システムは、以下のような構成を備える。
[項目1]
手術対象に対し手術を行うオペレータの手術情報を取得する手段と、
手術に関する情報を学習した学習済情報を有し前記手術情報と前記学習済情報とに基づいて前記オペレータによる前記手術を支援する手術支援手段と、を備える
手術支援システム。
[項目2]
項目1に記載の手術支援システムであって、
前記手術対象に対し前記手術を行う作業ユニット;前記作業ユニットに対する前記オペレータからの操作を受け付ける操作ユニット;並びに前記作業ユニット及び前記操作ユニットを制御する制御ユニット;を有する手術装置と、
前記学習済情報を備え、前記手術装置と通信可能に構成された手術支援装置であって、前記手術情報と前記学習済情報とに基づいて少なくとも前記手術装置による前記手術を支援する手術支援装置と、を備える
手術支援システム
[項目3]
項目2に記載の手術支援システムであって、
前記作業ユニットは、手術に利用するインスツルメント部と、少なくとも前記手術対象の状態又は前記インスツルメント部のいずれかの状態を把握するセンサ部と、を備えており、
前記操作ユニットは、前記オペレータの操作を受けるコントローラ部と、前記オペレータへ情報を表示するディスプレイ部とを備えている、
手術支援システム。
[項目4]
項目3に記載の手術支援システムであって、
前記手術支援装置は、前記操作ユニットに対して前記手術の支援のための情報を出力する、
手術支援システム。
[項目5]
項目3又は項目4に記載の手術支援システムであって、
前記手術支援装置は、前記ディスプレイ部に前記手術のためのガイド情報を表示する、
手術支援システム。
[項目6]
項目3乃至項目5のいずれかに記載の手術支援システムであって、
前記手術支援装置は、前記コントローラ部を制御する、
手術支援システム。
[項目7]
項目3乃至項目6のいずれかに記載の手術支援システムであって、
前記手術支援装置は、前記インスツルメント部を制御する、
手術支援システム。
[項目8]
項目3乃至項目7のいずれかに記載の手術支援システムであって、
前記センサ部はカメラ部を含み、
前記手術支援装置は、前記カメラ部を制御する、
手術支援システム。
[項目9]
項目3乃至項目8のいずれかに記載の手術支援システムであって、
前記学習済情報は、前記オペレータによる前記操作ユニットの操作に関する情報を元に学習されたものである
手術支援システム。
[項目10]
項目9に記載の手術支援システムであって、
前記学習済情報は、前記オペレータによる前記コントローラ部の操作に関する情報を元に学習されたものである
手術支援システム。
[項目11]
項目3乃至項目10のいずれかに記載の手術支援システムであって、
前記学習済情報は、前記オペレータによって前記ディスプレイ部に表示させていた表示内容に関する情報を元に学習されたものである
手術支援システム。
[項目12]
項目3乃至項目11のいずれかに記載の手術支援システムであって、
前記操作ユニットは、前記オペレータの視線を取得する手段を有しており、
前記学習済情報は、前記視線に関する情報を元に学習されたものである
手術支援システム。
[項目13]
項目3乃至項目12のいずれかに記載の手術支援システムであって、
前記学習済情報は、前記インスツルメント部に対する作用に関する情報を元に学習されたものである
手術支援システム。
[項目14]
項目3乃至項目13のいずれかに記載の手術支援システムであって、
前記学習済情報は、前記手術装置から得られたデータにラベル付けした情報を元に学習されたものである
手術支援システム。
[項目15]
項目3乃至項目14のいずれかに記載の手術支援システムであって、
前記学習済情報は、前記センサ部によって取得された情報を元に学習されたものである
手術支援システム。
[項目16]
項目3乃至項目15のいずれかに記載の手術支援システムであって、
前記学習済情報は、前記手術対象の属性情報を元に学習されたものである
手術支援システム。
[項目17]
項目3乃至項目16のいずれかに記載の手術支援システムであって、
前記学習済情報は、前記手術対象のバイタル情報を元に学習されたものである
手術支援システム。
[項目18]
項目1に記載の手術支援システムであって、
前記手術対象に対し前記手術を行う作業部;及び前記作業部に対する前記オペレータからの操作を受け付ける操作部;を有する手術器と、
前記学習済情報;及び少なくとも前記オペレータに情報を提供するための表示部;を備え、前記手術情報と前記学習済情報とに基づいて少なくとも前記表示部に対して前記手術の支援に関する情報を提供する手術支援装置と、を備える
手術支援システム
[項目19]
項目18に記載の手術支援システムであって、
前記作業部は、手術に利用するインスツルメント部と、少なくとも前記手術対象の状態又は前記インスツルメント部のいずれかの状態を把握するセンサ部と、を備えており、
前記操作部は、前記オペレータの操作を受け付ける、
手術支援システム。
[項目20]
項目19に記載の手術支援システムであって、
前記手術支援装置は、前記操作部に対して前記手術の支援のための情報を出力する、
手術支援システム。
[項目21]
項目19又は項目20に記載の手術支援システムであって、
前記手術支援装置は、前記表示部に前記手術のためのガイド情報を表示する、
手術支援システム。
[項目22]
項目19乃至項目21のいずれかに記載の手術支援システムであって、
前記手術支援装置は、前記操作部を制御する、
手術支援システム。
[項目23]
項目19乃至項目22のいずれかに記載の手術支援システムであって、
前記手術支援装置は、前記インスツルメント部を制御する、
手術支援システム。
[項目24]
項目19乃至項目23のいずれかに記載の手術支援システムであって、
前記センサ部はカメラ部を含み
前記手術支援装置は、前記カメラ部を制御する、
手術支援システム。
[項目25]
項目19乃至項目24のいずれかに記載の手術支援システムであって、
前記学習済情報は、前記オペレータによる前記操作部の操作に関する情報を元に学習されたものである
手術支援システム。
[項目26]
項目19乃至項目25のいずれかに記載の手術支援システムであって、
前記オペレータの視線を取得する手段を更に有しており、
前記学習済情報は、前記視線に関する情報を元に学習されたものである
手術支援システム。
[項目27]
項目19乃至項目26のいずれかに記載の手術支援システムであって、
前記学習済情報は、前記インスツルメント部に対する作用に関する情報を元に学習されたものである
手術支援システム。
[項目28]
項目19乃至項目27のいずれかに記載の手術支援システムであって、
前記学習済情報は、前記手術器から得られたデータにラベル付けした情報を元に学習されたものである
手術支援システム。
[項目29]
項目19乃至項目28のいずれかに記載の手術支援システムであって、
前記学習済情報は、前記センサ部によって取得された情報を元に学習されたものである
手術支援システム。
[項目30]
項目19乃至項目29のいずれかに記載の手術支援システムであって、
前記学習済情報は、前記手術対象の属性情報を元に学習されたものである
手術支援システム。
[項目31]
項目19乃至項目30のいずれかに記載の手術支援システムであって、
前記学習済情報は、前記手術対象のバイタル情報を元に学習されたものである
手術支援システム。
[項目32]
項目1に記載の手術支援システムであって、
仮想空間内に存在する仮想手術対象への仮想手術の支援を行うためのものであり、
当該仮想手術対象に対して仮想手術を行うための仮想作業ユニット、前記仮想作業ユニットに対するオペレータからの操作を受け付ける操作ユニット、並びに前記仮想作業ユニット及び前記操作ユニットを制御する制御ユニットを有する仮想手術装置と、
前記学習済情報を備え、前記仮想手術装置と通信可能に構成された仮想手術支援装置とであって、前記手術情報と前記学習済情報とに基づいて少なくとも前記仮想手術装置による前記仮想手術を支援する仮想手術支援装置と、を備える
仮想手術支援システム。
[項目33]
項目32に記載の仮想手術支援システムであって、
前記仮想作業ユニットは、前記仮想空間内において、前記仮想手術に利用するインスツルメント部と、少なくとも前記仮想手術対象の状態又は前記インスツルメント部のいずれかの状態を把握するセンサ部と、を備えており、
前記操作ユニットは、前記オペレータの操作を受けるコントローラ部と、前記オペレータへ情報を表示するディスプレイ部とを備えている、
仮想手術支援システム。
[項目34]
項目33に記載の仮想手術支援システムであって、
前記仮想手術支援装置は、前記操作ユニットに対して前記仮想手術の支援のための情報を出力する、
仮想手術支援システム。
[項目35]
項目33又は項目34に記載の仮想手術支援システムであって、
前記仮想手術支援装置は、前記ディスプレイ部に前記仮想手術のためのガイド情報を表示する、
仮想手術支援システム。
[項目36]
項目33乃至項目35のいずれかに記載の仮想手術支援システムであって、
前記仮想手術支援装置は、前記コントローラ部を制御する、
仮想手術支援システム。
[項目37]
項目33乃至項目36のいずれかに記載の仮想手術支援システムであって、
前記仮想手術支援装置は、前記インスツルメント部を制御する、
仮想手術支援システム。
[項目38]
項目33乃至項目37のいずれかに記載の仮想手術支援システムであって、
前記センサ部はカメラ部を含み、
前記仮想手術支援装置は、前記カメラ部を制御する、
仮想手術支援システム。
[項目39]
項目33乃至項目38のいずれかに記載の仮想手術支援システムであって、
前記学習済情報は、前記オペレータによる前記操作ユニットの操作に関する情報を元に学習されたものである
仮想手術支援システム。
[項目40]
項目39に記載の仮想手術支援システムであって、
前記学習済情報は、前記オペレータによる前記コントローラ部の操作に関する情報を元に学習されたものである
仮想手術支援システム。
[項目41]
項目33乃至項目40のいずれかに記載の仮想手術支援システムであって、
前記学習済情報は、前記オペレータによって前記ディスプレイ部に表示させていた表示内容に関する情報を元に学習されたものである
仮想手術支援システム。
[項目42]
項目33乃至項目41のいずれかに記載の仮想手術支援システムであって、
前記操作ユニットは、前記オペレータの視線を取得する手段を有しており、
前記学習済情報は、前記視線に関する情報を元に学習されたものである
仮想手術支援システム。
[項目43]
項目33乃至項目42のいずれかに記載の仮想手術支援システムであって、
前記学習済情報は、前記インスツルメント部に対する作用に関する情報を元に学習されたものである
仮想手術支援システム。
[項目44]
項目33乃至項目43のいずれかに記載の仮想手術支援システムであって、
前記学習済情報は、前記手術装置から得られたデータにラベル付けした情報を元に学習されたものである
仮想手術支援システム。
[項目45]
項目43乃至項目44のいずれかに記載の仮想手術支援システムであって、
前記学習済情報は、前記センサ部によって取得された情報を元に学習されたものである
仮想手術支援システム。
[項目46]
項目43乃至項目45のいずれかに記載の仮想手術支援システムであって、
前記学習済情報は、前記仮想手術対象の属性情報を元に学習されたものである
仮想手術支援システム。
[項目47]
項目43乃至項目46のいずれかに記載の仮想手術支援システムであって、
前記学習済情報は、前記手術対象の仮想バイタル情報を元に学習されたものである
仮想手術支援システム。
<発明の概略>
図3に示されるように、本発明の実施の形態による手術支援システムは、概略、過去に行われた複数の既手術情報を所謂AI(Aertificial Intelligence:人工知能)に学習させることにより(SQ1)、手術支援に資する学習済手術情報を取得する(SQ2)。学習の一例としては、過去に行われた手術に関する情報(画像、動画、テキスト、報告書、医師の動作・判断等、手術の実施に関連するあらゆるドキュメントを含む)を入力データとして、どのような状況・どのような条件・どのような場面においてどのような操作・動作・判断が行われたのかについて、学習器(推論部)の機械学習を行う。システムは、現在行われている(これから行われようとしている、もしくはこれまで行われてきた)新規手術情報を取得して入力値とし(SQ3)、当該学習済手術情報と比較等することにより、当該手術を支援するための最適な情報を出力する(SQ4)ものである。即ち、上記入力データと学習結果との組み合わせによって学習された学習器(推論部)を利用して、現在行われている手術(これから行われようとしている手術)に関する情報(画像、動画、テキスト、報告書、医師の動作・判断等、手術の実施に関連するあらゆるドキュメントを含む)が入力されると、ある状況・ある条件・ある場面においてどのような操作・動作・判断を行うべきなのか(行っていけないのか)に関する情報が出力される。これら学習結果は、手術支援装置で利用する学習済情報として作成される。
学習には、機械学習(Machine Learning)をはじめとする各種の学習方法(深層学習:Deep Learning、強化学習:Reinforcement learning)が採用可能である。
また、学習に際しては、手術者(以下「オペレータ」という)側に関する情報、手術対象者の情報、その他の要因等のあらゆる要素が対象となる。これらの学習に関して単独で又は組み合わせて適用可能な学習手法を例示すれば、線形回帰、ロジスティック回帰、サポートベクターマシーン(Sapport Vector Machine:SVM)、決定木、回帰木、ランダムフォレスト、勾配ブースティング木、パーセプトロン、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)、再起型ニューラルネットワーク(Recurrent Neural Network:RNN)、残差ネットワーク(ResNet)、単純ベイズ(ナイーブベイズ)、移動平均(Moving Average:MA)、自自己回帰(Autoregressive:AR)、自己回帰和分移動平均(Autoregressive, Integrated and Moving Average:ARIMA)、状態空間モデル、k近傍法(k−nearest neighbor:KNN)、ブースティング、バギング、階層型クラスタリング(ユークリッド距離・ウォード法など)、非階層型クラスタリング(k−meansなど)、トピックモデル(Latent Dirichlet Allocation:LDAなど)、自己組織化マップ(Self−Organizing Map:SOM)、アソシエーション分析、協調フィルタリング(アイテムベース、ユーザベースなど)などを目的・用途に応じて適宜採用可能である。
(第1の実施の形態)
<構成概要>
図4は、本実施の形態による手術支援システム(以下、単に「システム」と呼ぶ)1を構成する要素を示す概略図である。なお、図の構成は一例であり、これら以外の要素が含まれていてもよい。
システム1は、手術装置2と手術支援装置3とを備えている。手術装置2は、手術対象4に対してオペレータ5による手術を実施するための装置である。本実施の形態によるオペレータは手術の執刀医等であり、手術対象4は患者等である。
<手術装置>
手術装置2は、手術対象4に対し実際に手術を行う(即ち、手術対象4の身体に直接に作用する)作業ユニット20と、作業ユニット20に対するオペレータ5からの操作を受け付ける操作ユニット22と、作業ユニット20及び操作ユニット22を制御する制御ユニット24を有している。本実施の形態による手術装置2は、所謂腹腔鏡下で行うことができる手術、眼科手術、脳外科手術、脊髄手術、人口関節手術等のように、手術対象領域(閉じられた空間に限られない)に対して、当該領域に手術器具を貫通させるための小さな孔を作り、当該孔から手術器具を領域へと挿入することによって低侵襲で行う手術方法のための装置である。例示すれば、喉頭内視鏡、気管支鏡、消化管内視鏡、十二指腸内視鏡、小腸内視鏡、大腸内視鏡、胸腔鏡、腹腔鏡、膀胱鏡、胆道鏡、関節鏡、脊椎内視鏡、血管内視鏡、硬膜外腔内視鏡等が挙げられるがこれに限られない。
<作業ユニット>
図5に示されるように、作業ユニット20は、手術に利用するインスツルメント部200と、少なくとも手術対象4の手術野の状態又はインスツルメント部200の状態を把握するセンサ部202とを備えている。センサ部202には内視鏡カメラ部202’が含まれている。
インスツルメント部200は、操作可能な可動アームの先端に手術器具が取付られている。これらの器具は操作ユニット22によって受け付けた操作によって使用することができる。手術器具としては、ピンセット、剪刀、鉗子、持針器、メス(電気メス等)等やこれらと同等の機能を発揮するものが含まれるが、用途に応じてこれ以外の器具を使用されていてもよい。
センサ部202は、例えば、インスツルメント部200の状態を検知するための圧力センサ、ジャイロセンサ、加速度センサ、温度センサ、カメラ等、各種のセンサを採用可能である。カメラとしては、光学カメラ、赤外線カメラ、X線カメラ等取得したい情報に応じて適宜採用可能である。
<操作ユニット>
操作ユニット22は、オペレータ5の操作を受けるコントローラ部222と、オペレータ5へ情報を表示するディスプレイ部224と、オペレータ5へ音声等による情報を提供するスピーカ部226とを備えている。
コントローラ部222は、例えば、ジョイスティック状の入力機器やフットペダル等を組み合わせることができる。本実施の形態によるディスプレイ部224は、所謂VR(Vertual Reality)のHMD(Head Mount Display)状の構造を有しており、ユーザの両目による視差を利用して手術対象領域の立体視が可能である。なお、ディスプレイ部は、依正モニタや、AR(Augmented Reality)等、オペレータに対して作業ユニット20や手術対象者の情報等、手術の実施にあたって必要な情報を視覚的に提供することができるものであればよい。
<制御ユニット>
制御ユニット24は、作業ユニット20と操作ユニット22との情報通信を制御する。例えば、操作ユニット22が受け付けた操作を作業ユニット20に伝達したり、カメラ部202’で取得した画像情報をディスプレイ部224表示したりする。
<手術支援装置>
手術支援装置3は、学習済情報30(後述する)を備え、手術装置2と通信可能に構成されている。手術支援装置3は、オペレータ5による手術から得られる情報を手術情報として取得し、当該手術情報と学習済情報30とに基づいてオペレータ5の手術の様々な支援を行う。
より詳しくは、手術支援装置3は、概念的には、学習済情報30と、推論部302と、制御部304と、取得部306とを有している。
学習済み情報30は、前述した通り、過去の手術から得られた情報に基づいて、場面(条件)毎に推奨される操作、注意点、注視点、リスク判定、判断基準等に関する情報である。この情報があることによって、経験の浅いオペレータ5であっても、正確で効率的な手術を行うことができる。
推論部302は、取得部306によって取得した手術情報を学習済情報30に入力し、手術の支援に必要な情報を生成する。制御部304は、当該比較の結果に基づいて手術の支援に必要な情報を操作ユニット22又は作業ユニット20などに伝達する。
<制御>
図6を参照して、学習済情報30に基づいて、システム1によって支援(制御)される内容を例示する。図示されるように、ディスプレイ部224には、手術を安全に、円滑に、効率的に実施するためのガイド情報が表示される。例えば、手術対象4の情報や、現在の進行ステータスに関する情報、カメラ部202’に表示される画像に重畳して表示される情報等が例示できる。特に、本実施の形態においては、カメラ部202’によって取得された画像のうち、例えば、処理の対象となっている(処理してはいけない)領域や、注視すべき領域、動作の手本動画、正しい組織の認識などの情報を実際の画像に重ねて表示する。当該表示は、例えば、学習済情報に基づいて自動で認識される。
システム1は、コントローラ部222を制御する。コントローラ部222の制御としては、例えば、不適切な処理がされようとしている場合の操作の停止や、コントローラ部222の変位量とインスツルメント部200の変位量との比率(例えば、コントローラ部222を1cm変位させた際、インスツルメント部の変位量は1mmとする等)の自動変更や、緊急時のコントローラ部のロック等が例示できる。
システム1は、オペレータ5に対して音声、振動、光などといった方法で情報を伝達することもできる。例えば、不適切な処理を行おうとした場合のアラート音や、切除時のクリック感等が例示できる。
一方、システム1は、カメラ部202’の向きや映像モードを変更したり、他のセンサのオン/オフや感度等を変更する制御を行うことができる。
システム1は、インスツルメント部200の変位等を制御等することができる。
システム1は、必要に応じて、手術対象のさらなる情報の取得のための処置や、投薬などを行うことができる。
<学習済情報>
図7を参照して、本実施の形態による学習済情報の学習の基礎(教師データ、入力データ等)となり得る情報を説明する。
学習済情報30は、オペレータ5によってディスプレイ部224に表示させていた表示内容に関する情報を元に学習を行う。例えば、表示画面内に表示させていたバイタル情報や操作UI(User Interface)等が例示される。
学習済情報30は、オペレータ5による操作ユニット22の操作全般に関する情報を元に学習される。特に、学習済情報30は、オペレータ5によるコントローラ部222の操作に関する情報を元に学習される。コントローラ部222の操作は、例えば、いつコントローラ部222をどの程度操作したか等という情報である。
学習済情報30は、オペレータの視線や音声等に関する情報を元に学習されるものである。例えば、ディスプレイ部224の視野内でどの部分を見ているときにどのインスツルメント部を動かしていたのか、どの頻度でどの部分を注視しているか等である。
学習済情報30は、インスツルメント部に対する作用に関する情報を元に学習されたものである。例えば、インスタルメント部が外部から受けた圧力や衝撃などが例示できる。
学習済情報30は、手術装置から得られたデータにラベル付けした情報を元に学習されたものである。例えば、カメラ202’で得られた画像に事後的にラベリング(切除してよい領域と切除してはいけない領域等、血管の場所、等)を受け付け、当該ラベリングされた画像に基づいて学習を行い、類似の状況を検知するとオペレータ5に対して適切な情報を提供する。
学習済情報30は、センサ部によって取得された情報を元に学習されたものである。例えば、圧力センサ、ジャイロセンサ、加速度センサ、温度センサ、カメラ等、各種のセンサによって得られた情報である。また、カメラ部202’としては、光学カメラ、赤外線カメラ、X線カメラ等で取得された情報に基づいて学習されたものである。
学習済情報30は、手術対象の属性情報を元に学習されたものである。属性情報は、例えば、カルテ情報や、基礎的な生体データなどが例示できる。
学習済情報30は、手術対象のバイタル情報を元に学習されたものである。バイタル情報は、例えば、手術中に測定している血圧、心電図、筋電図などの情報である。
以上説明した本発明の第1の実施の形態によれば、所謂ベテランのオペレータ(手術装置による手術経験が豊富な医師等)が、どのような状況/条件のときに、どのような操作/動作をしたかというデータの蓄積に基づいて、経験の浅いオペレータに対して手術の支援に資する情報/誘導を提供することができる。
(第2の実施の形態)
続いて、図8を参照しながら、本発明の第2の実施の形態による手術支援システム(以下、単に「システム」と呼ぶ)1を説明する。本実施の形態によるシステム1は、上述した第1の実施の形態における手術装置(図5等参照)が手術器2に置き換わったものである。
<構成概要>
即ち、本実施の形態によるシステム1は、手術器2’と手術支援装置3とを備えている。手術器2’は、手術対象4に対してオペレータ5による手術を実施するための機器である。本実施の形態においても、オペレータは手術の執刀医等であり、手術対象4は患者等である。
<手術器>
手術器2’は、典型的には所謂腹腔鏡手術において使用する手術機器などである。詳しくは、手術対象4に対し実際に手術を行う(即ち、手術対象4の身体に直接に作用する)作業部20’と、作業部20’に対するオペレータ5からの操作を受け付ける操作部22’とを有している。本実施の形態による手術器2’もまた、所謂腹腔鏡下で行うことができる手術等のように、体表に開けた小さな孔から手術器具を体内(臓器内)に挿入することによって低侵襲で行う手術方法のための機器である。
<作業部>
図5に示されるように、作業部20’は、手術に利用するインスツルメント部200と、少なくとも手術対象4の手術野の状態又はインスツルメント部200の状態を把握するセンサ部202とを備えている。センサ部202には内視鏡カメラ部202’が含まれている。
インスツルメント部200は、アームの先端に手術器具が取付られている。これらの器具は操作部22’によって受け付けた操作によって使用することができる。手術器具としては、ピンセット、剪刀、鉗子、持針器、メス(電気メス等)等やこれらと同等の機能を発揮するものが含まれるが、用途に応じてこれ以外の器具を使用されていてもよい。
センサ部202は、例えば、インスツルメント部200の状態を検知するための圧力センサ、ジャイロセンサ、加速度センサ、温度センサ、カメラ等、各種のセンサを採用可能である。カメラとしては、光学カメラ、赤外線カメラ、X線カメラ等取得したい情報に応じて適宜採用可能である。
<手術支援装置>
手術支援装置3は、学習済情報30(後述する)を備え、手術器2’及びオペレータ5の状態/動作を把握可能に構成されている。手術支援装置3は、オペレータ5による手術から得られる情報を手術情報として取得し、当該手術情報と学習済情報30とに基づいてオペレータ5の手術の様々な支援を行う。
より詳しくは、手術支援装置3は、概念的には、学習済情報30と、推論部302と、制御部304と、取得部306と、スピーカ部320と、表示部310とを有している。
本実施の形態による取得部306は、例えば、オペレータ5の動作情報を取得する各種センサや手術器2’側に取り付け可能なセンサ類、カメラ部202’により取得された画像情報等が入力される。
学習済み情報30は、前述した通り、過去の手術から得られた情報に基づいて、場面(条件)毎に推奨される操作に関する情報である。この情報があることによって、経験の浅いオペレータ5であっても、正確で効率的な手術を行うことができる。
推論部302は、取得部306によって取得した手術情報と、学習済情報30とを比較する。制御部304は、当該比較の結果に基づいて手術の支援に必要な情報を表示部310やスピーカ部320に出力する。また、カメラ部202’で取得した画像情報や、その他のセンサ部202で取得した情報、さらには、手術対象4の情報は表示部310に表示される。オペレータ5は、表示部310を確認しながら手術を進める。
表示部310及びスピーカ部320は、制御部304の制御に従って、手術の支援に必要な情報をオペレータに伝達する。
<制御>
図9を参照して、学習済情報30に基づいて、システム1によって支援(制御)される内容を例示する。表示部310には、手術を安全に、円滑に、効率的に実施するためのガイド情報が表示される。例えば、手術対象4の情報や、現在の進行ステータスに関する情報、カメラ部202’に表示される画像に重畳して表示される情報等が例示できる。特に、本実施の形態においては、カメラ部202’によって取得された画像のうち、例えば、処理の対象となっている(処理してはいけない)領域や、注視すべき領域、動作の手本動画等を実際の画像に重ねて表示する。当該表示は、例えば、学習済情報に基づいて自動で認識される。
システム1は、スピーカ部320を介してオペレータ5に対して音による情報提供も行うことができる。例えば、不適切な処理がされようとしている場合や、緊急時において、スピーカ部から所定の音を流すことにより情報を伝達する。また、作業部20’の体内における位置(例えば、表層からの深さ等)や、組織にかかっている負荷の量を音の高低によって知らせることとしてもよい。
システム1は、オペレータ5に対して音声、振動、光などといった方法で情報を伝達することもできる。例えば、不適切な処理を行おうとした場合のアラート音や、切除時のクリック感等が例示できる。
システム1は、表示部310を介して、カメラ部202’の向きや映像モードを変更したり、他のセンサのオン/オフや感度等を変更する制御を行うように促したり、インスツルメント部200の変位を促したりすることができる。なお、手術支援装置3がカメラ部202’やインスツルメント部200の制御を行える構成にしてもよい。また、手術対象のさらなる情報の取得のための処置や、投薬などを行うことができる。
<学習済情報>
図10を参照して、本実施の形態による学習済情報の学習の基礎(教師データ、入力データ等)となり得る情報を説明する。なお、以下における説明は、手術器2’を利用した過去の手術情報の蓄積のみならず、上述した第1の実施の形態による手術装置を利用した過去の手術情報をも学習の基礎にすることができる。以下においては、第1の実施の形態と異なる点のみを説明する。
学習済情報30は、オペレータ5による操作部22’の操作全般に関する情報を元に学習される。操作部22’の操作は、例えば、いつ操作部22’をどの程度操作したか等という情報である。
学習済情報30は、オペレータ5の視線や音声等に関する情報を元に学習されるものである。例えば、表示部310のどの部分を見ているときにどのインスツルメント部200を動かしていたのか、どの頻度でどの部分を注視しているか等である。
学習済情報30は、インスツルメント部200に対する作用に関する情報を元に学習されたものである。例えば、インスタルメント部200が外部から受けた圧力や衝撃などが例示できる。
第1の実施の形態と同様に、学習済情報30は、手術装置(図5等参照)から得られたデータにラベル付けした情報を元に学習され、当該ラベリングされた画像を表示部310に提供する。
学習済情報30は、センサ部202によって取得された情報を元に学習されたものである。例えば、圧力センサ、ジャイロセンサ、加速度センサ、温度センサ、カメラ等、各種のセンサによって得られた情報である。また、カメラ部202’としては、光学カメラ、赤外線カメラ、X線カメラ等で取得された情報に基づいて学習されたものである。
学習済情報30は、手術対象の属性情報を元に学習されたものである。属性情報は、例えば、カルテ情報や、基礎的な生体データなどが例示できる。
学習済情報30は、手術対象のバイタル情報を元に学習されたものである。バイタル情報は、例えば、手術中に測定している血圧、心電図、筋電図などの情報である。
以上説明した本発明の第2の実施の形態によれば、手術器2’を利用した手術においても、所謂ベテランのオペレータ(手術装置による手術経験が豊富な医師等)が、どのような状況/条件のときに、どのような操作/動作をしたかというデータの蓄積に基づいて、経験の浅いオペレータに対して手術の支援に資する情報/誘導を提供することができる。
(第3の実施の形態)
続いて、図11を参照しながら、本発明の第3の実施の形態による手術支援システム(以下、単に「システム」と呼ぶ)1を説明する。本実施の形態によるシステム1は、上述した第1の実施の形態における手術装置(図5等参照)のうちの作業ユニットが仮想空間内にシミュレートされたものである。
<構成概要>
即ち、本実施の形態によるシステム1は、仮想空間(VR空間)内に存在する仮想手術対象への仮想手術の支援を行うためのものである。システム1は、仮想手術装置2’と仮想手術支援装置3’を備えている。本実施の形態によるオペレータ5は手術のシミュレーションを行う者等であり、仮想手術対象4’は仮想上の患者等である。
<手術装置>
仮想手術装置2’は、仮想手術対象4’に対し仮想空間内において仮想的に手術を行う(即ち、仮想手術対象4’の身体に仮想的に作用する)仮想作業ユニット20’’と、仮想作業ユニット20’’に対するオペレータ5からの操作を受け付ける操作ユニット22と、仮想作業ユニット20’’及び操作ユニット22を制御する制御ユニット24を有している。
以下、手術に関しては全て仮想上の例として説明する。
本実施の形態による仮想手術装置2’は、所謂腹腔鏡下で行うことができる手術、眼科手術、脳外科手術、脊髄手術等、体表に開けた小さな孔から手術器具を体内(臓器内)に挿入することによって低侵襲で行う手術方法のための装置である。例示すれば、喉頭内視鏡、気管支鏡、消化管内視鏡、十二指腸内視鏡、小腸内視鏡、大腸内視鏡、胸腔鏡、腹腔鏡、膀胱鏡、胆道鏡、関節鏡、脊椎内視鏡、血管内視鏡、硬膜外腔内視鏡等が挙げられるがこれに限られない。
<仮想作業ユニット>
図11に示されるように、仮想作業ユニット20’’は、手術に利用するインスツルメント部220と、少なくとも手術対象4の手術野の状態又はインスツルメント部220の状態を把握するセンサ部212とを備えている。センサ部212には内視鏡カメラ部212’が含まれている。
インスツルメント部220は、操作可能な可動アームの先端に手術器具が取付られている。これらの器具は操作ユニット22によって受け付けた操作によって使用することができる。手術器具としては、ピンセット、剪刀、鉗子、持針器、メス(電気メス等)等やこれらと同等の機能を発揮するものが含まれるが、用途に応じてこれ以外の器具を使用されていてもよい。
センサ部212は、例えば、インスツルメント部220の状態を検知するための圧力センサ、ジャイロセンサ、加速度センサ、温度センサ、カメラ等、各種のセンサを採用可能である。カメラとしては、光学カメラ、赤外線カメラ、X線カメラ等取得したい情報に応じて適宜採用可能である。
<操作ユニット>
操作ユニット22は、オペレータ5の操作を受けるコントローラ部222と、オペレータ5へ情報を表示するディスプレイ部224と、オペレータ5へ音声等による情報を提供するスピーカ部226とを備えている。
コントローラ部222は、例えば、ジョイスティック状の入力機器やフットペダル等を組み合わせることができる。本実施の形態によるディスプレイ部224は、所謂VR(Vertual Reality)のHMD(Head Mount Display)状の構造を有しており、ユーザの両目による視差を利用して手術対象領域の立体視が可能である。なお、ディスプレイ部は、依正モニタや、AR(Augmented Reality)等、オペレータに対して仮想作業ユニット20’’や手術対象者の情報等、手術の実施にあたって必要な情報を視覚的に提供することができるものであればよい。
<制御ユニット>
制御ユニット24は、仮想作業ユニット20’’と操作ユニット22との情報通信を制御する。例えば、操作ユニット22が受け付けた操作を仮想作業ユニット20’’に伝達したり、カメラ部212’で取得した画像情報をディスプレイ部224表示したりする。
<仮想手術支援装置>
仮想手術支援装置3は、学習済情報30(後述する)を備え、仮想手術装置2’と通信可能に構成されている。仮想手術支援装置3は、オペレータ5による手術から得られる情報を手術情報として取得し、当該手術情報と学習済情報30とに基づいてオペレータ5の手術の様々な支援を行う。
より詳しくは、仮想手術支援装置3は、概念的には、学習済情報30と、推論部302と、制御部304と、取得部306とを有している。
学習済み情報30は、前述した通り、過去の手術から得られた情報に基づいて、場面(条件)毎に推奨される操作に関する情報である。この情報があることによって、経験の浅いオペレータ5であっても、正確で効率的な手術を行うことができる。
推論部302は、取得部306によって取得した手術情報と、学習済情報30とを比較する。制御部304は、当該比較の結果に基づいて手術の支援に必要な情報を操作ユニット22又は仮想作業ユニット20’’などに伝達する。
<制御>
図13を参照して、学習済情報30に基づいて、システム1によって支援(制御)される内容を例示する。図示されるように、ディスプレイ部224には、手術を安全に、円滑に、効率的に実施するためのガイド情報が表示される。例えば、仮想手術対象4’の情報や、現在の進行ステータスに関する情報、カメラ部212’に表示される画像に重畳して表示される情報等が例示できる。特に、本実施の形態においては、カメラ部212’によって取得された画像のうち、例えば、処理の対象となっている(処理してはいけない)領域や、注視すべき領域、動作の手本動画等を実際の画像に重ねて表示する。当該表示は、例えば、学習済情報に基づいて自動で認識される。
システム1は、コントローラ部222を制御する。コントローラ部222の制御としては、例えば、不適切な処理がされようとしている場合の操作の停止や、コントローラ部222の変位量とインスツルメント部220の変位量との比率(例えば、コントローラ部222を1cm変位させた際、インスツルメント部の変位量は1mmとする等)の自動変更や、緊急時のコントローラ部のロック等が例示できる。
システム1は、オペレータ5に対して音声、振動、光などといった方法で情報を伝達することもできる。例えば、不適切な処理を行おうとした場合のアラート音や、切除時のクリック感等が例示できる。
一方、システム1は、カメラ部212’の向きや映像モードを変更したり、他のセンサのオン/オフや感度等を変更する制御を行うことができる。
システム1は、インスツルメント部220の変位等を制御等することができる。
システム1は、必要に応じて、仮想手術対象4’のさらなる情報の取得のための処置や、投薬などを行うことができる。
<学習済情報>
図13を参照して、本実施の形態による学習済情報の学習の基礎(教師データ、入力データ等)となり得る情報を説明する。
学習済情報30は、オペレータ5によってディスプレイ部224に表示させていた表示内容に関する情報を元に学習を行う。例えば、表示画面内に表示させていたバイタル情報や操作UI(User Interface)等が例示される。
学習済情報30は、オペレータ5による操作ユニット22の操作全般に関する情報を元に学習される。特に、学習済情報30は、オペレータ5によるコントローラ部222の操作に関する情報を元に学習される。コントローラ部222の操作は、例えば、いつコントローラ部222をどの程度操作したか等という情報である。
学習済情報30は、オペレータの視線や音声等に関する情報を元に学習されるものである。例えば、ディスプレイ部224の視野内でどの部分を見ているときにどのインスツルメント部を動かしていたのか、どの頻度でどの部分を注視しているか等である。
学習済情報30は、インスツルメント部に対する作用に関する情報を元に学習されたものである。例えば、インスタルメント部が外部から受けた圧力や衝撃などが例示できる。
学習済情報30は、手術装置から得られたデータにラベル付けした情報を元に学習されたものである。例えば、カメラ202’で得られた画像に事後的にラベリング(切除してよい領域と切除してはいけない領域等、血管の場所、等)を受け付け、当該ラベリングされた画像に基づいて学習を行い、類似の状況を検知するとオペレータ5に対して適切な情報を提供する。
学習済情報30は、センサ部によって取得された情報を元に学習されたものである。例えば、圧力センサ、ジャイロセンサ、加速度センサ、温度センサ、カメラ等、各種のセンサによって得られた情報である。また、カメラ部212’としては、光学カメラ、赤外線カメラ、X線カメラ等で取得された情報に基づいて学習されたものである。
学習済情報30は、仮想手術対象4’の属性情報を元に学習されたものである。属性情報は、例えば、カルテ情報や、基礎的な生体データなどが例示できる。
学習済情報30は、手術対象のバイタル情報を元に学習されたものである。バイタル情報は、例えば、手術中に測定している血圧、心電図、筋電図などの情報である。
以上説明した本発明の第3の実施の形態によれば、所謂ベテランのオペレータ(手術装置による手術経験が豊富な医師等)が、どのような状況/条件のときに、どのような操作/動作をしたかというデータの蓄積に基づいて、経験の浅いオペレータに対して、仮想空間内における手術の支援に資する情報/誘導を提供することができる。かかる構成によれば、経験の浅い者はいつでも、自己の技術を磨くことができる。
<実施方法>
本発明のシステムの実施方法としては、例えば、以下のようなフェーズを経るというロードマップを考えることができる。また、これに伴い、例えば、フェイルセーフ(個々の構成要素に故障やバグがあっても必ず安全側に落ち着くようにする設計)、フォールトトレランス(個々の構成要素に故障やバグがあっても別の手段によって機能を維持しようとする機能)、エラープルーフの要素(間違った操作をしようとしても危険が発生しないようにする設計)を考慮してもよい。
[フェーズ1]
所謂ベテランのオペレータが実際に行った手術の全ての動作/行動履歴を記録(動画等)し、後日、経験の浅いオペレータに当該記録を提供する
[フェーズ2]
例えば、手術装置を複数台用意し、1台目は所謂ベテランのオペレータが操作し、2台目以降の手術装置を利用して経験の浅いオペレータがリアルタイムでその内容を勉強させることとしてもよい。この際、ディスプレイ部にはカメラ部によって取得された画像に重畳された認識結果(臓器の特定、各組織の特定等)やガイド情報等を表示することとすればよい。
[フェーズ3]
経験の浅い者が、学習済情報に基づいて、各組織の認識結果の表示補助を受けながら手術を行う。
[フェーズ4]
学習済み情報に基づいて、オペレータに指示等を出し、オペレータは当該指示に従って、手術を実行する
[フェーズ5]
手術支援装置がオペレータの代わりに手術を行う。即ち、完全自動手術を行う。
<技能測定>
本発明による手術支援システムを利用して、経験の浅いオペレータの技能の測定を行うこととしてもよい。特に上述した第3の実施の形態によるシステムを利用すれば、学習済情報に基づいて、当該オペレータの技能とベテランのオペレータの技能との乖離度を測定することとしてもよい。
<データプラットフォーム>
図14に示されるように、本システムは、学習済情報の学習の基礎となり得る手術が行われる多数の作業ユニット20から学習された学習済み情報を手術支援装置に集積し、モデル動作のデータを提供するデータプラットフォームとすることができる。これにより、様々な症例、様々なオペレータの手術技能を集積・分析することが可能となり、手術技能の標準化に資することとなる。
学習済情報は、手術の際に利用することとしてもよいし、教育用のシミュレーションに利用することとしてもよい。
また、上述した学習済情報は、手術装置が存在する前提のものであったが、このような手術装置を使用しない通常の手術にも本発明は適用可能である。例えば、ベテランの外科医等の手術の様子をカメラ等のセンサでモニタリングし、学習済情報として蓄積し、このモデル動作を他の外科医の手術の際にディスプレイ等に表示することとしてもよい。この際、ディスプレイには、当該他の外科医の手術の様子をカメラ等で映し出しておき、その映像にモデル動作を重畳して表示することとすれば、より好ましい
手術における手術装置の数は1台に限られず、複数台あってもよい。この場合、操作ユニットと作業ユニットの動きは夫々同期していてもよいし、別個独立に機能(1台目の手術装置と2台目の手術装置との動きは連動していないように)することとしてもよい。
また、本システムの手術対象は人体だけに限らず、動物、練習対象としての物体、植物等であってもよい。
(産業上の実施可能性)
本発明は、手術の他に、農作業、製造業、インフラ修復、バイオテクノロジー分野等の実験・研究、ゲームやeスポーツの技能、伝統工芸といった、モデル動作を学習可能な技術分野に応用可能である。
1 手術支援システム
2 手術装置
2’ 手術器
2’’ 仮想手術装置
3 手術支援装置
3 仮想手術支援装置
4 手術対象
4’ 仮想手術対象
5 オペレータ
20 作業ユニット
20’ 作業部
20’’ 仮想作業ユニット
200、220 インスツルメント部
202、212 センサ部
202’、212’ カメラ部
22 操作ユニット
22’ 操作部
222 コントローラ部
224 ディスプレイ部
226 スピーカ部
24 制御ユニット
30 学習済情報
302 推論部
304 制御部
306 取得部
310 表示部
320 スピーカ部
40 対象属性情報
402 カルテデータベース
404 バイタルセンサ


・クレーム構成

Claims (47)

  1. 手術対象に対し手術を行うオペレータの手術情報を取得する手段と、
    手術に関する情報を学習した学習済情報を有し前記手術情報と前記学習済情報とに基づいて前記オペレータによる前記手術を支援する手術支援手段と、を備える
    手術支援システム。
  2. 請求項1に記載の手術支援システムであって、
    前記手術対象に対し前記手術を行う作業ユニット;前記作業ユニットに対する前記オペレータからの操作を受け付ける操作ユニット;並びに前記作業ユニット及び前記操作ユニットを制御する制御ユニット;を有する手術装置と、
    前記学習済情報を備え、前記手術装置と通信可能に構成された手術支援装置であって、前記手術情報と前記学習済情報とに基づいて少なくとも前記手術装置による前記手術を支援する手術支援装置と、を備える
    手術支援システム
  3. 請求項2に記載の手術支援システムであって、
    前記作業ユニットは、手術に利用するインスツルメント部と、少なくとも前記手術対象の状態又は前記インスツルメント部のいずれかの状態を把握するセンサ部と、を備えており、
    前記操作ユニットは、前記オペレータの操作を受けるコントローラ部と、前記オペレータへ情報を表示するディスプレイ部とを備えている、
    手術支援システム。
  4. 請求項3に記載の手術支援システムであって、
    前記手術支援装置は、前記操作ユニットに対して前記手術の支援のための情報を出力する、
    手術支援システム。
  5. 請求項3又は請求項4に記載の手術支援システムであって、
    前記手術支援装置は、前記ディスプレイ部に前記手術のためのガイド情報を表示する、
    手術支援システム。
  6. 請求項3乃至請求項5のいずれかに記載の手術支援システムであって、
    前記手術支援装置は、前記コントローラ部を制御する、
    手術支援システム。
  7. 請求項3乃至請求項6のいずれかに記載の手術支援システムであって、
    前記手術支援装置は、前記インスツルメント部を制御する、
    手術支援システム。
  8. 請求項3乃至請求項7のいずれかに記載の手術支援システムであって、
    前記センサ部はカメラ部を含み、
    前記手術支援装置は、前記カメラ部を制御する、
    手術支援システム。
  9. 請求項3乃至請求項8のいずれかに記載の手術支援システムであって、
    前記学習済情報は、前記オペレータによる前記操作ユニットの操作に関する情報を元に学習されたものである
    手術支援システム。
  10. 請求項9に記載の手術支援システムであって、
    前記学習済情報は、前記オペレータによる前記コントローラ部の操作に関する情報を元に学習されたものである
    手術支援システム。
  11. 請求項3乃至請求項10のいずれかに記載の手術支援システムであって、
    前記学習済情報は、前記オペレータによって前記ディスプレイ部に表示させていた表示内容に関する情報を元に学習されたものである
    手術支援システム。
  12. 請求項3乃至請求項11のいずれかに記載の手術支援システムであって、
    前記操作ユニットは、前記オペレータの視線を取得する手段を有しており、
    前記学習済情報は、前記視線に関する情報を元に学習されたものである
    手術支援システム。
  13. 請求項3乃至請求項12のいずれかに記載の手術支援システムであって、
    前記学習済情報は、前記インスツルメント部に対する作用に関する情報を元に学習されたものである
    手術支援システム。
  14. 請求項3乃至請求項13のいずれかに記載の手術支援システムであって、
    前記学習済情報は、前記手術装置から得られたデータにラベル付けした情報を元に学習されたものである
    手術支援システム。
  15. 請求項3乃至請求項14のいずれかに記載の手術支援システムであって、
    前記学習済情報は、前記センサ部によって取得された情報を元に学習されたものである
    手術支援システム。
  16. 請求項3乃至請求項15のいずれかに記載の手術支援システムであって、
    前記学習済情報は、前記手術対象の属性情報を元に学習されたものである
    手術支援システム。
  17. 請求項3乃至請求項16のいずれかに記載の手術支援システムであって、
    前記学習済情報は、前記手術対象のバイタル情報を元に学習されたものである
    手術支援システム。
  18. 請求項1に記載の手術支援システムであって、
    前記手術対象に対し前記手術を行う作業部;及び前記作業部に対する前記オペレータからの操作を受け付ける操作部;を有する手術器と、
    前記学習済情報;及び少なくとも前記オペレータに情報を提供するための表示部;を備え、前記手術情報と前記学習済情報とに基づいて少なくとも前記表示部に対して前記手術の支援に関する情報を提供する手術支援装置と、を備える
    手術支援システム
  19. 請求項18に記載の手術支援システムであって、
    前記作業部は、手術に利用するインスツルメント部と、少なくとも前記手術対象の状態又は前記インスツルメント部のいずれかの状態を把握するセンサ部と、を備えており、
    前記操作部は、前記オペレータの操作を受け付ける、
    手術支援システム。
  20. 請求項19に記載の手術支援システムであって、
    前記手術支援装置は、前記操作部に対して前記手術の支援のための情報を出力する、
    手術支援システム。
  21. 請求項19又は請求項20に記載の手術支援システムであって、
    前記手術支援装置は、前記表示部に前記手術のためのガイド情報を表示する、
    手術支援システム。
  22. 請求項19乃至請求項21のいずれかに記載の手術支援システムであって、
    前記手術支援装置は、前記操作部を制御する、
    手術支援システム。
  23. 請求項19乃至請求項22のいずれかに記載の手術支援システムであって、
    前記手術支援装置は、前記インスツルメント部を制御する、
    手術支援システム。
  24. 請求項19乃至請求項23のいずれかに記載の手術支援システムであって、
    前記センサ部はカメラ部を含み
    前記手術支援装置は、前記カメラ部を制御する、
    手術支援システム。
  25. 請求項19乃至請求項24のいずれかに記載の手術支援システムであって、
    前記学習済情報は、前記オペレータによる前記操作部の操作に関する情報を元に学習されたものである
    手術支援システム。
  26. 請求項19乃至請求項25のいずれかに記載の手術支援システムであって、
    前記オペレータの視線を取得する手段を更に有しており、
    前記学習済情報は、前記視線に関する情報を元に学習されたものである
    手術支援システム。
  27. 請求項19乃至請求項26のいずれかに記載の手術支援システムであって、
    前記学習済情報は、前記インスツルメント部に対する作用に関する情報を元に学習されたものである
    手術支援システム。
  28. 請求項19乃至請求項27のいずれかに記載の手術支援システムであって、
    前記学習済情報は、前記手術器から得られたデータにラベル付けした情報を元に学習されたものである
    手術支援システム。
  29. 請求項19乃至請求項28のいずれかに記載の手術支援システムであって、
    前記学習済情報は、前記センサ部によって取得された情報を元に学習されたものである
    手術支援システム。
  30. 請求項19乃至請求項29のいずれかに記載の手術支援システムであって、
    前記学習済情報は、前記手術対象の属性情報を元に学習されたものである
    手術支援システム。
  31. 請求項19乃至請求項30のいずれかに記載の手術支援システムであって、
    前記学習済情報は、前記手術対象のバイタル情報を元に学習されたものである
    手術支援システム。
  32. 請求項1に記載の手術支援システムであって、
    仮想空間内に存在する仮想手術対象への仮想手術の支援を行うためのものであり、
    当該仮想手術対象に対して仮想手術を行うための仮想作業ユニット、前記仮想作業ユニットに対するオペレータからの操作を受け付ける操作ユニット、並びに前記仮想作業ユニット及び前記操作ユニットを制御する制御ユニットを有する仮想手術装置と、
    前記学習済情報を備え、前記仮想手術装置と通信可能に構成された仮想手術支援装置とであって、前記手術情報と前記学習済情報とに基づいて少なくとも前記仮想手術装置による前記仮想手術を支援する仮想手術支援装置と、を備える
    仮想手術支援システム。
  33. 請求項32に記載の仮想手術支援システムであって、
    前記仮想作業ユニットは、前記仮想空間内において、前記仮想手術に利用するインスツルメント部と、少なくとも前記仮想手術対象の状態又は前記インスツルメント部のいずれかの状態を把握するセンサ部と、を備えており、
    前記操作ユニットは、前記オペレータの操作を受けるコントローラ部と、前記オペレータへ情報を表示するディスプレイ部とを備えている、
    仮想手術支援システム。
  34. 請求項33に記載の仮想手術支援システムであって、
    前記仮想手術支援装置は、前記操作ユニットに対して前記仮想手術の支援のための情報を出力する、
    仮想手術支援システム。
  35. 請求項33又は請求項34に記載の仮想手術支援システムであって、
    前記仮想手術支援装置は、前記ディスプレイ部に前記仮想手術のためのガイド情報を表示する、
    仮想手術支援システム。
  36. 請求項33乃至請求項35のいずれかに記載の仮想手術支援システムであって、
    前記仮想手術支援装置は、前記コントローラ部を制御する、
    仮想手術支援システム。
  37. 請求項33乃至請求項36のいずれかに記載の仮想手術支援システムであって、
    前記仮想手術支援装置は、前記インスツルメント部を制御する、
    仮想手術支援システム。
  38. 請求項33乃至請求項37のいずれかに記載の仮想手術支援システムであって、
    前記センサ部はカメラ部を含み、
    前記仮想手術支援装置は、前記カメラ部を制御する、
    仮想手術支援システム。
  39. 請求項33乃至請求項38のいずれかに記載の仮想手術支援システムであって、
    前記学習済情報は、前記オペレータによる前記操作ユニットの操作に関する情報を元に学習されたものである
    仮想手術支援システム。
  40. 請求項39に記載の仮想手術支援システムであって、
    前記学習済情報は、前記オペレータによる前記コントローラ部の操作に関する情報を元に学習されたものである
    仮想手術支援システム。
  41. 請求項33乃至請求項40のいずれかに記載の仮想手術支援システムであって、
    前記学習済情報は、前記オペレータによって前記ディスプレイ部に表示させていた表示内容に関する情報を元に学習されたものである
    仮想手術支援システム。
  42. 請求項33乃至請求項41のいずれかに記載の仮想手術支援システムであって、
    前記操作ユニットは、前記オペレータの視線を取得する手段を有しており、
    前記学習済情報は、前記視線に関する情報を元に学習されたものである
    仮想手術支援システム。
  43. 請求項33乃至請求項42のいずれかに記載の仮想手術支援システムであって、
    前記学習済情報は、前記インスツルメント部に対する作用に関する情報を元に学習されたものである
    仮想手術支援システム。
  44. 請求項33乃至請求項43のいずれかに記載の仮想手術支援システムであって、
    前記学習済情報は、前記手術装置から得られたデータにラベル付けした情報を元に学習されたものである
    仮想手術支援システム。
  45. 請求項43乃至請求項44のいずれかに記載の仮想手術支援システムであって、
    前記学習済情報は、前記センサ部によって取得された情報を元に学習されたものである
    仮想手術支援システム。
  46. 請求項43乃至請求項45のいずれかに記載の仮想手術支援システムであって、
    前記学習済情報は、前記仮想手術対象の属性情報を元に学習されたものである
    仮想手術支援システム。
  47. 請求項43乃至請求項46のいずれかに記載の仮想手術支援システムであって、
    前記学習済情報は、前記手術対象の仮想バイタル情報を元に学習されたものである
    仮想手術支援システム。

JP2018174380A 2018-09-19 2018-09-19 手術支援システム及び仮想手術支援システム Pending JP2020046893A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018174380A JP2020046893A (ja) 2018-09-19 2018-09-19 手術支援システム及び仮想手術支援システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018174380A JP2020046893A (ja) 2018-09-19 2018-09-19 手術支援システム及び仮想手術支援システム

Publications (1)

Publication Number Publication Date
JP2020046893A true JP2020046893A (ja) 2020-03-26

Family

ID=69899795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018174380A Pending JP2020046893A (ja) 2018-09-19 2018-09-19 手術支援システム及び仮想手術支援システム

Country Status (1)

Country Link
JP (1) JP2020046893A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022024423A1 (ja) * 2020-07-28 2022-02-03 富士フイルム株式会社 内視鏡システム及びその作動方法
KR20220030760A (ko) * 2020-09-03 2022-03-11 단국대학교 산학협력단 가상현실(vr)/증강현실(ar) 환경에서 협업 딥러닝을 활용한 개인 맞춤형 항공 조종사 훈련시스템 및 그 방법
JP2022165915A (ja) * 2021-04-20 2022-11-01 カール・ツアイス・メディテック・アーゲー 異常を動的に認識し訂正するための白内障手術のaiベースの映像解析

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09185456A (ja) * 1995-04-28 1997-07-15 Matsushita Electric Ind Co Ltd インターフェイス装置
JPH11231770A (ja) * 1998-02-19 1999-08-27 Mitsubishi Electric Corp 医用シミュレータ通知装置
JP2003099808A (ja) * 2001-09-25 2003-04-04 Gtv:Kk 画像処理装置、バーチャル手術装置、画像処理機能をコンピュータに実現させるためのプログラム、および画像処理システム
JP2003150569A (ja) * 2001-11-09 2003-05-23 Sony Corp 情報処理システムおよび情報処理方法、プログラムおよび記録媒体、並びに情報処理装置
WO2018048753A1 (en) * 2016-09-06 2018-03-15 Verily Life Sciences Llc Systems and methods for prevention of surgical mistakes

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09185456A (ja) * 1995-04-28 1997-07-15 Matsushita Electric Ind Co Ltd インターフェイス装置
JPH11231770A (ja) * 1998-02-19 1999-08-27 Mitsubishi Electric Corp 医用シミュレータ通知装置
JP2003099808A (ja) * 2001-09-25 2003-04-04 Gtv:Kk 画像処理装置、バーチャル手術装置、画像処理機能をコンピュータに実現させるためのプログラム、および画像処理システム
JP2003150569A (ja) * 2001-11-09 2003-05-23 Sony Corp 情報処理システムおよび情報処理方法、プログラムおよび記録媒体、並びに情報処理装置
WO2018048753A1 (en) * 2016-09-06 2018-03-15 Verily Life Sciences Llc Systems and methods for prevention of surgical mistakes

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022024423A1 (ja) * 2020-07-28 2022-02-03 富士フイルム株式会社 内視鏡システム及びその作動方法
JP7506159B2 (ja) 2020-07-28 2024-06-25 富士フイルム株式会社 内視鏡システム及びその作動方法
KR20220030760A (ko) * 2020-09-03 2022-03-11 단국대학교 산학협력단 가상현실(vr)/증강현실(ar) 환경에서 협업 딥러닝을 활용한 개인 맞춤형 항공 조종사 훈련시스템 및 그 방법
KR102419667B1 (ko) * 2020-09-03 2022-07-11 단국대학교 산학협력단 가상현실(vr)/증강현실(ar) 환경에서 협업 딥러닝을 활용한 개인 맞춤형 항공 조종사 훈련시스템 및 그 방법
JP2022165915A (ja) * 2021-04-20 2022-11-01 カール・ツアイス・メディテック・アーゲー 異常を動的に認識し訂正するための白内障手術のaiベースの映像解析
JP7402262B2 (ja) 2021-04-20 2023-12-20 カール・ツアイス・メディテック・アーゲー 機器の作動方法、システム、およびコンピュータプログラム製品

Similar Documents

Publication Publication Date Title
US11737841B2 (en) Configuring surgical system with surgical procedures atlas
US11596483B2 (en) Motion execution of a robotic system
US20230255696A1 (en) Artificial intelligence guidance system for robotic surgery
US20210157403A1 (en) Operating room and surgical site awareness
US20220334787A1 (en) Customization of overlaid data and configuration
JP6784829B2 (ja) 手術ミスを防止するためのシステムおよび方法
JP2022145863A (ja) インジケータシステム
US20190008598A1 (en) Fully autonomic artificial intelligence robotic system
JP2021531504A (ja) 外科トレーニング装置、方法及びシステム
JP2020046893A (ja) 手術支援システム及び仮想手術支援システム
EP3413774A1 (en) Database management for laparoscopic surgery
Nyssen et al. Investigating expertise, flexibility and resilience in socio-technical environments: a case study in robotic surgery
Bihlmaier et al. Learning dynamic spatial relations
Dankelman et al. Engineering for patient safety: Issues in minimally invasive procedures
US11931118B1 (en) Robotic surgical system for remotely monitoring surgical robots
Mattos et al. Microsurgery systems
Lambert et al. Understanding The Needs of Mentoring in Surgery to Guide the Design of Surgical Telementoring Systems
Dankelman Key-Hole Surgery: Minimally Invasive Technology
Kogkas A Gaze-contingent Framework for Perceptually-enabled Applications in Healthcare
Olson Robotic surgery, human fallibility, and the politics of care

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20201225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20201225

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210205

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210205

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210326

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210709

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210709

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210719

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210727

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20211029

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20211102

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220111

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220412

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220920

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20221115

C28A Non-patent document cited

Free format text: JAPANESE INTERMEDIATE CODE: C2838

Effective date: 20221115

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20230214

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20230314

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20230314