JP2019162339A - 手術支援システムおよび表示方法 - Google Patents
手術支援システムおよび表示方法 Download PDFInfo
- Publication number
- JP2019162339A JP2019162339A JP2018052776A JP2018052776A JP2019162339A JP 2019162339 A JP2019162339 A JP 2019162339A JP 2018052776 A JP2018052776 A JP 2018052776A JP 2018052776 A JP2018052776 A JP 2018052776A JP 2019162339 A JP2019162339 A JP 2019162339A
- Authority
- JP
- Japan
- Prior art keywords
- display
- field image
- display area
- support system
- designated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001356 surgical procedure Methods 0.000 title claims description 60
- 238000000034 method Methods 0.000 title claims description 36
- 230000000007 visual effect Effects 0.000 claims abstract description 39
- 230000003287 optical effect Effects 0.000 claims description 15
- 230000000873 masking effect Effects 0.000 claims description 9
- 238000004891 communication Methods 0.000 abstract description 28
- 238000012545 processing Methods 0.000 description 29
- 230000010365 information processing Effects 0.000 description 26
- 230000036544 posture Effects 0.000 description 26
- 230000008569 process Effects 0.000 description 22
- 210000000056 organ Anatomy 0.000 description 20
- 238000003384 imaging method Methods 0.000 description 18
- 238000011161 development Methods 0.000 description 15
- 230000018109 developmental process Effects 0.000 description 15
- 230000033001 locomotion Effects 0.000 description 14
- 238000011282 treatment Methods 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 238000013500 data storage Methods 0.000 description 8
- 206010028980 Neoplasm Diseases 0.000 description 7
- 238000002674 endoscopic surgery Methods 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000010336 energy treatment Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000003187 abdominal effect Effects 0.000 description 3
- 210000003815 abdominal wall Anatomy 0.000 description 3
- 201000011510 cancer Diseases 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 208000005646 Pneumoperitoneum Diseases 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 210000000577 adipose tissue Anatomy 0.000 description 1
- 230000000740 bleeding effect Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002845 discoloration Methods 0.000 description 1
- 230000008014 freezing Effects 0.000 description 1
- 238000007710 freezing Methods 0.000 description 1
- 238000002350 laparotomy Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000004324 lymphatic system Anatomy 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/0005—Display arrangement combining images e.g. side-by-side, superimposed or tiled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00039—Operational features of endoscopes provided with input arrangements for the user
- A61B1/00042—Operational features of endoscopes provided with input arrangements for the user for mechanical operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/00048—Constructional features of the display
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biophysics (AREA)
- Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Mechanical Engineering (AREA)
- Endoscopes (AREA)
Abstract
【課題】術者同士のコミュニケーションの向上を図る。【解決手段】表示制御部は、術野画像の2以上の表示領域への表示を制御し、第1の重畳部は、表示領域のうち、第1の表示領域に表示されている術野画像上のユーザにより指定された指定位置に、視覚情報を重畳する。第2の重畳部は、第1の表示領域とは異なる第2の表示領域にリアルタイムに表示されている術野画像上の指定位置に追従して、視覚情報を重畳する。本開示は、例えば、内視鏡手術システムに適用することができる。【選択図】図3
Description
本開示は、手術支援システムおよび表示方法に関し、特に、術者同士のコミュニケーションの向上を図ることができるようにした手術支援システムおよび表示方法に関する。
手術現場においては、経験の浅い執刀医を補助するために、指導医が、手術箇所を提示するなどの手術支援を行うことがある。また、複数の執刀医同士が互いに相談しながら手術を進めることもある。そこで、1人の術者の指示を、他の術者に明確に伝える機能を有する医療機器が求められる。
例えば、特許文献1には、3次元手術画像にアノテーションを書き込み可能な3次元観察装置が開示されている。
しかしながら、従来の構成においては、1つの術野画像を介して、指導医が手術箇所を提示したり、執刀医が提示されたその手術箇所を確認したりしていた。
この場合、術野画像へのアノテーションの書き込みの動作が、その術野画像を確認しながら手術を行う術者の妨げになり、術者同士がうまくコミュニケーションを取れなくなるおそれがあった。
本開示は、このような状況に鑑みてなされたものであり、術者同士のコミュニケーションの向上を図ることができるようにするものである。
本開示の手術支援システムは、術野画像の2以上の表示領域への表示を制御する表示制御部と、前記表示領域のうち、第1の表示領域に表示されている前記術野画像上のユーザにより指定された指定位置に、視覚情報を重畳する第1の重畳部と、前記第1の表示領域とは異なる第2の表示領域にリアルタイムに表示されている前記術野画像上の前記指定位置に追従して、前記視覚情報を重畳する第2の重畳部とを備える。
本開示の表示方法は、手術支援システムが、術野画像の2以上の表示領域への表示を制御し、前記表示領域のうち、第1の表示領域に表示されている前記術野画像上のユーザにより指定された指定位置に、視覚情報を重畳し、前記第1の表示領域とは異なる第2の表示領域にリアルタイムに表示されている前記術野画像上の前記指定位置に追従して、前記視覚情報を重畳する表示方法である。
本開示においては、術野画像の2以上の表示領域への表示が制御され、前記表示領域のうち、第1の表示領域に表示されている前記術野画像上のユーザにより指定された指定位置に、視覚情報が重畳され、前記第1の表示領域とは異なる第2の表示領域にリアルタイムに表示されている前記術野画像上の前記指定位置に追従して、前記視覚情報が重畳される。
本開示によれば、術者同士のコミュニケーションの向上を図ることが可能となる。
以下、本開示を実施するための形態(以下、実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.システム構成
2.アノテーション書き込み処理の流れ
3.術野画像の表示形態
4.変形例
5.適用例
6.ハードウェア構成
7.まとめ
2.アノテーション書き込み処理の流れ
3.術野画像の表示形態
4.変形例
5.適用例
6.ハードウェア構成
7.まとめ
<1.システム構成>
(手術支援システムの構成例)
図1は、本実施の形態に係る手術支援システムの構成例を示す図である。
(手術支援システムの構成例)
図1は、本実施の形態に係る手術支援システムの構成例を示す図である。
図1は、例えば、医療現場において従来の開腹手術に代わって行われる、腹部の内視鏡外科手術において用いられる内視鏡手術システムの一例を示している。
図1の手術支援システム1においては、腹部の内視鏡外科手術では、従来のように腹壁を切って開腹する代わりに、トロッカ25a,25bと呼ばれる開孔器具が腹壁に数か所取り付けられる。そして、トロッカ25a,25bに設けられている孔から、患者の体内を観察する観察用医療機器としての腹腔鏡(以下、内視鏡ともいう)11、エネルギ処置具22や鉗子23などが体内に挿入される。
術者は、内視鏡11によってビデオ撮像された患者の体内にある患部(腫瘍など)Uの画像をリアルタイムに見ながら、エネルギ処置具22などによって患部Uを切除するなどの処置を行う。内視鏡11、エネルギ処置具22や鉗子23は、術者またはロボットなどにより保持される。なお、術者とは、手術室で行われる手術に関わっている医療従事者をいい、術者には、例えば手術の執刀医、助手、スコピスト、看護師の他、手術室とは別の場所からその手術をモニタしている医者などが含まれる。
このような内視鏡下手術を行う手術室内には、内視鏡下手術のための装置類を搭載するカート31、患者が横たわる患者ベッド33、フットスイッチ35などが配置される。カート31には、医療機器として、例えば、カメラコントロールユニット(CCU)13、光源装置17、処置具用装置21、気腹装置24、表示装置15、レコーダ26、およびプリンタ27などの装置類が載置される。
内視鏡11の観察光学系を通じて撮像された患部Uの画像信号は、カメラケーブルを介してCCU13に伝送される。CCU13は、カメラケーブルを介して内視鏡11に接続される他、無線の通信経路を介して内視鏡11に接続されてもよい。CCU13は、内視鏡11から出力される画像信号に対して信号処理を施し、信号処理後の画像信号を表示装置15に出力する。このような構成により、患部Uの内視鏡画像が表示装置15に表示される。
なお、CCU13は、信号処理後の画像信号をレコーダ26に出力することで、レコーダ26に、患部Uの内視鏡画像を画像データ(例えば、動画像のデータ)として記録させてもよい。また、CCU13は、信号処理後の画像信号をプリンタ27に出力することで、プリンタ27に、患部Uの内視鏡画像を印刷させてもよい。
光源装置17は、ライトガイドケーブルを介して内視鏡11に接続され、患部Uに対してさまざまな波長の光を切り替えて照射することが可能である。光源装置17から照射される光は、例えば、補助光として用いられる場合もある。
処置具用装置21は、例えば、電気熱を用いて患部Uを切断するエネルギ処置具22に対して高周波電流を出力する高周波出力装置に相当する。
気腹装置24は、送気、吸気手段を備え、患者体内の例えば腹部領域に空気を送気する。
フットスイッチ35は、術者や助手などのフット操作をトリガ信号として、CCU13や処置具用装置21などを制御する。
(アノテーションの表示について)
本実施の形態の手術支援システムは、内視鏡11で撮像された内視鏡画像(以下、術野画像という)に映る臓器や体腔表面に対するアノテーションの書き込みを実現する。ここでいうアノテーションとは、術者が他の術者に対して手術箇所などを提示するための視覚情報である。
本実施の形態の手術支援システムは、内視鏡11で撮像された内視鏡画像(以下、術野画像という)に映る臓器や体腔表面に対するアノテーションの書き込みを実現する。ここでいうアノテーションとは、術者が他の術者に対して手術箇所などを提示するための視覚情報である。
具体的には、図2左に示される術野画像に映る臓器の表面上に、ユーザ(術者)がアノテーションを書き込みたい位置を指定すると、図2中央に示されるように、術野画像上のユーザにより指定された位置(指定位置)に、線状のアノテーションが重畳される。
内視鏡11の位置や姿勢が変化した場合であっても、図2右に示されるように、書き込まれたアノテーションは、術野画像上の指定位置に追従して表示される。
本実施の形態の手術支援システムにおいては、術野画像に映る臓器や体腔表面の視覚的・立体構造的なテクスチャとその位置関係に基づいて、アノテーションの位置(指定位置)が保持され、内視鏡11の向きや位置(動き)が推定される。そして、動きの推定結果に基づいて、アノテーションが常に臓器上の同じ位置に留まっているように表示位置が更新される。
アノテーションの位置(指定位置)は、術野画像が表示される画面上の座標によらず一定である。そのため、術野画像を停止した静止画像や、記録された過去の術野画像に対してアノテーションを書き込んだ場合でも、その結果は、現在表示されている術野画像中に反映されるようになる。
(手術支援システムの機能構成例)
図3は、上述したアノテーションの表示を実現可能とする手術支援システムの機能構成例を示すブロック図である。
図3は、上述したアノテーションの表示を実現可能とする手術支援システムの機能構成例を示すブロック図である。
図3の手術支援システム100は、センシング部110、情報処理装置130、および表示装置150から構成される。
センシング部110は、図1の内視鏡11に相当し、撮像した画像信号を情報処理装置130に供給する。
情報処理装置130は、図1のCCU13に相当し、センシング部110からの画像信号に対して信号処理を施し、表示装置150に供給する。
表示装置150は、図1の表示装置15に相当し、情報処理装置130からの画像信号に基づいて術野画像を表示する。詳細は後述するが、表示装置150には、2つの表示領域(第1の表示領域151および第2の表示領域152)が設けられ、その表示領域それぞれに1つの術野画像が表示される。
情報処理装置130は、画像データ生成部131、表示制御部132、指定位置算出部133、および3次元表面マップデータ記憶部134を備えている。
画像データ生成部131は、センシング部110からの画像信号に対して現像処理を行うことで、複数フレームからなる術野画像の画像データを表示制御部132に供給する。
また、画像データ生成部131は、術野画像を構成する各フレームに基づいて、内視鏡11の動きを推定することで、その動きを表す位置・姿勢情報を生成し、表示制御部132と指定位置算出部133に供給する。
さらに、画像データ生成部131は、術野画像を構成する各フレームと、推定された内視鏡11の動きに基づいて、術野画像に映る被写体(臓器や体腔内)の3次元構造を表す3次元情報を生成する。生成された3次元情報は、3次元表面マップデータとして3次元表面マップデータ記憶部134に記憶される。
センシング部110と画像データ生成部131の詳細な構成については後述する。
表示制御部132は、画像データ生成部131からの画像データに基づいて、表示装置150の2つの表示領域(第1の表示領域151および第2の表示領域152)それぞれへの術野画像の表示を制御する。
表示制御部132は、第1の重畳部141と第2の重畳部142を備えている。
第1の重畳部141は、第1の表示領域151に表示されている術野画像上のユーザにより指定された位置(指定位置)に、アノテーションを重畳する。具体的には、第1の重畳部141は、画像データ生成部131からの位置・姿勢情報と、指定位置算出部133により算出された指定位置に基づいて、第1の表示領域151に表示されている術野画像上の指定位置を求め、アノテーションを重畳する。
一方、第2の重畳部142は、第2の表示領域152に表示されている術野画像上の指定位置に追従して、アノテーションを重畳する。具体的には、第2の重畳部142は、画像データ生成部131からの位置・姿勢情報と、指定位置算出部133により算出された指定位置に基づいて、第2の表示領域152に表示されている術野画像上の指定位置を求め、アノテーションを重畳する。
指定位置算出部133は、ユーザの操作を表す操作情報として、第1の表示領域151に表示されている術野画像に対するアノテーションの書き込みを表す情報を取得すると、画像データ生成部131からの位置・姿勢情報と、3次元表面マップデータ記憶部134の3次元表面マップデータに基づいて、指定位置を算出する。
具体的には、指定位置算出部133は、位置・姿勢情報で表される現在の内視鏡11の位置および姿勢に基づいて、アノテーションが書き込まれた位置が、3次元表面マップデータ上のどこに該当するかを求める。このようにして求められた指定位置は、指定位置算出部133に保持され、第1の重畳部141と第2の重畳部142に供給される。
(センシング部と画像データ生成部の詳細な構成例1)
ここで、図4を参照して、センシング部110と画像データ生成部131の詳細な構成例について説明する。
ここで、図4を参照して、センシング部110と画像データ生成部131の詳細な構成例について説明する。
センシング部110は、イメージセンサ211を備えており、撮像した画像信号を情報処理装置130に供給する。
画像データ生成部131は、現像処理部221、初期3次元データ生成部222、カメラ位置・姿勢推定部223、および3次元表面復元部224から構成される。
現像処理部221は、イメージセンサ211からの画像信号に対して現像処理を行うことで画像データを生成する。生成された画像データは、初期3次元データ生成部222、カメラ位置・姿勢推定部223、および3次元表面復元部224それぞれに供給される。
初期3次元データ生成部222は、現像処理部221から時系列に供給される画像データ(フレームデータ)それぞれにおける臓器表面のテクスチャの一致する画素位置の対応関係から、被写体の3次元構造を表す3次元情報を取得する。テクスチャとしては、画像データの画素値がそのまま用いられたり、画像データから抽出された特徴量が用いられる。初期3次元データ生成部222は、取得した3次元情報を用いて、最初の3次元表面マップデータを生成する。
カメラ位置・姿勢推定部223は、現像処理部221から時系列に供給される画像データ(フレームデータ)毎の画素値や特徴量と、時間的に前の画像データの画素値や特徴量との対応関係から、カメラ位置・姿勢の推定を行う(内視鏡11の動きを推定する)。カメラ位置・姿勢推定部223は、動きの推定結果に基づいて、内視鏡11の動きを表す位置・姿勢情報を生成する。
3次元表面復元部224は、カメラ位置・姿勢推定部223によって推定された内視鏡11の動きから、画像データの画素値や特徴量に基づいた3次元情報を復元し、初期3次元データ生成部222により生成された3次元表面マップデータを更新する。更新された3次元表面マップデータは、3次元表面マップデータ記憶部134に記憶される。また、3次元表面復元部224は、3次元表面マップデータ記憶部134に記憶されている3次元表面マップデータを3次元情報として読み出して、3次元表面マップデータを更新するようにしてもよい。
上述した3次元表面マップデータの作成と、カメラ位置・姿勢の推定には、SLAM(Simultaneous Localization And Mapping)技術を用いることができる。単眼カメラを用いたSLAM技術の基本的な原理は、例えば「Andrew J. Davison, “Real-Time Simultaneous Localization and Mapping with a Single Camera”, Proceedings of the 9th IEEE International Conference on Computer Vision Volume 2, 2003, pp.1403-1410」において説明されている。なお、カメラ画像を用いて視覚的に位置を推定するSLAM技術は、特にVisual SLAMともいわれている。
(センシング部と画像データ生成部の詳細な構成例2)
センシング部110と画像データ生成部131は、図5に示されるような構成を採ることもできる。
センシング部110と画像データ生成部131は、図5に示されるような構成を採ることもできる。
図5のセンシング部110は、イメージセンサ231に加え、デプスセンサ232を備えており、撮像した画像信号とともに、撮像範囲の深度データを画像データ生成部131に供給する。
図5の画像データ生成部131は、現像処理部241、3次元表面復元部242、およびカメラ位置・姿勢推定部243から構成される。
現像処理部241は、イメージセンサ231からの画像信号に対して現像処理を行うことで画像データを生成する。
3次元表面復元部242は、デプスセンサ232からの深度データから被写体の3次元情報を取得することで、3次元表面マップデータを生成したり、3次元空間内での位置合わせを行うことで、3次元表面マップデータを更新する。
カメラ位置・姿勢推定部243は、現状、デプスセンサ232から得られる深度データと、3次元表面復元部242により生成・復元されている3次元表面マップデータと比較することで、カメラ位置・姿勢の推定を行う(内視鏡11の動きを推定する)。
図5の構成においては、内視鏡11の動きが推定されることにより、3次元表面復元部242による3次元空間内での位置合わせの探索空間を小さくすることができる。
(センシング部と画像データ生成部の詳細な構成例3)
センシング部110と画像データ生成部131は、図6に示されるような構成を採ることもできる。
センシング部110と画像データ生成部131は、図6に示されるような構成を採ることもできる。
図6のセンシング部110は、ステレオカメラとして構成され、一対のイメージセンサ251,252を備えており、撮像した画像信号それぞれを画像データ生成部131に供給する。
図6の画像データ生成部131は、現像処理部261、3次元表面復元部262、およびカメラ位置・姿勢推定部263から構成される。
現像処理部261は、イメージセンサ251からの画像信号に対して現像処理を行うことで画像データを生成する。
また、現像処理部261は、イメージセンサ251,252からの画像信号を用いた視差による三角測量により、撮像範囲の深度データを生成し、3次元表面復元部262、およびカメラ位置・姿勢推定部263に供給する。
3次元表面復元部262は、現像処理部261からの深度データから被写体の3次元情報を取得することで、3次元表面マップデータを生成したり、3次元空間内での位置合わせを行うことで、3次元表面マップデータを更新する。
カメラ位置・姿勢推定部263は、現状、現像処理部261から得られる深度データと、3次元表面復元部262により生成・復元されている3次元表面マップデータと比較することで、カメラ位置・姿勢の推定を行う(内視鏡11の動きを推定する)。
以上のようにして構成される手術支援システム100により、術野画像に対して書き込まれたアノテーションは、内視鏡11が動いた場合であっても、最初に書き込まれた箇所に留まっているように表示される。
(3次元情報の補間について)
手術支援システム100において、ユーザがアノテーションを書き込む際、3次元表面マップデータが密でなく、アノテーションが重畳される位置(指定位置)に対応する3次元情報が存在しない場合には、その3次元情報が補間されるようにしてもよい。
手術支援システム100において、ユーザがアノテーションを書き込む際、3次元表面マップデータが密でなく、アノテーションが重畳される位置(指定位置)に対応する3次元情報が存在しない場合には、その3次元情報が補間されるようにしてもよい。
例えば、3次元表面マップデータにおける、指定位置周辺の点に対応する3次元情報を用いて、指定位置の3次元情報が推定されるようにする。
また、手術支援システム100が図4の構成を備える場合、カメラ位置・姿勢推定部223により推定されたカメラ位置・姿勢と、それに対応する画像データを複数フレーム分用いて、多視点ステレオ技術によって密な3次元表面マップデータが得られるようにしてもよい。この場合、得られた密な3次元表面マップデータを用いて、指定位置の3次元情報を推定することができる。
(3次元情報の更新について)
手術支援システム100においては、体腔内の観察対象が動いたり変形した場合、その変化にあわせてアノテーションの位置が変更されるようにすることもできる。
手術支援システム100においては、体腔内の観察対象が動いたり変形した場合、その変化にあわせてアノテーションの位置が変更されるようにすることもできる。
例えば、3次元表面復元部262によって復元された3次元情報を用いて、3次元表面マップデータを更新する際、ある領域の位置が大きく変化している場合、その領域の3次元情報を、復元された最新の3次元情報に更新する。
さらに、3次元表面マップデータにおいて、各位置の3次元情報に対して生成・更新された時刻を表す時刻情報を付加することで、3次元表面マップデータ全体の信頼度を向上させることができる。信頼度の高い最新の情報を残すように3次元表面マップデータを更新することで、体腔内の観察対象に動きや変形が発生しても、アノテーションを追従して表示することができる。
<2.アノテーション書き込み処理の流れ>
次に、図7および図8のフローチャートを参照して、本実施の形態の手術支援システム100におけるアノテーション書き込み処理の流れについて説明する。
次に、図7および図8のフローチャートを参照して、本実施の形態の手術支援システム100におけるアノテーション書き込み処理の流れについて説明する。
図7および図8の処理は、例えば、経験の浅い執刀医を補助するために、指導医が手術箇所を提示する際などに実行される。ここでは、指導医は、第1の表示領域151に表示される術野画像を用いて手術箇所を提示し、執刀医は、第2の表示領域152に表示される術野画像を見ながら手術を行うものとする。
ステップS11において、表示制御部132は、ユーザ(具体的には指導医)の操作を表す操作情報に基づいて、アノテーションの書き込みを可能とする書き込みモードが選択されたか否かを判定する。
図9は、第1の表示領域151と第2の表示領域152に表示される術野画像の表示例を示している。
第1の表示領域151には、センシング部110により取り込まれている術野画像がリアルタイムに表示されており、その画面左上には、そのことを表す「Live」の文字が表示されている。なお、第2の表示領域152には、何も表示されていない。
タッチパネル機能を備える第1の表示領域151の右下には、書き込みモードボタン311とフリーズモードボタン312が表示されている。指導医が、第1の表示領域151に表示されている書き込みモードボタン311をタッチ操作することで、書き込みモードが選択される。
すなわち、ステップS11の処理は、指導医が書き込みモードボタン311をタッチ操作するまで繰り返され、書き込みモードボタン311がタッチ操作されると、処理はステップS12に進む。
ステップS12において、表示制御部132は、第1の表示領域151および第2の表示領域152それぞれに術野画像を表示する。
具体的には、図10に示されるように、第2の表示領域152にも、第1の表示領域151と同様にして、術野画像がリアルタイムに表示され、その画面左上には、そのことを表す「Live」の文字が表示される。
ステップS13において、表示制御部132は、ユーザ(指導医)の操作を表す操作情報に基づいて、第1の表示領域151の表示をフリーズさせる(停止させる)ためのフリーズモードが選択されたか否かを判定する。具体的には、指導医が、第1の表示領域151に表示されているフリーズモードボタン312をタッチ操作したか否かが判定される。
したがって、ステップS13において、指導医によりフリーズモードボタン312がタッチ操作されると、処理はステップS14に進む。
ステップS14において、表示制御部132は、第1の表示領域151にリアルタイムに表示されている術野画像に代えて、その術野画像の1フレームである静止画像を表示する。
具体的には、図11に示されるように、第1の表示領域151には、フリーズモードボタン312がタッチ操作されたタイミングの術野画像の1フレームが静止画像として表示される。また、第1の表示領域151の画面左上には、静止画像が表示されていることを表す「Pause」の文字が表示される。このとき、表示制御部132は、フリーズモードボタン312がタッチ操作されたタイミングの静止画像とともに、そのときの画像データ生成部131からの位置・姿勢情報を保持する。
一方、ステップS13において、指導医によりフリーズモードボタン312がタッチ操作されない場合、ステップS14はスキップされる。
ステップS15において、表示制御部132は、ユーザ(指導医)の操作を表す操作情報に基づいて、第1の表示領域151に表示されている術野画像に対してアノテーションが書き込みされたか否かを判定する。例えば、指導医が、第1の表示領域151に対して手術箇所をなぞるなどの操作をすることで、アノテーションが書き込まれる。
ここで、第1の表示領域151に静止画像が表示されている場合には、静止画像へのアノテーションの書き込みが受け付けられる。一方、第1の表示領域151にリアルタイムに表示される術野画像(動画像)が表示されている場合には、動画像へのアノテーションの書き込みが受け付けられる。
ステップS15の処理は、アノテーションが書き込まれるまで繰り返され、アノテーションが書き込まれると、処理はステップS16に進む。
このとき、指定位置算出部133は、アノテーションの書き込みに応じて、画像データ生成部131からの位置・姿勢情報と、3次元表面マップデータ記憶部134に記憶されている3次元表面マップデータに基づいて、指定位置を算出する。
ステップS16において、表示制御部132は、アノテーションが書き込まれた位置(指定位置)が、十分な3次元表面マップデータが構築されている領域であるか否かを判定する。
ステップS16において、アノテーションが書き込まれた位置が、十分な3次元表面マップデータが構築されている領域であると判定された場合、処理はステップS17に進む。
ステップS17において、第1の重畳部141は、第1の表示領域151に表示されている術野画像上の指定位置にアノテーションを重畳する。
続いて、ステップS18において、第2の重畳部142は、第2の表示領域152に表示されている術野画像の指定位置に追従してアノテーションを重畳する。
例えば、フリーズモードが選択されている場合、図12に示されるように、第1の表示領域151に表示されている静止画像上の、指定位置算出部133により算出された指定位置に、アノテーション331が重畳される。
一方、第2の表示領域152にリアルタイムに表示されている術野画像上の指定位置には、画像データ生成部131からの位置・姿勢情報に基づいて、アノテーション331と同様のアノテーション332が追従して重畳される。
図12の例では、第2の表示領域152に表示されている術野画像において、第1の表示領域151に静止画像が表示された状態から、内視鏡11の位置や姿勢が変化し、画像に映る臓器の位置や向きが変化している。このような場合であっても、アノテーション332は、第2の表示領域152に表示されている術野画像上の指定位置に追従して表示される。
また、フリーズモードが選択されていない場合には、図13に示されるように、第1の表示領域151にリアルタイムに表示されている術野画像上の、指定位置算出部133により算出された指定位置に、アノテーション331が重畳される。
同様に、第2の表示領域152にリアルタイムに表示されている術野画像上の指定位置には、画像データ生成部131からの位置・姿勢情報に基づいて、アノテーション331と同様のアノテーション332が追従して重畳される。
さて、ステップS16において、アノテーションが書き込まれた位置が、十分な3次元表面マップデータが構築されている領域でないと判定された場合、処理はステップS19に進む。
ステップS19において、表示制御部132は、第1の表示領域151に、アノテーションが重畳された静止画像を表示する。
具体的には、図14に示されるように、フリーズモードが選択されている場合には、第1の重畳部141は、第1の表示領域151に表示されている静止画像上の指定位置に、アノテーション331を重畳する。
また、フリーズモードが選択されていない場合、表示制御部132は、第1の表示領域151に表示されている術野画像に代えて、アノテーションが書き込まれたタイミングの1フレームを静止画像として表示する。そして、第1の重畳部141は、第1の表示領域151に表示されている静止画像上の指定位置に、アノテーション331を重畳する。
このとき、第1の表示領域151の画面左上には、アノテーション331が重畳された静止画像が保持されていることを表す「Saved」の文字が表示される。
一方、第2の重畳部142は、フリーズモードが選択されているか否かにかかわらず、第2の表示領域152に表示されている術野画像上にはアノテーションを重畳しない。
アノテーションが書き込まれた領域に、十分な3次元表面マップデータが構築されていない場合、アノテーションの追従の精度低下を招く可能性がある。そこで、アノテーション書き込み時の静止画像のみを表示し、リアルタイムに表示される術野画像にはアノテーションを反映させないことで、執刀医のユーザビリティを損なうことなく、安全性を担保することができる。
以上の処理によれば、指導医による、第1の表示領域151に表示される術野画像に対するアノテーションの書き込みが、執刀医が見ている第2の表示領域152に表示される術野画像中に反映されるようになる。したがって、指導医による術野画像へのアノテーションの書き込みの動作が、術野画像を確認しながら手術を行う執刀医の妨げになることなく、術者同士のコミュニケーションの向上を図ることが可能となる。
特に、フリーズモードにおいては、指導医は、アノテーションを書き込みやすくするために、術野画像をフリーズすることができるとともに、書き込まれたアノテーションを、執刀医が見ている術野画像に反映させることができる。すなわち、指導医は、より正確な位置にアノテーションを書き込むことができる上に、執刀医は、指導医の指示を正しく理解しながら、アノテーションが反映された術野画像の観察を継続して行うことが可能となる。
ここで、図15に示されるように、執刀医が見ている第2の表示領域152に表示される術野画像において、アノテーション332の表示/非表示(重畳表示のON/OFF)が、執刀医の操作によって切り替えられるようにしてもよい。これにより、アノテーション332の表示自体が手術の進行の妨げにならないようにすることができる。
また、図15の例に加えて、第1の表示領域151に表示される術野画像において、アノテーション331の重畳表示のON/OFFが、指導医の操作によって切り替えられるようにしてもよい。
なお、以上においては、第1の表示領域151に表示される術野画像に対して書き込まれたアノテーションが、第2の表示領域152に表示される術野画像に反映されるものとしたが、その逆の機能が設けられてもよい。すなわち、第2の表示領域152に表示される術野画像に対して書き込まれたアノテーションが、第1の表示領域151に表示される術野画像に反映されるようにしてもよい。
このような構成によれば、例えば2人の執刀医同士が、互いに手術箇所の位置などを確認しあうなど、双方向のコミュニケーションを取りながら手術を進めることが可能となる。
<3.術野画像の表示形態>
ここで、表示制御部132によって、第1の表示領域151と第2の表示領域152に表示される術野画像の表示形態について説明する。
ここで、表示制御部132によって、第1の表示領域151と第2の表示領域152に表示される術野画像の表示形態について説明する。
図16は、術野画像の表示形態の第1の例を示している。
図16の例においては、1つの表示装置350の画面において、第1の表示領域351と第2の表示領域352がサイドバイサイド表示されている。
図17は、術野画像の表示形態の第2の例を示している。
図17の例においては、1つの表示装置350の画面において、第1の表示領域351と第2の表示領域352がピクチャインピクチャ表示されている。具体的には、表示装置350の画面全体に表示される第1の表示領域351の左下に、第1の表示領域351より小さい第2の表示領域352が設けられている。
図18は、術野画像の表示形態の第3の例を示している。
図18の例においては、1つの表示装置350の画面において、第1の表示領域351と第2の表示領域352が切り替わって表示される様子が示されている。
図19は、術野画像の表示形態の第4の例を示している。
図19の例に示されるように、第1の表示領域351と第2の表示領域352が、互いに通信回線で接続される別個の表示装置350−1,350−2にそれぞれ表示されるようにしてもよい。
図19の構成によれば、物理的に離れた位置に表示装置350−1,350−2を設置することができるので、指導医は、遠隔地にいる執刀医に対して、アノテーションを提示することが可能となる。
<4.変形例>
以下においては、上述した実施の形態の変形例について説明する。
以下においては、上述した実施の形態の変形例について説明する。
(過去の術野画像に対するアノテーションの書き込み)
リアルタイムに表示されている術野画像や、その所定の1フレームである静止画像に対するアノテーションの書き込みに限らず、所定時間分の過去の術野画像に対するアノテーションの書き込みを受け付けるようにしてもよい。
リアルタイムに表示されている術野画像や、その所定の1フレームである静止画像に対するアノテーションの書き込みに限らず、所定時間分の過去の術野画像に対するアノテーションの書き込みを受け付けるようにしてもよい。
図20は、過去の術野画像に対するアノテーションの書き込みの例を示す図である。
図20の例では、図17の例と同様、1つの表示装置350の画面において、第1の表示領域351と第2の表示領域352がピクチャインピクチャ表示されている。
さらに、図20の例では、例えば20秒間などの所定時間分の過去の術野画像の時間的な位置の指定が可能なシークバー370が、第2の表示領域352の右側に表示されている。シークバー370の右端は現在を表し、その左端は現在時刻から20秒前を表している。シークバー370上には、過去の術野画像の時間的な位置を指定するためのスライダ371と、術野画像において指定された時間的な位置のフレームのサムネイル372が表示される。
ユーザは、シークバー370上でスライダ371を操作することで、過去20秒間分の術野画像における時間的な位置を指定する。これにより、術野画像において指定された時間的な位置のフレームである静止画像が、第1の表示領域351に表示される。
そして、ユーザにより、第1の表示領域351に表示されている静止画像にアノテーションが書き込まれることで、第2の表示領域352にリアルタイムに表示されている現在の術野画像にも、そのアノテーションを反映させることができる。
このようにして、過去に遡って、術野画像に対するアノテーションの書き込みを行うようにすることもできる。
(マスキング表示)
以上においては、アノテーションが書き込まれた位置が、十分な3次元表面マップデータが構築されている領域でない場合には、リアルタイムに表示される術野画像にはアノテーションを反映させないようにした。
以上においては、アノテーションが書き込まれた位置が、十分な3次元表面マップデータが構築されている領域でない場合には、リアルタイムに表示される術野画像にはアノテーションを反映させないようにした。
これに限らず、十分な3次元表面マップデータが構築されていない領域には、マスキング表示を施すようにしてもよい。
図21は、マスキング表示の例を示す図である。
図21の例では、図17の例と同様、表示装置350の画面において、第1の表示領域351と第2の表示領域352がピクチャインピクチャ表示されている。図21の例においては、フリーズモードが選択されており、第1の表示領域351には静止画像が、第2の表示領域352にはリアルタイムな術野画像が表示されているものとする。
そして、第1の表示領域351に表示されている静止画像に映る臓器の一部領域には、マスキング表示380が施されている。マスキング表示380が施されている領域には、アノテーションの書き込みが受け付けられないようになされている。
これにより、十分な3次元表面マップデータが構築されていない領域に、アノテーションが書き込まれることを防ぐことができ、結果として、アノテーションの追従の精度低下を招くことを避けることが可能となる。
(3次元画像のプレビュー表示)
例えば、ユーザが書き込んだアノテーションが意図した箇所に重畳されているかを、ユーザ自身が確認できるように、3次元画像をプレビュー表示するようにしてもよい。
例えば、ユーザが書き込んだアノテーションが意図した箇所に重畳されているかを、ユーザ自身が確認できるように、3次元画像をプレビュー表示するようにしてもよい。
図22は、3次元画像のプレビュー表示の例を示す図である。
図22の例では、表示装置350の画面全体に、第1の表示領域351が表示されている。図22の例においては、フリーズモードが選択されており、第1の表示領域351には静止画像が表示されているものとする。
さらに、図22の例では、表示装置350の画面右端に、書き込みモードボタン311とフリーズモードボタン312に加え、3次元画像表示ボタン391が表示されている。
第1の表示領域351に表示されている術野画像に対してアノテーションが書き込まれ、かつ、3次元画像表示ボタン391がタッチ操作されると、第1の表示領域351の左下に、3次元情報(3次元表面マップデータ)に基づいた3次元画像392が表示される。
3次元画像392は、ユーザの操作により、被写体の表示される向きや角度が自在に変えられる。図22の例では、3次元画像392において、第1の表示領域351に表示されている静止画像上の指定位置(アノテーションが書き込まれた位置)に対応する位置に、アノテーションが重畳されている。
このようにして、アノテーションが重畳された3次元画像392が表示されることで、ユーザは、ユーザ自身が書き込んだアノテーションが意図した箇所に重畳されているかを、容易に確認することができるようになる。
(アノテーションの書き込み手法)
以上においては、アノテーションの書き込み(指定位置の指定)は、タッチパネル機能を備える表示装置に対するタッチ操作により実現されるものとしたが、これ以外の手法により実現されるようにしてもよい。
以上においては、アノテーションの書き込み(指定位置の指定)は、タッチパネル機能を備える表示装置に対するタッチ操作により実現されるものとしたが、これ以外の手法により実現されるようにしてもよい。
例えば、画面上でアノテーションを書き込む座標位置を、マウスを用いて入力するようにしてもよいし、画面内に映る鉗子などの術具により指示された領域を画像認識して、その座標位置を取得するようにしてもよい。
さらに、音声によってアノテーションの書き込みを指示するようにしてもよいし、ユーザの視線や体の向きによってアノテーションの書き込みを指示するようにしてもよい。
また、アノテーションの書き込みの指示は、画面上の座標位置を直接指定する手法に限られない。
例えば、領域を指定するアノテーションの書き込みを指示する場合、図23左に示されるように、指定したいがん領域411を枠E1で囲うことで、がん領域411の境界が自動で認識されるようにする。そして、図23右に示されるように、がん領域411を表すアノテーション412が表示されるようにする。
また、3次元表面マップデータに対して、臓器毎にセグメンテーションを行い、その臓器表面にマスキングを施すことで、アノテーションの書き込みができないようにしてもよい。
本実施の形態の手術支援システムにおいて、アノテーションが書き込まれる臓器には、個々の内臓、血管、腫瘍、リンパ系、神経、脂肪組織、腹壁、出血領域や変色領域などが含まれる。したがって、アノテーションの書き込みは、これら臓器の把持位置や穿刺箇所の表示などにも利用できる。
(アノテーションの表示例)
アノテーションは、画面上でユーザに指定された点(指定位置)を示す点画像であってもよいし、点の集合である線を示す線画像であってもよい。ここでいう線には、2点を結ぶ線分、複数の線分からなる折れ線、ユーザにより描かれた曲線、閉じた折れ線や閉じた曲線が含まれる。また、アノテーションは、閉じた折れ線や閉じた曲線で囲まれた領域を示す面画像であってもよい。面画像には、例えば臓器の表面領域だけでなく、体積をもった領域を表現する幾何パターンが含まれる。
アノテーションは、画面上でユーザに指定された点(指定位置)を示す点画像であってもよいし、点の集合である線を示す線画像であってもよい。ここでいう線には、2点を結ぶ線分、複数の線分からなる折れ線、ユーザにより描かれた曲線、閉じた折れ線や閉じた曲線が含まれる。また、アノテーションは、閉じた折れ線や閉じた曲線で囲まれた領域を示す面画像であってもよい。面画像には、例えば臓器の表面領域だけでなく、体積をもった領域を表現する幾何パターンが含まれる。
このように、アノテーションは、その用途に応じた表示態様を採ることができる。
さらに、3次元表面マップデータ(3次元情報)を用いることで、術野画像に映る臓器表面の位置や領域に加え、その奥行き方向の位置や領域(立体領域)を示すアノテーションが書き込まれる(重畳される)ようにしてもよい。これらの位置や領域にはそれぞれ3次元情報が対応付けられているので、点間の距離や、領域の面積・体積が、臓器に直接触れることなく仮想的に算出することができる。
例えば、図24の例では、術野画像に映る臓器表面の点画像421,422を結ぶ線画像と、面画像423が、アノテーションとして術野画像上に重畳されている。図24の例では、点画像421と点画像422との間の距離は42mmと算出され、面画像423の面積は200mm2と算出されている。
なお、図24に示されるように、面画像423の境界から所定距離(例えば12mm)だけ離れて面画像423を囲う閉曲線424が、アノテーションとして術野画像上に重畳されるようにしてもよい。
また、図25の例では、術野画像に映る臓器表面の領域431の奥行き方向で体積をもった立体画像432と、領域431上の点画像433が、アノテーションとして術野画像上に重畳されている。図25の例では、立体画像432の体積は32526mm3と算出され、点画像433と立体画像432との距離は25mmと算出されている。
さらに、内視鏡11の観察光学系からの距離に応じて、アノテーションとして表示される点画像や面画像の色や濃度を変えることで遠近感をもたせ、ユーザに、アノテーションの3次元的な位置を直感的に把握させるようにしてもよい。
また、以上においては、1つの表示領域(第1の表示領域151)に表示される術野画像に1人のユーザ(例えば指導医)がアノテーションを書き込む例について説明した。これに限らず、1つの表示領域に表示される術野画像に複数の指導医がアノテーションを書き込むようにしてもよい。また、複数の指導医毎に表示領域を設け、それぞれの表示領域に表示される術野画像に、指導医それぞれがアノテーションを書き込むようにしてもよい。
この場合、アノテーションを書き込んだ指導医(術野画像上で指定位置を指定したユーザ)毎に色や形状を変えるなど、異なる表示態様のアノテーションが重畳されるようにしてもよい。例えば、図26に示されるように、第1の指導医により書き込まれたアノテーション331−1は実線で表示され、第2の指導医により書き込まれたアノテーション331−2は点線で表示されるようにする。
これにより、術野画像上に重畳されたアノテーションが、誰によって書き込まれたものであるかを判別できるようになる。
また、上述した例において、複数のユーザによって書き込まれたアノテーションのうち、特定のユーザにより書き込まれたアノテーションをリセット(消去)できるようにしてもよい。
さらに、術野画像に、他のモダリティ(CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置などの医用画像を撮影する装置)で取得された画像や3次元情報を重ね合わせるようにしてもよい。これにより、アノテーションを、あたかも臓器の内部に書き込まれているように表示することができる。
加えて、アノテーションの書き込みの起点となる位置に、その部位に関する各種の情報を表示させるようにすることで、あとでその部位を確認したユーザ自身や他のユーザに対して、有用な情報を提示したり注意を促すことが可能となる。
(記録された術野画像に対するアノテーションの書き込み)
以上においては、センシング部110により撮像された、リアルタイムに表示されている術野画像に対してアノテーションを書き込むものとした。これに限らず、センシング部110により撮像された術野画像を記録し、記録された術野画像に対してアノテーションを書き込むようにしてもよい。このような形態は、医療の教育現場などで活用することができる。
以上においては、センシング部110により撮像された、リアルタイムに表示されている術野画像に対してアノテーションを書き込むものとした。これに限らず、センシング部110により撮像された術野画像を記録し、記録された術野画像に対してアノテーションを書き込むようにしてもよい。このような形態は、医療の教育現場などで活用することができる。
(絶対的な3次元情報の取得)
本実施の形態においては、動き推定によるカメラ位置・姿勢の結果、相対的な3次元情報が得られるが、観察対象となる患者の体腔外を基準とした絶対的な3次元情報が得られるようにしてもよい。具体的には、患者の体腔外に基準座標系をもつ光学式・磁気式で画像認識機能を備えるトラッキングシステムを内視鏡11に設け、その座標系を基準とすることで、絶対的な3次元情報が得られるようにする。これにより、絶対的なアノテーションの3次元位置を提示させることができる。
本実施の形態においては、動き推定によるカメラ位置・姿勢の結果、相対的な3次元情報が得られるが、観察対象となる患者の体腔外を基準とした絶対的な3次元情報が得られるようにしてもよい。具体的には、患者の体腔外に基準座標系をもつ光学式・磁気式で画像認識機能を備えるトラッキングシステムを内視鏡11に設け、その座標系を基準とすることで、絶対的な3次元情報が得られるようにする。これにより、絶対的なアノテーションの3次元位置を提示させることができる。
(機械学習の利用)
近年、機械学習やディープラーニングなどのAIを用いて腫瘍などの自動検出を行うことが可能になってきたが、この検出結果をアノテーションとして用いるようにしてもよい。これにより、術野画像のある1フレームにおいて検出された腫瘍の位置や領域に、アノテーションを常に重畳表示し続けることができる。この場合においても、アノテーションの重畳表示のON/OFFが切り替えられるようにすることで、アノテーションの表示自体が手術の進行の妨げにならないようにすることができる。
近年、機械学習やディープラーニングなどのAIを用いて腫瘍などの自動検出を行うことが可能になってきたが、この検出結果をアノテーションとして用いるようにしてもよい。これにより、術野画像のある1フレームにおいて検出された腫瘍の位置や領域に、アノテーションを常に重畳表示し続けることができる。この場合においても、アノテーションの重畳表示のON/OFFが切り替えられるようにすることで、アノテーションの表示自体が手術の進行の妨げにならないようにすることができる。
<5.適用例>
次に、図27を参照して、本実施の形態に係る手術支援システムの他の適用例として、アームを備えた手術用ビデオ顕微鏡装置が用いられる場合の一例について説明する。
次に、図27を参照して、本実施の形態に係る手術支援システムの他の適用例として、アームを備えた手術用ビデオ顕微鏡装置が用いられる場合の一例について説明する。
図27は、患者の体内を観察する観察用医療機器としての手術用ビデオ顕微鏡装置を用いた顕微鏡手術システムの一例を示している。
図27には、施術者(ユーザ)520である医師が、例えばメス、鑷子、鉗子などの手術用の器具521を使用して、施術台530上の施術対象(患者)540に対して手術を行っている様子が示されている。
なお、以下の説明において、施術とは、手術や検査など、ユーザ520である医師が施術対象540である患者に対して行う各種の医療的な処置の総称であるものとする。また、図27の例では、施術の一例として手術の様子が示されているが、手術用ビデオ顕微鏡装置510が用いられる施術は手術に限定されず、他の各種の施術であってもよい。
施術台530の脇には、本実施の形態に係る手術用ビデオ顕微鏡装置510が設けられる。
手術用ビデオ顕微鏡装置510は、基台であるベース部511、ベース部511から延伸するアーム部512、そして、アーム部512の先端に先端ユニットとして接続される撮像ユニット515を備える。
アーム部512は、複数の関節部513a,513b,513c、関節部513a,513bによって連結される複数のリンク514a,514b、そして、アーム部512の先端に設けられる撮像ユニット515を有する。
図27の例では、簡単のため、アーム部512は3つの関節部513a乃至513cと2つのリンク514a,514bを有している。実際には、アーム部512と撮像ユニット515の位置および姿勢の自由度を考慮して、所望の自由度を実現するように関節部513a乃至513cとリンク514a,514bの数や形状、関節部513a乃至513cの駆動軸の方向などが適宜設定されてもよい。
関節部513a乃至513cは、リンク514a,514bを互いに回動可能に連結する機能を有し、関節部513a乃至513cの回転が駆動されることにより、アーム部512の駆動が制御される。
アーム部512の先端には、先端ユニットとして撮像ユニット515が接続されている。
撮像ユニット515は、被写体の光学像を取得する光学系を含むことで、撮像対象の画像を取得するユニットであり、例えば動画像や静止画像を撮像できるカメラなどとして構成される。図27に示されるように、アーム部512の先端に設けられた撮像ユニット515が、施術対象540の施術部位の様子を撮像するように、手術用ビデオ顕微鏡装置510によってアーム部512と撮像ユニット515の姿勢や位置が制御される。
なお、アーム部512の先端に先端ユニットとして接続される撮像ユニット515の構成は特に限定されず、例えば、撮像ユニット515は、内視鏡や顕微鏡として構成されてもよい。また、撮像ユニット515は、アーム部512に対して着脱可能に構成されてもよい。
このような構成により、例えば、利用用途に応じた撮像ユニット515が、アーム部512の先端に先端ユニットとして適宜接続されてもよい。なお、ここでは、先端ユニットとして撮像ユニット515が適用されている場合に着目して説明するが、アーム部512の先端に接続される先端ユニットは、必ずしも撮像ユニット515に限定されないことは言うまでもない。
また、ユーザ520と対向する位置には、モニタやディスプレイなどの表示装置550が設置される。撮像ユニット515により取得された施術部位の画像は、例えば、手術用ビデオ顕微鏡装置510に内蔵または外付けされた画像処理装置により、各種画像処理が施されたうえで、表示装置550の表示画面に電子画像として表示される。
このような構成により、ユーザ520は、表示装置550の表示画面に表示される施術部位の電子画像を見ながら各種の処置(例えば手術など)を行うことが可能となる。
ここで、図27の例では、撮像ユニット515が、例えば、図3を参照して説明したセンシング部110を含む。また、撮像ユニット515により取得された施術部位の画像に対して、各種画像処理を施す画像処理装置が、図3を参照して説明した情報処理装置130の一例に相当する。同様に、表示装置550が、図3を参照して説明した表示装置150の一例に相当する。
<6.ハードウェア構成>
次に、図28を参照して、本実施の形態に係る手術支援システムを構成する情報処理装置のハードウェア構成の一例について、詳細に説明する。
次に、図28を参照して、本実施の形態に係る手術支援システムを構成する情報処理装置のハードウェア構成の一例について、詳細に説明する。
図28は、本実施の形態に係る手術支援システムを構成する情報処理装置900のハードウェア構成の一例を示すブロック図である。
図28に示されるように、情報処理装置900は、CPU901,ROM903,およびRAM905を備えている。さらに、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インタフェース913、入力装置915、出力装置917、およびストレージ装置919を備えている。なお、情報処理装置900は、ドライブ921、接続ポート923、通信装置925を備えてもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903,RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。
ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータなどを一次記憶する。これらは、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。なお、図3を参照して説明した情報処理装置130の各構成は、例えばCPU901により実現される。
ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。外部バス911には、インタフェース913を介して、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、および通信装置925が接続される。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、レバー、およびペダルなど、ユーザが操作する操作手段である。また、入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、情報処理装置900の操作に対応した携帯電話やPDAなどの外部接続機器929であってもよい。
入力装置915は、例えば、上述した操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。
ユーザは、入力装置915を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。具体的には、出力装置917は、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置、およびランプなどの表示装置や、スピーカおよびヘッドホンなどの音声出力装置、プリンタ装置などとして構成される。
出力装置917は、例えば、情報処理装置900が行った各種の処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキストまたはイメージで表示する。他方、音声出力装置は、再生された音声データや音響データなどからなるオーディオ信号をアナログ信号に変換して出力する。なお、図3を参照して説明した表示装置150は、例えば、出力装置917により実現される。
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。ストレージ装置919は、CPU901が実行するプログラムや各種データなどを格納する。
ドライブ921は、記録媒体用リーダライタであり、情報処理装置900に内蔵されるか、または外付けされる。ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927に記録を書き込むことも可能である。
リムーバブル記録媒体927は、例えば、DVDメディア、HD−DVDメディア、またはBlu−ray(登録商標)メディアなどである。また、リムーバブル記録媒体927は、コンパクトフラッシュ(登録商標)(CF:CompactFlash)、フラッシュメモリ、またはSD(Secure Digital)メモリカードなどであってもよい。さらに、リムーバブル記録媒体927は、例えば、非接触型ICチップを搭載したIC(Integrated Circuit)カード、または電子機器などであってもよい。
接続ポート923は、外部接続機器929を情報処理装置900に直接接続するためのポートである。接続ポート923の一例としては、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどがある。接続ポート923の別の例としては、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどがある。接続ポート923に外部接続機器929を接続することで、情報処理装置900は、外部接続機器929から直接各種のデータを取得したり、外部接続機器929に各種のデータを提供したりする。
通信装置925は、例えば、通信網(ネットワーク)931に接続するための通信デバイスなどで構成された通信インタフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどである。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または各種通信用のモデムなどであってもよい。
通信装置925は、例えば、インターネットや他の通信機器との間で、例えばTCP/IPなどの所定のプロトコルに則して信号を送受信することができる。また、通信装置925に接続される通信網931は、有線または無線によって接続されたネットワークなどにより構成されるようにしてもよい。通信網931は、例えば、インターネットや家庭内LANであってもよいし、赤外線通信、ラジオ波通信、または衛星通信が行われる通信網であってもよい。
上述した情報処理装置900の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。したがって、本実施の形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
さらに、本実施の形態に係る手術支援システムを構成する情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータなどに実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体を提供することも可能である。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、コンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
<7.まとめ>
以上のように、本実施の形態の手術支援システムにおいては、第1の表示領域に表示されている術野画像上のユーザにより指定された指定位置に、アノテーションが重畳される。そして、第2の表示領域にリアルタイムに表示されている術野画像上の指定位置に追従して、アノテーションが重畳される。
以上のように、本実施の形態の手術支援システムにおいては、第1の表示領域に表示されている術野画像上のユーザにより指定された指定位置に、アノテーションが重畳される。そして、第2の表示領域にリアルタイムに表示されている術野画像上の指定位置に追従して、アノテーションが重畳される。
これにより、指導医による、第1の表示領域に表示される術野画像に対するアノテーションの書き込みが、執刀医が見ている第2の表示領域に表示される術野画像中に反映されるようになる。
従来、内視鏡下手術や顕微鏡を用いた手術は、画面を介した手術であるため、口頭では、術者同士の間での手技に関わる細かな指示の意思疎通が困難であった。
そこで、本実施の形態の手術支援システムによれば、アノテーションによる仮想的なマーキングにより、指導的な立場にいる指導医や執刀医、助手やコメディカルスタッフとの連携を図ることが可能となる。
また、本実施の形態の手術支援システムによれば、教育目的で術野画像上にマーキングを書き込んだり、録画された術野画像にも後からマーキングを書き込むことができる。
このような仮想的なマーキングによれば、臓器に侵襲的なマーキングを直接書き込んだり、鉗子などを用いて指示したりすることがないので、臓器を傷付けることがない。また、手術の計画を立てる際にも、マーキングを書き込みながら方針を決定したり、そのマーキングが不要になった場合には、再度書き込み直すことが可能となる。
なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、本開示は以下のような構成をとることができる。
(1)
術野画像の2以上の表示領域への表示を制御する表示制御部と、
前記表示領域のうち、第1の表示領域に表示されている前記術野画像上のユーザにより指定された指定位置に、視覚情報を重畳する第1の重畳部と、
前記第1の表示領域とは異なる第2の表示領域にリアルタイムに表示されている前記術野画像上の前記指定位置に追従して、前記視覚情報を重畳する第2の重畳部と
を備える手術支援システム。
(2)
前記表示制御部は、前記ユーザの指示に基づいて、前記第1の表示領域にリアルタイムに表示されている前記術野画像に代えて、前記術野画像の所定の1フレームである静止画像を表示し、
前記第1の重畳部は、前記第1の表示領域に表示されている前記静止画像上の前記ユーザにより指定された前記指定位置に、前記視覚情報を重畳する
(1)に記載の手術支援システム。
(3)
前記第1の重畳部は、前記第1の表示領域にリアルタイムに表示されている前記術野画像上の前記ユーザにより指定された前記指定位置に、前記視覚情報を重畳する
(1)に記載の手術支援システム。
(4)
前記表示制御部は、所定時間分の過去の前記術野画像を、前記第1の表示領域へ表示し、
前記第1の重畳部は、前記第1の表示領域に表示されている過去の前記術野画像上の前記ユーザにより指定された前記指定位置に、前記視覚情報を重畳する
(1)に記載の手術支援システム。
(5)
前記表示制御部は、1つの表示装置において、前記第1の表示領域と前記第2の表示領域をサイドバイサイド表示する
(1)乃至(4)のいずれかに記載の手術支援システム。
(6)
前記表示制御部は、1つの表示装置において、前記第1の表示領域と前記第2の表示領域をピクチャインピクチャ表示する
(1)乃至(4)のいずれかに記載の手術支援システム。
(7)
前記表示制御部は、1つの表示装置において、前記第1の表示領域と前記第2の表示領域を切り替えて表示する
(1)乃至(4)のいずれかに記載の手術支援システム。
(8)
前記表示制御部は、前記第1の表示領域と前記第2の表示領域を、別個の表示装置に表示する
(1)乃至(4)のいずれかに記載の手術支援システム。
(9)
前記表示制御部は、前記ユーザの指示に基づいて、少なくとも前記第2の表示領域に表示されている前記術野画像に重畳された前記視覚情報の表示/非表示を切り替える
(1)乃至(8)のいずれかに記載の手術支援システム。
(10)
前記第1および第2の重畳部は、前記術野画像上で前記指定位置を指定した前記ユーザ毎に異なる表示態様の前記視覚情報を重畳する
(1)乃至(9)のいずれかに記載の手術支援システム。
(11)
前記第1および第2の重畳部は、前記視覚情報として、前記ユーザの操作に応じた点画像、線画像、および面画像の少なくともいずれかを重畳する
(1)乃至(10)のいずれかに記載の手術支援システム。
(12)
前記第1および第2の重畳部は、前記術野画像について構築された3次元情報に基づいて、前記術野画像の奥行き方向の位置を示す前記視覚情報を重畳する
(11)に記載の手術支援システム。
(13)
前記表示制御部は、前記第1の表示領域に表示されている前記術野画像において十分な3次元情報が構築されていない領域にマスキング表示を施す
(1)乃至(12)のいずれかに記載の手術支援システム。
(14)
前記表示制御部は、前記第1の表示領域に表示されている前記術野画像上で前記ユーザにより前記指定位置が指定された場合、前記術野画像上の前記指定位置に対応する位置に前記視覚情報が重畳された3次元画像をプレビュー表示する
(1)乃至(12)のいずれかに記載の手術支援システム。
(15)
前記第2の重畳部は、前記第1の表示領域に表示されている前記術野画像の、十分な3次元情報が構築されていない領域上で前記指定位置が指定された場合、前記第2の表示領域に表示された前記静止画像上に前記視覚情報を重畳しない
(1)乃至(12)のいずれかに記載の手術支援システム。
(16)
前記第1の表示領域に表示されている前記術野画像の、十分な前記3次元情報が構築されていない領域上で前記指定位置が指定された場合、
前記表示制御部は、前記第1の表示領域にリアルタイムに表示されている前記術野画像に代えて、前記術野画像の所定の1フレームである静止画像を表示し、
前記第1の重畳部は、前記第1の表示領域に表示されている前記静止画像上の前記ユーザにより指定された前記指定位置に、前記視覚情報を重畳する
(15)に記載の手術支援システム。
(17)
前記術野画像は、患者の体内を観察する観察用医療機器により撮像された画像である
(1)乃至(16)のいずれかに記載の手術支援システム。
(18)
前記観察用医療機器は、前記患者の体内を被写体として撮像する内視鏡である
(17)に記載の手術支援システム。
(19)
前記観察用医療機器は、被写体の光学像を取得する光学系を含む顕微鏡である
(17)に記載の手術支援システム。
(20)
手術支援システムが、
術野画像の2以上の表示領域への表示を制御し、
前記表示領域のうち、第1の表示領域に表示されている前記術野画像上のユーザにより指定された指定位置に、視覚情報を重畳し、
前記第1の表示領域とは異なる第2の表示領域にリアルタイムに表示されている前記術野画像上の前記指定位置に追従して、前記視覚情報を重畳する
表示方法。
(1)
術野画像の2以上の表示領域への表示を制御する表示制御部と、
前記表示領域のうち、第1の表示領域に表示されている前記術野画像上のユーザにより指定された指定位置に、視覚情報を重畳する第1の重畳部と、
前記第1の表示領域とは異なる第2の表示領域にリアルタイムに表示されている前記術野画像上の前記指定位置に追従して、前記視覚情報を重畳する第2の重畳部と
を備える手術支援システム。
(2)
前記表示制御部は、前記ユーザの指示に基づいて、前記第1の表示領域にリアルタイムに表示されている前記術野画像に代えて、前記術野画像の所定の1フレームである静止画像を表示し、
前記第1の重畳部は、前記第1の表示領域に表示されている前記静止画像上の前記ユーザにより指定された前記指定位置に、前記視覚情報を重畳する
(1)に記載の手術支援システム。
(3)
前記第1の重畳部は、前記第1の表示領域にリアルタイムに表示されている前記術野画像上の前記ユーザにより指定された前記指定位置に、前記視覚情報を重畳する
(1)に記載の手術支援システム。
(4)
前記表示制御部は、所定時間分の過去の前記術野画像を、前記第1の表示領域へ表示し、
前記第1の重畳部は、前記第1の表示領域に表示されている過去の前記術野画像上の前記ユーザにより指定された前記指定位置に、前記視覚情報を重畳する
(1)に記載の手術支援システム。
(5)
前記表示制御部は、1つの表示装置において、前記第1の表示領域と前記第2の表示領域をサイドバイサイド表示する
(1)乃至(4)のいずれかに記載の手術支援システム。
(6)
前記表示制御部は、1つの表示装置において、前記第1の表示領域と前記第2の表示領域をピクチャインピクチャ表示する
(1)乃至(4)のいずれかに記載の手術支援システム。
(7)
前記表示制御部は、1つの表示装置において、前記第1の表示領域と前記第2の表示領域を切り替えて表示する
(1)乃至(4)のいずれかに記載の手術支援システム。
(8)
前記表示制御部は、前記第1の表示領域と前記第2の表示領域を、別個の表示装置に表示する
(1)乃至(4)のいずれかに記載の手術支援システム。
(9)
前記表示制御部は、前記ユーザの指示に基づいて、少なくとも前記第2の表示領域に表示されている前記術野画像に重畳された前記視覚情報の表示/非表示を切り替える
(1)乃至(8)のいずれかに記載の手術支援システム。
(10)
前記第1および第2の重畳部は、前記術野画像上で前記指定位置を指定した前記ユーザ毎に異なる表示態様の前記視覚情報を重畳する
(1)乃至(9)のいずれかに記載の手術支援システム。
(11)
前記第1および第2の重畳部は、前記視覚情報として、前記ユーザの操作に応じた点画像、線画像、および面画像の少なくともいずれかを重畳する
(1)乃至(10)のいずれかに記載の手術支援システム。
(12)
前記第1および第2の重畳部は、前記術野画像について構築された3次元情報に基づいて、前記術野画像の奥行き方向の位置を示す前記視覚情報を重畳する
(11)に記載の手術支援システム。
(13)
前記表示制御部は、前記第1の表示領域に表示されている前記術野画像において十分な3次元情報が構築されていない領域にマスキング表示を施す
(1)乃至(12)のいずれかに記載の手術支援システム。
(14)
前記表示制御部は、前記第1の表示領域に表示されている前記術野画像上で前記ユーザにより前記指定位置が指定された場合、前記術野画像上の前記指定位置に対応する位置に前記視覚情報が重畳された3次元画像をプレビュー表示する
(1)乃至(12)のいずれかに記載の手術支援システム。
(15)
前記第2の重畳部は、前記第1の表示領域に表示されている前記術野画像の、十分な3次元情報が構築されていない領域上で前記指定位置が指定された場合、前記第2の表示領域に表示された前記静止画像上に前記視覚情報を重畳しない
(1)乃至(12)のいずれかに記載の手術支援システム。
(16)
前記第1の表示領域に表示されている前記術野画像の、十分な前記3次元情報が構築されていない領域上で前記指定位置が指定された場合、
前記表示制御部は、前記第1の表示領域にリアルタイムに表示されている前記術野画像に代えて、前記術野画像の所定の1フレームである静止画像を表示し、
前記第1の重畳部は、前記第1の表示領域に表示されている前記静止画像上の前記ユーザにより指定された前記指定位置に、前記視覚情報を重畳する
(15)に記載の手術支援システム。
(17)
前記術野画像は、患者の体内を観察する観察用医療機器により撮像された画像である
(1)乃至(16)のいずれかに記載の手術支援システム。
(18)
前記観察用医療機器は、前記患者の体内を被写体として撮像する内視鏡である
(17)に記載の手術支援システム。
(19)
前記観察用医療機器は、被写体の光学像を取得する光学系を含む顕微鏡である
(17)に記載の手術支援システム。
(20)
手術支援システムが、
術野画像の2以上の表示領域への表示を制御し、
前記表示領域のうち、第1の表示領域に表示されている前記術野画像上のユーザにより指定された指定位置に、視覚情報を重畳し、
前記第1の表示領域とは異なる第2の表示領域にリアルタイムに表示されている前記術野画像上の前記指定位置に追従して、前記視覚情報を重畳する
表示方法。
1 手術支援システム, 11 内視鏡, 13 CCU, 15 表示装置, 100 手術支援システム, 110 センシング部, 130 情報処理装置, 131 画像データ生成部, 132 表示制御部, 133 指定位置算出部, 134 3次元表面マップデータ記憶部, 141 第1の重畳部, 142 第2の重畳部, 150 表示装置, 151 第1の表示領域, 152 第2の表示領域
Claims (20)
- 術野画像の2以上の表示領域への表示を制御する表示制御部と、
前記表示領域のうち、第1の表示領域に表示されている前記術野画像上のユーザにより指定された指定位置に、視覚情報を重畳する第1の重畳部と、
前記第1の表示領域とは異なる第2の表示領域にリアルタイムに表示されている前記術野画像上の前記指定位置に追従して、前記視覚情報を重畳する第2の重畳部と
を備える手術支援システム。 - 前記表示制御部は、前記ユーザの指示に基づいて、前記第1の表示領域にリアルタイムに表示されている前記術野画像に代えて、前記術野画像の所定の1フレームである静止画像を表示し、
前記第1の重畳部は、前記第1の表示領域に表示されている前記静止画像上の前記ユーザにより指定された前記指定位置に、前記視覚情報を重畳する
請求項1に記載の手術支援システム。 - 前記第1の重畳部は、前記第1の表示領域にリアルタイムに表示されている前記術野画像上の前記ユーザにより指定された前記指定位置に、前記視覚情報を重畳する
請求項1に記載の手術支援システム。 - 前記表示制御部は、所定時間分の過去の前記術野画像を、前記第1の表示領域へ表示し、
前記第1の重畳部は、前記第1の表示領域に表示されている過去の前記術野画像上の前記ユーザにより指定された前記指定位置に、前記視覚情報を重畳する
請求項1に記載の手術支援システム。 - 前記表示制御部は、1つの表示装置において、前記第1の表示領域と前記第2の表示領域をサイドバイサイド表示する
請求項1に記載の手術支援システム。 - 前記表示制御部は、1つの表示装置において、前記第1の表示領域と前記第2の表示領域をピクチャインピクチャ表示する
請求項1に記載の手術支援システム。 - 前記表示制御部は、1つの表示装置において、前記第1の表示領域と前記第2の表示領域を切り替えて表示する
請求項1に記載の手術支援システム。 - 前記表示制御部は、前記第1の表示領域と前記第2の表示領域を、別個の表示装置に表示する
請求項1に記載の手術支援システム。 - 前記表示制御部は、前記ユーザの指示に基づいて、少なくとも前記第2の表示領域に表示されている前記術野画像に重畳された前記視覚情報の表示/非表示を切り替える
請求項1に記載の手術支援システム。 - 前記第1および第2の重畳部は、前記術野画像上で前記指定位置を指定した前記ユーザ毎に異なる表示態様の前記視覚情報を重畳する
請求項1に記載の手術支援システム。 - 前記第1および第2の重畳部は、前記視覚情報として、前記ユーザの操作に応じた点画像、線画像、および面画像の少なくともいずれかを重畳する
請求項1に記載の手術支援システム。 - 前記第1および第2の重畳部は、前記術野画像について構築された3次元情報に基づいて、前記術野画像の奥行き方向の位置を示す前記視覚情報を重畳する
請求項11に記載の手術支援システム。 - 前記表示制御部は、前記第1の表示領域に表示されている前記術野画像において十分な3次元情報が構築されていない領域にマスキング表示を施す
請求項1に記載の手術支援システム。 - 前記表示制御部は、前記第1の表示領域に表示されている前記術野画像上で前記ユーザにより前記指定位置が指定された場合、前記術野画像上の前記指定位置に対応する位置に前記視覚情報が重畳された3次元画像をプレビュー表示する
請求項1に記載の手術支援システム。 - 前記第2の重畳部は、前記第1の表示領域に表示されている前記術野画像の、十分な3次元情報が構築されていない領域上で前記指定位置が指定された場合、前記第2の表示領域に表示された前記静止画像上に前記視覚情報を重畳しない
請求項1に記載の手術支援システム。 - 前記第1の表示領域に表示されている前記術野画像の、十分な前記3次元情報が構築されていない領域上で前記指定位置が指定された場合、
前記表示制御部は、前記第1の表示領域にリアルタイムに表示されている前記術野画像に代えて、前記術野画像の所定の1フレームである静止画像を表示し、
前記第1の重畳部は、前記第1の表示領域に表示されている前記静止画像上の前記ユーザにより指定された前記指定位置に、前記視覚情報を重畳する
請求項15に記載の手術支援システム。 - 前記術野画像は、患者の体内を観察する観察用医療機器により撮像された画像である
請求項1に記載の手術支援システム。 - 前記観察用医療機器は、前記患者の体内を被写体として撮像する内視鏡である
請求項17に記載の手術支援システム。 - 前記観察用医療機器は、被写体の光学像を取得する光学系を含む顕微鏡である
請求項17に記載の手術支援システム。 - 手術支援システムが、
術野画像の2以上の表示領域への表示を制御し、
前記表示領域のうち、第1の表示領域に表示されている前記術野画像上のユーザにより指定された指定位置に、視覚情報を重畳し、
前記第1の表示領域とは異なる第2の表示領域にリアルタイムに表示されている前記術野画像上の前記指定位置に追従して、前記視覚情報を重畳する
表示方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018052776A JP2019162339A (ja) | 2018-03-20 | 2018-03-20 | 手術支援システムおよび表示方法 |
EP19715240.8A EP3768140A1 (en) | 2018-03-20 | 2019-03-12 | Surgical assistance apparatus, surgical method, non-transitory computer readable medium and surgical assistance system |
PCT/JP2019/009863 WO2019181632A1 (en) | 2018-03-20 | 2019-03-12 | Surgical assistance apparatus, surgical method, non-transitory computer readable medium and surgical assistance system |
CN201980018841.6A CN111867438A (zh) | 2018-03-20 | 2019-03-12 | 手术辅助设备、手术方法、非暂时性计算机可读介质和手术辅助系统 |
US16/982,048 US20210015343A1 (en) | 2018-03-20 | 2019-03-12 | Surgical assistance apparatus, surgical method, non-transitory computer readable medium and surgical assistance system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018052776A JP2019162339A (ja) | 2018-03-20 | 2018-03-20 | 手術支援システムおよび表示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019162339A true JP2019162339A (ja) | 2019-09-26 |
Family
ID=66001278
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018052776A Pending JP2019162339A (ja) | 2018-03-20 | 2018-03-20 | 手術支援システムおよび表示方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210015343A1 (ja) |
EP (1) | EP3768140A1 (ja) |
JP (1) | JP2019162339A (ja) |
CN (1) | CN111867438A (ja) |
WO (1) | WO2019181632A1 (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021153797A1 (ja) * | 2020-01-30 | 2021-08-05 | ||
WO2022045202A1 (ja) * | 2020-08-31 | 2022-03-03 | グローリー株式会社 | 画像処理装置、画像処理システム、アノテーション付与方法、学習済みモデルの製造方法、学習済みモデル、およびプログラム |
JP7031925B1 (ja) * | 2020-07-30 | 2022-03-08 | アナウト株式会社 | コンピュータプログラム、手術支援装置、及び情報処理方法 |
WO2023145503A1 (ja) * | 2022-01-31 | 2023-08-03 | ソニーグループ株式会社 | 医療用情報処理システム、医療用情報処理方法、及びプログラム |
WO2023152829A1 (ja) * | 2022-02-09 | 2023-08-17 | リバーフィールド株式会社 | 支援システム、支援装置、被支援装置 |
WO2023152830A1 (ja) * | 2022-02-09 | 2023-08-17 | リバーフィールド株式会社 | 支援システム、支援装置、被支援装置 |
WO2024047696A1 (ja) * | 2022-08-29 | 2024-03-07 | 株式会社endov | 情報処理システム、情報処理方法及びプログラム |
WO2024090228A1 (ja) * | 2022-10-26 | 2024-05-02 | 伊知朗 竹政 | 情報処理装置、情報処理システム及び情報処理プログラム |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11544843B2 (en) * | 2019-04-26 | 2023-01-03 | California Institute Of Technology | Tracking biological objects over time and space |
US11189375B1 (en) * | 2020-05-27 | 2021-11-30 | GE Precision Healthcare LLC | Methods and systems for a medical image annotation tool |
US20220354613A1 (en) * | 2021-02-23 | 2022-11-10 | Asensus Surgical Us, Inc. | Creating Surgical Annotations Using Anatomy Identification |
US20230148835A1 (en) * | 2021-11-17 | 2023-05-18 | Cilag Gmbh International | Surgical visualization system with field of view windowing |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100004539A1 (en) * | 2008-07-02 | 2010-01-07 | U-Systems, Inc. | User interface for ultrasound mammographic imaging |
JP2012529970A (ja) * | 2009-06-16 | 2012-11-29 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 低侵襲手術のための仮想測定ツール |
US20130211232A1 (en) * | 2012-02-01 | 2013-08-15 | The Johns Hopkins University | Arthroscopic Surgical Planning and Execution with 3D Imaging |
US20150241685A1 (en) * | 2014-02-25 | 2015-08-27 | Carl Zeiss Meditec Ag | Microscope system and microscopy method using digital markers |
US20150269229A1 (en) * | 2014-03-18 | 2015-09-24 | Nurep, Inc. | Virtual Pointer and Annotations Through Real Time Communications |
US20160210411A1 (en) * | 2015-01-16 | 2016-07-21 | University Of Maryland Baltmore County | Annotation of endoscopic video using gesture and voice commands |
US20160212370A1 (en) * | 2015-01-21 | 2016-07-21 | Austin S. Lee | Communication System |
US20170105701A1 (en) * | 2015-10-19 | 2017-04-20 | Clarius Mobile Health Corp. | Systems and methods for remote graphical feedback of ultrasound scanning technique |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08107875A (ja) * | 1994-08-18 | 1996-04-30 | Olympus Optical Co Ltd | 内視鏡形状検出装置 |
JPH10192A (ja) * | 1996-04-15 | 1998-01-06 | Olympus Optical Co Ltd | 超音波画像診断装置 |
US8989349B2 (en) * | 2004-09-30 | 2015-03-24 | Accuray, Inc. | Dynamic tracking of moving targets |
JP5380348B2 (ja) * | 2010-03-31 | 2014-01-08 | 富士フイルム株式会社 | 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム |
US9710730B2 (en) * | 2011-02-11 | 2017-07-18 | Microsoft Technology Licensing, Llc | Image registration |
JP2013017638A (ja) * | 2011-07-11 | 2013-01-31 | Olympus Corp | 画像処理装置、内視鏡装置及びプログラム |
JP2013202313A (ja) * | 2012-03-29 | 2013-10-07 | Panasonic Corp | 手術支援装置および手術支援プログラム |
JP5629023B2 (ja) | 2012-05-30 | 2014-11-19 | オリンパスメディカルシステムズ株式会社 | 医療用3次元観察装置 |
EP2910173A4 (en) * | 2012-10-18 | 2016-06-01 | Olympus Corp | IMAGE PROCESSING DEVICE AND METHOD |
-
2018
- 2018-03-20 JP JP2018052776A patent/JP2019162339A/ja active Pending
-
2019
- 2019-03-12 WO PCT/JP2019/009863 patent/WO2019181632A1/en unknown
- 2019-03-12 CN CN201980018841.6A patent/CN111867438A/zh active Pending
- 2019-03-12 EP EP19715240.8A patent/EP3768140A1/en active Pending
- 2019-03-12 US US16/982,048 patent/US20210015343A1/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100004539A1 (en) * | 2008-07-02 | 2010-01-07 | U-Systems, Inc. | User interface for ultrasound mammographic imaging |
JP2012529970A (ja) * | 2009-06-16 | 2012-11-29 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 低侵襲手術のための仮想測定ツール |
US20130211232A1 (en) * | 2012-02-01 | 2013-08-15 | The Johns Hopkins University | Arthroscopic Surgical Planning and Execution with 3D Imaging |
US20150241685A1 (en) * | 2014-02-25 | 2015-08-27 | Carl Zeiss Meditec Ag | Microscope system and microscopy method using digital markers |
US20150269229A1 (en) * | 2014-03-18 | 2015-09-24 | Nurep, Inc. | Virtual Pointer and Annotations Through Real Time Communications |
US20160210411A1 (en) * | 2015-01-16 | 2016-07-21 | University Of Maryland Baltmore County | Annotation of endoscopic video using gesture and voice commands |
US20160212370A1 (en) * | 2015-01-21 | 2016-07-21 | Austin S. Lee | Communication System |
US20170105701A1 (en) * | 2015-10-19 | 2017-04-20 | Clarius Mobile Health Corp. | Systems and methods for remote graphical feedback of ultrasound scanning technique |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021153797A1 (ja) * | 2020-01-30 | 2021-08-05 | ||
JP7153974B2 (ja) | 2020-01-30 | 2022-10-17 | アナウト株式会社 | コンピュータプログラム、学習モデルの生成方法、及び画像処理装置 |
JP7031925B1 (ja) * | 2020-07-30 | 2022-03-08 | アナウト株式会社 | コンピュータプログラム、手術支援装置、及び情報処理方法 |
WO2022045202A1 (ja) * | 2020-08-31 | 2022-03-03 | グローリー株式会社 | 画像処理装置、画像処理システム、アノテーション付与方法、学習済みモデルの製造方法、学習済みモデル、およびプログラム |
WO2023145503A1 (ja) * | 2022-01-31 | 2023-08-03 | ソニーグループ株式会社 | 医療用情報処理システム、医療用情報処理方法、及びプログラム |
WO2023152829A1 (ja) * | 2022-02-09 | 2023-08-17 | リバーフィールド株式会社 | 支援システム、支援装置、被支援装置 |
WO2023152830A1 (ja) * | 2022-02-09 | 2023-08-17 | リバーフィールド株式会社 | 支援システム、支援装置、被支援装置 |
JP7393842B1 (ja) | 2022-02-09 | 2023-12-07 | リバーフィールド株式会社 | 支援システム、支援装置、被支援装置 |
JP7401157B1 (ja) | 2022-02-09 | 2023-12-19 | リバーフィールド株式会社 | 支援システム、支援装置、被支援装置 |
WO2024047696A1 (ja) * | 2022-08-29 | 2024-03-07 | 株式会社endov | 情報処理システム、情報処理方法及びプログラム |
WO2024090228A1 (ja) * | 2022-10-26 | 2024-05-02 | 伊知朗 竹政 | 情報処理装置、情報処理システム及び情報処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20210015343A1 (en) | 2021-01-21 |
EP3768140A1 (en) | 2021-01-27 |
WO2019181632A1 (en) | 2019-09-26 |
CN111867438A (zh) | 2020-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019162339A (ja) | 手術支援システムおよび表示方法 | |
US20220331052A1 (en) | Cooperation among multiple display systems to provide a healthcare user customized information | |
US11583349B2 (en) | Systems and methods for projecting an endoscopic image to a three-dimensional volume | |
JP5380348B2 (ja) | 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム | |
JP2019517291A (ja) | 内視鏡画像及び超音波画像の画像ベースの融合 | |
JP7188970B2 (ja) | ロボット手術支援装置、ロボット手術支援装置の作動方法、及びプログラム | |
KR20140112207A (ko) | 증강현실 영상 표시 시스템 및 이를 포함하는 수술 로봇 시스템 | |
US20210315637A1 (en) | Robotically-assisted surgical system, robotically-assisted surgical method, and computer-readable medium | |
KR20140139840A (ko) | 디스플레이 장치 및 그 제어방법 | |
WO2019155931A1 (ja) | 手術システム、画像処理装置及び画像処理方法 | |
US20120143045A1 (en) | Method for image support in the navigation of a medical instrument and medical examination device | |
US20220215539A1 (en) | Composite medical imaging systems and methods | |
CN111801704A (zh) | 用于使用血管特征检测异常组织的系统和方法 | |
JP2002253480A (ja) | 医療処置補助装置 | |
US20210298848A1 (en) | Robotically-assisted surgical device, surgical robot, robotically-assisted surgical method, and system | |
JP2005021353A (ja) | 手術支援装置 | |
JP7182126B2 (ja) | ロボット手術支援装置、ロボット手術支援方法、及びプログラム | |
JP7152240B2 (ja) | ロボット手術支援装置、ロボット手術支援方法、及びプログラム | |
US20220409300A1 (en) | Systems and methods for providing surgical assistance based on operational context | |
JP7495242B2 (ja) | 医用画像診断装置、手術支援ロボット装置、手術支援ロボット用制御装置及び制御プログラム | |
JP2024513992A (ja) | 組織貫通外科用デバイスのチャネルの外に展開可能なカメラアレイを備えるシステム | |
US11850004B2 (en) | Systems and methods for determining an arrangement of explanted tissue and for displaying tissue information | |
JP7414611B2 (ja) | ロボット手術支援装置、処理方法、及びプログラム | |
JP7354608B2 (ja) | 医療用観察システム、医療用観察方法、および情報処理装置 | |
CN117479896A (zh) | 包括可在组织穿透外科装置的通道外展开的相机阵列的系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220411 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220517 |