JP2022020592A - 医療用アーム制御システム、医療用アーム制御方法、及びプログラム - Google Patents

医療用アーム制御システム、医療用アーム制御方法、及びプログラム Download PDF

Info

Publication number
JP2022020592A
JP2022020592A JP2021118581A JP2021118581A JP2022020592A JP 2022020592 A JP2022020592 A JP 2022020592A JP 2021118581 A JP2021118581 A JP 2021118581A JP 2021118581 A JP2021118581 A JP 2021118581A JP 2022020592 A JP2022020592 A JP 2022020592A
Authority
JP
Japan
Prior art keywords
unit
information
medical arm
medical
simulation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021118581A
Other languages
English (en)
Inventor
優 薄井
Masaru Usui
隆志 鬼頭
Takashi Kito
康宏 松田
Yasuhiro Matsuda
和仁 若菜
Kazuhito Wakana
景 戸松
Akira Tomatsu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of JP2022020592A publication Critical patent/JP2022020592A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/00149Holding or positioning arrangements using articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/32Surgical robots operating autonomously
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2059Mechanical position encoders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/061Measuring instruments not otherwise provided for for measuring dimensions, e.g. length

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Robotics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Gynecology & Obstetrics (AREA)
  • Endoscopes (AREA)
  • Manipulator (AREA)

Abstract

【課題】様々な体内環境に適した、ロボットアーム装置のための自律動作制御情報をリアルタイムで生成することが可能な医療用アーム制御システムを提供する。【解決手段】外部入力情報に基づいて、医療用アームを自律的に動作させるための自律動作制御情報を生成する制御情報生成部と、前記医療用アームの動作シミュレーションを行うシミュレーション部と、前記医療用アームの動作シミュレーションの結果に基づき、前記自律動作制御情報をリアルタイムで修正する修正部とを備える、医療用アーム制御システムを提供する。【選択図】図7

Description

本開示は、医療用アーム制御システム、医療用アーム制御方法、及びプログラムに関する。
近年、内視鏡手術においては、内視鏡を用いて患者の腹腔内を撮像し、内視鏡が撮像する撮像画像をディスプレイに表示しながら手術が行われている。例えば、下記特許文献1には、内視鏡を支持するアームの制御と、内視鏡の電子ズームの制御とを連動させる技術が開示されている。
国際公開第2017/145475号
ところで、近年、医療用観察システムにおいては、内視鏡を支持するロボットアーム装置を自律的に動作させるための開発が進められている。例えば、ロボットアーム装置が術中の内視鏡の移動(スコープワーク)を自律的に制御し、その環境下で、術者が術具を用いた手技を行えるようにする試みなどがある。
しかしながら、患者ごとに体内環境の状態が異なることから、自律動作を行うために事前に複数症例の学習を行っていたとしても、実際の手術において未知の環境が存在することは避けられない。
そこで、本開示では、様々な体内環境に適した、ロボットアーム装置のための自律動作制御情報をリアルタイムで生成することが可能な医療用アーム制御システム、医療用アーム制御方法、及びプログラムを提案する。
本開示によれば、外部入力情報に基づいて、医療用アームを自律的に動作させるための自律動作制御情報を生成する制御情報生成部と、前記医療用アームの動作シミュレーションを行うシミュレーション部と、前記医療用アームの動作シミュレーションの結果に基づき、前記自律動作制御情報をリアルタイムで修正する修正部と、を備える、医療用アーム制御システムが提供される。
また、本開示によれば、医療用アーム制御装置により、外部入力情報に基づいて、医療用アームを自律的に動作させるための自律動作制御情報を生成し、前記医療用アームの動作シミュレーションを行い、前記医療用アームの動作シミュレーションの結果に基づき、前記自律動作制御情報をリアルタイムで修正する、ことを含む、医療用アーム制御方法が提供される。
さらに、本開示によれば、コンピュータを、外部入力情報に基づいて、医療用アームを自律的に動作させるための自律動作制御情報を生成する制御情報生成部と、前記医療用アームの動作シミュレーションを行うシミュレーション部と、前記医療用アームの動作シミュレーションの結果に基づき、前記自律動作制御情報をリアルタイムで修正する修正部と、として機能させる、プログラムが提供される。
本開示に係る技術が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。 図1に示すカメラヘッド及びCCU(Camera Control Unit)の機能構成の一例を示すブロック図である。 本開示の実施形態に係る斜視鏡の構成を示す模式図である。 本開示の実施形態に係る医療用観察システムの構成の一例を示すブロック図である。 本開示の実施形態に係る学習モデル生成ユニットの構成の一例を示すブロック図である。 本開示の実施形態に係る学習モデル生成段階での制御方法のフローチャートである。 本開示の実施形態に係る自律動作実行ユニットの構成の一例を示すブロック図である。 本開示の実施形態に係る提示装置の構成の一例を示すブロック図である。 本開示の実施形態に係る自律動作実行段階での制御方法のフローチャート(その1)である。 図9に示すステップS200のサブフローチャートである。 本開示の実施形態に係る制御方法の詳細を説明するための説明図(その1)である。 本開示の実施形態に係る制御方法の詳細を説明するための説明図(その2)である。 本開示の実施形態に係る制御方法の詳細を説明するための説明図(その3)である。 本開示の実施形態に係る制御方法の詳細を説明するための説明図(その4)である。 本開示の実施形態に係る制御方法の詳細を説明するための説明図(その5)である。 本開示の実施形態に係る制御方法の詳細を説明するための説明図(その6)である。 本開示の実施形態に係る制御方法の詳細を説明するための説明図(その7)である。 本開示の実施形態に係る制御方法の詳細を説明するための説明図(その8)である。 本開示の実施形態に係る制御方法の詳細を説明するための説明図(その9)である。 本開示の実施形態に係る制御方法の詳細を説明するための説明図(その10)である。 図9に示すステップS300のサブフローチャートである。 本開示の実施形態に係る制御方法の詳細を説明するための説明図(その11)である。 本開示の実施形態に係る制御方法の詳細を説明するための説明図(その12)である。 本開示の実施形態に係る制御方法の詳細を説明するための説明図(その13)である。 本開示の実施形態に係る制御方法の詳細を説明するための説明図(その14)である。 本開示の実施形態に係る自律動作実行段階での制御方法のフローチャート(その2)である。 本開示の実施形態に係る制御方法の詳細を説明するための説明図(その15)である。 本開示の実施形態に係る自律動作実行ユニットの機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。また、本明細書及び図面において、実質的に同一又は類似の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、実質的に同一又は類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
なお、説明は以下の順序で行うものとする。
1. 内視鏡手術システム5000の構成例
1.1 内視鏡手術システム5000の概略的な構成
1.2 支持アーム装置5027の詳細構成例
1.3 光源装置5043の詳細構成例
1.4 カメラヘッド5005及びCCU5039の詳細構成例
1.5 内視鏡5001の構成例
2. 医療用観察システム
3. 本開示の実施形態を創作するに至る背景
4. 実施形態
4.1 学習モデル生成ユニット100の詳細構成例
4.2 学習モデル生成段階での制御方法
4.3 自律動作実行ユニット200の詳細構成例
4.4 自律動作実行段階での制御方法
4.5 変形例
5. ハードウェア構成
6. 補足
<<1. 内視鏡手術システム5000の構成例>>
<1.1 内視鏡手術システム5000の概略的な構成>
まず、本開示の実施形態の詳細を説明する前に、図1を参照して、本開示に係る技術が適用され得る内視鏡手術システム5000の概略的な構成について説明する。図1は、本開示に係る技術が適用され得る内視鏡手術システム5000の概略的な構成の一例を示す図である。図1では、術者(医師)5067が、内視鏡手術システム5000を用いて、患者ベッド5069上の患者5071に手術を行っている様子が図示されている。図1に示すように、内視鏡手術システム5000は、内視鏡5001と、その他の術具5017と、内視鏡5001を支持する支持アーム装置5027と、内視鏡下手術のための各種の装置が搭載されたカート5037とを有する。以下、内視鏡手術システム5000の詳細について、順次説明する。
(術具5017)
内視鏡手術では、腹壁を切って開腹する代わりに、例えば、トロッカ5025a~5025dと呼ばれる筒状の開孔器具が腹壁に複数穿刺される。そして、トロッカ5025a~5025dから、内視鏡5001の鏡筒5003や、その他の術具5017が患者5071の体腔内に挿入される。図1に示す例では、その他の術具5017として、気腹チューブ5019、エネルギー処置具5021及び鉗子5023が、患者5071の体腔内に挿入されている。また、エネルギー処置具5021は、高周波電流や超音波振動により、組織の切開及び剥離、又は血管の封止等を行う処置具である。ただし、図1に示す術具5017はあくまで一例であり、術具5017としては、例えば攝子、レトラクタ等、一般的に内視鏡下手術において用いられる各種の術具を挙げることができる。
(支持アーム装置5027)
支持アーム装置5027は、ベース部5029から延伸するアーム部5031を有する。図1に示す例では、アーム部5031は、関節部5033a、5033b、5033c、及びリンク5035a、5035bから構成されており、アーム制御装置5045からの制御により駆動される。そして、アーム部5031によって内視鏡5001が支持され、内視鏡5001の位置及び姿勢が制御される。これにより、内視鏡5001の安定的な位置の固定が実現され得る。
(内視鏡5001)
内視鏡5001は、先端から所定の長さの領域が患者5071の体腔内に挿入される鏡筒5003と、鏡筒5003の基端に接続されるカメラヘッド5005とから構成される。図1に示す例では、硬性の鏡筒5003を有するいわゆる硬性鏡として構成される内視鏡5001を図示しているが、内視鏡5001は、軟性の鏡筒5003を有するいわゆる軟性鏡として構成されてもよく、本開示の実施形態においては、特に限定されるものではない。
鏡筒5003の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡5001には光源装置5043が接続されており、当該光源装置5043によって生成された光が、鏡筒5003の内部に延設されるライトガイドによって当該鏡筒の先端まで導かれ、対物レンズを介して患者5071の体腔内の観察対象に向かって照射される。なお、本開示の実施形態においては、内視鏡5001は、前方直視鏡であってもよいし、斜視鏡であってもよく、特に限定されるものではない。
カメラヘッド5005の内部には光学系及び受光素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該受光素子に集光される。当該受光素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画素信号が生成される。当該画素信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)5039に送信される。なお、カメラヘッド5005には、その光学系を適宜駆動させることにより、倍率及び焦点距離を調整する機能が搭載される。
なお、例えば立体視(3D表示)等に対応するために、カメラヘッド5005には受光素子が複数設けられてもよい。この場合、鏡筒5003の内部には、当該複数の受光素子のそれぞれに観察光を導光するために、リレー光学系が複数系統設けられることとなる。
(カートに搭載される各種の装置について)
まず、表示装置5041は、CCU5039からの制御により、当該CCU5039によって画素信号に対して画像処理が施されて生成された画像信号に基づく画像を表示する。内視鏡5001が、例えば4K(水平画素数3840×垂直画素数2160)又は8K(水平画素数7680×垂直画素数4320)等の高解像度の撮影に対応したものである場合、及び/又は、3D表示に対応したものである場合には、表示装置5041として、それぞれに対応する、高解像度の表示が可能なもの、及び/又は、3D表示可能なものが用いられる。また、用途に応じて、解像度、サイズが異なる複数の表示装置5041が設けられていてもよい。
また、内視鏡5001によって撮影された患者5071の体腔内の術部の画像は、当該表示装置5041に表示される。術者5067は、表示装置5041に表示された術部の画像をリアルタイムで見ながら、エネルギー処置具5021や鉗子5023を用いて、例えば患部を切除する等の処置を行うことができる。なお、図示を省略しているが、気腹チューブ5019、エネルギー処置具5021及び鉗子5023は、手術中に、術者5067又は助手等によって支持されてもよい。
また、CCU5039は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡5001及び表示装置5041の動作を統括的に制御することができる。具体的には、CCU5039は、カメラヘッド5005から受け取った画素信号に対して、例えば現像処理(デモザイク処理)等の、当該画素信号に基づく画像を表示するための各種の画像処理を施す。さらに、CCU5039は、当該画像処理を施して生成された画像信号を表示装置5041に提供する。また、CCU5039は、カメラヘッド5005に対して制御信号を送信し、その駆動を制御する。当該制御信号は、倍率や焦点距離等、撮像条件に関する情報を含むことができる。
光源装置5043は、例えばLED(Light Emitting Diode)等の光源から構成され、術部を撮影する際の照射光を内視鏡5001に供給する。
アーム制御装置5045は、例えばCPU等のプロセッサによって構成され、所定のプログラムに従って動作することにより、所定の制御方式に従って支持アーム装置5027のアーム部5031の駆動を制御する。
入力装置5047は、内視鏡手術システム5000に対する入力インターフェイスである。術者5067は、入力装置5047を介して、内視鏡手術システム5000に対して各種の情報の入力や指示入力を行うことができる。例えば、術者5067は、入力装置5047を介して、患者の身体情報や、手術の術式についての情報等、手術に関する各種の情報を入力する。また、例えば、術者5067は、入力装置5047を介して、アーム部5031を駆動させる旨の指示や、内視鏡5001による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示、エネルギー処置具5021を駆動させる旨の指示等を入力することができる。なお、入力装置5047の種類は限定されず、入力装置5047は各種の公知の入力装置であってよい。入力装置5047としては、例えば、マウス、キーボード、タッチパネル、スイッチ、フットスイッチ5057、及び/又は、レバー等が適用され得る。例えば、入力装置5047としてタッチパネルが用いられる場合には、当該タッチパネルは表示装置5041の表示面上に設けられていてもよい。
あるいは、入力装置5047は、例えば、メガネ型のウェアラブルデバイスやHMD(Head Mounted Display)等の、術者5067によって装着されるデバイスであってもよい。この場合、これらのデバイスによって検出される術者5067のジェスチャや視線に応じて、各種の入力が行われることとなる。また、入力装置5047は、術者5067の動きを検出可能なカメラを含むことができ、当該カメラによって撮像された画像から検出される術者5067のジェスチャや視線に応じて、各種の入力が行われてもよい。さらに、入力装置5047は、術者5067の声を収音可能なマイクロフォンを含むことができ、当該マイクロフォンを介して音声によって各種の入力が行われてもよい。このように、入力装置5047が非接触で各種の情報を入力可能に構成されることにより、特に清潔域に属するユーザ(例えば術者5067)が、不潔域に属する機器を非接触で操作することが可能となる。また、術者5067は、所持している術具から手を離すことなく機器を操作することが可能となるため、術者5067の利便性が向上する。
処置具制御装置5049は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具5021の駆動を制御する。気腹装置5051は、内視鏡5001による視野の確保及び術者の作業空間の確保の目的で、患者5071の体腔を膨らめるために、気腹チューブ5019を介して当該体腔内にガスを送り込む。レコーダ5053は、手術に関する各種の情報を記録可能な装置である。プリンタ5055は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
<1.2 支持アーム装置5027の詳細構成例>
さらに、支持アーム装置5027の詳細構成の一例について説明する。支持アーム装置5027は、基台であるベース部5029と、ベース部5029から延伸するアーム部5031とを有する。図1に示す例では、アーム部5031は、複数の関節部5033a、5033b、5033cと、関節部5033bによって連結される複数のリンク5035a、5035bとから構成されているが、図1では、簡単のため、アーム部5031の構成を簡略化して図示している。具体的には、アーム部5031が所望の自由度を有するように、関節部5033a~5033c及びリンク5035a、5035bの形状、数及び配置、並びに関節部5033a~5033cの回転軸の方向等が適宜設定され得る。例えば、アーム部5031は、好適に、6自由度以上の自由度を有するように構成され得る。これにより、アーム部5031の可動範囲内において内視鏡5001を自由に移動させることが可能になるため、所望の方向から内視鏡5001の鏡筒5003を患者5071の体腔内に挿入することが可能になる。
関節部5033a~5033cにはアクチュエータが設けられており、関節部5033a~5033cは当該アクチュエータの駆動により所定の回転軸まわりに回転可能に構成されている。当該アクチュエータの駆動がアーム制御装置5045によって制御されることにより、各関節部5033a~5033cの回転角度が制御され、アーム部5031の駆動が制御される。これにより、内視鏡5001の位置及び姿勢の制御が実現され得る。この際、アーム制御装置5045は、力制御又は位置制御等、各種の公知の制御方式によってアーム部5031の駆動を制御することができる。
例えば、術者5067が、入力装置5047(フットスイッチ5057を含む)を介して適宜操作入力を行うことにより、当該操作入力に応じてアーム制御装置5045によってアーム部5031の駆動が適宜制御され、内視鏡5001の位置及び姿勢が制御されてよい。なお、アーム部5031は、いわゆるマスタースレイブ方式で操作されてもよい。この場合、アーム部5031(スレーブ)は、手術室から離れた場所または手術室内に設置される入力装置5047(マスターコンソール)を介して術者5067によって遠隔操作され得る。
ここで、一般的には、内視鏡下手術では、スコピストと呼ばれる医師によって内視鏡5001が支持されていた。これに対して、本開示の実施形態においては、支持アーム装置5027を用いることにより、人手によらずに内視鏡5001の位置をより確実に固定することが可能になるため、術部の画像を安定的に得ることができ、手術を円滑に行うことが可能になる。
なお、アーム制御装置5045は必ずしもカート5037に設けられなくてもよい。また、アーム制御装置5045は必ずしも1つの装置でなくてもよい。例えば、アーム制御装置5045は、支持アーム装置5027のアーム部5031の各関節部5033a~5033cにそれぞれ設けられてもよく、複数のアーム制御装置5045が互いに協働することにより、アーム部5031の駆動制御が実現されてもよい。
<1.3 光源装置5043の詳細構成例>
次に、光源装置5043の詳細構成の一例について説明する。光源装置5043は、内視鏡5001に術部を撮影する際の照射光を供給する。光源装置5043は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成される。このとき、RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置5043において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド5005の受光素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該受光素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
また、光源装置5043は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド5005の受光素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
また、光源装置5043は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察するもの(自家蛍光観察)、又は、インドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得るもの等が行われ得る。光源装置5043は、このような特殊光観察に対応した狭帯域光、及び/又は、励起光を供給可能に構成され得る。
<1.4 カメラヘッド5005及びCCU5039の詳細構成例>
次に、図2を参照して、カメラヘッド5005及びCCU5039の詳細構成の一例について説明する。図2は、図1に示すカメラヘッド5005及びCCU5039の機能構成の一例を示すブロック図である。
詳細には、図2に示すように、カメラヘッド5005は、その機能として、レンズユニット5007と、撮像部5009と、駆動部5011と、通信部5013と、カメラヘッド制御部5015とを有する。また、CCU5039は、その機能として、通信部5059と、画像処理部5061と、制御部5063とを有する。そして、カメラヘッド5005とCCU5039とは、伝送ケーブル5065によって双方向に通信可能に接続されている。
まず、カメラヘッド5005の機能構成について説明する。レンズユニット5007は、鏡筒5003との接続部に設けられる光学系である。鏡筒5003の先端から取り込まれた観察光は、カメラヘッド5005まで導光され、当該レンズユニット5007に入射する。レンズユニット5007は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。レンズユニット5007は、撮像部5009の受光素子の受光面上に観察光を集光するように、その光学特性が調整されている。また、ズームレンズ及びフォーカスレンズは、撮像画像の倍率及び焦点の調整のため、その光軸上の位置が移動可能に構成される。
撮像部5009は受光素子によって構成され、レンズユニット5007の後段に配置される。レンズユニット5007を通過した観察光は、当該受光素子の受光面に集光され、光電変換によって、観察像に対応した画素信号が生成される。撮像部5009によって生成された画素信号は、通信部5013に提供される。
撮像部5009を構成する受光素子としては、例えばCMOS(Complementary Metal Oxide Semiconductor)タイプのイメージセンサであり、Bayer配列を有するカラー撮影可能なものが用いられる。なお、当該受光素子としては、例えば4K以上の高解像度の画像の撮影に対応可能なものが用いられてもよい。術部の画像が高解像度で得られることにより、術者5067は、当該術部の様子をより詳細に把握することができ、手術をより円滑に進行することが可能となる。
また、撮像部5009を構成する受光素子は、3D表示に対応する右目用及び左目用の画素信号をそれぞれ取得するための1対の受光素子を有するように構成されてもよい(ステレオ方式)。3D表示が行われることにより、術者5067は術部における生体組織の奥行きをより正確に把握することや、生体組織までの距離を把握することが可能になる。なお、撮像部5009が多板式で構成される場合には、各受光素子に対応して、レンズユニット5007も複数系統設けられてもよい。
また、撮像部5009は、必ずしもカメラヘッド5005に設けられなくてもよい。例えば、撮像部5009は、鏡筒5003の内部に、対物レンズの直後に設けられてもよい。
駆動部5011は、アクチュエータによって構成され、カメラヘッド制御部5015からの制御により、レンズユニット5007のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部5009による撮像画像の倍率及び焦点が適宜調整され得る。
通信部5013は、CCU5039との間で各種の情報を送受信するための通信装置によって構成される。通信部5013は、撮像部5009から得た画素信号をRAWデータとして伝送ケーブル5065を介してCCU5039に送信する。この際、術部の撮像画像を低レイテンシで表示するために、当該画素信号は光通信によって送信されることが好ましい。手術の際には、術者5067が撮像画像によって患部の状態を観察しながら手術を行うため、より安全で確実な手術のためには、術部の動画像が可能な限りリアルタイムに表示されることが求められるからである。光通信が行われる場合には、通信部5013には、電気信号を光信号に変換する光電変換モジュールが設けられる。画素信号は当該光電変換モジュールによって光信号に変換された後、伝送ケーブル5065を介してCCU5039に送信される。
また、通信部5013は、CCU5039から、カメラヘッド5005の駆動を制御するための制御信号を受信する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、及び/又は、撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。通信部5013は、受信した制御信号をカメラヘッド制御部5015に提供する。なお、CCU5039からの制御信号も、光通信によって伝送されてもよい。この場合、通信部5013には、光信号を電気信号に変換する光電変換モジュールが設けられ、制御信号は当該光電変換モジュールによって電気信号に変換された後、カメラヘッド制御部5015に提供される。
なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、取得された画素信号に基づいてCCU5039の制御部5063によって自動的に設定される。つまり、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡5001に搭載される。
カメラヘッド制御部5015は、通信部5013を介して受信したCCU5039からの制御信号に基づいて、カメラヘッド5005の駆動を制御する。例えば、カメラヘッド制御部5015は、撮像画像のフレームレートを指定する旨の情報、及び/又は、撮像時の露光を指定する旨の情報に基づいて、撮像部5009の受光素子の駆動を制御する。また、例えば、カメラヘッド制御部5015は、撮像画像の倍率及び焦点を指定する旨の情報に基づいて、駆動部5011を介してレンズユニット5007のズームレンズ及びフォーカスレンズを適宜移動させる。カメラヘッド制御部5015は、さらに、鏡筒5003やカメラヘッド5005を識別するための情報を記憶する機能を有していてもよい。
なお、レンズユニット5007や撮像部5009等の構成を、気密性及び防水性が高い密閉構造内に配置することで、カメラヘッド5005について、オートクレーブ滅菌処理に対する耐性を持たせることができる。
次に、CCU5039の機能構成について説明する。通信部5059は、カメラヘッド5005との間で各種の情報を送受信するための通信装置によって構成される。通信部5059は、カメラヘッド5005から、伝送ケーブル5065を介して送信される画素信号を受信する。この際、上記のように、当該画素信号は好適に光通信によって送信され得る。この場合、光通信に対応して、通信部5059には、光信号を電気信号に変換する光電変換モジュールが設けられる。通信部5059は、電気信号に変換した画素信号を画像処理部5061に提供する。
また、通信部5059は、カメラヘッド5005に対して、カメラヘッド5005の駆動を制御するための制御信号を送信する。当該制御信号も光通信によって送信されてよい。
画像処理部5061は、カメラヘッド5005から送信されたRAWデータである画素信号に対して各種の画像処理を施す。当該画像処理としては、例えば現像処理、高画質化処理(帯域強調処理、超解像処理、NR(Noise Reduction)処理、及び/又は、手ブレ補正処理等)、及び/又は、拡大処理(電子ズーム処理)等、各種の公知の信号処理が含まれる。また、画像処理部5061は、AE、AF及びAWBを行うための、画素信号に対する検波処理を行う。
画像処理部5061は、CPUやGPU等のプロセッサによって構成され、当該プロセッサが所定のプログラムに従って動作することにより、上述した画像処理や検波処理が行われ得る。なお、画像処理部5061が複数のGPUによって構成される場合には、画像処理部5061は、画素信号に係る情報を適宜分割し、これら複数のGPUによって並列的に画像処理を行う。
制御部5063は、内視鏡5001による術部の撮像、及びその撮像画像の表示に関する各種の制御を行う。例えば、制御部5063は、カメラヘッド5005の駆動を制御するための制御信号を生成する。この際、撮像条件が術者5067によって入力されている場合には、制御部5063は、当該術者5067による入力に基づいて制御信号を生成する。あるいは、内視鏡5001にAE機能、AF機能及びAWB機能が搭載されている場合には、制御部5063は、画像処理部5061による検波処理の結果に応じて、最適な露出値、焦点距離及びホワイトバランスを適宜算出し、制御信号を生成する。
また、制御部5063は、画像処理部5061によって画像処理が施されて生成された画像信号に基づいて、術部の画像を表示装置5041に表示させる。この際、制御部5063は、各種の画像認識技術を用いて術部画像内における各種の物体を認識する。例えば、制御部5063は、術部画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具5021使用時のミスト等を認識することができる。制御部5063は、表示装置5041に術部の画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させる。手術支援情報が重畳表示され、術者5067に提示されることにより、より安全かつ確実に手術を進めることが可能になる。
カメラヘッド5005及びCCU5039を接続する伝送ケーブル5065は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又は、これらの複合ケーブルである。
ここで、図示する例においては、伝送ケーブル5065を用いて有線で通信が行われているものしていたが、カメラヘッド5005とCCU5039との間の通信は無線で行われてもよい。両者の間の通信が無線で行われる場合には、伝送ケーブル5065を手術室内に敷設する必要がなくなるため、手術室内における医療スタッフの移動が当該伝送ケーブル5065によって妨げられる事態が解消され得る。
<1.5 内視鏡5001の構成例>
続いて、図3を参照して、内視鏡5001の一例として斜視鏡の基本的構成について説明する。図3は、本開示の一実施形態に係る斜視鏡4100の構成を示す模式図である。
詳細には、図3に示すように、斜視鏡4100は、カメラヘッド4200の先端に装着されている。斜視鏡4100は図1及び図2で説明した鏡筒5003に対応し、カメラヘッド4200は、図1及び図2で説明したカメラヘッド5005に対応する。斜視鏡4100とカメラヘッド4200は互いに独立して回動可能とされている。斜視鏡4100とカメラヘッド4200の間には、各関節部5033a,5033b,5033cと同様にアクチュエータが設けられており、斜視鏡4100はアクチュエータの駆動によってカメラヘッド4200に対して回転する。
斜視鏡4100は、支持アーム装置5027によって支持される。支持アーム装置5027は、スコピストの代わりに斜視鏡4100を保持し、また術者や助手の操作によって斜視鏡4100を所望の部位が観察できるように移動させる機能を有する。
なお、本開示の実施形態においては、内視鏡5001は、斜視鏡4100に限定されるものではない。例えば、内視鏡5001は、内視鏡の先端部の前方を捉える前方直視鏡(図示省略)であってもよく、さらには、内視鏡で捉えた広角画像から画像を切り出す機能(広角/切り出し機能)を有していてもよい。また、例えば、内視鏡5001は、内視鏡の先端部が術者5067の操作に従って自由に湾曲することにより視野を可変することができる先端湾曲機能付きの内視鏡(図示省略)であってもよい。また、例えば、内視鏡5001は、内視鏡の先端部に、視野の異なる複数のカメラユニットを内蔵させて、それぞれのカメラによって異なる画像を得ることができる他方向同時撮影機能付きの内視鏡(図示省略)であってもよい。
以上、本開示に係る技術が適用され得る内視鏡手術システム5000の一例について説明した。なお、ここでは、一例として内視鏡手術システム5000について説明したが、本開示に係る技術が適用され得るシステムはかかる例に限定されない。例えば、本開示に係る技術は、顕微鏡手術システムに適用されてもよい。
<<2. 医療用観察システム>>
さらに、図4を参照して、上述した内視鏡手術システム5000と組み合わせることが可能な、本開示の実施形態に係る医療用観察システム1の構成について説明する。図4は、本開示の実施形態に係る医療用観察システム1の構成の一例を示すブロック図である。図4に示すように、医療用観察システム1は、ロボットアーム装置10と、撮像部12と、光源部13と、制御部20と、提示装置40と、記憶部60とを主に有する。以下、医療用観察システム1に含まれる各機能部について説明する。
まず、医療用観察システム1の構成の詳細を説明する前に、医療用観察システム1の処理の概要について説明する。医療用観察システム1においては、まず、患者の腹腔内を撮像して腹腔内の環境を認識し、腹腔内の環境の認識結果に基づいて、ロボットアーム装置10を駆動させることができる。
(ロボットアーム装置10)
ロボットアーム装置10は、複数の関節部と複数のリンクから構成される多リンク構造体であるアーム部11(多関節アーム)を有し、当該アーム部を可動範囲内で駆動させることにより、当該アーム部の先端に設けられる先端ユニットの位置及び姿勢の制御を行う。ロボットアーム装置10は、図1に示す支持アーム装置5027に対応している。
ロボットアーム装置10には、例えば、図2に図示のCCU5039と、CCU5039から受けた撮影対象物を撮像した画像から所定の領域を切り出して、後述するGUI生成部に出力する電子切り出し制御部(図示省略)と、アーム部11の位置及び姿勢を制御する姿勢制御部(図示省略)と、電子切り出し制御部から切り出した画像に各種の処理を施した画像データを生成するGUI生成部(図示省略)とを有することができる。
本開示の実施形態に係るロボットアーム装置10においては、撮像された画像を切り出す(広角/切り出し機能)ことで視線を変更する電子的な自由度と、アーム部11のアクチュエータによる自由度を全てロボットの自由度として扱う。これにより、視線を変更する電子的な自由度と、アクチュエータによる関節の自由度とを連動した運動制御を実現することが可能となる。
詳細には、アーム部11は、複数の関節部と複数のリンクから構成される多リンク構造体であり、後述するアーム制御部23からの制御によりその駆動が制御される。アーム部11は、図1に示すアーム部5031に対応している。図4では、複数の関節部を代表して1つの関節部111としている。詳細には、関節部111は、アーム部11においてリンク間を互いに回動可能に連結するとともに、アーム制御部23からの制御によりその回転駆動が制御されることによりアーム部11を駆動する。本実施形態においては、アーム部11に含まれる関節部5033やリンク5035等による関節角やリンク長に基づいて、アーム部11の位置や姿勢の情報を得ることができる。なお、本実施形態においては、アーム部11は、アーム部11の位置や姿勢の情報を得るために、加速度センサ、ジャイロセンサ、地磁気センサ等を含むモーションセンサ(図示省略)を有していてもよい。
(撮像部12)
撮像部(医療用観察装置)12は、アーム部(医療用アーム)11の先端に設けられ、各種の撮像対象物の画像を撮像する。すなわち、アーム部11は、撮像部12を支持している。撮像部12は、先に説明したように、例えば、斜視鏡4100、広角/切り出し機能付きの前方直視鏡(図示省略)、先端湾曲機能付きの内視鏡(図示省略)、他方向同時撮影機能付きの内視鏡(図示省略)であってもよく、もしくは、顕微鏡であってもよく、特に限定されるものではない。
さらに、撮像部12は、例えば、患者の腹腔内の各種の医療用器具、臓器等を含む術野画像を撮像する。具体的には、撮像部12は、撮影対象を動画や静止画の形式で撮影することのできるカメラ等である。より具体的には、撮像部12は、広角光学系で構成された広角カメラである。例えば、通常の内視鏡の画角が80°程度であることに対し、本実施形態に係る撮像部12の画角は140°であってもよい。なお、撮像部12の画角は80°を超えていれば140°よりも小さくてもよいし、140°以上であってもよい。撮像部12は、撮像した画像に対応する電気信号(画素信号)を制御部20に送信する。また、アーム部11は、鉗子5023等の医療用器具を支持していてもよい。
また、本開示の実施形態においては、撮像部12は、測距することが可能なステレオ方式の内視鏡(ステレオ内視鏡)であってもよい。もしくは、本実施形態においては、撮像部12とは別に、depthセンサ(測距装置)(図示省略)が設けられていてもよい。この場合、撮像部12は、単眼方式の内視鏡であることができる。詳細には、depthセンサは、例えば、被写体からのパルス光の反射の戻り時間を用いて測距を行うToF(Time of Flight)方式や、格子状のパターン光を照射して、パターンの歪みにより測距を行うストラクチャードライト方式を用いて測距を行うセンサであることができる。もしくは、本実施形態においては、撮像部12自体に、depthセンサが設けられていてもよい。この場合、撮像部12は、撮像と同時に、ToF方式による測距を行うことができる。詳細には、撮像部12は、複数の受光素子(図示省略)を含み、受光素子から得らえた画素信号に基づいて、画像を生成したり、距離情報を算出したりすることができる。
(光源部13)
光源部13は、撮像部12が撮像対象物に光を照射する。光源部13は、例えば、広角レンズ用のLED(Light Emitting Diode)で実現することができる。光源部13は、例えば、通常のLEDと、レンズとを組み合わせて構成し、光を拡散させてもよい。また、光源部13は、光ファイバ(ライトガイド)で伝達された光をレンズで拡散させる(広角化させる)構成であってもよい。また、光源部13は、光ファイバ自体を複数の方向に向けて光を照射することで照射範囲を広げてもよい。
(制御部20)
制御部20は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、後述する記憶部60に記憶されたプログラム(例えば、本開示の実施形態に係るプログラム)がRAM(Random Access Memory)等を作業領域として実行されることにより実現される。また、制御部20は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。具体的には、制御部20は、画像処理部21と、撮像制御部22と、アーム制御部23と、受付部25と、表示制御部26とを主に有する。
画像処理部21は、撮像部12によって撮像された撮像対象物に対して種々の処理を実行する。詳細には、画像処理部21は、撮像部12によって撮像された撮像対象物の画像を取得し、撮像部12によって撮像された画像に基づいて種々の画像を生成する。具体的には、画像処理部21は、撮像部12によって撮像された画像のうち表示対象領域を切り出して拡大することで画像を生成することができる。この場合、画像処理部21は、例えば、アーム部11の位置及び姿勢に応じて切り出す位置を変更するようにしてもよい。
撮像制御部22は、撮像部12を制御する。撮像制御部22は、例えば、撮像部12を制御して術野を撮像する。撮像制御部22は、例えば、撮像部12の拡大率を制御する。また、撮像制御部22は、例えば、受付部25で受け付けた術者5067からの入力情報に基づいて、撮像部12の拡大率を制御してもよい。
また、撮像制御部22は、光源部13を制御する。撮像制御部22は、例えば、撮像部12が術野を撮像する際に光源部13の明るさを制御する。撮像制御部22は、例えば、受付部25で受け付けた術者5067からの入力情報に基づいて、光源部13の明るさを制御する。
アーム制御部23は、ロボットアーム装置10を統合的に制御するとともに、アーム部11の駆動を制御する。具体的には、アーム制御部23は、関節部11aの駆動を制御することにより、アーム部11の駆動を制御する。より具体的には、アーム制御部23は、関節部11aのアクチュエータにおけるモータに対して供給される電流量を制御することにより、当該モータの回転数を制御し、関節部11aにおける回転角度及び発生トルクを制御する。
アーム制御部23は、例えば、後述する学習モデルに基づいて、アーム部11の位置・姿勢を自律的に制御することができる。アーム制御部23は、例えば、受付部25で受け付けた術者5067からの入力情報や撮像部12で得られた画像等の各種データ(外部入力情報)を学習データとする機械学習を行うことによって得らえた学習モデル(学習済みモデル)を用いて、アーム部11の位置・姿勢を自律的に制御する。この場合、アーム制御部23は、例えば、術者5067の視野を遮る医療用器具を避けるように、アーム部11の関節部11aを駆動して、アーム部11の位置・姿勢を制御してもよい。
アーム制御部23は、例えば、後述する学習モデルに基づいて、アーム部11の位置・姿勢を自律的に制御することができる。アーム制御部23は、例えば、受付部25で受け付けた術者5067からの入力情報や撮像部12で得られた画像等の各種データ(外部入力情報)に基づいて、学習データを機械学習することによって得らえた学習モデルを参照して、アーム部11の位置・姿勢を自律的に制御する。この場合、アーム制御部23は、例えば、術者5067の視野を遮る医療用器具を避けるように、アーム部11の関節部11aを駆動して、アーム部11の位置・姿勢を制御してもよい。
上記学習モデルは、例えば、その他の手術に関するデータに基づいて、生成されてもよい。手術に関するデータは、例えば、手術で使用される医療用器具に関する情報を含んでよい。ここで、医療用器具に関する情報は、例えば、医療用器具によって生成された画像データと、医療用器具の操作に関する情報を含んでよい。本開示の実施形態では、各種の医療用器具によって撮像された画像データや、各種の医療用器具の操作に関する情報に基づいて生成された学習モデルを用いることで、判別精度を向上させることができる。
具体的には、学習データは、例えば、ステレオセンサ、デプスセンサ、及びモーションセンサのうちの少なくとも1つから得られたセンシングデータを含んでよい。より具体的には、学習データは、ステレオセンサ、デプスセンサ、及びモーションセンサのうちの少なくとも1つから得られた医療用器具の位置、姿勢、種類、動き、及び、臓器の位置、姿勢、種類のうちの少なくとも1つを含む術野環境の情報を含んでいてもよい。
また、学習済みモデルを生成する際に使用される手術に関するデータは、アーム部11に関する情報を含んでもよい。アーム部11に関する情報は、例えば、アーム部11の関節部11aの状態に関する情報を含んでよい。アーム部11の関節部11aの状態に関する情報は、例えば、アーム部11の関節部の位置、姿勢、及び、動き等の各種の情報を含んでよい。本開示の実施形態では、アーム部11の各種の情報に基づいて生成された学習モデルを用いることで、判別精度を向上させることができる。
また、アーム部11に関する情報は、アーム部11に把持された医療用器具に関する情報を含んでよい。医療用器具に関する情報は、例えば、医療用器具の種類、医療用器具の位置情報及び姿勢情報の少なくとも1つを含んでよい。
また、本開示の実施形態では、制御部20が、学習モデルを生成する機能を有していてもよい。この場合、制御部20は、学習モデルを生成し、生成した学習モデルを後述する記憶部60に記憶する。
本開示の実施形態で使用する学習モデルは、入力情報の分類や分類結果に応じた処理を行う際に用いる各種の入力情報が有する特徴等を学習することにより生成される。学習モデルは、入力層と、複数の中間層(隠れ層)と、出力層とを含む複数のノードを有する多層のニューラルネットワークであるDNN(Deep Neural Network)等により実現されてもよい。しかしながら、本開示の実施形態においては、これに限定されるものではない。例えば、学習モデルの生成は、まず、入力層を介して各種の入力情報が入力され、直列に接続された複数の中間層において入力情報が有する特徴の抽出処理等を行う。次に、出力層を介して、中間層が出力した情報に基づく分類結果等の各種処理結果を入力された入力情報に対応する出力情報として出力することによって、学習モデルを生成することができる。
制御部20は、各種の手術に関する学習モデルを生成してもよいし予め決められたモデルを保持してもよい。制御部20は、例えば、執刀医による処置に関する情報を含む処置ステータスと、スコピストによるカメラ操作に関する内視鏡捜査データを含む学習用データから学習モデルを生成する。制御部20は、例えば、トラッキングデバイスで測定された医療用器具と内視鏡の位置および姿勢とを学習用データとして学習モデルを生成する。制御部20は、例えば、ステレオ内視鏡で撮影された各対象物のデプスと動きや、医療用器具の種類などを含む内視鏡画像を学習データとして学習モデルを生成する。
制御部20は、各種の手術ロボットに関するデータを学習用データとして、学習モデルを生成してもよい。制御部20は、例えば、医師およびスコピストによる手術ロボットに対する各種の操作情報を学習用データとして、学習モデルを生成する。制御部20は、例えば、図1に示す支持アーム装置5027を用いた処置を学習用データとして学習モデルを生成してもよい。
受付部25は、術者5067による入力操作や、他の装置(センサ)からの各種の入力情報を受け付け、撮像制御部22と、アーム制御部23とに出力する。なお、入力情報の詳細については後述する。
表示制御部26は、各種の画像を後述する提示装置40に表示させる。表示制御部26は、例えば、撮像部12から取得した画像を提示装置40に表示させる。
(提示装置40)
提示装置40は、各種の画像を表示する。提示装置40は、例えば、撮像部12によって撮像された画像を表示する。提示装置40は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Organic Electro-Luminescence)ディスプレイ等を含むディスプレイであることができる。
(記憶部60)
記憶部60は、各種の情報を格納する。記憶部60は、例えば、学習モデルを格納する。記憶部60は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。
<<3. 本開示の実施形態を創作するに至る背景>>
ところで、近年、上述した医療用観察システム1においては、ロボットアーム装置10を自律的に動作させるための開発が進められている。例えば、医療用観察システム1におけるロボットアーム装置10の自律的動作は、様々な段階にレベル分けすることができる。例えば、(1)術者(医師)5067をシステムによってガイドするレベル、(2)システムによって、上述したスコピストが行う撮像部12の位置を移動させる、術部の縫合を行う等といった手術における一部の動作(タスク)を自律的に実行するレベルを挙げることができる。さらには、(3)システムによって手術における動作内容を自動生成し、自動生成した動作から、医師が選択した動作をロボットアーム装置10が行うレベル等を挙げることができる。そして、将来的には、(4,5)医師の監視下、もしくは、医師の監視なしに、ロボットアーム装置10が手術における全てのタスクを実行するレベルも考えられる。
なお、以下に説明する本開示の実施形態においては、ロボットアーム装置10が、スコピストの代わりに、撮像部12の位置を移動させるタスクを自律的に実行し、移動させた撮像部12による画像を参照して、術者5067が直接的に手術、又は、遠隔操作により手術を行う場合を例に説明する。
ロボットアーム装置10の自律的動作のためには、自律動作のための自律動作制御情報(例えば、自律制御目標値等)を予め生成することが求められる。そこで、あらかじめ、体内環境情報(例えば、腹腔内の3次元構造、臓器態様、患部状態)とそれに対応する術者5067の手術動作等を機械学習することによって得られた学習モデルや、動作ルール等を参照して、実際の体内環境情報(例えば、患部等の態様)に基づく、自律動作制御情報を生成することとなる。しかしながら、患者ごとに体型、臓器形態、臓器位置等が異なることから、全ての体内環境情報について予め機械学習することは、現実的には難しく、上記学習モデル等では保障しきれない未知の体内環境が存在することは避けらない。従って、例えば、自律動作制御情報に従って撮像部12(例えば、内視鏡5001等)が移動する環境下での手術においては、自律動作制御情報の保障外の体内環境であった場合、鉗子操作に対する撮像部12の視野のずれや、撮像部12と対象外物体(臓器や組織)との干渉(撮像部12の視野が、対象外物体によって遮られることや、撮像部12自体が物体と衝突すること)等が発生する懸念があることから、好適に、且つ、スムーズに手術を遂行することが難しい。
また、未知の体内環境に対しては、当該体内環境の情報を取得した上での学習モデルを再構築してから、再構築後の学習モデルを用いて自律動作制御情報を生成することが考えられるが、再構築のためには一定の準備時間を要するため、リアルタイムで学習モデルや自律動作制御情報を生成することが難しい。さらに、学習モデルや自律動作制御情報をリアルタイムに生成することができても、術者5067の鉗子操作に対して撮像部12の移動等に遅れが発生する。そこで、このような遅れに対応するために、術者5067が撮像部12の画像の変化を予測しながら、鉗子操作を行うことが考えられるが、難しい予測が伴うことから、やはり、好適に、且つ、スムーズに手術を遂行することが難しいこととなる。
そこで、本発明者らは、上述のような状況を鑑みて、様々な体内環境に適した、ロボットアーム装置10のための自律動作制御情報をリアルタイムで生成することが可能な、本開示の実施形態を創作した。本開示の実施形態においては、各種データ(外部入力情報)に基づいて生成された自律動作制御情報を、実際の体内環境におけるロボットアーム装置10の動作シミュレーションの結果、及び、理想体内環境におけるロボットアーム装置10の動作シミュレーションの結果に基づき、修正を行うことにより、様々な体内環境に適した自律動作制御情報をリアルタイムで生成することができる。そして、このような自律動作制御情報に従って制御されたロボットアーム装置10によって支援を受けることにより、術者5067は、好適に、且つ、スムーズに手術を遂行することができる。以下に、本発明者らが創作した本開示の実施形態の詳細を順次説明する。
<<4. 実施形態>>
本発明者らが創作した本開示の実施形態は、自律動作制御情報を生成する際に用いられる学習モデル等を事前に生成する段階(学習モデル生成段階)と、生成した学習モデル等に基づいて、自律動作を行う段階(自律動作実行段階)との、主に2つの段階に分けることができる。まずは、本実施形態に係る学習モデル生成段階について説明する。
<4.1 学習モデル生成ユニット100の詳細構成例>
まずは、図5を参照して、本開示の実施形態に係る学習モデル生成ユニット100の詳細構成例について説明する。図5は、本開示の実施形態に係る学習モデル生成ユニット100の構成の一例を示すブロック図である。本実施形態に係る学習モデル生成ユニット100は、自律動作制御情報(詳細には、自律動作目標値)を生成する際に用いられる学習モデル132、ルールベース制御モデル134及び理想体内環境地図136を生成することができる。なお、学習モデル生成ユニット100は、上述した、図4に示すロボットアーム装置10、又は、制御部20と一体の装置であってもよく、別体の装置であってもよく、もしくは、クラウド上に設けられ、ロボットアーム装置10や制御部20と通信可能に接続された装置であってもよい。
詳細には、図5に示すように、学習モデル生成ユニット100は、外部入力情報取得部110と、自律動作学習モデル生成部120と、自律動作ルール生成部122と、理想地図生成部124と、記憶部130と、出力部140とを主に有する。以下に、学習モデル生成ユニット100の各機能部の詳細について順次説明する。
(外部入力情報取得部110)
外部入力情報取得部110は、各種のデータ(外部入力情報)を取得し、自律動作学習モデル生成部120、自律動作ルール生成部122、及び、理想地図生成部124へ出力する。本実施形態においては、各種データとしては、例えば、理想的に遂行された手術における、左右両手に保持される各鉗子(図示省略)の先端位置・姿勢データ(実環境における医療用器具の位置情報及び姿勢情報)、撮像部12(詳細には、内視鏡5001)の先端位置・姿勢データ(実環境における医療用アームの位置情報及び姿勢情報)、撮像部12の画像(医療用観察装置による実環境の画像)、測距センサ(ステレオ式内視鏡、デプスセンサ等)(図示省略)からのセンシングデータ等を挙げることができる。具体的には、本実施形態においては、先端位置・姿勢データは、例えば、アーム部11に設けられたモーションセンサ(図示省略)や、上述した測距センサ(ステレオ式内視鏡(ステレオカメラ)、ストラクチャードライトセンサ、ToFセンサ)からのセンシングデータを利用することにより、取得してもよい。なお、本実施形態においては、先端位置・姿勢データの情報は、絶対座標値で表現されてもよく、もしくは、所定の基準点からの相対座標値で表現されてもよく、特に限定されるものではない。
(自律動作学習モデル生成部120)
自律動作学習モデル生成部120は、例えば、外部入力情報取得部110から出力された左右両手に保持される各鉗子(図示省略)及び撮像部12の先端位置・姿勢データの対を教師データとして機械学習を実行し、任意の左右両手に保持される各鉗子の位置・姿勢に対する撮像部12の位置・姿勢を出力する学習モデル132を生成する。本実施形態においては、理想的に遂行された手術における、多数の、左右両手に保持される各鉗子及び撮像部12の先端位置・姿勢データの対を用いて機械学習を行うことにより、ロボットアーム装置10のアーム部11等の自律動作を実現するための学習モデル132を生成することができる。
もしくは、自律動作学習モデル生成部120は、撮像部12の画像及び撮像部12の先端位置・姿勢データの対を教師データとして機械学習を実行し、任意の撮像部12の先端位置・姿勢に対する、撮像部12の視野の中心に位置する注視点の位置、撮像部12から注視点までの距離、注視点への視野方向等の情報からなる視野情報を出力する学習モデル132を生成することができる。なお、自律動作学習モデル生成部120が生成した学習モデル132は、後述する記憶部130に格納される。
(自律動作ルール生成部122)
自律動作ルール生成部122は、理想的に遂行された手術において収集された複数のデータを分析することにより、ロボットアーム装置10のアーム部11等の自律動作の際に許容される制御ルール(臓器との許容される距離や位置関係、鉗子との許容される距離や位置関係等)を規定するルールベース制御モデル134を生成することができる。なお、自律動作ルール生成部122が生成したルールベース制御モデル134は、後述する記憶部130に格納される。
具体的には、自律動作ルール生成部122は、例えば、外部入力情報取得部110から出力された左右両手に保持される各鉗子(図示省略)及び撮像部12の先端位置・姿勢データの対から、任意の左右両手に保持される各鉗子の位置・姿勢に対する撮像部12の位置・姿勢のルールを抽出することにより、ルールベース制御モデル134を生成する。もしくは、自律動作ルール生成部122は、例えば、撮像部12の画像及び撮像部12の先端位置・姿勢データの対から、任意の撮像部12の画像に対する撮像部12の視野情報のルールを抽出することにより、ルールベース制御モデル134を生成する。
(理想地図生成部124)
理想地図生成部124は、学習モデル132及びルールベース制御モデル134の生成の際に用いた各種データに基づき、体内環境地図を複数生成する。ここでは、最も理想に近い撮像部12(詳細には、アーム部11)の動作(スコープワークとも呼ぶ)を実現する体内における3次元地図情報(体内環境地図)を「理想体内環境地図」と呼ぶ。また、最も理想に近いスコープワークを実現する体内環境を理想環境又は理想体内環境と呼ぶ。そして、理想地図生成部124が生成した理想体内環境地図136は、後述する記憶部130に格納され、後述するシミュレーションの際に利用される。なお、本実施形態においては、理想体内環境地図136は1つに限定する必要はなく、複数存在してもよく、例えば、シーンごとにシミュレーション実行環境を更新する等を行い、更新されたシミュレータの機能に応じて、複数の理想体内環境地図136の中から1つを選択してもよい。なお、本明細書においては、「理想に近いスコープワーク」は、術者5067が手技を遂行するために、術部(臓器・組織等の処置の対象となっている部位)及び鉗子操作部(鉗子の先端部等に位置する、組織の把持等を行う箇所)を視野外に外すことなく、また、鉗子の挿抜時に鉗子先端の移動に追従して、これらを画面の中心により捉えつつ、術者5067が、周辺臓器や組織及び鉗子の先端部を視覚的に認識できるよう適切な拡大量で表示する画像を提供することができるスコープワークのことを意味する。すなわち、本明細書においては、「理想に近いスコープワーク」とは、上記のような画像を提供することができる、「適切なスコープワーク」と言い換えることができる。なお、本明細書においては、「鉗子操作」は鉗子先端の開閉による切除や把持操作だけでなく、鉗子先端位置の変更や挿抜などの鉗子先端部の移動も含む場合がある。また、本明細書においては、「理想体内環境地図」は、学習モデルが理想のスコープワークを実現できる一つの地図パターンの情報である。すなわち、単なる体内における3次元地図情報ではなく、データベースに格納された学習モデルやルールベース制御モデルを用いて理想に近いスコープワークが実現できる、既知の体内の3次元地図のことを意味するものとする。
具体的には、理想地図生成部124は、撮像部12の画像及び撮像部12の先端位置・姿勢データの対に基づいて、画像から抽出した臓器の位置情報と撮像部12の位置・姿勢情報から、例えば、SLAM(Simultaneous Localization and Mapping)を用いて、理想体内環境地図136を生成する。もしくは、理想地図生成部124は、撮像部12の画像及び測距センサ(ステレオ内視鏡、デプスセンサ等)(図示省略)からのセンシングデータの対に基づいて、画像から抽出した臓器の位置情報と撮像部12の位置・姿勢情報から、SLAMを用いて、理想体内環境地図136を生成する。なお、理想体内環境地図136は、Grid、Boxel、点群等の表現法を用いた計量地図(Metric map)であることが好ましい。
(記憶部130)
記憶部130は、上述した学習モデル132、ルールベース制御モデル134及び理想体内環境地図136を格納する。記憶部130は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。
(出力部140)
出力部140は、上述した学習モデル132、ルールベース制御モデル134及び理想体内環境地図136を後述する自律動作実行ユニット200へ出力することができる。
なお、本実施形態においては、学習モデル生成ユニット100の詳細構成は、図5に示す構成に限定されるものではない。
<4.2 学習モデル生成段階での制御方法>
次に、図6を参照して、本実施形態に係る、学習モデル生成段階での制御方法について説明する。図6は、本実施形態に係る学習モデル生成段階での制御方法のフローチャートである。図8に示すように、本実施形態に係る学習モデル生成段階での制御方法は、ステップS10からステップS40までのステップを主に含むことができる。以下に、本実施形態に係るこれら各ステップの概要について説明する。
まず、学習モデル生成ユニット100の外部入力情報取得部110は、理想的に遂行された手術において収集された各種のデータ(外部入力情報)を取得する(ステップS10)。次に、自律動作学習モデル生成部120は、各種のデータを教師データとして機械学習を実行し、学習モデル132を生成し、記憶部130や自律動作実行ユニット200へ出力する(ステップS20)。さらに、自律動作ルール生成部122は、各種のデータ(外部入力情報)を分析することにより、ルールベース制御モデル134を生成し、記憶部130や自律動作実行ユニット200へ出力する(ステップS30)。そして、理想地図生成部124は、各種データに基づき、体内環境地図を生成し、記憶部130や自律動作実行ユニット200へ出力する(ステップS40)。
<4.3 自律動作実行ユニット200の詳細構成例>
次に、本実施形態に係る自律動作を行う段階(自律動作実行段階)について説明する。図7を参照して、本開示の実施形態に係る自律動作実行ユニット200の詳細構成例について説明する。図7は、本実施形態に係る自律動作実行ユニット200の構成の一例を示すブロック図である。本実施形態に係る自律動作実行ユニット200は、各種データ(外部入力情報)に基づき、リアルタイムで自律動作を実行するようにロボットアーム装置10(例えば、アーム部11)の制御を行うことができる。詳細には、図7に示すように、自律動作実行ユニット200は、制御ユニット210とシミュレータユニット250との2つのユニットから主に構成される。なお、自律動作実行ユニット200は、上述した、図4に示すロボットアーム装置10、又は、制御部20と一体の装置であってもよく、別体の装置であってもよく、もしくは、クラウド上に設けられ、ロボットアーム装置10や制御部20と通信可能に接続された装置であってもよい。
~制御ユニット210~
まずは、制御ユニット210を説明する。詳細には、図7に示すように、制御ユニット210は、入力情報取得部212、自律動作生成部(制御情報生成部)214、自律動作修正部(修正部)216、カメラ予測視野算出部218、視野連動制御演算部(回避制御情報生成部)220、ユーザ指示調停部224、アーム制御部(制御部)226、先端制御部228及び切出視野生成部(予測画像生成部)230を主に有する。以下に、制御ユニット210の各機能部の詳細について順次説明する。
(入力情報取得部212)
入力情報取得部212は、実際に現在行われている手術等(実環境)で得られた各種のデータ(外部入力情報)を取得し、後述する自律動作生成部214及びシミュレータユニット250へ出力する。本実施形態においては、各種データとしては、例えば、左右両手に保持される各鉗子(図示省略)の先端位置・姿勢データ(実環境における医療用器具の位置情報及び姿勢情報)、撮像部12の先端位置・姿勢データ(実環境における医療用アームの位置情報及び姿勢情報)、撮像部12の画像(医療用観察装置による実環境の画像)、測距センサ(ステレオ内視鏡、デプスセンサ等)(図示省略)からのセンシングデータ等を挙げることができる。本実施形態においては、先端位置・姿勢データは、アーム部11に設けられたモーションセンサ(図示省略)や、上述した測距センサからのセンシングデータを利用することにより、リアルタイムで取得してもよい。また、本実施形態においては、マスタースレイブ方式で操作されている場合には、入力装置5047(マスターコンソール)に入力された情報を用いて、先端位置・姿勢データを生成してもよい。なお、本実施形態においては、先端位置・姿勢データの情報は、絶対座標値で表現されてもよく、もしくは、所定の基準点からの相対座標値で表現されてもよく、特に限定されるものではない。
(自律動作生成部214)
自律動作生成部214は、入力情報取得部212から出力された各種のデータ(外部入力情報)に基づき、ロボットアーム装置10(例えば、アーム部11)(医療用アーム)を自律的に動作させるための自律動作目標値(自律動作制御情報)を生成することができる。詳細には、自律動作生成部214は、上述した学習モデル132及びルールベース制御モデル134を参照して、実際の、左右両手に保持される各鉗子(図示省略)の先端位置・姿勢データに基づき、自律動作目標値として、撮像部12の位置・姿勢(例えば、各鉗子のみを視野内に捉えるための撮像部12の位置・姿勢)の情報を生成する。もしくは、自律動作生成部214は、自律動作目標値として、撮像部12の視野の中心に位置する注視点の位置、撮像部12から注視点までの距離、注視点への視野方向等の情報からなる視野情報を生成する。そして、自律動作生成部214は、生成した自律動作目標値を後述する自律動作修正部216へ出力する。
(自律動作修正部216)
自律動作修正部216は、ロボットアーム装置10(例えば、アーム部11)の動作シミュレーションの結果に基づき、自律動作目標値(自律動作制御情報)をリアルタイムで修正することができる。詳細には、自律動作修正部216は、実際の現在の体内環境(実環境)に基づくロボットアーム装置10(例えば、アーム部11)の動作シミュレーションの結果、及び、理想体内環境(理想環境)に基づくロボットアーム装置10(例えば、アーム部11)の動作シミュレーションの結果に基づき、自律動作目標値(自律動作制御情報)をリアルタイムで修正することができる。より具体的には、自律動作修正部216は、自律動作生成部214で生成された自律動作目標値を、後述するシミュレータユニット250から取得した自律動作修正パラメータ(差分)に基づき、リアルタイムで修正する。そして、自律動作修正部216は、修正した自律動作目標値を、後述する視野連動制御演算部220に出力する。
(カメラ予測視野算出部218)
カメラ予測視野算出部218は、後述するシミュレータユニット250から取得した干渉予測情報(干渉すると予測される臓器の位置、干渉時の撮像部12の位置・姿勢情報等)に基づき、干渉対象物の事前提示及び衝突回避のための撮像部12の目標視野を決定する。詳細には、撮像部12が先端湾曲機能付きの内視鏡(図示省略)であった場合には、カメラ予測視野算出部218は、後述する視野連動制御演算部220に、撮像部12の先端の目標姿勢や目標視野の情報を出力する。また、撮像部12が広角/切り出し機能付きの内視鏡(図示省略)であった場合には、カメラ予測視野算出部218は、後述する切出視野生成部230に、切り出す視野範囲や視野の情報を出力する。
(視野連動制御演算部220)
視野連動制御演算部220は、修正された自律動作目標値及び撮像部12の先端の目標姿勢(干渉予測情報)に基づき、干渉を回避してロボットアーム装置10(例えば、アーム部11)を動作させるための制御情報(先端自由度制御指令値、アーム制御指令値)を生成することができる。すなわち、本実施形態においては、撮像部12が先端湾曲機能付きの内視鏡(図示省略)である場合には、視野連動制御演算部220は、アーム部11と撮像部12の先端とを連動させて動かすように制御するための制御情報を生成することができる。そして、視野連動制御演算部220は、生成した制御情報を後述するユーザ指示調停部224に出力する。なお、撮像部12が先端湾曲機能付きの内視鏡(図示省略)でない場合には、視野連動制御演算部220は、修正された自律動作目標値をそのままユーザ指示調停部224に出力する。
(ユーザ指示調停部224)
ユーザ指示調停部224は、視野連動制御演算部220から出力された制御情報(制御指令値)と、術者(ユーザ)5067が手動入力した修正指示(例えば、注視点のオフセットやズーム量オフセット等)に基づき、制御情報(先端制御指令値、アーム制御指令値)を更新することができる。そして、ユーザ指示調停部224は、更新された制御情報(先端制御指令値、アーム制御指令値)を後述するアーム制御部226や先端制御部228へ出力する。なお、本実施形態においては、術者(ユーザ)5067からの入力がない場合には、視野連動制御演算部220から出力された制御情報(制御指令値)を、そのままアーム制御部226や先端制御部228へ出力する。
(アーム制御部226)
アーム制御部226は、更新された制御情報(上記アーム制御指令値)に基づき、アーム部(医療用アーム)11を制御することができる。
(先端制御部228)
先端制御部228は、更新された制御情報(先端制御指令値)に基づき、上述したアーム制御部226と同期して、撮像部12の先端の方向(視野方向)、ズーム量、撮像部12の先端の姿勢等を制御することができる。
(切出視野生成部230)
切出視野生成部230は、カメラ予測視野算出部218から取得した切り出す視野範囲や視野に基づき、撮像部12で取得した広角画像に対して切り出し処理を行った場合に切り出されるであろう予測画像を生成し、提示装置40へ出力する。
~シミュレータユニット250~
次に、シミュレータユニット250を説明する。シミュレータユニット250は、各種データ(外部入力情報)に基づき、ロボットアーム装置10(例えば、アーム部11)の動作シミュレーションを行うことができる。詳細には、図7に示すように、シミュレータユニット250は、入力情報受信部252、理想環境地図保持部254、体内環境地図生成部256、理想環境入力補正部258、理想環境自律動作生成部260、理想環境シミュレーション部262、現在環境自律動作生成部264、現在環境シミュレーション部(実環境シミュレーション部)266、自律動作結果比較部(比較部)268、自律動作修正パラメータ生成部270、自律動作修正部272、現在環境シミュレーション更新部(再シミュレーション部)274、干渉予測部(予測部)276及び画像生成部278を主に有する。以下に、シミュレータユニット250の各機能部の詳細について順次説明する。
(入力情報受信部252)
入力情報受信部252は、上述した制御ユニット210の入力情報取得部212から、環境地図生成に用いるデータを体内環境地図生成部256に出力し、自律動作のためのデータ生成に用いるデータを理想環境入力補正部258及び現在環境自律動作生成部264に出力する。さらに、入力情報受信部252は、左右両手に保持される各鉗子(図示省略)の先端位置・姿勢データ、撮像部12の先端位置・姿勢データ、撮像部12の画像、測距センサ(図示省略)からのセンシングデータ等を、体内環境地図生成部256に出力する。
(理想環境地図保持部254)
理想環境地図保持部254は、理想地図生成部124で生成した、理想体内環境地図136を格納し、理想環境入力補正部258及び理想環境シミュレーション部262に出力する。
(体内環境地図生成部256)
体内環境地図生成部256は、入力情報受信部252から取得した、左右両手に保持される各鉗子(図示省略)の先端位置・姿勢データ、撮像部12の先端位置・姿勢データ、撮像部12の画像、測距センサ(図示省略)からのセンシングデータ等を含む、各種データ(外部入力情報)に基づき、実際の現在の体内環境地図(実環境地図)をリアルタイムで生成することができる。例えば、体内環境地図生成部256は、撮像部12の画像に基づき、SLAM法を用いて、現在体内環境地図を生成する。そして、生成された現在体内環境地図は、後述する理想環境入力補正部258にて、理想体内環境地図との比較によるデータ補正を行う際に利用される。ここでは、実際に、現在手術中の体内(現在環境(実環境)又は現在体内環境と呼ぶ)における3次元地図情報(体内環境地図)を「現在体内環境地図」と呼ぶ。
(理想環境入力補正部258)
理想環境入力補正部258は、例えば、現在の撮像部12の先端位置・姿勢データや左右両手に保持される各鉗子(図示省略)の先端位置・姿勢データ等を利用して、理想環境地図保持部254に格納された理想体内環境地図情報と、体内環境地図生成部256で生成された現在体内環境地図との特徴点を抽出し、抽出した特徴点の差分を算出する。そして、理想環境入力補正部258は、算出された差分に基づき、入力情報受信部252から取得した、自律動作のためのデータを生成するために用いるデータ(外部入力情報)の補正を行うことができる。例えば、理想環境入力補正部258は、補正された理想環境での左右両手に保持される各鉗子の先端位置・姿勢データ等の各種データ(外部入力情報)を理想環境自律動作生成部260に出力する。
(理想環境自律動作生成部260)
理想環境自律動作生成部260は、学習モデル132又はルールベース制御モデル134を参照して、補正された各種データ(外部入力情報)に基づき、ロボットアーム装置10(例えば、アーム部11)の自律動作目標値(理想環境での自律動作制御情報)を生成することができる。詳細には、理想環境自律動作生成部260は、上述した学習モデル132及びルールベース制御モデル134を参照して、左右両手に保持される各鉗子(図示省略)の先端位置・姿勢データに基づき、自律動作目標値として、撮像部12の位置・姿勢(例えば、各鉗子のみを視野内に捉えるための撮像部12の位置・姿勢)の情報を生成する。もしくは、理想環境自律動作生成部260は、自律動作目標値として、撮像部12の視野の中心に位置する注視点の位置、撮像部12から注視点までの距離、注視点への視野方向等の情報からなる視野情報を生成する。そして、理想環境自律動作生成部260は、生成した自律動作目標値を理想環境シミュレーション部262へ出力する。
(理想環境シミュレーション部262)
理想環境シミュレーション部262は、理想環境地図保持部254に格納された理想体内環境地図(理想環境地図)と、理想環境自律動作生成部260で生成された自律動作目標値とに基づき、理想環境におけるロボットアーム装置10(例えば、アーム部11)の動作シミュレーションを行うことができる。理想環境シミュレーション部262は、シミュレーション結果として、理想体内環境における撮像部12の画像や、撮像部12と鉗子と位置関係情報、撮像部12と周辺臓器との位置関係情報を、自律動作結果比較部268へ出力する。
(現在環境自律動作生成部264)
現在環境自律動作生成部264は、学習モデル132、ルールベース制御モデル134を参照して、入力情報受信部252からの各種データ(外部入力情報)に基づき、ロボットアーム装置10(例えば、アーム部11)の自律動作目標値(実環境での自律動作制御情報)を生成することができる。詳細には、現在環境自律動作生成部264は、上述した学習モデル132及びルールベース制御モデル134を参照して、左右両手に保持される各鉗子(図示省略)の先端位置・姿勢データに基づき、自律動作目標値として、撮像部12の位置・姿勢(例えば、各鉗子のみを視野内に捉えるための撮像部12の位置・姿勢)の情報を生成する。もしくは、現在環境自律動作生成部264は、自律動作目標値として、撮像部12の視野の中心に位置する注視点の位置、撮像部12から注視点までの距離、注視点への視野方向等の情報からなる視野情報を生成する。そして、現在環境自律動作生成部264は、生成した自律動作目標値を後述する現在環境シミュレーション部266へ出力する。
(現在環境シミュレーション部266)
現在環境シミュレーション部266は、体内環境地図生成部256でリアルタイムに生成される現在体内環境地図(実環境地図)と、現在環境自律動作生成部264で生成した自律動作目標値とに基づき、現在環境(実環境)におけるロボットアーム装置10(例えば、アーム部11)の動作シミュレーションを行うことができる。現在環境シミュレーション部266は、シミュレーション結果として、現体内環境での撮像部12の画像や、撮像部12と鉗子と位置関係情報、撮像部12と周辺臓器との位置関係情報を、自律動作結果比較部268へ出力する。
(自律動作結果比較部268)
自律動作結果比較部268は、理想環境シミュレーション部262での理想環境における動作シミュレーションの結果と、現在環境シミュレーション部266での現在環境(実環境)における動作シミュレーションの結果との差分を抽出することができる。詳細には、自律動作結果比較部268は、理想環境での撮像部12の画像、現在環境での撮像部12の画像や、理想環境及び現在環境における、撮像部と鉗子と位置関係情報、撮像部12と周辺臓器との位置関係情報等に基づき、差分として、撮像部12の画像の特徴点の差分や、撮像部12と鉗子と位置関係の差分、撮像部12と周辺臓器との位置関係の差分を自律動作修正パラメータ生成部270へ出力する。
(自律動作修正パラメータ生成部270)
自律動作修正パラメータ生成部270は、自律動作結果比較部268からの取得した差分に基づき、ロボットアーム装置10(例えば、アーム部11)の自律動作目標を修正するための修正パラメータ(撮像部12の位置・姿勢のオフセットやズーム量)を生成する。そして、自律動作修正パラメータ生成部270は、生成した修正パラメータを自律動作修正部216、272へ出力する。
(自律動作修正部272)
自律動作修正部272は、現在環境自律動作生成部264で生成されたロボットアーム装置10(例えば、アーム部11)の自律動作目標値(実環境での自律動作制御情報)と、自律動作修正パラメータ生成部270で生成された修正パラメータ(撮像部12の位置・姿勢のオフセットやズーム量)とに基づき、ロボットアーム装置10(例えば、アーム部11)の自律動作目標値(実環境での自律動作制御情報)を修正することができる。そして、自律動作修正部272は、修正した自律動作目標値を後述する現在環境シミュレーション更新部274に出力する。
(現在環境シミュレーション更新部274)
現在環境シミュレーション更新部274は、自律動作修正部272で修正された自律動作目標値に基づき、現在環境における動作シミュレーションを再度行うことができる。詳細には、現在環境シミュレーション更新部274は、体内環境地図生成部256でリアルタイムに更新される現在体内環境地図(実環境地図)と、自律動作修正部272で修正された自律動作目標値とに基づき、現在環境におけるロボットアーム装置10(例えば、アーム部11)の動作シミュレーションを再度行うことができる。そして、現在環境シミュレーション更新部274は、シミュレーション結果として、現在環境における撮像部12の画像や、撮像部12と鉗子と位置関係情報、撮像部12と周辺臓器との位置関係情報を、後述する干渉予測部276及び画像生成部278へ出力する。
(干渉予測部276)
干渉予測部276は、現在環境シミュレーション更新部274での再シミュレーションの結果に基づき、周辺臓器(他のオブジェクト)との干渉予測や接触判定等を行い、干渉予測情報(干渉が予測される干渉臓器(他の部位)の位置、干渉時の撮像部12(又は、アーム部11)の位置・姿勢等の情報)を制御ユニット210へ出力することができる。
(画像生成部278)
画像生成部278は、現在環境シミュレーション更新部274での再シミュレーションの結果に基づき、上記干渉臓器と干渉した際に、撮像部12で得られるであろう予測画像(干渉予測画像)を生成し、提示装置40へ出力することができる。
なお、本実施形態においては、自律動作実行ユニット200の詳細構成は、図7に示す構成に限定されるものではない。
~提示装置40~
次に、図8を参照して、提示装置40を説明する。図8は、本実施形態に係る提示装置40の構成の一例を示すブロック図である。詳細には、図8に示すように、提示装置40は、実画像取得部402、仮想画像取得部404及び予測結果生成部406を主に有する。以下に、提示装置40の各機能部の詳細について順次説明する。
(実画像取得部402)
実画像取得部402は、制御ユニット210から、撮像部12からの実際の画像(例えば、広角画像)と、上述した切出視野生成部230にて生成された切り出されるであろう予測画像を取得し、後述する予測結果生成部406へ出力することができる。
(仮想画像取得部404)
仮想画像取得部404は、シミュレータユニット250から、干渉臓器と干渉した際に、撮像部12で得られるであろう干渉予測画像を取得し、後述する予測結果生成部406へ出力することができる。
(予測結果生成部406)
予測結果生成部406は、撮像部12からの実際の画像(例えば、広角画像)、切り出されるであろう予測画像、及び、シミュレータユニット250から予測される予測画像(例えば、干渉臓器と干渉した際に、撮像部12で得られるであろう干渉予測画像)のうち、いずれか1つ、2つ又は3つを同時に術者(ユーザ)5067に向けて提示することができる。
なお、本実施形態においては、提示装置40の詳細構成は、図8に示す構成に限定されるものではない。
<4.4 自律動作実行段階での制御方法>
~概要~
次に、本実施形態に係る、自律動作実行段階での制御方法について説明する。まず、図9を参照して、本実施形態に係る制御方法の概要を説明する。図9は、本実施形態に係る自律動作実行段階での制御方法のフローチャートである。
図9に示すように、本実施形態に係る自律動作実行段階での制御方法は、ステップS100からステップS300までのステップを主に含むことができる。以下に、本これら各ステップの概要について説明する。以下に説明する制御方法は、各種データ(外部入力情報)を取得することによって開始され、自律動作実行ユニット200の手術タスクが終了するまでの間、繰り返し実行される。
まず、自律動作実行ユニット200は、左右両手に保持される各鉗子(図示省略)の先端位置・姿勢データ(実環境における医療用器具の位置情報及び姿勢情報)、撮像部12の先端位置・姿勢データ(実環境における医療用アームの位置情報及び姿勢情報)、撮像部12の画像(医療用観察装置による実環境の画像)、測距センサ(ステレオ内視鏡、デプスセンサ等)(図示省略)からのセンシングデータ等の各種データ(外部入力情報)を取得する(ステップS100)。
次に、自律動作実行ユニット200は、取得した各種データに基づき、主に、シミュレータユニット250を動作させて、シミュレーションを実行する(ステップS200)。
さらに、自律動作実行ユニット200は、上述のステップS200のシミュレーション結果に基づき、主に、制御ユニット210を動作させて、アーム部11を制御する(ステップS300)。自律動作実行ユニット200は、タスクが終了するまでの間、図9に示すフローを繰り返し実行する。
~シミュレータユニット動作段階~
次に、図9に示すステップS200の詳細について、図10から図20を参照して説明する。図10は、図9に示すステップS200のサブフローチャートであり、図11から図20は、本実施形態に係る制御方法の詳細を説明するための説明図である。図10に示すように、ステップS200は、サブステップS201からサブステップS215までの複数のサブステップを主に含むことができる。以下に、これら各サブステップの詳細について説明する。なお、図10においては、通常の情報処理のフローチャートと異なり、1つのサブステップから複数のサブステップへ矢印が分岐している個所については、複数のサブステップが並列で処理されることを意味している。
入力情報受信部252は、上述した制御ユニット210の入力情報取得部212から、環境地図生成に用いるデータを体内環境地図生成部256に出力し、自律動作のために用いるデータを理想環境入力補正部258及び現在環境自律動作生成部264に出力する。さらに、入力情報受信部252は、例えば、左右両手に保持される各鉗子(図示省略)の先端位置・姿勢データ、内視鏡5001の先端位置・姿勢データ、撮像部12の画像、測距センサ(図示省略)からのセンシングデータ等を、体内環境地図生成部256に出力する(サブステップS201)。
体内環境地図生成部256は、入力情報受信部252から取得した、左右両手に保持される各鉗子(図示省略)の先端位置・姿勢データ、撮像部12の先端位置・姿勢データ、撮像部12の画像、測距センサ(図示省略)からのセンシングデータ等を含む、各種データ(外部入力情報)に基づき、現在体内環境地図(実環境地図)をリアルタイムで生成する(サブステップS202)。
自律動作生成部214は、入力情報取得部212から出力された各種のデータ(外部入力情報)に基づき、ロボットアーム装置10(例えば、アーム部11)を自律的に動作させるための自律動作目標値(自律動作制御情報)を生成する(サブステップS203)。
理想環境入力補正部258は、例えば、現在の撮像部12の先端位置・姿勢データや左右両手に保持される各鉗子(図示省略)の先端位置・姿勢データ等を利用して、理想環境地図保持部254に格納された理想体内環境地図情報と、体内環境地図生成部256で生成された現在体内環境地図との特徴点を抽出し、抽出した特徴点の差分を算出する。例えば、図11に示すように、理想環境入力補正部258は、現在の体内画像138における臓器の輪郭の特徴点を抽出することにより、理想環境における画像136cとの差分500を抽出することができる。
そして、理想環境入力補正部258は、差分に基づき、入力情報受信部252から取得した理想環境における自律動作のために用いる入力データの補正を行う。理想環境入力補正部258は、例えば、図12に示すように、臓器の位置の差分500に基づき、鉗子の位置を補正するための補正量502を算出することができる。そして、理想環境入力補正部258は、算出した補正量に基づき、鉗子位置を、例えば、図13の左側に示す画像136aの状態から、右側に示す画像136bの状態へと補正することができる(サブステップS204)。
理想環境自律動作生成部260は、学習モデル132、ルールベース制御モデル134を参照して、補正された各種データ(外部入力情報)に基づき、理想環境におけるロボットアーム装置10(例えば、アーム部11)の自律動作目標値(理想環境での自律動作制御情報)を生成する(サブステップS205)。
現在環境自律動作生成部264は、学習モデル132、ルールベース制御モデル134を参照して、入力情報受信部252からの各種データ(外部入力情報)に基づき、現在環境におけるロボットアーム装置10(例えば、アーム部11)の自律動作目標値(実環境での自律動作制御情報)を生成する。そして、現在環境シミュレーション部266は、体内環境地図生成部256でリアルタイムに更新される現在体内環境地図(実環境地図)と、現在環境自律動作生成部264で生成した自律動作目標値とに基づき、現在環境におけるロボットアーム装置10(例えば、アーム部11)の動作シミュレーションを行う(サブステップS206)。例えば、現在環境シミュレーション部266は、図14に示すように、現在環境において撮像部12で得られる画像602のシミュレーションを行う。
理想環境シミュレーション部262は、理想環境地図保持部254に格納された理想体内環境地図情報と、理想環境自律動作生成部260で生成された自律動作目標値とに基づき、理想環境におけるロボットアーム装置10(例えば、アーム部11)の動作シミュレーションを行う(サブステップS207)。例えば、理想環境シミュレーション部262は、図15に示すように、理想環境において撮像部12で得られる画像600のシミュレーションを行う(サブステップS207)。
自律動作結果比較部268は、理想環境シミュレーション部262での理想環境における動作シミュレーションの結果と、現在環境シミュレーション部266での現在環境における動作シミュレーションの結果との差分を抽出する(サブステップS208)。例えば、自律動作結果比較部268は、図16に示すように、理想環境シミュレーション部262での理想環境における動作シミュレーションの結果である撮像部12による画像600と、現在環境シミュレーション部266での現在環境における動作シミュレーションの結果である撮像部12による画像602との差分(相違点)504を抽出する。
自律動作修正パラメータ生成部270は、自律動作結果比較部268からの取得した差分に基づき、ロボットアーム装置10(例えば、アーム部11)の自律動作目標を修正するための修正パラメータ(撮像部12の位置・姿勢のオフセットやズーム量)を生成する(サブステップS209)。例えば、自律動作修正パラメータ生成部270は、図17に示すように、修正パラメータ506として、撮像部12の注視点のオフセット量とズーム量とを算出する。
自律動作実行ユニット200は、図21に示すサブステップS302の処理へ進む(サブステップS210)。
自律動作修正部272は、現在環境自律動作生成部264で生成されたロボットアーム装置10(例えば、アーム部11)の自律動作目標値(実環境での自律動作制御情報)と、自律動作修正パラメータ生成部270で生成された修正パラメータ(撮像部12の位置・姿勢のオフセットやズーム量)とに基づき、ロボットアーム装置10(例えば、アーム部11)の自律動作目標値を修正する(サブステップS211)。例えば、自律動作修正部272は、図18に示すように、修正パラメータ506に基づいて、撮像部12の目標視野を修正する。
現在環境シミュレーション更新部274は、自律動作修正部272で修正された自律動作目標値に基づき、現在体内環境における動作シミュレーションを再度実行する(サブステップS212)。
干渉予測部276は、現在環境シミュレーション更新部274での再シミュレーションの結果に基づき、周辺臓器との干渉予測及び接触判定を行い、干渉予測情報を制御ユニット210へ出力する(サブステップS213)。例えば、干渉予測部276は、図19に示すように、シミュレーションにおいて周辺臓器との干渉を検出する。
画像生成部278は、現在環境シミュレーション更新部274での再シミュレーションの結果に基づき、予測される周辺臓器の干渉の際に得られるであろう干渉予測画像を生成し、提示装置40へ出力する(サブステップS214)。例えば、画像生成部278は、図20に示すような、干渉予測画像604を生成する。
自律動作実行ユニット200は、図21に示すサブステップS303の処理へ進む(サブステップS215)。
~制御ユニット動作段階~
次に、図9に示すステップS300の詳細について、図21から図25を参照して説明する。図21は、図9に示すステップS300のサブフローチャートであり、図22から図25は、本実施形態に係る制御方法の詳細を説明するための説明図である。図21に示すように、ステップS300は、サブステップS301からサブステップS309までの複数のサブステップを主に含むことができる。以下に、これら各サブステップの詳細について説明する。なお、図21においては、通常の情報処理のフローチャートと異なり、1つのサブステップから複数のサブステップへ矢印が分岐している個所については、複数のサブステップが並列で処理されることを意味している。
自律動作生成部214は、入力情報取得部212から出力された各種のデータ(外部入力情報)に基づき、ロボットアーム装置10(例えば、アーム部11)を自律的に動作させるための自律動作目標値(自律動作制御情報)を生成する(サブステップS301)。
自律動作修正部216は、実際の現在の体内環境(実環境)におけるロボットアーム装置10(例えば、アーム部11)の動作シミュレーションの結果、及び、理想体内環境におけるロボットアーム装置10(例えば、アーム部11)の動作シミュレーションの結果に基づき、自律動作目標値(自律動作制御情報)をリアルタイムで修正する(サブステップS302)。
カメラ予測視野算出部218は、後述するシミュレータユニット250から取得した干渉予測情報に基づき、干渉の事前提示及び干渉回避のための撮像部12の目標視野を決定する(サブステップS303)。詳細には、例えば、撮像部12が広角/切り出し機能付きの内視鏡(図示省略)であった場合には、カメラ予測視野算出部218は、切り出す視野範囲630を図22の左側に示す範囲から右側に示す範囲へ変更する。
切出視野生成部230は、撮像部12が広角/切り出し機能付きの内視鏡(図示省略)であった場合には、カメラ予測視野算出部218から取得した切り出す視野範囲に基づき、図23に示すような、撮像部12で取得した広角画像606に対して切り出し処理を行った場合に切り出されるであろう予測画像608を生成する(サブステップS304)。
視野連動制御演算部220は、修正された自律動作目標値及び撮像部12の先端の目標姿勢(干渉予測情報)に基づき、干渉を回避してロボットアーム装置10(例えば、アーム部11)を動作させるための制御情報(先端自由度制御指令値、アーム制御指令値)を生成する(サブステップS305)。例えば、撮像部12が先端湾曲機能付きの内視鏡(図示省略)である場合には、視野連動制御演算部220は、図24に示すように、アーム部11と撮像部12の先端とを連動させて動かして干渉を回避することができる制御情報を生成する。本実施形態においては、生成した制御情報に基づき、図25に示されるような、干渉回避時に撮像部12で得られるであろう予測画像610を生成してもよい。
ユーザ指示調停部224は、視野連動制御演算部220から出力された制御情報(制御指令値)と、術者(ユーザ)5067が手動入力した修正指示(例えば、注視点のオフセットやズーム量オフセット等)に基づき、制御情報(先端制御指令値、アーム制御指令値)を修正する(サブステップS306)。
アーム制御部226は、更新された制御情報(アーム制御指令値)に基づき、アーム部11を制御する(サブステップS307)。
先端制御部228は、制御情報(先端制御指令値)に基づき、撮像部12の視野方向、ズーム量等を制御する(サブステップS308)。
自律動作実行ユニット200は、図9に示すステップS100の処理へ進む(サブステップS309)。
~提示段階~
次に、図26及び図27を参照して、本実施形態に係る提示段階での制御方法について説明する。図26は、本実施形態に係る制御方法のフローチャートであり、図27は、本実施形態に係る制御方法の詳細を説明するための説明図である。なお、図26においては、通常の情報処理のフローチャートと異なり、1つのサブステップから複数のサブステップへ矢印が分岐している個所については、複数のサブステップが並列で処理されることを意味している。
本実施形態に係る提示段階は、自律動作実行段階に続いて実行される。図26に示すように、提示段階での制御方法は、ステップS401からステップS403までの複数のサブステップを主に含むことができる。以下に、これら各ステップの詳細について説明する。
実画像取得部402は、制御ユニット210から、撮像部12からの実際の画像(広角画像)と、切り出し視野による予測画像を取得する(ステップS401)。
仮想画像取得部404は、シミュレータユニット250から予測される干渉予測画像を取得する(ステップS402)。
予測結果生成部406は、図27に示すように、撮像部12からの実際の画像610、切り出されるであろう切り出し視野による予測画像612、及び、シミュレータユニット250によって予測される干渉予測画像のうち、いずれか1つ、2つ又は3つを同時に術者(ユーザ)5067に向けて提示する(ステップS403)。本実施形態においては、切り出されるであろう切り出し視野による予測画像612や、シミュレータユニット250によって予測される干渉予測画像等を、医者の動作に先行して提示することができることから、医者の視野の移動やスムーズな鉗子操作や干渉等を回避する動作を可能にする。
以上のように、本開示の実施形態によれば、各種データ(外部入力情報)に基づいて生成された自律動作制御情報を、実際の体内環境におけるロボットアーム装置10の動作シミュレーションの結果、及び、理想体内環境におけるロボットアーム装置10の動作シミュレーションの結果に基づき、修正を行うことにより、様々な体内環境に適した自律動作制御情報をリアルタイムで生成することができる。そして、このような自律動作制御情報に従って制御されたロボットアーム装置10によって支援を受けることにより、医者は、好適に、且つ、スムーズに手術を遂行することができる。
<4.5 変形例>
本開示の実施形態においては、いわゆるマスタースレイブ方式での操作に適用することもできる。この場合、アーム部11に支持された撮像部12や鉗子(図示省略)等が、手術室から離れた場所または手術室内に設置される入力装置5047(マスターコンソール)を介して術者(ユーザ)5067によって遠隔操作され得る。
<<5. ハードウェア構成>>
上述してきた各実施形態に係る自律動作実行ユニット200等の情報処理装置は、例えば図28に示すような構成のコンピュータ1000によって実現される。以下、本開示の実施形態に係る自律動作実行ユニット200を例に挙げて説明する。図28は、本開示の実施形態に係る自律動作実行ユニット200の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス1500、及び、入出力インターフェイス1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
CPU1100は、ROM1300又はHDD1400に保存されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に保存されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を保存する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係る医療用アーム制御方法のためのプログラムを記録する記録媒体である。
通信インターフェイス1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェイスである。例えば、CPU1100は、通信インターフェイス1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
入出力インターフェイス1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェイスである。例えば、CPU1100は、入出力インターフェイス1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェイス1600を介して、ディスプレイやスピーカーやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェイス1600は、コンピュータ読み取り可能な所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が本開示の実施形態に係る自律動作実行ユニット200
として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされた医療用アーム制御方法のためのプログラムを実行することにより、シミュレータユニット250等の機能を実現する。また、HDD1400には、本開示に係る医療用アーム制御方法のためのプログラムや、記憶部60内のデータが保存されてもよい。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置から情報処理プログラムを取得してもよい。
また、本実施形態に係る自律動作実行ユニット200は、例えばクラウドコンピューティング等のように、ネットワークへの接続(または各装置間の通信)を前提とした、複数の装置からなるシステムに適用されてもよい。つまり、上述した本実施形態に係る自律動作実行ユニット200は、例えば、複数の装置により本実施形態に係る医療用観察システム1として実現することも可能である。
以上、自律動作実行ユニット200のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更され得る。
<<6. 補足>>
なお、先に説明した本開示の実施形態は、例えば、上記で説明したような情報処理装置又は情報処理システムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、及びプログラムが記録された一時的でない有形の媒体を含みうる。また、当該プログラムをインターネット等の通信回線(無線通信も含む)を介して頒布してもよい。
また、上述した本開示の実施形態の情報処理方法における各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。さらに、各ステップの処理についても、必ずしも記載された方法に沿って処理されなくてもよく、例えば、他の機能部によって他の方法により処理されていてもよい。
上記各実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
外部入力情報に基づいて、医療用アームを自律的に動作させるための自律動作制御情報を生成する制御情報生成部と、
前記医療用アームの動作シミュレーションを行うシミュレーション部と、
前記医療用アームの動作シミュレーションの結果に基づき、前記自律動作制御情報をリアルタイムで修正する修正部と、
を備える、医療用アーム制御システム。
(2)
前記修正部は、前記外部入力情報から得られた実環境における、前記医療用アームの動作シミュレーションの結果、及び、理想環境における、前記医療用アームの動作シミュレーションの結果に基づき、前記自律動作制御情報をリアルタイムで修正する、上記(1)に記載の医療用アーム制御システム。
(3)
前記理想環境における動作シミュレーションの結果と前記実環境における動作シミュレーションの結果との差分を抽出する比較部を有し、
前記修正部は、前記差分に基づき、前記自律動作制御情報をリアルタイムで修正する、 上記(2)に記載の医療用アーム制御システム。
(4)
前記外部入力情報は、実環境における前記医療用アームの位置情報及び姿勢情報を含む、上記(1)~(3)のいずれか1つに記載の医療用アーム制御システム。
(5)
前記医療用アームは医療用観察装置を支持する、上記(1)~(4)のいずれか1つに記載の医療用アーム制御システム。
(6)
前記外部入力情報は、前記医療用観察装置による実環境の画像を含む、上記(5)に記載の医療用アーム制御システム。
(7)
前記医療用観察装置は、内視鏡である、上記(5)又は(6)に記載の医療用アーム制御システム。
(8)
前記外部入力情報は、前記実環境における医療用器具の位置情報及び姿勢情報を含む、上記(4)に記載の医療用アーム制御システム。
(9)
前記医療用アームは医療用器具を支持する、上記(8)に記載の医療用アーム制御システム。
(10)
前記外部入力情報は、測距装置によるセンシングデータを含む、上記(1)~(9)のいずれか1つに記載の医療用アーム制御システム。
(11)
前記測距装置は、ステレオ方式、ToF方式又はストラクチャードライト方式を用いて測距を行う、上記(10)に記載の医療用アーム制御システム。
(12)
前記自律動作制御情報は、前記医療用アームの目標位置情報及び目標姿勢情報を含む、上記(1)~(11)のいずれか1つに記載の医療用アーム制御システム。
(13)
前記制御情報生成部は、機械学習によって得られた学習モデルに基づき、前記自律動作制御情報を生成する、上記(1)~(12)のいずれか1つに記載の医療用アーム制御システム。
(14)
修正された前記自律動作制御情報に基づき、前記医療用アームを制御する制御部をさらに備える、
上記(1)~(13)のいずれか1つに記載の医療用アーム制御システム。
(15)
前記医療用アームをさらに備える、上記(1)~(14)のいずれか1つに記載の医療用アーム制御システム。
(16)
前記シミュレーション部は、
実環境地図を参照して、前記実環境における前記医療用アームの動作シミュレーションを行う実環境シミュレーション部と、
理想環境地図を参照して、前記理想環境における前記医療用アームの動作シミュレーションを行う理想環境シミュレーション部と、
を含む、
上記(2)に記載の医療用アーム制御システム。
(17)
前記実環境シミュレーション部は、前記外部入力情報に基づき生成された実環境地図、及び、前記外部入力情報に基づき生成された前記自律動作制御情報を用いて、前記実環境における前記医療用アームの動作シミュレーションを行う、上記(16)に記載の医療用アーム制御システム。
(18)
前記理想環境シミュレーション部は、理想環境地図、及び、補正された前記外部入力情報に基づき生成された前記自律動作制御情報を用いて、前記理想環境における前記医療用アームの動作シミュレーションを行う、上記(17)に記載の医療用アーム制御システム。
(19)
前記理想環境地図と前記実環境地図との差分に基づき、前記外部入力情報を補正する理想環境入力補正部をさらに備える、上記(18)に記載の医療用アーム制御システム。
(20)
前記理想環境地図及び前記実環境地図は、人体内における3次元地図情報である、上記(19)に記載の医療用アーム制御システム。
(21)
前記実環境地図は、前記実環境の画像に基づいてSLAM(Simultaneous Localization and Mapping)法により生成される、上記(20)に記載の医療用アーム制御システム。
(22)
修正された前記自律動作制御情報に基づき、前記実環境における前記医療用アームの動作シミュレーションを行う再シミュレーション部をさらに備える、
上記(2)に記載の医療用アーム制御システム。
(23)
前記再シミュレーション部のシミュレーション結果に基づき、他の部位との干渉を予測する予測部をさらに備える、
上記(22)に記載の医療用アーム制御システム。
(24)
前記予測部は、干渉予測情報として、
干渉が予測される前記他の部位の位置情報と、
予測される干渉時の前記医療用アームの位置情報及び姿勢情報と、
を出力する、
上記(23)に記載の医療用アーム制御システム。
(25)
前記干渉予測情報に基づき、干渉回避するための制御情報を生成する回避制御情報生成部をさらに備える、
上記(24)に記載の医療用アーム制御システム。
(26)
前記再シミュレーション部のシミュレーション結果に基づき、予測される画像を生成する予測画像を生成する予測画像生成部をさらに備える、
上記(22)~(25)のいずれか1つに記載の医療用アーム制御システム。
(27)
前記予測画像は、実環境の画像とともにユーザに提示される、上記(26)に記載の医療用アーム制御システム。
(28)
医療用アーム制御装置により、
外部入力情報に基づいて、医療用アームを自律的に動作させるための自律動作制御情報を生成し、
前記医療用アームの動作シミュレーションを行い、
前記医療用アームの動作シミュレーションの結果に基づき、前記自律動作制御情報をリアルタイムで修正する、
ことを含む、医療用アーム制御方法。
(29)
コンピュータを、
外部入力情報に基づいて、医療用アームを自律的に動作させるための自律動作制御情報を生成する制御情報生成部と、
前記医療用アームの動作シミュレーションを行うシミュレーション部と、
前記医療用アームの動作シミュレーションの結果に基づき、前記自律動作制御情報をリアルタイムで修正する修正部と、
として機能させる、プログラム。
1 医療用観察システム
10 ロボットアーム装置
11 アーム部
11a 関節部
12 撮像部
13 光源部
20 制御部
21 画像処理部
22 撮像制御部
23 アーム制御部
25 受付部
26 表示制御部
40 提示装置
60、130 記憶部
100 学習モデル生成ユニット
110 外部入力情報取得部
120 自律動作学習モデル生成部
122 自律動作ルール生成部
124 理想地図生成部
132 学習モデル
134 ルールベース制御モデル
136 理想体内環境地図
136a、136b、136c、138、600、602、606、608、610、612 画像
140 出力部
200 自律動作実行ユニット
210 制御ユニット
212 入力情報取得部
214 自律動作生成部
216、272 自律動作修正部
218 カメラ予測視野算出部
220 視野連動制御演算部
224 ユーザ指示調停部
226 アーム制御部
228 先端制御部
230 切出視野生成部
250 シミュレータユニット
252 入力情報受信部
254 理想環境地図保持部
256 体内環境地図生成部
258 理想環境入力補正部
260 理想環境自律動作生成部
262 理想環境シミュレーション部
264 現在環境自律動作生成部
266 現在環境シミュレーション部
268 自律動作結果比較部
270 自律動作修正パラメータ生成部
274 現在環境シミュレーション更新部
276 干渉予測部
278 画像生成部
402 実画像取得部
404 仮想画像取得部
406 予測結果生成部
500 差分
502 補正量
504 相違点
506 パラメータ
630 視野範囲

Claims (29)

  1. 外部入力情報に基づいて、医療用アームを自律的に動作させるための自律動作制御情報を生成する制御情報生成部と、
    前記医療用アームの動作シミュレーションを行うシミュレーション部と、
    前記医療用アームの動作シミュレーションの結果に基づき、前記自律動作制御情報をリアルタイムで修正する修正部と、
    を備える、医療用アーム制御システム。
  2. 前記修正部は、前記外部入力情報から得られた実環境における、前記医療用アームの動作シミュレーションの結果、及び、理想環境における、前記医療用アームの動作シミュレーションの結果に基づき、前記自律動作制御情報をリアルタイムで修正する、請求項1に記載の医療用アーム制御システム。
  3. 前記理想環境における動作シミュレーションの結果と前記実環境における動作シミュレーションの結果との差分を抽出する比較部を有し、
    前記修正部は、前記差分に基づき、前記自律動作制御情報をリアルタイムで修正する、 請求項2に記載の医療用アーム制御システム。
  4. 前記外部入力情報は、実環境における前記医療用アームの位置情報及び姿勢情報を含む、請求項1に記載の医療用アーム制御システム。
  5. 前記医療用アームは医療用観察装置を支持する、請求項1に記載の医療用アーム制御システム。
  6. 前記外部入力情報は、前記医療用観察装置による実環境の画像を含む、請求項5に記載の医療用アーム制御システム。
  7. 前記医療用観察装置は、内視鏡である、請求項5に記載の医療用アーム制御システム。
  8. 前記外部入力情報は、前記実環境における医療用器具の位置情報及び姿勢情報を含む、請求項4に記載の医療用アーム制御システム。
  9. 前記医療用アームは医療用器具を支持する、請求項8に記載の医療用アーム制御システム。
  10. 前記外部入力情報は、測距装置によるセンシングデータを含む、請求項1に記載の医療用アーム制御システム。
  11. 前記測距装置は、ステレオ方式、ToF方式又はストラクチャードライト方式を用いて測距を行う、請求項10に記載の医療用アーム制御システム。
  12. 前記自律動作制御情報は、前記医療用アームの目標位置情報及び目標姿勢情報を含む、請求項1に記載の医療用アーム制御システム。
  13. 前記制御情報生成部は、機械学習によって得られた学習モデルに基づき、前記自律動作制御情報を生成する、請求項1に記載の医療用アーム制御システム。
  14. 修正された前記自律動作制御情報に基づき、前記医療用アームを制御する制御部をさらに備える、
    請求項1に記載の医療用アーム制御システム。
  15. 前記医療用アームをさらに備える、請求項1に記載の医療用アーム制御システム。
  16. 前記シミュレーション部は、
    実環境地図を参照して、前記実環境における前記医療用アームの動作シミュレーションを行う実環境シミュレーション部と、
    理想環境地図を参照して、前記理想環境における前記医療用アームの動作シミュレーションを行う理想環境シミュレーション部と、
    を含む、
    請求項2に記載の医療用アーム制御システム。
  17. 前記実環境シミュレーション部は、前記外部入力情報に基づき生成された実環境地図、及び、前記外部入力情報に基づき生成された前記自律動作制御情報を用いて、前記実環境における前記医療用アームの動作シミュレーションを行う、請求項16に記載の医療用アーム制御システム。
  18. 前記理想環境シミュレーション部は、理想環境地図、及び、補正された前記外部入力情報に基づき生成された前記自律動作制御情報を用いて、前記理想環境における前記医療用アームの動作シミュレーションを行う、請求項17に記載の医療用アーム制御システム。
  19. 前記理想環境地図と前記実環境地図との差分に基づき、前記外部入力情報を補正する理想環境入力補正部をさらに備える、請求項18に記載の医療用アーム制御システム。
  20. 前記理想環境地図及び前記実環境地図は、人体内における3次元地図情報である、請求項19に記載の医療用アーム制御システム。
  21. 前記実環境地図は、前記実環境の画像に基づいてSLAM(Simultaneous Localization and Mapping)法により生成される、請求項20に記載の医療用アーム制御システム。
  22. 修正された前記自律動作制御情報に基づき、前記実環境における前記医療用アームの動作シミュレーションを行う再シミュレーション部をさらに備える、
    請求項2に記載の医療用アーム制御システム。
  23. 前記再シミュレーション部のシミュレーション結果に基づき、他の部位との干渉を予測する予測部をさらに備える、
    請求項22に記載の医療用アーム制御システム。
  24. 前記予測部は、干渉予測情報として、
    干渉が予測される前記他の部位の位置情報と、
    予測される干渉時の前記医療用アームの位置情報及び姿勢情報と、
    を出力する、
    請求項23に記載の医療用アーム制御システム。
  25. 前記干渉予測情報に基づき、干渉回避するための制御情報を生成する回避制御情報生成部をさらに備える、
    請求項24に記載の医療用アーム制御システム。
  26. 前記再シミュレーション部のシミュレーション結果に基づき、予測される画像を生成する予測画像を生成する予測画像生成部をさらに備える、
    請求項22に記載の医療用アーム制御システム。
  27. 前記予測画像は、実環境の画像とともにユーザに提示される、請求項26に記載の医療用アーム制御システム。
  28. 医療用アーム制御装置により、
    外部入力情報に基づいて、医療用アームを自律的に動作させるための自律動作制御情報を生成し、
    前記医療用アームの動作シミュレーションを行い、
    前記医療用アームの動作シミュレーションの結果に基づき、前記自律動作制御情報をリアルタイムで修正する、
    ことを含む、医療用アーム制御方法。
  29. コンピュータを、
    外部入力情報に基づいて、医療用アームを自律的に動作させるための自律動作制御情報を生成する制御情報生成部と、
    前記医療用アームの動作シミュレーションを行うシミュレーション部と、
    前記医療用アームの動作シミュレーションの結果に基づき、前記自律動作制御情報をリアルタイムで修正する修正部と、
    として機能させる、プログラム。
JP2021118581A 2020-07-20 2021-07-19 医療用アーム制御システム、医療用アーム制御方法、及びプログラム Pending JP2022020592A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020124036 2020-07-20
JP2020124036 2020-07-20

Publications (1)

Publication Number Publication Date
JP2022020592A true JP2022020592A (ja) 2022-02-01

Family

ID=77265163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021118581A Pending JP2022020592A (ja) 2020-07-20 2021-07-19 医療用アーム制御システム、医療用アーム制御方法、及びプログラム

Country Status (4)

Country Link
US (1) US20230172438A1 (ja)
EP (1) EP4181811A2 (ja)
JP (1) JP2022020592A (ja)
WO (1) WO2022019318A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024144133A1 (ko) * 2022-12-26 2024-07-04 (주)미래컴퍼니 수술용 로봇 시스템 및 이의 제어방법

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3705018A4 (en) * 2017-11-01 2020-10-14 Sony Corporation SURGICAL ARM SYSTEM AND SURGICAL ARM CONTROL SYSTEM
JP2023539372A (ja) * 2020-09-02 2023-09-13 オーリス ヘルス インコーポレイテッド ロボット衝突の境界の判定
CN115068114A (zh) * 2022-06-10 2022-09-20 上海微创医疗机器人(集团)股份有限公司 用于在医生控制台显示虚拟手术器械的方法及医生控制台

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10390737B2 (en) * 2013-09-30 2019-08-27 Stryker Corporation System and method of controlling a robotic system for manipulating anatomy of a patient during a surgical procedure
WO2017083768A1 (en) * 2015-11-12 2017-05-18 Jarc Anthony Michael Surgical system with training or assist functions
CN114019990A (zh) 2016-02-24 2022-02-08 深圳市大疆创新科技有限公司 用于控制可移动物体的系统和方法
CN109531566B (zh) * 2018-11-16 2022-08-19 国网江苏省电力有限公司盐城供电分公司 一种基于虚拟现实系统的机器人带电作业控制方法
JP7239333B2 (ja) 2019-01-30 2023-03-14 東芝ライフスタイル株式会社 モータ

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024144133A1 (ko) * 2022-12-26 2024-07-04 (주)미래컴퍼니 수술용 로봇 시스템 및 이의 제어방법

Also Published As

Publication number Publication date
EP4181811A2 (en) 2023-05-24
WO2022019318A2 (en) 2022-01-27
WO2022019318A3 (en) 2022-03-03
US20230172438A1 (en) 2023-06-08

Similar Documents

Publication Publication Date Title
JP7003985B2 (ja) 医療用支持アームシステムおよび制御装置
WO2020196338A1 (en) Medical arm system, control device, and control method
JP7480477B2 (ja) 医療用観察システム、制御装置及び制御方法
WO2022019318A2 (en) Medical arm control system, medical arm control method, medical arm simulator, medical arm learning model, and associated programs
CN111278344B (zh) 手术臂系统和手术臂控制系统
WO2021124716A1 (en) Method, apparatus and system for controlling an image capture device during surgery
US20230142404A1 (en) Medical imaging apparatus, learning model generation method, and learning model generation program
WO2021049438A1 (ja) 医療用支持アーム、及び医療用システム
WO2018088105A1 (ja) 医療用支持アーム及び医療用システム
CN113993478A (zh) 医疗工具控制系统、控制器和非暂时性计算机可读存储器
JPWO2020080209A1 (ja) 医療用観察システム、医療用観察装置及び医療用観察方法
US20220400938A1 (en) Medical observation system, control device, and control method
WO2021049220A1 (ja) 医療用支持アーム、及び医療用システム
WO2022054498A1 (ja) 医療用アーム制御システム、医療用アーム装置、医療用アームの制御方法及びプログラム
WO2022030142A1 (ja) 情報処理装置、プログラム、学習モデル及び学習モデルの生成方法
JP2023507063A (ja) 手術中に画像取込装置を制御するための方法、装置、およびシステム
WO2018043205A1 (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
WO2021044900A1 (ja) 施術システム、画像処理装置、画像処理方法、及びプログラム
WO2022172733A1 (ja) 医療用観察装置、観察装置、観察方法及びアダプタ
WO2022019057A1 (ja) 医療用アーム制御システム、医療用アーム制御方法及びプログラム
WO2023017651A1 (ja) 医療用観察システム、情報処理装置及び情報処理方法
WO2022219878A1 (ja) 医療用観察システム、医療用画像処理方法及び情報処理装置