JP2022156622A - 手術システム並びに手術支援方法 - Google Patents
手術システム並びに手術支援方法 Download PDFInfo
- Publication number
- JP2022156622A JP2022156622A JP2021060413A JP2021060413A JP2022156622A JP 2022156622 A JP2022156622 A JP 2022156622A JP 2021060413 A JP2021060413 A JP 2021060413A JP 2021060413 A JP2021060413 A JP 2021060413A JP 2022156622 A JP2022156622 A JP 2022156622A
- Authority
- JP
- Japan
- Prior art keywords
- surgical
- coordinates
- robot
- observation device
- surgical robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001356 surgical procedure Methods 0.000 title claims abstract description 61
- 238000000034 method Methods 0.000 title claims description 16
- 238000012545 processing Methods 0.000 claims abstract description 30
- 238000006243 chemical reaction Methods 0.000 claims abstract description 13
- 230000036544 posture Effects 0.000 claims abstract 5
- 239000011159 matrix material Substances 0.000 claims description 35
- 230000009466 transformation Effects 0.000 claims description 27
- 210000000744 eyelid Anatomy 0.000 claims description 24
- 230000001131 transforming effect Effects 0.000 claims description 20
- 210000005252 bulbus oculi Anatomy 0.000 claims description 17
- 239000002131 composite material Substances 0.000 claims description 7
- 230000002194 synthesizing effect Effects 0.000 claims description 7
- 239000003550 marker Substances 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 3
- 210000000695 crystalline len Anatomy 0.000 description 35
- 230000005540 biological transmission Effects 0.000 description 21
- 238000004891 communication Methods 0.000 description 12
- 238000012014 optical coherence tomography Methods 0.000 description 12
- 210000001508 eye Anatomy 0.000 description 9
- 230000033001 locomotion Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 206010044565 Tremor Diseases 0.000 description 3
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 239000013307 optical fiber Substances 0.000 description 3
- 230000002207 retinal effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000001000 micrograph Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 208000002177 Cataract Diseases 0.000 description 1
- 208000010412 Glaucoma Diseases 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000014616 translation Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/37—Master-slave robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/10—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
- A61B90/14—Fixators for body parts, e.g. skull clamps; Constructional details of fixators, e.g. pins
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/20—Surgical microscopes characterised by non-optical aspects
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/007—Methods or devices for eye surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2068—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Robotics (AREA)
- Pathology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Neurosurgery (AREA)
- Ophthalmology & Optometry (AREA)
- Vascular Medicine (AREA)
- Manipulator (AREA)
Abstract
【課題】観察装置と手術ロボットを使って外科手術を支援する手術システムを提供する。【解決手段】手術システムは、術野を観察する観察装置と、術具を支持する手術ロボットと、前記観察装置と前記手術ロボットの相対的な位置及び姿勢の関係を固定する固定部と、前記相対的な位置及び姿勢の関係に基づいて、前記観察装置の撮像画像上の座標と前記術具の座標間の座標変換のための処理を行う処理部を具備する。前記観察装置は顕微鏡と前置レンズを含み、前記固定部は、前記前置レンズに対する前記手術ロボットの相対的な位置及び姿勢の関係を固定する。【選択図】 図5
Description
本明細書で開示する技術(以下、「本開示」とする)は、ロボティックス技術を適用して外科手術を支援する手術システム並びに手術支援方法に関する。
一般に外科手術は、オペレータの感覚運動によって行われる難しい作業である。特に眼科手術のように、小規模で脆弱な環境下で微細な術具を使用する手術の場合、オペレータは手の振戦を抑制して、ミクロンオーダーの動作を行う必要がある。そこで、ロボティックス技術を利用して、オペレータの手の振戦の抑止、操作支援によるオペレータ間の技量の相違の吸収などを実現する手術システムが浸透しつつある。
例えば、オペレータが顕微鏡を介して眼底部の術野を観察しながら術具操作を行うマスタスレーブシステムが開発されている(非特許文献1を参照のこと)。このマスタスレーブシステムによれば、オペレータは右手(又は利き手)で把持したマスタロボットの操作量に応じて術具を支持したスレーブロボットを動作させて、眼科手術における精密作業を行うことができる。
また、OCT(Optical Coherence Tomography:光干渉断層装置)画像の情報に基づいて手術用レーザービームの走査を制御して、白内障手術における角膜切開、前嚢切開、水晶体の破砕を行う手術システムが提案されている(特許文献1を参照のこと)。
上記のような手術システムにおいては、オペレータは、顕微鏡やOCTなどの観察装置で捕捉した標的組織の画像を見ながら手術を行う。その際、オペレータは、撮影画像と術具との空間的な位置関係を脳内でイメージしながら、マスタロボット(又は術具)の操作を行う。オペレータは、術具と撮像画像との間のハンドアイコーディネーションに習熟するために十分なトレーニングを行う必要がある。
J.Wilson et al.,"Intraocular robotic interventional surgical system (IRISS): Mechanical design,evaluation, and master-slave manipulation," Int.J.Med.Robot.Comput.Assist.Surg.,vol.14,Jul.2017,doi: 10.1002/rcs.1842.
B.P.DeJong,J.E.Colgate,and M.A.Peshkin,"Improving teleoperation: reducing mental rotations and translations," in IEEE International Conference on Robotics and Automation,2004.Proceedings.ICRA'04.2004,2004,vol.4,pp.3708-3714 Vol.4.
本開示の目的は、顕微鏡やOCTなどの観察装置と手術ロボットを使って外科手術を支援する手術システム並びに手術支援方法を提供することにある。
本開示は、上記課題を参酌してなされたものであり、その第1の側面は、
術野を観察する観察装置と、
術具を支持する手術ロボットと、
前記観察装置と前記手術ロボットの相対的な位置及び姿勢の関係を固定する固定部と、
前記相対的な位置及び姿勢の関係に基づいて、前記観察装置の撮像画像上の座標と前記術具の座標間の座標変換のための処理を行う処理部と、
を具備する手術システムである。
術野を観察する観察装置と、
術具を支持する手術ロボットと、
前記観察装置と前記手術ロボットの相対的な位置及び姿勢の関係を固定する固定部と、
前記相対的な位置及び姿勢の関係に基づいて、前記観察装置の撮像画像上の座標と前記術具の座標間の座標変換のための処理を行う処理部と、
を具備する手術システムである。
但し、ここで言う「システム」とは、複数の装置(又は特定の機能を実現する機能モジュール)が論理的に集合した物のことを言い、各装置や機能モジュールが単一の筐体内にあるか否かは特に問わない。
例えば、前記観察装置は顕微鏡と前置レンズを含み、前記固定部は、前記前置レンズに対する前記手術ロボットの相対的な位置及び姿勢の関係を固定するように構成されている。
また、例えば、前記固定部は、マーカーを有し術部の状態を保持する保持器に対する前記手術ロボットの相対的な位置及び姿勢の関係を固定するように構成されている。保持器は例えば開瞼器である。
また、手術システムがそれぞれ術具を支持する第1の手術ロボットと第2の手術ロボットを含み、前記観察装置は顕微鏡と前置レンズを含む場合、前記固定部は、前記前置レンズに対する前記第1の手術ロボットと前記第2の手術ロボットそれぞれの相対的な位置及び姿勢の関係を固定するように構成されていてもよい。
また、本開示の第2の側面は、術野を観察する観察装置と術具を支持する手術ロボットを含む手術システムを用いた手術支援方法であって、前記観察装置と前記手術ロボットの相対的な位置及び姿勢の関係が固定されており、
前記相対的な位置及び姿勢の関係に基づいて、前記観察装置の撮像画像上の座標と前記術具の座標間の座標変換のための処理を行う処理ステップと、
前記処理ステップによって変換された術具の座標に基づいて前記手術ロボットの駆動を制御する制御ステップと、
を有する手術支援方法である。
前記相対的な位置及び姿勢の関係に基づいて、前記観察装置の撮像画像上の座標と前記術具の座標間の座標変換のための処理を行う処理ステップと、
前記処理ステップによって変換された術具の座標に基づいて前記手術ロボットの駆動を制御する制御ステップと、
を有する手術支援方法である。
本開示によれば、観察装置と手術ロボットとを互いに連携して正確な手術の実施を支援する手術システム並びに手術支援方法を提供することができる。
なお、本明細書に記載された効果は、あくまでも例示であり、本開示によりもたらされる効果はこれに限定されるものではない。また、本開示が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
本開示のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
以下、図面を参照しながら本開示について、以下の順に従って説明する。
A.手術システム
B.手術ロボットを利用した外科手術の課題と本開示の概要
C.第1の実施例
D.第2の実施例
E.第3の実施例
F.効果
B.手術ロボットを利用した外科手術の課題と本開示の概要
C.第1の実施例
D.第2の実施例
E.第3の実施例
F.効果
A.手術システム
本明細書では、主に本開示をマスタスレーブ方式の手術システムに適用した実施形態を中心に説明する。このような手術システムでは、オペレータなどのユーザはマスタ側で操作を行い、スレーブ側ではユーザの操作に従ってロボットの駆動をコントロールすることによって手術を行う。手術システムにロボティックス技術を取り入れる目的として、オペレータの手の振戦の抑止、操作支援やオペレータ間の技量の相違の吸収、遠隔からの手術の実施などが挙げられる。
本明細書では、主に本開示をマスタスレーブ方式の手術システムに適用した実施形態を中心に説明する。このような手術システムでは、オペレータなどのユーザはマスタ側で操作を行い、スレーブ側ではユーザの操作に従ってロボットの駆動をコントロールすることによって手術を行う。手術システムにロボティックス技術を取り入れる目的として、オペレータの手の振戦の抑止、操作支援やオペレータ間の技量の相違の吸収、遠隔からの手術の実施などが挙げられる。
図1には、マスタスレーブ方式の手術システム100の機能的構成例を示している。図示の手術システム100は、ユーザ(オペレータ)が手術などの作業を指示するマスタ装置110と、マスタ装置110からの指示に従って手術を実施するスレーブ装置120からなる。ここで言う手術として、主に網膜手術を想定している。マスタ装置110とスレーブ装置120間は、伝送路130を介して相互接続されている。伝送路130は、例えば光ファイバなどのメディアを用いて低遅延で信号伝送を行えることが望ましい。
マスタ装置110は、マスタ側制御部111と、操作UI(User Interface)部112と、提示部113と、マスタ側通信部114を備えている。マスタ装置110は、マスタ側制御部111による統括的な制御下で動作する。
操作UI部112は、ユーザ(オペレータなど)が、スレーブ装置120において鉗子などの術具を操作するスレーブロボット112(後述)に対する指示を入力するためのデバイスからなる。操作UI部112は、例えば、コントローラやジョイスティックなどの専用の入力デバイス、さらにはマウス操作や指先のタッチ操作を入力するGUI画面などの汎用の入力デバイスで構成される。また、特許文献2で開示されるような、把持インターフェースをパラレルリンクで支持して構成される「医療用装置」を操作UI部112として利用することができる。
提示部113は、主にスレーブ装置120側のセンサ部123(後述)で取得されるセンサ情報に基づいて、操作UI部112を操作しているユーザ(オペレータ)に対して、スレーブ装置120において実施されている手術に関する情報を提示する。
例えば、センサ部123が患部の表面を観察する顕微鏡画像を撮り込むRGBカメラやOCTといった観察装置を装備し、又はこれらの観察装置で捕捉した撮像画像を取り込むインターフェースを装備し、これらの画像データが伝送路130を介して低遅延でマスタ装置110に転送される場合、提示部113は、モニタディスプレイなどを使って、リアルタイムの患部の顕微鏡画像やOCT画像を画面表示する。
また、センサ部123が、スレーブロボット112が操作する術具に作用する外力やモーメントを計測する機能を装備し、このような力覚情報が伝送路130を介して低遅延でマスタ装置110に転送される場合には、提示部113は、ユーザ(オペレータ)に対して力覚提示を行う。例えば、提示部113は、操作UI部112を使ってユーザ(オペレータ)に力覚提示を行うようにしてもよい。
マスタ側通信部114は、マスタ側制御部111による制御下で、伝送路130を介したスレーブ装置120との信号の送受信処理を行う。例えば伝送路130が光ファイバからなる場合、マスタ側通信部114は、マスタ装置110から送出する電気信号を光信号に変換する電光変換部と、伝送路130から受信した光信号を電気信号に変換する光電変換部を備えている。
マスタ側通信部114は、ユーザ(オペレータ)が操作UI部112を介して入力した、スレーブロボット122に対する操作コマンドを、伝送路130を介してスレーブ装置120に転送する。また、マスタ側通信部114は、スレーブ装置120から送られてくるセンサ情報を、伝送路130を介して受信する。
一方、スレーブ装置120は、スレーブ側制御部121と、スレーブロボット122と、センサ部123と、スレーブ側通信部124を備えている。スレーブ装置120は、スレーブ側制御部121による統括的な制御下で、マスタ装置110からの指示に応じた動作を行う。
スレーブロボット122は、例えば多リンク構造からなるアーム型のロボットであり、先端(又は、遠位端)にエンドエフェクタとして鉗子などの術具を搭載している。スレーブ側制御部121は、伝送路130を介してマスタ装置110から送られてきた操作コマンドを解釈して、スレーブロボット122を駆動するアクチュエータの駆動信号に変換して出力する。そして、スレーブロボット122は、スレーブ側制御部121からの駆動信号に基づいて動作する。
センサ部123は、スレーブロボット122やスレーブロボット122が実施している手術の患部における状況を検出する複数のセンサを備え、さらに手術室内に設置された各種センサ装置からセンサ情報を取り込むためのインターフェースを装備している。
例えば、センサ部123は、スレーブロボット122の先端(遠位端)に搭載された術具に、手術中に作用する外力やモーメントを計測するための力覚センサ(Force Torque Sensor:FTS)を備えている。
また、センサ部123は、スレーブロボット122が手術中の患部の表面の顕微鏡画像や患部(眼球)の断面をスキャンするOCT画像を取り込むインターフェースを装備している。
スレーブ側通信部124は、スレーブ側制御部121による制御下で、伝送路130を介したマスタ装置110都の信号の送受信処理を行う。例えば伝送路130が光ファイバからなる場合、スレーブ側通信部124は、スレーブ装置120から送出する電気信号を光信号に変換する電光変換部と、伝送路130から受信した光信号を電気信号に変換する光電変換部を備えている。
スレーブ側通信部124は、センサ部123によって取得される術具の力覚データや、患部の顕微鏡画像、患部断面をスキャンしたOCT画像などを、伝送路130を介してマスタ装置110に転送する。また、スレーブ側通信部124は、マスタ装置110から送られてくるスレーブロボット122に対する操作コマンドを、伝送路130を介して受信する。
B.手術ロボットを利用した外科手術の課題と本開示の概要
図2及び図3には、眼底手術(網膜手術など)の一般的なレイアウトを示している。但し、図2は眼球表面を示し、図3はトロッカー及び術具(鉗子)が通過するように切断された眼球断面を示している。
図2及び図3には、眼底手術(網膜手術など)の一般的なレイアウトを示している。但し、図2は眼球表面を示し、図3はトロッカー及び術具(鉗子)が通過するように切断された眼球断面を示している。
図2に示すように、被手術眼となる眼球200には開瞼器(eyelid speculum)201が取り付けられ、瞼が閉じないように固定されている。そして、眼球200の表面の複数箇所(図2に示す例では3箇所)に、トロッカー202~204が刺し込まれている。トロッカー202~204は、鉗子などの術具を挿入するための細径の管を有している。
図3に示すように、眼球300の表面には細径の管を有するトロッカー301が刺されており、鉗子302がトロッカー301を介して眼球300内に挿入され、さらに眼底に到達して、網膜手術が実施される。なお、オペレータ(又は、マスタ装置110を介してオペレータに遠隔操作されるスレーブロボット122)は、低侵襲の都合により、トロッカー301と眼球300の表面との交点(「刺入点」とも呼ぶ)付近に対してできるだけ小さな負荷で手術が行われるように常に配慮する。したがって、スレーブロボット122のRCM(Remote Center of Motion)機構により、刺入点を支点として鉗子302をピボット操作することで、挿入点に発生する力積をゼロにする操作を行うことが理想的である。
図4には、手術ロボットを用いた眼底手術のレイアウトを示している。手術ロボットは、図1に示した手術システム100におけるスレーブロボット122に相当する。図4に示す例では、手術ロボットは、メカニカルグランド(M-GND)に対し剛に固定されているベース部401と、ベース部401に対し垂直に取り付けられたリンク402と、リンク402の上端にジョイント403を介して取り付けられたロボットアームで構成される。ジョイント403は、ヨー軸回りの回転自由度を有するものとする。
図4に示す例では、ロボットアームは、シリアルリンク構造からなり、リンク404、406、408、410と、リンク404とリンク406間をヒンジ結合するジョイント405と、リンク406とリンク408間をヒンジ結合するジョイント407と、リンク408とリンク410をヒンジ結合するジョイント409で構成されている。各ジョイント405、407、409は、ロール軸回り(又は、ヨー軸と直交する軸回り)に回転自由度を備えている。そして、遠位端のリンク410には、鉗子などの術具411が装着される。
被手術眼となる眼球420には、瞼が閉じないように、開瞼器(図4では図示を省略)が取り付けられている。そして、眼球420の表面にトロッカー421が刺入されている。図4では、トロッカー421が通過するように切断された眼球420の断面を示している。ロボットアームの遠位端に搭載された術具411は、一方のトロッカー421を経由して、眼球420内に刺入されている。
なお、眼底手術に要求される術具411の可動範囲が小さくて十分なので、ロボットアームは、全長又は全高が数センチメートル程度、質量が数グラム~数十グラム程度のマイクロロボットであることを想定している。
また、眼球420の情報には、顕微鏡やOCTなどの観察装置(図4に示す例では、ステレオビデオ顕微鏡)430が設置されている。観察装置430は、図1に示した手術システム100におけるセンサ部123に相当する。
オペレータは、観察装置430の撮像画像を介して、眼球表面や眼底などの術野を観察しながら術具411の操作を行う。手術システム100を利用する場合、オペレータが右手(又は利き手)で操作する操作UI部112の操作量に応じて、術具411を支持したスレーブロボット122が動作して眼底手術を行う。
その際、オペレータは、観察装置430の撮像画像と術具411との空間的な位置関係を脳内でイメージしながら、操作UI部112の操作を行う。オペレータは、術具411と撮像画像との間のハンドアイコーディネーションに習熟するためには、十分なトレーニングを行う必要がある。一般に、観察装置430の撮像画像とロボットアーム間の相対的な位置及び姿勢の関係は未知である。このような場合、オペレータは観察装置430の撮像画像に基づいて、操作UI部112の操作を通じてスレーブロボット122に対して術具411の動作を支持しようとしても、撮像画像に基づく操作UI部112の操作量と、オペレータが意図している術具411の動きは乖離してしまい、精密な手術を実施することが困難である。また、スレーブロボット122と観察装置430との間に機械的に多くの部品が連結されている場合には、ロボットアームの撓みや部品加工精度によっても、術具411の位置及び姿勢の精度にも影響する。
そこで、本開示では、術野を観察する観察装置と術具を支持するロボットアームとの相対的な位置及び姿勢の関係を固定するようにしている。その結果、例えば、マスタ側における観察装置の撮像画像上での操作UI部112の操作量を、ロボットアームの遠位端(又は、遠位端に搭載した術具411)の動きに座標変換することが可能となる。したがって、本開示によれば、オペレータは観察装置とマスタスレーブ方式の手術システムとを互いに連携して、正確な手術を行うことができる。
C.第1の実施例
図5には、本開示の第1の実施例に係る、観察装置500と手術ロボット510の配置例を示している。具体的には、眼底手術に適用される場合の、観察装置500と手術ロボット510の配置例を示している。
図5には、本開示の第1の実施例に係る、観察装置500と手術ロボット510の配置例を示している。具体的には、眼底手術に適用される場合の、観察装置500と手術ロボット510の配置例を示している。
観察装置500は、例えばOCTを搭載したステレオビデオ顕微鏡であり、図1に示した手術システム100におけるセンサ部123に相当する。観察装置500は、被手術眼を上方から観察する位置に配置されている。顕微鏡には、被手術眼と対物レンズの焦点位置との間に、前置レンズを配設するタイプと、前置レンズがないタイプの2種類がある。前置レンズは、例えば照明光を集束させて眼内を照明するという用途がある。網膜硝子体手術では広角観察レンズが、隅角を処置する低侵襲緑内障手術(MIGS:minimally invasive glaucoma surgery)では隅角鏡が、それぞれ前置レンズとして広く使われている。図5に示す例では、観察装置500は、前置レンズ501を有するステレオビデオ顕微鏡である。
また、手術ロボット510は、図1に示した手術システム100におけるスレーブロボット122に相当する。図5に示す例では、手術ロボット510は、シリアルリンク構造のロボットアーム(例えば図4を参照のこと)からなり、遠位端に術具511を搭載している。眼底手術に要求される術具511の可動範囲が小さくて十分なので、手術ロボット510は、全長又は全高が数センチメートル程度、質量が数グラム~数十グラム程度のマイクロロボットであることを想定している。
そして、図5に示す例では、前置レンズ501上に手術ロボット510が取り付けられている。手術ロボット510がマイクロロボットであることを想定すると、前置レンズ501上に手術ロボット510を設置することは十分に可能である。図5では、固定部502によって手術ロボット510が前置レンズ501に固定されているものとする。但し、手術ロボット510を前置レンズ501に固定する方法は特に限定されない。
そもそも観察装置500と前置レンズ501との位置関係は既知である。そして、前置レンズ501上に手術ロボット510が取り付けられていることから、観察装置500の撮像画像と手術ロボット510の位置関係が既知である。観察装置500の撮像画像の座標系を(xv,yv,zv)とし、手術ロボット510の座標系を(xr,yr,zr)とすると、下式(1)に示すように、変換行列A1を用いて観察装置500の撮像画像の座標系(xv,yv,zv)を手術ロボット510の座標系(xr,yr,zr)に変換することができる。観察装置500と手術ロボット510の位置関係が既知であることから、変換行列A1を求めることができる。
一方、手術ロボット510の構成情報(ロボットアームの各リンク及びジョイントの構成情報)と、その遠位端に装着された術具511の構成情報がそれぞれ既知であることから、手術ロボット510と術具511の位置関係が既知である。術具511の先端の座標系を(xe,ye,ze)とすると、下式(2)に示すように、変換行列A2を用いて手術ロボット510の座標系(xr,yr,zr)を術具511の先端の座標系(xe,ye,ze)に変換することができる。手術ロボット510の構成情報と術具511の構成情報に基づいて、変換行列A2を求めることができる。
したがって、観察装置500の撮像画像と術具511の先端との間の座標関係は、下式(3)に示すように定まる。
手術システム100に図5に示すような観察装置500と手術ロボット510の配置を適用する場合について説明する。観察装置500の撮像画像は、提示部113に含まれるモニタディスプレイの画面に表示される。オペレータは、操作UI部112を使って、モニタ画面に表示されている撮像画像に対して術具511の操作量を指示する。マスタ側制御部111は、観察装置500の撮像画像の座標系で表現される操作量(xv,yv,zv)の情報を、伝送路130を介してスレーブ装置120に転送する。そして、スレーブ装置120側では、上式(3)に基づいて、操作量(xv,yv,zv)を術具511の先端の座標系(xe,ye,ze)に変換すると、さらに逆キネマティクス演算により、操作UI部112の操作量に対応する術具511の先端の動きを実現するための手術ロボット510の指令値(ロボットアームの各ジョイントの関節角度)に変換して、手術ロボット510の駆動を制御すればよい。
この場合の手術システム100におけるハンドアイコーディネーションは、オペレータが観察装置500の撮像画像を目で見て、その撮像画像に対して術具511の先端の位置情報を正確に捉え、術具511の先端の軌道を予測して、操作UI部112を使って操作することである。上述したように、本開示の第1の実施例によれば、オペレータが観察装置500の撮像画像を見て操作UI部112への入力を行い、さらに手術ロボット510による術具511の動作がスムーズに行えるようになる。すなわち、本開示の第1の実施例によれば、オペレータは十分なトレーニングを積まなくても、ハンドアイコーディネーションを実現することができる。
最適なハンドアイコーディネーションが成立する条件を下式(4)のように定義することができる(非特許文献2を参照のこと)。上式(3)から、本開示の第1の実施例によれば、この条件式(4)を満たすことが分かる。
D.第2の実施例
図6には、本開示の第2の実施例に係る、観察装置600と手術ロボット610の配置例を示している。具体的には、眼底手術に適用される場合の、観察装置600と手術ロボット610の配置例を示している。また、図7には、参考のため、観察装置600と手術ロボット610の配置を上方から眺めた矢視図を示している。
図6には、本開示の第2の実施例に係る、観察装置600と手術ロボット610の配置例を示している。具体的には、眼底手術に適用される場合の、観察装置600と手術ロボット610の配置例を示している。また、図7には、参考のため、観察装置600と手術ロボット610の配置を上方から眺めた矢視図を示している。
観察装置600は、例えばOCTを搭載したステレオビデオ顕微鏡であり、図1に示した手術システム100におけるセンサ部123に相当する。観察装置600は、被手術眼を上方から観察する位置に配置されている。また、被手術眼には開瞼器620が取り付けられ、瞼が閉じないように固定されている。開瞼器620には3箇所にビジュアルマーカー621、622、623を有している。そして、マーカー621、622、623間の位置関係(マーカー621、622、623で構成される3角形の大きさ及び形状など)は手術システム100において既知である。したがって、観察装置600が術野と開瞼器620に取り付けられたマーカー621、622、623を同時に撮影して、撮像画像上のマーカー621、622、623間の位置関係に基づいて、観察装置600と開瞼器620との相対的な位置及び姿勢の関係を計算することができる。
また、手術ロボット610は、図1に示した手術システム100におけるスレーブロボット122に相当する。図6及び図7に示す例では、手術ロボット610は、シリアルリンク構造のロボットアーム(例えば図4を参照のこと)からなり、遠位端に術具611を搭載している。眼底手術に要求される術具611の可動範囲が小さくて十分なので、手術ロボット610は、全長又は全高が数センチメートル程度、質量が数グラム~数十グラム程度のマイクロロボットであることを想定している。
そして、図6及び図7に示す例では、開瞼器620上に手術ロボット610が取り付けられている。手術ロボット610がマイクロロボットであることを想定すると、開瞼器620上に手術ロボット610を設置することは十分に可能である。図6及び図7では、固定部602によって手術ロボット610が開瞼器620に固定されているものとする。但し、手術ロボット610を開瞼器620に固定する方法は特に限定されない。
観察装置600の撮像画像の座標系を(xv,yv,zv)とし、開瞼器620の座標系を(xs,ys,zs)とすると、下式(5)に示すように、変換行列B1を用いて観察装置500の撮像画像の座標系を(xv,yv,zv)を開瞼器620の座標系(xs,ys,zs)に変換することができる。上述したように、観察装置600が術野と開瞼器620に取り付けられたマーカー621、622、623を同時に撮影して、撮像画像上のマーカー621、622、623間の位置関係に基づいて算出される観察装置600と開瞼器620との相対的な位置及び姿勢の関係に基づいて、変換行列B1を求めることができる。
そして、開瞼器620上に手術ロボット610が取り付けられていることから、開瞼器620と手術ロボット610の位置関係が既知である。手術ロボット610の座標系を(xr,yr,zr)とすると、下式(6)に示すように、変換行列B2を用いて開瞼器620の撮像画像の座標系(xv,yv,zv)を手術ロボット610の座標系(xr,yr,zr)に変換することができる。開瞼器620と手術ロボット610の位置関係が既知であることから、変換行列B2を求めることができる。
また、手術ロボット610の構成情報(ロボットアームの各リンク及びジョイントの構成情報)と、その遠位端に装着された術具611の構成情報がそれぞれ既知であることから、手術ロボット610と術具611の位置関係が既知である。術具611の先端の座標系を(xe,ye,ze)とすると、下式(7)に示すように、変換行列B3を用いて手術ロボット610の座標系(xr,yr,zr)を術具611の先端の座標系(xe,ye,ze)に変換することができる。手術ロボット510の構成情報と術具511の構成情報に基づいて、変換行列B3を求めることができる。
したがって、観察装置600の撮像画像と術具611の先端との間の座標関係は、下式(8)に示すように定まる。
手術システム100に図6に示すような観察装置600と手術ロボット610の配置を適用する場合について説明する。観察装置600の撮像画像は、提示部113に含まれるモニタディスプレイの画面に表示される。オペレータは、操作UI部112を使って、モニタ画面に表示されている撮像画像に対して術具511の操作量を指示する。マスタ側制御部111は、観察装置600の撮像画像の座標系で表現される操作量(xv,yv,zv)の情報を、伝送路130を介してスレーブ装置120に転送する。そして、スレーブ装置120側では、上式(8)に基づいて、操作量(xv,yv,zv)を術具611の先端の座標系(xe,ye,ze)に変換すると、さらに逆キネマティクス演算により、操作UI部112の操作量に対応する術具611の先端の動きを実現するための手術ロボット610の指令値(ロボットアームの各ジョイントの関節角度)に変換して、手術ロボット610の駆動を制御すればよい。
このように本開示の第2の実施例においても、オペレータが観察装置600の撮像画像を見て操作UI部112への入力を行い、さらに手術ロボット610による術具611の動作がスムーズに行えるようになる。
上式(8)から、本開示の第2の実施例によれば、最適なハンドアイコーディネーションが成立する上記の条件式(4)を満たすことが分かる。したがって、本開示の第2の実施例においても、オペレータは十分なトレーニングを積まなくても、ハンドアイコーディネーションを実現することができる。
E.第3の実施例
図8には、本開示の第3の実施例に係る、観察装置800と2台の手術ロボット810及び820の配置例を示している。具体的には、眼底手術に適用される場合の、観察装置800と第1の手術ロボット810及び第2の手術ロボット820の配置例を示している。
図8には、本開示の第3の実施例に係る、観察装置800と2台の手術ロボット810及び820の配置例を示している。具体的には、眼底手術に適用される場合の、観察装置800と第1の手術ロボット810及び第2の手術ロボット820の配置例を示している。
観察装置800は、例えばOCTを搭載したステレオビデオ顕微鏡であり、図1に示した手術システム100におけるセンサ部123に相当する。観察装置800は、被手術眼を上方から観察する位置に配置されている。顕微鏡には、被手術眼と対物レンズの焦点位置との間に、前置レンズを配設するタイプと、前置レンズがないタイプの2種類があるが(前述)、観察装置800は、前置レンズ801を有するステレオビデオ顕微鏡である。
第1の手術ロボット810と第2の手術ロボット820は、図1に示した手術システム100におけるスレーブロボット122に相当する。図8に示す例では、第1の手術ロボット810と第2の手術ロボット820はともに、シリアルリンク構造のロボットアーム(例えば図4を参照のこと)からなる。但し、第1の手術ロボット810と第2の手術ロボット820が同じ構成である必要はない。第1の手術ロボット810は遠位端に術具811を搭載し、第2の手術ロボット820は遠位端に術具812を搭載している。眼底手術に要求される術具811及び812の可動範囲が小さくて十分なので、第1の手術ロボット810と第2の手術ロボット820はいずれも、全長又は全高が数センチメートル程度、質量が数グラム~数十グラム程度のマイクロロボットであることを想定している。
そして、図8に示す例では、第1の手術ロボット810と第2の手術ロボット820はいずれも前置レンズ801上に取り付けられている。第1の手術ロボット810と第2の手術ロボットがマイクロロボットであることを想定すると、前置レンズ801上に第1の手術ロボット810と第2の手術ロボット820を設置することは十分に可能である。図8では、固定部802及び803によって第1の手術ロボット810と第2の手術ロボット820がそれぞれ前置レンズ801に固定されているものとする。但し、第1の手術ロボット810と第2の手術ロボット820を前置レンズ801に固定する方法は特に限定されない。
そもそも観察装置800と前置レンズ801との位置関係は既知である。そして、前置レンズ801上に第1の手術ロボット810と第2の手術ロボット820が取り付けられていることから、観察装置800の撮像画像と第1の手術ロボット810と第2の手術ロボット820の各々との位置関係が既知である。観察装置800の撮像画像の座標系を(xv,yv,zv)とし、第1の手術ロボット80の座標系を(xr1,yr1,zr1)とすると、下式(9)に示すように、変換行列A11を用いて観察装置800の撮像画像の座標系(xv,yv,zv)を第1の手術ロボット810の座標系(xr,yr,zr)に変換することができる。同様に、下式(10)に示すように、変換行列A21を用いて観察装置800の撮像画像の座標系(xv,yv,zv)を第2の手術ロボット820の座標系(xr,yr,zr)に変換することができる。観察装置800と第1の手術ロボット810と第2の手術ロボット820の各々と位置関係が既知であることから、変換行列A11及びA21求めることができる。
一方、第1の手術ロボット810の構成情報(ロボットアームの各リンク及びジョイントの構成情報)と、その遠位端に装着された術具811の構成情報がそれぞれ既知であることから、第1の手術ロボット810と術具811の位置関係が既知である。同様に、第2の手術ロボット820と術具821の位置関係が既知である。術具811の先端の座標系を(xe1,ye1,ze1)とし、術具821の先端の座標系を(xe2,ye2,ze2)とすると、それぞれ下式(11)及び(12)に示すように、変換行列A12を用いて第1の手術ロボット810の座標系(xr1,yr1,zr1)を術具811の先端の座標系(xe1,ye1,ze1)に変換するとともに、変換行列A22を用いて第2の手術ロボット820の座標系(xr2,yr2,zr2)を術具811の先端の座標系(xe2,ye2,ze2)に変換ことができる。第1の手術ロボット810の構成情報と術具811の構成情報に基づいて変換行列A12を求めるとともに、第2の手術ロボット820の構成情報と術具821の構成情報に基づいて変換行列A22を求めることができる。
したがって、観察装置800の撮像画像と各術具811及び812の先端との間の座標関係は、下式(13)及び(14)に示すように定まる。
手術システム100に図8に示すような観察装置800と第1の手術ロボット810及び第2の手術ロボット820の配置を適用する場合について説明する。観察装置800の撮像画像は、提示部113に含まれるモニタディスプレイの画面に表示される。オペレータは、操作UI部112を使って、モニタ画面に表示されている撮像画像に対して各術具811及び812の操作量を指示する。マスタ側制御部111は、観察装置800の撮像画像の座標系で表現される操作量(xv,yv,zv)の情報を、伝送路130を介してスレーブ装置120に転送する。そして、スレーブ装置120側では、上式(13)及び(14)に基づいて、操作量(xv,yv,zv)を術具811の先端の座標系(xe1,ye1,ze1)又は術具812の先端の座標系(xe1,ye1,ze1)に変換すると、さらに逆キネマティクス演算により、操作UI部112の操作量に対応する術具811又は術具812の先端の動きを実現するための第1の手術ロボット810又は第2の手術ロボット820の指令値(ロボットアームの各ジョイントの関節角度)に変換して、第1の手術ロボット810又は第2の手術ロボット820の駆動を制御すればよい。
このように本開示の第3の実施例においても、オペレータが観察装置800の撮像画像を見て操作UI部112への入力を行い、さらに第1の手術ロボット810による術具811の動作及び第2の手術ロボット820による術具821の動作がスムーズに行えるようになる。
上式(13)及び(14)から、本開示の第3の実施例によれば、最適なハンドアイコーディネーションが成立する上記の条件式(4)を満たすことが分かる。したがって、本開示の第3の実施例においても、オペレータは十分なトレーニングを積まなくても、ハンドアイコーディネーションを実現することができる。
F.効果
このF項では、本開示を手術システム100に適用することによってもたらされる効果について言及する。
このF項では、本開示を手術システム100に適用することによってもたらされる効果について言及する。
本開示によれば、術野を観察する顕微鏡などの観察装置と、手術ロボットに支持される術具との相対的な位置関係を高精度に求める構造を備えることができる。したがって、観察装置と手術ロボット、さらには複数の手術ロボットとの協調動作による精密なマニピュレーション、ハンドアイコーディネーション、並びに手術支援を実現することができる。
以上、特定の実施形態を参照しながら、本開示について詳細に説明してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書では、本開示に係る手術システムを眼科手術に適用した実施形態を中心に説明してきたが、本開示の要旨はこれに限定されるものではない。観察装置と手術ロボットを用いて手術を支援するさまざまなタイプの手術システムに対しても同様に本開示を適用することができる。。
要するに、例示という形態により本開示について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本開示の要旨を判断するためには、特許請求の範囲を参酌すべきである。
なお、本開示は、以下のような構成をとることも可能である。
(1)術野を観察する観察装置と、
術具を支持する手術ロボットと、
前記観察装置と前記手術ロボットの相対的な位置及び姿勢の関係を固定する固定部と、
前記相対的な位置及び姿勢の関係に基づいて、前記観察装置の撮像画像上の座標と前記術具の座標間の座標変換のための処理を行う処理部と、
を具備する手術システム。
術具を支持する手術ロボットと、
前記観察装置と前記手術ロボットの相対的な位置及び姿勢の関係を固定する固定部と、
前記相対的な位置及び姿勢の関係に基づいて、前記観察装置の撮像画像上の座標と前記術具の座標間の座標変換のための処理を行う処理部と、
を具備する手術システム。
(2)前記観察装置は顕微鏡と前置レンズを含み、
前記固定部は、前記前置レンズに対する前記手術ロボットの相対的な位置及び姿勢の関係を固定する、
上記(1)に記載の手術システム。
前記固定部は、前記前置レンズに対する前記手術ロボットの相対的な位置及び姿勢の関係を固定する、
上記(1)に記載の手術システム。
(3)前記処理部は、前記観察装置の撮像画像上の座標を前記手術ロボットの座標に変換する第1の変換行列A1と前記手術ロボットの座標を前記術具の座標に変換する第2の変換行列A2を合成した合成行列A1A2を用いて、前記観察装置の撮像画像上の座標を前記術具の座標に変換する、
上記(2)に記載の手術システム。
上記(2)に記載の手術システム。
(4)前記固定部は、マーカーを有し術部の状態を保持する保持器に対する前記手術ロボットの相対的な位置及び姿勢の関係を固定する、
上記(1)に記載の手術システム。
上記(1)に記載の手術システム。
(5)前記術部は眼球であり、前記保持器は開瞼器である、
上記(4)に記載の手術システム。
上記(4)に記載の手術システム。
(6)前記処理部は、前記観察装置の撮像画像上の座標を前記保持具の座標に変換する第1の変換行列B1と前記保持具の座標を前記手術ロボットの座標に変換する第2の変換行列B2と前記手術ロボットの座標を前記術具の座標に変換する第3の変換行列B3を合成した合成行列B1B2B3を用いて、前記観察装置の撮像画像上の座標を前記術具の座標に変換する、
上記(4)又は(5)のいずれかに記載の手術システム。
上記(4)又は(5)のいずれかに記載の手術システム。
(7)それぞれ術具を支持する第1の手術ロボットと第2の手術ロボットを含み、
前記観察装置は顕微鏡と前置レンズを含み、
前記固定部は、前記前置レンズに対する前記第1の手術ロボットと前記第2の手術ロボットそれぞれの相対的な位置及び姿勢の関係を固定する、
上記(1)に記載の手術システム。
前記観察装置は顕微鏡と前置レンズを含み、
前記固定部は、前記前置レンズに対する前記第1の手術ロボットと前記第2の手術ロボットそれぞれの相対的な位置及び姿勢の関係を固定する、
上記(1)に記載の手術システム。
(8)前記処理部は、
前記観察装置の撮像画像上の座標を前記第1の手術ロボットの座標に変換する第1の変換行列A11と前記手術ロボットの座標を前記術具の座標に変換する第2の変換行列A12を合成した合成行列A11A12を用いて、前記観察装置の撮像画像上の座標を前記術具の座標に変換し、
前記観察装置の撮像画像上の座標を前記第2の手術ロボットの座標に変換する第1の変換行列A21と前記第2の手術ロボットの座標を前記術具の座標に変換する第2の変換行列A22を合成した合成行列A21A22を用いて、前記観察装置の撮像画像上の座標を前記術具の座標に変換する、
上記(7)に記載の手術システム。
前記観察装置の撮像画像上の座標を前記第1の手術ロボットの座標に変換する第1の変換行列A11と前記手術ロボットの座標を前記術具の座標に変換する第2の変換行列A12を合成した合成行列A11A12を用いて、前記観察装置の撮像画像上の座標を前記術具の座標に変換し、
前記観察装置の撮像画像上の座標を前記第2の手術ロボットの座標に変換する第1の変換行列A21と前記第2の手術ロボットの座標を前記術具の座標に変換する第2の変換行列A22を合成した合成行列A21A22を用いて、前記観察装置の撮像画像上の座標を前記術具の座標に変換する、
上記(7)に記載の手術システム。
(9)前記処理部は、前記観察装置の撮像画像上で指示された操作量を前記術具の座標に変換する、
上記(1)乃至(8)のいずれかに記載の手術システム。
上記(1)乃至(8)のいずれかに記載の手術システム。
(10)前記処理部によって変換された術具の座標に基づいて前記手術ロボットの駆動を制御する制御部をさらに備える、
上記(9)に記載の手術システム。
上記(9)に記載の手術システム。
(11)前記手術ロボットの動作を指示するマスタ装置と、前記マスタ装置からの指示に基づいて前記手術ロボットの動作を制御するスレーブ装置を備える、
上記(1)乃至(10)のいずれかに記載の手術システム。
上記(1)乃至(10)のいずれかに記載の手術システム。
(12)前記マスタ装置は、前記観察装置の撮像画像上でオペレータによる術具操作の指示を入力し、
前記処理部は、前記オペレータによって指示された操作量を前記術具の座標に変換し、
前記スレーブ装置は、前記処理部から出力される前記術具の座標を逆キネマティクス演算して前記手術ロボットの動作を制御する、
上記(11)に記載の手術システム。
前記処理部は、前記オペレータによって指示された操作量を前記術具の座標に変換し、
前記スレーブ装置は、前記処理部から出力される前記術具の座標を逆キネマティクス演算して前記手術ロボットの動作を制御する、
上記(11)に記載の手術システム。
(13)術野を観察する観察装置と術具を支持する手術ロボットを含む手術システムを用いた手術支援方法であって、前記観察装置と前記手術ロボットの相対的な位置及び姿勢の関係が固定されており、
前記相対的な位置及び姿勢の関係に基づいて、前記観察装置の撮像画像上の座標と前記術具の座標間の座標変換のための処理を行う処理ステップと、
前記処理ステップによって変換された術具の座標に基づいて前記手術ロボットの駆動を制御する制御ステップと、
を有する手術支援方法。
前記相対的な位置及び姿勢の関係に基づいて、前記観察装置の撮像画像上の座標と前記術具の座標間の座標変換のための処理を行う処理ステップと、
前記処理ステップによって変換された術具の座標に基づいて前記手術ロボットの駆動を制御する制御ステップと、
を有する手術支援方法。
100…手術システム、110…マスタ装置
111…マスタ側制御部、112…操作UI部、113…提示部
114…マスタ側通信部、120…スレーブ装置
121…スレーブ側制御部、122…スレーブロボット
123…センサ部、124…スレーブ側通信部、130…伝送路
500…観察装置、501…前置レンズ、502…固定部
510…手術ロボット、511…術具
600…観察装置、601…前置レンズ、602…固定部
610…手術ロボット、611…術具、620…開瞼器
621、622、623…ビジュアルマーカー
800…観察装置、801…前置レンズ、802、803…固定部
810…第1の手術ロボット、811…術具
820…第1の手術ロボット、821…術具
111…マスタ側制御部、112…操作UI部、113…提示部
114…マスタ側通信部、120…スレーブ装置
121…スレーブ側制御部、122…スレーブロボット
123…センサ部、124…スレーブ側通信部、130…伝送路
500…観察装置、501…前置レンズ、502…固定部
510…手術ロボット、511…術具
600…観察装置、601…前置レンズ、602…固定部
610…手術ロボット、611…術具、620…開瞼器
621、622、623…ビジュアルマーカー
800…観察装置、801…前置レンズ、802、803…固定部
810…第1の手術ロボット、811…術具
820…第1の手術ロボット、821…術具
Claims (13)
- 術野を観察する観察装置と、
術具を支持する手術ロボットと、
前記観察装置と前記手術ロボットの相対的な位置及び姿勢の関係を固定する固定部と、
前記相対的な位置及び姿勢の関係に基づいて、前記観察装置の撮像画像上の座標と前記術具の座標間の座標変換のための処理を行う処理部と、
を具備する手術システム。 - 前記観察装置は顕微鏡と前置レンズを含み、
前記固定部は、前記前置レンズに対する前記手術ロボットの相対的な位置及び姿勢の関係を固定する、
請求項1に記載の手術システム。 - 前記処理部は、前記観察装置の撮像画像上の座標を前記手術ロボットの座標に変換する第1の変換行列A1と前記手術ロボットの座標を前記術具の座標に変換する第2の変換行列A2を合成した合成行列A1A2を用いて、前記観察装置の撮像画像上の座標を前記術具の座標に変換する、
請求項2に記載の手術システム。 - 前記固定部は、マーカーを有し術部の状態を保持する保持器に対する前記手術ロボットの相対的な位置及び姿勢の関係を固定する、
請求項1に記載の手術システム。 - 前記術部は眼球であり、前記保持器は開瞼器である、
請求項4に記載の手術システム。 - 前記処理部は、前記観察装置の撮像画像上の座標を前記保持具の座標に変換する第1の変換行列B1と前記保持具の座標を前記手術ロボットの座標に変換する第2の変換行列B2と前記手術ロボットの座標を前記術具の座標に変換する第3の変換行列B3を合成した合成行列B1B2B3を用いて、前記観察装置の撮像画像上の座標を前記術具の座標に変換する、
請求項4に記載の手術システム。 - それぞれ術具を支持する第1の手術ロボットと第2の手術ロボットを含み、
前記観察装置は顕微鏡と前置レンズを含み、
前記固定部は、前記前置レンズに対する前記第1の手術ロボットと前記第2の手術ロボットそれぞれの相対的な位置及び姿勢の関係を固定する、
請求項1に記載の手術システム。 - 前記処理部は、
前記観察装置の撮像画像上の座標を前記第1の手術ロボットの座標に変換する第1の変換行列A11と前記手術ロボットの座標を前記術具の座標に変換する第2の変換行列A12を合成した合成行列A11A12を用いて、前記観察装置の撮像画像上の座標を前記術具の座標に変換し、
前記観察装置の撮像画像上の座標を前記第2の手術ロボットの座標に変換する第1の変換行列A21と前記第2の手術ロボットの座標を前記術具の座標に変換する第2の変換行列A22を合成した合成行列A21A22を用いて、前記観察装置の撮像画像上の座標を前記術具の座標に変換する、
請求項7に記載の手術システム。 - 前記処理部は、前記観察装置の撮像画像上で指示された操作量を前記術具の座標に変換する、
請求項1に記載の手術システム。 - 前記処理部によって変換された術具の座標に基づいて前記手術ロボットの駆動を制御する制御部をさらに備える、
請求項9に記載の手術システム。 - 前記手術ロボットの動作を指示するマスタ装置と、前記マスタ装置からの指示に基づいて前記手術ロボットの動作を制御するスレーブ装置を備える、
請求項1に記載の手術システム。 - 前記マスタ装置は、前記観察装置の撮像画像上でオペレータによる術具操作の指示を入力し、
前記処理部は、前記オペレータによって指示された操作量を前記術具の座標に変換し、
前記スレーブ装置は、前記処理部から出力される前記術具の座標を逆キネマティクス演算して前記手術ロボットの動作を制御する、
請求項11に記載の手術システム。 - 術野を観察する観察装置と術具を支持する手術ロボットを含む手術システムを用いた手術支援方法であって、前記観察装置と前記手術ロボットの相対的な位置及び姿勢の関係が固定されており、
前記相対的な位置及び姿勢の関係に基づいて、前記観察装置の撮像画像上の座標と前記術具の座標間の座標変換のための処理を行う処理ステップと、
前記処理ステップによって変換された術具の座標に基づいて前記手術ロボットの駆動を制御する制御ステップと、
を有する手術支援方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021060413A JP2022156622A (ja) | 2021-03-31 | 2021-03-31 | 手術システム並びに手術支援方法 |
US18/551,753 US20240173090A1 (en) | 2021-03-31 | 2021-12-28 | Surgical system and surgical support method |
PCT/JP2021/048962 WO2022209099A1 (ja) | 2021-03-31 | 2021-12-28 | 手術システム並びに手術支援方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021060413A JP2022156622A (ja) | 2021-03-31 | 2021-03-31 | 手術システム並びに手術支援方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022156622A true JP2022156622A (ja) | 2022-10-14 |
Family
ID=83455949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021060413A Pending JP2022156622A (ja) | 2021-03-31 | 2021-03-31 | 手術システム並びに手術支援方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240173090A1 (ja) |
JP (1) | JP2022156622A (ja) |
WO (1) | WO2022209099A1 (ja) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4101951B2 (ja) * | 1998-11-10 | 2008-06-18 | オリンパス株式会社 | 手術用顕微鏡 |
JP2005046186A (ja) * | 2003-07-29 | 2005-02-24 | Olympus Corp | 手術用顕微鏡システム |
JP5043604B2 (ja) * | 2007-11-07 | 2012-10-10 | 株式会社トプコン | 実体顕微鏡 |
FR2968191B1 (fr) * | 2010-12-01 | 2012-12-14 | Univ Paris Curie | Effecteur equipe d'un dispositif pour la localisation d'une partie utile d'un outil |
JP6902369B2 (ja) * | 2017-03-15 | 2021-07-14 | 株式会社オカムラ | 提示装置、提示方法およびプログラム、ならびに作業システム |
JP2019076329A (ja) * | 2017-10-23 | 2019-05-23 | 株式会社トプコン | 前置レンズ装置及び眼科用顕微鏡 |
-
2021
- 2021-03-31 JP JP2021060413A patent/JP2022156622A/ja active Pending
- 2021-12-28 US US18/551,753 patent/US20240173090A1/en active Pending
- 2021-12-28 WO PCT/JP2021/048962 patent/WO2022209099A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
US20240173090A1 (en) | 2024-05-30 |
WO2022209099A1 (ja) | 2022-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102222651B1 (ko) | 로봇 조작기 또는 연관 도구를 제어하기 위한 시스템 및 방법 | |
JP3540362B2 (ja) | 手術用マニピュレータの制御システム及びその制御方法 | |
KR102237597B1 (ko) | 수술 로봇용 마스터 장치 및 그 제어 방법 | |
US8892224B2 (en) | Method for graphically providing continuous change of state directions to a user of a medical robotic system | |
JP6026515B2 (ja) | ツールの動作を制御するのに使用されるフレームの位置及び向きの推定 | |
Mayer et al. | The Endo [PA] R system for minimally invasive robotic surgery | |
US6223100B1 (en) | Apparatus and method for performing computer enhanced surgery with articulated instrument | |
US6963792B1 (en) | Surgical method | |
WO2018159155A1 (ja) | 医療用観察システム、制御装置及び制御方法 | |
Nakano et al. | A parallel robot to assist vitreoretinal surgery | |
CN113440263B (zh) | 计算机辅助式远程操作系统中的次级器械控制 | |
KR20220032635A (ko) | 원격조작 의료 시스템 내의 온스크린 메뉴들을 위한 시스템들 및 방법들 | |
Noonan et al. | Gaze contingent articulated robot control for robot assisted minimally invasive surgery | |
JPH08224248A (ja) | 医療用マニピュレータ | |
JP7085401B2 (ja) | 外科手術システム | |
CN114129266B (zh) | 保持rc点不变的方法、机械臂、设备、机器人和介质 | |
WO2022209099A1 (ja) | 手術システム並びに手術支援方法 | |
Ko et al. | Compact laparoscopic assistant robot using a bending mechanism | |
Faraz et al. | Issues and design concepts in endoscopic extenders | |
WO2020209165A1 (ja) | 外科手術システム及び外科手術システムの制御方法 | |
Mayer et al. | An experimental system for robotic heart surgery | |
WO2020133368A1 (zh) | 柔性手术器械、操作臂系统及微创手术机器人从手系统 | |
WO2022196037A1 (ja) | 力計測装置及び力計測方法、手術装置、及び手術システム | |
CN219846789U (zh) | 手术机器人系统 | |
Liu et al. | A novel smart surgical robotic system with eye-hand coordination for surgical assistance |