JP7473377B2 - ロボット手術支援装置、ロボット手術支援方法、及びプログラム - Google Patents

ロボット手術支援装置、ロボット手術支援方法、及びプログラム Download PDF

Info

Publication number
JP7473377B2
JP7473377B2 JP2020055965A JP2020055965A JP7473377B2 JP 7473377 B2 JP7473377 B2 JP 7473377B2 JP 2020055965 A JP2020055965 A JP 2020055965A JP 2020055965 A JP2020055965 A JP 2020055965A JP 7473377 B2 JP7473377 B2 JP 7473377B2
Authority
JP
Japan
Prior art keywords
subject
surgical
leg
robotic surgery
bed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020055965A
Other languages
English (en)
Other versions
JP2021153772A (ja
Inventor
城太 井田
充一 平塚
秀介 茅野
剛 長田
隆 唐沢
信一郎 瀬尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ziosoft Inc
Medicaroid Corp
Original Assignee
Ziosoft Inc
Medicaroid Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ziosoft Inc, Medicaroid Corp filed Critical Ziosoft Inc
Priority to JP2020055965A priority Critical patent/JP7473377B2/ja
Priority to US17/210,781 priority patent/US20210298981A1/en
Publication of JP2021153772A publication Critical patent/JP2021153772A/ja
Application granted granted Critical
Publication of JP7473377B2 publication Critical patent/JP7473377B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G13/00Operating tables; Auxiliary appliances therefor
    • A61G13/10Parts, details or accessories
    • A61G13/12Rests specially adapted therefor; Arrangements of patient-supporting surfaces
    • A61G13/1205Rests specially adapted therefor; Arrangements of patient-supporting surfaces for specific parts of the body
    • A61G13/1245Knees, upper or lower legs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/14Fixators for body parts, e.g. skull clamps; Constructional details of fixators, e.g. pins
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/42Gynaecological or obstetrical instruments or methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • A61B2017/00238Type of minimally invasive operation
    • A61B2017/00278Transorgan operations, e.g. transgastric
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2059Mechanical position encoders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/303Surgical robots specifically adapted for manipulations within body lumens, e.g. within lumen of gut, spine, or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/067Measuring instruments not otherwise provided for for measuring angles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G13/00Operating tables; Auxiliary appliances therefor
    • A61G13/02Adjustable operating tables; Controls therefor
    • A61G13/04Adjustable operating tables; Controls therefor tiltable around transverse or longitudinal axis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G13/00Operating tables; Auxiliary appliances therefor
    • A61G13/02Adjustable operating tables; Controls therefor
    • A61G13/06Adjustable operating tables; Controls therefor raising or lowering of the whole table surface
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G13/00Operating tables; Auxiliary appliances therefor
    • A61G13/10Parts, details or accessories
    • A61G13/12Rests specially adapted therefor; Arrangements of patient-supporting surfaces
    • A61G13/1205Rests specially adapted therefor; Arrangements of patient-supporting surfaces for specific parts of the body
    • A61G13/125Ankles or feet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2200/00Information related to the kind of patient or his position
    • A61G2200/30Specific positions of the patient
    • A61G2200/32Specific positions of the patient lying
    • A61G2200/327Specific positions of the patient lying supine

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Gynecology & Obstetrics (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Neurosurgery (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本開示は、手術ベッド、鏡視下手術支援装置、鏡視下手術支援方法、及びプログラムに関する。
従来、術式の1つとして、経肛門的低侵襲手術(TAMIS:Transanal Minimally Inbasive Surgery)が知られている。TAMISにおいて、手術器具を患者に挿入するために、患者の肛門にプラットフォーム(Transanal Access Platform)を設置することが知られている(非特許文献1参照)。
GelPOINT Path, Transanal Access Platform, Applied Medical,[令和1年12月26日検索]インターネット<URL:https://www.appliedmedical.com/Products/Gelpoint/Path>
従来、手術前にはCT装置による撮像が行われ、ボリュームデータが取得される。ボリュームデータを基に術前画像が生成される。CT装置の撮像は、被検体が仰臥位の体位となって行われることが多い。また、TAMISでは、患者の腰を曲げる切石位、膝胸位、側臥位やジャックナイフ位などの腰を曲げる体位となることが多い。そのため、術前画像の撮像時の体位と術中の体位とが異なり、被検体における手術対象の臓器及び骨の位置が変化し、手術精度が低下し得る。
本開示は、上記事情に鑑みてされたものであって、術前に得られるボリュームデータに対応する被検体の体位と術中の被検体の体位とが異なっても、ロボット手術の手術精度の低下を抑制できる手術ベッド、ロボット手術支援装置、ロボット手術支援方法、及びプログラムを提供する。
本開示の一態様は、手術支援ロボットによる鏡視下手術を支援するロボット手術支援装置であって、第1の処理部を備え、前記第1の処理部は、上記の手術ベッドにより導出された前記脚保持部と前記テーブルとの位置関係の情報を取得し、被検体の3Dデータを取得し、前記脚保持部と前記テーブルとの位置関係と、前記3Dデータと、に基づいて、前記被検体における少なくとも骨盤の状態を推定する、機能を有し、前記手術ベッドは、前記被検体の胴体部を載置する前記テーブルと、前記被検体の脚部を保持する前記脚保持部と、前記テーブルと前記脚保持部とに接続され、前記脚保持部と前記テーブルとの位置関係を調整自在に支持する支持部材と、前記脚保持部と前記テーブルとの位置関係を導出する機能を有する第2の処理部と、を備える、ロボット手術支援装置である。
本開示によれば、術前に得られるボリュームデータに対応する被検体の体位と術中の被検体の体位とが異なっても、ロボット手術の手術精度の低下を抑制できる。
第1の実施形態におけるロボット手術支援システムの構成例を示すブロック図 ロボット手術支援装置のハードウェア構成例を示すブロック図 ロボット手術支援装置の機能構成例を示すブロック図 手術ベッドの構成例を示すブロック図 プラットフォーム、手術器具、及び被検体の内部の様子の一例を示す図 被検体の下肢のキネマティクスモデルの一例を示す図 被検体の体位が切石位であり、脚部を低く上げている状態での骨盤の状態の一例を示す図 被検体の体位が切石位であり、脚部を低く上げている状態での骨盤の状態の一例を示す図 手術ベッドをx方向から見た側面図 手術ベッドをz方向から見た側面図 手術ベッドをy方向から見た上面図 手術ベッドのベースの伸長状態を、x方向から見た側面図 手術ベッドのテーブルをz方向負側にスライドした状態を、x方向から見た側面図 手術ベッドのテーブルをz方向正側にスライドした状態を、x方向から見た側面図 z方向正側を低くして手術ベッドのテーブルを傾斜させた状態を、x方向から見た側面図 z方向正側を高くして手術ベッドのテーブルを傾斜させた状態を、x方向から見た側面図 x方向正側を低くして手術ベッドのテーブルを傾斜させた状態を、z方向から見た側面図 x方向正側を高くして手術ベッドのテーブルを傾斜させた状態を、z方向から見た側面図 手術ベッドの開脚状態を、y方向から見た上面図 手術ベッドの閉脚状態を、y方向から見た上面図 手術ベッドのテーブルと脚保持部との距離を長くした状態を、x方向から見た上面図 手術ベッドの支持部材を水平方向に対して傾斜させた状態を、x方向から見た側面図 手術ベッドの脚保持部の角度を調整した様子を、x方向から見た上面図 ジャックナイフ位に対応する手術ベッドの形態の一例を示す図 ロボット手術支援装置の動作例を示すフローチャート ロボット手術支援装置の動作例を示すフローチャート(図9の続き) 第1の表示画像の一例を示す図 手術ベッドの変形構成例を示す側面図
以下、本開示の実施形態について、図面を用いて説明する。
(第1の実施形態)
図1Aは、第1の実施形態におけるロボット手術支援システム1の構成例を示すブロック図である。ロボット手術支援システム1は、ロボット手術支援装置100と、CT装置200と、手術支援ロボット300と、手術ベッド400と、を備える。ロボット手術支援装置100と、CT装置200と、手術支援ロボット300と、手術ベッド400とは、ネットワークを介して接続されてもよい。また、ロボット手術支援装置100は、CT装置200、手術支援ロボット300、及び手術ベッド400の各装置と、1対1で接続されてもよい。図1Aでは、ロボット手術支援装置100が、CT装置200、手術支援ロボット300及び手術ベッド400のそれぞれと接続されていることを例示している。
ロボット手術支援装置100は、CT装置200、手術支援ロボット300、及び手術ベッド400から各種データを取得する。ロボット手術支援装置100は、取得されたデータに基づいて画像処理し、手術支援ロボット300によるロボット手術を支援する。ロボット手術支援装置100は、PCとPCに搭載されたソフトウェアにより構成されてもよい。ロボット手術支援装置100は、手術支援ロボット300に内蔵されていてもよい。ロボット手術支援装置100は、手術ナビゲーションを行う。手術ナビゲーションは、例えば、手術前の計画(術前計画)を行うための術前シミュレーションや手術中のサポートを行うための術中ナビゲーションを含む。
CT装置200は、被検体へX線を照射し、体内の組織によるX線の吸収の違いを利用して、画像(CT画像)を撮像する。被検体は、生体、人体、動物、等を含んでよい。CT装置200は、被検体内部の任意の箇所の情報を含むボリュームデータを生成する。CT装置200は、CT画像としてのボリュームデータをロボット手術支援装置100へ、有線回線又は無線回線を介して送信する。CT画像の撮像には、CT撮像に関する撮像条件や造影剤の投与に関する造影条件が考慮されてよい。
手術支援ロボット300は、ロボット操作端末310、ロボット本体320、及び画像表示端末330を備える。
ロボット操作端末310は、術者により操作されるハンドコントローラやフットスイッチを備える。ロボット操作端末310は、術者によるハンドコントローラやフットスイッチの操作に応じて、ロボット本体320に設けられた複数のロボットアームARを動作させる。また、ロボット操作端末310は、ビューワを備える。ビューワは、ステレオビューワでよく、内視鏡ES(内視鏡カメラ)により取込まれた画像を融合させて3次元画像を表示してよい。なお、ロボット操作端末310が複数存在し、複数のロボット操作端末310を複数の術者が操作することによりロボット手術が行われてもよい。
ロボット本体320は、ロボット手術を行うための複数のロボットアームAR、ロボットアームARに装着されるエンドエフェクタEF(鉗子類、インストゥルメント)、及びロボットアームARに装着される内視鏡ESを備える。エンドエフェクタEF及び内視鏡ESは、鏡視下手術に用いられるものと同等であるので、本実施形態では手術器具30とも称する。手術器具30は、1つ以上のエンドエフェクタEF及び内視鏡ESのうち少なくとも1つを含む。
ロボット本体320は、例えば4つのロボットアームARを備えており、内視鏡ESが装着されるカメラアームと、ロボット操作端末310の右手用ハンドコントローラで操作されるエンドエフェクタEFが装着される第1エンドエフェクタアームと、ロボット操作端末310の左手用ハンドコントローラで操作されるエンドエフェクタEFが装着される第2エンドエフェクタアームと、交換用のエンドエフェクタEFが装着される第3エンドエフェクタアームと、を含む。各ロボットアームARは、複数の関節を有しており、各関節に対応してモータとエンコーダを備えていてよい。エンコーダは、角度検出器の一例としてのロータリーエンコーダを含んでよい。各ロボットアームARは、少なくとも6自由度、好ましくは7又は8自由度を有しており、3次元空間内において動作し、3次元空間内の各方向に可動自在でよい。エンドエフェクタEFには、ロボット手術において被検体PS内の処置対象に実際に接する器具であり、様々な処置(例えば、把持、切除、剥離、縫合)を可能とする。
エンドエフェクタEFは、例えば、把持鉗子、剥離鉗子、電気メス、等を含んでよい。エンドエフェクタEFは、役割毎に異なる別個のエンドエフェクタEFが複数用意されてよい。例えば、ロボット手術では、2つのエンドエフェクタEFによって組織を抑えたり引っ張ったりして、1つのエンドエフェクタEFで組織を切る処置が行われてよい。ロボットアームAR及び手術器具30は、ロボット操作端末310からの指示を基に、動作してよい。ロボット手術において、エンドエフェクタEFは少なくとも2つ使用される。
画像表示端末330は、モニタ、内視鏡ESによって撮像された画像を処理し、ビューワやモニタに表示させるためのコントローラ、等を有する。モニタは、例えばロボット手術の助手や看護師により確認される。
手術支援ロボット300は、術者によるロボット操作端末310のハンドコントローラやフットスイッチの操作を受け、ロボット本体320のロボットアームARやエンドエフェクタEFや内視鏡ESの動作を制御し、被検体PSに対して各種処置を行うロボット手術を行う。ロボット手術では、被検体PS内で鏡視下手術が行われてよい。
本実施形態では、手術支援ロボット300を用いて経肛門的低侵襲手術(TAMIS)が行われることを主に想定する。TAMISでは、手術器具30を被検体PSに挿入するために、被検体PSの肛門にプラットフォーム40(Transanal Access Platform)が設置される。TAMISでは、被検体PSが有する孔である肛門にプラットフォーム40が設置されるので、トロッカーの設置のように被検体PSの体表にポートを穿孔することが不要である。TAMISでは、プラットフォーム40を介してガスが注入されて被検体PSの肛門の周辺に存在する組織や臓器を膨らませられてよい。被検体PSの肛門の周辺に存在する組織や臓器は、例えば直腸、大腸、前立腺、などが含まれてよい。プラットフォーム40は、弁を有し、被検体PS内を気密に維持する。また、気密状態を維持するために、被検体PS内に空気(例えば二酸化炭素)が継続的に導入されてよい。
プラットフォーム40には、手術器具30が挿通される。手術器具30の挿通時にプラットフォーム40の弁が開き、手術器具30の脱離時にはプラットフォーム40の弁が閉じる。プラットフォーム40を経由して手術器具30が挿入され、術式に応じて様々な処置が行われる。ロボット手術は、肛門周辺の臓器を手術対象とする以外に、その他の部位の鏡視下手術(例えば口蓋顎手術、縦隔手術)に適用されてもよい。
プラットフォーム40は、肛門に設置されるが、単孔式腹腔鏡下手術(SILS:Single Incisional Laparoscopic Surgery)用のアクセスプラットフォームをそのまま又は多少の加工により使用可能である。また、プラットフォーム40は、肛門専用のプラットフォームであってもよい。また、手術支援ロボットについても、腹腔鏡手術用の手術支援ロボットを本実施形態の肛門用の手術支援ロボット300として使用可能である。
図1Bは、ロボット手術支援装置100の構成例を示すブロック図である。ロボット手術支援装置100は、送受部110、UI120、ディスプレイ130、プロセッサ140、及びメモリ150を備える。
送受部110は、通信ポート、外部装置接続ポート、組み込みデバイスへの接続ポート、等を含む。送受部110は、CT装置200、手術支援ロボット300、及び手術ベッド400からの各種データを取得する。取得された各種データは、直ぐにプロセッサ140(処理部160)に送られて各種処理されてもよいし、メモリ150において保管された後、必要時にプロセッサ140へ送られて各種処理されてもよい。また、各種データは、記録媒体や記録メディアを介して取得されてもよい。
送受部110は、CT装置200、手術支援ロボット300、及び手術ベッド400へ各種データを送信する。送信される各種データは、プロセッサ140(処理部160)から直接送信されてもよいし、メモリ150において保管された後、必要時に各装置へ送信されてもよい。また、各種データは、記録媒体や記録メディアを介して送られてもよい。
送受部110は、CT装置200からのボリュームデータを取得してよい。また、ボリュームデータは、中間データ、圧縮データやシノグラムの形で取得されてもよい。また、ボリュームデータは、ロボット手術支援装置100に取り付けられたセンサデバイスからの情報から取得されてもよい。
送受部110は、手術支援ロボット300からの情報を取得する。手術支援ロボット300からの情報は、手術支援ロボット300のキネマティクスの情報を含んでよい。キネマティクスの情報は、例えば、手術支援ロボット300が備えるロボット手術を行うための器具(例えばロボットアームAR、エンドエフェクタEF、内視鏡ES)の形状に関する形状情報や動作範囲に関する動作情報を含んでよい。キネマティクスの情報は、外部サーバから受信されてもよい。
この形状情報は、ロボットアームARやエンドエフェクタEFや内視鏡ESの各部位の長さ、重さ、基準方向(例えば水平面)に対するロボットアームARの角度、ロボットアームARに対するエンドエフェクタEFの取付角度、等の少なくとも一部の情報を含んでよい。
この動作情報は、ロボットアームARやエンドエフェクタEFや内視鏡ESの3次元空間における可動範囲を含んでよい。この動作情報は、ロボットアームARが動作する際のロボットアームARの位置、速度、加速度、向き、等の情報を含んでよい。この動作情報は、エンドエフェクタEFが動作する際のロボットアームARに対するエンドエフェクタEFの位置、速度、加速度、向き、等の情報を含んでよい。この動作情報は、内視鏡ESが動作する際のロボットアームARに対する内視鏡ESの位置、速度、加速度、向き、等の情報を含んでよい。
ロボットアームARやエンドエフェクタEFや内視鏡ESには、角度センサが取り付けられてよい。この角度センサは、ロボットアームARやエンドエフェクタEFや内視鏡ESの3次元空間での向きに相当する角度を検出するロータリーエンコーダを含んでよい。送受部110は、手術支援ロボット300に取り付けられた各種センサが検出した検出情報を取得してよい。
送受部110は、ロボット操作端末310に対する操作に関する操作情報を取得してよい。この操作情報は、操作の対象(例えばロボットアームAR、エンドエフェクタEF、内視鏡ES)、操作の種類(例えば移動、回転)、操作位置、操作速度、等の情報を含んでよい。
送受部110は、手術器具30に関する手術器具情報を取得してよい。手術器具情報は、手術器具30の被検体PSへの挿入距離を含んでよい。この挿入距離は、例えば、手術器具30が挿入されるプラットフォーム40とこの手術器具30の先端位置との間の距離に相当する。例えば、手術器具30に、手術器具30の挿入距離を示す目盛りが付されていてよい。送受部110は、この目盛りを電子的に読み取り、手術器具30の挿入距離を取得してよい。この場合、例えばリニアエンコーダ(読取装置)がプラットフォーム40に取り付けられ、手術器具30にはエンコード用のマーカが付されてよい。また、送受部110は、この目盛りを術者が読んでUI120を介して挿入距離を入力することで、手術器具30の挿入距離を取得してもよい。
また、手術支援ロボット300からの情報には、内視鏡ESによる撮像に関連する情報(内視鏡情報)が含まれてよい。内視鏡情報は、内視鏡ESにより撮像された画像(実内視鏡画像)、実内視鏡画像に関する付加情報(撮像位置、撮像向き、撮像画角、撮像範囲、撮像時刻、等)が含まれてよい。
送受部110は、手術ベッド400からの情報を取得してよい。手術ベッド400からの情報は、手術ベッド400が備える各種センサSRによる検出情報、手術ベッド400により導出された情報(例えば、手術ベッド400における各部の位置関係の情報)、等を含んでよい。
UI120は、例えば、タッチパネル、ポインティングデバイス、キーボード、又はマイクロホンを含んでよい。UI120は、ロボット手術支援装置100の術者から、任意の入力操作を受け付ける。術者は、医師、看護師、放射線技師、学生、等を含んでよい。
UI120は、各種操作を受け付ける。例えば、ボリュームデータやボリュームデータに基づく画像(例えば後述する3次元画像、2次元画像)における、関心領域(ROI)の指定や輝度条件(例えばWW(Window Width)やWL(Window Level))の設定等の操作を受け付ける。関心領域は、各種組織(例えば、血管、臓器、器官、骨、脳)の領域を含んでよい。組織は、病変組織、正常組織、腫瘍組織、等を含んでよい。
ディスプレイ130は、例えばLCDを含んでよく、各種情報を表示する。各種情報は、ボリュームデータから得られる3次元画像や2次元画像を含んでよい。3次元画像は、ボリュームレンダリング画像、サーフェスレンダリング画像、仮想内視鏡画像、仮想超音波画像、CPR画像、等を含んでもよい。ボリュームレンダリング画像は、レイサム(RaySum)画像、MIP画像、MinIP画像、平均値画像、レイキャスト画像、等を含んでもよい。2次元画像は、アキシャル画像、サジタル画像、コロナル画像、MPR画像、等を含んでよく、これらの合成画像を含んでもよい。
メモリ150は、各種ROMやRAMの一次記憶装置を含む。メモリ150は、HDDやSSDの二次記憶装置を含んでもよい。メモリ150は、USBメモリやSDカードや光ディスクの三次記憶装置を含んでもよい。メモリ150は、各種情報やプログラムを記憶する。各種情報は、送受部110により取得されたボリュームデータ、プロセッサ140により生成された画像、プロセッサ140により設定された設定情報、各種プログラムを含んでもよい。メモリ150は、プログラムが記録される非一過性の記録媒体の一例である。
プロセッサ140は、CPU、DSP、又はGPUを含んでよい。プロセッサ140は、メモリ150に記憶されたプログラムを実行することにより、各種処理や制御を行う処理部160として機能する。
図2Aは、処理部160の機能構成例を示すブロック図である。処理部160は、領域処理部161、変形処理部162、モデル設定部163、位置処理部164、画像生成部166、及び表示制御部167を備える。なお、処理部160に含まれる各部は、1つのハードウェアにより異なる機能として実現されてもよいし、複数のハードウェアにより異なる機能として実現されてもよい。また、処理部160に含まれる各部は、専用のハードウェア部品により実現されてもよい。
領域処理部161は、例えば送受部110を介して、被検体のボリュームデータを取得する。領域処理部161は、ボリュームデータに含まれる任意の領域を抽出する。領域処理部161は、例えばボリュームデータの画素値に基づいて、自動で関心領域を指定し、関心領域を抽出してよい。領域処理部161は、例えばUI120を介して、手動で関心領域を指定し、関心領域を抽出してよい。関心領域は、臓器、骨、血管、患部(例えば病変組織や腫瘍組織)、等の領域を含んでよい。臓器は、直腸、大腸、前立腺、等を含んでよい。
また、関心領域は、単一の組織だけでなく、その組織の周囲の組織を含んでセグメンテーション(区分)されて抽出されてもよい。例えば、関心領域としての臓器が直腸の場合、直腸本体だけでなく、直腸に接続する又は直腸内若しくは直腸周辺を走行する血管、直腸周辺の骨(例えば背骨、骨盤)や筋肉を含んでもよい。また、上記の直腸本体と直腸内又は直腸周辺の血管と直腸周辺の骨や筋肉とは、別々の組織としてセグメンテーションされて得られてもよい。
モデル設定部163は、組織のモデルを設定する。モデルは関心領域とボリュームデータに基づいて設定されてよい。モデルは、ボリュームデータが表現する組織を、ボリュームデータよりも簡素化して表現するものである。したがって、モデルのデータ量は、モデルに対応するボリュームデータのデータ量よりも小さい。モデルは、例えば手術における各種処置を模した変形処理や変形操作の対象となる。モデルは、例えばボーン変形モデルでよい。この場合、モデルは簡易な有限要素において骨組みを仮定して、有限要素の頂点を移動させることで、ボーンが変形する。組織の変形は、ボーンの変形を追従することによって表現できる。モデルは、臓器(例えば直腸)を模した臓器モデルを含んでよい。モデルは、単純な形状の多角形(例えば三角形)に類似する形状を有してもよいし、その他の形状を有してもよい。モデルは、例えば、臓器を示すボリュームデータの輪郭線であってもよい。モデルは、3次元モデルであっても2次元モデルであってもよい。
また、モデル設定部163は、被検体PSの下肢の骨及び関節に関するキネマティクスモデル(後述)を生成してよい。なお、キネマティクスの変形において、骨についてはモデルの変形ではなく、ボリュームデータの変形で表現されてもよい。骨は変形の自由度が小さいため、ボリュームデータのアフィン変換で表現できるためである。モデル設定部163は、キネマティクスモデルに骨以外の組織のボーン変形モデルや有限要素モデルを従属させてよい。キネマティクスモデルに骨以外の組織のボーン変形モデルや有限要素モデルを従属させることは、骨に臓器がぶら下がっていることを意味してよい。
モデル設定部163は、ボリュームデータに基づいて、モデルを生成することで、モデルを取得してよい。また、モデルのテンプレートが複数予め決まっており、メモリ150や外部サーバに保持されていてもよい。モデル設定部163は、ボリュームデータに合わせて、予め用意された複数のモデルのテンプレートから1つのモデルのテンプレートをメモリ150や外部サーバから取得することで、モデルを取得してもよい。
モデル設定部163は、ボリュームデータに含まれる被検体PSの組織(例えば直腸)におけるターゲットTGの位置を設定してよい。または、モデル設定部163は、臓器モデルにおけるターゲットTGの位置を設定してよい。ターゲットTGは、任意の組織内に設定される。モデル設定部163は、UI120を介してターゲットTGの位置を指定してよい。また、過去に被検体PSに対して処置されたターゲットTG(例えば患部)の位置がメモリ150に保持されていてもよい。モデル設定部163は、メモリ150からターゲットTGの位置を取得して設定してもよい。モデル設定部163は、術式に応じてターゲットTGの位置を設定してもよい。術式は、被検体PSに対する外科手術の方式を示す。ターゲット位置は、ある程度の広さを有するターゲットTGの領域の位置であってもよい。
変形処理部162は、手術対象の被検体PSにおける変形に関する処理を行う。例えば、被検体PS内の臓器等の組織は、手術における術者の各種処置を模して術者によって各種の変形操作がされ得る。変形操作は、臓器を持ち上げる操作、ひっくり返す操作、切る操作、等を含んでよい。これに対応して、変形処理部162は、臓器モデルを変形させる。例えば、臓器がエンドエフェクタEFにより引っ張られたり押されたり、切断されたりし得るが、この様子を臓器モデルの変形によりシミュレートしてよい。臓器モデルが変形すると、臓器モデルにおけるターゲットTGも変形し得る。
変形操作による変形は、モデルに対して行われよく、有限要素法を用いた大変形シミュレーションでよい。例えば、体位変換による臓器の移動や下肢の骨の移動をシミュレートしてよい。この場合、臓器や病変や下肢の骨の接点に加わる弾性力や臓器や病変や下肢の骨の剛性、その他の物理的な特性が加味されてよい。骨の移動はキネマティクスモデルで表現されてよい。モデルに対する変形処理は、ボリュームデータに対する変形処理と比較すると、演算量が低減される。変形シミュレーションにおける要素数が低減されるためである。なお、モデルに対しての変形処理が行われず、ボリュームデータに対して直接、変形処理が行われてもよい。
また、変形処理部162は、例えば、変形に関する処理として、仮想的に被検体PSに対して肛門からガスを注入するガス注入シミュレーションを行ってよい。ガス注入シミュレーションの具体的な方法は、公知の方法であってよく、例えば参考非特許文献1に記載された気腹シミュレーションの方法を、肛門を介してガスを注入するガス注入シミュレーションに適用してよい。つまり、変形処理部162は、非ガス注入状態のモデル又はボリュームデータを基に、ガス注入シミュレーションを行い、仮想ガス注入状態のモデル又はボリュームデータを生成してよい。ガス注入シミュレーションにより、術者は、被検体PSに対して実際にガス注入しなくても、被検体PSがガス注入された状態を仮定し、仮想的にガス注入された状態を観察できる。なお、ガス注入状態のうち、ガス注入シミュレーションにより推定されるガス注入の状態を仮想ガス注入状態と称し、実際のガス注入された状態を実ガス注入状態と称してよい。
(参考非特許文献1)Takayuki Kitasaka, Kensaku Mori, Yuichiro Hayashi, Yasuhito Suenaga, Makoto Hashizume, and Jun-ichiro Toriwaki, “Virtual Pneumoperitoneum for Generating Virtual Laparoscopic Views Based on Volumetric Deformation”, MICCAI (Medical Image Computing and Computer-Assisted Intervention), 2004, P559-P567
ガス注入シミュレーションは、有限要素法を用いた大変形シミュレーションでよい。この場合、変形処理部162は、領域処理部161を介して、被検体PSの皮下脂肪を含む体表と、被検体PSの肛門付近の内臓と、をセグメンテーションしてよい。そして、変形処理部162は、モデル設定部163を介して、体表を皮膚と体脂肪との2層の有限要素にモデル化し、肛門付近の内臓を有限要素にモデル化してよい。変形処理部162は、任意に、例えば直腸と骨とをセグメンテーションし、モデルに追加してよい。また、体表と肛門付近の内臓との間にガス領域を設け、仮想的なガス注入に応じてガス注入領域が拡張(膨張)してよい。なお、ガス注入シミュレーションが行われなくてもよい。
位置処理部164は、送受部110を介して、手術ベッド400からの手術ベッド400における所定の位置の間の位置関係の情報を取得する。この位置関係の情報は、後述する手術ベッド400の脚保持部450とテーブル420との位置関係の情報を含む。
位置処理部164は、被検体PSの3Dデータを取得する。この3Dデータは、被検体PSのボリュームデータ又はモデルを含んでよい。このボリュームデータ又はモデルは、非ガス注入状態でもガス注入状態でもよい。また、3Dデータは、ボリュームデータから生成されたサーフィスデータであってもよい。
位置処理部164は、取得された3Dデータと、脚保持部450とテーブル420との位置関係と、に基づいて、被検体PSにおける少なくとも骨盤14の状態を推定する。骨盤14の状態は、3Dデータにおける骨盤14の位置や向きや動きを含んでよい。位置処理部164は、骨盤14の状態に基づいて、3Dデータにおける骨盤内臓器51の変形を算出する。骨盤内臓器51は、骨盤14の内側に少なくとも一部が存在する臓器であり、直腸、大腸、前立腺、等を含む。位置処理部164は、骨盤14以外の骨(例えば大腿骨13、脊椎)の状態(例えば位置や傾き)を推定してもよい。
位置処理部164は、手術器具30の位置及び向きを取得してよい。手術ベッド400と手術支援ロボット300とは、所定の位置関係で配置されてよい。被検体PSは、手術ベッド400に対して所定の位置に配置され固定される。そのため、手術支援ロボット300のキネマティクスとロボットアームARの角度とに基づいて、手術器具30の位置及び角度を推定してよい。また、位置処理部164、手術器具30の挿入距離を基に、手術器具30の位置を算出してよい。よって、位置処理部164は、3Dデータにおける位置及び向きを導出できる。
画像生成部166は、各種画像を生成する。画像生成部166は、取得されたボリュームデータの少なくとも一部(例えばボリュームデータにおいて抽出された領域)に基づいて、3次元画像や2次元画像を生成する。画像生成部166は、変形処理部162により変形されたボリュームデータに基づいて、3次元画像や2次元画像を生成してよい。例えば、ボリュームレンダリング画像や、内視鏡ESの位置から内視鏡ESの向きを見た状態を表現する仮想内視鏡画像を生成してよい。
表示制御部167は、各種データ、情報、画像をディスプレイ130に表示させる。表示制御部167は、画像生成部166で生成された画像(例えばレンダリング画像)を表示させる。また、表示制御部167は、この画像とともに各種情報を重畳して表示させる。重畳表示される情報は、例えば、手術器具30、骨盤14、骨盤内臓器51を示す情報を含んでよい。また、表示制御部167は、レンダリング画像の輝度調整を行ってよい。輝度調整は、例えばウインドウ幅(WW:Window Width)及びウインドウレベル(WL:Window Level)の少なくとも一方の調整を含んでよい。
図2Bは、手術ベッド400の構成例を示すブロック図である。手術ベッド400は、ベース410、テーブル420、支持部材440、脚保持部450、プロセッサPR、アクチュエータAC、伸縮機構EM、回転機構RM、スライド機構SM、及びセンサSRを有する。また、手術ベッド400は、操作部403及び通信部405を有する。アクチュエータACは、複数存在してよく、アクチュエータAC0,AC1,AC2,…として示す。回転機構RMは、複数存在してよく、回転機構RM1,RM2,…として示す。スライド機構SMは、複数存在してよく、スライド機構SM1,SM2,…として示す。センサSRは、複数存在してよく、センサSR0,SR1,SR2,…として示す。また、センサSRは、エンコーダなどとして、各機構やアクチュエータACに内蔵されていてもよい。センサSRは、脚保持部450のみに内蔵され、テーブル420に対する位置を特定可能な情報(距離、角度、回転)が含まれていてよい。
アクチュエータACは、プロセッサPRによる制御により、回転機構RM及びスライド機構SMに駆動力を提供する。
プロセッサPRは、CPU、DSP、又はMPUを含んでよい。プロセッサPRは、手術ベッド400が備えるメモリに記憶されたプログラムを実行することにより、各種処理や制御を行う処理部として機能する。
例えば、プロセッサPRは、操作部403を介して取得された手術ベッド400の操作者による操作情報を取得し、操作情報に基づいてアクチュエータACを制御してよい。操作情報は、例えば、脚部31を上げ下げするための脚保持部450の位置を指定するための操作情報や、被検体PSの体位を指定するための操作情報を含んでよい。これにより、手術ベッド400は、手術ベッド400の形態を手動で変更して、被検体PSを任意の体位とすることを補助できる。また、被検体PSの姿勢を、術者が手技をしやすい姿勢に容易に変更できる。
また、プロセッサPRは、通信部405を介して被検体PSの体位の情報を取得し、被検体PSの体位に基づいて、アクチュエータACを制御してよい。この場合、アクチュエータACは、取得された被検体PSの体位となるために必要な回転機構RM及びスライド機構SMの動作に必要な駆動力を提供してよい。これにより、手術ベッド400は、被検体PSの体位を手術支援ロボット300がロボット手術において要求する体位にすることを、容易に且つ迅速に対応できる。
また、プロセッサPRは、通信部405を介して被検体PSに対する術式の情報を取得し、術式に基づいて、アクチュエータACを制御してよい。この場合、アクチュエータACは、取得された術式における各種処置を実施するための体位となるために必要な回転機構RM及びスライド機構SMの動作に必要な駆動力を提供してよい。これにより、手術ベッド400は、被検体PSの体位を、手術支援ロボット300によるロボット手術の術式や各種処置において要求する体位にすることを、容易に且つ迅速に対応できる。
また、プロセッサPRは、通信部405を介して被検体PS内での手術器具30の位置の情報を取得し、被検体PS内での手術器具30の位置に基づいて、アクチュエータACを制御してよい。手術器具30の位置の情報は、手術支援ロボット300のキネマティクスの情報に含まれてよい。この場合、アクチュエータACは、この手術器具30の位置に被検体PSのターゲットTGが近づくための回転機構RM及びスライド機構SMの動作に必要な駆動力を提供してよい。これにより、手術ベッド400は、手術支援ロボット300が手術器具30を用いてターゲットTGにアプローチし易いように、被検体PSの体位を容易に且つ迅速に変換できる。
このように、手術ベッド400は、手術支援ロボット300と連動して手術ベッド400の形態を柔軟に変更でき、被検体PSの体位変換をスムーズに行うことを支援できる。また、手術ベッド400は、手術ベッド400の形態を変更することで、重力の作用により骨盤14や骨盤内臓器51が移動することを加味して、例えば骨や臓器の背後に位置する組織にアプローチしやすくすることも可能である。また、手術ベッド400は、被検体PSの体位を変更して、被検体PSの血流を調整してもよい。
回転機構RMは、アクチュエータACからの駆動力を受けて、回転する。スライド機構SMは、アクチュエータACからの駆動力を受けて、スライド(平行移動)する。手術ベッド400は、アクチュエータACが所望のタイミングで回転機構RM及びスライド機構SMに駆動力を提供することで、術中に人手を介さずに被検体PSの体位を細かく調整できる。
センサSRは、位置検出器(例えばリニアエンコーダ)、角度検出器(例えばロータリーエンコーダ)、等を含む。センサSRは、逐次、手術ベッド400における各部の位置や角度の検出を行い、手術ベッド400における各部の動きを検出してよい。
ベース410(図7A等参照)は、手術室の床等に配置され、テーブル420を保持する。ベース410は、アクチュエータACからの駆動力に従って、鉛直方向に伸縮自在(昇降自在)である。
テーブル420(図7A等参照)は、第1テーブル421及び第2テーブル422を有する。第1テーブル421には、被検体PSの胴体部33が載置されてよい。第2テーブル422には、被検体PSの大腿部32が載置されてよい。第1テーブル421は、回転機構RMの回転に従って、ベース410に対して回転自在である。第1テーブル421は、例えば、互いに直交する3軸方向を回転中心として、回転自在でよい。第1テーブル421は、スライド機構SMのスライドに従って、テーブル420の面に沿って移動自在である。第2テーブル422は、回転機構RMの回転に従って、第1テーブル421に対して回転自在である。
支持部材440(図7A等参照)は、テーブル420と脚保持部450とに接続される。支持部材440は、テーブル420に対する脚保持部450の角度と、テーブル420と脚保持部450との距離と、を調整自在に支持する。支持部材440は、回転機構RMの回転に従って、第2テーブル422に対して回転自在である。
脚保持部450(図7A等参照)は、被検体PSの脚部31を保持する。脚保持部450は、被検体PSの大腿部32を曲げた状態で脚部31を保持してよい。脚保持部450は、回転機構RMの回転に従って、支持部材440に対して回転自在である。脚保持部450は、スライド機構SMのスライドに従って、支持部材440の延在方向に沿って移動自在である。脚保持部450は、被検体PSの脚部31が回転自在且つ移動自在に保持されることで、脚部31を含む下肢を牽引可能である。つまり、脚保持部450は、被検体PSの下肢を牽引する下肢牽引装置の一例である。
プロセッサPRは、センサSRと連携して、手術ベッド400における複数の部位の位置関係を導出する。例えば、プロセッサPRは、脚保持部450とテーブル420との位置関係を導出する。この位置関係は、テーブル420に対する脚保持部450の位置であってもよく、脚保持部450に対するテーブル420の位置であってもよい。例えば、プロセッサPRは、リニアエンコーダやロータリーエンコーダにより計測された各部の位置や角度を基に、テーブル420に対する脚保持部450の位置を算出してよい。また、プロセッサは、手術ベッド400の本体の傾きを考慮して、上記の位置関係が導出されてもよい。手術ベッド400の本体の傾きは、ベース410の3軸方向に対する傾きで示されてよい。なお、手術ベッド400の本体の傾きは、骨盤14等の骨よりも被検体PSの内部の臓器(例えば骨盤内臓器51)の動きに対して影響を与えやすい。
また、プロセッサPRは、センサSRによる検出結果を逐次取得し、センサSRによる検出結果が変化した場合に、位置関係を導出してよい。例えば、プロセッサPRは、センサSRの検出値に基づいて支持部材440に沿って脚保持部450が移動したことが検出された場合に、脚保持部450とテーブル420との位置関係を算出してよい。
通信部405は、外部装置(例えばロボット手術支援装置100)との間で各種データを通信してよい。各種データは、各種センサSRにより検出された検出情報、脚保持部450とテーブル420との位置関係の情報、等を含む。
図3は、プラットフォーム40、手術器具30、及び被検体PSの内部の様子の一例を示す図である。ロボット本体320のロボットアームARに取り付けられたエンドエフェクタEFは、プラットフォーム40を挿通して被検体PSの内部に挿入される。図3では、プラットフォーム40は肛門に設置されており、肛門に接続する直腸の一部に病変が存在し、処置が行われるターゲットTGとなっている。ターゲットTG付近の様子は、ロボットアームARに取り付けられた内視鏡ESにより撮像される。内視鏡ESもエンドエフェクタEFと同様に、プラットフォーム40を挿通して被検体PSの内部に挿入される。
図3では、被検体PSを基準とした被検体座標系(患者座標系)のx方向、y方向、及びz方向が示されている。被検体座標系は、直交座標系である。x方向は、被検体PSを基準とした左右方向に沿ってよい。y方向は、被検体PSを基準とした前後方向(被検体PSの厚み方向)でよい。z方向は、被検体PSを基準とした上下方向(被検体PSの体軸方向)でよい。x方向、y方向、z方向は、DICOM(Digital Imaging and COmmunications in Medicine)で規定された3方向でよい。この座標系は、以降の図においても同様である。
図4は、被検体PSの下肢のキネマティクスモデルの一例を示す図である。キネマティクスモデルは、下肢に存在する骨の長さと、下肢に存在する関節の自由度と、の情報を有する。下肢は、例えば、腰椎付近よりも足の先端側の部分であってよい。被検体PSの下肢は、脚部31、大腿部32、及び胴体部33を有する。脚部31は、足部31a及び脛部31bを有する。足部31aの骨としての足骨11と脛部31bの脛骨12との間には、足関節21が介在する。脛骨12と大腿部32の大腿骨13との間には、膝関節22が介在する。大腿骨13と胴体部33の骨盤14との間には、股関節23が介在する。股関節23には、頭部側に、腰椎15が接続される。
モデル設定部163は、被検体PSの3Dデータに基づいて、キネマティクスモデルを生成する。この場合、例えば、領域処理部161が、UI120を介して、3Dデータにおいて指定された被検体PSの下肢の骨の領域の両端部を取得し、両端部の間に位置する骨の領域を抽出する。指定される下肢側の骨の領域の両端部は、足骨11及び腰椎15(例えば第1腰椎L1付近の骨)であってよい。抽出時では、各骨がつながった状態でマスク領域として抽出されることもある。マスク領域は、各処理の対象となる領域である。モデル設定部163は、例えば骨分離アルゴリズムを用いて、関節の位置で骨を分離し、足骨11、脛骨12、大腿骨13、及び骨盤14、及び腰椎15を分離したマスク領域をそれぞれ作成する。モデル設定部163は、各骨のマスク領域の輪郭により、キネマティクスモデルにおける各骨の形状を生成できる。
図5は、被検体PSの体位が切石位であり、脚部31を低く上げている状態での骨盤14の状態の一例を示す図である。図6は、被検体PSの体位が切石位であり、脚部31を高く上げている状態での骨盤14の状態の一例を示す図である。
切石位では、手術ベッド400に仰向けに載置され、手術ベッド400において、被検体PSの胴体部33が載置されるテーブル420よりも、被検体PSの脚部31が固定される脚保持部450が高い位置に配置される。脚保持部450に、被検体PSの脚が上げられた状態で固定される。
脚保持部450は、脚部31を載置する脚載置部と、脚部31を脚載置部に固定する脚固定部と、を有してよい。脚固定部は、脚の位置や向きを固定できるものであればよく、例えばストラップにより固定するものであってもよいし、ブーツのように脚部31を挿入して履くものであってもよい。なお、ブーツのような脚固定部の場合、単に脚部31を載置する脚載置部が設けらなくてもよい。
被検体PSの脚部31を動かすと、被検体PSの骨盤14が動く。また、骨盤14に連動して、骨盤内臓器51が動く。脚部31は脚保持部450に保持されるので、脚部31の位置は脚保持部450の位置とほぼ一致する。テーブル420と脚保持部450との関係によって、被検体PSの体位や姿勢が判別可能である。
変形処理部162は、キネマティクスモデルに作用する力(例えば重力、体位に基づく力)に基づいて、キネマティクスモデルの変形(例えば移動、回転)を算出してよい。これにより、被検体PSの体位や姿勢に基づいて、各骨がどのように変形するかを把握できる。位置処理部164は、キネマティクスモデルの変形に基づいて、足骨11、脛骨12、大腿骨13、骨盤14、及び腰椎15の状態(例えば位置、向き(角度))を算出してよい。例えば、位置処理部164は、テーブル420に対する脚保持部450の位置と、被検体PSの下肢のキネマティクスモデルと、に基づいて、骨盤14の状態(例えば位置、向き、動き)を推定してよい。
また、変形処理部162は、脚部31を移動させた際の、被検体PSの各骨(例えば骨盤14)の状態(例えば位置、向き(角度))を算出してよい。この場合、脚保持部450とテーブル420との位置関係の変化を基に、キネマティクスモデルの動きを算出してよい。例えば、モデル設定部163が、キネマティクスモデルの他に、脚保持部450のモデルとテーブル420のモデルとを追加で生成してよい。変形処理部162は、キネマティクスモデル、各モデル(例えばキネマティクスモデル、脚保持部450のモデル、テーブル420のモデル)の位置情報、及び手術ベッド400のセンサSRにより得られた位置及び角度の検出情報に基づいて、インバースキネマティクスを用いて、キネマティクスモデルの動きを算出してよい。これにより、ロボット手術支援装置100は、第2テーブル422に対する支持部材440の角度や、支持部材440に対する脚保持部450の角度を変更した際の、被検体PS内の各骨の状態や動きを推定できる。よって、ロボット手術支援装置100は、テーブル420に対する脚保持部450の距離や角度とともに、骨盤14等の骨の動きも加味して、3Dデータにおける骨盤内臓器51の変形精度を一層向上できる。
変形処理部162は、骨盤14の状態に基づいて、3Dデータにおける骨盤内臓器51の変形を算出してよい。ここでの変形は、移動や回転を含んでよい。骨盤内臓器51の変形は、3Dデータを基に、有限要素法を用いた大変形シミュレーションにより導出されてよい。例えば、変形処理部162は、骨盤14の状態に応じて骨盤内臓器51に作用する力を算出し、骨盤内臓器51の各点に作用する力を基に、臓器50を変形させてよい。
これにより、仰臥位でのCT装置200による撮像により得られたボリュームデータを基に、TAMISでの体位に即した臓器変形を行うことができる。よって、術前CT画像を用いても、ボリュームデータ又はモデルにおいてTAMISでの体位に対応する骨盤内臓器51の様子を再現でき、TAMISによるロボット手術の手術精度を向上できる。
また、画像生成部166は、骨盤内臓器51の変形を反映してレンダリング画像を生成してよい。表示制御部167は、レンダリング画像を表示させてよい。これにより、術者は、TAMISでの体位に対応する骨盤内臓器51の様子を、表示により確認できる。
このように、ロボット手術支援装置100は、キネマティクスモデルに基づいて、例えば、下肢の関節の屈曲に応じて下肢の関節に接続された骨がどのように移動するかを算出できる。また、骨は剛体であるので、変形処理部162は、下肢の関節の移動に応じて、関節の移動後における骨の形状を算出してよい。
次に、図7A~図7Oを用いて、手術ベッド400の形態の詳細について説明する。
図7A~図7Oでは、図5及び図6と同様に、手術ベッド400に被検体PSが切石位で配置されることを想定する。切石位以外の体位では、図7A~図7Oの例とは異なる手術ベッド400の形態となり得る。また、切石位の際に、手術ベッド400の形態が図7A~図7Oとは異なる形態となってもよい。
図7A~図7Oでは、説明を簡単にするために、手術ベッド400の向きを、被検体座標系を用いて示す。つまり、手術ベッド400では、x方向は、被検体PSの左右方向に対応する方向であり、y方向は、被検体PSの厚み方向に対応する方向であり、z方向は、被検体PSの体軸方向に対応する方向である。また、y方向正側(被検体PSの腹側)を上、y方向負側(被検体PSの背側)を下、とも記載する。また、x方向正側(被検体PSの右側)を右、y方向負側(被検体PSの左側)を左、とも記載する。また、図7D~図7Oでは、手術ベッド400の一部が省略されて示されていることもある。
図7Aは、手術ベッド400をx方向から見た側面図である。図7Bは、手術ベッド400をz方向から見た側面図である。図7Cは、手術ベッド400をy方向から見た上面図である。
ベース410は、例えば鉛直方向である伸縮方向m1に沿って、伸縮自在である。よって、第1テーブル421及び第2テーブル422を含むテーブル420の高さを調整自在である。ベース410は、伸縮方向m1に伸縮するための伸縮機構EM、伸縮機構EMに駆動力を提供するアクチュエータAC0、伸縮機構EMの位置を検出するセンサSR1、等を備える。伸縮機構EMの位置は、第1テーブル421の鉛直方向の高さに相当する。ベース410の上端には、回転ジョイント461が接続される。
回転ジョイント461には、上端に第1テーブル421が連結される。回転ジョイント461のx方向の両端のそれぞれに、直進ジョイント460が連結される。第1テーブル421及び直進ジョイント460は、回転ジョイント461を基準に3軸方向を回転中心として回転可能である。3軸方向は、水平方向に沿う垂直な2方向と水平方向に垂直な鉛直方向とでよく、被検体PSを基準にしたx方向、y方向、及びz方向に対応してよい。回転ジョイント461による回転方向は、x方向を回転中心とした回転方向r11、z方向を回転中心とした回転方向r12(図7B)、及びy方向を回転中心とした回転方向r13を含む。
回転ジョイント461は、3軸方向を回転中心とする回転機構RM1、回転機構RM1に駆動力を提供するアクチュエータAC1、回転機構RM1の回転角度を検出するセンサSR1、等を備える。なお、回転機構RM1は、3軸方向を回転中心として回転するのではなく、3軸方向のうちのいずれか2軸方向又は1軸方向を回転中心として回転してもよい。
直進ジョイント460は、第1テーブル421の下部又は側部において第1テーブル421に連結される。直進ジョイント460は、第1テーブル421のx方向の両端部のそれぞれにおいて、z方向に沿って延在する。第1テーブル421は、直進ジョイント460によって、第1テーブル421の一方向(例えばz方向)である移動方向m2に沿って、移動自在である。
直進ジョイント460は、ベース410に対してz方向に沿って第1テーブル421をスライドするためのスライド機構SM1、スライド機構SM1に駆動力を提供するアクチュエータAC2、スライド機構SM1におけるスライド位置を検出するセンサSR2、等を備える。このスライド位置は、ベース410に対する第1テーブル421のz方向位置に相当する。
回転ジョイント462は、第1テーブル421のz方向負側の端部に接続され、第2テーブル422のz方向正側の端部に接続される。回転ジョイント462は、y方向を回転中心として、第1テーブル421と第2テーブル422とを回転自在に連結する。例えば、第1テーブル421に対して第2テーブル422を回転可能に連結する。回転ジョイント462は、y方向を回転中心とする回転機構RM2、回転機構RM2に駆動力を提供するアクチュエータAC3、回転機構RM2の回転角度を検出するセンサSR3、等を備える。つまり、第2テーブル422は、回転機構RM2の回転に従って、回転方向r4に回転可能である。これによって被検体の脚を外転させることができる。つまり、脚保持部450は、被検体PSの脚部31を外転して保持する機構を有してよい。
回転ジョイント463は、第2テーブル422のz方向負側の端部且つx方向正側の端部に接続され、支持部材440のz方向正側の端部に接続される。回転ジョイント463は、x方向を回転中心として、第2テーブル422と支持部材440とを回転自在に連結する。例えば、第2テーブル422に対して支持部材440を回転可能に連結する。回転ジョイント463は、x方向を回転中心とする回転機構RM3、回転機構RM3に駆動力を提供するアクチュエータAC4、回転機構RM3の回転角度を検出するセンサSR4、等を備える。つまり、回転ジョイント463は、回転機構RM3の回転に従って、回転方向r2に回転可能である。
支持部材440は、第2テーブル422に対する脚保持部450の位置を調整可能に支持する。支持部材440は、支持部材440の延在方向に沿って、第2テーブル422からの脚保持部450の距離を調整するための直進ジョイント464を有する。なお、直進ジョイント464が、支持部材440とは別に設けられ、支持部材440の近傍に支持部材440に沿って配置されてもよい。
直進ジョイント464は、支持部材440に沿う移動方向m3に沿って、脚保持部450を移動可能である。直進ジョイント464は、第2テーブル422に対して移動方向m3に沿って脚保持部450をスライドするためのスライド機構SM2、スライド機構SM2に駆動力を提供するアクチュエータAC5、スライド機構SM2におけるスライド位置を検出するセンサSR5、等を備える。このスライド位置は、移動方向m3に沿った第2テーブル422に対する脚保持部450の位置に相当し、脚保持部450が連結される回転ジョイント465の位置に相当する。
回転ジョイント465は、直進ジョイント464のスライド機構SM2におけるスライド位置に接続され、脚保持部450の端部に接続されてよい。回転ジョイント465は、x方向を回転中心として、支持部材440と脚保持部450とを回転自在に連結する。例えば、支持部材440に対して脚保持部450を回転可能に連結する。回転ジョイント465は、x方向を回転中心とする回転機構RM4、回転機構RM4に駆動力を提供するアクチュエータAC6、回転機構RM4の回転角度を検出するセンサSR6、等を備える。つまり、回転ジョイント465は、回転機構RM4の回転に従って、回転方向r3に回転可能である。なお、回転ジョイント465は、フリー状態にしてもよい。ここでのフリー状態とは、脚保持部450が回転自在であるが、回転ジョイント465がアクチュエータAC6を有さず、回転機構RM4の回転角度が特に固定されていない状態、のことでよい。また、その場合に、センサSR6は、回転ジョイント465の回転角度を検出してもよいし、しなくてもよい。キネマティクスモデルのリンクの制約により、他のセンサからの情報によって回転ジョイント465の回転角度を類推できるからである。
なお、被検体PSが左右一対の脚部31及び大腿部32を有することを想定しているので、図7Cに示すように、手術ベッド400は、下肢を配置するための部位を左右用に2つ(一対)有する。下肢を配置するための部位は、例えば、回転ジョイント462、第2テーブル422、回転ジョイント463、支持部材440、直進ジョイント464、回転ジョイント465、及び脚保持部450を含んでよい。
図7D~図7Oでは、手術ベッド400が備える各機構により、手術ベッド400の形態を図7A~図7Cに示した状態から変化させた状態を示している。ここでは、手術ベッド400の部位の一部が省略され得る。
図7Dは、伸縮機構EMの伸長によりベース410が伸長された状態を示す。図7Eは、スライド機構SM1のスライドにより、z方向負側(被検体PSの脚部側)にテーブル420をスライドした状態を、x方向から見た側面図である。図7Fは、スライド機構SM1のスライドにより、z方向正側(被検体PSの頭部側)にテーブル420をスライドした状態を、x方向から見た側面図である。
図7Gは、回転機構RM1の回転により、z方向正側(被検体PSの頭部側)を低くしてテーブル420を傾斜させた状態を、x方向から見た側面図である。図7Hは、回転機構RM1の回転により、z方向正側を高くしてテーブル420を傾斜させた状態を、x方向から見た側面図である。図7Iは、回転機構RM1の回転により、x方向正側(被検体PSの右側)を低くしてテーブル420を傾斜させた状態を、z方向から見た側面図である。図7Jは、回転機構RM1の回転により、x方向正側を高くしてテーブル420を傾斜させた状態を、z方向から見た側面図である。
図7Kは、回転機構RM1の回転により、手術ベッドの開脚状態を、y方向から見た上面図である。手術ベッド400の開脚状態は、被検体PSの開脚状態に合わせるように、被検体PSの下肢を配置するための左右の各部位が遠ざけて配置された状態である。図7Lは、手術ベッド400の閉脚状態を、y方向から見た上面図である。手術ベッド400の閉脚状態は、被検体PSの閉脚状態(非開脚状態)に合わせるように、被検体PSの下肢を配置するための左右の各部位が近づけて配置された状態である。
図7Mは、スライド機構SM2のスライドにより、テーブル420と脚保持部450との距離を長くした状態を、x方向から見た上面図である。図7Nは、水平方向に対する支持部材440の角度を大きくし、支持部材440を水平方向に対して大きく傾斜させた状態を、x方向から見た側面図である。図7Oは、回転機構RM4の回転により、脚保持部450の角度を調整した様子を、x方向から見た上面図である。図7Oでは、図7Nの状態から、脚保持部450が水平方向に沿うように調整されている。
なお、図7A~図7Oでは、切石位を想定した手術ベッド400の形態を想定したが、他の体位の被検体PSも手術ベッド400に配置して固定することが可能である。例えば、手術ベッド400では、脚を外転させた仰臥位、伏臥位、骨盤高位、逆トレンデレンブルグ体位、ジャックナイフ位、その他の体位の被検体PSを配置して固定可能である。なお、被検体PSが手術ベッド400に着座するような体位とはならず、つまり手術ベッド400は椅子のような形態にはならない。主に鼠径部から骨盤内臓器51にアプローチする手技を想定しているからである。
ジャックナイフ位では、手術ベッド400にうつ伏せに載置され、手術ベッド400において、テーブル420よりも脚保持部450が低い位置に配置される。脚保持部450に、被検体PSの脚部31が下ろされた状態で固定される。図8は、ジャックナイフ位に対応する手術ベッド400の形態の一例を示す図である。この形態は、回転ジョイント463の回転機構RM3及び回転ジョイント465の回転機構RM4の回転量の調整により実現可能である。さらに、手術ベッド400では、被検体PSの脛部31bが載置するための載置台が設けられてもよいし、支持部材440の一部が脛部31bを載置可能に構成されてもよい。この場合、脛部31bの位置が更に安定し、被検体PSの体位が一層安定する。
なお、手術ベッド400において被検体PSの体位を切石位やジャックナイフ位とする場合、第2テーブル442が不在であり、第2テーブル442が使用されなくてもよい。この場合、y方向を回転中心とする回転ジョイント462に、x方向を回転中心とする回転ジョイント463が接続されてよい。回転ジョイント462と回転ジョイント463とが一体化し、1つの回転機構でx方向及びy方向の2方向を回転中心として回転可能にしてもよい。
また、各直進ジョイント及び各回転ジョイントに設けられた各部(例えばアクチュエータAC、センサSR)は、ジョイント以外の箇所に設けられてもよい。また、各直進ジョイント及び各回転ジョイントに設けられた少なくとも2つのアクチュエータACやセンサSRが、共用されてもよい。
図9及び図10は、ロボット手術支援装置100の動作例を示すフローチャートである。なお、図9のS11~S14は、例えば術前に実施され、図10のS21~S26は、例えば術中に実施される。ここでの各処理は、例えば処理部160の各部によって実施される。
まず、術前には、被検体PS(例えば患者)のボリュームデータを取得する(S11)。臓器、骨、及び血管の領域を抽出するセグメンテーションを実行する(S12)。ボリュームデータに基づいて、被検体PSのキネマティクスモデル(例えば下肢のキネマティクスモデル)を生成する。ボリュームデータに基づいて、被検体PSの骨盤内臓器51の臓器モデルを生成する(S14)。
ロボット手術が開始される際には、手術支援ロボット300や被検体PSが載置された手術ベッド400が所定の位置に配置される。術中には、手術器具30が、肛門に設置されたプラットフォーム40を介して被検体PSの内部に挿入される。
続いて、例えば送受部110を介してテーブル420と脚保持部450との位置関係の情報を取得し、手術器具30の位置を取得する(S21)。テーブル420と脚保持部450との位置関係と、キネマティクスモデルと、に基づいて、骨盤14の位置及び向きを算出する(S22)。骨盤の位置及び向きを基に、骨盤内臓器51に対応する臓器モデルの変形を算出する(S23)。
臓器モデルの変形に対応して、ボリュームデータにおける骨盤内臓器51の領域を変形する。例えば、被検体PSの脚部31の挙上具合に対応する骨盤内臓器51の変形がボリュームデータに反映される。変形されたボリュームデータをレンダリングして、レンダリング画像(例えば仮想内視鏡画像)を生成する(S24)。レンダリング画像に、骨盤14と骨盤内臓器51と仮想手術器具30Vとを示す情報を重畳して、第1の表示画像を生成する。仮想内視鏡画像では、映り込む仮想手術器具30Vは仮想エンドエフェクタである。生成された第1の表示画像をディスプレイ130又は画像表示端末330に表示させる(S25)。また、送受部110を介して、実内視鏡画像を内視鏡ESから取得して、第2の表示画像としてディスプレイ130又は画像表示端末330に表示させてよい。実内視鏡画像には、手術器具30が映り込んでいる。
手術ベッド400において脚保持部450が移動したか否かを判別する(S26)。この場合、送受部110を介して取得された、テーブル420と脚保持部450との位置関係が変化したか否かを判別してよい。この位置関係が変化しない場合には、被検体PSの体位が変化していないと判断できるので、図10の処理を一時中断する。この位置関係が変化した場合には、被検体PSの体位が変化したと判断できるので、骨盤14や骨盤内臓器51の状態を再度導出すべく、S21に進む。手術が終了した場合、図10の術中の処理を終了する。手術の終了は、例えばUI120を介して術者に指示されてよい。手術の終了の際には、例えば、手術器具30とプラットフォーム40が被検体PSから外されたり、手術支援ロボット300が手術ベッド400から切り離されたり、麻酔や輸血の管が被検体PSから外されたり、プラットフォーム40が外された後の傷口が縫合されたりする。
図11は、第1の表示画像G1の一例を示す図である。第1の表示画像G1は、仮想内視鏡画像G11を含む。仮想内視鏡画像G11では、骨盤14付近の骨盤内臓器51の様子が示されている。また、第1の表示画像G1は、仮想内視鏡画像G11とともに、骨盤14と、骨盤内臓器51と、仮想手術器具30Vを示す情報と、が示されている。第1の表示画像G1では、仮想手術器具30Vは、実空間における手術器具30の位置に相当する仮想内視鏡画像G11における画像位置に示されている。
このように、手術ベッド400がテーブル420と脚保持部450との位置関係を導出できるので、手術ベッド400及びロボット手術支援装置100は、この位置関係に対応する被検体PSの脚部31の挙上具合や被検体PSの体位や姿勢を術中に把握できる。ロボット手術支援装置100は、被検体PSの体位や姿勢を基に、3Dデータにおいて、骨盤14の状態を推定でき、骨盤14の状態を基に、骨盤内臓器51の変形を推定できる。TAMISでは、他の腹腔鏡手術における体位変換と比較すると、被検体PS内の骨盤14の動きが大きく、骨盤内臓器51の変形が大きい。言い換えると、テーブル420上での体位変換よりも脚部31に対応する脚保持部450の上げ下げによる体位変換の方が、骨盤14の動きが大きくなる。特殊な体位の変化により骨盤内臓器51が移動しても、3Dデータにおいて仮想的に臓器の変形(移動)を算出できる。そして、ロボット手術支援装置100は、被検体PSの体位や姿勢の変化に起因する骨盤内臓器51の変形をボリュームデータに反映できる。よって、術前に得られるボリュームデータに対応する被検体PSの体位と、術中の被検体PSの体位とが異なっても、双方の体位の関係性を対応付けることができ、ロボット手術の手術精度の低下を抑制できる。
また、各回転機構RM及び各スライド機構SMを駆動するためのアクチュエータACが設けられることで、手術ベッド400の形態を自動で変更できる。よって、例えばテーブル420に対する脚保持部450の位置を容易に変更できる。よって、脚保持部450の位置を変更する度に、変更前に被検体PSの脚部31を脚保持部450から外し、変更後に、脚部31を人手により脚保持部450に取り付けるという動作が不要となる。また、被検体PSの身長等の体形は被検体毎に異なるので、同じ術式であっても脚部31の挙上具合は被検体ごとに異なることが多い。この場合でも、ロボット手術支援装置100は、テーブル420と脚保持部450との位置関係が導出されることで、厳密な被検体PSの体位を手術ナビゲーションに反映でき、ロボット手術による手術精度の低下を抑制できる。
また、ロボット手術支援装置100は、骨盤14や骨盤内臓器51の動きを認識することで、術中に手術器具30を被検体PSの体内に挿入した状態(ドッキングした状態)で体位変換しても、外部から視認できない被検体PSの骨盤14及び骨盤内臓器51の動きを推定して、ロボット手術を継続させることができる。また、術者は、骨盤14の動きを把握することで、例えば肛門付近の筋肉剥離をし易くできる。
以上、図面を参照しながら各種の実施形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。
手術ベッド400の態様は、図7A~図7Oに示した態様に限られない。例えば図12に示すような態様でもよい。図12は、手術ベッド400の変形構成例(手術ベッド400A)を示す図である。図12では、図7A~図7Oと同様の事項については、その説明を省略又は簡略化する。
図12の手術ベッド400Aは、図7A等の手術ベッド400と比較すると、回転ジョイント463を備えず、連結部466,468を有し、支持部材440の代わりに支持部材470,480を有する。
連結部466は、第2テーブル422のz方向負側の端部且つy方向負側の端部(下端部)に接続され、支持部材470のz方向正側に接続される。連結部466は、第2テーブル422と支持部材470とを連結する。
連結部468は、支持部材470における任意の位置に接続され、支持部材480における任意の位置に接続される。連結部468は、支持部材470と支持部材480とを連結する。
支持部材470は、第2テーブル422に対する連結部468の位置を調整可能に支持する。支持部材440は、支持部材440の延在方向に沿って、第2テーブル422からの連結部468の距離を調整するための直進ジョイント467を有する。なお、直進ジョイント467が、支持部材470とは別に設けられ、支持部材470の近傍に支持部材470に沿って配置されてもよい。支持部材440の延在方向は、手術ベッド400Aの閉脚状態では、z方向に沿う方向である。
直進ジョイント467は、支持部材470に沿う移動方向m4に沿って、連結部468を移動可能である。直進ジョイント467は、第2テーブル422に対して移動方向m3に沿って連結部468をスライドするためのスライド機構SM3、スライド機構SM3に駆動力を提供するアクチュエータAC7、スライド機構SM3におけるスライド位置を検出するセンサSR7、等を備える。このスライド位置は、移動方向m4に沿った第2テーブル422に対する連結部468の位置に相当する。
支持部材480は、脚保持部450に対する連結部468の位置を調整可能に支持する。支持部材480のy方向正側の端部には、脚保持部450に連結された回転ジョイント465が接続されて固定されている。支持部材480は、支持部材480の延在方向に沿って、脚保持部450からの連結部468の距離を調整するための直進ジョイント469を有する。なお、直進ジョイント469が、支持部材480とは別に設けられ、支持部材480の近傍に支持部材480に沿って配置されてもよい。支持部材480の延在方向は、y方向に沿う方向である。
直進ジョイント469は、支持部材480に沿う移動方向m5に沿って、連結部468を移動可能である。直進ジョイント469は、脚保持部450に対して移動方向m5に沿って連結部468をスライドするためのスライド機構SM4、スライド機構SM4に駆動力を提供するアクチュエータAC8、スライド機構SM4におけるスライド位置を検出するセンサSR8、等を備える。このスライド位置は、移動方向m5に沿った脚保持部450に対する連結部468の位置に相当する。
したがって、スライド機構SM3におけるスライド位置及びスライド機構SM4におけるスライド位置によって、第2テーブル422と脚保持部450との位置関係が決定する。よって、プロセッサPRは、センサSR6、SR7,SR8による検出結果に基づいて、第2テーブル422と脚保持部450との位置関係を導出できる。
このように、手術ベッド400Aは、第2テーブル422に対する支持部材440の角度を調整するのではなく、2つの支持部材470,480を設け、支持部材470,480を連結する連結部468が支持部材470,480に沿って移動自在にしてよい。これにより、手術ベッド400Aは、第2テーブル422と脚保持部450との距離を所望の距離に調整でき、第2テーブル422に対する脚保持部450の角度を所望の角度に調整でき、
また、手術ベッド400のプロセッサPRが、リニアエンコーダやロータリーエンコーダによる計測結果に基づいて、テーブル420と脚保持部450との位置関係を導出することを例示したが、これに限られない。例えば、センサSRは、脚保持部450の3次元位置及びテーブル420の3次元位置を計測してよい。プロセッサPRが、計測された3次元位置を取得してよい。プロセッサPRは、脚保持部450の3次元位置及びテーブル420の3次元位置に基づいて、テーブル420に対する脚保持部450の位置を算出してもよい。
また、プロセッサPRは、光学的な手法により、テーブル420と脚保持部450との位置関係を導出してもよい。例えば、脚保持部450における任意の位置(例えば脚保持部450における回転ジョイント465の近傍)に光学的マーカMK1が付され、テーブル420における任意の位置(例えば第2テーブル422における回転ジョイント463の近傍)に光学的マーカMK2が付されてよい。手術ベッド400が配置される手術室内の任意の位置に、撮像装置が設置されてよい。この任意の位置は、例えば、手術室の壁面や天井、天井から吊り下げられた位置、手術ベッド400のいずれかの面、手術支援ロボット300の側面、ロボット手術で使用される各種カートの側面、を含んでよい。この撮像装置の撮像範囲に、光学的マーカMK1,MK2が位置する。光学的マーカMK1,MK2は、撮像装置等から赤外光の照射を受けると、発光する。この結果、撮像装置の撮像画像に光学的マーカMK1,MK2が写り込む。
また、プロセッサPRは、三次元位置センサを用いて、テーブル420と脚保持部450との位置関係を導出してもよい。例えば、脚保持部450における任意の位置(例えば脚保持部450における回転ジョイント465の近傍)に磁気プローブMK11が付され、テーブル420における任意の位置(例えば第2テーブル422における回転ジョイント463の近傍)に磁気プローブMK12が付されてよい。手術ベッド400が配置される手術室内の任意の位置に、磁気三次元位置センサが設置されてよい。この任意の位置は、例えば、手術室の壁面や天井、天井から吊り下げられた位置、手術ベッド400のいずれかの面、手術支援ロボット300の側面、ロボット手術で使用される各種カートの側面、を含んでよい。この磁気三次元位置センサの計測範囲に、磁気プローブMK11,MK12が位置すると、三次元位置センサは磁気プローブMK11,MK12の座標を取得する。
また、プロセッサPRは、加速度センサとジャイロを用いて、テーブル420と脚保持部450との位置関係を導出してもよい。例えば、脚保持部450における任意の位置(例えば脚保持部450における回転ジョイント465の近傍)に加速度センサとジャイロMK21が付され、テーブル420における任意の位置(例えば第2テーブル422における回転ジョイント463の近傍)に加速度センサとジャイロMK22が付されてよい。加速度センサとジャイロMK21、MK22は、第2テーブル422に対する所定原点で座標を初期化される。その後、加速度センサとジャイロMK21、MK22は、加速度センサとジャイロMK21、MK22が移動すると、その第2テーブル422に対する相対座標をロボット手術支援装置100へ無線送信する。
プロセッサPRは、通信部405を介して、撮像装置により撮像された撮像画像及び撮像画像の付加情報を取得する。この付加情報は、撮像に関する情報(例えば撮像位置、撮像向き、画角、撮像範囲、撮像時刻)が含まれてよい。プロセッサPRは、撮像画像に写り込んだ光学的マーカMK1,MK2の位置を基に、撮像画像における脚保持部450の位置(画像位置)と、撮像画像におけるテーブル420の位置(画像位置)と、を認識する。プロセッサPRは、撮像画像における脚保持部450の画像位置とテーブル420の画像位置に基づいて、実空間における脚保持部450の位置とテーブル420の位置とを認識できる。この位置の認識は、脚保持部450の位置とテーブル420の位置との計測に相当する。よって、プロセッサPRは、脚保持部450とテーブル420との位置関係を導出できる。
なお、センサSR及び光学的マーカを撮像する撮像装置が手術ベッド400に設けられている場合、手術室内でのキャリブレーションは不要である。つまり、手術支援ロボット300は、手術ベッド400に接続されるので、手術支援ロボット300と手術ベッド400との位置関係はロボット手術支援システム1において把握される。よって、位置処理部164は、手術ベッド400のセンサSRや撮像装置を用いて、手術ベッド400を含む手術支援ロボット300の座標系と、被検体PSの座標系を位置合わせでき、両座標系のキャリブレーションが不要になる。
なお、撮像装置がテーブル420に設けられる場合、テーブル420に付される光学的マーカMK2は不要である。この場合でも、撮像画像を基に、テーブル420に対する脚保持部450の位置を認識可能である。つまり、プロセッサPRは、撮像画像に写り込んだ脚保持部450の画像位置を認識して、テーブル420と脚保持部450の位置関係を導出可能である。
なお、手術ベッド400ではなく、ロボット手術支援装置100が、光学的な手法により、テーブル420と脚保持部450との位置関係を導出してもよい。この場合、プロセッサPRの代わりにプロセッサ140が動作し、通信部405の代わりに送受部110が動作してよい。
上記実施形態は、TAMISに適用可能であるが、その他の術式に適用されてもよく、例えば、経肛門的全直腸間膜切除術(TaTME:Transanal Total Mesorectal Excision)に適用されてもよい。また、上記実施形態は、直腸に適用可能であるが、前立腺、子宮、膀胱、その他の骨盤内臓器、及び周辺の臓器、組織、又は関節を対象とする術式に適用されてもよい。
また、術者の操作に基づくロボット手術だけでなく、ARS(Autonomous robotic Surgery)やSemi-ARSに用いることができる。ARSは、AI搭載の手術支援ロボットによりロボット手術を全自動で行うものである。Semi-ARSは、AI搭載の手術支援ロボットにより基本的にロボット手術を自動で行い、一部を術者による操作で行うものである。
また、ロボット手術による鏡視下手術を例示したが、術者が手術器具30を直接操作して行う手術であってもよい。この場合、ロボット本体320は被検体PSでよく、ロボットアームARは術者の腕でよく、手術器具30は術者が把持して処置に用いる鉗子類及び内視鏡であってよい。
また、術前シミュレーションと術中ナビゲーションは、別個のロボット手術支援装置で構成されてもよい。例えば、術前シミュレーションはシミュレータで行われてよく、術中ナビゲーションはナビゲータで行われてよい。
また、ロボット手術支援装置100は、少なくともプロセッサ140及びメモリ150を備えていればよい。送受部110、UI120、及びディスプレイ130は、ロボット手術支援装置100に対して外付けであってもよい。
また、撮像されたCT画像としてのボリュームデータは、CT装置200からロボット手術支援装置100へ送信されることを例示した。この代わりに、ボリュームデータが一旦蓄積されるように、ネットワーク上のサーバ(例えば画像データサーバ(PACS)(不図示))等へ送信され、保管されてもよい。この場合、必要時にロボット手術支援装置100の送受部110が、ボリュームデータを、有線回線又は無線回線を介してサーバ等から取得してもよいし、任意の記憶媒体(不図示)を介して取得してもよい。
また、撮像されたCT画像としてのボリュームデータは、CT装置200からロボット手術支援装置100へ送受部110を経由して送信されることを例示した。これは、実質的にCT装置200とロボット手術支援装置100とを併せて一製品として成立している場合も含まれるものとする。また、ロボット手術支援装置100がCT装置200のコンソールとして扱われている場合も含む。また、ロボット手術支援装置100が、手術支援ロボット300に設けられてもよい。また、ロボット手術支援装置100が、手術ベッド400に設けられてもよい。
また、CT装置200により画像を撮像し、被検体内部の情報を含むボリュームデータを生成することを例示したが、他の装置により画像を撮像し、ボリュームデータを生成してもよい。他の装置は、MRI(Magnetic Resonance Imaging)装置、PET(Positron Emission Tomography)装置、血管造影装置(Angiography装置)、又はその他のモダリティ装置を含む。また、PET装置は、他のモダリティ装置と組み合わせて用いられてもよい。
また、ロボット手術支援装置100における動作が規定されたロボット手術支援方法として表現可能である。また、コンピュータにロボット手術支援方法の各ステップを実行させるためのプログラムとして表現可能である。
(上記実施形態の概要)
上記実施形態の一態様は、テーブル420と、脚保持部450と、支持部材440(支持部材の一例)と、プロセッサPR(処理部の一例)と、を備える手術ベッド400である。テーブル420は、被検体PSの胴体部33を載置する。脚保持部450は、被検体PSの脚部31を保持する。支持部材440は、テーブル420と脚保持部450とに接続され、脚保持部450とテーブル420との位置関係を調整自在に支持する。プロセッサPRは、脚保持部450とテーブル420との位置関係を導出する機能を有する。
これにより、手術ベッド400は、テーブル420と脚保持部450との位置関係を導出できるので、この位置関係に対応する被検体PSの脚部31の挙上具合や被検体PSの体位や姿勢を術中に把握できる。よって、手術ベッド400は、術前に得られるボリュームデータに対応する被検体の体位と術中の被検体の体位とが異なっても、ロボット手術による手術精度を向上できる。また、手術ベッド400は、この位置関係を確認して脚保持部450に保持される脚部31の位置が決定されるので、被検体PSを所望の体位で手術ベッド400に配置する配置者毎の配置誤差を低減できる。
また、手術ベッド400は、センサSRを備えてよい。支持部材440は、テーブル420に対する脚保持部450の角度と、テーブル420と脚保持部450との距離と、を調整自在に支持してよい。センサSRは、テーブル420に対する脚保持部450の角度と、テーブル420と脚保持部450との距離と、を検出してよい。プロセッサPRは、上記の角度と距離とに基づいて、脚保持部450とテーブル420との位置関係を導出してよい。これにより、手術ベッド400は、1つ以上のセンサSRの検出結果を収集することで、脚保持部450とテーブル420との位置関係を簡単に認識できる。
また、手術ベッド400は、アクチュエータAC、を備えてよい。脚保持部450は、アクチュエータACからの駆動力に従って、支持部材440に沿って移動自在でよい。これにより、手術ベッド400は、ロボット手術のための所望の体位に合わせた脚部31の動きを含む体位の変換を容易化できる。
また、手術ベッド400は、予定された体位の情報、術式の情報、及び手術器具の位置情報の少なくとも1つを取得部、を備えてよい。脚保持部450は、アクチュエータACの制御に従って、予定された体位の情報、術式の情報、及び手術器具30の位置情報の少なくとも1つに基づいて、移動自在でよい。これにより、手術ベッド400は、ロボット手術に関係する各種情報に従って、容易に脚保持部450の位置を設定でき、被検体PSをロボット手術し易い体位や姿勢に調整できる。
また、プロセッサPRは、支持部材440に沿った脚保持部450の移動に基づいて、脚保持部450とテーブル420との位置関係を導出してよい。これにより、手術ベッド400は、例えば脚保持部450が移動して被検体PSの体位や姿勢が変更された可能性がある場合に限って、効率的に位置関係を導出でき、省エネルギー化に繋がる。
上記実施形態の一態様は、手術支援ロボット300による鏡視下手術を支援するロボット手術支援装置100である。ロボット手術支援装置100の処理部160は、手術ベッド400により導出された脚保持部450とテーブル420との位置関係の情報を取得し、被検体PSの3Dデータを取得し、脚保持部450とテーブル420との位置関係と、3Dデータと、に基づいて、3Dデータにおける被検体PSの少なくとも骨盤14の状態を推定する、機能を有する。
これにより、ロボット手術支援装置100は、例えば、体位の変化により被検体PSの内部の状態が変化しても、脚保持部450とテーブル420との位置関係を認識して、3Dデータにおいて仮想的に骨盤の状態を推定できる。ロボット手術支援装置100は、被検体PSの体位や姿勢の変化に起因する骨盤の状態の変化を3Dデータに反映できる。よって、術前に得られるボリュームデータに対応する被検体PSの体位と、術中の被検体PSの体位とが異なっても、手術対象の臓器の位置を推定可能な骨盤状態の変化を把握でき、ロボット手術の手術精度の低下を抑制できる。
また、処理部160は、3Dデータに基づいて、被検体PSの下肢のキネマティクスモデルを生成してよい。処理部160は、脚保持部450とテーブル420との位置関係と、キネマティクスモデルに基づいて、骨盤14の状態を推定してよい。これにより、ロボット手術支援装置100は、キネマティクスモデルにより下肢の各骨の位置関係や連動性を加味して骨盤14の状態を推定するので、推定精度を向上できる。
また、処理部160は、3Dデータと、骨盤14の状態に基づいて、3Dデータにおいて被検体PSの骨盤14に連動する臓器(例えば骨盤内臓器51)の変形を算出してよい。これにより、ロボット手術支援装置100は、骨盤14の状態に連動して臓器の変形(例えば移動)を算出できる。よって、体位変換しても被検体PSにおける骨盤内臓器51の状態を高精度に把握でき、骨盤内臓器51に対する処置の精度を向上できる。
また、処理部160は、手術支援ロボット300からの手術器具30の位置を取得してよい。処理部160は、3Dデータに基づいて、被検体PSの画像を生成し、被検体PSの画像における骨盤14の位置に対応する位置に、骨盤14を示す情報を表示させ、被検体PSの画像における手術器具30の位置に対応する位置に、手術器具30を示す情報を表示させてよい。これにより、ロボット手術支援装置100は、被検体PSの画像とともに、骨盤14の状態や変形された臓器の状態や手術器具30を示す情報を表示できる。よって、術者は、表示を確認することで、例えば、脚保持部450の移動による体位の変化に合わせて、手術器具30を操作してロボット手術を高精度に実施できる。
上記実施形態の一態様は、手術支援ロボット300による鏡視下手術を支援するロボット手術支援方法であって、被検体PSが載置される手術ベッド400が備えるテーブル420と脚保持部450との位置関係を取得するステップと、被検体PSの3Dデータを取得するステップと、脚保持部450とテーブル420との位置関係と、3Dデータと、に基づいて、3Dデータにおける被検体PSの少なくとも骨盤14の状態を推定するステップと、を有するロボット手術支援方法である。
本実施形態の一態様は、上記のロボット手術支援方法をコンピュータに実行させるためのプログラムである。
本開示は、術前に得られるボリュームデータに対応する被検体の体位と術中の被検体の体位とが異なっても、ロボット手術の手術精度の低下を抑制できる手術ベッド、ロボット手術支援装置、ロボット手術支援方法、及びプログラム等に有用である。
1 ロボット手術支援システム
11 足骨
12 脛骨
13 大腿骨
14 骨盤
15 腰椎
21 足関節
22 膝関節
23 股関節
30 手術器具
30V 仮想手術器具
31 脚部
31a 足部
31b 脛部
32 大腿部
33 胴体部
40 プラットフォーム
51 骨盤内臓器
100 ロボット手術支援装置
110 送受部
120 UI
130 ディスプレイ
140 プロセッサ
150 メモリ
160 処理部
161 領域処理部
162 変形処理部
163 モデル設定部
164 位置処理部
166 画像生成部
167 表示制御部
200 CT装置
300 手術支援ロボット
310 ロボット操作端末
320 ロボット本体
330 画像表示端末
400 手術ベッド
403 操作部
405 通信部
410 ベース
420 テーブル
421 第1テーブル
422 第2テーブル
440 支持部材
450 脚保持部
460,464 直進ジョイント
461,462,463,465 回転ジョイント
AC,AC1,AC2,AC3,AC4,AC5,AC6,AC7,AC8 アクチュエータ
AR ロボットアーム
EF エンドエフェクタ
EM 伸縮機構
ES 内視鏡
PR プロセッサ
TG ターゲット
RM,RM1,RM2,RM3,RM4 回転機構
SM,SM1,SM2,SM3,SM4 スライド機構
SR,SR1,SR2,SR3,SR4,SR5,SR6,SR7,SR8 センサ

Claims (5)

  1. 手術支援ロボットによる鏡視下手術を支援するロボット手術支援装置であって、
    第1の処理部を備え、
    前記第1の処理部は、
    手術ベッドにより導出された脚保持部とテーブルとの位置関係の情報を取得し、
    被検体の3Dデータを取得し、
    前記脚保持部と前記テーブルとの位置関係と、前記3Dデータと、に基づいて、前記3Dデータにおける前記被検体の少なくとも骨盤の状態を推定する、機能を有し、
    前記手術ベッドは、
    前記被検体の胴体部を載置する前記テーブルと、
    前記被検体の脚部を保持する前記脚保持部と、
    前記テーブルと前記脚保持部とに接続され、前記脚保持部と前記テーブルとの位置関係を調整自在に支持する支持部材と、
    前記脚保持部と前記テーブルとの位置関係を導出する機能を有する第2の処理部と、を備える、
    ロボット手術支援装置。
  2. 前記第1の処理部は、前記3Dデータと、前記骨盤の状態に基づいて、3Dデータにおいて前記被検体の前記骨盤に連動する臓器の変形を算出する、
    請求項に記載のロボット手術支援装置。
  3. 前記第1の処理部は、
    前記手術支援ロボットからの手術器具の位置を取得し、
    前記3Dデータに基づいて、前記被検体の画像を生成し、
    前記被検体の画像における前記骨盤の位置に対応する位置に、前記骨盤を示す情報を表示させ、前記被検体の画像における前記手術器具の位置に対応する位置に、前記手術器具を示す情報を表示させる、
    請求項又はに記載のロボット手術支援装置。
  4. 手術支援ロボットによる鏡視下手術を支援するロボット手術支援方法であって、
    被検体が載置される手術ベッドが備えるテーブルと脚保持部との位置関係を取得するステップと、
    前記被検体の3Dデータを取得するステップと、
    前記脚保持部と前記テーブルとの位置関係と、前記3Dデータと、に基づいて、前記被検体における少なくとも骨盤の位置を推定するステップと、
    を有するロボット手術支援方法。
  5. 請求項に記載のロボット手術支援方法をコンピュータに実行させるためのプログラム。
JP2020055965A 2020-03-26 2020-03-26 ロボット手術支援装置、ロボット手術支援方法、及びプログラム Active JP7473377B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020055965A JP7473377B2 (ja) 2020-03-26 2020-03-26 ロボット手術支援装置、ロボット手術支援方法、及びプログラム
US17/210,781 US20210298981A1 (en) 2020-03-26 2021-03-24 Surgical bed, endoscopic surgical device, endoscopic surgical method, and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020055965A JP7473377B2 (ja) 2020-03-26 2020-03-26 ロボット手術支援装置、ロボット手術支援方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2021153772A JP2021153772A (ja) 2021-10-07
JP7473377B2 true JP7473377B2 (ja) 2024-04-23

Family

ID=77855130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020055965A Active JP7473377B2 (ja) 2020-03-26 2020-03-26 ロボット手術支援装置、ロボット手術支援方法、及びプログラム

Country Status (2)

Country Link
US (1) US20210298981A1 (ja)
JP (1) JP7473377B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230069229A1 (en) * 2021-08-31 2023-03-02 Mike Chaklos Lounge chair

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002529115A (ja) 1998-08-07 2002-09-10 ヒル−ロム,インコーポレイティド 産科及び婦人科のためのストレッチャ
US20040133983A1 (en) 2003-01-13 2004-07-15 Newkirk David C. Surgical table
JP2007111126A (ja) 2005-10-18 2007-05-10 Hitachi Medical Corp 手術支援装置
JP2010221015A (ja) 2009-02-27 2010-10-07 Terumo Corp 3次元人体モデル生成装置、3次元人体モデル生成方法及び3次元人体モデル生成プログラム
JP2011512166A (ja) 2007-05-29 2011-04-21 スミス アンド ネフュー インコーポレーテッド 股関節の伸延
JP2019130231A (ja) 2018-02-02 2019-08-08 富士ゼロックス株式会社 シート状装置
WO2019220239A1 (en) 2018-05-16 2019-11-21 Medacta International Sa Positioning apparatus of a patient's limb

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002529115A (ja) 1998-08-07 2002-09-10 ヒル−ロム,インコーポレイティド 産科及び婦人科のためのストレッチャ
US20040133983A1 (en) 2003-01-13 2004-07-15 Newkirk David C. Surgical table
JP2007111126A (ja) 2005-10-18 2007-05-10 Hitachi Medical Corp 手術支援装置
JP2011512166A (ja) 2007-05-29 2011-04-21 スミス アンド ネフュー インコーポレーテッド 股関節の伸延
JP2010221015A (ja) 2009-02-27 2010-10-07 Terumo Corp 3次元人体モデル生成装置、3次元人体モデル生成方法及び3次元人体モデル生成プログラム
JP2019130231A (ja) 2018-02-02 2019-08-08 富士ゼロックス株式会社 シート状装置
WO2019220239A1 (en) 2018-05-16 2019-11-21 Medacta International Sa Positioning apparatus of a patient's limb

Also Published As

Publication number Publication date
JP2021153772A (ja) 2021-10-07
US20210298981A1 (en) 2021-09-30

Similar Documents

Publication Publication Date Title
US11950859B2 (en) Navigation and positioning system and method for joint replacement surgery robot
CN109195527B (zh) 用于与骨骼手术一起使用的设备及方法
Feuerstein et al. Intraoperative laparoscope augmentation for port placement and resection planning in minimally invasive liver resection
JP3608448B2 (ja) 治療装置
JP6092922B2 (ja) 患者のモデル構築を最適化するための、選択される画像を取得する技術
CN103997982B (zh) 将手术器械相对患者身体进行定位的机器人辅助装置
JP4815054B2 (ja) 信頼基準システムを利用しない画像指図式ロボット整形外科処置手順を実施するシステムおよび方法
JP2020535883A (ja) ロボットアームの境界を示すロボットシステム
US20140031668A1 (en) Surgical and Medical Instrument Tracking Using a Depth-Sensing Device
JP7469120B2 (ja) ロボット手術支援システム、ロボット手術支援システムの作動方法、及びプログラム
IL274453B1 (en) A robotic device for minimally invasive medical intervention on soft tissues
CN103829949B (zh) 体内探头跟踪系统中的患者运动补偿
CN104994803B (zh) 利用图像数据来放置部件的系统和方法
JP2015528713A (ja) 手術ロボットプラットフォーム
JP2015134201A (ja) 患者のモデル構築を最適化するための、選択される画像を取得する技術
JP7188970B2 (ja) ロボット手術支援装置、ロボット手術支援装置の作動方法、及びプログラム
WO2002000093A2 (en) Registration of target object images to stored image data
WO2012033739A2 (en) Surgical and medical instrument tracking using a depth-sensing device
US20210298848A1 (en) Robotically-assisted surgical device, surgical robot, robotically-assisted surgical method, and system
JP7473377B2 (ja) ロボット手術支援装置、ロボット手術支援方法、及びプログラム
US11771508B2 (en) Robotically-assisted surgical device, robotically-assisted surgery method, and system
EP3628263A1 (en) Guidance in lung intervention procedures
JP7414611B2 (ja) ロボット手術支援装置、処理方法、及びプログラム
US11779412B2 (en) Robotically-assisted surgical device, robotically-assisted surgery method, and system
Yeung et al. Overcoming abdominal and pelvic cavity workspace constraints in robotic-assisted NOTES

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240411

R150 Certificate of patent or registration of utility model

Ref document number: 7473377

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150