JP6912481B2 - 画像ベースのロボット誘導 - Google Patents

画像ベースのロボット誘導 Download PDF

Info

Publication number
JP6912481B2
JP6912481B2 JP2018533939A JP2018533939A JP6912481B2 JP 6912481 B2 JP6912481 B2 JP 6912481B2 JP 2018533939 A JP2018533939 A JP 2018533939A JP 2018533939 A JP2018533939 A JP 2018533939A JP 6912481 B2 JP6912481 B2 JP 6912481B2
Authority
JP
Japan
Prior art keywords
robot
end effector
image
planned
reference object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018533939A
Other languages
English (en)
Other versions
JP2019502462A (ja
JP2019502462A5 (ja
Inventor
アレクサンドラ ポポヴィッチ
アレクサンドラ ポポヴィッチ
デイビッド ポール ヌーナン
デイビッド ポール ヌーナン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2019502462A publication Critical patent/JP2019502462A/ja
Publication of JP2019502462A5 publication Critical patent/JP2019502462A5/ja
Application granted granted Critical
Publication of JP6912481B2 publication Critical patent/JP6912481B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/32Surgical robots operating autonomously
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/35Surgical robots for telesurgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/11Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints
    • A61B90/13Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints guided by light, e.g. laser pointers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Robotics (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Manipulator (AREA)

Description

本発明は、ロボット、ロボットコントローラ、及びロボットの撮影された画像を使用したロボット誘導の方法に関する。
腹腔鏡手術又は生体検査若しくは治療のためのニードル設置などの手術及び介入における従来のタスクは、身体の進入ポイントを通り、ターゲット地点へのパスに沿った剛性のデバイス(例えば、腹腔鏡、ニードル又は他の「ツール」)の位置決めを伴う。ワークフロー及び正確性を向上させ、一貫したツール設置を可能にするために、これらのタスクはロボットによって実施される。これらのロボットは、典型的には、5つ又は6つの自由度(例えば、進入ポイントへの移動のための3つの自由度、及びパスに沿ったツールの配向のための2つ又は3つの自由度)を有している。進入ポイント及びツールのパスの計画は、典型的には、例えばコンピュータ断層撮影(CT)、磁気共鳴撮像(MRI)などを使用して、手術前に取得された3D画像を使用して行われる。
外科手術室においては、典型的には、2D撮像モダリティが使用可能である。それらは、内視鏡カメラ若しくはナビゲーションカメラ、又は手術中2DX線、超音波などの手術中カメラを含む。これらの2D画像は、その開示内容が参照により本明細書に組み込まれる米国特許出願公開第2012/0294498(A1)号、又は米国特許出願公開第2013/0165948(A1)号において開示されているものなどの当技術分野において知られているいくつかの方法を使用して、手術前3D画像に対してレジストレーションされ得る。このようなレジストレーションは、いくつかの切開ポイント及びツールパスを含む手術前計画が、手術前画像から手術中画像へと転換されることを可能にする。
既存のシステム及び方法において、画像座標とロボットジョイント空間との間での数学的変換は、ロボットの制御と手術計画についての情報を保持する手術中画像との間の制御ループを閉じるように確立されなければならない。
このプロセスの全体は「システム較正」と呼ばれ、カメラ及びロボットの較正などの様々なステップを必要とする。更に、完全な較正を提供するために、カメラと検討中の臓器/オブジェクトとの間の深度が、画像から又は特別なセンサを使用して、測定されなければならない。カメラ較正は、固有のカメラパラメータ、すなわち、画像の光学的中心、両方向への焦点距離、及びピクセルサイズを確立するプロセスである。通常、これは手術前に行われ、較正オブジェクト(通常、チェス盤状のオブジェクト)のいくつかの画像の取得と、これらの画像からのパラメータの計算とを伴う。ロボット較正は、ロボットのジョイント空間とエンドエフェクタ(この場合は内視鏡)との間の数学的関係を確立するプロセスである。
しかしながら、システム較正を得るためのプロセスは様々な複雑さを伴う。例えば、撮像パラメータのうちのいくつかが手術中に変化したなら(例えば、カメラの焦点が変化したなら)、カメラ較正が繰り返される必要がある。更には、ロボット較正は、通常、較正を行うために技術的な専門家を必要とする。また、ユーザ/外科医がロボットに対して相対的に内視鏡を移動させたなら、較正が繰り返される必要がある。これらの複雑さは、手術室スタッフの技術的訓練の必要性、手術室での時間の長期化などを含む多くのワークフローの陥穽につながる。
それ故、撮像システムに対するロボットの手術中の較正又はレジストレーションの必要のない、手術中2D画像(例えば、内視鏡、X線、超音波などによって取得されたもの)を使用した多軸ロボットの画像ベースの誘導のためのシステム及び方法を提供することが望ましい。
本発明の一態様において、システムは、2つのモータ軸を有する遠隔運動中心(RCM:remote center of motion)機構及びロボットの遠位端部に設けられたエンドエフェクタを有するロボットと、RCMで交差する光ビームを投影するように構成された光投影装置と、予定進入ポイント及びRCMを通る予定パスを含む手術フィールドにおけるRCM機構の画像を撮影するように構成された撮像システムと、ロボットを制御し、RCM機構を位置決めするように構成されたロボットコントローラであって、撮像システムから撮影された画像を受信し、撮影された画像を3次元的(3D)手術前画像に対してレジストレーションし、投影された光ビームを使用して撮影された画像においてRCMのための進入ポイント及びパスを定め、撮影された画像において既知の形状を有する基準オブジェクトを検知及び追跡するように構成された画像プロセッサを含むロボットコントローラと、を含み、ロボットコントローラは、エンドエフェクタを予定進入ポイント及び予定パスに対して位置合わせするロボットジョイント運動パラメータを、定められた進入ポイント、定められたパス、及び検知された基準オブジェクトに応じて計算し、計算されたロボットジョイント運動パラメータに基づいて、エンドエフェクタを予定進入ポイント及び予定パスに対して位置合わせするロボット制御コマンドを生成し、ロボット制御コマンドをロボットに通信するように構成される。
いくつかの実施形態において、画像プロセッサは、投影された光ビームの交差点として進入ポイントを検知するように構成され、ロボットコントローラは、投影された光ビームの交差点が予定進入ポイントに対して位置合わせされるようにロボットを制御するように構成される。
いくつかの実施形態において、画像プロセッサは、予定進入ポイントにおける基準オブジェクトの既知の形状を撮影された画像上に投影し、撮影された画像における検知された基準オブジェクトをセグメント化し、撮影された画像におけるセグメント化された基準オブジェクトの幾何学的パラメータを予定進入ポイントにおける基準オブジェクトの投影された既知の形状の幾何学的パラメータに対して位置合わせするように構成され、ロボットコントローラは、撮影された画像における検知された基準オブジェクトが投影された既知の形状と重畳するようにロボットを制御するように構成される。
いくつかの実施形態において、撮像システムは、既知の構成において離間された複数のカメラから、手術フィールドにおけるRCM機構の2次元的(2D)画像を撮影するように構成され、画像プロセッサは、複数のカメラの各々からの撮影された2D画像における既知の形状を有する基準オブジェクトを検知及び追跡し、撮影された2D画像から基準オブジェクトの3D形状を再構成するように構成される。
いくつかの実施形態において、RCM機構は、予定進入ポイントを通る挿入軸の周りでエンドエフェクタを回転させるように構成され、エンドエフェクタは、挿入軸に垂直な平面内でその向きを定めるような特徴を有し、画像プロセッサは、撮影された画像においてこの特徴を検知し、特徴の予定位置を撮影された画像上に投影するように構成され、ロボットコントローラは、検知された特徴と予定位置とが位置合わせされるようにロボットを制御するように構成される。
いくつかの実施形態において、基準オブジェクトはエンドエフェクタである。
これらの実施形態のいくつかのバージョンにおいて、撮像システムは、カメラと、カメラを移動させるためのアクチュエータとを含み、カメラはアクチュエータによって予定パスに沿って位置決めされ、ロボットコントローラは、画像プロセッサがエンドエフェクタの平行投影を検知するようにエンドエフェクタの位置を制御するように構成される。
いくつかの実施形態において、撮像システムは、予定パスの回転3次元的(3D)スキャンを生成するように構成されたX線システムを含む。
本発明の別の態様において、方法は、遠位端部にエンドエフェクタを有するロボットのRCM機構によって定められる遠隔運動中心(RCM)において交差する少なくとも2つの光ビームを提供するステップと、予定進入ポイント及びRCMを通る予定パスを含む手術フィールドにおけるRCM機構の画像を撮影するステップと、撮影された画像を3次元的(3D)手術前画像に対してレジストレーションするステップと、投影された光ビームを使用して撮影された画像においてRCMのための進入ポイント及びパスを定めるステップと、撮影された画像において既知の形状を有する基準オブジェクトを検知及び追跡するステップと、進入ポイント、パス、及び基準オブジェクトについての情報に応じて、エンドエフェクタを予定進入ポイント及び予定パスに対して位置合わせするロボットジョイント運動パラメータを計算するステップと、計算されたロボットジョイント運動パラメータに基づいて、エンドエフェクタを予定進入ポイント及び予定パスに対して位置合わせするロボット制御コマンドをロボットに通信するステップと、を有する。
いくつかの実施形態において、方法は、投影された光ビームの交差点として進入ポイントを検知するステップと、投影された光ビームの交差点が予定進入ポイントに対して位置合わせされるようにロボットを制御するステップと、を有する。
いくつかの実施形態において、方法は、予定進入ポイントにおける基準オブジェクトの既知の形状を撮影された画像上に投影するステップと、撮影された画像における検知された基準オブジェクトをセグメント化するステップと、撮影された画像におけるセグメント化された基準オブジェクトの幾何学的パラメータを予定進入ポイントにおける基準オブジェクトの投影された既知の形状の幾何学的パラメータに対して位置合わせするステップと、撮影された画像における検知された基準オブジェクトが投影された既知の形状と重畳するようにロボットを制御するステップと、を有する。
いくつかの実施形態において、方法は、既知の構成において離間された複数のカメラから、手術フィールドにおけるRCM機構の2次元的(2D)画像を撮影するステップと、複数のカメラの各々から撮影された2D画像における既知の形状を有する基準オブジェクトを検知及び追跡するステップと、撮影された2D画像から基準オブジェクトの3D形状を再構成するステップと、を有する。
いくつかの実施形態において、方法は、予定進入ポイントを通る挿入軸の周りでエンドエフェクタを回転させるステップであって、エンドエフェクタは、挿入軸に垂直な平面内でその向きを定めるような特徴を有する、ステップと、撮影された画像においてこの特徴を検知するステップと、特徴の予定位置を撮影された画像上に投影するステップと、検知された特徴と予定位置とが位置合わせされるようにロボットを制御するステップと、を有する。
いくつかの実施形態において、方法は、予定パスに沿って位置決めされたカメラを使用してRCM機構の画像を撮影するステップであって、基準オブジェクトはエンドエフェクタである、ステップと、撮影された画像においてエンドエフェクタの平行投影が検知されるようにエンドエフェクタの位置を制御するステップと、を有する。
本発明の更に別の態様において、2つのモータ軸を有する遠隔運動中心(RCM)機構及び遠位端部に設けられたエンドエフェクタを有するロボットを制御するためのロボットコントローラが提供される。ロボットコントローラは、予定進入ポイント及びRCMを通る予定パスを含む手術フィールドにおけるRCM機構の撮影された画像を受信し、撮影された画像を3次元的(3D)手術前画像に対してレジストレーションし、撮影された画像においてRCMのための進入ポイント及びパスを定め、撮影された画像において既知の形状を有する基準オブジェクトを検知及び追跡するように構成された画像プロセッサと、ロボット制御コマンドをロボットに通信するように構成されたロボット制御コマンドインターフェースと、を備え、ロボットコントローラは、エンドエフェクタを予定進入ポイント及び予定パスに対して位置合わせするロボットジョイント運動パラメータを、定められた進入ポイント、定められたパス、及び検知された基準オブジェクトに応じて計算するように構成され、更に、計算されたロボットジョイント運動パラメータに基づいて、エンドエフェクタを予定進入ポイント及び予定パスに対して位置合わせするロボット制御コマンドを生成するように構成される。
いくつかの実施形態において、画像プロセッサは、投影された光ビームの交差点として進入ポイントを検知するように構成され、ロボットコントローラは、投影された光ビームの交差点が予定進入ポイントに対して位置合わせされるようにロボットを制御するように構成される。
いくつかの実施形態において、画像プロセッサは、予定進入ポイントにおける基準オブジェクトの既知の形状を撮影された画像上に投影し、撮影された画像における検知された基準オブジェクトをセグメント化し、撮影された画像におけるセグメント化された基準オブジェクトの幾何学的パラメータを予定進入ポイントにおける基準オブジェクトの投影された既知の形状の幾何学的パラメータに対して位置合わせするように構成され、ロボットコントローラは、撮影された画像における検知された基準オブジェクトが投影された既知の形状と重畳するようにロボットを制御するように構成される。
いくつかの実施形態において、画像プロセッサは、既知の構成において離間された複数のカメラから、手術フィールドにおけるRCM機構の2次元的(2D)画像を受信し、複数のカメラの各々からの撮影された2D画像における既知の形状を有する基準オブジェクトを検知及び追跡し、撮影された2D画像から基準オブジェクトの3D形状を再構成するように構成される。
いくつかの実施形態において、RCM機構は、予定進入ポイントを通る挿入軸の周りでエンドエフェクタを回転させるように構成され、エンドエフェクタは、挿入軸に垂直な平面内でその向きを定めるような特徴を有し、画像プロセッサは、撮影された画像においてこの特徴を検知し、特徴の予定位置を撮影された画像上に投影するように構成され、ロボットコントローラは、検知された特徴と予定位置とが位置合わせされるようにロボットを制御するように構成される。
いくつかの実施形態において、ロボットコントローラは、アクチュエータによって予定パスに沿って位置決めされたカメラからの撮影された画像を受信するように構成され、ロボットコントローラは、画像プロセッサがエンドエフェクタの平行投影を検知するようにエンドエフェクタの位置を制御するように構成される。
ロボット式システムの1つの例示的な実施形態のブロック図である。 ロボット制御ループの例示的な実施形態を示す図である。 図1のロボット式システムの実施形態の1つのバージョンを示す図である。 ロボットベースの誘導の方法の1つの実施形態の主要な動作を示すフローチャートである。 図4の方法の動作のうちの1つを実施する方法の例示的な実施形態の詳細なステップを示すフローチャートである。 図4の方法の動作のうちの別の1つを実施する方法の例示的な実施形態の詳細なステップを示すフローチャートである。 撮影されたビデオフレームの例及び撮影されたビデオフレームにおけるツールホルダの例示的な重畳を示す図である。 ロボットベースの誘導の方法の動作において用いられるフィードバックループの1つの例示的な実施形態を示す図である。 図1のロボット式システムの実施形態の第2のバージョンを示す図である。 図1のロボット式システムの実施形態の第3のバージョンを示す図である。 一連の撮影されたビデオフレームを使用した、円形状のロボットツールホルダの、ロボットツールホルダのための予定位置に対する位置合わせ及び配向のプロセスを示す図である。 ロボットベースの誘導の方法の動作において用いられる別のフィードバックループの1つの例示的な実施形態を示す図である。 図1のロボット式システムの実施形態の第4のバージョンを示す図である。
これより、本発明は以下おいて、添付の図面を参照してより完全に説明され、図面においては本発明の好ましい実施形態が図示されている。しかしながら、本発明は他の形態でも具現化され得るものであり、本明細書に説明される実施形態に限定されるものと解釈されるべきではない。むしろ、これらの実施形態は本発明の例を教示するものとして提供される。
図1は、ロボット式システム20の1つの例示的な実施形態のブロック図である。
図1に図示されるように、ロボット式システム20は、撮像システム30と、ロボット40と、ロボットコントローラ50とを用いる。概して、ロボット式システム20は、ロボット40の自動的運動能力を伴う任意のロボット式処置のために構成される。このようなロボット式処置の例には、医療処置、組み立てライン処置、及び移動式ロボットを伴う処置があるが、これらに限定されない。特には、ロボット式システム20は、最小侵襲心臓手術(例えば、冠状動脈バイパス移植又は僧帽弁置換)、最小侵襲腹部手術(腹腔鏡検査)(例えば、前立腺切除又は胆嚢切除)、及び自然開口部越経管腔的内視鏡手術を含むがこれらに限定されない医療処置のために利用される。
ロボット40は、本明細書において、特定のロボット式処置のために所望されるロボット40のエンドエフェクタ42を操作するための1つ又は複数のジョイント41の電動制御を有するように構造的に構成された任意のロボット式デバイスとして広く定義される。エンドエフェクタ42は、グリッパ又はツールホルダを備える。エンドエフェクタ42は、腹腔鏡検査器具、腹腔鏡、脊椎固定手術におけるネジ設置のためのツール、生体検査若しくは治療のためのニードル、又は任意の他の手術若しくは介入ツールなどのツールを備える。
実際上は、ロボット40は、最小限で3つの自由度、有利には5つ又は6つの自由度を有する。ロボット40は、エンドエフェクタの軸と交差する2つのモータ軸を有する遠隔運動中心(RCM)機構を有する。有利には、ロボット40には、RCM機構の任意の軸に沿って光ビーム(例えば、レーザビーム)を投影するように構成された光投影装置(例えば、一対のレーザ)が関連付けられている。
エンドエフェクタ42の姿勢とは、ロボット40の座標系内でのエンドエフェクタ42の位置及び向きである。
撮像システム30は、1つ又は複数のカメラを含む。いくつかの実施形態において、撮像システム30は、回転3Dスキャンを生成するように構成された手術中X線システムを含む。撮像システムは、エンドエフェクタ42又はエンドエフェクタ42に保持されたツール(例えば、手術又は介入処置のためのもの)のための予定進入ポイント及びエンドエフェクタ42又はエンドエフェクタ42に保持されたツールのためのRCMを通る予定パスを含む手術フィールドにおけるロボット40のRCM機構の画像を撮影するように構成される。
撮像システム30は、フレームグラバー31も含むか、又はフレームグラバー31と関連付けられる。ロボット40は、ジョイント41(例えば、5つ又は6つのジョイント41)と、エンドエフェクタ42とを含む。以下により詳細に説明されるように、いくつかの実施形態において、エンドエフェクタ42は、ロボット40によって操作されるツールホルダとして構成される。ロボットコントローラ50は、以下により詳細に説明されるビジュアルサーボ51を含む。
撮像システム30は、前方光学視又は斜位光学視を有する任意のタイプのカメラであってよく、事前に定められたフレームレート(例えば、1秒当たり30フレーム)で一連の2次元的デジタルビデオフレーム32を取得することが可能で、各デジタルビデオフレーム32をロボットコントローラ50に提供することが可能な任意のタイプのフレームグラバー31を用いてよい。いくつかの実施形態では、フレームグラバー31は省かれることがあり、この場合、撮像システム30が、ロボットコントローラ50にその画像を送る。特には、撮像システム30は、その視野内でロボット40のエンドエフェクタ42及び遠隔運動中心(RCM)342の画像、及びRCM342がその内部で位置決め及び操作される動作空間の画像を撮影することができるように位置決め及び配向される。有利には、撮像システム30は、エンドエフェクタ42の姿勢を特定するために使用され得る既知の形状を有する基準オブジェクトの画像を撮影するようにも位置決めされる。いくつかの実施形態において、撮像システム30は、モータによって作動されるカメラを含み、以下により詳細に説明されるように、カメラは、撮像システム30が手術前画像に対してレジストレーションされたときにロボット40のための予定器具パスに沿って位置決めされ得る。
ロボットコントローラ50は、本明細書において、エンドエフェクタ42の所望の姿勢を達成するために必要な各ロボットジョイント41の決定的な移動を命令することによって、特定のロボット式処置のために所望されるエンドエフェクタ42の姿勢を制御するために、ロボット40に1つ又は複数のロボット制御コマンド(「RCC」)52を提供するように構造的に構成された任意のコントローラとして広く定義される。
例えば、ロボット制御コマンド52は、ロボット40のRCMを手術のための予定進入ポイントに対して位置合わせするために1つ又は複数のロボットジョイント41のセットを制御するため、及びエンドエフェクタ42を手術のための予定パスに対して位置合わせするために追加のロボットジョイントのペアを制御するために、撮像システム30による基準オブジェクト(例えば、エンドエフェクタ42)の追跡を容易にするために必要な1つ又は複数のロボットジョイント41を移動させる。
デジタルビデオフレーム32内での画像の特徴のロボット式追跡のため、並びに、ロボット40をエンドエフェクタ42又はエンドエフェクタ42に保持されたツールのための予定進入ポイント及び予定パスに対して位置合わせ及び配向するために、ロボットコントローラ50は、RCMが予定進入ポイント及びパスに対して位置合わせ及び配向されたときに、各デジタルビデオフレーム32において特定された基準オブジェクトの画像及び画像上への基準オブジェクトの投影に対するエンドエフェクタ42の姿勢を、その既知の形状及び位置に基づいて、制御するためのビジュアルサーボ51を含む。
このような目的で、図2に図示されるように、ビジュアルサーボ51は、フレームグラバー31によって実現される画像取得33とロボットジョイント41の制御された移動43とを伴う閉ロボット制御ループ21において、基準オブジェクト特定プロセス53と、向き設定プロセス55と、インバースキネマティクス(逆運動力学)プロセス57とを実現する。実際上は、プロセス53、55、及び57は、任意のプラットフォーム(例えば、一般的なコンピュータ、特定用途向け集積回路(ASIC)など)にインストールされたハードウェア、ソフトウェア、及び/又はファームウェアの任意の組み合わせによって具現化されるビジュアルサーボ51のモジュールによって実現されてよい。更には、プロセス53及び55は、ロボットコントローラ50の画像プロセッサによって実施されてよい。
図2を参照すると、基準オブジェクト特定プロセス53は、当技術分野において知られている特徴認識アルゴリズムを使用してデジタルビデオフレーム32内で特定の基準オブジェクトを特定するための各デジタルビデオフレーム32の個別の処理を伴う。
再び図2を参照すると、基準オブジェクト特定プロセス53は、各デジタルビデオフレーム32内の基準オブジェクトを示す2次元的画像データ(「2DID」)54を生成し、向き設定プロセス55は、基準オブジェクトの向き又は形状を特定するために2Dデータ54を処理する。基準オブジェクトが認識される各デジタルビデオフレーム32について、向き設定プロセス55は、デジタルビデオフレーム32内の基準オブジェクトに対するロボット40のエンドエフェクタ42の所望の姿勢を示す3次元的ロボットデータ(「3DRD」)56を生成する。インバースキネマティクスプロセス57は、当技術分野において知られているように、ロボットジョイント41の適切なジョイント移動43のために必要な1つ又は複数のロボット制御コマンド52を生成し、それによって、デジタルビデオフレーム32内の基準オブジェクトに対するエンドエフェクタ42の所望の姿勢を達成するために、3Dデータ56を処理する。
動作においては、ロボットコントローラ50の画像プロセッサは、撮像システム30から撮影された画像を受信し、撮影された画像を3次元的(3D)手術前画像に対してレジストレーションし、投影された光ビーム(例えば、レーザビーム)を使用して撮影された画像においてRCMのための進入ポイント及びパスを定め、撮影された画像において基準オブジェクトを検知及び追跡する。更には、ロボットコントローラ50は、エンドエフェクタ42を予定進入ポイント及び予定パスに対して位置合わせするロボットジョイント運動パラメータを、定められた進入ポイント、定められたパス、及び検知された基準オブジェクトに応じて計算し、計算されたロボットジョイント運動パラメータに応じて、エンドエフェクタ42を予定進入ポイント及び予定パスに対して位置合わせするロボット制御コマンド52を生成し、ロボット制御コマンドをロボット40に通信する。
次に、ロボット式システム20の様々なバージョンの更なる態様がより詳細に説明される。
図3は、図1のロボット式システム20の第1のバージョンの一部分を示す。図3は、撮像デバイス、特にはカメラ330と、ロボット340とを図示する。ここで、カメラ330は撮像システム30の1つのバージョンであり、ロボット340はロボット40の1つのバージョンである。カメラ330は、その視野内でエンドエフェクタ42と遠隔運動中心(RCM)342とを含むロボット340の少なくとも一部分の画像、及びRCM342がその内部で位置決め及び操作される動作空間の画像を撮影することができるように位置決め及び配向される。図3には示されていないが、図3に示されるロボット式システムは、図1及び図2に関して上に記載されたロボットコントローラ50などのロボットコントローラを含むことが理解されるべきである。
ロボット340は、5つのジョイントj1、j2、j3、j4、及びj5と、エンドエフェクタ360とを有する。ジョイントj1、j2、j3、j4、及びj5の各々は、ロボット340によってロボットコントローラ(例えば、ロボットコントローラ50)から受信された1つ又は複数のロボット制御コマンド52に応じてジョイントを操作することができる関連付けられたモータを有する。ジョイントj4及びj5はRCM342を定める。第1及び第2のレーザ512及び514は、対応するRCMレーザビーム513及び515を、それらがRCM342で交差するように投影する。いくつかの実施形態において、第1及び第2のレーザ512及び514は、ジョイントj4及びj5のモータ軸に沿ってRCMレーザビーム513及び515を投影する。図3に示されるような同心円弧システムを有する実施形態において、第1及び第2のレーザ512及び514は、円弧に沿った場所のどこに位置付けられてもよい。図には、予定パス115に沿った対象10のための予定進入ポイント15及び検知されたパス117に沿った検知された進入ポイント17も図示されている。
図4は、ロボット式システムによって実施されるロボットベースの誘導の方法400の1つの実施形態の主要な動作を示すフローチャートである。以下の説明において、具体的な例を提供するために、方法400は、図3に示されたバージョンのロボット式システム20によって実施されるものと仮定される。
動作410は、ロボット340のための計画(例えば、手術計画)とカメラ30とのレジストレーションを含む。ここで、ロボット340のための計画は、1つ又は複数の手術前3D画像に対して記述される。それ故、動作410において、カメラ300によって生成された画像(例えば、2D画像)は、例えば、フィリップスの特許出願(例えば、米国特許出願公開第2012/0294498(A1)号又はEP2615993B1)において説明されている方法などの当技術分野において知られているいくつかの方法を使用して手術前3D画像に対してレジストレーションされる。
動作420は、予定進入ポイント15に対するロボット340のRCM342の位置合わせを含む。動作420の例示的な実施形態の更なる詳細は、図5に関して後述される。
動作430は、予定パス115に対するロボット340のRCM機構(例えば、ジョイントj4及びj5)の位置合わせを含む。動作430の例示的な実施形態の更なる詳細は、図6に関して後述される。
図5は、方法400の動作420を実施する方法500の例示的な実施形態の詳細なステップを示すフローチャートである。ここで、手術前3D画像とカメラ300との間のレジストレーションのための動作410はすでに完了しているものと仮定される。
ステップ520において、画像プロセッサ又はロボットコントローラ50は、3D予定進入ポイント15を表す2Dポイントをカメラ330の撮影された画像(例えば、デジタルビデオフレーム32)上に投影する。カメラ330は対象10に対して移動していないので、投影された予定進入ポイント15は静的である。
ステップ530において、RCMレーザビーム513及び515の交差点は、検知された進入ポイント17を定めるために、カメラ330の撮影された画像において検知され得る。有利には、ロボット式システム及び方法500は、対象10への予定進入ポイント15が、通常、対象10の表面にあり、故に、カメラ330のビューによって可視化され得るとともに撮影された画像上に投影され得、一方、ロボット340のRCM342の現在の位置及び向きに対する検知された進入ポイント17を定めるために、レーザ512及び514から投影され得るレーザドットも撮影された画像において対象10上に視認可能であるという事実を利用し得る。
ステップ540において、ロボットコントローラ50は、RCMレーザビーム513及び515の交差点によって定められた進入ポイント17を予定進入ポイント15へと駆動するようにRCM342を移動させるために、ロボット340にロボット制御コマンド52を送る。いくつかの実施形態において、ステップ540は、米国特許第8,934,003(B2)号において説明されるアルゴリズムによって実施される。有利には、ステップ540は、ジョイントj1、j2、及びj3の移動を命令するロボット制御コマンド52によって実施される。有利には、定められた進入ポイント17が予定進入ポイント15に対して位置合わせされた後、ジョイントj1、j2、及びj3は、動作430を含む後続の動作のためにロックされる。
図6は、方法400の動作430を実施する方法600の例示的な実施形態の詳細なステップを示すフローチャートである。ここで、方法400及び方法500について上に記載されたように、手術前3D画像とカメラ300との間のレジストレーションのための動作はすでに完了しているものと仮定される。
ステップ610において、ロボットコントローラ50の画像処理サブシステムは、エンドエフェクタ42が予定器具パス115及び予定進入ポイント15に対して位置合わせされたときにカメラから見えるはずの基準オブジェクトの既知の形状をカメラ33の撮影された画像(例えば、デジタルビデオフレーム32)上に重畳又は投影する。以下の議論において、具体的な例を提供するために、基準オブジェクトはエンドエフェクタ42であると仮定される。しかしながら、一般的に、基準オブジェクトは、カメラ330の視野内の、既知の大きさ及び形状を有する任意のオブジェクト又は特徴であってよい。ここで、画像処理システムは、エンドエフェクタ42の形状及び大きさについて前もって情報を有しているものと仮定される。例えば、エンドエフェクタ42が円形状を有するならば、この形状は、カメラ330と、エンドエフェクタ42と、予定進入ポイント15との間の位置的/角度的な関係に応じて、カメラ330からは2次元的に楕円形状に見える。この場合、画像プロセッサは、エンドエフェクタ42が予定パス115に沿って予定進入ポイント15に対して位置合わせ及び配向されたときのエンドエフェクタ42のターゲット位置及び向きを表すターゲット楕円形状画像をカメラ330からの撮影された画像上に投影又は重畳する。更には、画像プロセッサは、エンドエフェクタ42の形状に依存するエンドエフェクタ42のターゲット楕円形状画像の他のパラメータ、例えば、円形状のエンドエフェクタ42の例示的な事例においては、投影された楕円形状の中心及び角度を定める。
ステップ620において、画像プロセッサは、撮影された画像におけるエンドエフェクタ42の画像を検知し、これをセグメント化する。
ステップ630において、画像プロセッサは、撮影された画像におけるエンドエフェクタ42の画像の形状を検知する。有利には、画像プロセッサは、撮影された画像におけるエンドエフェクタ42の検知された画像の他のパラメータを検知し、これらはエンドエフェクタ42の形状に依存する。例えば、エンドエフェクタ42が円形状を有するものと仮定すると、カメラ330の撮影された画像において楕円形状の画像を生み、次いでステップ630において、画像プロセッサは、撮影された画像32におけるエンドエフェクタ42の検知された画像の中心及び角度を検知する。
図7は、撮影された画像732の例及び撮影された画像732上のエンドエフェクタ42の例示的な投影された重畳部760を示す。ここで、投影された重畳部760は、エンドエフェクタ42が予定パス115に沿って予定進入ポイント15に対して位置合わせ及び配向されたときにエンドエフェクタ42がカメラ330の撮影された画像において有するはずの大きさ及び形状を表すものと仮定される。図7に図示される例において、エンドエフェクタ42の投影された重畳部760の中心7612は、エンドエフェクタ42の検知された画像の中心に対して位置合わせされているが、エンドエフェクタ42の投影された重畳部760とエンドエフェクタ42の検知された画像との間には回転角度7614が存在する。
この場合、ステップ640において、ロボットコントローラ50は、最適化アルゴリズムを実行してロボット40、及び、特には、ジョイントj4及びj5を備えるRCM機構を移動させ、カメラによって撮影されたエンドエフェクタ42の画像を投影された重畳部760に対して位置合わせする。エンドエフェクタ42の撮影された画像が投影された重畳部760に対して位置合わせされると、エンドエフェクタ42は、予定パス115に沿って予定進入ポイント15に対して位置合わせ及び配向される。
図8は、例えばロボット式システム20によって実行されるロボットベースの誘導の方法の動作において用いられるフィードバックループ800の1つの例示的な実施形態を示す。図8において、機能ブロックとしてフィードバックループ800の様々な操作子が示されている。フィードバックループ800は、コントローラ840、ロボット850、ツールセグメント化動作8510、中心検知動作8512、角度検知動作8514、及び処理動作8516を含む。ここで、フィードバックループ800は、楕円形状の投影を有する(例えば、円形状)基準オブジェクト(例えば、エンドエフェクタ42)とともに動作するように構成される。いくつかの場合において、ツールセグメント化動作8510、中心検知動作8512、角度検知動作8514、及び処理動作8516は、ロボットコントローラ50などのロボットコントローラによって、ハードウェア、ソフトウェア、ファームウェア、又はそれらの任意の組み合わせにおいて実施される。
次に、フィードバックループ800の例示的な動作が説明される。
処理動作8516は、エンドエフェクタ42の撮影された画像の検知された中心及び角度を、エンドエフェクタ42のターゲット角度及びターゲット中心から減算し、その結果、2つのエラー信号、すなわち中心エラー及び角度エラーがもたらされる。処理動作8516は、これらの2つのエラーを組み合わせ(例えば、これらに対応する重みを加算する)、重みづけられた組み合わせをフィードバック信号として、上述したロボットコントローラ50のコンポーネントとして含まれるコントローラ850に供給する。ここでコントローラ850は、比例−積分−微分(PID:proportional−integral−derivative)コントローラ、又はモデル予測コントローラなどの非線形コントローラを含む当技術分野において知られている任意の他の適切なコントローラであってよい。コントローラ850の出力は、RCM機構ジョイントベロシティのセットである。ジョイントベロシティへのマッピングは、ロボット840のエンドエフェクタ42のヨー及びピッチを撮影された画像のx及びy座標にマッピングすることによってなされ得る。エンドエフェクタ42の向きは、撮影された画像におけるエンドエフェクタ42の検知された形状と撮影された画像上への形状の平行投影との間の射影変換を使用してマッピングされ得る。
図9は、図1のロボット式システム20の第2のバージョンの一部分を示す。図9に示されるロボット式システム20の第2のバージョンは、図3に示されて上に詳述された第1のバージョンと構造及び動作において類似しており、従って、簡潔さのために、それらの間の相違点のみが説明される。
ロボット式システム20の第2のバージョンにおいて、画像撮影システムは、既知の又は定められた構成において離間された少なくとも2つのカメラ330及び332を含む。カメラ330及び332の各々は、その視野内でエンドエフェクタ42とRCM342とを含むロボット340の少なくとも一部分の画像、及びRCM342がその内部で位置決め及び操作される動作空間の画像を撮影することができるように位置決め及び配向される。それ故、ロボット式システム20のこのバージョンにおいて、画像プロセッサは、各カメラ330及び332からの撮影された2D画像における基準オブジェクト(例えば、エンドエフェクタ42)を検知及び追跡し、撮影された2D画像からエンドエフェクタ42の3D形状を再構成するように構成される。
ここで、撮影された画像の縮尺は、エンドエフェクタ42の既知の大きさ、及びカメラ330及び332の焦点距離を使用して再構成され得る。再構成された位置及び縮尺は、カメラ330及び332の座標フレームにおけるロボット340の3D位置を与える。エンドエフェクタ42の向きは、撮影された画像におけるエンドエフェクタ42の検知された形状と撮影された画像上への形状の平行投影との間の射影変換を使用して検知され得る。このバージョンは、3D空間におけるロボット340の位置を再構成し、ロボット構成空間をカメラ座標系に対してレジストレーションする。ロボット制御は位置ベースであり得、ロボットモータはロボットジョイント空間において移動されて、エンドエフェクタ42を初期位置及び向きから予定位置及び向きへと移動させる。
ロボット式システム20の別のバージョンにおいて、RCM機構は、予定進入ポイント15を通るツール挿入軸の周りでエンドエフェクタ42を回転させることができるような追加的な自由度を備える。ここでも、エンドエフェクタ42は、挿入軸に垂直な平面内でその向きを定めるような特徴を備え、画像プロセッサは、撮影された画像においてこの特徴を検知し、特徴の予定位置を撮影された画像上に投影するように構成される。例えば、この特徴はピンを有した円形状又は矩形状でよい。ロボットコントローラ50は、検知された特徴と特徴の予定位置とが位置合わせされるようにロボット340を制御するように構成される。
このバージョンは、エンドエフェクタ42が回転対称でないとき、例えば、エンドエフェクタ42が把持具又は傾いたニードルであるときに有用であり得る。予定進入ポイント15及びパス115に沿ったエンドエフェクタ42の向きの両者が設定された後、エンドエフェクタ42は、特徴の予定位置と検知された位置とが位置合わせされるまで、追加的な自由度を使用して回転される。
図10は、図1のロボット式システム20の第3のバージョンの一部分を示す。図10に示されるロボット式システム20の第3のバージョンは、図3に示されて上に詳述された第1のバージョンと構造及び動作において類似しており、従って、簡潔さのために、それらの間の相違点のみが説明される。
ロボット式システム20の第3のバージョンにおいて、カメラ330は、予定パス115に沿って操作及び位置決めされ得るように、モータ1000によって作動される。ここでも、カメラ330は手術前画像に対してレジストレーションされるものと仮定される。図10に示された第3のバージョンの場合において、撮影された画像上へのエンドエフェクタ42の投影は、エンドエフェクタ42が予定パス115に沿って予定進入ポイント15に対して位置合わせ及び配向されたときの状況を反映して、平行投影となる。例えば、エンドエフェクタ42の形状が円形状であるなら、投影も円形状である。この場合、コントローラ50は、撮影された画像において平行投影が検知されるようにエンドエフェクタ42の位置を制御するように構成され得、これは一意解である。これは、RCM342が進入ポイント15に対して位置合わせされる前又は後になされ得る。もしも前になされたなら、RCM342は、予定重畳におけるエンドエフェクタ42の投影の中心と撮影された画像におけるエンドエフェクタ42の検知された位置とを位置合わせすることによって、位置決めされ得る。
図11は、図10に示されたロボット式システムの第3のバージョンを使用してカメラ330によって撮影された一連のビデオフレームを使用した、円形状のロボットエンドエフェクタ42の、ロボットエンドエフェクタ42のための予定位置に対する位置合わせ及び配向のプロセスを示す。
ここで、カメラ330によって撮影された第1の撮影されたビデオフレーム1132−1には、エンドエフェクタ42が予定パス115に沿って予定進入ポイント15に対して位置合わせ及び配向されたならばビデオフレーム1132−1において現れるはずのエンドエフェクタ42の投影1171が図示されている。しかしながら、代わりに、エンドエフェクタ42の検知された画像1161は、長軸11613及び短軸11615を有した楕円形状を有しており、投影1171の位置から横方向にずれている。
カメラ330によって撮影された第2のフレーム1132−2には、エンドエフェクタの検知された画像1161が円形状を有するようにロボット40のRCM機構を制御するロボットコントローラ50によって実行される制御アルゴリズムの結果、エンドエフェクタ42の検知された画像1161がいまや円形状を有している様子が図示されている。しかしながら、第2のフレーム1132−2においては、検知された画像1161はいまだに投影1171の位置から横方向にずれており、投影1171よりも大きさが大きいことがわかる。
ビデオフレーム1132−2において描かれる状況になった後、ロボット340のRCM機構(例えば、ジョイントj4及びj5)はロックされてよく、位置決め機構はRCMを予定進入口に対して位置合わせするために移動される。
両形状はいまや平行投影になっているので、このステップにおいて、例えば米国特許第8,934,003(B2)号に説明されている方法を使用して、図心が位置合わせされることだけが必要である。図心が位置合わせされたなら、縮尺が合わせられなければならない(検知されたエンドエフェクタ42の円の大きさを計画に従って投影されたエンドエフェクタ42の大きさに合わせる)。縮尺は、位置決め機構座標フレームにおいて計算され得るツールパス115に沿ったロボット40の運動によって定められる。
カメラ330によって撮影された第3のフレーム1132−3には、エンドエフェクタ42の検知された画像1161が、いまや投影1171と位置合わせされた様子が図示されている。
図12は、ロボットベースの誘導の方法の動作において用いられる別のフィードバックループ1200の1つの例示的な実施形態を示す。図12は、例えばロボット式システム20によって実施されるロボットベースの誘導の方法の動作において用いられるフィードバックループ1200の1つの例示的な実施形態を示す。図12において、機能ブロックとしてフィードバックループ1200の様々な操作子が示されている。フィードバックループ1200は、コントローラ1240、ロボット1250、ツールセグメント化動作12510、長軸検知動作12513、短軸検知動作12515、及び処理動作12516を含む。ここで、フィードバックループ1200は、楕円形状の投影を有する(例えば、円形状)基準オブジェクト(例えば、エンドエフェクタ42)とともに動作するように構成される。いくつかの場合において、ツールセグメント化動作12510、長軸検知動作12513、短軸検知動作12515、及び処理動作12516は、ロボットコントローラ50などのロボットコントローラによって、ハードウェア、ソフトウェア、ファームウェア、又はそれらの任意の組み合わせにおいて実施される。
次に、フィードバックループ1200の例示的な動作が説明される。
処理動作12516は、エンドエフェクタ42の撮影された画像の検知された中心及び角度を、エンドエフェクタ42のターゲット角度及びターゲット中心から減算し、その結果、2つのエラー信号、すなわち中心エラー及び角度エラーがもたらされる。処理動作12516は、これらの2つのエラーを組み合わせ(例えば、これらに対応する重みを加算する)、重みづけられた組み合わせをフィードバック信号として、上述したロボットコントローラ50のコンポーネントとして含まれるコントローラ1250に供給する。ここでコントローラ1250は、比例−積分−微分(PID)コントローラ、又はモデル予測コントローラなどの非線形コントローラを含む当技術分野において知られている任意の他の適切なコントローラであってよい。コントローラ1250の出力は、RCM機構ジョイントベロシティのセットである。ジョイントベロシティへのマッピングは、ロボット1240のエンドエフェクタ42のヨー及びピッチを撮影された画像のx及びy座標にマッピングすることによってなされ得る。エンドエフェクタ42の向きは、撮影された画像におけるエンドエフェクタ42の検知された形状と撮影された画像上への形状の平行投影との間の射影変換を使用してマッピングされ得る。
図13は、図1のロボット式システム20の第4のバージョンの一部分を示す。図13に示されるロボット式システム20の第4のバージョンは、図3に示されて上に詳述された第1のバージョンと構造及び動作において類似しており、従って、簡潔さのために、それらの間の相違点のみが説明される。
ロボット式システム20の第4のバージョンにおいて、カメラ330は、予定パス115が位置付けられる場所の回転3Dスキャンを生成するように構成された手術中X線システム1300に取り付けられている。
ロボット式システム20の他のバージョンも可能である。特には、図3、図9、及び図10などに関して上に記載されたバージョンのうちの任意のものが、手術中X線システム1300を含むように修正されてよい。
本明細書において、好ましい実施形態が詳細に開示されたが、本発明の概念及び範囲内に依然としてある多くの変形が可能である。このような変形は、本文書において明細書、図面及び特許請求の範囲を検証した後で、当業者には明らかになるであろう。従って、本発明は、添付の特許請求の範囲内にあることを除いては、限定されるものではない。

Claims (20)

  1. 2つのモータ軸を有する遠隔運動中心(RCM:remote center of motion)機構とロボットの遠位端部に設けられたエンドエフェクタとを有する当該ロボットと、
    前記RCMで交差する2つ以上の光ビームを投影する光投影装置と、
    予定進入ポイントと前記RCMを通る予定パスとを含む手術フィールドにおける前記RCM機構の画像を撮影する撮像システムと、
    前記ロボットを制御し、前記RCM機構を位置決めするロボットコントローラであって、前記撮像システムから撮影された画像を受信し、前記撮影された画像を3次元的手術前画像に対してレジストレーションし、投影された光ビームを使用して前記撮影された画像において前記RCMに対する進入ポイント及びパスを定め、前記撮影された画像において、前記エンドエフェクタと関連付けられる、既知の形状を有する基準オブジェクトを検知及び追跡する画像プロセッサを含む前記ロボットコントローラと、を含み、
    前記ロボットコントローラは、前記エンドエフェクタを前記予定進入ポイント及び前記予定パスに対して位置合わせするロボットジョイント運動パラメータを、定められた進入ポイント、定められたパス、及び検知された基準オブジェクトに応じて計算し、計算されたロボットジョイント運動パラメータに基づいて、前記エンドエフェクタを前記予定進入ポイント及び前記予定パスに対して位置合わせするロボット制御コマンドを生成し、前記ロボット制御コマンドを前記ロボットに通信し、
    前記ロボットコントローラは、前記撮影された画像における前記基準オブジェクトの1つ又は複数の幾何学的パラメータを決定し、前記基準オブジェクトが当該基準オブジェクトの予定位置に位置付けられるときに前記撮像システムに現れるように、前記撮影された画像における前記基準オブジェクトの前記1つ又は複数の幾何学的パラメータを、既知の対応する前記基準オブジェクトの1つ又は複数の幾何学的パラメータに対して位置合わせすることによって、前記ロボットジョイント運動パラメータを計算する、システム。
  2. 前記画像プロセッサは、前記投影された光ビームの交差点として前記進入ポイントを検知し、前記ロボットコントローラは、前記投影された光ビームの交差点が前記予定進入ポイントに対して位置合わせされるように前記ロボットを制御する、請求項1に記載のシステム。
  3. 前記画像プロセッサは、前記予定位置における前記基準オブジェクトの既知の形状を前記撮影された画像上に投影し、前記ロボットコントローラは、撮影された画像における前記検知された基準オブジェクトが投影された既知の形状と重畳するように前記ロボットを制御する、請求項1に記載のシステム。
  4. 前記撮像システムは、既知の構成において離間された複数のカメラから、手術フィールドにおける前記RCM機構の2次元的(2D)画像を撮影し、前記画像プロセッサは、前記複数のカメラの各々からの撮影された2D画像における既知の形状を有する前記基準オブジェクトを検知及び追跡し、前記撮影された2D画像から前記基準オブジェクトの3次元的(3D)形状を再構成する、請求項1に記載のシステム。
  5. 前記RCM機構は、前記予定進入ポイントを通る挿入軸の周りで前記エンドエフェクタを回転し、前記エンドエフェクタは、前記挿入軸に垂直な平面内でその向きを定める特徴を有し、前記画像プロセッサは、前記撮影された画像において前記特徴を検知し、前記特徴の予定位置を撮影された画像上に投影し、前記ロボットコントローラは、検知された前記特徴と前記予定位置とが位置合わせされるように前記ロボットを制御する、請求項1に記載のシステム。
  6. 前記基準オブジェクトは前記エンドエフェクタである、請求項1に記載のシステム。
  7. 前記撮像システムは、カメラと、前記カメラを移動させるためのアクチュエータとを含み、前記カメラは前記アクチュエータによって前記予定パスに沿って位置決めされ、前記ロボットコントローラは、前記画像プロセッサが前記エンドエフェクタの平行投影を検知するように前記エンドエフェクタの位置を制御する、請求項4に記載のシステム。
  8. 前記撮像システムは、前記予定パスの回転3次元的スキャンを生成するX線システムを含む、請求項1に記載のシステム。
  9. 遠位端部にエンドエフェクタを有するロボットの遠隔運動中心(RCM:remote center of motion)機構によって定められるRCMにおいて交差する少なくとも2つの光ビームを提供するステップと、
    予定進入ポイントと前記RCMを通る予定パスとを含む手術フィールドにおける前記RCM機構の画像を撮影するステップと、
    撮影された前記画像を3次元的(3D)手術前画像に対してレジストレーションするステップと、
    投影された光ビームを使用して前記撮影された画像において前記RCMのための進入ポイント及びパスを定めるステップと、
    前記撮影された画像において、前記エンドエフェクタと関連付けられる、既知の形状を有する基準オブジェクトを検知及び追跡するステップと、
    前記進入ポイント、前記パス、及び前記基準オブジェクトについての情報に応じて、前記エンドエフェクタを前記予定進入ポイント及び前記予定パスに対して位置合わせするロボットジョイント運動パラメータを計算するステップと、
    計算された前記ロボットジョイント運動パラメータに基づいて、前記エンドエフェクタを前記予定進入ポイント及び前記予定パスに対して位置合わせするロボット制御コマンドをロボットに通信するステップと、を有する、方法であって、
    前記ロボットジョイント運動パラメータを計算するステップは、前記撮影された画像における前記基準オブジェクトの1つ又は複数の幾何学的パラメータを決定し、前記基準オブジェクトが当該基準オブジェクトの予定位置に位置付けられるときに撮像システムに現れるように、前記撮影された画像における前記基準オブジェクトの前記1つ又は複数の幾何学的パラメータを、既知の対応する前記基準オブジェクトの1つ又は複数の幾何学的パラメータに対して位置合わせするステップを含む、方法
  10. 前記投影された光ビームの交差点として前記進入ポイントを検知するステップと、前記投影された光ビームの交差点が前記予定進入ポイントに対して位置合わせされるように前記ロボットを制御するステップと、
    を有する、請求項9に記載の方法。
  11. 前記予定位置における前記基準オブジェクトの前記既知の形状を前記撮影された画像上に投影するステップと
    前記撮影された画像における検知された前記基準オブジェクトが投影された既知の形状と重畳するよう前記にロボットを制御するステップと、
    を有する、請求項9に記載の方法。
  12. 既知の構成において離間された複数のカメラから、前記手術フィールドにおける前記RCM機構の2次元的(2D)画像を撮影するステップと、
    前記複数のカメラの各々から撮影された2D画像における既知の形状を有する前記基準オブジェクトを検知及び追跡するステップと、
    前記撮影された2D画像から前記基準オブジェクトの3D形状を再構成するステップと、
    を有する、請求項9に記載の方法。
  13. 前記予定進入ポイントを通る挿入軸の周りで前記エンドエフェクタを回転させるステップであって、前記エンドエフェクタは、前記挿入軸に垂直な平面内でその向きを定めるような特徴を有する、ステップと、
    前記撮影された画像において前記特徴を検知するステップと、
    前記特徴の予定位置を撮影された画像上に投影するステップと、
    検知された前記特徴と予定位置とが位置合わせされるように前記ロボットを制御するステップと、
    を有する、請求項9に記載の方法。
  14. 前記予定パスに沿って位置決めされたカメラを使用して前記RCM機構の画像を撮影するステップであって、前記基準オブジェクトは前記エンドエフェクタである、ステップと、
    前記撮影された画像において前記エンドエフェクタの平行投影が検知されるように前記エンドエフェクタの位置を制御するステップと、を有する、請求項9に記載の方法。
  15. 2つのモータ軸を有する遠隔運動中心(RCM:remote center of motion)機構及び遠位端部に設けられたエンドエフェクタを有するロボットを制御するためのロボットコントローラであって、
    前記ロボットコントローラは、前記RCMで交差する2つ以上の光ビームを投影して撮影された画像であって、予定進入ポイント及びRCMを通る予定パスを含む手術フィールドにおける前記RCM機構の撮影された画像を受信し、前記撮影された画像を3次元的(3D)手術前画像に対してレジストレーションし、前記撮影された画像において前記RCMに対する進入ポイント及びパスを定め、前記撮影された画像において、前記エンドエフェクタと関連付けられる、既知の形状を有する基準オブジェクトを検知及び追跡する画像プロセッサと、ロボット制御コマンドを前記ロボットに通信するロボット制御コマンドインターフェースと、を備え、
    前記ロボットコントローラは、前記エンドエフェクタを前記予定進入ポイント及び前記予定パスに対して位置合わせするロボットジョイント運動パラメータを、定められた前記進入ポイント、定められたパス、及び検知された前記基準オブジェクトに応じて計算する計算されたロボットジョイント運動パラメータに基づいて、前記エンドエフェクタを前記予定進入ポイント及び前記予定パスに対して位置合わせするロボット制御コマンドを生成し、
    前記ロボットコントローラは、前記撮影された画像における前記基準オブジェクトの1つ又は複数の幾何学的パラメータを決定し、前記基準オブジェクトが当該基準オブジェクトの予定位置に位置付けられるときに撮像システムに現れるように、前記撮影された画像における前記基準オブジェクトの前記1つ又は複数の幾何学的パラメータを、既知の対応する前記基準オブジェクトの1つ又は複数の幾何学的パラメータに対して位置合わせすることによって、前記ロボットジョイント運動パラメータを計算する、ロボットコントローラ。
  16. 前記画像プロセッサは、投影された光ビームの交差点として前記進入ポイントを検知し、前記ロボットコントローラは、前記投影された光ビームの交差点が前記予定進入ポイントに対して位置合わせされるように前記ロボットを制御する、請求項15に記載のロボットコントローラ。
  17. 前記画像プロセッサは、前記予定位置における前記基準オブジェクトの既知の形状を前記撮影された画像上に投影し、前記ロボットコントローラは、前記撮影された画像における検知された前記基準オブジェクトが投影された既知の形状と重畳するように前記ロボットを制御する、請求項15に記載のロボットコントローラ。
  18. 前記画像プロセッサは、既知の構成において離間された複数のカメラから、前記手術フィールドにおける前記RCM機構の2次元的(2D)画像を受信し、前記複数のカメラの各々からの撮影された2D画像における既知の形状を有する前記基準オブジェクトを検知及び追跡し、撮影された2D画像から前記基準オブジェクトの3D形状を再構成する、請求項15に記載のロボットコントローラ。
  19. 前記RCM機構は、前記予定進入ポイントを通る挿入軸の周りで前記エンドエフェクタを回転し、前記エンドエフェクタは、前記挿入軸に垂直な平面内でその向きを定めるような特徴を有し、前記画像プロセッサは、前記撮影された画像において前記特徴を検知し、前記特徴の予定位置を撮影された画像上に投影し、前記ロボットコントローラは、検知された前記特徴と予定位置とが位置合わせされるように前記ロボットを制御する、請求項15に記載のロボットコントローラ。
  20. 前記ロボットコントローラは、アクチュエータによって予定パスに沿って位置決めされたカメラからの前記撮影された画像を受信し、前記ロボットコントローラは、前記画像プロセッサが前記エンドエフェクタの平行投影を検知するように前記エンドエフェクタの位置を制御する、請求項15に記載のロボットコントローラ。
JP2018533939A 2015-12-30 2016-12-21 画像ベースのロボット誘導 Active JP6912481B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562272737P 2015-12-30 2015-12-30
US62/272,737 2015-12-30
PCT/IB2016/057863 WO2017115227A1 (en) 2015-12-30 2016-12-21 Image based robot guidance

Publications (3)

Publication Number Publication Date
JP2019502462A JP2019502462A (ja) 2019-01-31
JP2019502462A5 JP2019502462A5 (ja) 2020-02-06
JP6912481B2 true JP6912481B2 (ja) 2021-08-04

Family

ID=57838433

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018533939A Active JP6912481B2 (ja) 2015-12-30 2016-12-21 画像ベースのロボット誘導

Country Status (5)

Country Link
US (1) US20200261155A1 (ja)
EP (1) EP3397187A1 (ja)
JP (1) JP6912481B2 (ja)
CN (1) CN108601626A (ja)
WO (1) WO2017115227A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11033341B2 (en) 2017-05-10 2021-06-15 Mako Surgical Corp. Robotic spine surgery system and methods
EP4344658A3 (en) 2017-05-10 2024-07-03 MAKO Surgical Corp. Robotic spine surgery system
US11432877B2 (en) * 2017-08-02 2022-09-06 Medtech S.A. Surgical field camera system that only uses images from cameras with an unobstructed sight line for tracking
CN111699077B (zh) 2018-02-01 2024-01-23 Abb瑞士股份有限公司 用于机器人的基于视觉的操作
CN109223176B (zh) * 2018-10-26 2021-06-25 中南大学湘雅三医院 一种手术规划系统
EP3930615A1 (en) * 2019-02-28 2022-01-05 Koninklijke Philips N.V. Feedforward continuous positioning control of end-effectors
EP3824839A1 (en) * 2019-11-19 2021-05-26 Koninklijke Philips N.V. Robotic positioning of a device
KR102278149B1 (ko) * 2020-01-08 2021-07-16 최홍희 의료용 다목적 레이저 포인팅장치
RU2753118C2 (ru) * 2020-01-09 2021-08-11 Федеральное государственное автономное образовательное учреждение высшего образования "Севастопольский государственный университет" Роботизированная система для удержания и перемещения хирургического инструмента при проведении лапароскопических операций
US20230139402A1 (en) * 2020-02-24 2023-05-04 Intuitive Surgical Operations, Inc. Systems and methods for registration feature integrity checking
JP7459234B2 (ja) * 2020-04-10 2024-04-01 川崎重工業株式会社 医療用移動体システム及びその運転方法
CN112932669B (zh) * 2021-01-18 2024-03-15 广州市微眸医疗器械有限公司 一种执行视网膜层防渗漏隧道的机械臂控制方法
US20230100638A1 (en) * 2021-02-05 2023-03-30 Shenzhen Institutes Of Advanced Technology Chinese Academy Of Sciences Soft-bodied apparatus and method for opening eyelid
CN113687627B (zh) * 2021-08-18 2022-08-19 太仓中科信息技术研究院 一种基于摄像机器人的目标跟踪方法
CN113766083B (zh) * 2021-09-09 2024-05-14 思看科技(杭州)股份有限公司 跟踪式扫描系统的参数配置方法、电子装置和存储介质
CN115192092B (zh) * 2022-07-04 2024-06-25 合肥工业大学 面向体内柔性动态环境的机器人自主活检取样方法
CN117103286B (zh) * 2023-10-25 2024-03-19 杭州汇萃智能科技有限公司 一种机械手手眼标定方法、系统和可读存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6187018B1 (en) * 1999-10-27 2001-02-13 Z-Kat, Inc. Auto positioner
US7008373B2 (en) * 2001-11-08 2006-03-07 The Johns Hopkins University System and method for robot targeting under fluoroscopy based on image servoing
WO2008152542A2 (en) * 2007-06-12 2008-12-18 Koninklijke Philips Electronics N.V. Image guided therapy
US20110071541A1 (en) * 2009-09-23 2011-03-24 Intuitive Surgical, Inc. Curved cannula
JP5814938B2 (ja) 2010-01-08 2015-11-17 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. リアルタイム速度最適化を使用した校正不要のビジュアルサーボ
CN102711650B (zh) 2010-01-13 2015-04-01 皇家飞利浦电子股份有限公司 用于内窥镜手术的基于图像整合的配准和导航
DE102010029275A1 (de) * 2010-05-25 2011-12-01 Siemens Aktiengesellschaft Verfahren zum Bewegen eines Instrumentenarms eines Laparoskopierobotors in einer vorgebbare Relativlage zu einem Trokar
BR112013005879A2 (pt) 2010-09-15 2016-05-10 Konink Philps Electronics Nv ''sistema de orientação de robôs, unidades de controle para um endoscópio e método de orientação de robôs''
KR20140090374A (ko) * 2013-01-08 2014-07-17 삼성전자주식회사 싱글 포트 수술 로봇 및 그 제어 방법
GB201303917D0 (en) * 2013-03-05 2013-04-17 Ezono Ag System for image guided procedure
US10130433B2 (en) * 2014-02-04 2018-11-20 Koninklijke Philips N.V. Remote center of motion definition using light sources for robot systems
KR102237597B1 (ko) * 2014-02-18 2021-04-07 삼성전자주식회사 수술 로봇용 마스터 장치 및 그 제어 방법
DE102014209368A1 (de) * 2014-05-16 2015-11-19 Siemens Aktiengesellschaft Magnetresonanztomographie-System und Verfahren zur Unterstützung einer Person bei der Positionierung eines medizinischen Instruments für eine perkutane Intervention

Also Published As

Publication number Publication date
WO2017115227A1 (en) 2017-07-06
CN108601626A (zh) 2018-09-28
JP2019502462A (ja) 2019-01-31
EP3397187A1 (en) 2018-11-07
US20200261155A1 (en) 2020-08-20

Similar Documents

Publication Publication Date Title
JP6912481B2 (ja) 画像ベースのロボット誘導
CN109069217B (zh) 图像引导外科手术中的姿势估计以及透视成像系统的校准的系统和方法
CN110051436B (zh) 自动化协同工作组件及其在手术器械中的应用
US8971597B2 (en) Efficient vision and kinematic data fusion for robotic surgical instruments and other applications
US9066737B2 (en) Method for moving an instrument arm of a laparoscopy robot into a predeterminable relative position with respect to a trocar
US20230000565A1 (en) Systems and methods for autonomous suturing
JP2018110873A (ja) 画像キャプチャ装置及び操作可能な装置可動アームの制御された動作の間の衝突回避
Zhang et al. Autonomous scanning for endomicroscopic mosaicing and 3D fusion
KR20080027256A (ko) 최소침습 로봇수술 동안 센서 및/또는 카메라로부터 도출된데이터와의 융합에 의한 3차원 툴 추적을 수행하기 위한방법 및 시스템
Zhan et al. Autonomous tissue scanning under free-form motion for intraoperative tissue characterisation
KR20240021747A (ko) 초음파 안내식 바늘 배치를 위한 의료용 로봇
Molnár et al. Visual servoing-based camera control for the da Vinci Surgical System
Marmol et al. ArthroSLAM: Multi-sensor robust visual localization for minimally invasive orthopedic surgery
Wang et al. Robot-assisted occlusion avoidance for surgical instrument optical tracking system
Heunis et al. Collaborative surgical robots: Optical tracking during endovascular operations
Nageotte et al. Visual servoing-based endoscopic path following for robot-assisted laparoscopic surgery
US20220241032A1 (en) Multi-arm robotic systems and methods for identifying a target
Vrooijink et al. A preliminary study on using a robotically-actuated delivery sheath (rads) for transapical aortic valve implantation
Piccinelli et al. Rigid 3D registration of pre-operative information for semi-autonomous surgery
Vitrani et al. Robust ultrasound-based visual servoing for beating heart intracardiac surgery
Krupa et al. Autonomous retrieval and positioning of surgical instruments in robotized laparoscopic surgery using visual servoing and laser pointers
Wang et al. Image-based trajectory tracking control of 4-DOF laparoscopic instruments using a rotation distinguishing marker
EP4284287A1 (en) Multi-arm robotic systems for identifying a target
US11596567B2 (en) Systems and methods for determining and maintaining a center of rotation
US20220323157A1 (en) System and method related to registration for a medical procedure

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210708

R150 Certificate of patent or registration of utility model

Ref document number: 6912481

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150