JP5847725B2 - 低侵襲外科システムにおいて手の存在を検出するための方法およびシステム - Google Patents

低侵襲外科システムにおいて手の存在を検出するための方法およびシステム Download PDF

Info

Publication number
JP5847725B2
JP5847725B2 JP2012538989A JP2012538989A JP5847725B2 JP 5847725 B2 JP5847725 B2 JP 5847725B2 JP 2012538989 A JP2012538989 A JP 2012538989A JP 2012538989 A JP2012538989 A JP 2012538989A JP 5847725 B2 JP5847725 B2 JP 5847725B2
Authority
JP
Japan
Prior art keywords
hand
tracking
master tool
grip
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012538989A
Other languages
English (en)
Other versions
JP2013510674A (ja
Inventor
ブランドン ディー. イコビッツ,
ブランドン ディー. イコビッツ,
サイモン ディマイオ,
サイモン ディマイオ,
ポール イー. リラガン,
ポール イー. リラガン,
タオ チャオ,
タオ チャオ,
Original Assignee
インテュイティブ サージカル オペレーションズ, インコーポレイテッド
インテュイティブ サージカル オペレーションズ, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US12/617,937 external-priority patent/US8521331B2/en
Application filed by インテュイティブ サージカル オペレーションズ, インコーポレイテッド, インテュイティブ サージカル オペレーションズ, インコーポレイテッド filed Critical インテュイティブ サージカル オペレーションズ, インコーポレイテッド
Publication of JP2013510674A publication Critical patent/JP2013510674A/ja
Application granted granted Critical
Publication of JP5847725B2 publication Critical patent/JP5847725B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/35Surgical robots for telesurgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/76Manipulators having means for providing feel, e.g. force or tactile feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/98Identification means for patients or instruments, e.g. tags using electromagnetic means, e.g. transponders
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/086Proximity sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B15/00Systems controlled by a computer
    • G05B15/02Systems controlled by a computer electric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00221Electrical control of surgical instruments with wireless transmission of data, e.g. by infrared radiation or radiowaves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • A61B2034/741Glove like input devices, e.g. "data gloves"
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • A61B2090/3945Active visible markers, e.g. light emitting diodes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/397Markers, e.g. radio-opaque or breast lesions markers electromagnetic other than visible, e.g. microwave
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Robotics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)
  • Prostheses (AREA)

Description

本発明の態様は、低侵襲手術システムの制御に関し、より具体的に、低侵襲手術システムを制御する際に、執刀医の手の運動を使用することに関する。
関連技術
手の位置およびジェスチャーを追跡するための方法および技法が知られている。例えば、いくつかのビデオゲームコントローラは、ハンドトラッキング入力を利用する。例えば、Nintendo Wii(登録商標)ゲームプラットフォームは、無線位置および配向センシング遠隔操作を支援する(Wii(登録商標)は、米国ワシントン州レッドモンド、Nintendo of America Incの登録商標である)。バットをスイングする、または魔法の杖を振る等のジェスチャーおよび他の身体的動作の使用は、このプラットフォームの基本ゲーム要素を提供する。Sony Playstation Moveは、Nintendo Wii(登録商標)ゲームプラットフォームに類似する特徴を有する。
CyberGlove Systemsの無線CyberGlove(登録商標)モーション捕獲データグローブは、各指に2つの屈曲センサを有する18個のデータセンサと、4個の外転センサと、親指の交差、手掌のアーチ、手首の屈曲、および手首の外転を測定するセンサとを含む。(CyberGlove(登録商標)は、カルフォルニア州サンノゼ、CyberGlove Systemsの登録商標である。)三次元追跡システムは、CyberGlove(登録商標)モーション捕獲データグローブとともに使用し、手のx、y、z、偏揺れ、ピッチ、転動位置、および配向情報を入手することができる。CyberGlove(登録商標)モーション捕獲データグローブのモーション捕獲システムは、デジタルプロトタイプ評価、バーチャルリアリティ生物力学、およびアニメーションに使用されている。
40個のセンサを有する別のデータグローブは、Measurand Inc.のShapeHandデータグローブである。Measurand Inc.のShapeClawポータブル軽量ハンドモーション捕獲システムは、空間における手および腕の位置および配向とともに、人指し指および親指の運動を捕獲する、フレキシブルリボンシステムを含む。
非特許文献1において、KimおよびChienは、ジェスチャー認識のためにPolhemusセンサを用いた三次元軌跡入力の使用について探求する。KimおよびChienは、三次元軌跡が、主にビデオベースのアプローチにおいて使用される、二次元ジェスチャーよりも優れた識別力を提供するため、この形態の入力を提案する。KimおよびChienは、彼らの実験に、Fakespace PinchGloveの背面に取り付けられたPolhemus磁気位置追跡センサを利用した。PinchGloveは、ユーザがジェスチャーの最初と最後を信号で伝える手段を提供しながら、Polhemusセンサが、ユーザの手の三次元軌跡を捕獲する。
非特許文献2では、PCおよびウェブカメラ等の汎用ハードウェアおよび低コストセンサを使用するハンドジェスチャー認識による、視覚的相互作用環境内でのアプリケーション用のリアルタイムビジョンシステムが提案されている。非特許文献3では、視覚ベースのハンドジェスチャーに関するレビューが提示された。提示された1つの結論は、大部分のアプローチが、制御された研究室設定において適切であり得るが、任意の設定に一般化しないいくつかの基礎的前提に依存するということであった。著者らは、「ハンドジェスチャーインターフェースのコンピュータビジョン法は、双方向性およびユーザビリティを達成するためのロバスト性および速度に関して、現在の性能を越えなければならない」と述べている。医療領域において、ジェスチャー認識は、放射線画像の滅菌ブラウジングに対して考慮されている。非特許文献4を参照されたい。
In−Cheol KimおよびSung−Il Chien、「Analysis of 3D Hand Trajectory Gestures Using Stroke−Based Composite Hidden Markov Models」、Applied Intelligence,Vol.15 No.2,p.131−143,2001年9〜10月 Elena Sanchez−Nielsenほか、「Hand Gesture Recognition for Human−Machine Interaction」、Journal of WSCG,Vol.12,No.1−3,ISSN 1213−6972,WSCG’2004,February 2−6 20003,Plzen Czech Republic Pragati Gargほか、「Vision Based Hand Gesture Recognition」、49 World Academy of Science,Engineering and Technology,972−977(2009) Juan P.Wachsほか、「A Gesture−based Tool for Sterile Browsing of Radiology Images」,Journal of the American Medical Informatics Association(2008;15:321−323,DOI 10.1197/jamia.M24)
一態様において、低侵襲手術システムにおけるハンド追跡システムは、ヒトの手の一部のロケーションを追跡する。低侵襲手術システムのシステム制御パラメータは、ヒトの手の一部のロケーションに基づいて生成される。低侵襲手術システムの操作は、システム制御パラメータを使用して制御される。
一態様において、ヒトの手の一部に装着されたセンサ素子を追跡して、ヒトの手の一部の位置を取得する。制御点の位置および配向は、ロケーションに基づく。低侵襲手術システムにおけるデバイスの遠隔操作は、制御点のロケーションおよび配向に基づいて制御される。一態様において、デバイスは、遠隔操作されるスレーブ手術器具である。別の態様において、デバイスは、手術部位のビデオ画像に提示される仮想プロキシである。仮想プロキシの例には、仮想スレーブ手術器具、バーチャルハンド、および仮想テレストレーションデバイスが挙げられる。
さらなる態様において、制御点の位置および配向に加えて、グリップ閉合パラメータが生成される。遠隔操作スレーブ手術器具のエンドエフェクタのグリップは、グリップ閉合パラメータに基づいて制御される。
別の態様において、システム制御パラメータは、スレーブ手術器具の遠隔操作に使用される制御点の位置および配向である。さらに別の態様において、システム制御パラメータは、両手から決定される。システム制御パラメータは、両手の一方に対する制御点の位置および配向、ならびに両手のもう一方に対する制御点の位置および配向である。制御点は、低侵襲手術システムにおいて、内視鏡カメラマニピュレータの遠隔操作に使用される。
さらに別の態様において、ヒトの手の一部上のセンサ素子に加えて、第2のヒトの手の一部に装着されたセンサ素子を追跡する。第2の制御点の位置および配向は、第2のヒトの手の一部のロケーションに基づいて生成される。本態様において、制御点および第2の制御点は、遠隔操作制御に使用される。
さらに別の態様において、ヒトの手の指に装着されたセンサ素子を追跡する。指間の運動を決定し、低侵襲手術システムにおいて遠隔操作されるスレーブ手術器具の配向は、その運動に基づいて制御する。
運動が第1の運動である場合、制御ステップは、スレーブ手術器具の手首の先端を、その指向方向に転動させるステップを含む。運動が第1の運動とは異なる第2の運動である場合、制御ステップは、スレーブ手術器具の偏揺れ運動を含む。
低侵襲手術システムは、ハンド追跡システム、およびハンド追跡システムに連結されるコントローラを含む。ハンド追跡システムは、ヒトの手の一部に装着される複数のセンサ素子のロケーションを追跡する。コントローラは、制御点の位置および配向に対してロケーションを変える。コントローラは、制御点に基づいて、低侵襲手術システムにおけるデバイスを移動させるコマンドを送信する。再度、一態様において、デバイスは、遠隔操作されるスレーブ手術器具であるが、別の態様において、デバイスは、手術部位のビデオ画像に提示される仮想プロキシである。
一態様において、システムはまた、複数の追跡センサを含むマスターフィンガー追跡デバイスを含む。マスターフィンガー追跡デバイスは、圧縮性本体、圧縮性本体に固定された第1のフィンガーループ、および圧縮性本体に固定された第2のフィンガーループをさらに含む。複数の追跡センサ中の第1の追跡センサは、第1のフィンガーループに取り付けられる。複数の追跡センサ中の第2のラッキングセンサは、第2のフィンガーループに取り付けられる。
したがって、一態様において、低侵襲手術システムは、マスターフィンガー追跡デバイスを含む。マスターフィンガー追跡デバイスは、圧縮性本体と、圧縮性本体に固定される第1のフィンガーループと、圧縮性本体に固定される第2のフィンガーループと、を含む。第1の追跡センサは、第1のフィンガーループに取り付けられる。第2の追跡センサは、第2のフィンガーループに取り付けられる。
圧縮性本体は、第1の末端、第2の末端、および外面を含む。外面は、第1の末端と第2の末端との間に伸長する第1の部分、および第1の末端と第2の末端との間に伸長する、第1の部分とは反対に除去される第2の部分とを含む。
圧縮性本体はまた、長さを有する。長さは、ヒトの手の第1指と第2指との間の分離を制限するように選択される。
第1のフィンガーループは、第1の末端に隣接する圧縮性本体に固定され、外面の第1の部分を中心として伸長する。第1のフィンガーループをヒトの手の第1指に設置するとき、外面の第1の部分の最初の部分が第1指に接触する。
第2のフィンガーループは、第2の末端に隣接する圧縮性本体に固定され、外面の第1の部分を中心として伸長する。第2のフィンガーループをヒトの手の第2指に設置するとき、外面の第1の部分の2番目の部分が第2指に接触する。第1指および第2指が相互に対して移動するとき、圧縮性本体は、圧縮性本体が移動への抵抗を提供するように2本の指の間に位置付けられる。
圧縮性本体の厚さは、第1指の先端がちょうど第2指の先端に触れたとき、圧縮性本体が完全に圧縮されないように選択される。圧縮性本体は、遠隔操作されるスレーブ手術器具のエンドエフェクタのグリップ力に対応して、触覚フィードバックを提供するように構成される。
一態様において、第1および第2の追跡センサは、受動電磁センサである。さらなる態様において、各受動電磁追跡センサは、6度の自由度を有する。
マスターフィンガー追跡デバイスを使用する方法は、ヒトの手の第1指に装着されたセンサの第1のロケーションと、第2指に装着された別のセンサの第2のロケーションとを追跡するステップを含む。各ロケーションは、N度の自由度を有し、Nはゼロより大きい整数である。第1のロケーションおよび第2のロケーションは、制御点のロケーションにマッピングされる。制御点のロケーションは、6度の自由度を有する。6度の自由度は、2*N度の自由度以下である。第1のロケーションおよび第2のロケーションはまた、1度の自由度を有するパラメータにマッピングされる。低侵襲手術システムにおけるスレーブ手術器具の遠隔操作は、制御点のロケーションおよびパラメータに基づいて制御される。
第1の態様において、パラメータは、グリップ閉合距離である。第2の態様において、パラメータは配向を含む。別の態様において、Nは6であるが、異なる態様において、Nは5である。
なおもさらなる態様において、ヒトの手の一部に装着されたセンサ素子は、ヒトの手の一部の複数のロケーションを得るように追跡される。複数のロケーションに基づいて、複数の既知のハンドジェスチャーからハンドジェスチャーが選択される。低侵襲手術システムの操作は、ハンドジェスチャーに基づいて制御される。
ハンドジェスチャーは、ハンドジェスチャーポーズ、ハンドジェスチャー軌道、またはハンドジェスチャーポーズとハンドジェスチャーとの組み合わせのうちのいずれか1つであり得る。ハンドジェスチャーがハンドジェスチャーポーズであり、複数の既知のハンドジェスチャーが、複数の既知のハンドジェスチャーポーズを含む場合、低侵襲手術システムのユーザインターフェースは、ハンドジェスチャーポーズによって制御される。
さらに、一態様において、ハンドジェスチャーがハンドジェスチャーポーズである場合、ハンドジェスチャーの選択は、追跡された複数のロケーションから認められる特徴集合を生成することを含む。認められる特徴集合を、複数の既知のハンドジェスチャーポーズの特徴集合と比較する。既知のハンドジェスチャーのうちの1つは、ハンドジェスチャーポーズとして選択される。選択された既知のハンドジェスチャーポーズは、システムコマンドにマッピングされ、システムコマンドは、低侵襲手術システムにおいてトリガされる。
なおもさらなる態様において、ハンドジェスチャーがハンドジェスチャー軌道を含む場合、低侵襲手術システムのユーザインターフェースは、ハンドジェスチャー軌道に基づいて制御される。
ハンド追跡システムおよびコントローラを有する低侵襲手術システムにおいて、コントローラは、ハンドジェスチャーのロケーションを変える。コントローラは、ハンドジェスチャーに基づいて、低侵襲手術システムの操作モードを修正するようにコマンドを送る。
さらに別の態様において、ヒトの一部に装着されたセンサ素子を追跡して、ヒトの手の一部のロケーションを得る。ロケーションに基づいて、この方法は、ヒトの手の一部の位置が低侵襲手術システムのマスターツールグリップの位置からの閾値距離内であるか否かを決定する。低侵襲手術システムの操作は、決定の結果に基づいて制御される。一態様において、マスターツールグリップに連結された遠隔操作スレーブ手術器具の遠隔操作は、決定の結果に基づいて制御される。別の態様において、ユーザインターフェースの表示、またはプロキシビジュアルの表示は、決定の結果に基づいて制御される。
一態様において、ヒトの手の一部の位置は、制御点の位置によって特定される。別の態様において、ヒトの手の一部の位置は、人指し指の位置である。
低侵襲手術システムは、ハンド追跡システムを含む。ハンド追跡システムは。ヒトの手の一部のロケーションを追跡する。コントローラは、執刀医の手が低侵襲手術システムの特定操作を許可するのに十分なだけマスターツールグリップに近接しているか否かを決定する際に、そのロケーションを使用する。
低侵襲手術システムはまた、ハンド追跡システムに連結されるコントローラを含む。コントローラは、ロケーションをシステム制御パラメータに変換し、そのシステム制御パラメータに基づいて、低侵襲手術システムにコマンドを投入する。
本明細書は、例えば、以下の項目も提供する。
(項目1)
ヒトの手の一部に装着されたセンサ素子を追跡して、該ヒトの手の一部のロケーションを得るステップと、
該ヒトの手の一部の位置が、低侵襲手術システムのマスターツールグリップの位置からの閾値距離内にあるか否かを決定するステップと、
該決定するステップの結果に基づいて、該低侵襲手術システムの操作を制御するステップと
を含む、方法。
(項目2)
前記制御するステップは、
前記距離が、閾値未満のときに、前記マスターツールグリップに結合されている遠隔操作スレーブ手術器具の遠隔操作を可能にするステップと、
該距離が該閾値より大きいときに、該遠隔操作スレーブ手術器具の遠隔操作を停止するステップと
を含む、項目1に記載の方法。
(項目3)
前記制御するステップは、
前記距離が、閾値未満のときに、前記低侵襲手術システムのディスプレイ上のユーザインターフェースをオフにするステップと、
該距離が、該閾値より大きいときに、該低侵襲手術システムのディスプレイ上のユーザインターフェースをオンにするステップと
を含む、項目1に記載の方法。
(項目4)
前記ヒトの手の一部の位置は、制御点位置を含む、項目1に記載の方法。
(項目5)
前記ヒトの手の一部の位置は、人差し指の位置を含む、項目1に記載の方法。
(項目6)
前記ヒトの手の一部のロケーションは、追跡された位置を含み、前記決定するステップは、
該追跡された位置を共通座標フレームにおける第1の位置にマッピングするステップと、
前記マスターツールグリップの位置を該共通座標フレームにおける第2の位置にマッピングするステップと
をさらに含む、項目2に記載の方法。
(項目7)
前記決定するステップは、
前記第1の位置と前記第2の位置との間の前記共通座標フレームにおける距離を生成するステップと、
該距離を前記閾値距離と比較するステップと
をさらに含む、項目6に記載の方法。
(項目8)
前記ヒトの手の一部に装着されたセンサ素子は、複数の基準マーカーを含む、項目1に記載のシステム。
(項目9)
前記ヒトの手の一部に装着されたセンサ素子は、受動電磁センサを含む、項目1に記載のシステム。
(項目10)
低侵襲手術システムであって、
該低侵襲手術システムは、
第1のロケーションを有しているマスターツールグリップと、
ハンド追跡システムであって、該ハンド追跡システムは、ヒトの手の一部に装着されたセンサ素子の第2のロケーションを追跡する、ハンド追跡システムと、
該ハンド追跡システムに連結されているコントローラであって、該コントローラは、該ヒトの手の一部の位置と、前記マスターツールグリップの位置との間の距離が、閾値距離内であるか否かを決定し、決定の結果に基づいて、システムイベントを該低侵襲手術システムに投入する、コントローラと
を含む、低侵襲手術システム。
(項目11)
前記イベントは、前記距離が、前記閾値距離より大きいときに、ハンド非存在イベントである、項目10に記載のシステム。
(項目12)
前記イベントは、前記距離が、前記閾値距離未満のときに、ハンド存在イベントである、項目10に記載のシステム。
(項目13)
前記ヒトの手の一部の位置は、前記第2のロケーションにおける人差し指の位置を含む、項目10に記載のシステム。
(項目14)
前記ヒトの手の一部の位置は、前記第2のロケーションから決定された制御点位置を含む、項目10に記載のシステム。
(項目15)
前記ヒトの手の一部に装着されたセンサ素子は、複数の基準マーカーを含む、項目10に記載のシステム。
(項目16)
前記ヒトの手の一部に装着されたセンサ素子は、受動電磁センサを含む、項目10に記載のシステム。
(項目17)
処理ユニットと、
前記システムイベントを受信するように構成されているシステムコントローラと、
前記プロセッサユニットを実行するモジュールによって生成されたユーザインターフェースと、
ディスプレイデバイスと
をさらに含み、
該システムイベントが、ハンド非存在イベントの際に、該システムコントローラは、該ディスプレイデバイス上のユーザインターフェースのディスプレイをオンにし、
該システムイベントが、ハンド存在イベントの際に、該システムコントローラーは、該ディスプレイデバイス上のユーザインターフェースのディスプレイをオフにする、項目10に記載のシステム。
(項目18)
前記マスターツールグリップに連結可能であり、該マスターツールグリップから分離可能である遠隔操作低侵襲手術器具と、
前記システムイベントを受信するように構成されているシステムコントローラと
をさらに含み、
該システムイベントが、ハンド存在イベントの際に、該遠隔操作手術器具は、該マスターツールグリップに連結され、該システムコントローラは、該遠隔操作低侵襲手術器具の遠隔操作を可能にし、
該システムイベントが、ハンド非存在イベントの際に、該システムコントローラは、該遠隔操作低侵襲手術器具の遠隔操作を停止する、項目10に記載のシステム。
図1は、ハンド追跡システムを含む、低侵襲遠隔操作手術システムの高レベル図である。 図2A〜2Gは、図1の低侵襲遠隔操作手術システムの遠隔操作スレーブ手術器具を制御するために使用される、ハンド追跡マスターツールグリップの様々な構成の例である。 図2A〜2Gは、図1の低侵襲遠隔操作手術システムの遠隔操作スレーブ手術器具を制御するために使用される、ハンド追跡マスターツールグリップの様々な構成の例である。 図2A〜2Gは、図1の低侵襲遠隔操作手術システムの遠隔操作スレーブ手術器具を制御するために使用される、ハンド追跡マスターツールグリップの様々な構成の例である。 図2A〜2Gは、図1の低侵襲遠隔操作手術システムの遠隔操作スレーブ手術器具を制御するために使用される、ハンド追跡マスターツールグリップの様々な構成の例である。 図2A〜2Gは、図1の低侵襲遠隔操作手術システムの遠隔操作スレーブ手術器具を制御するために使用される、ハンド追跡マスターツールグリップの様々な構成の例である。 図2A〜2Gは、図1の低侵襲遠隔操作手術システムの遠隔操作スレーブ手術器具を制御するために使用される、ハンド追跡マスターツールグリップの様々な構成の例である。 図2A〜2Gは、図1の低侵襲遠隔操作手術システムの遠隔操作スレーブ手術器具を制御するために使用される、ハンド追跡マスターツールグリップの様々な構成の例である。 図3A〜3Dは、図1の低侵襲遠隔操作手術システムにおいて、システムモードを制御するために使用される、ハンドジェスチャーポーズの例である。 図3A〜3Dは、図1の低侵襲遠隔操作手術システムにおいて、システムモードを制御するために使用される、ハンドジェスチャーポーズの例である。 図3A〜3Dは、図1の低侵襲遠隔操作手術システムにおいて、システムモードを制御するために使用される、ハンドジェスチャーポーズの例である。 図3A〜3Dは、図1の低侵襲遠隔操作手術システムにおいて、システムモードを制御するために使用される、ハンドジェスチャーポーズの例である。 図4A〜4Cは、図1の低侵襲遠隔操作手術システムにおいて、システムモードを制御するためにも使用される、ハンドジェスチャー軌道の例である。 図4A〜4Cは、図1の低侵襲遠隔操作手術システムにおいて、システムモードを制御するためにも使用される、ハンドジェスチャー軌道の例である。 図4A〜4Cは、図1の低侵襲遠隔操作手術システムにおいて、システムモードを制御するためにも使用される、ハンドジェスチャー軌道の例である。 図5は、カメラベースの追跡システムにおいて、ハンドトラッキングするための基準マーカーの設置の例示である。 図6Aおよび6Bは、図1の執刀医のコンソールのより詳細な図であり、図1の低侵襲遠隔操作手術システムによって、ハンドトラッキングに利用される座標系の例を含む。 図6Aおよび6Bは、図1の執刀医のコンソールのより詳細な図であり、図1の低侵襲遠隔操作手術システムによって、ハンドトラッキングに利用される座標系の例を含む。 図7は、手に装着されたツールグリップおよび図1の低侵襲遠隔操作手術システムによって、ハンドトラッキングに使用されるロケーションおよび座標系のより詳細な図である。 図8は、図1の低侵襲遠隔操作手術システムにおいて、手の指を追跡するために追跡システムにおいて使用され、スレーブ手術器具の遠隔操作に関するデータを生成するために使用されるプロセスのプロセスフロー図である。 図9は、図8のロケーションデータを制御点およびグリップパラメータにマッピングするプロセスのより詳細なプロセスフロー図である。 図10は、ハンドジェスチャーポーズおよびハンドジェスチャー軌道を認識するために追跡システムにおいて使用されるプロセスのプロセスフロー図である。 図11は、手の存在検出のために追跡システムにおいて使用されるプロセスのプロセスフロー図である。 図12は、マスターフィンガー追跡デバイスの一実施例の例示である。 図13は、プロキシビジュアルを含む、表示デバイスに提示されるビデオ画像の例示であり、本実施例では、仮想ゴースト器具および遠隔操作スレーブ手術器具を含む。 図14は、プロキシビジュアルを含む、表示デバイスに提示されるビデオ画像の例示であり、本実施例では、一対の仮想ハンドおよび遠隔操作スレーブ手術器具を含む。 図15は、プロキシビジュアルを含む、表示デバイスに提示されるビデオ画像の例示であり、本実施例では、仮想テレストレーションデバイス、および仮想ゴースト器具、ならびに遠隔操作スレーブ手術器具を含む。
図面において、3桁の参照番号の最初の桁は、その参照番号を有する素子が最初に現れる図面の図番を示し、4桁の参照番号の最初の2ケタは、その参照番号を有する素子が最初に現れる図の図番を示す。
本明細書で使用する、ロケーションは、位置および配向を含む。
本明細書で使用する、ハンドジェスチャー(ジェスチャーと呼ばれる場合がある)は、ハンドジェスチャーポーズ、ハンドジェスチャー軌道、およびハンドジェスチャーポーズとハンドジェスチャー軌道との組み合わせを含む。
本発明の態様は、低侵襲手術システム、例えば、カリフォルニア州サニーベール、Intuitive Surgical,Inc.によって市販されているda Vinci(登録商標)低侵襲遠隔操作手術システムの制御能力を、低侵襲手術システムを制御する際に手のロケーション情報を利用することによって増強させることができる。手の1本または複数の指の測定ロケーションを使用して、システム制御パラメータを決定し、それらを順に使用して、手術システムにおいてシステムコマンドをトリガする。システムコマンドは、手のロケーションが追跡されている人のロケーション、すなわち、その人が執刀医のコンソールにいるか否かに依存する。
測定されたロケーションが、執刀医のコンソールにおいてではなく、ヒトの手の指に対してである場合、システムコマンドは、手の配向と2本の指の相対運動との組み合わせに基づく遠隔操作スレーブ手術器具の一部の配向を変更するコマンドと、先端の運動が手の一部の運動に続くように、遠隔操作スレーブ手術器具の先端を移動させるコマンドとを含む。測定されたロケーションが、執刀医のコンソールにおける人の手の指に関する場合、システムコマンドは、スレーブ手術器具の運動が継続してマスターツールグリップの運動を追跡するのを許可するか、または防止するコマンドを含む。測定されたロケーションが、執刀医のコンソールにおいてではない人の手の指に関するか、または執刀医のコンソールにおける人の手の指に関するか、のいずれかである場合、システムコマンドは、システムまたはシステムの一部に、ハンドジェスチャーポーズに基づいて動作するように命令することと、システムまたはシステムの一部に、ハンドジェスチャー軌道に基づいて動作するように命令することと、を含む。
図1は、ハンド追跡システムを含む、低侵襲遠隔操作手術システム100、例えば、da Vinci(登録商標)手術システムの高レベル図である。da Vinci(登録商標)手術システムに随伴する他の部品、ケーブル等が存在するが、開示からの逸脱を回避するため、それらは図1において例示されない。低侵襲手術システムに関するさらなる情報は、例えば、米国特許出願第11/762,165号(2007年6月13日出願、「Minimally Invasive Surgical System」を開示)、および米国特許第6,331,181号(2001年12月18日発行、「Surgical Robotic Tools, Data Architecture,And Use」を開示)において見出されてもよく、いずれも参照することにより本明細書に組み込まれる。例えば、いずれも参照することにより本明細書に組み込まれる、米国特許第7,155,315号(2005年12月12日出願、「Camera Referenced Control In A Minimally Invasive Surgical Apparatus」を開示)、および第7,574,250号(2003年2月4日出願、「Image Shifting Apparatus And Method For A Telerobotic System」を開示)も参照されたい。
本実施例において、システム100は、複数のマニピュレータを有するカート110を含む。各マニピュレータおよびそのマニピュレータによって制御される遠隔操作スレーブ手術器具は、執刀医のコンソール185上のマスターツールマニピュレータに連結および分離することができ、さらにそれらは、マスターフィンガー追跡グリップ170と呼ばれる場合がある、機械的に非接地の非動力マスター追跡グリップ170に連結および分離することができる。
マニピュレータ113上に装着された立体内視鏡112は、患者111の体内の手術部位103の画像を提供し、ディスプレイ187および執刀医のコンソール185におけるディスプレイに表示される。画像は、立体内視鏡112の視野に、スレーブ手術デバイスのうちのいずれかの画像を含む。執刀医のコンソール185上のマスターツールマニピュレータと、スレーブ手術デバイスと、立体内視鏡112との間の相互作用は、既知のシステムと同様であるため、当該技術分野における有識者に知られている。
一態様において、執刀医181は、執刀医の手の少なくとも1本の指を動かし、順に、マスターフィンガー追跡グリップ170内のセンサにロケーションを変更させる。ハンドトラキングトランスミッタ175は、指の新しい位置および配向が、マスターフィンガー追跡グリップ170によって感知されるように、フィールドを提供する。新しく感知された位置および配向は、ハンド追跡コントローラ130に提供される。
一態様において、以下でさらに完全に説明されるように、ハンド追跡コントローラ130は、感知された位置および配向を、執刀医181の視界座標系における制御点の位置および制御点の配向にマッピングする。ハンド追跡コントローラ130は、このロケーション情報をシステムコントローラ140に送信し、順に、システムコマンドを、マスターフィンガー追跡グリップ170に連結される遠隔操作スレーブ手術器具に送信する。以下でさらに完全に説明されるように、マスターフィンガー追跡グリップ170、執刀医181は、例えば、遠隔操作スレーブ手術器具のエンドエフェクタのグリップ、ならびにエンドエフェクタに連結された手首に転動および偏揺れを制御することができる。
別の態様において、執刀医181の手の少なくとも一部、または執刀医180の手のハンドトラッキングを、ハンド追跡コントローラ130によって使用し、ハンドジェスチャーポーズが、執刀医によって行われるか、またはハンドジェスチャーポーズとハンドジェスチャー軌道との組み合わせが、執刀医によって行われるかを決定する。各ハンドジェスチャーポーズおよびハンドジェスチャーポーズと組み合わされる各軌道は、異なるシステムコマンドにマッピングされる。システムコマンドは、例えば、システムモードの変更を制御し、低侵襲手術システム100の他の態様を制御する。
例えば、既知の低侵襲手術システムに見られるように、足踏みペダルおよびスイッチを使用する代わりに、ハンドジェスチャー、ハンドジェスチャーポーズまたはハンドジェスチャー軌道のいずれかを使用して、(i)マスターツールグリップおよび関連する遠隔操作スレーブ手術器具の運動の間で追跡を開始し、(ii)マスタークラッチを起動し(スレーブ器具のマスター制御を分離する)、(iii)内視鏡カメラを制御し(内視鏡の移動または特徴、例えば、焦点または電子ズーム等をマスターに制御させる)、(iv)ロボットアームを交換し(2つのスレーブ器具間の特定のマスター制御を交換する)、(v)TILEPROTMを交換する(執刀医のディスプレイ上の補助ビデオウィンドウの表示をトグルする)。(TILEPROは、米国カリフォルニア州サニーベール、Intuitive Surgical,Inc.の商標である)。
システム100に2つのマスターツールグリップしかなく、執刀医180がその2つのマスターツールグリップに連結された2つの遠隔操作スレーブ手術器具以外のスレーブ手術器具の移動を制御する場合、執刀医は、第1のハンドジェスチャーを使用して、2つの遠隔操作スレーブ手術器具の一方または両方を所定位置に固定してもよい。次に、執刀医は、マスターツールグリップ異なるハンドジェスチャーを使用することによって、遠隔操作スレーブ手術器具に対するマスターツールグリップの一方または両方を、マニピュレータアームのもう一方によって保持される他のスレーブ手術器具と関連付け、本実装においては、遠隔操作スレーブ手術器具に対するマスターツールグリップの関連付けを交換する。執刀医181は、システム100に2つのマスターフィンガー追跡グリップしかない場合に同等の手順を行う。
さらに別の態様において、執刀医のコンソール185に装着されたハンドトラッキングユニット186は、執刀医180の手の少なくとも一部を追跡し、感知したロケーション情報をハンド追跡コントローラ130に送信する。ハンド追跡コントローラ130は、執刀医の手が、例えば、システムが追跡するのに十分なだけマスターツールグリップに近接しているか、例えば、スレーブ手術器具の運動は、マスターツールグリップの運動を追跡するかを決定する。以下でより完全に説明されるように、一態様において、ハンド追跡コントローラ130は、執刀医の手の位置および対応するマスターツールグリップの位置を決定する。2つの位置の差異が既定距離内、例えば、閾値分離未満である場合、追跡が許可され、そうでなければ追跡は抑制される。したがって、距離は、執刀医のコンソール185上のマスターツールグリップに関する、執刀医の手の存在の一指標として使用される。別の態様において、マスターツールグリップの位置に対する執刀医の手の位置が、閾値分離未満である場合、ディスプレイ上のユーザインターフェースの表示は抑制され、例えば、ディスプレイデバイス上でオフになる。逆に、マスターツールグリップの位置に対する執刀医の手の位置が、閾値分離を超える場合、ユーザインターフェースは、ディスプレイデバイス上に表示され、例えば、オンになる。
執刀医の手の存在検出は、長年の問題であった。存在検出は、異なる接触感知技術、例えば、容量性スイッチ、圧力センサ、および機械スイッチ等を使用して何度も試行された。しかしながら、これらのアプローチは、執刀医がマスターツールグリップを保持する方法および場所に異なる選好を有するため、本質的に問題がある。距離を存在の一指標として使用することは、この種の存在検出では、執刀医がマスターツールグリップに軽く触れると、瞬時に身体的接触を断ち、マスターツールグリップを調整できるようにするが、執刀医がマスターツールグリップを指で保持する方法を制約しないため有利である。
(ハンドトラッキングを介する手術器具の制御)
マスターフィンガー追跡グリップ270と呼ばれる場合がある、機械的に非接地の非動力マスターフィンガー追跡グリップ270の一実施例は、図2A〜2Dにおいて異なる構成で例示され、以下でより完全に説明される。マスターフィンガー追跡グリップ270は、指装着センサ211、212(指および親指装着センサ211、212と称される場合もある)を含み、人指し指292Bの先端および親指292Aの先端のそれぞれのロケーション(一実施例における位置および配向)を独立して追跡し、すなわち、執刀医の手の2本の指のロケーションを追跡する。したがって、既知の低侵襲手術システムにおけるマスターツールグリップのロケーションを追跡することとは対照的に、手自体のロケーションが追跡される。
一態様において、センサは、センサが装着される手の各指に対して、6度の自由度の追跡を提供する(3変換および3転動)。別の態様において、センサは、センサが装着される手の各指に対して、5度の自由度の追跡を提供する(3変換および2転動)。
なおもさらに別の態様において、センサは、センサが装着される手の各指に対して、3度の自由度の追跡を提供する(3変換)。2本の指がそれぞれ3度の自由度で追跡される場合、手首機序を含まないスレーブ手術器具を制御するには、合計6変換度の自由度で十分である。
パッド入りフォームコネクタ210は、指および親指装着センサ211、212の間に接続される。コネクタ210は、親指292Aおよび人指し指292B、すなわち、手の指291Rを、固定距離内に制約し、すなわち、マスターフィンガー追跡グリップ270が装着される手の指291Rの間の最大分離距離が存在する。親指292Aおよび人指し指292Bは、最大分離(図2A)から完全閉合構成(図2D)に移され、パッドは、正のフィードバックを提供し、執刀医181が、マスターフィンガー追跡グリップ170に連結された遠隔操作スレーブ手術器具のエンドエフェクタのグリップ力を制御するのを助ける。
図2Aにおいて、親指292Aおよび人指し指292Bがマスターフィンガー追跡グリップ270によって許可される最大距離だけ分離して示される位置の場合、グリップ力は最小である。逆に、親指292Aおよび人指し指292Bが、コネクタ210によって許可される限り近接している、すなわち、マスターフィンガー追跡グリップ270によって許可される最小距離だけ分離している、図2Dに示される位置において、グリップ力は最大である。図2Bおよび2Cは、中間グリップ力にマッピングされる位置を表す。
以下でより完全に説明されるように、図2A〜2Dにおける親指292Aおよび人指し指292Bのロケーション(位置および配向)は、グリップ閉合パラメータ、例えば、マスターフィンガー追跡グリップ270に連結された遠隔操作スレーブ手術器具のグリップを制御するために使用される、標準化グリップ閉合値にマッピングされる。特に、親指292Aおよび人指し指292Bの感知されたロケーションは、ハンド追跡コントローラ130によって、グリップ閉合パラメータにマッピングされる。
したがって、執刀医181の手の一部のロケーションが追跡される。追跡されたロケーションに基づいて、低侵襲手術システム100のシステム制御パラメータ、すなわち、グリップ閉合パラメータは、ハンド追跡コントローラ130によって生成され、システムコントローラ140に供給される。システムコントローラ140は、遠隔操作スレーブ手術器具に送信されるシステムコマンドを生成する際に、グリップ閉合パラメータを使用する。システムコマンドは、遠隔操作手術器具に指示して、グリップ閉合パラメータに対応するグリップ閉合を有するようにエンドエフェクタを構成させる。したがって、低侵襲手術システム100は、グリップ閉合パラメータを使用して、低侵襲手術システム100の遠隔操作スレーブ手術器具の操作を制御する。
図2A〜2Dにおける親指292Aおよび人指し指292Bのロケーション(位置および配向)はまた、ハンド追跡コントローラ130によって、制御点の位置および制御点の配向にマッピングされる。制御点の位置および制御点の配向は、執刀医181の視界座標系にマッピングされた後、コマンド信号を介して、システムコントローラ140に提供される。視界座標系における制御点の位置および制御点の配向は、システムコントローラ140によって、マスターフィンガー追跡グリップ170に連結されたスレーブ手術器具の遠隔操作に使用される。
再度、執刀医181の手の一部のロケーションが追跡される。追跡されたロケーションに基づいて、低侵襲手術システム100の別のシステム制御パラメータ、すなわち、制御点の位置および配向が、ハンド追跡コントローラ130によって生成される。ハンド追跡コントローラ130は、コマンド信号を、制御点の位置および配向とともにシステムコントローラ140に伝送する。システムコントローラ140は、遠隔操作スレーブ手術器具に送信されるシステムコマンドを生成する際に、制御点の位置および配向を使用する。システムコマンドは、遠隔操作手術器具に指示して、遠隔操作手術器具を制御点の位置および配向に基づいて位置付けさせる。したがって、低侵襲手術システム100は、制御点の位置および配向を使用して、低侵襲手術システム100の遠隔操作スレーブ手術器具の操作を制御する。
センサ211、212の位置に基づいて、グリップ閉合を決定することに加えて、人指し指292Bと親指292Aとの間の他の相対運動を使用して、スレーブ手術器具の偏揺れ運動および転動運動を制御する。スピンドルを転動させるように、指292Bと親指292Aを一緒に横方向にこすり合わせることは(想像上のスピンドル293を中心として(図2E)の矢印によって表される)、スレーブ手術器具の先端の転動を生じるが、人指し指と親指とを相互に沿って縦方向に前後に摺動させることは(矢印295によって表される指向方向で、軸に沿って(図2F)の矢印によって表される)、スレーブ手術器具のX軸に沿って、偏揺れ運動を生じる。これは、人指し指の先端位置と親指の先端位置との間のベクトルをマッピングすることによって達成され、制御点の配向のX軸を定義する。人指し指および親指は、それぞれ軸295に沿って対称的に摺動しているため、制御点の位置は比較的安定したままである。人指し指および親指の運動は、完全に対称的な運動ではないが、位置は依然として十分に安定したままであり、ユーザは、起こり得るあらゆる摂動を容易に修正することができる。
再度、執刀医181の手の一部のロケーションが追跡される。追跡されたロケーションに基づいて、さらに別のシステム制御パラメータ、すなわち、執刀医の手291Rの2本の指の間の相対運動が、ハンド追跡コントローラ130によって生成される。
ハンド追跡コントローラ130は、相対運動をマスターフィンガー追跡グリップ170に連結された遠隔操作スレーブ手術器具の配向に変換する。ハンド追跡コントローラ130は、配向とともにコマンド信号をシステムコントローラ140に送信する。この配向は、絶対配向マッピングであるが、システムコントローラ140は、一態様において、あらゆる他の受動ジンバルマスターツールグリップからの配向入力と同一の方法で、遠隔操作中にラチェットとともにこの入力を使用する。ラチェットの一実施例は、参照することによりその全体が本明細書に組み込まれる、同一出願人による米国特許出願第12/495,213号(2009年6月30日出願、「Ratcheting For Master Alignment Of A Teleoperated Surgical Instrument」を開示)に記載される。
システムコントローラ140は、遠隔操作スレーブ手術器具に送信されるシステムコマンドを生成する際に、配向を使用する。システムコマンドは、遠隔操作手術器具に指示して、遠隔操作手術器具を配向に基づいて転動させる。したがって、低侵襲手術システム100は、2本の指の間の運動を使用して、低侵襲手術システム100の遠隔操作スレーブ手術器具の操作を生後する。
運動が第1の運動である場合、例えば、スピンドルを転動させるように、指292Bと親指292Aを横方向にこすり合わせる場合、配向は転動であり、システムコマンドは、指向方向に沿って、スレーブ手術器具の手首の先端転動をもたらす。運動が第1の運動とは異なる第2の運動である場合、例えば、人指し指と親指とを相互に沿って縦方向に前後に摺動させる場合(図2F)、配向は偏揺れであり、システムコマンドは、スレーブ手術器具の手首の偏揺れ運動をもたらす。
さらに別の態様において、執刀医が、システム操作モードをジェスチャー認識モードに変更すると、両手が追跡され、一態様において、手に装着されるセンサの感知された位置および配向に基づいて、両手の制御点および配向が生成される。例えば、図2Gに例示されるように、それぞれの手の親指および人指し指の先端が一緒に接触して、円のような形態を形成する。それぞれの手の感知位置は、ハンド追跡コントローラ130によって、一対の制御点位置にマッピングされる。制御点の対は、カメラ制御システムイベントとともに、システムコントローラ140に送信される。
したがって、本態様において、執刀医181のそれぞれの手の一部のロケーションが追跡される。低侵襲手術システム100の別のシステム制御パラメータ、すなわち、一対の制御点位置が、追跡されたロケーションに基づいて、ハンド追跡コントローラ130によって生成される。ハンド追跡コントローラ130は、一対の制御点位置を、カメラ制御システムイベントとともに、システムコントローラ140に送信する。
カメラ制御システムイベントに応答して、システムコントローラ140は、一対の制御点位置に基づいて、カメラ制御システムコマンドを生成する。カメラ制御システムコマンドは、低侵襲手術システム100の遠隔操作内視鏡カメラマニピュレータに送信される。したがって、低侵襲手術システム100は、一対の制御点位置を使用して、低侵襲手術システム100の遠隔操作内視鏡カメラマニピュレータの操作を制御する。
(ハンドジェスチャーポーズおよびハンドジェスチャー軌道を介するシステム制御)
本態様において、ジェスチャー検出モードの操作に置かれた後、ハンド追跡コントローラ130は、ハンドジェスチャーポーズ、またはハンドジェスチャーポーズおよびハンドジェスチャー軌道を検出する。コントローラ130は、ハンドジェスチャーポーズを、あるシステムモード制御コマンドにマッピングし、同様に、コントローラ130は、ハンドジェスチャー軌道を、他のシステムモード制御コマンドにマッピングする。ポーズおよび軌道のマッピングは、独立しているため、例えば、手動のシグナル言語トラッキングとは異なることに留意されたい。既知の低侵襲手術システムに見られるように、スイッチ、多数のフットペダル等を操作する代わりに、ハンドジェスチャーポーズおよびハンドジェスチャー軌道を使用して、システムコマンドを生成し、システム100を制御する能力は、システム100の優れた使い易さを執刀医に提供する。
執刀医が立っている場合、システム100を制御するためのハンドジェスチャーポーズおよびハンドジェスチャー軌道の使用は、執刀医が眼を離して、および/またはスクリーンを見ること、ならびに執刀医がシステムモードを変更する場合に、フットペダルまたはスイッチを探すことが不要になる。最後に、様々なスイッチおよびフットペダルの排除は、低侵襲手術システムに要するフロアスペースを減少させる。
低侵襲手術システム100を制御するために使用されるハンドジェスチャーポーズおよびハンドジェスチャー軌道の特定の集合は、各ハンドジェスチャーポーズおよび各ハンドジェスチャー軌道が明白である限り、重要でない。特に、1つのハンドジェスチャーポーズは、ハンド追跡コントローラ130によって、ポーズの集合における1つまたは複数の他のハンドジェスチャーポーズとして解釈されるべきではなく、ハンドジェスチャー軌道は、軌道の集合における複数のハンドジェスチャー軌道として解釈されるべきではない。したがって、以下に論じられるハンドジェスチャーポーズおよびハンドジェスチャー軌道は、単なる例示であり、限定することを意図しない。
図3A〜3Dは、それぞれハンドジェスチャーポーズ300A〜300Dの実施例である。図4A〜4Cは、ハンドジェスチャー軌道の実施例である。例えば、図2Aの構成は、図3Aのそれに類似しているように見えるが、操作モードの低侵襲手術システム100は、2つの構成が使用される場合は異なることに留意されたい。
図2Aにおいて、遠隔操作される低侵襲スレーブ手術器具は、マスターフィンガー追跡グリップ170に連結され、システム100は、遠隔操作される低侵襲スレーブ手術器具が、追跡される執刀医の手の動きに従うように、追跡モードである。図3A〜3Dおよび4A〜4Cにおいて、執刀医は、システム100をジェスチャー認識モードにした後、例示されるハンドジェスチャーポーズまたはハンドジェスチャー軌道のうちの1つを行う。ハンドジェスチャーポーズおよびハンドジェスチャー軌道は、システムモードの制御において使用され、追跡モードの操作では使用されない。例えば、ハンドジェスチャーポーズによって制御されるシステムモードは、視覚的表示を可能化、不可能化、および循環させ、視覚的表示をクラッチし、ならびにテレストレーションを描写/消去する。
ハンドジェスチャーポーズ300A(図3A)において、親指292Aおよび人指し指292Bは、マスタークラッチ閾値を超えて分離され、例えば、2本の手の指291R間の拡散は、115mmを超える。人指し指292Bを伸ばし、親指292Aを曲げたハンドジェスチャーポーズ300B(図3B)を使用して、ハンド追跡コントローラ130に、執刀医がハンドジェスチャー軌道を追跡していることをシグナル伝達する(図4Aおよび4Bを参照)。親指292Aを上に向け、人指し指292Bを曲げたハンドジェスチャーポーズ300C(図3C)を使用して、ユーザインターフェースをオンにし、ユーザインターフェースにおいてモードを循環させる。親指292Aを下に向け、人指し指292Bを曲げたハンドジェスチャーポーズ300D(図3D)を使用して、ユーザインターフェースをオフにする。他のハンドジェスチャーポーズには、「OK」ハンドジェスチャーポーズ、L字型ハンドジェスチャーポーズ等が挙げられる。
ハンド追跡コントローラ130は、一態様において、多次元特徴ベクトルを使用して、ハンドジェスチャーポーズを認識および識別する。最初に、複数のハンドジェスチャーポーズを特定する。次に、複数の特徴を含む特徴集合が特定される。特徴集合は、複数のポーズにおける各ハンドジェスチャーポーズを固有に識別するように設計される。
ハンドジェスチャーポーズ認識プロセスは、トレーニングデータベースを使用してトレーニングされる。トレーニングデータベースは、ハンドジェスチャーポーズのそれぞれに関する複数の事例を含む。複数の事例は、多数の異なる人によって行われたポーズの特徴ベクトルを含む。特徴集合は、トレーニングデータベースの各事例に対して生成される。これらの特徴集合は、以下でより完全に説明されるように、多次元ベイズ識別器をトレーニングするために使用される。
執刀医180が、ハンドジェスチャーモードの操作を入力する場合、執刀医は、スイッチを起動し、例えば、フットペダルを踏み、次に少なくとも片手でハンドジェスチャーポーズを行う。この実施例は、単一フットペダルを必要とするが、既知の低侵襲手術システムのフットトレイにおける他のフットペダルの排除を可能にしながら、依然として上記の利点を有することに留意されたい。ハンドトラッキングユニット186は、執刀医の片手または両手の親指および人指し指の感知された位置および配向を表す信号を、ハンド追跡コントローラ130に送信する。
執刀医の手の指に関するトラッキングデータを使用して、ハンド追跡コントローラ130は、観察された特徴集合を生成する。ハンド追跡コントローラ130は、次に、トレーニングされた多次元ベイズ識別器およびマハラノビス距離を使用して、観察された特徴集合が、複数のポーズにおけるハンドジェスチャーポーズの特徴集合である可能性、すなわち、確率を決定する。これは、複数のポーズにおけるハンドジェスチャーポーズのそれぞれに対して行われる。
ハンド追跡コントローラ130によって、観察されたハンドジェスチャーポーズとして選択される、複数のポーズにおけるハンドジェスチャーポーズは、マハラノビス距離が、そのハンドジェスチャーポーズのトレーニングデータベースにおいて、最大マハラノビス距離未満である場合に、最小マハラノビス距離を有するものである。選択されたハンドジェスチャーポーズは、システムイベントにマッピングされる。ハンド追跡コントローラ130は、システムイベントをシステムコントローラ140に投入する。
システムコントローラ140は、システムイベントを処理し、システムコマンドを発行する。例えば、ハンドジェスチャーポーズ300C(図3C)が検出される場合、システムコントローラ140は、システムコマンドをディスプレイコントローラ150に送信して、ユーザインターフェースをオンにする。それに応じて、ディスプレイコントローラ150は、プロセッサ151上のユーザインターフェースモジュール155の少なくとも一部を実行して、執刀医のコンソール185のディスプレイ上にユーザインターフェースを生成する。
したがって、本態様において、低侵襲手術システム100は、ヒトの手の一部のロケーションを追跡する。追跡されたロケーションに基づいて、システム制御パラメータが生成され、例えば、ハンドジェスチャーポーズが選択される。ハンドジェスチャーポーズを使用して、低侵襲手術システム100のユーザインターフェースを制御し、例えば、ユーザインターフェースを執刀医のコンソール185のディスプレイに表示する。
ユーザインターフェース制御は、単なる例示であり、限定することを意図しない。ハンドジェスチャーを使用して、既知の低侵襲手術システムにおける、例えば、マスタークラッチ、カメラ制御、カメラフォーカス、マニピュレータアーム交換等のモード変更のうちのいずれかを行うことができる。
ハンドジェスチャーポーズ認識プロセスが、観察されたハンドジェスチャーポーズがハンドジェスチャー軌道のハンドジェスチャーポーズであると決定した場合、システムイベントは、ポーズの認識に基づいて、ハンド追跡コントローラ130によって投入されない。代わりに、ハンドジェスチャー軌道認識プロセスが開始される。
本実施例において、ハンドジェスチャーポーズ300B(図3B)は、ハンドジェスチャー軌道を生成するために使用されるポーズである。図4Aおよび4Bは、ハンドジェスチャーポーズ300Bを使用して作製される、ハンドジェスチャー軌道400Aおよび400Bの二次元実施例である。図4Cは、使用され得るハンドジェスチャー軌道の他の二次元実施例を提示する。
一態様において、ハンドジェスチャー軌道認識プロセスは、隠れマルコフモデルΛを使用する。隠れマルコフモデルΛの確立分布を生成するために、トレーニングデータベースが必要とされる。トレーニングデータベースを取得する前に、ハンドジェスチャー軌道の集合を特定する。一態様において、図4Cの16ハンドジェスチャー軌道が選択される。
一態様において、多数の被検体を選択して、ハンドジェスチャー軌道のそれぞれを作製する。一実施例において、各被検体は、各軌道を既定回数行う。作製された各軌道の各被検体の位置および配向は、トレーニングデータベースに保存した。一態様において、以下でより完全に説明されるように、トレーニングデータベースを使用して、反復ボーム−ウェルチ法を使用する、個別の左右隠れマルコフモデルをトレーニングした。
執刀医が軌道を作製する場合、データは、ハンド追跡コントローラ130によって、観察配列Oに変換される。観察配列Oおよび隠れマルコフモデルλを用いて、ハンド追跡コントローラ130は、どのハンドジェスチャー軌道が観察された記号配列に対応するかを決定する。一態様において、ハンド追跡コントローラ130は、隠れマルコフモデルλを用いる前方再帰アルゴリズムを使用して、観察された記号配列の全確率を生成する。確率が閾値確率を超える場合、最高確率を有するハンドジェスチャー軌道が選択される。最高確率が閾値確率未満である場合、ハンドジェスチャー軌道は選択されず、処理が終了する。
選択されたハンドジェスチャー軌道をシステムイベントにマッピングする。ハンド追跡コントローラ130は、システムイベントをシステムコントローラ140に注入する。
システムコントローラ140は、システムイベントを処理し、システムコマンドを発行する。例えば、選択されたハンドジェスチャー軌道が、イベントにマッピングされて手術部位の照明レベルを変更する場合、システムコントローラ140は、システムイベントを照明器のコントローラに送信し、照明レベルを変更する。
(ハンド追跡を介した存在検出)
一態様において、上に示されるように、執刀医の手291R、291L(図6A)の位置を追跡し、低侵襲手術システム 100の遠隔操作が許可されるか否かを決定し、いくつかの態様において、ユーザインターフェースを執刀医に表示するか否かを決定する。再度、ハンド追跡コントローラ130は、執刀医180Bの手の少なくとも一部を追跡する(図6A)。ハンド追跡コントローラ130は、マスターツールグリップ、例えば、マスターツールグリップ621(図6B)のロケーションを生成し、マスターツールグリップ621L、621R(図6A)、および手の一部のロケーションを表す。ハンド追跡コントローラ130は、2つのロケーションを共通座標フレームにマッピングし、次に、共通座標フレームの2つのロケーション間の距離を決定する。距離は、執刀医の手の一部の追跡ロケーションに基づく、低侵襲手術システムのシステム制御パラメータである。
距離が安全閾値未満、すなわち、手の一部とマスターツールグリップとの間の最大許容分離未満であるとき、低侵襲手術システム100の遠隔操作が許可され、そうでなければ遠隔操作は抑制される。同様に、ユーザインターフェースの表示を制御するために存在検出を使用する態様において、距離が安全閾値未満、すなわち、手の一部とマスターツールグリップとの間の最大許容分離未満であるとき、低侵襲手術システム100のディスプレイ上のユーザインターフェースの表示が抑制され、そうでなければユーザインターフェースの表示が許可される。
したがって、距離は、低侵襲手術システム100の遠隔操作を制御する際に使用される。特に、ハンド追跡コントローラ130は、システムイベントをシステムコンゴローラ140に送信し、遠隔操作が許可されるか否かを示す。システムイベントに応答して、システムコントローラ140は、遠隔操作を可能にするか、または抑制するかのいずれかであるように、システム100を構成する。
(ハンドロケーション追跡技法)
上に詳述される追跡の種々の態様を考慮する前に、追跡技法の一実施例が説明される。本実施例は単なる例証であり、以下の説明に照らして、必要な手または指ロケーション情報を提供する、あらゆる追跡技法を利用することができる。
一態様において、パルスDC電磁追跡は、図2A〜2Dおよび図7に示されるように、手の2本の指、例えば、親指および人指し指に装着されたセンサとともに使用される。各センサは、6度の自由度を測定し、一態様において、8mm×2mm×1.5mmのサイズを有する。追跡システムは、0.8m半球の器用な作業空間および位置感知解像度0.5mmおよび0.1度を有する。更新速度は160ヘルツであり、4ミリ秒の感知待ち時間を有する。システムに組み込まれる場合、追加の待ち時間は、通信および追加のフィルタリングに起因して発生し得る。最大30ミリ秒の有効コマンド待ち時間が許容されることがわかった。
本態様において、追跡システムは、電磁ハンド追跡コントローラ、マスターフィンガー追跡グリップで使用するためのセンサ、およびハンド追跡トランスミッタを含む。本発明の一実施形態における使用に適した追跡システムは、米国バーモント州バーリントン、Ascension Technology Corporationから3DガイダンスtrakSTARTMシステムとして、ミッドレンジトランスミッタとともに入手できる(trakSTARTMは、Ascension Technology Corporationの商標である)。トランスミッタは、中距離を超える高精度追跡のために、パルスDC磁場を生成し、78cm(31インチ)と特定される。このシステムは、各センサに240〜420更新/秒のダイナミック追跡を提供する。小型能動センサの出力は、電力線雑音源の影響を受けない。トランスミッタとセンサとの間のクリアな視線が必要とされない。すべての態度追跡があり、慣性ドリフトまたは光学干渉はない。高い金属免疫があり、非磁気金属からの変形はない。
フィンガーカバーを有する電磁追跡システムが本明細書において使用されるが、これは単なる例示であり、限定することを意図しない。例えば、ペン型デバイスは、執刀医によって保持され得る。ペン型デバイスは、デバイスの外面に3つ以上の非共線的基準マーカーを有するフィンガーピースである。通常、少なくとも3つの基準マーカーをあらゆる視点で可視化するために、より多くの基準マーカーが、自己遮蔽に起因して使用される。基準マーカーは、フィンガーピースの6自由度(3変換および3転動)の運動、およびしたがって、ペン型デバイスを保持する手の運動を決定する。ペン型デバイスはまた、一態様においてグリッピングを感知する。
ペン型デバイスを、既知のパラメータの2つ以上のカメラによって見て、基準マーカーを3次元でローカライズし、フィンガーピースの3次元ポーズを推測する。基準マーカーは、例えば、1)カメラに近接して照明を有する逆反射球、2)カメラに近接して照明を有する凹凸半球、または3)(点滅)LED等の活性マーカーとして実装され得る。一態様において、フィンガーピースの近赤外照明が使用され、フィルターを使用して、カメラでの可視スペクトルを遮断し、背景クラッタからの妨害を最小限にする。
別の態様において、データグローブ501(図5)または素手502が使用され、基準マーカー511は、執刀医が装着するグローブ501の親指および人指し指(および/またはグローブの他の指)および/または手502の皮膚に直接取り付けられる。再度、冗長マーカーを使用して、自己遮蔽に対応することができる。また基準マーカーを他の指に装着して、特異的に定義されたハンドジェスチャーを通して、より多くのユーザインターフェース特徴を可能にすることができる。
基準マーカーの三次元ロケーションは、共通視界を有する複数カメラの三角測量によって計算される。基準マーカーの3次元ロケーションを使用して、手の3次元ポーズ(変換および転動)およびグリップサイズを推測する。
マーカーロケーションは、使用前に較正する必要がある。例えば、執刀医は、マーカーを有する手を異なるポーズでカメラに示すことができる。次に、異なるポーズを較正に使用する。
さらに別の態様において、マーカーのないハンド追跡が使用される。多関節ハンド運動は、1つまたは複数のカメラから見られる画像を使用し、コンピュータソフトウェアを実行することによってこれらの画像を処理することにより追跡することができる。実行しているコンピュータソフトウェアは、有用となる手のすべての自由度を追跡する必要はない。実行しているソフトウェアは、手術ツールを本明細書において示されるように制御するために有用となる手の2本の指に関連する一部を追跡すればよい。
カメラベースの追跡において、測定値の精度は、画像におけるマーカーのローカライゼーション精度、カメラの形状に起因する3次元再構成制度、および冗長データ、例えば、最小数を超える、例えば、3つの基準マーカー、最小数(1または2)を超えるカメラ、ならびに時間平均およびフィルタリングに依存する。
3次元再構成精度は、カメラ構成の精度に大きく依存する。執刀医のコンソール上の既知のロケーションに取り付けられたいくつかの基準マーカーを使用して、執刀医のコンソールに関する多眼カメラの外因性パラメータ(転動および変換)を決定することができる。このプロセスは、自動に行うことができる。活性基準マーカーは、較正プロセス中および手順前にのみオンであるため、較正基準マーカーに使用することができる。手順中は較正基準マーカーをオフにして、執刀医の手のローカライズに使用される基準マーカーとの混乱を避ける。また相対的外因性パラメータは、カメラの共通視野において移動するマーカーを観察することによって計算することもできる。
使用に適した他の追跡技術には、これらに限定されないが、慣性追跡、深度カメラ追跡、およびファイバー屈曲感知が挙げられる。
本明細書で使用する、追跡センサと呼ばれる場合があるセンサ素子は、上述されるハンド追跡技法、例えば、能動電磁センサ、基準マーカーのうちのいずれかに対するセンサ、または他の技法のうちのいずれかに対するセンサであり得る。
(座標系)
上述される様々なプロセスをさらに詳細に考慮する前に、執刀医のコンソール185Bの一実施例(図6A)が考慮され、以下の実施例において使用するために、様々な座標系が定義される。執刀医のコンソール185Bは、執刀医のコンソール185の一実施例である。執刀医のコンソール185Bは、ビューア610と称される場合がある3次元ビューア610、マスターツールグリップ62L、62Rを有するマスターツールマニピュレータ620L、620R、およびベース630を含む。マスターツールグリップ621(図6B)は、マスターツールグリップ621L、621Rのより詳細な図である。
マスターツールマニピュレータ620L、620Rのマスターツールグリップ621L、621Rは、執刀医180Bによって、人指し指および親指を使用して保持され、標的および把持が、直感的ポインティングおよびピンチング運動を伴うようにする。マスターツールマニピュレータ620L、620Rを、マスターツールグリップ621L、621Rと合せて使用し、既知の低侵襲遠隔操作手術システムにおける既知のマスターツールマニピュレータと同一の方法で、遠隔操作スレーブ手術器具、遠隔操作内視鏡等を制御する。またマスターツールマニピュレータ620L、620R、およびマスターツールグリップ621L、621Rの位置座標は、スレーブ手術器具を制御する際に使用される運動学からわかる。
通常ビューイングモードの操作において、ビューア610は、3次元画像の手術部位103を立体内視鏡112から表示する。ビューア610は、執刀医の手付近のコンソール185B(図6B)上に位置付けられ、執刀医180Bが手術部位103を直接見下ろしていると感じるように、ビューア610において見られる手術部位の画像が配向されるようにする。画像における手術器具は、執刀医180Bは自身の手の位置に基づいて予測するため、執刀医の手が配置および配向される場所に実質的に位置すると思われる。しかしながら、執刀医180Bは、ビューア610における手術部位の表示画像を見ながら、自身の手だけでなく、マスターツールグリップ621L、621Rの位置または配向を見ることができない。
一態様において、マスターツールマニピュレータ620L、620Rは、それらがベース630の上に位置付けられるように、またそれらがビューア610の下に存在しないように、すなわち、マスターツールマニピュレータが、ハンドジェスチャーから離れて停留するように、執刀医180Bの正面およびビューア610の下から直接動かされる。これは、ビューア610の下に非閉塞容積を提供し、執刀医180Bは、ハンドジェスチャー、ハンドジェスチャーポーズまたはハンドジェスチャー軌道のうちのいずれか、または両方を行うことができる。
図6Aの態様において、3つの座標系、ビュー座標系660、ワールド座標系670、およびトラッカ座標系650が、執刀医のコンソール185Bに関して定義される。相当する座標系は、以下でより完全に説明されるマッピングが、マスターフィンガー追跡グリップ170またはマスターツールグリップ621L、621Rからの追跡データに対して行われ得るように、執刀医181(図1)に対して定義されることに留意されたい。例えば、参照することにより既に組み込まれている、米国特許出願第12/617,937号(2009年11月13日出願、「Patient−Side Surgeon Interface For a Minimally Invasive Teleoperated Surgical Instrument」を開示)を参照されたい。
ビュー座標系660において、執刀医180Bは、Z軸Zビューを見下ろしている。Y軸Yビューは、表示において上向きである。X軸Yビューは、表示の左を指す。ワールド座標系670において、Z軸Zワールドは、垂直軸である。ワールドX軸XワールドおよびワールドY軸Yワールドは、X軸Xワールドに垂直な平面にある。
図6Bは、マスターツールグリップ621およびマスターツールマニピュレータ620のより詳細な例示である。座標系680、690は、図11の方法1100に関して以下でより完全に論じられる。
(ハンド追跡を介した手術器具制御のプロセス)
図7は、追跡座標系750においてロケーション713を有する、人指し指292Bに装着されたセンサ212、および追跡座標系750においてロケーション711を有する、親指292Aに装着されたセンサ212の例示である。センサ211および212は、上述される電磁追跡システムの一部である。親指292Aおよび人指し指292Bは、右手291Rの指の例である。前述のとおり、ヒトの手の一部は、少なくとも1本の手の指を含む。当該分野における有識者に知られているように、指または指骨と呼ばれる場合がある手の指は、親指(第1指)、人指し指(第2指)、中指(第3指)、薬指(第4指)、および小指(第5指)である。
本明細書において、親指および人指し指は、ヒトの手の2本の指の例として使用される。これは単なる例示であり、限定することを意図しない。例えば、親指および中指を、親指と人指し指の代わりに使用することができる。本明細書の説明は、中指の使用にも直接適用できる。右手の使用もまた単なる例示である。同様のセンサが左手に装着される場合、本明細書の説明は、左手にも直接適用できる。
ケーブル741、742は、マスターフィンガー追跡グリップ270のセンサ211、212をハンド追跡コントローラ130に接続する。一態様において、ケーブル741、742は、センサ211、212からの位置および配向情報を、ハンド追跡コントローラ130に伝える。
感知した位置および配向データをハンド追跡コントローラ130に伝送するためのケーブルの使用は、単なる例示であり、この特定の態様に限定することを意図しない。本開示に照らして、当該分野における有識者は、マスターフィンガー追跡グリップまたはマスターフィンガー追跡グリップからの感知した位置および配向データをハンド追跡コントローラ130に(例えば、無線接続の使用によって)伝送するための機序を選択することができる。
ケーブル741、742は、マスターフィンガー追跡グリップ270の運動を阻害しない。マスターフィンガー追跡グリップ270は、機械的に非接地であるため、各マスターフィンガー追跡グリップは、執刀医の到達可能な作業空間およびハンド追跡トランスミッタの作業空間(例えば、デカルド座標系における左−右、上−下、内−外、転動、ピッチ、および偏揺れ)内の位置および配向の両方に対して、効果的に拘束されない。
一態様において、上述されるように、マスターフィンガー追跡グリップ270上の各センサ211、212は、3度の変換および3度の転動、すなわち6度の自由度を感知する。したがって、2つのセンサから感知されたデータは、12度の自由度を表す。別の態様において、マスターフィンガー追跡グリップ270上の各センサ211、212は、3度の変換および2度の転動(偏揺れおよびピッチ)、すなわち5度の自由度を感知する。したがって、2つのセンサから感知されたデータは、10度の自由度を表す。
追跡されたロケーションに基づいて、制御点位置および制御点配向を使用し、遠隔操作スレーブ手術器具を制御することは、以下でより完全に説明されるように、6度の自由度(3変換および3配向)を必要とする。したがって、各センサが5または6度の自由度を有する態様において、センサ211、212は、冗長自由度を提供する。上述のとおり、および以下でより完全に説明されるように、冗長自由度は、位置および配向以外の遠隔操作スレーブ手術器具の態様を制御するために使用されるパラメータにマッピングされる。
なおもさらなる態様において、各センサ211、212は、3変換自由度のみを感知するため、合せて6度の自由度を表す。これは、手首機序を含まないスレーブ手術器具の3度の変換、転動、およびグリップ閉合を制御するのに十分である。以下の説明を使用して、6度の自由度を用いる制御点のロケーションを生成する。制御点のロケーションは、スレーブ手術器具の配向として取られる。グリップ閉合パラメータは、下記のとおり、制御点ロケーションおよび制御点配向を使用して決定される。転動は、上記のとおり、親指および人指し指の相対運動を使用して決定される。
センサが6度の自由度を感知する態様、またはセンサが5度の自由度を感知する態様のいずれかにおいて、人指し指センサ212は、追跡座標フレーム750において、人指し指位置Pindexおよび人指し指配向Rindexを表す信号を生成する。親指センサ211は、追跡座標フレーム750において、親指位置Pthumbおよび親指配向Rthumbを表す信号を生成する。一態様において、位置pindexおよびpthumbは、ユーザの人指し指292Bの爪の中心およびユーザの親指292Aの爪の中心とそれぞれ整列していると見なされる。
本実施例において、位置pindexおよびpthumbは、それぞれ3×1ベクトルとして追跡座標フレーム750に表される。位置pindexおよびpthumbは、追跡座標にある。
配向RindexおよびRthumbは、それぞれ3×3マトリクスとして追跡座標フレーム750に表される。すなわち、
制御点位置pcpは、人指し指292Bと親指292Aの中間にある。制御点位置pcpは、制御点フレーム790にあるが、追跡座標において特定される。制御点フレーム790のZ軸は、以下でより完全に説明されるように、制御点位置pcpを通して指向方向に伸長する。
また以下で説明されるように、人指し指292Bおよび親指292Aは、スレーブ手術器具の顎部にマッピングされるが、2本の指は、器具の顎部よりも器用である。制御点フレーム790のY軸は、器具顎閉合に使用されるピンに対応する。したがって、制御点フレーム790のY軸は、以下で説明されるように、人指し指292Bと親指292Aとの間のベクトルに垂直である。
制御点位置pcpは、追跡座標フレーム750の追跡座標において、3×1ベクトルとして表される。制御点配向Rcpは、追跡座標において、3×3マトリクスとして表される。すなわち、
図8は、手の一部のロケーションを、スレーブ手術器具のグリップ、例えば、図1における遠隔操作スレーブ手術器具のうちの1つを制御するために使用されるグリップ閉合パラメータにマッピングするためのプロセスフロー図である。このマッピングはまた、ロケーションの経時変化を新しいグリップ閉合パラメータ、ならびに対応するスレーブ器具先端のロケーションおよびそのロケーションに移動する速度にマッピングする。
最初に、プロセス800に入ると、ハンドロケーションデータを受信するプロセス810は、人指し指位置および配向(pindex、Rindex)ならびに親指位置および配向(pthumb、Rthumb)を受信し、それらは本実施例において、データ811として保存される。人指し指位置および配向(pindex、Rindex)ならびに親指位置および配向(pthumb、Rthumb)は、追跡システムからのデータに基づく。プロセス810は、ロケーションデータを制御点およびグリップパラメータにマッピングするプロセス820に移る。
ロケーションデータを制御点およびグリップパラメータにマッピングするプロセス820は、制御点位置pcp、制御点配向Rcp、およびグリップ閉合パラメータggripを、人指し指位置および配向(pindex、Rindex)ならびに親指位置および配向(pthumb、Rthumb)を使用して生成する。制御点位置pcp、制御点配向Rcp、およびグリップ閉合パラメータggripは、データ821として保存される。
一態様において、プロセス820において行われる制御点マッピングは、既知のマスターツールマニピュレータ制御点配置の主要な特性を模倣するように定義される。したがって、親指および人指し指の運動に対する応答は、執刀医のコンソール180B(図6A)に類似する執刀医のコンソールを有する既知の遠隔操作低侵襲手術システムのユーザによく知られており、直感的である。
図9は、ロケーションデータを制御点およびグリップパラメータにマッピングするプロセス820の一態様に対するより詳細なプロセスフロー図である。最初に、プロセス820において、ハンド位置データを制御点にマッピングするプロセス910は、制御点位置pcpのロケーションを、人指し指位置pindexおよび親指位置pthumbから生成する。すなわち、
cp=0.5*(pthumb+pindex
制御点位置pcpは、人指し指位置pindexおよび親指位置pthumbの平均である。ハンド位置データを制御点にマッピングするプロセス910は、制御点配向を生成するプロセス920に対する処理に移る。
上に示されるように、制御点配向のZ軸は、指向方向に整列される。制御点配向を生成するプロセス920の本態様において、ロドリゲス軸/角度式を使用して、制御点配向のZ軸指向方向ベクトル
を、人指し指指向方向ベクトル
と親指指向方向ベクトル
との間の半転動として定義する。親指配向Rthumbから、親指指向方向ベクトル
は、
である。
同様に、人指し指配向Rindexから、人指し指指向方向ベクトル
は、
である。
ベクトルωは、人指し指指向方向ベクトル
および親指指向方向ベクトル
に垂直なベクトルである。ベクトルωは、人指し指指向方向ベクトル
および親指指向方向ベクトル
の外積として定義される。すなわち、
角度θは、人指し指指向方向ベクトル
と親指指向方向ベクトル
との間の角度の大きさである。角度θは、
として定義される。
軸ωおよび角度θを有する、Z軸指向方向ベクトル
は、
である。
したがって、プロセス910は、制御点位置pcpを生成し、プロセス920の最初の部分は、制御点フレーム790におけるZ軸の近似指向方向を生成した。人指し指および親指配向ベクトルの補間を進めて、同様の方法で制御点単位ベクトル軸
および
を生成した後、それらを再度直交させて、制御点配向マトリクスを生じる。
しかしながら、優れた遠隔操作器用性は、以下のマッピングを使用することによって、指の追跡位置から達成することができる。このマッピングは、人指し指および親指の相対位置を使用して、このマッピングは、人指し指および親指の相対位置を使用して、指間の小ジンバルを操作するかのように、制御点を効果的に転動および偏揺れさせる。プロセス920の残りを以下のように行い、直交制御点単位ベクトル軸
の完全集合を生成する。
これらのベクトルを有する、制御点配向Rcpは、
である。
ここでプロセス910および920とともに、プロセス820は、人指し指および親指の位置および配向(pindex、Rindex)、(pthumb、Rthumb)をマッピングして、制御点位置および配向(pcp、Rcp)を制御する。プロセス820は、依然として、グリップ閉合パラメータggripを生成しなければならない。したがって、制御点配向を生成するプロセス920は、グリップ閉合パラメータを生成するプロセス930に対する処理に移行する。
プロセス930において、グリップ閉合は、制御点位置PcpおよびZ軸方向Z(^)cpによって定義される中心軸から人指し指位置pindexおよび親指位置pthumbの距離によって決定される。これは、親指と人指し指が接触しているときに、グリップ閉合を摺動に対して不変であるようにする。
したがって、人指し指位置pindexおよび親指位置pthumbは、フレーム790のZ軸にマッピングされる。位置pindex_projは、フレーム790のZ軸に対する人指し指位置pindexの投影であり、位置pthumb_projは、フレーム790のZ軸に対する親指位置pthumbの投影である。
位置pindex_projおよび位置pthumb_projを使用して、評価グリップ閉合距離dvalを評価する。すなわち、
本明細書において、二重の平行線は、標準ユークリッド距離の既知の表示である。評価グリップ閉合距離dvalは、最大距離閾値dmaxおよび最小距離閾値dminによって境界される。図7に示されるように、センサ211、212間のパッド入りフォームコネクタ210は、指を固定分離内、すなわち、最大距離閾値dmaxと最小距離閾値dminとの間に拘束する。さらに、中間距離dは、2本の指がちょうど接触しているときの分離距離に対応する。
特定のセンサおよびコネクタの集合に関して、最大距離閾値dmax、最小距離閾値dmin、および中間距離dが実験的に決定される。一態様において、センサおよびコネクタの3つの異なる組み合わせは、小さい手、平均的な手、および大きい手に対して提供される。コネクタ210の長さが各組み合わせにおいて異なるため、各組み合わせは、その独自の最大距離閾値dmax、最小距離閾値dmin、および中間距離dを有する。
プロセス930は、距離dvalを最小距離閾値dminと比較する。比較によって、距離dvalが最小距離閾値dmin未満であることがわかった場合、グリップ閉合距離dは、最小閾値距離dminに設定される。そうでなければ、プロセス930は、距離dvalを最大距離閾値dmaxと比較する。比較によって、距離dvalが最大距離閾値dmaxより大きいことがわかった場合、グリップ閉合距離dは、最大距離閾値dmaxに設定される。そうでなければ、グリップ閉合距離は、距離dvalに設定される。
グリップ閉合距離を決定するために距離dvalで行われる試験は、以下のように要約される。
次に、プロセス930において、グリップ閉合パラメータggripが生成される。
したがって、最大距離閾値dmaxと距離dとの間のグリップ閉合距離は、ゼロと1の間の値にマッピングされる。最小距離閾値dminと距離dとの間のグリップ閉合距離dは、−1とゼロの間の値にマッピングされる。
グリップ閉合パラメータggripの値1は、人指し指292Bおよび親指292Aがコネクタ210によって許容される最大程度に分離されるときに得られる(図2A)。グリップ閉合パラメータggripの値ゼロは、人指し指292Bの先端と親指292Aの先端がちょうど接触しているときに得られる(図2C)。ゼロと1の間の範囲内の値は、スレーブ手術器具のエンドエフェクタの開閉を制御する。グリップ閉合パラメータggripの値−1は、人指し指292Bおよび親指292Aが接触し、コネクタ210が人指し指292Bおよび親指292Aの間で完全に圧縮されるときに得られる(図2D)。ゼロと−1の間の範囲内の値は、エンドエフェクタの閉じた顎部の噛合力を制御する。コネクタ210は、顎部閉合の能動触覚キューを提供する。
グリップ閉合距離dを2つの範囲のうちの1つに含まれる値にマッピングするこの例は、単なる例示であり、限定することを意図しない。実施例は、グリップ閉合距離dを第1の範囲のグリップ閉合パラメータggripにマッピングして、グリップ閉合距離dが中間距離dよりも大きいときに、スレーブ手術器具のエンドエフェクタの顎部の開閉を制御する例示である。ここで「開閉」は、顎部の開放および閉合を意味する。グリップ閉合距離dを第2の範囲のグリップ閉合パラメータggripにマッピングして、グリップ閉合距離dが中間距離d未満であるときに、エンドエフェクタの閉じた顎部の噛合力を制御する。
したがって、プロセス820は、人指し指位置および配向(pindex、Rindex)ならびに親指位置および配向(pthumb、Rthumb)を制御点位置および配向(Pcp、Rcp)およびデータ821として保存されるグリップ閉合パラメータggripにマッピングする。プロセス820は、ワールド座標にマッピングするプロセス830に移行する(図8)。
ワールド座標にマッピングするプロセス830は、データ821を受信し、データ821をワールド座標系にマッピングする。(ワールド座標系670(図6A)を参照)。特に、制御点位置および配向(pcp、Rcp)ならびにグリップ閉合パラメータggripは、追跡座標系750(図7B)の座標をワールド座標系670の座標にマッピングする、4×4同次変換wctcを使用して、ワールド座標制御点位置および配向(pcp_wc、Rcp_wc)、マッピングされ、例えば、
式中、
wctcは、追跡座標tcの配向をワールド座標wxの配向にマッピングし、
wctcは、追跡座標tcの位置をワールド座標wcの位置に変換する。
グリップ閉合パラメータggripは、このマッピングによって変更されない。ワールド座標wcのデータは、データ831として保存される。プロセス830は、視界座標にマッピングするプロセス840に移行する。
視界座標にマッピングするプロセス840は、ワールド座標wcのデータ831を受信し、データ831を視界座標系にマッピングする(視界座標系660(図6A)を参照)。特に、ワールド座標制御点位置および配向(pcp_wc、Rcp_wc)およびグリップ閉合パラメータggripは、視界座標系670(図6A)の座標を視界座標系660の座標にマッピングする、4×4同次変換wctcを使用して、視界座標制御点位置および配向(pcp_ec、Rcp_ec)にマッピングされ、例えば、
式中、
ecwcは、視界座標ecの配向をワールド座標wcの配向にマッピングし、
ecwcは、視界座標ecの位置をワールド座標wcの位置に変換する。
再度、グリップ閉合パラメータggripは、マッピングによって変更されない。視界座標のデータは、データ841として保存される。プロセス840は、速度を生成するプロセス850に移行する。
プロセス800において、マッピングプロセス830および840は、単に例示を容易にするために、2つの異なるプロセスとして説明される。一態様において、マッピングプロセス830および840は、追跡座標tcの制御点データが、追跡座標系650(図6A)の座標を視界座標系660の座標にマッピングする、4×4同次変換ectcを使用して、視界座標ecのデータに直接マッピングされ、例えば、
である。
本態様において、視界座標の制御点の位置Pcp_ecは、
cp_ecectccp_tc’
であり、視界座標の制御点の配向Rcp_ecは、
cp_ececwc wctccp_tc
である。
いくつかの態様において、ワールド座標マッピングは、排除されてもよい。この場合、制御点データは、ワールド座標系を利用することなく、追跡座標系から視界座標系に直接マッピングされる。
遠隔操作の場合、位置、配向、および速度が必要である。したがって、速度を生成するプロセス850は、必要な速度を生成する。速度は、多数の方法で生成することができる。いくつかの実装、例えば、慣性センサおよびジャイロスコープセンサ等は、差分信号を直接測定して、制御点の直線速度および角速度を生じることができる。速度を直接測定できない場合、プロセス850は、一態様において、視界座標系のロケーション測定値からの速度を推定する。
速度は、サンプリング間隔を超えて、視界座標系の有限差分を使用して推定されてもよい。例えば、直線速度vcp_ecは、
として推定され、角速度ωcp_ecは、
として推定される。
速度を生成するプロセス850の別の態様において、制御点直線速度vcp_tcおよび制御点角速度ωcp_tcは、追跡座標系750(図7)の追跡座標において感知される。本態様において、直接感知される制御点直線速度vcp_tcおよび直接感知される制御点角速度ωcp_tcは、転動ectcを使用して、追跡座標系750から視界座標系660に転動させる。特に、上に定義される転動マッピングを使用して、
ectcecwc wctc
cp_ecectccp_tc
ωcp_ecectcωcp_tc
速度を生成するプロセス850は、制御コマンドを送信するプロセス860に移行する。プロセス860は、位置、配向、速度、およびデータ851として保存されたグリップ閉合パラメータに基づいて、スレーブ手術器具に適切なシステム制御コマンドを送信する。
一態様において、プロセス810〜850は、ハンド追跡コントローラ130(図1)によって行われる。コントローラ130は、プロセッサ131上のフィンガー追跡モジュール135を実行して、プロセス810〜850を行う。本態様において、フィンガー追跡モジュール135は、メモリ132に保存される。プロセス850は、システムイベントをシステムコントローラ140に送信し、順にプロセス860を行う。
当然のことながら、ハンド追跡コントローラ130およびシステムコントローラ140は、ハードウェア、プロセッサ上で実行されるソフトウェア、およびファームウェアのあらゆる組み合わせによって、実際に実装されてもよい。またこれらのコントローラの機能は、本明細書に説明されるように、1つのユニットによって行われ得るか、または異なるコンポーネントに分割され、それぞれが順にハードウェア、プロセッサ上で実行されるソフトウェア、およびファームウェアのあらゆる組み合わせによって実装されてもよい。異なるコンポーネントに分割される場合、コンポーネントは、1つのロケーションに集中され得るか、または分散処理の目的でシステム100に分散されてもよい。
(ジェスチャーハンドポーズおよびジェスチャー軌道制御のプロセス)
図10は、システム100のハンドジェスチャーポーズおよびハンドジェスチャー軌道のプロセス1000の一態様のプロセスフロー図である。上述される一態様において、ハンドジェスチャーポーズ認識プロセス1050は、多次元ベイズ識別器を使用し、ハンドジェスチャー軌道認識プロセス1060は、個別の隠れマルコフモデルλを使用する。
上述のとおり、図3A〜3Dは、ハンドジェスチャーポーズの実施例である。ハンドジェスチャーポーズ認識1050をトレーニングするために、多数のハンドジェスチャーポーズが特定される。利用されるハンドジェスチャーポーズの数は、認識プロセス1050によって曖昧に識別され得る固有のポーズを定義する能力によって、および執刀医が異なるハンドジェスチャーポーズのそれぞれを記憶し、確実に再現する能力によって制限される。
ハンドジェスチャーポーズを定義することに加えて、複数の特徴f(iは1〜nの範囲)を含む特徴集合が定義される。数字nは、使用される特徴の数である。特徴の数および種類は、許容されるポーズの集合におけるハンドジェスチャーポーズのそれぞれが、正確に識別され得るように選択される。一態様において、数字nは6である。
以下は、n個の特徴を有する1つの特徴集合の例である。
特徴fは、人指し指292Bの指向方向
および親指292Aの指向方向
のドット積である。特徴fは、人指し指292Bと親指292Aとの間の距離である。特徴fは、人指し指292Bの指向方向
に投影された親指292Aの距離である。特徴fは、人指し指292Bの指向方向
に沿った軸から親指292Aまでの距離である。特徴fは、親指292Aの指向方向
のZコンポーネントである。特徴fは、親指292Aの親指法線ベクトル
および人指し指292Bの指向方向
のドット積である。
方法1000を使用する前に、ハンドジェスチャーポーズのトレーニングデータベースを開発する必要がある。多数の異なるユーザは、各ハンドジェスチャーポーズを少なくとも1回行い、各ユーザの各ハンドジェスチャーポーズの位置および配向は、追跡システムを使用して測定される。例えば、人々の集団における各個人が、許容されるハンドジェスチャーポーズを行う。人指し指および親指位置および配向(pindex、Rindex)、(pthumb、Rthumb)は、トレーニングデータベースにおいて、人々の集団における各個人の各ハンドジェスチャーポーズに対して保存される。
トレーニングデータベースを使用して、特徴集合{f}が、各ユーザの各ハンドジェスチャーポーズに生成される。各ハンドジェスチャーポーズのトレーニング特徴ベクトルの集合を次に使用して、平均f(―)および共分散Σfiを計算する。
したがって、トレーニングデータベースを使用し、トレーニングされた各ジェスチャーの特徴ベクトルの平均および共分散を得る。さらに、各ハンドジェスチャーポーズに対して、マハラノビス距離d(f)(以下の考察を参照)は、各トレーナーに生成され、各ハンドジェスチャーポーズの最大マハラノビス距離d(f)は、そのハンドジェスチャーポーズの閾値として保存される。
マハラノビス距離の測定を使用して、トレーニングされたすべてのジェスチャーが、使用される指定の特徴集合に対して十分に異なり、かつ曖昧であることを立証することもできる。これは、指定のジェスチャー特徴ベクトル平均
およびすべての他の許容されるジェスチャーポーズの特徴ベクトル平均のマハラノビス距離を試験することによって達成することができる。この試験距離は、その指定のジェスチャーに使用される最大トレーニング距離閾値よりもはるかに長い必要がある。
当該分野における有識者に知られているように、隠れマルコフモデルの仕様は、2つのモデルパラメータN、Mおよび3つの確率速度A、B、πの仕様を必要とする。隠れマルコフモデルΛは、以下のように表される。
Λ=(A,B,π)
モデルパラメータNは、モデルにおける状態の数であり、モデルパラメータMは、状態当たりの観察記号の数である。3つの確率速度は、状態遷移確率分布A、観察ジェスチャー確率分布B、および初期状態分布πである。
個別の隠れマルコフモデルの一態様において、遷移確率分布Aは、N×Nマトリクスである。観察ジェスチャー確率分布Bは、N×Mマトリクスであり、初期状態分布πは、N×1マトリクスである。
観察配列Oおよび隠れマルコフモデルΛを受けて、観察配列O割る隠れマルコフモデルΛの確率、すなわち、P(O|Λ)を、以下でより完全に説明されるように、プロセス1000において評価する。
隠れマルコフモデルΛの確率分布を生成するために、トレーニングデータベースが必要とされる。トレーニングデータベースを取得する前に、ハンドジェスチャー軌道の集合が特定される。
多数の被検体jを選択して、ハンドジェスチャー軌道のそれぞれを作製する。図4Cにおいて、16個のハンドジェスチャー軌道が2次元投影形態で提示されるが、被検体は、様々なハンドジェスチャー軌道を行う場合に拘束されず、いくつかの3次元変型が生じるのを可能にする。一態様において、各被検体は、各ハンドジェスチャー軌道をk回行い、これによってハンドジェスチャー軌道当たりj*kトレーニング配列が生成される。
一態様において、個別の左右隠れマルコフモデルが使用された。隠れマルコフモデルΛは、確率P(O|Λ)が、反復ボーム−ウェルチ法を使用して局所的に最大化されるように選択される。例えば、参照することにより本明細書に組み込まれる、Lawrence R.Rabiner,”A Tutorial on Hidden Markov Models and Selected Applications in Speech Recognition,”Proceedings of the IEEE,Vol.77,No.2,pp.257−286(1989年2月)を、モデルに精通する者の隠れマルコフモデルの知識の証明として参照されたい。一態様において、反復法は、モデルが3連続反復で0.1%以内に集中したときに停止した。
初期状態確率πは、モデルが常に状態1から開始するように設定した。推移確率マトリクスAは、ランダムエントリで初期化し、列ベースで降順に保存した。左右構造を強化するために、遷移確率マトリクスAの下位の対角にあるすべてのエントリは、ゼロに設定した。さらに、2つの状態を超える遷移は、エントリをゼロに設定することによって却下し、すべての列iおよび行jに対して(i−j)>2。遷移確率マトリクスAは、列ベースで最後に標準化した。
観察確率マトリクスBの初期化は、望ましい数の状態に基づいて、観察配列を均一に分割した。したがって、各状態は、ローカル頻度数に基づく確率を有する1つまたは複数の記号を最初に観察することができる。このマトリクスもまた、列ベースで標準化した。例えば、参照することにより本明細書に組み込まれる、N.Liu,R.I.A.Davis,B.C.Lovell,P.J.Kootsookos,”Effect of Initial HMM Choices in Multiple Sequence Training for Gesture Recognition,”International Conference on Information Technology,5−7,Las Vegas,pgs608−613(2004年4月)を、モデルに精通する者の隠れマルコフモデルの知識の証明として参照されたい。隠れマルコフモデルは、ハンドジェスチャー軌道のそれぞれに対して開発した。
方法1000に戻って、ジェスチャーモード可能化チェックプロセス1001は、執刀医がシステム100の操作のジェスチャー認識モードを可能にしたか否かを決定する。一態様において、ジェスチャー認識モードを可能にするために、執刀医は、執刀医のコンソール185上でフットペダルを踏む(図1A)。ジェスチャー認識モードが可能である場合、チェックプロセス1001は、ハンドロケーションデータを受信するプロセス1010に移行し、そうでなければ戻る1002を通って戻る。
ハンドロケーションデータを受信するプロセス1010は、執刀医によって行われているジェスチャーの人指し指位置および配向(pindex、Rindex)ならびに親指位置および配向(pthumb、Rthumb)を受信する。上記のとおり、人指し指位置および配向(pindex、Rindex)ならびに親指位置および配向(pthumb、Rthumb)は、追跡システムからのデータに基づく。プロセス1010は、特徴を生成するプロセス1011に移行する。
特徴を生成するプロセス1011において、人指し指位置および配向(pindex、Rindex)ならびに親指位置および配向(pthumb、Rthumb)を使用して、観察された特徴ベクトルfi_oにおける特徴f1_o〜fn_oのそれぞれを生成する。特徴を生成するプロセス1011は、特徴を既知のポーズと比較するプロセス1012に移行する。
特徴を既知のポーズと比較するプロセス1012は、各ポーズに対して、観察された特徴ベクトルfi_oをトレーニングされた特徴集合{f}と比較する。このプロセスは、観察された特徴ベクトルが、特定のハンドジェスチャーポーズに対してトレーニングデータセット特徴集合{f}内に含まれる、すなわち、トレーニングデータセットに対応する可能性を決定する。これは、以下のように表すことができ、
P(fi_o|Ω)
式中、トレーニングデータセット特徴集合{f}は、オブジェクトクラスΩに由来する。
本実施例において、確率P(fi_o|Ω)は、
であり、式中、Nは、特徴ベクトルの次元であり、すなわち、上記実施例ではnである。
この可能性を特徴化するために使用される統計は、マハラノビス距離d(fi_o)であり、以下のように定義される
式中、
である。マハラノビス距離は、当該分野における有識者に知られている。例えば、参照することにより本明細書に組み込まれる、Moghadam,Baback and Pentland,Alex,”Probabilistic Visual Learning for Object Representation,”IEEE Transactions On Pattern Analysis and Machine Intelligence,Vol.19,No.7,pp.696〜710(1997年7月)を参照されたい。
固有ベクトルΦおよび固有ベクトルΛを使用して、共分散Σfi、Σfi −1は、対角化形態で使用され、マハラノビス距離d(fi_o)が、
=yΛ−1
となるようにし、
である。対角化形態は、マハラノビス距離d(fi_o)を合計に関して表されるのを可能にする。
本実施例において、これは、マハラノビス距離d(fi_o)を決定するために評価される式である。したがって、プロセス1011は、マハラノビス距離d(fi_o)を生成する。完了時に、プロセス1012は、ポーズを選択するプロセス1013に移行する。
ポーズを選択するプロセス1013において、最小マハラノビス距離d(fi_o)を有するハンドジェスチャーポーズは、マハラノビス距離d(fi_o)が、そのハンドジェスチャーポーズに関するトレーニングデータベースにおいて最大マハラノビス距離未満であるときに選択される。マハラノビス距離d(fi_o)が、そのハンドジェスチャーポーズに関するトレーニングデータベースにおいて最大マハラノビス距離よりも大きい場合、ハンドジェスチャーポーズは選択されない。ポーズを選択するプロセス1012は、時間フィルタープロセス1014に移行する。
時間フィルタープロセス1014は、プロセス1013の結果が、同一の結果を連続して既定回数もたらしたか否かを決定する。プロセス1013が、同一の結果を連続して既定回数もたらした場合、時間フィルタープロセス1014は、ジェスチャーポーズチェックプロセス1015に移行し、そうでなければ戻る。既定回数は、時間フィルタープロセス1014が、ハンドジェスチャーポーズを切り替える時に、振動または過渡検出を回避するように選択される。
ジェスチャーポーズチェックプロセス1015は、選択されたハンドジェスチャーポーズが、ハンドジェスチャー軌道において使用されるハンドジェスチャーポーズであるか否かを決定する。選択したハンドジェスチャーポーズが、ハンドジェスチャー軌道において使用されるハンドジェスチャーポーズである場合、ジェスチャーポーズチェックプロセス1015は、処理を、速度配列を生成するプロセス1020に移行させ、そうでなければ処理をポーズ変更チェックプロセス1016に移行させる。
ポーズ変更チェックプロセス1016は、ハンドジェスチャーポーズが最後の通過方法1000から変更されたか否かを決定する。選択されたハンドジェスチャーポーズが、直前の時間フィルタジェスチャーポーズ結果と同一である場合、ポーズ変更チェックプロセス1016は、戻る1003を通して戻り、そうでなければ、システムイベントにマッピングするプロセス1030に移行する。
システムイベントにマッピングするプロセス1030は、選択したハンドジェスチャーポーズをシステムイベントにマッピングし、例えば、ハンドジェスチャーポーズに割り当てられたシステムイベントが検索される。システムイベントが検出されると、システムイベントにマッピングするプロセス1030は、処理を、システムイベントを投入するプロセス1031に移行させる。
一態様において、システムイベントを投入するプロセス1031は、システムイベントを、システムコントローラ140のイベントハンドラに送信する(図1)。システムイベントに応答して、システムコントローラ140は、適切なシステムコマンドを、システム100のコントローラおよび/または他の装置に送信する。例えば、ハンドジェスチャーポーズがターンオンユーザインターフェースイベントに割り当てられる場合、システムコントローラ140は、コマンドをディスプレイコントローラ150に送信し、ユーザインターフェースをオンにする。ディスプレイコントローラ150は、ユーザインターフェースモジュール155の一部を、ユーザインターフェースをオンにする必要があるプロセッサ150上で実行する。
ハンドジェスチャーポーズが、軌道を作製する際に使用されるハンドジェスチャーポーズである場合、方法1000における処理は、ジェスチャーポーズチェックプロセス1015から速度配列を生成するプロセス1020に移行する。一態様において、ハンドジェスチャー軌道認識に使用される主な特徴は、単位速度ベクトルである。単位速度ベクトルは、ジェスチャーの開始位置に対して不変である。さらに、標準化速度ベクトルは、ジェスチャーのサイズまたは速度における変動を説明する。したがって、プロセス1020において、制御点サンプルは、標準制御点速度配列、すなわち、単位速度ベクトルの配列に変換される。
速度配列を生成するプロセス1020の完了時に、プロセス1020は、処理を、速度配列を記号配列に変換するプロセス1021に移行させる。上記のとおり、個別の隠れマルコフモデルΛは、入力として個別の記号を必要とする。プロセス1021において、個別の記号は、ベクトル定量を通して、標準化制御点速度配列から生成される。
一態様において、ベクトル定量は、クラスタリング割当てが変化しなくなったときに、プロセスが停止するという条件で、修正K平均クラスタリングを使用して行った。K平均クラスタリングが使用されるが、プロセスは、特徴が単位ベクトルであるという事実を利用する。この例において、同様の方向のベクトルがクラスタ化される。これは、各単位特徴ベクトルと標準化クラスタベクトルとのドット積を、類似性測定基準として使用して行う。
クラスタリングは、ベクトルを32個のクラスタにランダム割当てすることによって初期化され、全体プロセスは、複数回繰り返し適用され、最善のクラスタリング結果は、最大合計「以内」クラスタコスト測定基準に基づいて選択される。この事例において、「以内」クラスタコストは、類似性の測定基準に基づくことに留意されたい。得られたクラスタのそれぞれは、隠れマルコフモデルの記号として機能する、固有の指数が割り当てられる。次に入力ベクトルを最近のクラスタ平均にマッピングし、そのクラスタの対応する指数が、記号として使用される。このようにして、単位速度ベクトルの配列は、指数または記号の配列に変換することができる。
一態様において、クラスタベクトルに、固定された8方向2次元ベクトル定量コードブックに基づいて、記号を割り当てた。したがって、プロセス1020は、観察記号配列を生成し、ジェスチャー確率を生成するプロセス1023に移行する。
一態様において、どのジェスチャーが観察記号配列に対応するかを決定するために、ジェスチャー確率を生成するプロセス1023は、隠れマルコフモデルを有する前方再帰アルゴリズムを使用して、各ジェスチャーが観察記号配列に一致する確率を見出す。前方再帰アルゴリズムは、参照することにより本明細書に既に組み込まれている、Rainerの”A Tutorial on Hidden Markov Models and Selected Applications in Speech Recognition”において説明される。ジェスチャー確率を生成するプロセス1023が完了すると、処理は軌道を選択するプロセス1024に移行する。
軌道を選択するプロセス1024において、ハンドジェスチャー軌道は、許容される隠れマルコフモデル軌道ジェスチャーモデルの中で指し候の確率を有する。この確率は、許容される指定の閾値よりも大きくなければならない。最高確率が閾値よりも大きくない場合、ハンドジェスチャー軌道は選択されない。この閾値は、誤認を回避しながら最大認識精度に調整する必要がある。
完了すると、軌道を選択するプロセス1024は、処理を軌道発見チェックプロセス1025に移行させる。軌道を選択するプロセス1024が、ハンドジェスチャー軌道を選択した場合、軌道発見チェックプロセス1025は、処理をシステムイベントにマッピングするプロセス1030に移行させ、そうでなければ戻る1004を通して戻る。
システムイベントにマッピングするプロセス1030は、選択したハンドジェスチャー軌道をシステムイベントにマッピングし、例えば、ハンドジェスチャー軌道に割り当てられたシステムイベントが検索される。システムイベントが見出されると、システムイベントにマッピングするプロセス1030は、処理を、システムイベントを投入するプロセス1031に移行させる。
一態様において、システムイベントを投入するプロセス1031は、システムイベントを、システムコントローラ140のイベントハンドラに送信する(図1)。システムイベントに応答して、システムコントローラ140は、適切なシステムコマンドを、適切なコントローラまたは装置に送信する。例えば、システムイベントがユーザインターフェースのアクションに割り当てられる場合、システムコントローラ140は、ディスプレイコントローラ150にコマンドを送信し、ユーザインターフェースにおけるそのアクションを行う(例えば、手術部位のビューイングモードを変更する)。
(存在検出のプロセス)
さらに別の態様において、上述されるように、執刀医180Bの手の少なくとも一部の追跡位置を使用して、手がマスターマニピュレータツールグリップ621(マスターツールグリップ621と称される場合もある)上に存在するか否かを決定する。図11は、一態様において、システム100のハンド追跡コントローラ130によって行われる存在検出のプロセス1100の一態様のプロセスフロー図である。プロセス1100は、一態様において執刀医の手のそれぞれに対して個別に行われる。
関節角度を取得するプロセス1110において、マスターツールマニピュレータ620(図6B)の関節角度が測定される。関節角度を取得するプロセス1110は、処理を、順運動学を生成するプロセス1111に移行させる。
マスターツールマニピュレータ620における様々なリンクの長さは既知であり、マスターツールマニピュレータ620のベース629の位置が知られているため、幾何学的関係を使用して、マスター作業空間座標系680におけるマスターツールグリップ621の位置を生成する。したがって、順運動学を生成するプロセス1111は、プロセス1110からの角度を使用して、マスター作業空間座標系680におけるマスターツールグリップ621の位置pmtmを生成する。順運動学を生成するプロセス1111は、処理をワールド座標にマッピングするプロセス1112に移行させる。
ワールド座標にマッピングするプロセス1112は、マスター作業空間座標系680における位置pmtmを、ワールド座標系670における位置pmtm_wcにマッピングする(図6A)。具体的に、
mtm_wcwcws*pmtm
式中、wcwsは、4×4同次固定変換であり、マスター作業空間座標系680における座標をワールド座標系670における座標にマッピングする。
完了すると、ワールド座標にマッピングするプロセス1112は、処理をハンド−マスターツールグリップ分離を生成するプロセス1130に移行させる。
ハンドロケーションデータを受信するプロセス1120に戻り、ハンドロケーションデータを受信するプロセス1120は、人指し指の位置および配向(pindex、Rindex)ならびに親指の位置および配向(pthumb、Rthumb)を受信(回収)する。人指し指の位置および配向(pindex、Rindex)ならびに親指の位置および配向(pthumb、Rthumb)は、追跡システムからのデータに基づく。ハンドロケーションデータを受信するプロセス1120は、処理を、ハンド位置を生成するプロセス1121に移行させる。
ハンド位置を生成するプロセス1121は、人指し指の位置および配向(pindex、Rindex)ならびに親指の位置および配向(pthumb、Rthumb)を、上述されるように(その記述は、参照することにより本明細書に組み込まれる)、追跡座標系における制御点位置および配向にマッピングする。位置Phandは、追跡座標における制御点の位置である。ハンド位置を生成するプロセス1121は、処理をワールド座標にマッピングするプロセス1122に移行させる。
存在検出における制御点位置の仕様は、単なる例示であり、限定することを意図しない。本開示に照らして、存在検出は、例えば、人指し指の先端の位置および親指の先端の位置を使用するか、またはそれらの位置の1つのみを使用することによって行うことができる。いかに記載されるプロセスは、ヒトの手の一部に随伴するこれらの様々な位置のそれぞれに相当する。
ワールド座標にマッピングするプロセス1122は、追跡座標系の位置phandをワールド座標系670の位置phand_wcにマッピングする(図6A)。具体的に、
hand_wcwctc*phand
式中、wcwsは、4×4同次固定変換であり、追跡座標系650における座標をワールド座標系670における座標にマッピングする。
完了すると、ワールド座標にマッピングするプロセス1122は、処理をハンド−マスターツールグリップ分離を生成するプロセス1130に移行させる。
ハンド−マスターツールグリップ分離を生成するプロセス1130は、ワールド座標系670の位置pmtm_wcとワールド座標系670の位置phand_wcとの間の分離距離dsepを生成する。一態様において、分離距離dsepは、
sep=||pmtm_wc−phand_wc||
である。完了すると、ハンド−マスターツールグリップ分離を生成するプロセス1130は、処理を距離安全チェックプロセス1131に移行させる。
距離安全チェックプロセス1131は、分離距離dsepを安全距離閾値と比較する。この閾値は、執刀医が把持を変更し、エンドエフェクタの最遠端を操作するのを依然として可能にしながら、保守的となるのに十分小さい必要がある。分離距離dsepが、安全距離閾値未満である場合、距離安全チェックプロセス1131は、ハンド存在オンプロセス1140に移行する。逆に、分離距離dsepが、安全距離閾値よりも大きい場合、距離安全チェックプロセス1131は、ハンド存在オフプロセス1150に移行する。
ハンド存在オンプロセス1140は、システム100が遠隔操作にあるか否かを決定する。システム100が遠隔操作にある場合、アクションは不要であり、遠隔操作の継続が許可されるため、プロセス1140は、プロセス1100をもう一度やり直す。システム100が遠隔操作にない場合、ハンド存在オンプロセス1140は、ハンド存在イベントを、システムイベントを投入するプロセスに送信し、順に、ハンド存在イベントをシステムコントローラ140に送信する。
ハンド存在オフプロセス1150は、システム100が遠隔操作にあるか否かを決定する。システム100が遠隔操作にない場合、アクションは不要であるため、プロセス1150は、プロセス1100をもう一度やり直す。システム100が遠隔操作にある場合、ハンド存在オフプロセス1150は、ハンド非存在イベントを、システムイベントを投入するプロセスに送信し、順に、ハンド存在イベントをシステムコントローラ140に送信する。
システムコントローラ140は、ハンド存在イベントまたはハンド非存在イベントが、システムモードの操作に対するあらゆる変更を必要とし、適切なコマンドを発行するか否かを決定する。一態様において、システムコントローラ140は、ハンド存在イベントに応答して遠隔操作を可能にし、例えば、遠隔操作低侵襲手術がマスターツールグリップに連結される場合でさえも、ハンド非存在イベントに応答して、遠隔操作を可能および不可能にする。本分野における有識者に知られているように、遠隔操作低侵襲手術器具は、マスターツールグリップに脱着することができる。
他の態様において、ハンド存在イベントおよびハンド非存在イベントは、システムコントローラ140によって、他のイベントと合せて使用し、遠隔操作が可能か否かを決定する。例えば、執刀医の頭の存在検出は、遠隔操作を可能にするか否かを決定する際に、執刀医の片手または両手の存在検出と合せてもよい。
同様に、上記のとおり、ハンド存在イベントおよびハンド非存在イベントをシステムコントローラ140によって使用し、低侵襲手術システムのディスプレイ上のユーザインターフェースの表示を制御する。システムコントローラ140が、ハンド非存在イベントを受信するとき、ユーザインターフェースがオンにならない場合は、システムコントローラ140がコマンドをディスプレイコントローラ150に送信し、ユーザインターフェースをオンにする。ディスプレイコントローラ150は、ユーザインターフェースをオンにするために必要なプロセッサ150上のユーザインターフェースモジュール155の一部を実行する。システムコントローラ140がハンド存在イベントを受信するとき、ユーザインターフェースがオンである場合は、システムコントローラ140がコマンドをディスプレイコントローラ150に送信し、ユーザインターフェースをオフにする。ディスプレイコントローラ150は、ユーザインターフェースをオンにするために必要なプロセッサ150上のユーザインターフェースモジュール155の一部を実行する。
ハンド存在イベントおよびハンド非存在イベントを、他のイベントと合せて、システムコントローラ140によって使用し、ユーザインターフェースを表示するか否かを決定することができる。したがって、ユーザインターフェースディスプレイおよび遠隔操作制御は、存在検出を使用するシステムモード制御の例であり、これら2つの特定モードのシステム制御に限定することを意図しない。
例えば、存在検出は、以下でより完全に説明されるもの等のプロキシビジュアルの制御に使用することができる。様々なモードの組み合わせ、例えば、遠隔操作およびプロキシビジュアルディスプレイもまた、ハンド存在イベントおよびハンド非存在イベントに基づいて、システムコントローラ140によって制御することができる。
ハンド存在検出はまた、マスターツールグリップ621L、621Rの二重の目的を排除する際に有用であり、例えば、フットペダルを押した後、マスターツールグリップ621L、621Rを使用して、執刀医のコンソール185Bに表示されるユーザインターフェースを制御する。マスターツールグリップが二重の目的を果たす場合、例えば、手術器具およびユーザインターフェースの両方の制御に使用される場合、執刀医は、通常、フットペダルを押して、ユーザインターフェースモードの操作に切り替える必要がある。いくつかの理由で、執刀医がフットペダルを押すのに失敗したが、システムがユーザインターフェースモードの操作に切り替わった場合、マスターツールグリップの移動は、手術器具の望ましくない運動を引き起こし得る。存在検出プロセス1100を使用して、この問題を回避し、マスターツールグリップの二重目的を排除する。
存在検出プロセス1100を用いて、一実施例において、ハンド存在オフイベントがシステムコントローラ140によって受信された場合、システムコントローラ140は、システムコマンドを送信して、マスターツールマニピュレータ620l、620R(図6A)を所定位置に固定し、システムコマンドをディスプレイコントローラ150に送信して、ユーザインターフェースを執刀医のコンソール185Bのディスプレイに提示する。執刀医の手の運動を追跡し、それを使用して、ユーザインターフェースにおける要素を制御し、例えば、スライダースイッチを移動させる、ディスプレイを変更する等する。上記のとおり、制御点は、視界座標フレームにマッピングされるため、ユーザインターフェースにおける素子の位置と関連付けることができる。制御点の運動を使用して、その素子を操作する。これは、執刀医がフットペダルを起動させる必要なく達成され、執刀医が不注意に手術器具を動かすことができないように行われる。したがって、これは、マスターツールグリップを使用して、手術器具およびユーザインターフェースの両方を制御することに随伴する問題を排除する。
上記例において、ワールド座標フレームは、共通座標フレームの例である。ワールド座標フレームを共通座標フレームとして使用することは、単なる例示であり、限定することを意図しない。
(マスターフィンガー追跡グリップ)
図12は、マスターフィンガー追跡グリップ1270の一実施例の例示である。マスターフィンガー追跡グリップ1270は、マスターフィンガー追跡グリップ170、270の一実施例である。
マスターフィンガー追跡グリップ1270は、圧縮性本体1210および2つのフィンガーループ1220、1230を含む。圧縮性本体1210は、第1端1213および第2端1214を有する。本体部分1215は、第1端1213と第2端1214との間に伸長する。
圧縮性本体1210は、外面を有する。外面は、第1の部分1216および第2の部分1217を含む。第1の部分1216、例えば、上部分は、第1端1213と第2端1214との間に伸長する。第2の部分1217、例えば、底部分は、第1端1213と第2端1214との間に伸長する。第2の部分1217は対向し、第1の部分1216から除去される。
一態様において、外面は、布製ケースの表面である。布は手術質での使用に適している。布製ケースは、圧縮可能なフォームを包含する。フォームは、圧縮への耐性を提供し、圧縮が解放されると拡張するように選択される。一態様において、いくつかのフォーム片が布製ケースに含まれた。フォームはまた、第1指の先端が第2指の先端に向かって移動すると、第1の部分1216が、ヒトの手の第1指と第2指との間に位置付けられるように、屈曲可能でなければならない。
本体部分1215は、フィンガーループ1220とフィンガーループ1230との間に長さLを有する。上で説明されるように、長さLは、ループ1220の第1指とループ1230の第2指との間の分離を制限するように選択される(図2Aを参照)。
一態様において、本体部分1215は、厚さTを有する。図2Cに例示されるように、厚さTは、マスターフィンガー追跡グリップ1270が、末端1214に隣接する外面の第2の部分1217上の領域1236および末端1213に隣接する第2の部分1217上の領域1226が、ちょうど接触する場合、第2の部分1217は、長さLに沿ってそれ自体と完全に接触しないように選択される。
第1のフィンガーループ1220は、第1端1213に隣接する圧縮性本体1210に固定される。ループ1220は、圧縮性本体1210の外面の第1の部分1216の領域1225を中心として伸長する。ヒトの手の第1指に第1のフィンガーループ1220を装着すると、領域1225は、第1指に接触し、例えば、外面の第1の部分1216の最初の一部が親指に接触する。
この実施例において、フィンガーループ1220は、2つの末端、第1の布製末端1221Aおよび第2の布製末端1221Bを有する。末端1221Aおよび末端1221Bは、本体1210に固定される布片の末端である。一片のループ布1222Bは、末端1221Bの内面に取り付けられ、一片のフック布1222Aは、末端1221Aの外面に取り付けられる。フック布およびループ布の例は、一方は小さいフック付きスレッドを有し、もう一方は粗表面を有する、2つのナイロン布片から成る、ナイロン締結テープである。2つの片は、一緒に押されると強力な結合を成す。市販の締結テープの一例は、VELCRO(登録商標)締結テープである(VELCRO(登録商標)は、Velcro Industries B.V.の登録商標である)。
第2のフィンガーループ1230は、第2の末端1214に隣接する圧縮性本体1210に固定される。ループ1230は、圧縮性本体1210の外面の第1の部分1216の領域1235を中心として伸長する。第2のフィンガーループ1230をヒトの第2指に装着すると、領域1235は第2指に接触し、例えば、外面の第1の部分1216の第2の部分は、人指し指に接触する。第1の部分の第2の一部1235は対向し、第1の部分の最初の一部1225から除去される。
この例において、フィンガーループ1230はまた、第1の繊維端1231Aおよび第2の繊維端1231Bの2つの末端を有する。末端1231Aおよび末端1231Bは、本体1210に固定される布片の末端である。一片のループ布1232Bは、末端1231Bの内面に取り付けられ、一片のフック布1232Aは、1231Aの外面に取り付けられる。
第1のロケーション追跡センサ1211は、第1のフィンガーループ1220に固定される。第2のロケーション追跡センサ1212は、第2のフィンガーループ1230に固定される。ロケーション追跡センサは、上述されるセンサ素子のいずれかであり得る。一実施例において、ロケーション追跡センサ1211、1212は、受動電磁センサである。
(プロキシビジュアルシステム)
一態様において、ハンド追跡制御システムを使用して、1人の執刀医が別の執刀医を監督するために使用され得る複数のプロキシビジュアルのうちのいずれか1つを制御する。例えば、執刀医180(図1A)が、マスターフィンガー追跡グリップ170を使用して、執刀医181によって監督されている場合、執刀医181は、マスターフィンガー追跡グリップ170を使用して、手術器具のプロキシビジュアルを制御する一方、執刀医180は、マスターツールグリップを使用して、遠隔操作スレーブ手術器具を制御する。
あるいは、執刀医181はテレストレートすることができるか、またはディスプレイにおけるバーチャルハンドを制御することができる。また執刀医181は、ディスプレイに提示されるマスターツールグリップ621のバーチャル画像を操作することによって、執刀医のコンソール上のマスターツールグリップを操作する方法を示す。これらのプロキシビジュアルの例は、単なる例示であり、限定することを意図しない。
さらに、執刀医のコンソールにおいてではないが、マスターフィンガー追跡グリップ170の使用もまた例示的であり、限定することを意図しない。例えば、上述される存在検出システムを用いて、執刀医のコンソールにおける執刀医は、マスターツールグリップから手を動かすことができ、次に、その手を使用して、手がハンド追跡システムによって追跡されると、別の執刀医を監督することができる。
監督を容易にするために、プロキシビジュアルモジュール(図示せず)が、一態様において、視覚処理サブシステムの一部として処理される。本態様において、実行モジュールは、監督者の手の制御点の位置および配向を受信し、内視鏡カメラ画像でリアルタイムに構成され、執刀医のコンソール185、アシスタントディスプレイ、および患者側執刀医インターフェースディスプレー187のあらゆる組み合わせに表示される、立体画像をレンダーリングする。
執刀医181が、既定のアクション、例えば、ハンドジェスチャーポーズを取ることによって、監督を開始すると、プロキシビジュアルシステムループが起動され、例えば、プロキシビジュアルモジュールがプロセッサモジュール上で実行される。既定のアクションとして使用される、特定のアクション、例えば、ハンドジェスチャーポーズは、システムコントローラ140(図1)がそのアクションを認識するように構成されている限り必須ではない。
一態様において、プロキシビジュアルは、マスターフィンガー追跡グリップ170によって制御される仮想ゴースト器具1311(図13)であるが、遠隔操作スレーブ手術器具1310は、執刀医のコンソール185のマスターツールマニピュレータのうちの1つによって制御される。執刀医181は、表示デバイスの両方の器具1310および1311を見るが、執刀医180は、執刀医のコンソール185における立体表示の両方の器具1310および1311を見る。仮想ゴースト器具1311をプロキシビジュアルとして使用することは、単なる例示であり、この特定画像に限定することを意図しない。本開示に照らして、他の画像をプロキシビジュアルに使用することができ、プロキシビジュアルおよび遠隔操作スレーブ手術器具の実際のエンドエフェクタの画像を表す画像間の区別を容易にする。
仮想ゴースト器具1311は、仮想ゴースト器具1311が、仮想ゴースト器具1311を実際の器具1310から明確に区別する方法(例えば、透明または半透明ゴースト器具、顕著に着色された画像等)で表示されることを除いて、実際の器具1310に類似するように思われる。仮想ゴースト器具1311の制御および操作は、実際の遠隔操作手術器具に関して上述されるものと同一である。したがって、執刀医181は、マスターフィンガー追跡グリップ170を使用して、仮想ゴースト器具1311を操作して、遠隔操作スレーブ手術器具1310の適切な使用を示すことができる。執刀医180は、器具1310を伴う仮想ゴースト器具1311の運動を模倣する。
仮想ゴースト器具は、参照することによりその全体が本明細書に組み込まれる、同一出願人による米国特許出願公開第US2009/0192523 A1号(2009年3月31日出願、「Synthetic Representation of a Surgical Instrument」を開示)において、より完全に説明される。またそれぞれを参照することによりその全体が本明細書に組み込まれる、米国特許出願第12/485,503号(2009年6月16日出願、「Virtural Measurement Tool for Minimally Invasive Surgery」を開示)米国特許出願第12/485,545号(2009年6月16日出願、「Virtual Measurement Tool for Minimally Invasive Surgery」を開示)、米国特許出願公開第US2009/0036902 A1号(2008年8月11日出願、「Interactive User Interfaces for Robotic Minimally Invasive Surgical Systems」を開示)、米国特許出願公開第US2007/0167702 A1号(2005年12月30日出願、「Medical Robotic System Providing Three−Dimensional Telestration」を開示)、米国特許出願公開第US2007/0156017 A1号(2005年12月30日出願、「Stereo Telestration for Robotic Surgery」を開示)、および米国特許出願公開第US2010/0164950 A1号(2009年5月13日出願、「Efficient 3−D Telestration for Local Robotic Proctoring」を開示)も参照されたい。
別の態様において、プロキシビジュアルは、一対の仮想ハンド1410、1411(図14)であり、マスターフィンガー追跡グリップ170および図1では見ることができない第2のマスターフィンガー追跡グリップによって制御される。遠隔操作スレーブ手術器具1420、1421は、執刀医のコンソール185のマスターツールマニピュレータによって制御される。執刀医181は、表示デバイス187においてビデオ画像1400を見て、執刀医180は、執刀医のコンソール185における立体ディスプレイのビデオ画像も見る。仮想ハンド1410、1411は、ビデオ画像1400における他の物体からそれらを明らかに区別する方法で表示される。
仮想ハンドの親指および人指し指の開閉は、上述されたグリップ閉合パラメータggripを使用して制御される。仮想ハンドの位置および配向は、制御点位置および配向によって、上述のように制御され、これもまた上述されるように、視界座標空間にマッピングされる。
したがって、執刀医181が執刀医の右手を3次元に移動させると、仮想ハンド1411は、ビデオ画像1400における動きに従う。執刀医181は、仮想ハンド1411を転動させて、執刀医180に遠隔操作スレーブ手術器具1421を転動させるよう指示する。執刀医181は、仮想ハンド1410を特定のロケーションに移動させた後、親指および人指し指の動きを使用して、執刀医180に遠隔操作スレーブ手術器具 1420をそのロケーションに移動させ、組織を把持するように指示する。執刀医180が器具1420で組織を把持する場合、執刀医181は、仮想ハンド1410を使用して、執刀医180に組織を移動させる方法を指示する。これはすべてリアルタイムで発生し、仮想ハンド1410、1411は、立体内視鏡画像に重ね合わせられる。しかしながら、プロキシビジュアルは、単一鏡システムで使用することもできる。
別の態様において、執刀医181は、ハンドジェスチャーポーズを使用して、プロキシビジュアルが、ビデオ画像1500に提示される、仮想ゴースト器具1510および仮想テレストレーションデバイス1511である、表示モードを変更する(図15)。テレストレーションデバイス1511は、マスターフィンガー追跡グリップ170によって制御されるが、図1では見ることができない第2のマスターフィンガー追跡グリップは、仮想ゴースト器具1511を制御する。
遠隔操作スレーブ手術器具1520、1521は、執刀医コンソール185のマスターツールマニピュレータによって制御される。執刀医181は、表示デバイス187におけるビデオ画像1500を見て、執刀医180はあ、執刀医のコンソール185における立体表示のビデオ画像1500も見る。仮想テレストレーションデバイス1511および仮想ゴースト器具1411は、ビデオ画像1400における他の物体からそれらを明らかに区別する方法で表示される。
仮想テレストレーションデバイス1511でテレストレートするために、執刀医181は、親指および人指し指を一緒にして、想像上のペンまたは鉛筆を把持する可能ようにした後、親指および人指し指がこの位置にある右手を動かして、表示されたビデオ画像においてテレストレートする。ビデオ画像1500において、執刀医181は、親指および人指し指をそのように位置付け、マーク1512を作製して、手術器具1521を使用して、切断されるべき組織の位置を示す。マーク1512が作製された後、執刀医1810は、親指および人指し指を離し、仮想テレストレーションデバイス1511をビデオ画像1500に示される位置に移動させる。
仮想テレストレーションデバイス1511のマーキング能力は、上述されるように、グリップ閉合パラメータggripを使用して制御される。上記のとおり、親指および人指し指がちょうど接触するとき、グリップ閉合パラメータggripは、第2の範囲の初期値にマッピングされるため、グリップ閉合パラメータggripが第2の範囲内にある場合、テレストレーションは、テレストレーションデバイス1511に関して可能になる。視界座標系にマッピングされた後の制御点位置および配向を使用して、仮想テレストレーションデバイス 1511の運動を制御する。
本発明の態様および実施形態を例示する上記の説明および添付の図面は、限定として見なされるべきではなく、請求項は保護された発明を定義する。様々な機械的、構成的、構造的、電気的、および操作上の変更は、本説明の精神および範囲ならびに請求項から逸脱することなく、行ってもよい。いくつかの例において、よく知られている回路、構造、および技術は、本発明を曖昧にするのを避けるため、詳細に図示または説明されなかった。
さらに、本説明の用語は、本発明を限定することを意図しない。例えば、空間的に関連する用語、例えば、「beneath(下)」、「below(下)」、「lower(下位)」、「above(上)」、「upper(上位)」、「proximal(近位)」、「distal(遠位)」等を使用して、図面に例示されるように、1つの素子または特徴に対する別の素子または特徴の関係を説明してもよい。これらの空間的に関連する用語は、図面に示される位置および配向に加えて、使用または操作しているデバイスの異なる位置(すなわち、ロケーション)および配向(すなわち、転動配置)を包含する。例えば、図面のデバイスが回転される場合、他の素子または特徴の「下(belowまたはbeneath)」にあるとして記述される素子は、他の素子または特徴の「上(aboveまたはover)」にある。したがって、典型的な用語「below」は、上および下の両方の位置および配向を包含することができる。デバイスは、その他に配向されてもよく(90度回転されるか、または他の配向)、本明細書に使用される空間的に関連する記述子は、それに従って解釈される。同様に、様々な軸に沿っておよび軸を中心とする運動の記述は、様々な特別のデバイス位置および配向を含む。
「a」、「an」、および「the」という単数形は、文脈上他に指定のない限り、複数形も同様に含むことを意図する。「含む(comprises、comprising、includes等)」という用語は、規定された特徴、ステップ、操作、プロセス、素子、および/またはコンポーネントを特定するが、1つまたは複数の他の特徴、ステップ、操作、プロセス、素子、コンポーネント、および/または群の存在または追加を除外しない。連結されるとして記載されるコンポーネントは、電気的または機械的に直接連結されてもよいか、または1つもしくは複数の中間コンポーネントを介して、間接的に連結されてもよい。
メモリは、揮発性メモリ、非揮発性メモリ、またはそれら2つのあらゆる組み合わせを指す。プロセッサは、プロセッサによって実行される指示を含有するメモリに連結される。これは、コンピュータシステム内、または代替として別のコンピュータへの接続を介して、モデムおよびアナログ回線、またはデジタルインターフェースおよびデジタル回線を介して達成され得る。
本明細書において、コンピュータプログラム製品は、ハンド追跡に関して説明されるプロセスのうちのいずれか1つまたはあらゆる組み合わせに必要とされるコンピュータ可読コードを保存するように構成された媒体、またはハンド追跡に関して説明されるプロセスのいずれか1つまたはあらゆる組み合わせのコンピュータ可読コードが保存される媒体を含む。コンピュータプログラム製品のいくつかの例は、CD−ROMディスク、DVDディスク、フラッシュメモリ、ROMカード、フロッピー(登録商標)ディスク、磁気テープ、コンピュータハードドライブ、ネットワーク上のサーバー、およびコンピュータ可読プログラムコードを表すネットワークを超えて伝送される信号である。非一過性有形コンピュータプログラム製品は、様々なコントローラに関して説明されるプロセスのうちのいずれか1つまたはあらゆる組み合わせに対するコンピュータ可読指示を保存するように構成された非一過性有形媒体、または様々なコントローラに関して説明されるプロセスのうちのいずれか1つまたはあらゆる組み合わせに対するコンピュータ可読指示が保存される非一過性有形媒体を含む。非一過性有形コンピュータプログラムは、CD−ROMディスク、DVDディスク、フラッシュメモリ、ROMカード、フロッピー(登録商標)ディスク、磁気テープ、コンピュータハードドライブ、および他の非一過性物理記憶媒体である。
本開示に照らして、ハンド追跡に関して説明されるプロセスのうちのいずれか1つまたはあらゆる組み合わせにおいて使用される指示は、操作システムおよびユーザの関心を引くコンピュータプログラミング言語を使用して、多様なコンピュータシステムコンフィギュレーションにおいて実装することができる。
図1の異なるメモリおよびプロセッサの使用は、単なる例示であり、限定することを意図しない。いくつかの態様において、単一のハードウェアプロセッサを使用することができ、他の態様では、複数のプロセッサを使用することができる。
また例示のそれぞれに対して、様々なプロセスが、ハンド追跡コントローラとシステムコントローラとの間に分配された。これも例示であり、限定することを意図しない。様々なプロセスをコントローラ全体に分配することができるか、またはハンド追跡プロセスにおける操作の原理を変更することなく、コントローラに統合することができる。
すべての実施例および例示的参照は、非限定であり、本明細書に記載される特定の実装および実施形態ならびにそれらに相当するものに請求項を限定するために使用されてはならない。見出しは単に書式設定のためであり、1つの見出し下のテキストは、1つまたは複数の見出し下のテキストを相互参照または適用し得るため、いかなる方法においても対象の事項を限定するために使用されてはならない。最後に、本開示に照らして、一態様または実施形態に関連して説明される特定の特徴は、具体的に図面に示されないか、またはテキストに記載されない場合であっても、本発明の他の開示される態様または実施形態に適用されてもよい。

Claims (18)

  1. センサ素子の位置を受信する手段であって、該センサ素子は、ヒトの手の固有の部分に装着されている、手段と、
    該ヒトの手の位置がマスターツールマニピュレータのマスターツールグリップの位置から閾値距離内にあるか否かを決定する手段であって、該マスターツールマニピュレータは、手術システムのコンソール内にあり、該ヒトの手の位置は、該センサ素子の位置を用いて決定される、手段と、
    該決定の結果に基づいて、該手術システムの操作のシステムモードを制御する手段と
    を含む、システム。
  2. 前記操作のシステムモードは、スレーブ手術器具の遠隔操作を含み、
    前記手術システムの操作のシステムモードを制御する手段は、
    前記ヒトの手の位置が前記マスターツールグリップの位置から前記閾値距離内にある場合には、該マスターツールグリップに結合されている該スレーブ手術器具の遠隔操作を許可し、
    該ヒトの手の位置が該マスターツールグリップの位置から該閾値距離内にない場合には、該スレーブ手術器具の遠隔操作を抑制する、請求項1に記載のシステム。
  3. 前記操作のシステムモードは、ユーザインターフェースのディスプレイを含み、
    前記手術システムの操作のシステムモードを制御する手段は、
    前記ヒトの手の位置が前記マスターツールグリップの位置から前記閾値距離内にある場合には、該手術システムのディスプレイ上の該ユーザインターフェースをオフにし、
    該ヒトの手の位置が該マスターツールグリップの位置から該閾値距離内にない場合には、該手術システムのディスプレイ上の該ユーザインターフェースをオンにする、請求項1に記載のシステム。
  4. 前記ヒトの手の位置は、制御点位置を含む、請求項1に記載のシステム。
  5. 前記ヒトの手の位置は、人差し指の位置を含む、請求項1に記載のシステム。
  6. 前記決定する手段は、前記センサ素子の位置を共通座標フレームにおける第1の位置にマッピングし、該第1の位置は、前記ヒトの手の位置であり、
    該決定する手段は、前記マスターツールグリップの位置を該共通座標フレームにおける第2の位置にマッピングする、請求項1に記載のシステム。
  7. 前記決定する手段は、前記第1の位置と前記第2の位置との間の前記共通座標フレームにおける距離を生成し、該共通座標フレームにおける距離は、前記ヒトの手の位置と前記マスターツールグリップの位置との間の距離を表し、
    該決定する手段は、該共通座標フレームにおける距離を前記閾値距離と比較する、請求項6に記載のシステム。
  8. 前記センサ素子は、複数の基準マーカーを含む、請求項1に記載のシステム。
  9. 前記センサ素子は、受動電磁センサを含む、請求項1に記載のシステム。
  10. 手術システムであって、
    該手術システムは、
    該手術システム内のコンソールに結合されているマスターツールマニピュレータであって、該マスターツールマニピュレータは、マスターツールグリップを含む、マスターツールマニピュレータと、
    ハンド追跡システムであって、該ハンド追跡システムは、ヒトの手の固有の部分の一部に装着されたセンサ素子の位置を追跡する、ハンド追跡システムと、
    該マスターツールグリップの位置および該センサ素子の位置を受信するように結合されている第1のコントローラであって、該第1のコントローラは、該ヒトの手の位置と、該マスターツールグリップの位置との間の距離を決定することにより、該マスターツールグリップが該ヒトの手から閾値距離内にあるか否かを決定し、該ヒトの手の位置は、該センサ素子の位置を用いて該第1のコントローラにより決定され、該第1のコントローラは、該マスターツールグリップが該ヒトの手から該閾値距離内にあるか否かに基づいて、システムイベントを該手術システムに投入する、第1のコントローラと
    を含む、手術システム。
  11. 前記システムイベントは、前記マスターツールグリップが前記ヒトの手から前記閾値距離内にない場合にハンド非存在イベントである、請求項10に記載のシステム。
  12. 前記システムイベントは、前記マスターツールグリップが前記ヒトの手から前記閾値距離内にある場合にハンド存在イベントである、請求項10に記載のシステム。
  13. 前記ヒトの手の位置は、人差し指の位置を含む、請求項10に記載のシステム。
  14. 前記ヒトの手の位置は、制御点位置を含む、請求項10に記載のシステム。
  15. 前記センサ素子は、複数の基準マーカーを含む、請求項10に記載のシステム。
  16. 前記センサ素子は、受動電磁センサを含む、請求項10に記載のシステム。
  17. 処理ユニットと、
    前記システムイベントを受信するように構成されている第2のコントローラと、
    該処理ユニットで実行するモジュールによって生成されたユーザインターフェースと、
    ユーザインターフェースのディスプレイを出力するように構成されているディスプレイデバイスと
    をさらに含み、
    該システムイベントがハンド非存在イベントの場合には、該第2のコントローラは、該ユーザインターフェースのディスプレイをオンにし、
    該システムイベントがハンド存在イベントの場合には、該第2のコントローラは、該ユーザインターフェースのディスプレイをオフにする、請求項10に記載のシステム。
  18. 前記マスターツールグリップに遠隔操作可能に結合されている手術器具と、
    前記システムイベントを受信するように構成されている第2のコントローラと
    をさらに含み、
    該システムイベントがハンド存在イベントの場合には、該第2のコントローラは、該手術器具の遠隔操作を可能にし、
    該システムイベントがハンド非存在イベントの場合には、該第2のコントローラは、該手術器具の遠隔操作を可能にしない、請求項10に記載のシステム。
JP2012538989A 2009-11-13 2010-11-11 低侵襲外科システムにおいて手の存在を検出するための方法およびシステム Active JP5847725B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US12/617,937 2009-11-13
US12/617,937 US8521331B2 (en) 2009-11-13 2009-11-13 Patient-side surgeon interface for a minimally invasive, teleoperated surgical instrument
US12/887,160 US8935003B2 (en) 2010-09-21 2010-09-21 Method and system for hand presence detection in a minimally invasive surgical system
US12/887,160 2010-09-21
PCT/US2010/056405 WO2011060185A1 (en) 2009-11-13 2010-11-11 Method and system for hand presence detection in a minimally invasive surgical system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015145498A Division JP5982542B2 (ja) 2009-11-13 2015-07-23 低侵襲外科システムにおいて手の存在を検出するための方法およびシステム

Publications (2)

Publication Number Publication Date
JP2013510674A JP2013510674A (ja) 2013-03-28
JP5847725B2 true JP5847725B2 (ja) 2016-01-27

Family

ID=45818409

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2012538989A Active JP5847725B2 (ja) 2009-11-13 2010-11-11 低侵襲外科システムにおいて手の存在を検出するための方法およびシステム
JP2015145498A Active JP5982542B2 (ja) 2009-11-13 2015-07-23 低侵襲外科システムにおいて手の存在を検出するための方法およびシステム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2015145498A Active JP5982542B2 (ja) 2009-11-13 2015-07-23 低侵襲外科システムにおいて手の存在を検出するための方法およびシステム

Country Status (6)

Country Link
US (5) US8935003B2 (ja)
EP (1) EP2480158B1 (ja)
JP (2) JP5847725B2 (ja)
KR (1) KR101785360B1 (ja)
CN (2) CN104887326B (ja)
WO (1) WO2011060185A1 (ja)

Families Citing this family (122)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9266239B2 (en) 2005-12-27 2016-02-23 Intuitive Surgical Operations, Inc. Constraint based control in a minimally invasive surgical apparatus
US10532466B2 (en) * 2008-08-22 2020-01-14 Titan Medical Inc. Robotic hand controller
US8332072B1 (en) 2008-08-22 2012-12-11 Titan Medical Inc. Robotic hand controller
US8423182B2 (en) 2009-03-09 2013-04-16 Intuitive Surgical Operations, Inc. Adaptable integrated energy control system for electrosurgical tools in robotic surgical systems
US20110172550A1 (en) 2009-07-21 2011-07-14 Michael Scott Martin Uspa: systems and methods for ems device communication interface
US8935003B2 (en) 2010-09-21 2015-01-13 Intuitive Surgical Operations Method and system for hand presence detection in a minimally invasive surgical system
US8521331B2 (en) 2009-11-13 2013-08-27 Intuitive Surgical Operations, Inc. Patient-side surgeon interface for a minimally invasive, teleoperated surgical instrument
US8996173B2 (en) 2010-09-21 2015-03-31 Intuitive Surgical Operations, Inc. Method and apparatus for hand gesture control in a minimally invasive surgical system
EP3543920B1 (en) 2010-04-09 2023-09-13 ZOLL Medical Corporation Systems and methods for ems device communications interface
KR101891138B1 (ko) 2010-11-11 2018-08-23 더 존스 홉킨스 유니버시티 인간-기계 협력 로봇 시스템
JP5800616B2 (ja) * 2011-07-15 2015-10-28 オリンパス株式会社 マニピュレータシステム
JP6021353B2 (ja) 2011-08-04 2016-11-09 オリンパス株式会社 手術支援装置
JP6081061B2 (ja) 2011-08-04 2017-02-15 オリンパス株式会社 手術支援装置
JP5841451B2 (ja) 2011-08-04 2016-01-13 オリンパス株式会社 手術器具およびその制御方法
JP6000641B2 (ja) 2011-08-04 2016-10-05 オリンパス株式会社 マニピュレータシステム
JP5931497B2 (ja) 2011-08-04 2016-06-08 オリンパス株式会社 手術支援装置およびその組立方法
JP5953058B2 (ja) 2011-08-04 2016-07-13 オリンパス株式会社 手術支援装置およびその着脱方法
WO2013018897A1 (ja) 2011-08-04 2013-02-07 オリンパス株式会社 術具及び医療用マニピュレータ
CN103717169B (zh) * 2011-08-04 2016-11-16 奥林巴斯株式会社 医疗用机械手及其控制方法
JP6005950B2 (ja) 2011-08-04 2016-10-12 オリンパス株式会社 手術支援装置及びその制御方法
JP5936914B2 (ja) 2011-08-04 2016-06-22 オリンパス株式会社 操作入力装置およびこれを備えるマニピュレータシステム
JP6009840B2 (ja) 2011-08-04 2016-10-19 オリンパス株式会社 医療機器
JP6021484B2 (ja) 2011-08-04 2016-11-09 オリンパス株式会社 医療用マニピュレータ
US9519341B2 (en) 2011-08-04 2016-12-13 Olympus Corporation Medical manipulator and surgical support apparatus
US20130060166A1 (en) * 2011-09-01 2013-03-07 The Regents Of The University Of California Device and method for providing hand rehabilitation and assessment of hand function
US9924907B2 (en) 2011-09-30 2018-03-27 Google Technology Holdings LLC Method and system for identifying location of a touched body part
US20130093751A1 (en) * 2011-10-12 2013-04-18 Microsoft Corporation Gesture bank to improve skeletal tracking
WO2013059643A1 (en) 2011-10-21 2013-04-25 Intuitive Surgical Operations, Inc. Grip force control for robotic surgical instrument end effector
US9014850B2 (en) * 2012-01-13 2015-04-21 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and computer-program products for evaluating grasp patterns, and robots incorporating the same
JP6250566B2 (ja) * 2012-02-15 2017-12-20 インテュイティブ サージカル オペレーションズ, インコーポレイテッド モードを区別する操作動作を用いたロボットシステム操作モードの使用者選択
US9445876B2 (en) * 2012-02-27 2016-09-20 Covidien Lp Glove with sensory elements incorporated therein for controlling at least one surgical instrument
CN102729238B (zh) * 2012-06-28 2014-11-26 哈尔滨工程大学 三轴交汇式姿态主手机构
JP6053358B2 (ja) * 2012-07-03 2016-12-27 オリンパス株式会社 手術支援装置
US9535596B2 (en) * 2012-07-25 2017-01-03 Facebook, Inc. Three-dimensional gestures
WO2014021603A1 (ko) * 2012-08-02 2014-02-06 한국기술교육대학교 산학협력단 스트링 꼬임 기반 모션 제어 장치
EP2895098B1 (en) 2012-09-17 2022-08-10 Intuitive Surgical Operations, Inc. Methods and systems for assigning input devices to teleoperated surgical instrument functions
JP2015533248A (ja) 2012-09-28 2015-11-19 ゾール メディカル コーポレイションZOLL Medical Corporation Ems環境内で三次元対話をモニタするためのシステム及び方法
US10864048B2 (en) 2012-11-02 2020-12-15 Intuitive Surgical Operations, Inc. Flux disambiguation for teleoperated surgical systems
US10631939B2 (en) 2012-11-02 2020-04-28 Intuitive Surgical Operations, Inc. Systems and methods for mapping flux supply paths
US20140176661A1 (en) 2012-12-21 2014-06-26 G. Anthony Reina System and method for surgical telementoring and training with virtualized telestration and haptic holograms, including metadata tagging, encapsulation and saving multi-modal streaming medical imagery together with multi-dimensional [4-d] virtual mesh and multi-sensory annotation in standard file formats used for digital imaging and communications in medicine (dicom)
JP6077297B2 (ja) * 2012-12-25 2017-02-08 川崎重工業株式会社 手術ロボット
US20140257766A1 (en) * 2013-03-06 2014-09-11 Qualcomm Incorporated Adaptive probabilistic step detection for pedestrian positioning
US9566414B2 (en) 2013-03-13 2017-02-14 Hansen Medical, Inc. Integrated catheter and guide wire controller
BR112015022187A2 (pt) 2013-03-14 2017-07-18 Stanford Res Inst Int ferramentas cirúrgicas minimamente invasivas
EP2967348B1 (en) * 2013-03-15 2022-03-23 Synaptive Medical Inc. Intelligent positioning system
US10849702B2 (en) 2013-03-15 2020-12-01 Auris Health, Inc. User input devices for controlling manipulation of guidewires and catheters
US9283046B2 (en) 2013-03-15 2016-03-15 Hansen Medical, Inc. User interface for active drive apparatus with finite range of motion
CN105188592B (zh) 2013-03-15 2018-07-27 Sri国际公司 超灵巧型手术系统
EP2988696A4 (en) 2013-04-25 2016-11-30 Intuitive Surgical Operations CONTROL ENTRY VISUALIZATION FIELD FOR SURGICAL EQUIPMENT
US11020016B2 (en) 2013-05-30 2021-06-01 Auris Health, Inc. System and method for displaying anatomy and devices on a movable display
US9179051B1 (en) * 2013-06-13 2015-11-03 Clara Stoudt Voice-activated hands-free camera holder systems
DE102013108114B4 (de) * 2013-07-30 2015-02-12 gomtec GmbH Eingabevorrichtung zur Gestensteuerung mit Schutzeinrichtung
DE102013110847B3 (de) * 2013-10-01 2015-01-22 gomtec GmbH Steuervorrichtung und Verfahren zum Steuern eines Robotersystems mittels Gestensteuerung
KR102237597B1 (ko) * 2014-02-18 2021-04-07 삼성전자주식회사 수술 로봇용 마스터 장치 및 그 제어 방법
CN111616666A (zh) 2014-03-19 2020-09-04 直观外科手术操作公司 使用眼球凝视跟踪的医疗装置、系统和方法
EP3119343A4 (en) 2014-03-19 2017-12-20 Intuitive Surgical Operations, Inc. Medical devices, systems, and methods integrating eye gaze tracking for stereo viewer
EP3243476B1 (en) 2014-03-24 2019-11-06 Auris Health, Inc. Systems and devices for catheter driving instinctiveness
US11977998B2 (en) 2014-05-15 2024-05-07 Storz Endoskop Produktions Gmbh Surgical workflow support system
US9211643B1 (en) * 2014-06-25 2015-12-15 Microsoft Technology Licensing, Llc Automatic in-situ registration and calibration of robotic arm/sensor/workspace system
US20150375399A1 (en) * 2014-06-27 2015-12-31 Hansen Medical, Inc. User interface for medical robotics system
EP3166468A4 (en) * 2014-07-10 2018-03-07 M.S.T. Medical Surgery Technologies Ltd. Improved interface for laparoscopic surgeries - movement gestures
US10768708B1 (en) * 2014-08-21 2020-09-08 Ultrahaptics IP Two Limited Systems and methods of interacting with a robotic tool using free-form gestures
US9811555B2 (en) 2014-09-27 2017-11-07 Intel Corporation Recognition of free-form gestures from orientation tracking of a handheld or wearable device
US10499999B2 (en) 2014-10-09 2019-12-10 Auris Health, Inc. Systems and methods for aligning an elongate member with an access site
US9914211B2 (en) 2014-11-25 2018-03-13 Synaptive Medical (Barbados) Inc. Hand-guided automated positioning device controller
DE102014226240A1 (de) * 2014-12-17 2016-06-23 Kuka Roboter Gmbh System zur roboterunterstützten medizinischen Behandlung
US10187343B2 (en) 2014-12-18 2019-01-22 Facebook, Inc. Location data for defining places and traffic
KR20170140179A (ko) 2015-02-24 2017-12-20 에스알아이 인터내셔널 하이퍼덱스테러스 시스템 사용자 인터페이스
CN104758062A (zh) * 2015-04-16 2015-07-08 北京航空航天大学 一种根据体感动作信号进行手术的装置及方法
US10600015B2 (en) 2015-06-24 2020-03-24 Karl Storz Se & Co. Kg Context-aware user interface for integrated operating room
CN104970754B (zh) * 2015-06-25 2016-09-28 云南电网有限责任公司电力科学研究院 一种基于Kinect传感器手势控制内窥镜光纤的方法
CN105125155A (zh) * 2015-06-25 2015-12-09 云南电网有限责任公司电力科学研究院 一种基于手势控制内窥镜光纤的方法
CN108025445A (zh) 2015-07-23 2018-05-11 斯里国际 机器人臂及机器人手术系统
CN108135667B (zh) * 2015-10-22 2021-10-22 柯惠Lp公司 用于输入装置的可变扫动
CN105260029B (zh) * 2015-11-24 2018-04-24 哈尔滨工业大学 基于人手运动功能复现的仿人手结构实现方法
EP3463162A4 (en) * 2016-06-03 2020-06-24 Covidien LP SYSTEMS, METHODS AND COMPUTER READABLE PROGRAM PRODUCTS FOR CONTROLLING A ROBOT CONTROLLED MANIPULATOR
US11037464B2 (en) * 2016-07-21 2021-06-15 Auris Health, Inc. System with emulator movement tracking for controlling medical devices
WO2018060404A1 (en) * 2016-09-29 2018-04-05 Koninklijke Philips N.V. System and method for planning and performing an interventional procedure based on the spatial relationships between identified points
CN108261167B (zh) * 2017-01-03 2019-12-03 上银科技股份有限公司 内视镜操控系统
US11583356B2 (en) 2017-05-26 2023-02-21 Covidien Lp Controller for imaging device
US10678338B2 (en) * 2017-06-09 2020-06-09 At&T Intellectual Property I, L.P. Determining and evaluating data representing an action to be performed by a robot
US20200163731A1 (en) * 2017-07-13 2020-05-28 Intuitive Surgical Operations, Inc. Systems and methods for switching control between multiple instrument arms
CN107374742A (zh) * 2017-07-31 2017-11-24 成都中科博恩思医学机器人有限公司 执行机构的操控平台
US10772703B2 (en) * 2017-08-25 2020-09-15 Titan Medical Inc. Methods and apparatuses for positioning a camera of a surgical robotic system to capture images inside a body cavity of a patient during a medical procedure
US10394342B2 (en) 2017-09-27 2019-08-27 Facebook Technologies, Llc Apparatuses, systems, and methods for representing user interactions with real-world input devices in a virtual space
US20210030502A1 (en) * 2017-10-25 2021-02-04 Intuitive Surgical Operations, Inc. System and method for repositioning input control devices
JP6902208B2 (ja) * 2017-11-14 2021-07-14 オムロン株式会社 把持方法、把持システム及びプログラム
KR20200099138A (ko) 2017-12-08 2020-08-21 아우리스 헬스, 인코포레이티드 의료 기구 항행 및 표적 선정을 위한 시스템 및 방법
US10921897B2 (en) 2018-01-18 2021-02-16 Intuitive Surgical Operations, Inc. System and method for assisting operator engagement with input devices
WO2021126163A1 (en) * 2019-12-17 2021-06-24 Covidien Lp Robotic surgical systems with user engagement monitoring
US10933526B2 (en) * 2018-04-23 2021-03-02 General Electric Company Method and robotic system for manipulating instruments
AU2019270647A1 (en) * 2018-05-17 2020-12-03 Medical Microinstruments, Inc. Master controller assembly for a robotic surgery system, particularly for microsurgery
US11179213B2 (en) 2018-05-18 2021-11-23 Auris Health, Inc. Controllers for robotically-enabled teleoperated systems
US11534246B2 (en) 2018-06-15 2022-12-27 Verb Surgical Inc. User input device for use in robotic surgery
CN112218747A (zh) * 2018-06-15 2021-01-12 威博外科公司 具有手指离合器的用户界面装置
JP7248271B2 (ja) * 2018-09-14 2023-03-29 国立大学法人 東京大学 情報処理装置、ロボットハンド制御システム、及びロボットハンド制御プログラム
US11934594B2 (en) 2018-10-04 2024-03-19 Intuitive Surgical Operations, Inc. Systems and methods of device control with operator and motion sensing
CN109730772B (zh) * 2018-12-27 2020-11-13 北京术锐技术有限公司 操作使能控制系统及具有该系统的机器人辅助手术设备
US11478318B2 (en) * 2018-12-28 2022-10-25 Verb Surgical Inc. Methods for actively engaging and disengaging teleoperation of a surgical robotic system
US10539644B1 (en) * 2019-02-27 2020-01-21 Northern Digital Inc. Tracking an object in an electromagnetic field
JP2020162916A (ja) * 2019-03-29 2020-10-08 ソニー株式会社 制御装置及びマスタスレーブシステム
US11478312B2 (en) * 2019-05-10 2022-10-25 Verb Surgical Inc. Unmatching/matching UID to robot grasper for engaging teleoperation
US11337767B2 (en) 2019-05-17 2022-05-24 Verb Surgical Inc. Interlock mechanisms to disengage and engage a teleoperation mode
US11204640B2 (en) 2019-05-17 2021-12-21 Verb Surgical Inc. Methods for determining if teleoperation should be disengaged based on the user's gaze
US10890983B2 (en) * 2019-06-07 2021-01-12 Facebook Technologies, Llc Artificial reality system having a sliding menu
EP3989793A4 (en) 2019-06-28 2023-07-19 Auris Health, Inc. CONSOLE OVERLAY ITS METHODS OF USE
CN110464469B (zh) * 2019-09-10 2020-12-01 深圳市精锋医疗科技有限公司 手术机器人及末端器械的控制方法、控制装置、存储介质
GB2590593B (en) 2019-10-28 2023-09-13 Cmr Surgical Ltd Controlling a surgical instrument
CN111281649B (zh) * 2020-03-03 2021-08-13 西安交通大学 一种眼科手术机器人系统及其控制方法
US11571269B2 (en) 2020-03-11 2023-02-07 Verb Surgical Inc. Surgeon disengagement detection during termination of teleoperation
CN111814901A (zh) * 2020-07-21 2020-10-23 西北工业大学 基于数据挖掘与状态学习的医师操作手法模拟方法
EP4192381A1 (en) * 2020-08-06 2023-06-14 Medics Srl Auxiliary apparatus for surgical operations
IT202000020956A1 (it) * 2020-09-03 2022-03-03 Sir Soc Italiana Resine Spa Metodo implementato mediante computer per auto-apprendimento di un robot antropomorfo e relativo sistema di auto-apprendimento
US20220087763A1 (en) * 2020-09-23 2022-03-24 Verb Surgical Inc. Deep disengagement detection during telesurgery
IT202100003488A1 (it) * 2021-02-16 2022-08-16 Medical Microinstruments Inc “metodo per una verifica di integrità di un dispositivo master di un sistema robotico di tipo master-slave per teleoperazione medica o chirurgica”
IT202100003476A1 (it) * 2021-02-16 2022-08-16 Medical Microinstruments Inc Metodo per rilevare, sulla base di misura o rilevazione di velocità, anomalie operative di un dispositivo master non vincolato di un sistema robotico di tipo master-slave per teleoperazione medica o chirurgica
CN113633387B (zh) * 2021-06-21 2024-01-26 安徽理工大学 术野追踪的扶持腹腔镜微创机器人触力交互方法和系统
CN114099005B (zh) * 2021-11-24 2023-09-15 重庆金山医疗机器人有限公司 器械是否在视野内、是否被遮挡的判断法及能量显示方法
US11809640B2 (en) * 2021-12-09 2023-11-07 Htc Corporation Method for detecting movement of ring controller, ring controller, and computer readable medium
WO2024084479A1 (en) * 2022-10-20 2024-04-25 Ben Muvhar Kahana Shmuel Systems and methods for surgical instruments navigation using personalized dynamic markers
GB2624485A (en) * 2023-04-19 2024-05-22 Neurovirt Ltd Methods and systems for using real world objects for functional therapy in an extended reality environment
US11991222B1 (en) 2023-05-02 2024-05-21 Meta Platforms Technologies, Llc Persistent call control user interface element in an artificial reality environment

Family Cites Families (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2416094A1 (fr) 1978-02-01 1979-08-31 Zarudiansky Alain Dispositif de manipulation a distance
US4988981B1 (en) 1987-03-17 1999-05-18 Vpl Newco Inc Computer data entry and manipulation apparatus and method
US6701296B1 (en) 1988-10-14 2004-03-02 James F. Kramer Strain-sensing goniometers, systems, and recognition algorithms
JP2561561B2 (ja) 1990-11-30 1996-12-11 株式会社フジタ ロボットハンドの遠隔操作システム
JPH0573118A (ja) 1991-09-17 1993-03-26 Yaskawa Electric Corp ロボツト制御装置
US6963792B1 (en) * 1992-01-21 2005-11-08 Sri International Surgical method
US5762458A (en) 1996-02-20 1998-06-09 Computer Motion, Inc. Method and apparatus for performing minimally invasive cardiac procedures
DE4306786C1 (de) 1993-03-04 1994-02-10 Wolfgang Daum Chirurgischer Manipulator
US5791231A (en) 1993-05-17 1998-08-11 Endorobotics Corporation Surgical robotic system and hydraulic actuator therefor
US6463361B1 (en) 1994-09-22 2002-10-08 Computer Motion, Inc. Speech interface for an automated endoscopic system
US5808219A (en) 1995-11-02 1998-09-15 Yamaha Corporation Motion discrimination method and device using a hidden markov model
JP2776477B2 (ja) 1996-02-13 1998-07-16 川崎重工業株式会社 ロボット3次元位置姿勢教示システム
US5855583A (en) 1996-02-20 1999-01-05 Computer Motion, Inc. Method and apparatus for performing minimally invasive cardiac procedures
US6436107B1 (en) 1996-02-20 2002-08-20 Computer Motion, Inc. Method and apparatus for performing minimally invasive surgical procedures
US6331181B1 (en) 1998-12-08 2001-12-18 Intuitive Surgical, Inc. Surgical robotic tools, data architecture, and use
US7699855B2 (en) 1996-12-12 2010-04-20 Intuitive Surgical Operations, Inc. Sterile surgical adaptor
US6809462B2 (en) 2000-04-05 2004-10-26 Sri International Electroactive polymer sensors
US6110130A (en) 1997-04-21 2000-08-29 Virtual Technologies, Inc. Exoskeleton device for directly measuring fingertip position and inferring finger joint angle
US6049327A (en) 1997-04-23 2000-04-11 Modern Cartoons, Ltd System for data management based onhand gestures
US7472047B2 (en) 1997-05-12 2008-12-30 Immersion Corporation System and method for constraining a graphical hand from penetrating simulated graphical objects
DE69840264D1 (de) 1997-05-12 2009-01-08 Immersion Corp Kraftrückkopplungsschinittstellenvorrichtung für die hand
US6126373A (en) 1997-12-19 2000-10-03 Fanuc Usa Corporation Method and apparatus for realtime remote robotics command
JP3472957B2 (ja) * 1998-09-17 2003-12-02 株式会社日立製作所 マスタスレーブマニピュレータ
JP2000132305A (ja) * 1998-10-23 2000-05-12 Olympus Optical Co Ltd 操作入力装置
US6799065B1 (en) 1998-12-08 2004-09-28 Intuitive Surgical, Inc. Image shifting apparatus and method for a telerobotic system
US6424885B1 (en) 1999-04-07 2002-07-23 Intuitive Surgical, Inc. Camera referenced control in a minimally invasive surgical apparatus
US6565554B1 (en) 1999-04-07 2003-05-20 Intuitive Surgical, Inc. Friction compensation in a minimally invasive surgical apparatus
WO2002005217A1 (en) 2000-07-07 2002-01-17 Kent Ridge Digital Labs A virtual surgery system with force feedback
JP2002059380A (ja) 2000-08-22 2002-02-26 Olympus Optical Co Ltd マスタースレーブ装置
AU1159402A (en) 2000-10-06 2002-04-15 Mark P Ombrellaro Device for the direct manual examination of a patient in a non-contiguous location
US6524214B1 (en) 2000-12-27 2003-02-25 James A. Cillessen Variable ratio transmission
US20030135204A1 (en) 2001-02-15 2003-07-17 Endo Via Medical, Inc. Robotically controlled medical instrument with a flexible section
US6785358B2 (en) 2001-10-09 2004-08-31 General Electric Company Voice activated diagnostic imaging control user interface
US20040087989A1 (en) 2001-10-23 2004-05-06 Theracardia, Inc. Scalpel sheath and methods for use
US7203911B2 (en) 2002-05-13 2007-04-10 Microsoft Corporation Altering a display on a viewing device based upon a user proximity to the viewing device
WO2004001569A2 (en) * 2002-06-21 2003-12-31 Cedara Software Corp. Computer assisted system and method for minimal invasive hip, uni knee and total knee replacement
EP2070487B1 (en) 2002-08-13 2014-03-05 NeuroArm Surgical, Ltd. Microsurgical robot system
JP3934524B2 (ja) * 2002-10-09 2007-06-20 株式会社日立製作所 手術用マニピュレータ
US7386365B2 (en) 2004-05-04 2008-06-10 Intuitive Surgical, Inc. Tool grip calibration for robotic surgery
US7410483B2 (en) 2003-05-23 2008-08-12 Novare Surgical Systems, Inc. Hand-actuated device for remote manipulation of a grasping tool
US9002518B2 (en) 2003-06-30 2015-04-07 Intuitive Surgical Operations, Inc. Maximum torque driving of robotic surgical tools in robotic surgical systems
US8064985B2 (en) 2003-09-12 2011-11-22 Ge Medical Systems Global Technology Company System and method for determining the position of a flexible instrument used in a tracking system
JP2005224528A (ja) 2004-02-16 2005-08-25 Olympus Corp 内視鏡
JP5090161B2 (ja) * 2004-06-29 2012-12-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ グラフィカルユーザインタフェースの多階層表示
US7976559B2 (en) 2004-11-04 2011-07-12 Dynamic Surgical Inventions, Llc Articulated surgical probe and method for use
DE602004011962T2 (de) 2004-12-09 2009-02-19 University Of Dundee, Dundee Armstütze für Operateur
JP2006167867A (ja) 2004-12-16 2006-06-29 Fuji Heavy Ind Ltd 遠隔操作装置
ES2262423B1 (es) 2005-02-18 2007-11-16 Manuel Fernandez Guerrero Sistema de activacion y desactivacion automatica de radiacion ionizante controlado por la mirada del operador.
US9492240B2 (en) 2009-06-16 2016-11-15 Intuitive Surgical Operations, Inc. Virtual measurement tool for minimally invasive surgery
US8398541B2 (en) 2006-06-06 2013-03-19 Intuitive Surgical Operations, Inc. Interactive user interfaces for robotic minimally invasive surgical systems
US20070129626A1 (en) 2005-11-23 2007-06-07 Prakash Mahesh Methods and systems for facilitating surgical procedures
US7834847B2 (en) * 2005-12-01 2010-11-16 Navisense Method and system for activating a touchless control
US7907166B2 (en) 2005-12-30 2011-03-15 Intuitive Surgical Operations, Inc. Stereo telestration for robotic surgery
US20070167702A1 (en) 2005-12-30 2007-07-19 Intuitive Surgical Inc. Medical robotic system providing three-dimensional telestration
US7845537B2 (en) 2006-01-31 2010-12-07 Ethicon Endo-Surgery, Inc. Surgical instrument having recording capabilities
EP1815949A1 (en) 2006-02-03 2007-08-08 The European Atomic Energy Community (EURATOM), represented by the European Commission Medical robotic system with manipulator arm of the cylindrical coordinate type
CN101496032B (zh) 2006-02-27 2011-08-17 普莱姆传感有限公司 使用斑纹解相关的距离映射的方法及设备
US8236010B2 (en) 2006-03-23 2012-08-07 Ethicon Endo-Surgery, Inc. Surgical fastener and cutter with mimicking end effector
US20080065104A1 (en) 2006-06-13 2008-03-13 Intuitive Surgical, Inc. Minimally invasive surgical instrument advancement
US20090192523A1 (en) 2006-06-29 2009-07-30 Intuitive Surgical, Inc. Synthetic representation of a surgical instrument
WO2008042219A2 (en) 2006-09-29 2008-04-10 Nellcor Puritan Bennett Llc User interface and identification in a medical device systems and methods
WO2008104082A1 (en) 2007-03-01 2008-09-04 Titan Medical Inc. Methods, systems and devices for threedimensional input, and control methods and systems based thereon
US8682502B2 (en) 2007-03-28 2014-03-25 Irobot Corporation Remote vehicle control system and method
US20080275367A1 (en) 2007-04-23 2008-11-06 Hansen Medical, Inc Systems and methods for mapping intra-body tissue compliance
WO2008133956A2 (en) 2007-04-23 2008-11-06 Hansen Medical, Inc. Robotic instrument control system
US20090138025A1 (en) 2007-05-04 2009-05-28 Hansen Medical, Inc. Apparatus systems and methods for forming a working platform of a robotic instrument system by manipulation of components having controllably rigidity
JP5258284B2 (ja) * 2007-12-28 2013-08-07 テルモ株式会社 医療用マニピュレータ及び医療用ロボットシステム
US9881520B2 (en) 2008-01-08 2018-01-30 Immersion Medical, Inc. Virtual tool manipulation system
US8282653B2 (en) 2008-03-24 2012-10-09 Board Of Regents Of The University Of Nebraska System and methods for controlling surgical tool elements
US8808164B2 (en) 2008-03-28 2014-08-19 Intuitive Surgical Operations, Inc. Controlling a robotic surgical tool with a display monitor
US7843158B2 (en) 2008-03-31 2010-11-30 Intuitive Surgical Operations, Inc. Medical robotic system adapted to inhibit motions resulting in excessive end effector forces
EP2108328B2 (de) 2008-04-09 2020-08-26 Brainlab AG Bildbasiertes Ansteuerungsverfahren für medizintechnische Geräte
US8803955B2 (en) 2008-04-26 2014-08-12 Intuitive Surgical Operations, Inc. Augmented stereoscopic visualization for a surgical robot using a camera unit with a modified prism
US20100013910A1 (en) 2008-07-21 2010-01-21 Vivid Medical Stereo viewer
US20100082368A1 (en) 2008-09-29 2010-04-01 Corquality Systems, Inc. Wrong site surgery prevention system
US8830224B2 (en) 2008-12-31 2014-09-09 Intuitive Surgical Operations, Inc. Efficient 3-D telestration for local robotic proctoring
US9155592B2 (en) 2009-06-16 2015-10-13 Intuitive Surgical Operations, Inc. Virtual measurement tool for minimally invasive surgery
US8543240B2 (en) 2009-11-13 2013-09-24 Intuitive Surgical Operations, Inc. Master finger tracking device and method of use in a minimally invasive surgical system
US8682489B2 (en) 2009-11-13 2014-03-25 Intuitive Sugical Operations, Inc. Method and system for hand control of a teleoperated minimally invasive slave surgical instrument
US8935003B2 (en) 2010-09-21 2015-01-13 Intuitive Surgical Operations Method and system for hand presence detection in a minimally invasive surgical system
US8996173B2 (en) 2010-09-21 2015-03-31 Intuitive Surgical Operations, Inc. Method and apparatus for hand gesture control in a minimally invasive surgical system
US8521331B2 (en) 2009-11-13 2013-08-27 Intuitive Surgical Operations, Inc. Patient-side surgeon interface for a minimally invasive, teleoperated surgical instrument
WO2011085815A1 (en) * 2010-01-14 2011-07-21 Brainlab Ag Controlling a surgical navigation system
US8520027B2 (en) 2010-05-14 2013-08-27 Intuitive Surgical Operations, Inc. Method and system of see-through console overlay
US9283048B2 (en) * 2013-10-04 2016-03-15 KB Medical SA Apparatus and systems for precise guidance of surgical tools

Also Published As

Publication number Publication date
JP2013510674A (ja) 2013-03-28
JP2015186651A (ja) 2015-10-29
US20120071892A1 (en) 2012-03-22
WO2011060185A1 (en) 2011-05-19
US11707336B2 (en) 2023-07-25
US20200113641A1 (en) 2020-04-16
CN102665588A (zh) 2012-09-12
US9743989B2 (en) 2017-08-29
EP2480158B1 (en) 2016-05-11
CN104887326A (zh) 2015-09-09
US20150080909A1 (en) 2015-03-19
KR20140015144A (ko) 2014-02-06
US20170319284A1 (en) 2017-11-09
US10543050B2 (en) 2020-01-28
JP5982542B2 (ja) 2016-08-31
KR101785360B1 (ko) 2017-10-16
CN104887326B (zh) 2017-09-08
CN102665588B (zh) 2015-07-22
EP2480158A1 (en) 2012-08-01
US8935003B2 (en) 2015-01-13
US20230346494A1 (en) 2023-11-02

Similar Documents

Publication Publication Date Title
JP5982542B2 (ja) 低侵襲外科システムにおいて手の存在を検出するための方法およびシステム
JP6000387B2 (ja) 低侵襲外科システムにおいて使用するマスターフィンガー追跡システム
JP5702798B2 (ja) 低侵襲外科システムにおけるハンドジェスチャー制御の方法および装置
JP5702797B2 (ja) 遠隔操作される低侵襲スレーブ手術器具の手による制御のための方法およびシステム
US9901402B2 (en) Method and apparatus for hand gesture control in a minimally invasive surgical system
EP3092968B1 (en) System for hand presence detection in a minimally invasive surgical system
KR101824442B1 (ko) 최소 침습 수술 시스템에서 손 존재 검출을 위한 방법 및 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150126

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150424

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150525

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151125

R150 Certificate of patent or registration of utility model

Ref document number: 5847725

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250