JP6367905B2 - 定位手術用の手術ロボットシステム及び定位手術用ロボットの制御方法 - Google Patents

定位手術用の手術ロボットシステム及び定位手術用ロボットの制御方法 Download PDF

Info

Publication number
JP6367905B2
JP6367905B2 JP2016248817A JP2016248817A JP6367905B2 JP 6367905 B2 JP6367905 B2 JP 6367905B2 JP 2016248817 A JP2016248817 A JP 2016248817A JP 2016248817 A JP2016248817 A JP 2016248817A JP 6367905 B2 JP6367905 B2 JP 6367905B2
Authority
JP
Japan
Prior art keywords
unit
surgical
coordinate system
coordinate
imaging data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016248817A
Other languages
English (en)
Other versions
JP2018027289A (ja
Inventor
ウンヒョン ソン
ウンヒョン ソン
ヨンシク クォン
ヨンシク クォン
ジェホン チョン
ジェホン チョン
Original Assignee
コー・ヤング・テクノロジー・インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コー・ヤング・テクノロジー・インコーポレーテッド filed Critical コー・ヤング・テクノロジー・インコーポレーテッド
Publication of JP2018027289A publication Critical patent/JP2018027289A/ja
Application granted granted Critical
Publication of JP6367905B2 publication Critical patent/JP6367905B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/32Surgical robots operating autonomously
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/11Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/14Fixators for body parts, e.g. skull clamps; Constructional details of fixators, e.g. pins
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/254User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B2090/103Cranial plugs for access to brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40298Manipulator on vehicle, wheels, mobile
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/30End effector
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Robotics (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Neurosurgery (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Biophysics (AREA)
  • Manipulator (AREA)

Description

本発明は、定位手術用の手術ロボットシステム及び定位手術用ロボットの制御方法に関するものである。
本発明は、産業通商資源部のロボット産業融合核心技術開発事業の一環として、実行された研究から導き出されたものである(課題固有番号:10062800、研究課題名:臨床試験を通じた医療画像ベースの脳手術ロボットシステムの実用化技術開発)。
多様な定位手術器具が公知となっている。例えば、脳手術用の手動定位手術器具としてレクセルフレーム(LEKSELL FRAME)が用いられている。レクセルフレームは、定位手術道具の位置が患部の位置に対応するように、使用者が手動で定位手術道具をX、Y、Z軸に移動及び回転させることができる構造を有する。しかし、このような手動定位手術器具を用いる場合、使用者がレクセルフレーム上の目盛りを肉眼で読み出して手術道具の位置を決定し、移動させなければならないので、患部の位置と手術道具との間に誤差が発生しやすい。
従って、手術道具の位置設定の精度を改善するために、定位手術にロボットを活用する技術が用いられている。定位手術用のロボットは、可動アームアセンブリを含むロボットアームとして具現され、ここで、ロボットアームは、固定されたベースに連結され、直列に連結された複数のアームを含む。このような直列型ロボットアームに付着された手術道具の位置及び手術精度は、ロボットアームの全ての自由度の軸により影響を受ける。即ち、ロボットアームのある一つの軸を用いた動作で誤差が発生すれば、その誤差は他の軸を用いた動作で発生した誤差に加えられることによって、ロボットアームの全ての軸を通じた動作の誤差が累積し、手術精度に影響を及ぼす。この場合、ベース側に設けられた駆動端で動作誤差が発生すれば、その誤差はベースに連結された複数のロボットアームの他の動作誤差と加えられて、ロボットアームの末端に行くほど誤差が増幅される。従って、手術の精度を高めるためには、ロボットアームが固定されたベースと患部との間の距離は短く設定されることが好ましい。しかし、ロボットアームのベースと患部との間の距離が短くなると、ロボットアームの慣性が小さくなるので誤差が発生しやすくなり、それにより、ロボットアームの精密な制御が難しくなる。また、ロボットアームのベースと患部との間の空間が小さくなるため、ロボットアームの作業半径が狭くなる。また、ベースに固定されたロボットアームが患部周囲に配置される場合には、使用者が患部周囲で動くときにロボットアームと衝突するリスクがあるので、使用者の動きが妨害され得る。
一方、定位手術のためには、手術ターゲットの位置と手術道具の進入位置(またはエントリ)が指定されなければならない。脳または神経手術の場合、手術道具の進入位置を適宜設定できないと、手術道具が手術ターゲットに到達する前に脳または神経の重要部分に接触することによって患者に対して不要なリスクがもたらされることがある。しかし、従来の定位手術器具は、手術ターゲットの位置に応じて手術道具を移動させることと、手術道具の進入位置に応じて手術道具を移動させることが、それぞれ独立に区分されていない状態で制御される。従って、実際の手術道具の位置と定位手術用のロボットシステムが認識する手術道具の位置との間に誤差が発生すれば、この誤差を修正するための手術道具の制御が複雑になる。
本発明は、定位手術の精度を高め、患者の手術姿勢の利便性を確保することができる定位手術用の手術ロボットを提供する。
本発明は、定位手術用の手術ロボットの制御誤差を低減し、発生誤差の修正が容易な定位手術用の手術ロボットの制御方法を提供する。
本発明は、手術ターゲットの位置による手術道具の動作の制御と、手術道具の進入位置による手術道具の動作の制御を、それぞれ独立に実行することによって、手術道具の動作の制御の複雑性が減少し得る、定位手術用の手術ロボット及び定位手術用の手術ロボットの制御方法を提供する。
本発明は、ユーザーインターフェースに表示された手術対象のイメージに基づいて定位手術用の手術ロボットを容易に制御できる、手術ロボットシステム及び定位手術用の手術ロボットの制御方法を提供する。
本発明の一実施例による定位手術用の手術ロボットシステム、手術道具を少なくとも5自由度に移動及び回転させる定位手術部と、手術ターゲットを含む手術部位の3次元イメージを示す第1イメージングデータを受信する制御部と、前記手術部位に取り付けられたり近接して配置される少なくとも1つのマーカーと、前記手術部位の外部の3次元イメージを示す第2イメージングデータを生成する撮像部と、前記撮像部及び前記マーカーの位置及び姿勢をトラッキングするトラッキング部とを含み、前記制御部は、前記第1イメージングデータの第1座標系から前記第2イメージングデータの第2座標系に座標を変換させるための第1座標変換関係を生成し、前記第1座標変換関係と前記撮像部及び前記少なくとも1つのマーカーの位置及び姿勢を用いて前記第1座標系から前記少なくとも1つのマーカーの第3座標系に座標を変換させるための第2座標変換関係、及び前記第3座標系から前記定位手術部の第4座標系に座標を変換させるための第3座標変換関係を生成し、前記第2座標変換関係及び前記第3座標変換関係を用いて前記定位手術部を制御することができる。
一実施例によれば、前記制御部は、ユーザーインターフェースを通じて、前記第1イメージングデータを視覚化し、前記ユーザーインターフェースを通じてユーザーが入力した前記手術ターゲットの位置及び前記手術道具の進入位置を前記第1座標系上の座標に変換することができる。
一実施例によれば、前記制御部は、前記第2座標変換関係及び前記第3座標変換関係を用いて前記変換された第1座標系上の座標を前記定位手術部の第4座標系上の座標に変換することができる。
一実施例によれば、前記定位手術部は、前記手術道具が取り付けられ、2つの回転軸のうち少なくとも1つの回転軸を中心に前記手術道具を回転させる回転部と、3つの軸のうち少なくとも1つの軸方向に前記回転部を移動させる移動部とを含み、前記制御部は、前記変換された第4座標系上の座標に基づいて前記手術道具の進入姿勢を決定し、前記第4座標系上で前記手術ターゲットの位置に対応する座標が前記2つの回転軸の交差点に位置するように前記移動部を通じて前記回転部を移動させ、前記手術道具が前記決定された手術道具の進入姿勢を有するように前記回転部を通じて前記手術道具を回転させることができる。
一実施例によれば、前記移動部は、第1軸方向に沿って移動する第1方向駆動部と、前記第1方向駆動部に連結されて、第2軸方向に沿って移動する第2方向駆動部と、前記第2方向駆動部に連結されて、第3軸方向に沿って移動する第3方向駆動部とを含み、前記回転部は、前記第3方向駆動部に連結される一端を含み、第1回転軸を中心に回転する第1回転駆動部と、前記第1回転駆動部に連結される一端を含み、第2回転軸を中心に回転する第2回転駆動部とを含むことができ、前記手術道具は、前記第2回転駆動部に取り付けられることができる。
一実施例によれば、前記制御部は、前記撮像部の位置及び姿勢に基づいて、前記第2座標系から前記撮像部の第5座標系に座標を変換させるための第4座標変換関係、及び前記第5座標系から前記第3座標系に座標を変換させるための第5座標変換関係を生成し、前記第1座標変換関係、前記第4座標変換関係及び前記第5座標変換関係に基づいて前記第2座標変換関係を生成することができる。
一実施例によれば、前記制御部は、前記第1イメージングデータが示す3次元イメージと前記第2イメージングデータが示す3次元イメージとの間のイメージ整合(image registration)を通じて前記第1座標変換関係を生成することができる。
一実施例によれば、前記制御部は、前記第1イメージングデータが示す3次元イメージと前記第2イメージングデータが示す3次元イメージに共通して含まれる前記手術部位の少なくとも一部分を用いて前記イメージ整合を行うことができる。
一実施例によれば、前記制御部は、前記第1イメージングデータから前記手術部位の2次元断面イメージを示す2次元イメージングデータを抽出し、前記2次元イメージングデータの第6座標系から前記第1座標系に座標を変換させるための座標変換関係と、前記第2座標変換関係及び前記第3座標変換関係を用いて、前記定位手術部を制御することができる。
一実施例によれば、前記撮像部は、位相遷移方式(Phase Measuring Profilometry)を用いて前記第2イメージングデータを生成することができる。
本発明の一実施例により、定位手術用の手術ロボットシステムにおいて、手術道具を少なくとも5自由度に移動及び回転させる定位手術部を制御する方法は、手術ターゲットを含む手術部位の3次元イメージを示す第1イメージングデータを制御部が受信する段階と、前記手術部位の外部の3次元イメージを示す第2イメージングデータを撮像部が生成する段階と、前記撮像部及び前記手術部位に取り付けられたり近接して配置された少なくとも1つのマーカーの位置及び姿勢をトラッキング部がトラッキングする段階と、前記第1イメージングデータの第1座標系から前記第2イメージングデータの第2座標系に座標を変換させるための第1座標変換関係を前記制御部が生成する段階と、前記第1座標変換関係と前記撮像部及び前記少なくとも1つのマーカーの位置及び姿勢を用いて前記第1座標系から前記少なくとも1つのマーカーの第3座標系に座標を変換させるための第2座標変換関係、及び前記第3座標系から前記定位手術部の第4座標系に座標を変換させるための第3座標変換関係を前記制御部が生成する段階と、前記第2座標変換関係及び前記第3座標変換関係を用いて前記制御部が前記定位手術部を制御する段階とを含むことができる。
一実施例によれば、前記定位手術部の制御方法は、ユーザーインターフェースを通じて、前記制御部が前記第1イメージングデータを視覚化する段階と、前記ユーザーインターフェースを通じてユーザーが入力した前記手術ターゲットの位置及び手術道具の進入位置を前記第1座標系上の座標に前記制御部が変換する段階とをさらに含むことができる。
一実施例によれば、前記定位手術部を制御する段階は、前記第2座標変換関係及び前記第3座標変換関係を用いて、前記変換された第1座標系上の座標を前記定位手術部の第4座標系上の座標に前記制御部が変換する段階を含むことができる。
一実施例によれば、前記定位手術部は、前記手術道具が取り付けられて、2つの回転軸のうち少なくとも1つの回転軸を中心に前記手術道具を回転させる回転部と、3つの軸のうち少なくとも1つの軸方向に前記回転部を移動させる移動部とを含むことができ、前記定位手術部を制御する段階は、前記変換された第4座標系上の座標に基づいて前記制御部が前記手術道具の進入姿勢を決定する段階と、前記第4座標系上で前記手術ターゲットの位置に対応する座標が前記2つの回転軸の交差点に位置するように前記制御部が前記移動部を通じて前記回転部を移動させる段階と、前記手術道具が前記決定された手術道具の進入姿勢を有するように前記制御部が前記回転部を通じて前記手術道具を回転させる段階とを含むことができる。
一実施例によれば、前記第2座標変換関係を前記制御部が生成する段階は、前記撮像部の位置及び姿勢に基づいて、前記第2座標系から前記撮像部の第5座標系に座標を変換させるための第4座標変換関係、及び前記第5座標系から前記第3座標系に座標を変換させるための第5座標変換関係を前記制御部が生成する段階と、前記第1座標変換関係、前記第4座標変換関係及び前記第5座標変換関係に基づいて前記第2座標変換関係を前記制御部が生成する段階とを含むことができる。
一実施例によれば、第1座標変換関係を前記制御部が生成する段階は、前記第1イメージングデータが示す3次元イメージと前記第2イメージングデータが示す3次元イメージとの間のイメージ整合を通じて前記制御部が前記第1座標変換関係を生成する段階を含むことができる。
一実施例によれば、前記制御部は、前記第1イメージングデータが示す3次元イメージと前記第2イメージングデータが示す3次元イメージに共通して含まれる前記手術部位の少なくとも一部分を用いて前記イメージ整合を行うことができる。
本発明の一実施例によるコンピュータ読み取り可能な記憶媒体は、前記手術ロボットシステムの制御方法の各段階を行う命令語を含むプログラムを格納することができる。
本発明による定位手術用の手術ロボット及び定位手術用の手術ロボットの制御方法によれば、手術ターゲットの位置と手術道具の進入位置に応じて定位手術用の手術ロボットを独立に制御できるため、手術精度が向上し、制御方式が簡便になる。患者の患部周囲に近接して手術ロボットを配置できるため、患者の利便性及び作業者の作業性が向上し、制御誤差を低減することが可能である。
また、本発明による定位手術用の手術ロボットを含む手術ロボットシステムによれば、医師が定位手術用の手術ロボットをユーザーインターフェースを通じて簡単に制御でき、手術途中で患者の動きがあっても短時間内に手術ロボットの制御のための座標変換関係の再設定が可能である。
本発明の一実施例による手術ロボットシステムが手術に用いられている例を示す図面である。 本発明の一実施例による手術ロボットシステムを示すブロック図である。 本発明の一実施例による定位手術用の手術ロボットを示す斜視図である。 本発明の一実施例による移動部の斜視図である。 本発明の一実施例による回転部の斜視図である。 本発明の一実施例による手術部位支持部の斜視図である。 本発明の一実施例による患者固定部の斜視図である。 本発明の一実施例による患者固定部が結合された定位手術用の手術ロボットの斜視図である。 本発明の一実施例によるトラッキング部の動作を説明するためのマーカー及びトラッキング部を示すブロック図である。 本発明の一実施例によって撮像部を通じて取得された手術道具の進入位置周辺に対するイメージと、手術前に撮影された手術部位が含まれた患者のイメージを整合した結果を示す図面である。 本発明の一実施例によって、手術前に撮影された手術部位が含まれた患者の3次元イメージに手術ターゲットの位置及び手術道具の進入位置が表示された図面である。 本発明の一実施例によって、手術部位を含む3次元イメージまたは3次元イメージの2次元断面イメージ上に表示された手術ターゲットの位置及び手術道具の進入位置を定位手術部の座標系上の位置に変換する方法を説明するための図面である。 本発明の一実施例によって、手術部位を含む3次元イメージを示すイメージングデータの座標系から患者マーカーの座標系に座標を変換させるための方法を説明するための図面である。 本発明の一実施例によって、手術前に撮影された手術部位が含まれた患者の3次元イメージの軸平面上の2次元断面イメージに、使用者が手術ターゲットの位置及び手術道具の進入位置を表示した図面である。 本発明の一実施例によって、手術前に撮影された手術部位が含まれた患者の3次元イメージの矢状面上の2次元断面イメージに、使用者が手術ターゲットの位置及び手術道具の進入位置を表示した図面である。 本発明の一実施例によって、手術前に撮影された手術部位が含まれた患者の3次元イメージの冠状面上の2次元断面イメージに、使用者が手術ターゲットの位置及び手術道具の進入位置を表示した図面である。 本発明の一実施例によって定位手術部を制御する方法を示すフローチャートである。 本発明の一実施例によって、手術部位を含む3次元イメージを示すイメージングデータの座標系から患者マーカーの座標系に座標を変換させるための座標変換関係を生成する方法を示すフローチャートである。 本発明の一実施例によって、手術部位を含む3次元イメージを示すイメージングデータの座標系から定位手術部の座標系に座標を変換させるための座標変換関係を用いて定位手術部を制御する方法を示すフローチャートである。
以下に説明する本発明の実施例は本発明を説明するための目的で例示されたものである。本発明の実施例は多様な形態で実施され得、本発明が下記に提示された実施例やこれらの実施例に関する具体的説明に限定されると解釈されない。
本実施例で用いられる用語「部」は、ソフトウェア、FPGA(field−programmable gate array)、ASIC(application specific integrated circuit)のようなハードウェア構成要素を意味する。しかし、「部」は、ハードウェア及びソフトウェアに限定されるものではない。「部」は、アドレッシングできる格納媒体にあるように構成されてもよく、1つまたはそれ以上のプロセッサを再生させるように構成されてもよい。従って、一例として「部」はソフトウェア構成要素、客体指向ソフトウェア構成要素、クラス構成要素及びタスク構成要素のような構成要素と、プロセッサ、関数、属性、プロシージャ、サブルーチン、プログラムコードのセグメント、ドライバ、ファームウェア、マイクロコード、回路、データ、データベース、データ構造、テーブル、アレイ及び変数を含む。構成要素と「部」内で提供される機能はさらに小さい数の構成要素及び「部」に結合したり追加の構成要素と「部」にさらに分離され得る。
本明細書で用いられる全ての技術的用語及び科学的用語は、別に定義されていない限り、本発明の属する技術分野で通常の知識を有する者に一般に理解される意味を有する。本明細書で用いられる全ての用語は本発明をより明確に説明するための目的で選択されたものであり、本発明の範囲を制限するために選択されたものではない。
本願明細書で記述された単数形の表現は、別に言及しない以上、複数形の表現もともに含み得、これは、請求項に記載された単数形の表現にも同様に適用される。
本発明の多様な実施例で用いられた「第1」、「第2」などの表現は、複数の構成要素を相互に区分するために用いるものに過ぎず、当該構成要素の順序または重要度を限定するものではない。
本明細書で用いられる「含む」及び「有する」という表現は、当該表現が含まれる文句または文章において特に異なって言及されない限り、他の実施例を含む可能性を内包する開放型用語(open−ended terms)と理解されなければならない。
本明細書で「〜に基づいて」という表現は、当該表現が含まれる文句で記述される決定または判断の行為または動作に影響を与える1つ以上の因子を記述するのに用いられ、この表現は決定または判断の行為または動作に影響を与える追加の因子を排除しない。
本明細書において、ある構成要素が他の構成要素に「連結されて」いるとか、「接続されて」いると言及されたときには、前記ある構成要素が前記他の構成要素に直接的に連結されているか、または接続されていてもよいが、前記ある構成要素と前記他の構成要素の間に新たな他の構成要素が存在してもよいと理解されるべきである。
以下、添付した図面を参照して、本発明の実施例を詳細に説明する。図面上の同一の構成要素に対しては同一の参照符号を用い、同一の構成要素について重複する説明は省略する。
<定位手術用の手術ロボットシステム>
図1は、本発明の一実施例による定位手術を行うことができる手術ロボットシステムが手術に用いられている例を示す。図示されているように、医師(または使用者)は、定位手術部1のような手術ロボットを用いて患者160に対する定位手術を行うことができる。医師は、ユーザーインターフェース150にディスプレイされた手術部位のイメージを検討して、手術を行う手術ターゲットの位置及び手術道具が患者160の内部に進入する位置を決定することができる。
もし医師がユーザーインターフェース150を通じて、手術ターゲットの位置及び手術道具の進入位置を入力すると、これに基づいて定位手術部1の動作が制御されることによって、定位手術部1に付着された手術道具が手術ターゲットに接近することができる。ここで、「手術ターゲット」(または手術対象)は、腫瘍、または臓器、血管または骨において病巣のある部分などのように、手術道具を通じて除去または治療が行われる対象を意味し得る。例えば、手術ターゲットは、患者160の体内あるいは外部表面(または皮膚)に位置し得る。手術道具の「進入位置」(またはエントリ)は、手術ターゲットが患者の体内にあるとき、手術道具が手術ターゲットに接近するために最初に接触するか通過する患者の外部表面上の位置を意味し得る。例えば、手術道具が患者の脳内に存在する腫瘍を除去するために動作する場合、手術道具の進入位置は患者の頭皮上に設定され得る。
一実施例によれば、定位手術部1の動作は、手術ロボットシステムに含まれた撮像部120及びトラッキング部130を用いて正確に制御され得る。撮像部120は、脳または脊椎のように、手術ターゲットが含まれた手術部位の外部の3次元イメージを示すイメージングデータを生成できる。ここで、「イメージングデータ(imaging data)」は、手術部位のような撮影対象を視覚的に認識できる形態に示すことができるデータを意味し得、例えば、手術部位を視覚的に示す2次元または3次元イメージと、そのイメージに関連する座標系情報を含み得る。トラッキング部130は、撮像部120、定位手術部1及び患者160に付着されたマーカー170、172、174をトラッキングして、それぞれのマーカーが付着された対象の位置及び姿勢をトラッキングできる。本発明の手術ロボットシステムによれば、トラッキング部130を用いて定位手術部1に付着された手術道具の現在の位置が決定され得る。また、撮像部120及びトラッキング部130を通じて生成された情報に基づいて、手術道具が現在の位置からユーザーインターフェース150を通じて入力された手術ターゲットの位置に移動できる。
一実施例によれば、定位手術部1は手術台110に付着されて用いられる。従って、定位手術中に手術台110が動いても、定位手術部1が手術台110とともに動くため、手術道具が手術ターゲットにガイドされている位置が変わらない。また、定位手術部1が手術台110に付着されて用いられれば、定位手術部1が患者の近くに位置できるので、定位手術部1に付着された手術道具の精密な制御が可能になり、定位手術部1により医師の動線が妨害されることを防止できる。
以下では、図1の例を通じて概略的に説明した本発明の手術ロボットシステムの多様な実施例についてより具体的に説明する。
図2は、本発明の一実施例による手術ロボットシステム100を示すブロック図である。手術ロボットシステム100は、定位手術を行うことができる手術ロボットシステムであり、定位手術部1、撮像部120、トラッキング部130、及び制御部140を含み得る。定位手術部1は、手術部位に含まれた手術ターゲットに対する定位手術を実行できる手術道具と、この手術道具をガイドできる装置を含み得る。
一実施例によれば、定位手術部1は、少なくとも5自由度以上の自由度で動作できる定位手術用の手術ロボットであってもよい。例えば、定位手術部1は、手術道具を少なくとも3つの軸方向に移動することができ、手術道具を少なくとも2つの回転軸を中心に回転させることができる。定位手術部1は、手術台110に付着されて用いられる。
一実施例によれば、定位手術部1は、手術ターゲットの位置及び手術道具の進入位置に応じて手術道具の移動及び回転をそれぞれ独立に行うことができる。ここで、手術道具の移動及び回転をそれぞれ独立に行うとは、定位手術部1で手術道具を移動させる構成と手術道具を回転させる構成が分離されて具現され、このような構成によって手術道具の移動と回転が個別に制御されて行われることができるという意味であり得る。例えば、定位手術部1は、手術ターゲットの位置に応じて手術道具をまず移動させ、手術道具の進入位置に応じて手術道具が手術ターゲットに接近または挿入される姿勢または方向を決定した後に、手術道具がそのような姿勢を有するように、手術道具を回転させることができる。従って、定位手術中に同一の手術ターゲットに対する手術道具の進入位置が変更される場合、簡単に手術道具の姿勢のみを変更することによって短時間内に手術が再開されることができる。定位手術部1の構成と動作に関するさらに具体的な実施例は以後の関連部分で説明する。
撮像部120は、手術部位の外部の2次元または3次元イメージを示すイメージングデータを生成できる。一実施例によれば、撮像部120は、患者160の表面イメージを示すイメージングデータを生成したり、手術ターゲットまたは手術道具の進入位置(またはその周辺)のイメージを示すイメージングデータを生成できる。一実施例によれば、撮像部120は、パターン光などを用いる位相遷移方式(Phase Measuring Profilometry)に基づいて3次元イメージを示すイメージングデータを生成し得る。
撮像部120により生成されたイメージングデータは、ユーザーインターフェース150に伝達されてユーザーインターフェース150上で視覚的に表示され得る。また、撮像部120により生成されたイメージングデータは、格納装置180に格納された後、手術後の手術結果の分析または治療に用いられることもできる。
一実施例によれば、撮像部120により生成されたイメージングデータと、手術前に予め撮影された手術ターゲットを含む手術部位の3次元イメージを示すイメージングデータが整合され得る。手術部位の3次元イメージを示すイメージングデータは、手術前に格納装置180に格納され得る。ユーザーインターフェース150は、2つのイメージングデータが整合された結果を視覚的に表示できる。例えば、ユーザーインターフェース150は、任意のイメージングデータに基づいてそのデータが示す2次元または3次元イメージを表示できるディスプレイ装置であってもよい。手術前に予め撮影された手術部位の3次元イメージを示すイメージングデータは、手術部位に関するCTまたはMRIイメージに関するイメージングデータであってもよい。
更に他の実施例によれば、制御部140は、撮像部120を用いて生成されたイメージングデータに基づいて定位手術部1を制御できる。撮像部120に関連するさらに具体的な実施例は以後の関連部分で説明する。
トラッキング部130は、物体の動きをトラッキングするための装置であり、具体的には、物体の位置及び/又は姿勢をトラッキングできる装置である。一実施例によれば、トラッキング部130は、トラッキング対象に付着されたマーカーの位置及び/又は姿勢を測定することによって、マーカーが付着された対象をトラッキングできる。例えば、マーカーを手術道具に付着した後、トラッキング部130が手術道具に付着されたマーカーの位置及び/又は姿勢をトラッキングすることにより、手術道具がトラッキングされ得る。
一実施例によれば、撮像部120、定位手術部1及び患者160の手術部位または手術部位の近くにそれぞれ付着されたマーカー170、172、174をトラッキングした結果を用いて、定位手術部1が制御され得る。マーカーは、トラッキングの目的に応じて、手術ロボットシステム100の各構成または定位手術に用いられる道具/装置の多様な位置に付着され得る。トラッキング部130の構成と動作に関連するさらに具体的な実施例は以後の関連部分で説明する。
制御部140は、定位手術部1、撮像部120、トラッキング部130、ユーザーインターフェース150を含む手術ロボットシステム100の多様な構成要素の動作を制御できる。制御部140は、これらの構成要素の制御のための手術計画ソフトウェア及びナビゲーションソフトウェアを含む制御用ソフトウェアを格納及び実行できる。また、制御部140は、このようなソフトウェアを実行できるCPUのようなプロセッサを1個以上含み得る。
一実施例によれば、制御部140は手術室内に位置して手術ロボットシステム100を制御できる。他の実施例によれば、制御部140は、手術室の外部に位置し、有線または無線ネットワークを介して手術ロボットシステム100に連結されて手術ロボットシステム100を制御できる。更に他の実施例によれば、制御部140は、その機能が手術ロボットシステム100の他の構成要素に分散して具現され得る。例えば、トラッキング部130を制御できる制御部140の機能はトラッキング部130内に具現され得、撮像部120を制御できる制御部140の機能は撮像部120内に具現され得る。制御部140は、手術室または病院の内部または外部に設けられたデータベースと有線または無線ネットワークで連結されていてもよく、このデータベースから手術に必要なイメージングデータを含む多様なデータを受信することができる。
以下では、手術ロボットシステム100に含まれる構成のそれぞれに関する具体的な実施例を説明する。
<定位手術部1>
図3は、図2の定位手術部1として用いられる、本発明の一実施例による定位手術用の手術ロボット1を示す。本実施例による定位手術用の手術ロボット1は、移動部10、回転部40及び手術部位支持部70を含み、手術台と着脱可能に構成され得る。回転部40の一端には手術道具50が備えられてもよく、定位手術用の手術ロボット1が移動部10及び回転部40を制御して手術道具50の位置及び姿勢を調整することができる。本実施例による定位手術用の手術ロボット1は、手術ターゲットの位置に応じて移動部10を移動させ、手術道具の進入位置または姿勢に応じて回転部40を回転させることが可能である。移動部10と回転部40は、それぞれ独立に制御され得る。
以下、図4及び図5を参照して、回転部40が回転可能に連結された移動部10の詳細構成と動作を説明する。一実施例によれば、移動部10は、回転部40及び回転部40の一端に固定された手術道具50を3つの軸のうち少なくとも1つの軸方向に往復移動するように動作可能であり、これにより、移動部10は3自由度を有することができる。移動部10は、第1〜第3線形軸方向13、15、17に沿って移動する第1〜第3方向駆動部12、14、16を含み得る。
本実施例では、例示的に、第1〜第3線形軸方向13、15、17が互いに直交し、それぞれの方向駆動部12、14、16は互いに直交した軸に沿って往復移動できる。更に他の実施例によれば、第1〜第3線形軸方向13、15、17は直交しない任意の方式で配列されてもよい。第1〜第3方向駆動部12、14、16は、例えば、リニアモータ、ボールスクリュなどを含む多様な機械的または電気的駆動手段のうちの1つを用いて具現され得る。本実施例において、移動部10は、固定部11を通じて手術部位支持部70の連結部72と着脱可能に連結されており、第3駆動部16には回転部40が回転可能に連結され得る。
図5を参照して、回転部40の詳細構成と動作を説明する。回転部40は、第3方向駆動部16に連結される第1回転駆動部42と、第1回転駆動部42と連結される第2回転駆動部44とを含み得る。第1及び第2回転駆動部42、44は、それぞれ第1及び第2回転軸43、45を中心に回転することができる。例えば、第1及び第2回転駆動部42、44それぞれはサーボモータ、油圧モータなどを含む多様な機械的または電気的駆動手段の1つを用いて具現され得る。
図示するように、第1及び第2回転駆動部42、44は円弧またはこれと類似の形状に設計され得る。このような形状を採用することによって、回転部40に回転部40全体を覆うことができる一体型ドレープを装着することができ、衛生的にドレープを設置及び交換することができる。第1及び第2回転駆動部42、44の形状は図5に示されたものに限定されず、本発明の手術ロボットシステムが用いられる手術部位または手術方式に応じて、多様な形状に変更され得る。
本実施例の第2回転駆動部44は、第2回転駆動部44と連結される手術道具50、及び手術道具50を着脱可能に維持できるホルダ46を含み得る。ホルダ46は、多様な類型の手術道具が簡易に着脱され得るように構成される。このような構成を有するホルダ46を設けることによって、医師は手術道具の交換時間を短縮させることによって迅速な手術を行うことができる。
一方、第2回転駆動部44には、手術道具50の着脱如何を感知する手術道具感知部51がさらに備えられてもよい。手術道具感知部51により手術道具50の装着が感知されるとき、制御部140は移動部10の各駆動部12、14、16がこれ以上移動せずに固定され得るように制御できる。このような制御部140の移動部10の動作制御によって、手術中に手術ロボットの誤作動、または物理的な衝撃によって移動部が移動することによって発生する致命的な医療事故が防止され、安全な手術が可能である。
本実施例において、第1回転軸43と第2回転軸45は互いに直交するように設定され、手術道具50が第2回転駆動部44に付着されることによって、手術道具50の先端が第1回転軸43と第2回転軸45が交差する地点に向かう姿勢が維持され得る。従って、第1回転駆動部42と第2回転駆動部44が第1回転軸43と第2回転軸45を中心にそれぞれ回転しても、第1回転軸43と第2回転軸45が交差する地点は一定に維持され、手術道具50の先端が第1回転軸43と第2回転軸45が交差する地点に向かう姿勢が維持され得る。第1回転軸43と第2回転軸45が交差する地点が手術ターゲットの位置と一致するように、移動部10により回転部40が移動する間に、手術道具50の先端が手術ターゲットの位置に向かう姿勢を維持するので、手術ターゲットの位置が一定に維持されたままで手術道具50の進入姿勢が適宜選択され得る。従って、回転部40が手術道具50を回転させても、手術ターゲットの位置を一定に維持しながら定位手術用の手術ロボット1の動作が制御され得る。ここで「手術ターゲットの位置」とは、手術ターゲットのある1つの地点またはその地点を含む手術ターゲットが占める3次元的な空間の位置を意味し得る。また、手術ターゲットの「地点」とは、視覚的に一点として識別され得る程度に十分に小さい2次元的または3次元的な領域を意味し得、数学的なまたは物理的な意味の点に限定されるものではない。
以上で説明した構成を有する移動部10が手術ターゲットの位置に応じて回転部40を移動させ、回転部40が手術道具の進入姿勢に応じて手術道具50を回転させることによって、手術ターゲットの位置と手術道具の姿勢に応じて移動部10と回転部40をそれぞれ独立に制御できる。従来は手術道具を制御するために非常に複雑な手術ロボットの動作制御方式が用いられ、手術ターゲットの位置による制御と手術道具の進入姿勢による制御を独立にすることができなかった。しかし、本実施例によれば、移動部10と回転部40を手術ターゲットの位置と手術道具の進入姿勢それぞれに応じて独立に制御できるので、手術ロボットと手術道具の制御の精度と効率性が向上する。
本実施例では、回転部40の第1回転駆動部42と第3方向駆動部16の連結部分に、第1回転軸43を中心に形成された中空48をさらに含み得る。中空48の下部には、中空48を通じて手術部位または他の患部の医療イメージを撮影するための撮影装置が設けられてもよい。このような構成によれば、手術道具の位置に対するキャリブレーション、または手術中に患者の状態を観察するために手術部位などを撮影する場合にも、移動部10または回転部40が撮影対象部分を遮ることを防止できる。また、このように、第1回転駆動部42及び第3方向駆動部16の連結部分に中空48を第1回転軸43方向に形成することによって、定位手術用の手術ロボット1の作動と、Cアームを含む多様な医療映像装置の活用を両立することができる。例えば、中空48は、第1回転駆動部42と第3方向駆動部16の連結部分に第1回転軸43方向に形成された中空型回転ジョイントを用いて具現され得る。
図6を参照して、手術部位支持部70の詳細な構成と動作を詳細に説明する。患者または手術部位に対する移動部10及び回転部40の位置を適宜調節できるように手術部位支持部70が備えられてもよい。手術部位支持部70が備えられることによって、手術時に患者がさらに楽な姿勢を取ることができる。本実施例において、手術部位支持部70は、姿勢調節部74、75と、連結部72及び手術台固定部78を含む。
連結部72は、移動部10と連結可能な連結部材73を含み得る。連結部材73は、移動部10の固定部11と連結部72を着脱可能に連結できるように、ボルト及びナット、またはこれを含む多様な機械的な連結手段の1つを用いて具現され得る。連結部材73は、複数のボルト及びナットを用いて具現され得、このような構成を通じて移動部10と手術部位支持部70間の信頼性の高い連結及び固定が可能である。
姿勢調節部74、75は、手術部位の角度を調節する角度調節部75及び手術部位の高さを調節する高さ調節部74を含み得る。角度調節部75は、一つの軸を中心に連結部72と高さ調節部74との間の角度を調節できる手動または自動機械装置を用いて具現され得る。手動機械装置にはヒンジまたはリンク構造などを含む多様な手動式構造が含まれ得、自動機械装置にはサーボモータまたは油圧シリンダなどの駆動器が含まれ得る。高さ調節部74は、手術台固定部78に対して高さ方向に移動可能に連結されることによって、高さ調節部74に連結された他の構成要素の全体の高さを調節できる。高さ調節部74はボールスクリュまたはリニアモータなどを含む手動または自動機械装置を用いて具現され得る。
手術台固定部78は、手術台110に手術部位支持部70全体を固定するように構成され得る。これを通じて、移動部10と回転部40を含む定位手術用の手術ロボット1全体が手術台110に固定され得る。手術台固定部78は、手術台110と手術台固定部78の堅固な固定のためのクランピング部79を含み得る。クランピング部79は、手術台固定部78を手術台110の一部(例えば、側面に備えられたレール)にクランピングすることにより、手術部位支持部70全体を手術台110に固定できる。本実施例では、例示的に手術台固定部78がクランピング部79を採用したが、手術台固定部78は、ネジ、形態結合など多様な固定器具を用いて手術台110に固定され得る。
図7及び8を参照して、手術部位固定部90の詳細構造及び動作を詳細に説明する。一般に、定位手術装置には患者の手術部位(例えば、患者の頭)を手術道具に対して揺れることなく固定する必要がある。このために、本実施例では、手術部位固定部90が手術部位固定フレーム92、93と手術部位固定ピン94を含み得る。手術部位固定フレーム92、93は、手術部位を固定するための横方向手術部位固定フレーム92と縦方向手術部位固定フレーム93で構成され、縦方向手術部位固定フレーム93の一端には患者の手術部位を精密に固定できる手術部位固定ピン94が付着されている。本実施例は、例示的に手術部位固定部90が1つの横方向手術部位固定フレーム92と4つの縦方向手術部位固定フレーム93を含んでいるが、横方向手術部位固定フレーム92と縦方向手術部位固定フレーム93の数やそれらの間の連結構成は必要に応じて適宜変更され得る。
本実施例の手術部位固定フレーム92、93は、撮像部120との使用上の両立の可能性を高めるために適切な形態に変更され得る。例えば、患者の頭を手術する場合、患者のイメージを撮影し、そのイメージから患者の目、鼻、眉間、耳等の特徴領域を抽出することによって、患者の手術部位(即ち、頭)の精密な位置を予測及び判断できる。この場合、手術部位固定フレーム92、93は、患者の特徴領域の撮影を妨害しないように構成され得る。本実施例では、例えば、患者の鼻部位と干渉しないように横方向手術部位固定フレーム92の上方の中央部分がくぼんだ形状を有する一方、患者の耳部位を遮らないように縦方向手術部位固定フレーム93が横方向手術部位固定フレーム92の最外側と連結され得る。従って、本実施例の横方向手術部位固定フレーム92及び縦方向手術部位固定フレーム93は患者の特徴領域を遮ることを防止して、手術中に撮像部120による患者の特徴領域の撮影を保障することができる。
手術部位固定フレーム92、93及び手術部位固定ピン94は、例えば、金属のような耐久性と堅固な特性を有する材質で製作され得る。ただし、このような金属性材質を用いる場合、電子制御装備または測定装備のような電気装置と接触する場合、患者を感電させ得る。従って、これを防止するために、電気装置と患者が電気的に接触しないように、絶縁手段が手術部位固定フレーム92、93に連結され得る。具体的には、手術部位固定フレーム92、93と連結部72との間に絶縁手段95が含まれることによって、手術部位固定フレーム92、93と連結部72が電気的に連結されない状態で結合され得る。
本実施例での手術部位固定部90は連結部72に着脱可能に連結され得るので、手術の目的に合う形状及び大きさの手術部位固定部90を選択して簡単に交換することができる。また、手術部位固定部90が手術部位支持部70に直接固定され得るので、移動部10の移動及び回転部40の回転中にも手術部位固定部90が安定的に手術部位を固定することができる。
本実施例の定位手術用の手術ロボット1は、制御部140を通じて自動的に制御され得る。以下、定位手術用の手術ロボット1の制御方法について詳細に説明する。
制御部140は、手術計画による手術部位の位置及び手術道具の進入位置を決定し、決定された位置に応じて移動部10及び回転部40が手術道具を移動させるようにする制御信号を出力できる。制御部140が出力した制御信号に基づいて、移動部10は手術ターゲットの位置情報に従って2つの回転軸が交差する地点が手術ターゲットの位置と一致するように、3つの軸のうち少なくとも1つの軸方向に移動する。また、制御部140が出力した制御信号に基づいて、回転部40は手術道具の進入姿勢情報に従って2つの回転軸のうち少なくとも1つの回転軸を中心に手術道具50を回転させることができる。さらに具体的には、制御部140が出力した制御信号に基づいて、移動部10は、第1線形軸方向に沿って第1方向駆動部を移動させたり、第2線形軸方向に沿って前記第2方向駆動部を移動させたり、第3線形軸方向に沿って前記第3方向駆動部を移動させたりすることができる。また、回転部40は、制御部140の制御信号に基づいて、第1回転軸を中心に第1回転駆動部を回転させたり、第2回転軸を中心に第2回転駆動部を回転させたりすることができる。
このように、手術ターゲットの位置と手術道具の進入姿勢に応じて移動部10と回転部40がそれぞれ独立に制御されるので、手術ロボット1の動作制御において誤差の低減が可能であり、誤差が発生してもその誤差の修正に必要な追加の動作制御を簡素化することができる。
また、制御部140は、角度調節部75及び高さ調節部74が手術部位の角度及び高さのうち少なくとも1つを調節するように制御することができる。
本発明による定位手術用の手術ロボット1が例示的な一実施例を通じて説明されたが、定位手術が適用され得る多様な手術部位(人体の頭、脊椎、関節等)をあまねく包括して適用され得る。
<トラッキング部130>
トラッキング部130は、物体の動きをトラッキングできる装置であり、具体的には、物体の位置及び/又は姿勢を測定できる装置である。トラッキング方法は、特に制限されないが、一般に光学的技術に基盤をおいたオプティカルトラッキング(optical tracking)方法または電磁波技術に基盤をおいた電磁波トラッキング(electromagnetic tracking)方法が用いられる。また、多様なトラッキング方法が複合的に用いられることもできる。
トラッキング部130が測定する位置は、例えば、直交座標系のX、Y、Z軸上での座標のような空間座標として定義され得る。トラッキング部130が測定する姿勢は、ロール(roll)、ピッチ(pitch)、ヨー(yaw)のような回転情報として定義され得る。物体の正確なトラッキングのために、このように定義される物体の位置及び姿勢の6自由度(6 Degree of Freedom)が測定され得る。
一実施例によれば、トラッキング部130は、物体に付着されたマーカーの位置及び/又は姿勢を測定することによって、物体をトラッキングできる。例えば、マーカーを手術道具に付着した後、トラッキング部130が手術道具に付着されたマーカーの位置及び/又は姿勢を測定することによって、手術道具がトラッキングされ得る。
一実施例によれば、トラッキング部130は、逆反射体(retroreflector)をマーカーとして用いてマーカーの位置を測定できる。更に他の実施例によれば、トラッキング対象の位置及び姿勢を同時に測定するために、3個以上の複数のマーカーが付着された構造物がトラッキング対象に付着され得る。この場合、マーカーとして逆反射体が用いられるが、トラッキング部130が位置を認識できるマーカーであればいかなる形態のマーカーであっても用いられる。一実施例によれば、トラッキング部130を通じて測定された3個以上のマーカー間の幾何学的な位置関係と、予め格納された3個以上のマーカー間の幾何学的な位置関係とを比較して、トラッキング対象の位置及び姿勢が同時に測定され得る。
一方、マーカーを単純化するために、1つのマーカーのみを用いて、マーカーが付着された物体の位置及び姿勢が測定され得る。図9は、本発明の一実施例によって1つのマーカーを用いるオプティカルトラッキング方法で活用され得るマーカー910及びトラッキング部130を示すブロック図である。マーカー910は、パターンが具現された少なくとも1つのパターン部911及びパターン部911のパターンを拡大して伝送できる第1レンズ912を含み得る。トラッキング部130は、マーカー910から伝送されたパターン部911のパターンをイメージとして結像できる第2レンズ131及び結像素子132を含み得る。一実施例によれば、パターン部911のパターンの認識範囲を増やしたりパターンの認識率を高めるためにトラッキング部130が2個以上用いられ、1つのトラッキング部130内に結像素子132が2個以上含まれ得る。
パターン部911に形成されるパターンは、マーカー910の位置及び姿勢を測定するための情報を提供できる。一実施例によれば、パターン部911に形成されるパターンは、複数のパターンが一定の形態と間隔で配列されて形成され得、このようなパターンを結像したイメージを用いて、マーカー910の位置及び姿勢が決定され得る。
一実施例によれば、結像素子132でパターン部911に具現されたパターンの全部または一部を結像すると、制御部140は、結像されたイメージにおいてパターンが見える領域の大きさの変化を抽出し、これに基づいてマーカー910の位置を決定し得る。具体的には、マーカー910の位置が変われば結像されたパターンの大きさが変わるが、このようなパターンの大きさの変化はレンズ131の直径及び焦点距離と比較して位置として換算され得る。
更に他の実施例によれば、制御部140は2つの結像素子でそれぞれ結像したイメージにおいてパターンの全部または一部が見える領域の位置が異なるという点に基づいた三角法(triangulation)を用いて、マーカー910の位置を計算することができる。一実施例によれば、制御部140は、パターン内の各パターン領域の位置変化に基づいてマーカー910の姿勢を決定することができる。一実施例によれば、トラッキング部130を制御できる制御部140の機能はトラッキング部130と一体として形成され得る。
マーカー910は、アクティブマーカー(active marker)またはパッシブマーカー(passive marker)として具現され得る。マーカー910がアクティブマーカーの場合には、マーカー910は内部に光源を含み得る。従って、マーカー910内部の光源はパターン部911に光を照射し、照射した光はパターン部911に形成されたパターンを透過するかパターンで反射され得る。トラッキング部130はパターンを透過するかまたはパターンで反射された光を受信し、パターン部911のパターンのイメージを結像できる。制御部140は、このように結像されたイメージに基づいてマーカー910の位置及び姿勢をトラッキングできる。
マーカー910がパッシブマーカーの場合には、マーカー910の外部にマーカー910に向かって光を照射する光源が配置され得る。従って、マーカー910の外部の光源はマーカー910に光を照射し、照射された光はパターン部911に形成されたパターンを透過するかパターンで反射され得る。トラッキング部130は、パターンを透過するかまたはパターンで反射された光を受信し、パターン部911のパターンのイメージを結像できる。制御部140は、このように結像されたイメージに基づいてマーカー910の位置及び姿勢をトラッキングできる。もし手術場所が十分に明るくてマーカー910のパターンがトラッキング部130で明確に認識され得る場合は、追加の光源なしにマーカー910をトラッキングすることもできる。
一実施例によれば、マーカー910は、第1レンズ912の焦点がパターン部911のパターン面に結ばれるように具現され得る。このために、パターン部911のパターン面の形状が第1レンズ912の焦点が結ばれる面の形状と一致するように具現されるか、または、第1レンズ912の焦点がパターン部911のパターン面に結ばれるように第1レンズ912が設計され得る。
マーカー910が、第1レンズ912の焦点がパターン部911のパターン面に結ばれるように具現され、また、トラッキング部130の結像素子132が第2レンズ131の焦点距離に位置すれば、マーカー910とトラッキング部130の光学系は無限光学系を形成できる。マーカー910とトラッキング部130が無限光学系を形成すれば、トラッキング部130は無限光学系を通じて拡大されたパターンイメージを結像できる。従って、マーカー910がトラッキング部130から遠く離れていてもトラッキング部130でのパターンの認識率が高くなることができる。
トラッキング部130は、第2レンズ131を通じて伝達されたパターンを結像素子132を用いて結像できる。結像素子132は、光を通じて伝達されたイメージ情報を電気的信号に変換する装置であり、代表的には、CMOSイメージセンサまたはCCDなどを用いて具現され得る。一実施例によれば、結像素子132は、第2レンズ131の焦点距離に対応する位置でイメージを結像できる。
<撮像部120>
撮像部120は、手術部位の外部のイメージを示すイメージングデータを生成できる装置である。一実施例によれば、撮像部120は、患者160の表面イメージを取得したり、手術部位または手術道具の進入位置(またはその周辺)のイメージを示すイメージングデータを生成できる。撮像部120は、一般的なカメライメージのような2次元イメージを示すイメージングデータを生成できる装置であってもよいが、定位手術のような精密な手術の進行のために必要な3次元イメージを示すイメージングデータを生成できる装置であってもよい。
一実施例によれば、撮像部120は、パターン光などを用いた位相遷移方式に基づいて3次元イメージを示すイメージングデータを生成できる。例えば、一定の形態のパターン光を患者に照射して撮影されたイメージを処理して、3次元イメージを示すイメージングデータが生成され得る。パターン光は、格子パターン光のような照度が正弦波状を有するパターン光であってもよいが、これに限定されない。照射されたパターン光は、患者160の表面の屈曲によって患者160の表面上での光の強さが変わり得、これから位相データを生成して表面を構成する各点の高さを計算することによって3次元イメージを示すイメージングデータが生成され得る。
一実施例によれば、撮像部120は、撮像部120内に含まれたイメージ処理部で3次元イメージを示すイメージングデータを生成することができる。更に他の実施例によれば、制御部140は撮像部120が取得したイメージデータを受信した後、イメージデータを処理して3次元イメージを示すイメージングデータを生成することもできる。
一実施例によれば、撮像部120により生成されたイメージングデータは、ユーザーインターフェース150を通じて視覚的に表示され得る。更に他の実施例によれば、撮像部120により生成されたイメージングデータが示す撮像部イメージと他のイメージとの間のイメージ整合を用いて2つのイメージがオーバーラップすることができ、その結果がユーザーインターフェース150を通じて視覚的に表示され得る。例えば、図10に示すように、撮像部120を用いて取得された手術道具の進入位置1030の周辺1050に対する撮像部イメージと、手術前に予め取得された手術ターゲット1010が含まれた手術部位イメージとの間のイメージ整合を用いて、手術部位イメージ上に撮像部イメージがオーバーラップされ得る。
一実施例によれば、イメージ整合は、撮像部イメージと、これと整合する他のイメージに共通に含まれた手術部位の少なくとも一部分を用いて行われ得る。更に他の実施例によれば、同一の基準マーカー(fiducial marker)を含むように撮像部イメージ及びこれと整合する他のイメージを取得した後、2つのイメージが含まれた基準マーカーを用いてイメージ整合が行われ得る。
<手術ロボットシステム100の制御方法>
一般に、定位手術は、脳のように医師が直接目で確認し難い部位に関する手術である。従って、医師は、CTやMRIイメージのような患者160の体内にある手術ターゲットを含む手術部位の3次元イメージまたはこのような3次元イメージの2次元断面イメージを分析して、手術ターゲットを決定でき、手術道具が手術ターゲットに安全に進入できる位置を決定できる。例えば、ユーザーインターフェース150を通じて、CTイメージが表示されると、医師はCTイメージを検討することによって手術ターゲットの位置及び/又は手術道具の進入位置を決定でき、決定された位置をユーザーインターフェース150を通じて入力できる。本発明の定位手術部1は、医師が入力した手術ターゲットの位置及び/又は手術道具の進入位置に基づいて制御され得る。
図11は、手術部位の3次元イメージに医師が手術ターゲットの位置1110及び手術道具の進入位置1130を入力した結果を示す。一実施例によれば、医師のような使用者は、ユーザーインターフェース150を通じて表示されたイメージにタッチスクリーンなどを用いて手術ターゲットの位置1110または手術道具の進入位置1130を入力できる。更に他の実施例によれば、使用者は座標値をタイピングして手術ターゲットの位置1110または手術道具の進入位置1130を入力できる。
以上の通り、手術ターゲットの位置1110または手術道具の進入位置1130がユーザーインターフェースを通じて入力されると、制御部140は入力された手術ターゲットの位置1110に基づいて定位手術部1の動作を制御できる。
一実施例によれば、制御部140は、入力された手術ターゲットの位置1110に基づいて定位手術部1の移動部10を3つの軸のうち少なくとも1つの軸方向に移動させることができる。移動部10には手術道具を回転させる回転部40が付着され得る。従って、移動部10の移動によって回転部40が移動することができる。一実施例によれば、制御部140は、手術ターゲットの位置に対応する座標が回転部40の2つの回転軸の交差点に位置するように、移動部10を通じて回転部を移動させることができる。
一実施例によれば、制御部140は、使用者により入力された手術ターゲットの位置1110及び手術道具の進入位置1130に基づいて手術道具の進入姿勢を決定できる。制御部140は、手術道具が決定された手術道具の進入姿勢を有するように、手術道具が付着された回転部40を2つの回転軸のうち少なくとも1つの回転軸を中心に回転させることができる。
定位手術部1は、定位手術部1の座標系を基準に駆動され得る。ところが、ユーザーインターフェース150を通じて入力された手術ターゲットの位置1110及び手術道具の進入位置1130は、定位手術部1の座標系ではなく、ユーザーインターフェース150に表示されたイメージの座標系上の位置である。従って、定位手術部1の座標系を基準に定位手術部1を制御するためには、ユーザーインターフェース150に表示されたイメージの座標系を基準に入力された手術ターゲットの位置1110と手術道具の進入位置1130が定位手術部1の座標系基準の位置に変換されなければならない。
一実施例によれば、制御部140は、手術前に予め撮影されたCTやMRIイメージのような3次元イメージを示すイメージングデータ(「第1イメージングデータ」)を受信することができる。第1イメージングデータは、手術ターゲットを含む手術部位に関するイメージングデータであってもよい。第1イメージングデータは、手術前に格納装置180に予め格納され得る。制御部140は、撮像部120を通じて生成された手術部位の外部の3次元イメージを示すイメージングデータ(「第2イメージングデータ」)を受信することができる。制御部140は、(i)第1イメージングデータの第1座標系から第2イメージングデータの第2座標系に座標を変換させるための第1座標変換関係を生成でき、(ii)トラッキング部130を用いて撮像部120の位置及び姿勢をトラッキングできる。
制御部140は、第1座標変換関係と撮像部120の位置及び姿勢を用いて、第1イメージングデータの第1座標系から定位手術部1の第4座標系に座標を変換するための座標変換関係を生成できる。
以下では、図12を参照してさらに具体的に説明する。まず、使用者は、ユーザーインターフェース150を通じて、手術ターゲットの位置1110と手術道具の進入位置1130を入力できる。制御部140は、使用者が入力した手術ターゲットの位置1110及び手術道具の進入位置1130を第1イメージングデータの第1座標系1210上の座標に変換できる。
一実施例によれば、第1イメージングデータの第1座標系1210上の位置を定位手術部1の第4座標系1230上の位置に変換するために、第1イメージングデータの第1座標系1210上の座標は、患者マーカー174の第3座標系1220上の座標、定位手術部1の第4座標系1230上の座標の順に変換され得る。このような座標の変換のために、(i)第1イメージングデータの第1座標系1210から患者マーカー174の第3座標系1220に座標を変換させるための第2座標変換関係と、(ii)患者マーカー174の第3座標系1220から定位手術部1の第4座標系1230に座標を変換させるための第3座標変換関係が取得され得る。ここで、患者マーカー174は、患者160の手術部位に付着されたマーカーであるか、手術部位に近接して配置されていながら定位手術部1の手術部位固定部90のように患者160と一体としてともに動くことができる対象に付着されたマーカーであってもよい。患者マーカー174は、このような対象に少なくとも1つが付着され得る。
第1イメージングデータの第1座標系1210から患者マーカー174の第3座標系1220に座標を変換する第2座標変換関係は、(i)第1イメージングデータの第1座標系1210から第2イメージングデータの第2座標系1240に座標を変換させるための第1座標変換関係と、(ii)トラッキング部130を用いて得た撮像部120の位置及び姿勢を用いて得ることができる。具体的には、図13に示すように、第1イメージングデータの第1座標系1210上の座標が、第2イメージングデータの第2座標系1240上の座標、撮像部120の第5座標系1250上の座標、患者マーカー174の第3座標系1220上の座標の順に変換されれば、第1イメージングデータの第1座標系1210から患者マーカー174の第3座標系1220に座標が変換され得る。
第2イメージングデータは、定位手術が行われる前または定位手術が行われている間に撮像部120を用いて生成され得る。一実施例によれば、第1イメージングデータが示す3次元イメージと、第2イメージングデータが示す3次元イメージとの間のイメージ整合を用いて、第1イメージングデータの第1座標系1210から第2イメージングデータの第2座標系1240に座標を変換させるための第1座標変換関係が生成され得る。第1イメージングデータが示す3次元イメージと、第2イメージングデータが示す3次元イメージとの間のイメージ整合は、両イメージに共通に含まれている手術部位の少なくとも一部分を用いて行われ得る。更に他の実施例によれば、同一の基準マーカーに関するデータを含む第1イメージングデータと第2イメージングデータを取得した後、この基準マーカーを用いてイメージ整合が行われ得る。その他にも周知の多様なイメージ整合方法が第1座標変換関係を生成するのに用いられる。
一実施例によれば、第2イメージングデータの第2座標系1240から撮像部120の第5座標系1250に座標を変換させるための第4座標変換関係は、(i)撮像部120の光学系の基準座標系から撮像部120の第5座標系1250に座標を変換させるための座標変換関係と、(ii)第2イメージングデータの第2座標系1240から撮像部120の光学系の基準座標系に座標を変換させるための座標変換関係を用いて生成され得る。
撮像部120の第5座標系1250から患者マーカー174の第3座標系1220に座標を変換させるための第5座標変換関係は、(i)撮像部120の第5座標系1250からトラッキング部130の座標系に座標を変換させるための座標変換関係と、(ii)患者マーカー174の第3座標系1220からトラッキング部130の座標系に座標を変換させるための座標変換関係を用いて生成され得る。
この時、撮像部120の第5座標系1250からトラッキング部130の座標系に座標を変換させるための座標変換関係及び患者マーカー174の第3座標系1220からトラッキング部130の座標系に座標を変換させるための座標変換関係は、トラッキング部130を用いて測定した患者マーカー174及び撮像部マーカー170の位置及び姿勢を用いて生成され得る。
患者マーカー174の第3座標系1220から定位手術部1の第4座標系1230に座標を変換させるための第3座標変換関係は、(i)定位手術部1の原点に置いたマーカーの位置及び姿勢と、(ii)患者マーカー174の位置及び姿勢を用いて生成され得る。この時、各マーカーの位置及び姿勢はトラッキング部130を用いて測定され得る。ここで、定位手術部1の原点は定位手術部1の回転軸の交点と定義され得る。更に他の実施例によれば、第3座標変換関係は、患者マーカー174が付着された位置と定位手術部1の原点の位置が一定であるという点を用いた幾何学的演算(運動学的演算)を通じて生成され得る。
以上の通り、第1イメージングデータの第1座標系1210上の座標を患者マーカー174の第3座標系1220上の座標、定位手術部1の第4座標系1230上の座標の順に変換すれば、第1イメージングデータの第1座標系1210上の座標で表された手術ターゲットの位置1110及び手術道具の進入位置1130が定位手術部1の第4座標系1230上の座標に変換され得る。一方、患者160が動けば、以上のような座標変換関係が変わるので、患者160は動かないように固定されなければならず、患者160が動けば制御部140は上記座標変換関係を再度取得できなければならない。
一実施例によれば、本発明の定位手術部1は、第1イメージングデータが示す3次元イメージを構成する2次元断面イメージに表示された手術ターゲットの位置及び/又は手術道具の進入位置に基づいて制御され得る。図14〜16は、それぞれ手術前に撮影された手術部位の軸平面(axial plane)、矢状面(sagittal plane)及び冠状面(coronal plane)上での2次元断面イメージである。制御部140は、第1イメージングデータからこのような2次元断面イメージを抽出し、これをユーザーインターフェース150を通じて使用者に視覚化できる。
使用者は、ユーザーインターフェース150を通じて視覚化された2次元断面イメージに手術ターゲットの位置1410、1412及び手術道具の進入位置1430、1432を表示できる。制御部140は、2次元断面イメージの第6座標系1260上に表示された手術ターゲットの位置1410、1412及び/又は手術道具の進入位置1430、1432を定位手術部1の第4座標系1230上の位置に変換した後、変換された手術ターゲットの位置に応じて移動部10を移動させることができる。また、制御部140は、手術道具が、変換された手術ターゲットの位置及び手術道具の進入位置に基づいて決定された手術道具の進入姿勢を有するように、手術道具が付着された回転部40を回転させることができる。
図12に示すように、2次元断面イメージの第6座標系1260上に表示された座標を定位手術部1の第4座標系1230上の座標に変換するために、2次元断面イメージの第6座標系1260上の座標は、(i)第1イメージングデータ上の第1座標系1210上の座標、(ii)患者マーカー174の第3座標系1220上の座標、(iii)定位手術部1の第4座標系1230上の座標の順にそれぞれ変換され得る。
ところが、第1座標系1210から第3座標系に座標を変換させるための第2座標変換関係及び第3座標系から第4座標系に座標を変換させるための第3座標変換関係は、前述した実施例を通じて予め生成され得る。従って、もし使用者がユーザーインターフェース150に表示された2次元断面イメージを通じて定位手術部1を制御したい場合は、単に2次元断面イメージの第6座標系1260から第1イメージングデータの第1座標系1210に座標を変換させるための座標変換関係のみ生成することによって、定位手術部1が制御され得る。
一実施例によれば、2次元断面イメージは第1イメージングデータから生成され得るので、この生成関係に基づいて2次元断面イメージの第6座標系1260から第1イメージングデータの第1座標系1210に座標を変換させることができる座標変換関係が生成され得る。
一方、制御部140は、定位手術部1に付着された手術道具を移動及び/又は回転させるに先立ち、手術道具の初期位置及び姿勢を把握する必要がある。一実施例によれば、手術道具の位置及び姿勢を把握するために、定位手術部1の回転部40のうち、手術道具に近い所に定位手術部マーカー172が付着され、トラッキング部130により定位手術部マーカー172の位置及び姿勢が測定され得る。ただし、定位手術部マーカー172の位置及び姿勢は、トラッキング部130の座標系上での位置及び姿勢である。従って、制御部140は、トラッキング部130の座標系上での定位手術部マーカー172の位置及び姿勢を定位手術部1の第4座標系1230上の位置及び姿勢に変換した後、変換された位置及び姿勢に基づいて手術道具の初期位置及び姿勢を把握できる。
以上で説明した通り、本発明の定位手術部1の制御は、手術前に撮影されたCTやMRIイメージの座標系から撮像部120を用いて得た撮像部イメージの座標系に座標を変換させるための座標変換関係(第1座標変換関係)の生成から始まる。この時、この座標変換関係は、この2つのイメージ間のイメージ整合を通じて簡単に生成され得る。ところが、定位手術中に患者160が不可避に動いたり、定位手術部1の手術部位固定部90のような構成が動いて手術部位が動けば、定位手術部1の制御のための条件が全て変更され得る。この場合、制御部140は、前述した座標変換関係を再度取得できなければならない。本発明の場合、定位手術中にこのような動きがあっても、撮像部120を通じてイメージングデータのみ再度生成すれば、このイメージングデータが示すイメージと、CTやMRIイメージとの間のイメージ整合を用いて、定位手術部1を制御するための座標変換関係が簡単に再度生成され得る。従って、定位手術中に患者160などの動きがあっても、短時間内に定位手術が再開されることができる。
また、従来は、定位手術用の手術ロボットの位置が一定ではなく、手術途中でも動き得るため、手術ロボットの現在の位置を基準に手術ロボットの動作を制御するために手術ロボットの位置を正確に把握できなければならなかった。このために、従来は手術ロボットのベースに追加のマーカーが付着され、これを用いて手術ロボットの位置を把握することができた。しかし、本発明の定位手術部1は手術台110に固定されて用いられるので、定位手術部1と手術部位との位置関係を常に一定に維持でき、定位手術部1の位置は変わらない。従って、定位手術部1の制御のための位置を把握する必要がないので、本発明による手術ロボットシステム100によれば、従来のような追加のマーカーの使用が不要であり、これにより制御のための演算量も減らすことができる。
図17は、本発明の一実施例によって、定位手術用の手術ロボットシステムにおいて、手術道具を少なくとも5自由度で移動及び回転させる定位手術部を制御する方法を示すフローチャートである。
まず、段階S1710で、制御部は手術ターゲットを含む手術部位の3次元イメージを示す第1イメージングデータを受信することができる。例えば、図2を参照すると、制御部140は、手術前に撮影された手術部位に関する3次元イメージを示すイメージングデータを格納装置180から受信することができる。第1イメージングデータは、ユーザーインターフェース150を通じて視覚化されることによって、手術ターゲットの位置及び手術道具の進入位置を判断できる資料として用いられ得る。ユーザーインターフェース150を通じて、手術ターゲットの位置及び手術道具の進入位置が入力されると、制御部140は、入力された手術ターゲットの位置及び手術道具の進入位置に基づいて定位手術部1を制御できる。
段階S1710で、制御部140が第1イメージングデータを受信した後、段階S1720で、撮像部は手術部位の外部の3次元イメージを示す第2イメージングデータを生成できる。例えば、撮像部120は、頭蓋骨を通じて手術道具が進入する位置の3次元イメージを示す第2イメージングデータを生成できる。一実施例によれば、第2イメージングデータは、パターン光などを用いた位相遷移方式により生成され得る。
段階S1710及びS1720を通じて第1及び第2イメージングデータが準備された後、段階S1730で、トラッキング部は撮像部、及び手術部位に付着されたり近接して配置された少なくとも1つのマーカーの位置及び姿勢をトラッキングできる。例えば、図2を参照すると、トラッキング部130は、撮像部120に付着されたマーカー170をトラッキングすることにより、撮像部120の位置及び姿勢をトラッキングできる。また、トラッキング部130は、患者マーカー174の位置及び姿勢をトラッキングできる。一方、段階S1710〜S1730は、制御部140が定位手術部1の制御のためのデータを取得するための過程であるので、段階の順序は変更されてもよく、各段階が並列的に行われてもよい。
このように、定位手術部1の制御のためのデータが準備された後、段階S1740で、制御部は第1イメージングデータの第1座標系から第2イメージングデータの第2座標系に座標を変換させるための第1座標変換関係を生成できる。一実施例によれば、制御部140が第1座標変換関係を生成する段階は、第1イメージングデータが示す3次元イメージと、第2イメージングデータが示す3次元イメージとの間のイメージ整合を通じて、制御部140が第1座標変換関係を生成する段階を含み得る。一実施例によれば、制御部140は、第1イメージングデータが示す3次元イメージと第2イメージングデータが示す3次元イメージに共通に含まれた手術部位の少なくとも一部分を用いてイメージ整合を行うことができる。
段階S1740を通じて第1座標変換関係が生成された後、段階S1750で、制御部は第1座標変換関係と撮像部及び少なくとも1つの患者マーカーの位置及び姿勢を用いて、第1座標系から少なくとも1つのマーカーの第3座標系に座標を変換させるための第2座標変換関係、及び第3座標系から定位手術部の第4座標系に座標を変換させるための第3座標変換関係を生成できる。例えば、図12を参照すると、制御部140は、第1イメージングデータの第1座標系1210から患者マーカー174の第3座標系1220に座標を変換させるための第2座標変換関係、及び患者マーカー174の第3座標系1220から定位手術部1の第4座標系1230に座標を変換させるための第3座標変換関係を生成できる。
一実施例によれば、制御部140は、撮像部120の位置及び姿勢に基づいて第2座標変換関係を生成できる。図18を参照して具体的に詳察すると、段階S1751で、制御部は撮像部の位置及び姿勢に基づいて、第2座標系から撮像部の第5座標系に座標を変換させるための第4座標変換関係、及び第5座標系から第3座標系に座標を変換させるための第5座標変換関係を生成できる。例えば、図13を参照すると、制御部140は、撮像部120の位置及び姿勢に基づいて、第2イメージングデータの第2座標系1240から撮像部120の第5座標系1250に座標を変換させるための第4座標変換関係、及び撮像部120の第5座標系1250から患者マーカー174の第3座標系1220に座標を変換させるための第5座標変換関係を生成できる。
一実施例によれば、第4座標変換関係は、(i)撮像部120の光学系の基準座標系から撮像部120の第5座標系1250に座標を変換させるための座標変換関係と、(ii)第2イメージングデータの第2座標系1240から撮像部120の光学系の基準座標系に座標を変換させるための座標変換関係を用いて生成され得る。一実施例によれば、第5座標変換関係は、(i)撮像部120の第5座標系1250からトラッキング部130の座標系に座標を変換させるための座標変換関係と、(ii)患者マーカー174の第3座標系1220からトラッキング部130の座標系に座標を変換させるための座標変換関係を用いて生成され得る。
第4座標変換関係及び第5座標変換関係が生成されれば、段階S1752で、制御部140は、第1座標変換関係、第4座標変換関係及び第5座標変換関係に基づいて、第2座標変換関係を生成できる。一実施例によれば、このような座標変換関係は座標変換マトリックスの形態で表現され得る。従って、第2座標変換関係は、生成された第1座標変換関係を示すマトリックス、第4座標変換関係を示すマトリックス及び第5座標変換関係を示すマトリックスを用いた演算を通じて生成され得る。
一実施例によれば、第3座標変換関係は、トラッキング部130を用いて取得できる(i)定位手術部1の原点に置いたマーカーの位置及び姿勢と、(ii)少なくとも1つのマーカー(患者マーカー)の位置及び姿勢を用いて生成され得る。更に他の実施例によれば、第3座標変換関係は、患者マーカー174が付着された位置と定位手術部1の原点の位置が一定であるという点を用いた幾何学的演算(機構学的演算)を通じて生成され得る。
このように、第2座標変換関係及び第3座標変換関係が生成された後、段階S1760で、制御部は、第2座標変換関係及び第3座標変換関係を用いて定位手術部を制御できる。具体的には、以下では、図19を参照して説明する。段階S1710〜S1750を通じて第2座標変換関係及び第3座標変換関係が生成されれば、使用者が手術ターゲットの位置及び手術道具の進入位置を入力できるように、制御部は、段階S1761で、ユーザーインターフェースを通じて、第1イメージングデータを視覚化できる。例えば、図2を参照すると、制御部140は、ユーザーインターフェース150を通じて、手術ターゲットを含む手術部位の3次元イメージを示す第1イメージングデータを視覚化できる。
段階S1761を通じて第1イメージングデータが視覚化されると、ユーザーインターフェース150を通じて、手術ターゲットの位置及び手術道具の進入位置が入力されて、視覚化されたイメージ上に表示され得る。制御部は、段階S1762で、ユーザーインターフェースを通じて使用者が入力した手術ターゲットの位置及び手術道具の進入位置を第1座標系上の座標に変換できる。例えば、図2を参照すると、制御部140は、ユーザーインターフェース150を通じて使用者が入力した手術ターゲットの位置及び手術道具の進入位置を第1イメージングデータの第1座標系1210上の座標に変換できる。
このように、ユーザーインターフェース150を通じて入力された手術ターゲットの位置及び手術道具の進入位置が第1座標系1210上の座標に変換されれば、段階S1763で、制御部は、第2座標変換関係及び第3座標変換関係を用いて、変換された第1座標系上の座標を定位手術部の第4座標系上の座標に変換できる。例えば、図12を参照すると、制御部140は、第2座標変換関係及び第3座標変換関係を用いて、第1イメージングデータの第1座標系1210上の手術ターゲットの座標及び手術道具の進入位置の座標を定位手術部1の第4座標系1230上の座標に変換できる。
このように、第1イメージングデータの第1座標系1210上の手術ターゲットの座標と手術道具の進入位置の座標が定位手術部1の第4座標系1230上の座標に変換された後、段階S1764で、制御部は変換された第4座標系上の座標に基づいて手術道具の進入姿勢を決定できる。例えば、制御部140は、手術道具の進入位置から手術ターゲットの位置に手術道具が移動できるように、手術道具の進入姿勢を決定できる。
その後、段階S1765で、制御部は第4座標系上で手術ターゲットの位置に対応する座標が回転部の2つの回転軸の交差点に位置するように移動部を通じて回転部を移動させることができる。例えば、図4及び5を参照すると、制御部140は、定位手術部1の第4座標系1230上で、手術ターゲットの位置に対応する座標が回転部40の2つの回転軸43、45の交差点に位置するように、移動部10を通じて移動部10に付着された回転部40を移動させることができる。
また、制御部は、段階S1766で、手術道具が、決定された手術道具の進入姿勢を有するように回転部を通じて手術道具を回転させることができる。例えば、図5を参照すると、制御部140は、手術道具50が決定された手術道具50の進入姿勢を有するように、回転部40を通じて回転部40に付着された手術道具50を回転させることができる。このように、本発明において、制御部140は移動部10及び回転部40をそれぞれ独立に制御できる。
前記方法は、特定実施例を通じて説明したが、前記方法はまたコンピュータで読み出すことができる記録媒体にコンピュータが読み出すことができるコードとして具現することが可能である。コンピュータが読み出すことができる記録媒体は、コンピュータシステムにより読み込まれ得るデータが格納される全ての種類の記録装置を含む。コンピュータが読み出すことができる記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピーディスク、光データ格納装置などがあり、また、キャリア波(例えば、インターネットを通じた伝送)の形態に具現されるものも含む。また、コンピュータが読み出すことができる記録媒体はネットワークに連結されたコンピュータシステムに分散して、分散方式でコンピュータが読み出すことができるコードが格納され、実行され得る。そして、前記実施例を具現するための機能的な(functional)プログラム、コード及びコードセグメントは、本発明の属する技術分野のプログラマにより容易に推論され得る。
本明細書では、本発明を一部実施例と関連して説明したが、本発明の属する技術分野の当業者が理解できる本発明の思想及び範囲を外れない範囲で多様な変形及び変更がなされるという点を理解すべきである。また、そのような変形及び変更は、本明細書に添付の特許請求の範囲内に属すると考えられなければならない。
1:定位手術部
10:移動部
11:固定部
12:第1方向駆動部
14:第2方向駆動部
16:第3方向駆動部
40:回転部
42:第1回転駆動部
43:第1回転軸
44:第2回転駆動部
45:第2回転軸
46:ホルダ
50:手術道具
70:手術部位支持部
72:連結部
73:連結部材
74:高さ調節部
75:角度調節部
78:手術台固定部
79:クランピング部
90:手術部位固定部
92:横方向手術部位固定フレーム
93:縦方向手術部位固定フレーム
94:手術部位固定ピン
95:絶縁手段
110:手術台
120:撮像部
130:トラッキング部
131:第2レンズ
132:結像素子
140:制御部
150:ユーザーインターフェース
170、172、174、910:マーカー
911:パターン面
912:第1レンズ

Claims (16)

  1. 定位手術用の手術ロボットシステムであって、
    手術道具を少なくとも5自由度に移動及び回転させる定位手術部と、
    手術ターゲットを含む手術部位の3次元イメージを示す第1イメージングデータを受信する制御部と、
    前記第1イメージングデータを視覚化するユーザーインターフェースと、
    前記手術部位に取り付けられたり近接して配置される少なくとも1つのマーカーと、
    前記手術部位の外部の3次元イメージを示す第2イメージングデータを生成する撮像部と、
    前記撮像部及び前記マーカーの位置及び姿勢を測定するトラッキング部と
    を含み、
    前記制御部は、
    前記ユーザーインターフェースを通じて前記手術ターゲットの位置及び前記手術道具の進入位置が入力され、
    前記手術部位の少なくとも一部分を用いて前記第1イメージングデータが示す3次元イメージと前記第2イメージングデータが示す3次元イメージとの間のイメージ整合が行われ、前記第1イメージングデータの第1座標系から前記第2イメージングデータの第2座標系に座標を変換させるための第1座標変換関係を生成し、
    前記第1座標変換関係と、前記トラッキング部が測定した前記撮像部及び前記少なくとも1つのマーカーの位置及び姿勢を用いて前記第1座標系から前記少なくとも1つのマーカーの第3座標系に座標を変換させるための第2座標変換関係を生成し
    前記トラッキング部が測定した前記少なくとも1つのマーカーの位置及び姿勢を用いて前記第3座標系から前記定位手術部の第4座標系に座標を変換させるための第3座標変換関係を生成し、
    前記第1座標変換関係、前記第2座標変換関係、前記第3座標変換関係、入力された前記手術ターゲットの位置及び前記手術道具の進入位置を用いて前記定位手術部を制御する、定位手術用の手術ロボットシステム。
  2. 前記制御部は、
    前記ユーザーインターフェースを通じてユーザーが入力した前記手術ターゲットの位置及び前記手術道具の進入位置を第1座標系上の座標に変換することを特徴とする、請求項1に記載の定位手術用の手術ロボットシステム。
  3. 前記制御部は、前記第2座標変換関係及び前記第3座標変換関係を用いて前記変換された第1座標系上の座標を前記定位手術部の第4座標系上の座標に変換することを特徴とする、請求項2に記載の定位手術用の手術ロボットシステム。
  4. 前記定位手術部は、
    前記手術道具が取り付けられ、2つの回転軸のうち少なくとも1つの回転軸を中心に前記手術道具を回転させる回転部と、
    3つの軸のうち少なくとも1つの軸方向に前記回転部を移動させる移動部と
    を含み、
    前記制御部は、
    前記変換された第4座標系上の座標に基づいて前記手術道具の進入姿勢を決定し、
    前記第4座標系上で前記手術ターゲットの位置に対応する座標が前記2つの回転軸の交差点に位置するように前記移動部を通じて前記回転部を移動させ、
    前記手術道具が前記決定された手術道具の進入姿勢を有するように前記回転部を通じて前記手術道具を回転させるすることを特徴とする、請求項3に記載の定位手術用の手術ロボットシステム。
  5. 前記移動部は、
    第1軸方向に沿って移動する第1方向駆動部と、
    前記第1方向駆動部に連結されて、第2軸方向に沿って移動する第2方向駆動部と、
    前記第2方向駆動部に連結されて、第3軸方向に沿って移動する第3方向駆動部と
    を含み、
    前記回転部は、
    前記第3方向駆動部に連結される一端を含み、第1回転軸を中心に回転する第1回転駆動部と、
    前記第1回転駆動部に連結される一端を含み、第2回転軸を中心に回転する第2回転駆動部と
    を含み、
    前記手術道具は、前記第2回転駆動部に取り付けられることを特徴とする、請求項4に記載の定位手術用の手術ロボットシステム。
  6. 前記制御部は、
    前記撮像部の位置及び姿勢に基づいて、前記撮像部の光学系の基準座標系から前記撮像部の第5座標系に座標を変換させるための座標変換関係と、前記第2イメージングデータの第2座標系から前記撮像部の光学系の基準座標系に座標を変換させるための座標変換関係とを用いて前記第2座標系から前記撮像部の第5座標系に座標を変換させるための第4座標変換関係を生成し、
    前記撮像部の位置及び姿勢に基づいて、前記撮像部の第5座標系から前記トラッキング部の座標系に座標を変換させるための座標変換関係と、前記第3座標系からトラッキング部の座標系に座標を変換させるための座標変換関係とを用いて前記第5座標系から前記第3座標系に座標を変換させるための第5座標変換関係を生成し、
    前記第1座標変換関係、前記第4座標変換関係及び前記第5座標変換関係に基づいて前記第2座標変換関係を生成することを特徴とする、請求項1に記載の定位手術用の手術ロボットシステム。
  7. 前記制御部は、前記第1イメージングデータが示す3次元イメージと前記第2イメージングデータが示す3次元イメージに共通して含まれる前記手術部位の少なくとも一部分を用いて前記イメージ整合を行うことを特徴とする、請求項に記載の定位手術用の手術ロボットシステム。
  8. 前記制御部は、
    前記第1イメージングデータから前記手術部位の2次元断面イメージを示す2次元イメージングデータを抽出し、
    前記2次元イメージングデータの第6座標系から前記第1座標系に座標を変換させるための座標変換関係と、前記第2座標変換関係及び前記第3座標変換関係を用いて、前記定位手術部を制御することを特徴とする、請求項1に記載の定位手術用の手術ロボットシステム。
  9. 前記撮像部は、前記手術部位の外部に照射して光を撮影したイメージから位相データを生成し、前記位相データに基づいて前記第2イメージングデータを生成することを特徴とする、請求項1に記載の定位手術用の手術ロボットシステム。
  10. 定位手術用の手術ロボットシステムにおいて、手術道具を少なくとも5自由度に移動及び回転させる定位手術部を制御する方法であって、
    手術ターゲットを含む手術部位の3次元イメージを示す第1イメージングデータを制御部が受信する段階と、
    ユーザーインターフェースが前記第1イメージングデータを視覚化する段階と、
    前記ユーザーインターフェースを通じて前記手術ターゲットの位置及び前記手術道具の進入位置が前記制御部に入力される段階と、
    前記手術部位の外部の3次元イメージを示す第2イメージングデータを撮像部が生成する段階と、
    前記撮像部及び前記手術部位に取り付けられたり近接して配置された少なくとも1つのマーカーの位置及び姿勢をトラッキング部が測定する段階と、
    前記手術部位の少なくとも一部分を用いて前記第1イメージングデータが示す3次元イメージと前記第2イメージングデータが示す3次元イメージとの間のイメージ整合が行われ、前記第1イメージングデータの第1座標系から前記第2イメージングデータの第2座標系に座標を変換させるための第1座標変換関係を前記制御部が生成する段階と、
    前記第1座標変換関係と、前記トラッキング部が測定した前記撮像部及び前記少なくとも1つのマーカーの位置及び姿勢を用いて前記第1座標系から前記少なくとも1つのマーカーの第3座標系に座標を変換させるための第2座標変換関係を前記制御部が生成する段階と、
    前記トラッキング部が測定した前記少なくとも1つのマーカーの位置及び姿勢を用いて前記第3座標系から前記定位手術部の第4座標系に座標を変換させるための第3座標変換関係を前記制御部が生成する段階と、
    前記第1座標変換関係、前記第2座標変換関係、前記第3座標変換関係、入力された前記手術ターゲットの位置及び前記手術道具の進入位置を用いて前記制御部が前記定位手術部を制御する段階と
    を含む、定位手術部の制御方法。
  11. 前記ユーザーインターフェースを通じてユーザーが入力した前記手術ターゲットの位置及び手術道具の進入位置を第1座標系上の座標に前記制御部が変換する段階と
    をさらに含むことを特徴とする、請求項10に記載の定位手術部の制御方法。
  12. 前記定位手術部を制御する段階は、前記第2座標変換関係及び前記第3座標変換関係を用いて、前記変換された第1座標系上の座標を前記定位手術部の第4座標系上の座標に前記制御部が変換する段階を含むことを特徴とする、請求項11に記載の定位手術部の制御方法。
  13. 前記定位手術部は、
    前記手術道具が取り付けられて、2つの回転軸のうち少なくとも1つの回転軸を中心に前記手術道具を回転させる回転部と、
    3つの軸のうち少なくとも1つの軸方向に前記回転部を移動させる移動部とを含み、
    前記定位手術部を制御する段階は、
    前記変換された第4座標系上の座標に基づいて前記制御部が前記手術道具の進入姿勢を決定する段階と、
    前記第4座標系上で前記手術ターゲットの位置に対応する座標が前記2つの回転軸の交差点に位置するように前記制御部が前記移動部を通じて前記回転部を移動させる段階と、
    前記手術道具が前記決定された手術道具の進入姿勢を有するように前記制御部が前記回転部を通じて前記手術道具を回転させる段階と
    を含むことを特徴とする、請求項11に記載の定位手術部の制御方法。
  14. 前記第2座標変換関係を前記制御部が生成する段階は、
    前記撮像部の位置及び姿勢に基づいて、前記第2座標系から前記撮像部の第5座標系に座標を変換させるための第4座標変換関係、及び前記第5座標系から前記第3座標系に座標を変換させるための第5座標変換関係を前記制御部が生成する段階と、
    前記第1座標変換関係、前記第4座標変換関係及び前記第5座標変換関係に基づいて前記第2座標変換関係を前記制御部が生成する段階と
    を含むことを特徴とする、請求項10に記載の定位手術部の制御方法。
  15. 前記制御部は、前記第1イメージングデータが示す3次元イメージと前記第2イメージングデータが示す3次元イメージに共通して含まれる前記手術部位の少なくとも一部分を用いて前記イメージ整合を行うことを特徴とする、請求項10に記載の定位手術部の制御方法。
  16. 請求項10〜請求項15のうちいずれか1項の定位手術部を制御する方法の各段階を行う命令語を含むプログラムを格納するコンピュータ読み取り可能な記憶媒体。
JP2016248817A 2016-08-16 2016-12-22 定位手術用の手術ロボットシステム及び定位手術用ロボットの制御方法 Active JP6367905B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0103717 2016-08-16
KR1020160103717A KR101848027B1 (ko) 2016-08-16 2016-08-16 정위수술용 수술로봇 시스템 및 정위수술용 로봇의 제어방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018128193A Division JP6718920B2 (ja) 2016-08-16 2018-07-05 定位手術用の手術ロボットシステム及び定位手術用ロボットの制御方法

Publications (2)

Publication Number Publication Date
JP2018027289A JP2018027289A (ja) 2018-02-22
JP6367905B2 true JP6367905B2 (ja) 2018-08-01

Family

ID=57590386

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016248817A Active JP6367905B2 (ja) 2016-08-16 2016-12-22 定位手術用の手術ロボットシステム及び定位手術用ロボットの制御方法
JP2018128193A Active JP6718920B2 (ja) 2016-08-16 2018-07-05 定位手術用の手術ロボットシステム及び定位手術用ロボットの制御方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018128193A Active JP6718920B2 (ja) 2016-08-16 2018-07-05 定位手術用の手術ロボットシステム及び定位手術用ロボットの制御方法

Country Status (5)

Country Link
US (2) US10548681B2 (ja)
EP (2) EP3284433B1 (ja)
JP (2) JP6367905B2 (ja)
KR (1) KR101848027B1 (ja)
CN (2) CN107753105B (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3107180C (en) 2016-09-06 2022-10-04 Advanced Intelligent Systems Inc. Mobile work station for transporting a plurality of articles
USD837380S1 (en) * 2017-04-18 2019-01-01 Intuitive Surgical Operations, Inc. Surgical apparatus
USD897537S1 (en) 2017-04-18 2020-09-29 Intuitive Surgical Operations, Inc. Surgical apparatus
US11121583B2 (en) * 2018-01-23 2021-09-14 Stryker Corporation Operating room wireless power transfer
CA3090827C (en) 2018-02-15 2021-01-19 Advanced Intelligent Systems Inc. Apparatus for supporting an article during transport
CN108451653A (zh) * 2018-03-28 2018-08-28 大连现代高技术集团有限公司 一种实时图像引导的体表标记方法及装置
CN108927807B (zh) * 2018-08-14 2020-08-07 河南工程学院 一种基于点特征的机器人视觉控制方法
US10745219B2 (en) 2018-09-28 2020-08-18 Advanced Intelligent Systems Inc. Manipulator apparatus, methods, and systems with at least one cable
US10751888B2 (en) 2018-10-04 2020-08-25 Advanced Intelligent Systems Inc. Manipulator apparatus for operating on articles
US10966374B2 (en) 2018-10-29 2021-04-06 Advanced Intelligent Systems Inc. Method and apparatus for performing pruning operations using an autonomous vehicle
US10645882B1 (en) 2018-10-29 2020-05-12 Advanced Intelligent Systems Inc. Method and apparatus for performing pruning operations using an autonomous vehicle
US10676279B1 (en) 2018-11-20 2020-06-09 Advanced Intelligent Systems Inc. Systems, methods, and storage units for article transport and storage
US11744655B2 (en) 2018-12-04 2023-09-05 Globus Medical, Inc. Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems
US11602402B2 (en) 2018-12-04 2023-03-14 Globus Medical, Inc. Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems
CN109692050B (zh) 2018-12-26 2020-05-22 雅客智慧(北京)科技有限公司 一种牙科种植导航手术的标定、追踪方法和装置
WO2020163263A1 (en) * 2019-02-06 2020-08-13 Covidien Lp Hand eye coordination system for robotic surgical system
US11382549B2 (en) 2019-03-22 2022-07-12 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
JP7290986B2 (ja) * 2019-04-26 2023-06-14 ニデックインスツルメンツ株式会社 ロボットシステム
FR3095331A1 (fr) * 2019-04-26 2020-10-30 Ganymed Robotics Procédé de chirurgie orthopédique assistée par ordinateur
US11045179B2 (en) 2019-05-20 2021-06-29 Global Medical Inc Robot-mounted retractor system
CN110115636B (zh) * 2019-06-28 2022-08-26 盐城诺诚祈瑞智能科技有限公司 一种增稳防抖式外科手术仪
CN112543623A (zh) * 2019-07-22 2021-03-23 京东方科技集团股份有限公司 手术机器人系统及其控制方法
WO2021069449A1 (en) * 2019-10-06 2021-04-15 Universität Bern System and method for computation of coordinate system transformations
CN114615948A (zh) * 2019-10-18 2022-06-10 完整植入物有限公司Dba阿克塞勒斯 外科手术导航系统
CN110897732A (zh) * 2019-12-27 2020-03-24 武汉联影智融医疗科技有限公司 一种标定装置和手术器械标定方法
CN111134889B (zh) * 2020-01-10 2021-03-05 浙江大学 一种用于眼科高分辨率检测实验的小鼠固定装置
CN111407577A (zh) * 2020-03-31 2020-07-14 何筱峰 可移动手术平台
CN113554710A (zh) * 2020-04-24 2021-10-26 西门子(深圳)磁共振有限公司 医学影像系统中3d相机的标定方法、系统和存储介质
US20230225820A1 (en) * 2020-05-08 2023-07-20 David Colle Devices for assisting neurosurgical interventions
CN112568995A (zh) * 2020-12-08 2021-03-30 南京凌华微电子科技有限公司 一种机器人辅助手术的骨锯标定方法
US11832897B2 (en) * 2021-07-30 2023-12-05 Remex Medical Corp. Method and system for surgical navigation
US20240233180A1 (en) * 2023-01-10 2024-07-11 Verb Surgical Inc. Method and system for calibrating cameras
CN117204951B (zh) * 2023-09-22 2024-04-30 上海睿触科技有限公司 一种基于x射线的手术定位导航设备及其定位实现方法

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03106359A (ja) * 1989-09-20 1991-05-02 Shiyouwakai Ota Kinen Biyouin 医療用三次元定位装置
US5257998A (en) * 1989-09-20 1993-11-02 Mitaka Kohki Co., Ltd. Medical three-dimensional locating apparatus
JP2653210B2 (ja) 1990-03-16 1997-09-17 天美 加藤 定位的脳手術支援装置
US5269305A (en) * 1990-04-27 1993-12-14 The Nomos Corporation Method and apparatus for performing stereotactic surgery
US6006126A (en) * 1991-01-28 1999-12-21 Cosman; Eric R. System and method for stereotactic registration of image scan data
US5279309A (en) * 1991-06-13 1994-01-18 International Business Machines Corporation Signaling device and method for monitoring positions in a surgical operation
JP3190705B2 (ja) 1991-08-29 2001-07-23 日本電信電話株式会社 半導体量子細線の形成方法
US5953448A (en) * 1996-03-01 1999-09-14 Textile/Clothing Technology Corporation Contour measurement of an object having a discontinuous surface using block point identification techniques
JPH11309A (ja) 1997-06-12 1999-01-06 Hitachi Ltd 画像処理装置
US5967982A (en) * 1997-12-09 1999-10-19 The Cleveland Clinic Foundation Non-invasive spine and bone registration for frameless stereotaxy
US6351662B1 (en) * 1998-08-12 2002-02-26 Neutar L.L.C. Movable arm locator for stereotactic surgery
US6856827B2 (en) * 2000-04-28 2005-02-15 Ge Medical Systems Global Technology Company, Llc Fluoroscopic tracking and visualization system
US7313430B2 (en) 2003-08-28 2007-12-25 Medtronic Navigation, Inc. Method and apparatus for performing stereotactic surgery
JP3783011B2 (ja) 2003-10-02 2006-06-07 株式会社日立製作所 操作入力装置および遠隔操作システムおよび遠隔操作方法
US20060036162A1 (en) * 2004-02-02 2006-02-16 Ramin Shahidi Method and apparatus for guiding a medical instrument to a subsurface target site in a patient
JP4381907B2 (ja) 2004-07-05 2009-12-09 株式会社日立製作所 手術支援システム
HU226450B1 (en) 2004-09-20 2008-12-29 Attila Dr Balogh Telerecorder or medical tools movable stock receiver mainly for brain-surgery
US9261172B2 (en) * 2004-09-30 2016-02-16 Intuitive Surgical Operations, Inc. Multi-ply strap drive trains for surgical robotic arms
US20070005002A1 (en) * 2005-06-30 2007-01-04 Intuitive Surgical Inc. Robotic surgical instruments for irrigation, aspiration, and blowing
FR2917598B1 (fr) 2007-06-19 2010-04-02 Medtech Plateforme robotisee multi-applicative pour la neurochirurgie et procede de recalage
EP2626006B1 (en) * 2007-08-14 2019-10-09 Koninklijke Philips N.V. Robotic instrument systems utilizing optical fiber sensors
KR101061987B1 (ko) 2008-12-12 2011-09-05 주식회사 이턴 침대 장착식 수술용 로봇
US9895135B2 (en) * 2009-05-20 2018-02-20 Analogic Canada Corporation Freehand ultrasound imaging systems and methods providing position quality feedback
JP5371927B2 (ja) * 2010-10-27 2013-12-18 三菱電機株式会社 座標系校正方法及びロボットシステム
EP2468207A1 (en) 2010-12-21 2012-06-27 Renishaw (Ireland) Limited Method and apparatus for analysing images
JP2013049102A (ja) * 2011-08-30 2013-03-14 Denso Wave Inc ロボットの制御装置及びロボットの姿勢決定方法
JP2015528713A (ja) * 2012-06-21 2015-10-01 グローバス メディカル インコーポレイティッド 手術ロボットプラットフォーム
US9008757B2 (en) * 2012-09-26 2015-04-14 Stryker Corporation Navigation system including optical and non-optical sensors
US20140188440A1 (en) * 2012-12-31 2014-07-03 Intuitive Surgical Operations, Inc. Systems And Methods For Interventional Procedure Planning
EP2769689B8 (en) 2013-02-25 2018-06-27 Stryker European Holdings I, LLC Computer-implemented technique for calculating a position of a surgical device
KR102257034B1 (ko) 2013-03-15 2021-05-28 에스알아이 인터내셔널 하이퍼덱스트러스 수술 시스템
CN105658167B (zh) * 2013-08-23 2018-05-04 斯瑞克欧洲控股I公司 用来对用于手术导航的坐标转换进行确定的计算机实现技术
EP3175791B1 (en) 2013-11-04 2021-09-08 Ecential Robotics Method for reconstructing a 3d image from 2d x-ray images
JP6290723B2 (ja) * 2014-06-23 2018-03-07 公立大学法人公立はこだて未来大学 手術支援装置および手術支援システム
DE102014212913B4 (de) * 2014-07-03 2017-12-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zur intraoperativen Navigation
KR101638477B1 (ko) 2014-09-19 2016-07-11 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 좌표계 정합 방법
ES2743951T3 (es) 2015-03-02 2020-02-21 Basf Se Uso de partículas cristalinas de óxido de tantalio como centro de fijación en un superconductor

Also Published As

Publication number Publication date
JP2019034121A (ja) 2019-03-07
JP2018027289A (ja) 2018-02-22
US10548681B2 (en) 2020-02-04
EP3766450A1 (en) 2021-01-20
EP3284433B1 (en) 2020-09-16
JP6718920B2 (ja) 2020-07-08
CN107753105A (zh) 2018-03-06
KR101848027B1 (ko) 2018-04-12
US20200060783A1 (en) 2020-02-27
CN112971993B (zh) 2024-10-01
CN107753105B (zh) 2021-03-09
US20180049839A1 (en) 2018-02-22
CN112971993A (zh) 2021-06-18
KR20180019402A (ko) 2018-02-26
US11179219B2 (en) 2021-11-23
EP3284433A1 (en) 2018-02-21

Similar Documents

Publication Publication Date Title
JP6367905B2 (ja) 定位手術用の手術ロボットシステム及び定位手術用ロボットの制御方法
JP6678565B2 (ja) 定位手術用の手術ロボット及び定位手術用の手術ロボットの制御方法
CN109069217B (zh) 图像引导外科手术中的姿势估计以及透视成像系统的校准的系统和方法
CN114711969B (zh) 一种手术机器人系统及其使用方法
JP2013540455A (ja) 解剖学的表面の支援型自動データ収集方法
US20220241032A1 (en) Multi-arm robotic systems and methods for identifying a target
CN114159160B (zh) 手术导航方法、装置、电子设备、存储介质
KR101895369B1 (ko) 정위수술용 수술로봇 시스템
US11980426B2 (en) System and method for preliminary registration
CN209826968U (zh) 一种手术机器人系统
KR20180100514A (ko) 정위수술용 수술로봇 시스템
EP4284287A1 (en) Multi-arm robotic systems for identifying a target
Srivastava et al. Image guided navigation utilizing intra-operative 3D surface scanning to mitigate morphological deformation of surface anatomy
KR20200039389A (ko) 정위수술용 수술로봇 시스템 및 정위수술용 로봇의 제어방법
KR20180001407U (ko) 틸팅 가능한 헤드부를 구비한 수술 내비게이션 시스템
CN118613830A (zh) 用于重建三维表示的系统、方法和装置
CN118648066A (zh) 用于提供增强显示的系统、方法和装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180612

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180705

R150 Certificate of patent or registration of utility model

Ref document number: 6367905

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250