CN112971993A - 定位手术用手术机器人系统及其控制方法 - Google Patents
定位手术用手术机器人系统及其控制方法 Download PDFInfo
- Publication number
- CN112971993A CN112971993A CN202110187988.7A CN202110187988A CN112971993A CN 112971993 A CN112971993 A CN 112971993A CN 202110187988 A CN202110187988 A CN 202110187988A CN 112971993 A CN112971993 A CN 112971993A
- Authority
- CN
- China
- Prior art keywords
- surgical
- unit
- positioning
- coordinate system
- imaging data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title description 39
- 238000003384 imaging method Methods 0.000 claims abstract description 204
- 239000003550 marker Substances 0.000 claims abstract description 76
- 230000036544 posture Effects 0.000 claims abstract description 52
- 230000009466 transformation Effects 0.000 claims abstract description 43
- 238000001356 surgical procedure Methods 0.000 claims abstract description 40
- 238000006243 chemical reaction Methods 0.000 claims description 84
- 230000001131 transforming effect Effects 0.000 claims description 13
- 230000033001 locomotion Effects 0.000 description 21
- 230000010354 integration Effects 0.000 description 14
- 230000003287 optical effect Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 239000000470 constituent Substances 0.000 description 9
- 230000014509 gene expression Effects 0.000 description 9
- 210000004556 brain Anatomy 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 210000003128 head Anatomy 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 206010028980 Neoplasm Diseases 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000005036 nerve Anatomy 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000007769 metal material Substances 0.000 description 1
- 210000001331 nose Anatomy 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 210000004761 scalp Anatomy 0.000 description 1
- 210000003625 skull Anatomy 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/10—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/32—Surgical robots operating autonomously
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7475—User input or interface means, e.g. keyboard, pointing device, joystick
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/10—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
- A61B90/11—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/10—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
- A61B90/14—Fixators for body parts, e.g. skull clamps; Constructional details of fixators, e.g. pins
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/06—Topological mapping of higher dimensional structures onto lower dimensional surfaces
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2072—Reference field transducer attached to an instrument or patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/254—User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/10—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
- A61B2090/103—Cranial plugs for access to brain
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/363—Use of fiducial points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/373—Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3983—Reference marker arrangements for use with image guided surgery
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40298—Manipulator on vehicle, wheels, mobile
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/30—End effector
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
- Y10S901/47—Optical
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Robotics (AREA)
- Pathology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Neurosurgery (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Automation & Control Theory (AREA)
- Biophysics (AREA)
- Manipulator (AREA)
Abstract
本发明的定位手术用手术机器人系统可以包括:定位手术部,其使手术工具移动及旋转至少五自由度;控制部,其接收代表包括手术目标在内的手术部位的三维图像的第一成像数据;至少一个标记,其附着或接近于手术部位进行配置;拍摄部,其生成代表手术部位外部的三维图像的第二成像数据;及跟踪部,其跟踪拍摄部及标记的位置及姿势。控制部生成第一坐标变换关系,利用第一坐标变换关系和拍摄部及至少一个的标记的位置及姿势,生成第二坐标变换关系,及第三坐标变换关系,利用第二坐标变换关系及所述第三坐标变换关系,控制所述定位手术部。
Description
技术领域
本发明涉及定位手术用手术机器人系统及定位手术用机器人的控制方法。
本发明是从作为产业通商资源部的机器人产业融合核心技术开发事业的一环而进行的研究中得出的。[课题固有编号:10062800,研究课题名称:通过临床试验之基于医疗影像的脑部手术机器人系统的实用化技术开发]
背景技术
多样的定位手术器械已经众所周知。例如,作为脑手术用手动定位手术器械,正在使用莱克塞尔框架(LEKSELL FRAME)。莱克塞尔框架具有可供用户手动将定位手术工具沿X、Y、Z轴移动及旋转的结构,以便定位手术工具的位置对应于患部位置。但是,当利用这种手动定位手术器械时,用户需要目视读取莱克塞尔框架上的刻度,决定手术工具的位置并移动,因而在患部位置与手术工具之间容易发生误差。
因此,为了改善手术工具的位置设定的精密度,正在使用将机器人用于定位手术的技术。定位手术用机器人由包含可动臂组件的机器臂体现,其中,机器臂连接于固定的底座,包括串联连接的多个臂。附着于这种串联型机器臂的手术工具的位置及手术精密度受到机器臂的所有自由度轴的影响。即,如果在利用机器臂的某一轴的动作中发生误差,那么,该误差叠加于在利用其它轴的动作中发生的误差,从而通过机器臂的所有轴的动作的误差进行累积,对手术精密度造成影响。此时,如果在安装于底座侧的驱动端发生动作误差,那么,该误差与连接于底座的多个机器臂的其它动作误差叠加,越是机器臂的末端,误差越被放大。因此,为了提高手术的精密度,优选把供机器臂固定的底座与患部之间的距离设置得较短。但是,如果机器臂的底座与患部之间的距离变短,则机器臂的惯性变小,因而容易发生误差,因此,机器臂的精密控制变得困难。另外,由于机器臂的底座与患部之间的空间变小,因而机器臂的作业半径变得狭小。另外,在固定于底座的机器臂配置于患部周围时,当用户在患部周围移动时,存在与机器臂冲突的危险,因而用户的移动会受到妨碍。
另一方面,为了定位手术,应指定手术目标的位置与手术工具的进入位置(或入口)。进行脑或神经手术时,如果不能适宜地设置手术工具的进入位置,则手术工具在到达手术目标之前,接触脑或神经的重要部分,从而会对患者造成不必要的危险。但是,就以往的定位手术器械而言,根据手术目标的位置而移动手术工具与根据手术工具的进入位置而移动手术工具,是以未分别独立区分的状态进行控制的。因此,如果实际手术工具的位置与定位手术用机器人系统识别的手术工具的位置之间发生误差,则修正该误差所需的手术工具的控制将会变得复杂。
发明内容
解决的技术问题
本发明提供一种能够提高定位手术的精密度、确保患者的手术姿势便利性的定位手术用手术机器人。
本发明提供一种减少定位手术用手术机器人的控制误差、容易修正发生误差的定位手术用手术机器人的控制方法。
本发明提供一种定位手术用手术机器人及定位手术用手术机器人的控制方法,分别独立地实施基于手术目标位置的手术工具的动作控制和基于手术工具进入位置的手术工具的动作控制,从而能够减小手术工具的动作控制的复杂性。
本发明提供一种能够基于用户界面中显示的手术对象的图像而容易地控制定位手术用手术机器人的手术机器人系统及定位手术用手术机器人的控制方法。
技术方案
本发明一个实施例的定位手术用手术机器人系统可以包括:定位手术部,其使手术工具移动及旋转至少五自由度;控制部,其接收代表包括手术目标在内的手术部位的三维图像的第一成像数据;至少一个标记,其附着或接近于所述手术部位进行配置;拍摄部,其生成代表所述手术部位外部的三维图像的第二成像数据;及跟踪部,其跟踪所述拍摄部及所述标记的位置及姿势,所述控制部可以生成用于把坐标从所述第一成像数据的第一坐标系变换成所述第二成像数据的第二坐标系的第一坐标变换关系,可以利用所述第一坐标变换关系和所述拍摄部及所述至少一个标记的位置及姿势,生成用于把坐标从所述第一坐标系变换为所述至少一个标记的第三坐标系的第二坐标变换关系,及用于把坐标从所述第三坐标系转换成所述定位手术部的第四坐标系的第三坐标变换关系,可以利用所述第二坐标变换关系及所述第三坐标变换关系,控制所述定位手术部。
根据一个实施例,所述控制部可以通过用户界面,使所述第一成像数据可视化,可以把用户通过所述用户界面输入的所述手术目标的位置及所述手术工具的进入位置变换成所述第一坐标系上的坐标。
根据一个实施例,所述控制部可以利用所述第二坐标变换关系及所述第三坐标变换关系,把所述变换的第一坐标系上的坐标变换成所述定位手术部的第四坐标系上的坐标。
根据一个实施例,所述定位手术部可以包括:旋转部,其供所述手术工具附着,以两个旋转轴中的至少一个旋转轴为中心,使所述手术工具旋转;及移动部,其使所述旋转部向三个轴中至少一个轴方向移动,所述控制部可以基于所述变换的第四坐标系上的坐标,决定所述手术工具的进入姿势,可以通过所述移动部使所述旋转部移动,以便在所述第四坐标系上,与所述手术目标的位置对应的坐标位于所述两个旋转轴的交叉点,可以通过所述旋转部使所述手术工具旋转,以便所述手术工具具有所述决定的手术工具的进入姿势。
根据一个实施例,所述移动部可以包括:第一方向驱动部,其沿着第一轴方向进行移动;第二方向驱动部,其连接于所述第一方向驱动部,沿着第二轴方向进行移动;及第三方向驱动部,其连接于所述第二方向驱动部,沿着第三轴方向进行移动,所述旋转部可以包括:第一旋转驱动部,其包括连接于所述第三方向驱动部的一端,以第一旋转轴为中心旋转;及第二旋转驱动部,其包括连接于所述第一旋转驱动部的一端,以第二旋转轴为中心旋转,所述手术工具可以附着于所述第二旋转驱动部。
根据一个实施例,所述控制部可以基于所述拍摄部的位置及姿势,生成用于把坐标从所述第二坐标系变换成所述拍摄部的第五坐标系的第四坐标变换关系,及用于把坐标从所述第五坐标系变换成所述第三坐标系的第五坐标变换关系,可以基于所述第一坐标变换关系、所述第四坐标变换关系及所述第五坐标变换关系,生成所述第二坐标变换关系。
根据一个实施例,所述控制部可以通过所述第一成像数据代表的三维图像和所述第二成像数据代表的三维图像间的图像整合(image registration),生成所述第一坐标变换关系。
根据一个实施例,所述控制部可以利用所述第一成像数据代表的三维图像和所述第二成像数据代表的三维图像中共同包含的所述手术部位的至少一部分,执行所述图像整合。
根据一个实施例,所述控制部可以从所述第一成像数据,提取代表所述手术部位的二维剖面图像的二维成像数据,可以利用用于把坐标从所述二维成像数据的第六坐标系变换成所述第一坐标系的坐标变换关系、所述第二坐标变换关系及所述第三坐标变换关系,控制所述定位手术部。
根据一个实施例,所述拍摄部可以利用相位迁移方式(Phase MeasuringProfilometry)生成所述第二成像数据。
根据本发明的一个实施例,对在定位手术用手术机器人系统中使手术工具移动及旋转至少五自由度的定位手术部进行控制的方法可以包括:控制部接收代表包括手术目标在内的手术部位的三维图像的第一成像数据的步骤;拍摄部生成代表所述手术部位外部的三维图像的第二成像数据的步骤;跟踪部跟踪附着或接近于所述拍摄部及所述手术部位进行配备的至少一个的标记的位置及姿势的步骤;所述控制部生成用于把坐标从所述第一成像数据的第一坐标系变换成所述第二成像数据的第二坐标系的第一坐标变换关系的步骤;所述控制部利用所述第一坐标变换关系和所述拍摄部及所述至少一个标记的位置及姿势,生成用于把坐标从所述第一坐标系变换成所述至少一个标记的第三坐标系的第二坐标变换关系,及用于把坐标从所述第三坐标系变换成所述定位手术部的第四坐标系的第三坐标变换关系的步骤;及所述控制部利用所述第二坐标变换关系及所述第三坐标变换关系,控制所述定位手术部的步骤。
根据一个实施例,所述控制定位手术部的方法可以还包括:所述控制部通过用户界面而使所述第一成像数据可视化的步骤;及所述控制部把用户通过所述用户界面输入的所述手术目标的位置及手术工具的进入位置变换成所述第一坐标系上的坐标的步骤。
根据一个实施例,所述控制定位手术部的步骤可以包括:所述控制部利用所述第二坐标变换关系及所述第三坐标变换关系,把所述变换的第一坐标系上的坐标变换成所述定位手术部的第四坐标系上的坐标的步骤。
根据一个实施例,所述定位手术部可以包括:旋转部,其供所述手术工具附着,以两个旋转轴中的至少一个旋转轴为中心,使所述手术工具旋转;及移动部,其使所述旋转部向三个轴中至少一个轴方向移动;所述控制定位手术部的步骤包括:所述控制部基于所述变换的第四坐标系上的坐标而决定所述手术工具的进入姿势的步骤;所述控制部通过所述移动部而使所述旋转部移动,以便在所述第四坐标系上,与所述手术目标的位置对应的坐标位于所述两个旋转轴的交叉点的步骤;及所述控制部通过所述旋转部使所述手术工具旋转,以便所述手术工具具有所述决定的手术工具的进入姿势的步骤。
根据一个实施例,所述控制部生成所述第二坐标变换关系的步骤可以包括:所述控制部基于所述拍摄部的位置及姿势,生成用于把坐标从所述第二坐标系变换成所述拍摄部的第五坐标系的第四坐标变换关系,及用于把坐标从所述第五坐标系变换成所述第三坐标系的第五坐标变换关系的步骤;及所述控制部基于所述第一坐标变换关系、所述第四坐标变换关系及所述第五坐标变换关系,生成所述第二坐标变换关系的步骤。
根据一个实施例,所述控制部生成第一坐标变换关系的步骤可以包括:所述控制部通过所述第一成像数据代表的三维图像和所述第二成像数据代表的三维图像间的图像整合,生成所述第一坐标变换关系的步骤。
根据一个实施例,所述控制部可以利用所述第一成像数据代表的三维图像和所述第二成像数据代表的三维图像中共同包含的所述手术部位的至少一部分,执行所述图像整合。
本发明一个实施例的计算机可读存储介质可以存储包括执行所述手术机器人系统的控制方法的各步骤的指令的程序。
发明效果
根据本发明的定位手术用手术机器人及定位手术用手术机器人的控制方法,可以根据手术目标的位置和手术工具的进入位置,独立地控制定位手术用手术机器人,因而提高手术精密度,简化控制方式。可以以接近患者患部周围的方式配置手术机器人,能够提高患者的便利性及操作者的操作性,能够降低控制误差。
另外,根据包括本发明的定位手术用手术机器人的手术机器人系统,医生可以通过用户界面而简单地控制定位手术用手术机器人,即使手术过程中患者移动,也能够在短时间内重新设置手术机器人控制所需的坐标变换关系。
附图说明
图1是显示本发明一个实施例的手术机器人系统用于手术的示例的图。
图2是显示本发明一个实施例的手术机器人系统的框图。
图3是显示本发明一个实施例的定位手术用手术机器人的立体图。
图4是本发明一个实施例的移动部的立体图。
图5是本发明一个实施例的旋转部的立体图。
图6是本发明一个实施例的手术部位支撑部的立体图。
图7是本发明一个实施例的患者固定部的立体图。
图8是本发明一个实施例的结合了患者固定部的定位手术用手术机器人的立体图。
图9是显示用于说明本发明一个实施例的跟踪部的动作的标记及跟踪部的框图。
图10是显示根据本发明的一个实施例,对通过拍摄部获得的手术工具的进入位置周边的图像与手术前拍摄的包括手术部位的患者图像进行整合的结果的图。
图11是根据本发明的一个实施例,在手术前拍摄的包括手术部位的患者三维图像中显示手术目标的位置及手术工具的进入位置的图。
图12是用于说明根据本发明的一个实施例,把包括手术部位的三维图像或三维图像的二维剖面图像上显示的手术目标位置及手术工具的进入位置变换成定位手术部的坐标系上的位置的方法的图。
图13是用于说明根据本发明的一个实施例,用于把坐标从代表包括手术部位的三维图像的成像数据的坐标系变换为患者标记的坐标系的方法的图。
图14是根据本发明的一个实施例,用户在手术前拍摄的包括手术部位的患者三维图像的轴平面上的二维剖面图像中,标识手术目标的位置及手术工具的进入位置的图。
图15是根据本发明的一个实施例,用户在手术前拍摄的包括手术部位的患者三维图像的矢状面上的二维剖面图像中,标识手术目标的位置及手术工具的进入位置的图。
图16是根据本发明的一个实施例,用户在手术前拍摄的包括手术部位的患者三维图像的冠状面上的二维剖面图像中,标识手术目标的位置及手术工具的进入位置的图。
图17是显示根据本发明的一个实施例,控制定位手术部的方法的流程图。
图18是显示根据本发明的一个实施例,生成把坐标从代表包括手术部位的三维图像的成像数据坐标系变换成患者标记的坐标系所需的坐标变换关系的方法的流程图。
图19是显示根据本发明的一个实施例,利用把坐标从代表包括手术部位的三维图像的成像数据坐标系变换成定位手术部的坐标系所需的坐标变换关系来控制定位手术部的方法的流程图。
附图标记说明
1:定位手术部 10:移动部
11:固定部 12:第一方向驱动部
14:第二方向驱动部 16:第三方向驱动部
40:旋转部 42:第一旋转驱动部
43:第一旋转轴 44:第二旋转驱动部
45:第二旋转轴 46:夹持器
50:手术工具 70:手术部位支撑部
72:连接部 73:连接构件
74:高度调节部 75:角度调节部
78:手术台固定部 79:夹紧部
90:手术部位固定部 92:横向手术部位固定架
93:纵向手术部位固定架 94:手术部位固定销
95:绝缘手段 110:手术台
120:拍摄部 130:跟踪部
131:第二透镜 132:成像元件
140:控制部 150:用户界面
170、172、174、910:标记 911:图案面
912:第一透镜
具体实施方式
以下说明的本发明实施例是出于说明本发明之目的而示例性列举的。本发明的实施例可以以多样的形态实施,不得解释为本发明限定于以下提示的实施例或对这些实施例的具体说明。
本实施例中使用的术语“部”,意味着软件、诸如FPGA(field-programmable gatearray)、ASIC(application specific integratedcircuit)的硬件构成要素。但是,“部”并非限定于硬件及软件。“部”既可以构成得位于可寻址的存储介质中,也可以构成得播放一个或其以上的处理器。因此,作为一个示例,“部”包括诸如软件构成要素、客体指向软件构成要素、集群构成要素及任务构成要素的构成要素,处理器,函数,属性,程序,子程序,程序代码的片段,驱动器,固件,微码,电路,数据,数据库,数据结构,工作表,阵列及变数。构成要素和“部”内提供的功能可以结合成更少数量的构成要素及“部”,或进一步分离成追加的构成要素和“部”。
本说明书中使用的所有技术术语及科学术语,只要未不同地定义,则具有本发明所属技术领域的普通技术人员一般理解的意义。本说明书中使用的所有术语是出于为了更明确说明本发明的目的而选择的,并非是为了限制本发明的范围而选择的。
只要未不同地提及,本说明书中记述的单数型的表现也一同包括复数型表现,这也同样适用于权利要求项中记载的单数型的表现。
在本发明的多样实施例中使用的“第一”、“第二”等表现,只是为了相互区分多个构成要素而使用的,并非限定相应构成要素的顺序或重要度。
本说明书中使用的诸如“包括的”及“具有的”表现,只要在包含相应表现的语句或文章中未特别提及不同,则应理解为内含包括其它实施例可能性的开放型术语(open-ended terms)。
在本说明书中,“基于~”的表现,用于记述对在包含相应表现的语句中描述的决定或判断行为或者对动作产生影响的一个以上的因子,该表现不排斥对决定或判断行为或对动作产生影响的追加性因子。
在本说明书中,当提及某种构成要素“连接于”或“接续于”另一构成要素时,应理解为既可以是所述某种构成要素直接连接于或接续于所述另一构成要素,也可以是在所述某种构成要素与所述另一构成要素之间存在新的其它构成要素。
下面参照附图,详细说明本发明的实施例。对于附图上的相同构成要素,使用相同的参照符号,省略对相同构成要素的重复说明。
<定位手术用手术机器人系统>
图1显示了本发明一个实施例的可以执行定位手术的手术机器人系统用于手术的示例。如图所示,医生(或用户)可以利用诸如定位手术部1的手术机器人,执行对患者160的定位手术。医生可以研究在用户界面150中显示的手术部位的图像,决定将进行手术的手术目标的位置及手术工具进入患者160内部的位置。
如果医生通过用户界面150输入了手术目标的位置及手术工具的进入位置,则基于此控制定位手术部1的动作,从而,附着于定位手术部1的手术工具可以接近手术目标。其中,“手术目标”(或手术对象)可以意味着通过手术工具进行去除或治疗的对象,例如肿瘤或在脏器、血管或骨骼中有病灶的部分等。例如,手术目标可以位于患者160的体内或外部表面(或皮肤)。手术工具的“进入位置”(或入口)可以意味着当手术目标在患者的体内时,手术工具为了接近手术目标而最初接触或通过的患者外部表面上的位置。例如,当手术工具为了去除存在于患者的颅内的肿瘤而进行动作时,手术工具的进入位置可以设置于患者的头皮上。
根据一个实施例,定位手术部1的动作可以利用手术机器人系统中包括的拍摄部120及跟踪部130而准确地控制。拍摄部120可以生成显示出诸如脑或脊椎的包括手术目标的手术部位的外部三维图像的成像数据。其中,“成像数据(imaging data)”可以意味着能够以可在视觉上识别诸如手术部位的拍摄对象的形态显示的数据,例如,可以包括在视觉上显示手术部位的二维或三维图像及与该图像相关的坐标系信息。跟踪部130可以跟踪附着于拍摄部120、定位手术部1及患者160的标记170、172、174,跟踪各个标记附着的对象的位置及姿势。根据本发明的手术机器人系统,可以利用跟踪部130,决定附着于定位手术部1的手术工具的现在位置。另外,基于通过拍摄部120及跟踪部130生成的信息,手术工具可以从现在位置,移动到通过用户界面150输入的手术目标的位置。
根据一个实施例,定位手术部1可以附着于手术台110使用。因此,在定位手术中,即使手术台110移动,定位手术部1与手术台110一同移动,因此,手术工具导向手术目标的位置可以不变。另外,如果定位手术部1附着于手术台110使用,则定位手术部1可以位于患者近处,因而附着于定位手术部1的手术工具能够实现精密控制,能够防止因定位手术部1而妨碍医生的移动路线。
下面就通过图1的示例概略地说明的本发明手术机器人系统的多样实施例进行更具体说明。
图2是显示本发明一个实施例的手术机器人系统100的框图。手术机器人系统100作为可以执行定位手术的手术机器人系统,可以包括定位手术部1、拍摄部120、跟踪部130及控制部140。定位手术部1可以包括能够对包含于手术部位的手术目标实施定位手术的手术工具和能够引导该手术工具的装置。
根据一个实施例,定位手术部1可以是能够以至少五自由度以上的自由度进行动作的定位手术用手术机器人。例如,定位手术部1可以沿至少三个轴方向移动手术工具,可以以至少两个旋转轴为中心,使手术工具旋转。定位手术部1可以附着于手术台110使用。
根据一个实施例,定位手术部1可以根据手术目标的位置及手术工具的进入位置,分别独立地执行手术工具的移动及旋转。其中,所谓分别独立地执行手术工具的移动及旋转,可以意味着在定位手术部1中,使手术工具移动的构成和使手术工具旋转的构成分离体现,根据这种构成,手术工具的移动和旋转可以个别地控制、执行。例如,定位手术部1可以根据手术目标的位置,首先使手术工具移动,根据手术工具的进入位置,决定手术工具接近或插入手术目标的姿势或方向后,旋转手术工具,使手术工具具有这种姿势。因此,在定位手术中,当手术工具对相同手术目标的进入位置变更时,通过简单地只变更手术工具的姿势,手术便能够在短时间内重新开始。关于定位手术部1的构成和动作的更具体的实施例将在后面相关部分说明。
拍摄部120可以生成代表手术部位的外部二维或三维图像的成像数据。根据一个实施例,拍摄部120可以生成代表患者160表面图像的成像数据,或生成代表手术目标或手术工具进入位置(或其周边)的图像的成像数据。根据一个实施例,拍摄部120可以基于利用图案光等的相位迁移方式(Phase Measuring Profilometry)生成代表三维图像的成像数据。
由拍摄部120生成的成像数据可以传递给用户界面150,在用户界面150上进行视觉显示。另外,由拍摄部120生成的成像数据还可以存储于存储装置180后,用于手术之后的手术结果分析或治疗。
根据一个实施例,由拍摄部120生成的成像数据和代表手术前预先拍摄的包括手术目标在内的手术部位三维图像的成像数据可以整合。代表手术部位的三维图像的成像数据可以在手术前存储于存储装置180。用户界面150可以在视觉上显示两种成像数据整合的结果。例如,用户界面150可以是能够基于任意的成像数据而显示该数据所代表的二维或三维图像的显示装置。代表手术前预先拍摄的手术部位三维图像的成像数据可以是关于手术部位的CT或关于MRI图像的成像数据。
根据又一实施例,控制部140可以基于利用拍摄部120生成的成像数据,控制定位手术部1。与拍摄部120相关的更具体实施例将在后面相关部分说明。
跟踪部130是用于跟踪物体移动的装置,是可以具体跟踪物体的位置和/或姿势的装置。根据一个实施例,跟踪部130测量附着于跟踪对象的标记的位置和/或姿势,从而可以跟踪附着了标记的对象。例如,把标记附着于手术工具后,跟踪部130跟踪附着于手术工具的标记的位置和/或姿势,从而可以跟踪手术工具。
根据一个实施例,可以利用跟踪分别附着于拍摄部120、定位手术部1及患者160的手术部位或手术部位近处的标记170、172、174的结果,控制定位手术部1。根据跟踪的目的,标记可以附着于手术机器人系统100的各构成或定位手术中使用的工具/装置的多样的位置。关于跟踪部130的构成和动作的更具体实施例将在后面相关部分说明。
控制部140可以控制包括定位手术部1、拍摄部120、跟踪部130、用户界面150的手术机器人系统100的多样构成要素的动作。控制部140可以存储及运行用于控制这些构成要素的包括手术计划软件及导航软件在内的控制用软件。另外,控制部140可以包括一个以上能够运行些软件的诸如CPU的处理器。
根据一个实施例,控制部140可以位于手术室内,控制手术机器人系统100。根据又一实施例,控制部140可以位于手术室外部,通过有线或无线网络连接到手术机器人系统100,控制手术机器人系统100。根据又一实施例,控制部140的功能可以分散于手术机器人系统100的不同构成要素而体现。例如,能够控制跟踪部130的控制部140的功能可以在跟踪部130内体现,能够控制拍摄部120的控制部140的功能可以在拍摄部120内体现。控制部140可以通过有线或无线网络,与手术室或医院内部或外部安装的数据库连接,可以从该数据库接收包括手术所需的成像数据在内的多样数据。
下面说明与手术机器人系统100中包括的各个构成相关的具体实施例。
<定位手术部1>
图3显示了可作为图2的定位手术部1使用的本发明一个实施例的定位手术用手术机器人1。本实施例的定位手术用手术机器人1可以包括移动部10和旋转部40及手术部位支撑部70,构成得能够拆装于手术台。在旋转部40的一端可以配备有手术工具50,定位手术用手术机器人1可以控制移动部10及旋转部40,调整手术工具50的位置及姿势。本实施例的定位手术用手术机器人1可以根据手术目标的位置而使移动部10移动,根据手术工具进入位置或姿势而使旋转部40旋转。移动部10和旋转部40可以分别独立地控制。
下面参照图4及图5,详细说明旋转部40能旋转地连接的移动部10的详细构成和动作。根据一个实施例,移动部10可以进行动作,使旋转部40及固定于旋转部40一端的手术工具50沿三个轴中的至少一个轴方向往复移动,因此,移动部10可以具有三自由度。移动部10可以包括沿着第一至第三线性轴方向13、15、17进行移动的第一至第三方向驱动部12、14、16。
在本实施例中,作为示例,第一至第三线性轴方向13、15、17相互直交,各个驱动部12、14、16可以沿着相互直交轴而往复移动。根据又一实施例,第一至第三线性轴方向13、15、17也可以以不直交的任意方式排列。第一至第三方向驱动部12、14、16例如可以利用包括线性马达、滚珠螺杆等在内的多样的机械性或电气性驱动手段中的一种而体现。在本实施例中,移动部10可以通过固定部11,与手术部位支撑部70的连接部72能拆装地连接,在第三驱动部16,可以能旋转地连接有旋转部40。
参照图5,说明旋转部40的详细构成和动作。旋转部40可以包括连接于第三方向驱动部16的第一旋转驱动部42及与第一旋转驱动部42连接的第二旋转驱动部44。第一及第二旋转驱动部42、44可以分别以第一及第二旋转轴43、45为中心旋转。例如,第一及第二旋转驱动部42、44分别可以利用包括伺服马达、液压马达等在内的多样的机械性或电气性驱动手段中的一种而体现。
如图所示,第一及第二旋转驱动部42、44可以设计成圆弧或与之类似的形状。通过采用这种形状,可以在旋转部40加装能够覆盖旋转部40全体的一体型布单(drape),可以卫生地加装及更换布单。第一及第二旋转驱动部42、44的形状不限定于图5所示内容,可以根据使用本发明的手术机器人系统的手术部位或手术方式,变更为多样的形状。
本实施例的第二旋转驱动部44可以包括与第二旋转驱动部44连接的手术工具50,及可以能拆装地保持手术工具50的夹持器46。夹持器46构成得使多样类型的手术工具可以简易地拆装。通过安装具有这种构成的夹持器46,医生可以缩短手术工具的更换时间,从而迅速执行手术。
另一方面,在第二旋转驱动部44还可以配备有感知手术工具50拆装与否的手术工具感知部51。当借助于手术工具感知部51而感知手术工具50的加装时,控制部140可以进行控制,使移动部10的各驱动部12、14、16固定而不再移动。根据这种控制部140的移动部10动作控制,能够防止手术中因手术机器人的误操作或物理性冲击导致移动部移动而发生的致命性医疗事故,能够安全地手术。
在本实施例中,第一旋转轴43和第二旋转轴45设置得相互直交,手术工具50附着于第二旋转驱动部44,从而能够保持手术工具50的前端朝向第一旋转轴43与第二旋转轴45交叉地点的姿势。因此,即使第一旋转驱动部42和第二旋转驱动部44以第一旋转轴43和第二旋转轴45为中心分别旋转,第一旋转轴43与第二旋转轴45交叉的地点也能够既定地保持,保持手术工具50的前端朝向第一旋转轴43与第二旋转轴45交叉地点的姿势。在旋转部40借助于移动部10进行移动而使得第一旋转轴43与第二旋转轴45交叉的地点与手术目标的位置一致期间,手术工具50的前端保持朝向手术目标位置的姿势,因此,在手术目标的位置保持既定的状态下,手术工具50的进入姿势可以适宜地进行选择。因此,即使旋转部40使手术工具50旋转,也能够在既定地保持手术目标的位置的同时,控制定位手术用手术机器人1的动作。其中,所谓“手术目标的位置”,可以意味着手术目标的某一地点或包括该地点的手术目标所占据的三维空间的位置。另外,所谓手术目标的“地点”,可以意味着在充分小到视觉上可被识别为一点的程度的二维或三维区域,并非限定于数学或物理意义的点。
具有以上说明的构成的移动部10根据手术目标的位置,使旋转部40移动,旋转部40根据手术工具的进入姿势而使手术工具50旋转,从而可以根据手术目标的位置和手术工具姿势,分别独立地控制移动部10和旋转部40。以往,为了控制手术工具,使用相当复杂的手术机器人动作控制方式,无法独立地进行基于手术目标位置的控制和基于手术工具进入姿势的控制。但是,根据本实施例,可以根据手术目标的位置和手术工具的进入姿势分别独立地控制移动部10和旋转部40,因而可以提高手术机器人和手术工具的控制的精密度和效率性。
在本实施例中,在旋转部40的第一旋转驱动部42和第三方向驱动部16的连接部分,可以还包括以第一旋转轴43为中心形成的中空48。在中空48的下部,可以安装有用于通过中空48而拍摄手术部位或其它患部的医疗图像的拍摄装置。根据这种构成,在对手术工具位置的校准或手术中为了观察患者状态而拍摄手术部位等的情况下,防止移动部10或旋转部40遮挡拍摄对象部分。另外,如上所述,在第一旋转驱动部42及第三方向驱动部16的连接部分,沿第一旋转轴43方向形成中空48,从而定位手术用手术机器人1的运转与包括C臂在内的多样医疗影像装置的使用可以互不干扰。例如,中空48可以使用在第一旋转驱动部42和第三方向驱动部16的连接部分沿第一旋转轴43方向形成的中空型旋转接口而体现。
参照图6,详细说明手术部位支撑部70的详细构成和动作。可以具备手术部位支撑部70,以便能够适宜调节相对于患者或手术部位的移动部10及旋转部40的位置。通过配备手术部位支撑部70,在手术时,患者可以采取更舒适的姿势。在本实施例中,手术部位支撑部70包括姿势调节部74、75、连接部72及手术台固定部78。
连接部72可以包括能够与移动部10连接的连接构件73。连接构件73可以利用螺栓及螺母或包括其的多样的机械性连接手段中的一种而体现,以便能够可拆装地连接移动部10的固定部11和连接部72。连接构件73可以利用多个螺栓及螺母而体现,通过这种构成,可以实现移动部10与手术部位支撑部70之间的高可靠性连接及固定。
姿势调节部74、75可以包括调节手术部位的角度的角度调节部75及调节手术部位的高度的高度调节部74。角度调节部75可以利用能够以一个轴为中心调节连接部72与高度调节部74之间的角度的手动或自动机械装置来体现。手动机械装置可以包括铰链或连杆结构等在内的多样的手动式结构,自动机械装置可以包括伺服马达或液压缸等驱动器。高度调节部74相对于手术台固定部78,能向高度方向移动地连接,从而能够调节连接于高度调节部74的其它构成要素的全体高度。高度调节部74可以利用包括滚珠螺杆或线性马达等在内的手动或自动机械装置来体现。
手术台固定部78可以构成得把手术部位支撑部70整体固定于手术台110。由此,包括移动部10和旋转部40的定位手术用手术机器人1可以整体固定于手术台110。手术台固定部78可以包括用于手术台110与手术台固定部78的坚固固定的夹紧部79。夹紧部79把手术台固定部78夹紧于手术台110的一部分(例如,在侧面配备的轨道),从而可以把手术部位支撑部70整体固定于手术台110。在本实施例中,作为示例,手术台固定部78采用了夹紧部79,但手术台固定部78可以利用螺丝、形态结合等多样的固定器具而固定于手术台110。
参照图7及8,详细说明手术部位固定部90的详细结构及动作。一般而言,在定位手术装置中,需要把患者的手术部位(例如,患者的头)相对于手术工具无晃动地固定。为此,在本实施例中,手术部位固定部90可以包括手术部位固定架92、93和手术部位固定销94。手术部位固定架92、93由用于固定手术部位的横向手术部位固定架92和纵向手术部位固定架93构成,在纵向手术部位固定架93的一端,附着有能够精密地固定患者的手术部位的手术部位固定销94。在本实施例中,作为示例,手术部位固定部90包括一个横向手术部位固定架92和四个纵向手术部位固定架93,但横向手术部位固定架92和纵向手术部位固定架93的个数或它们之间的连接构成可以根据需要而适宜地变更。
本实施例的手术部位固定架92、93为了提高与拍摄部120在使用上互不干扰可能性,可以变更为适宜的形态。例如,当对患者头部进行手术时,拍摄患者的图像,在该图像中提取患者的眼睛、鼻子、眉心、耳朵等特征区域,从而能够预测及判断患者的手术部位(即,头)的精密位置。此时,手术部位固定架92、93可以构成得不妨碍患者的特征区域的拍摄。在本实施例中,例如,横向手术部位固定架92上方的中央部分可以具有凹陷的形状,以便不与患者的鼻子部位干扰,另一方面,纵向手术部位固定架93可以与横向手术部位固定架92最外端连接,以便不遮挡患者的耳朵部位。因此,本实施例的横向手术部位固定架92及纵向手术部位固定架93能够防止遮挡患者的特征区域,保障在手术中拍摄部120对患者特征区域的拍摄。
手术部位固定架92、93及手术部位固定销94例如可以以诸如金属的具有耐久性和坚固特性的材质制作。不过,当使用这种金属性材质时,一旦与诸如电子控制装置或测量装备的电气装置接触,会使患者触电。因此,为了防止这种情况,绝缘手段可以连接于手术部位固定架92、93,以便电气装置与患者不电气接触。具体而言,在手术部位固定架92、93与连接部72之间包括绝缘手段95,从而手术部位固定架92、93与连接部72可以以不电气连接的状态结合。
本实施例中的手术部位固定部90可以能拆装地连接于连接部72,因而可以选择与手术目的相符的形状及大小的手术部位固定部90并简单地更换。另外,手术部位固定部90可以直接固定于手术部位支撑部70,因而即使在移动部10的移动及旋转部40的旋转中,手术部位固定部90也可以稳定地固定手术部位。
本实施例的定位手术用手术机器人1可以通过控制部140自动地控制。下面对定位手术用手术机器人1的控制方法进行详细说明。
控制部140可以决定基于手术计划的手术部位的位置及手术工具进入位置,根据决定的位置输出控制信号,该信号使得移动部10及旋转部40使手术工具移动。基于控制部140输出的控制信号,移动部10根据手术目标的位置信息,沿三个轴中的至少一个轴方向移动,以便两个旋转轴交叉的地点与手术目标的位置一致。另外,基于控制部140输出的控制信号,旋转部40可以根据手术工具的进入姿势信息,使手术工具50以两个旋转轴中的至少一个旋转轴为中心旋转。更具体而言,基于控制部140输出的控制信号,移动部10可以沿着第一线性轴方向,使第一方向驱动部移动,或沿着第二线性轴方向,使所述第二方向驱动部移动,或沿着第三线性轴方向,使所述第三方向驱动部移动。另外,旋转部40可以基于控制部140的控制信号,使第一旋转驱动部以第一旋转轴为中心旋转,或使第二旋转驱动部以第二旋转轴为中心旋转。
如上所述,根据手术目标的位置和手术工具进入姿势,移动部10和旋转部40分别独立地控制,因而在手术机器人1的动作控制方面,能够减小误差,即使发生误差,也可以减少修正该误差所需的追加动作控制。
另外,控制部140可以进行控制,使角度调节部75及高度调节部74调节手术部位的角度及高度中至少一个。
本发明的定位手术用手术机器人1通过一个示例性的实施例进行了说明,但包括定位手术可以应用的多样的手术部位(人体的头、脊椎、关节等)在内均可应用。
<跟踪部130>
跟踪部130作为能够跟踪物体的移动的装置,具体而言,是能够测量物体的位置和/或姿势的装置。跟踪方法不进行特别限制,一般基于光学技术的光学跟踪(opticaltracking)方法或基于电磁波技术的电磁波跟踪(electromagnetic tracking)方法均可使用。另外,也可以复合使用多样的跟踪方法。
跟踪部130测量的位置,例如可以用诸如直角坐标系X、Y、Z轴上坐标的空间坐标定义。跟踪部130测量的姿势可以用诸如翻滚角(roll)、俯仰角(pitch)、偏航角(yaw)的旋转信息定义。为了物体的准确跟踪,可以测量如此定义的物体的位置及姿势的六自由度(6Degree of Freedom)。
根据一个实施例,跟踪部130通过测量附着于物体的标记的位置和/或姿势,从而可以跟踪物体。例如,把标记附着于手术工具后,跟踪部130通过测量附着于手术工具的标记的位置和/或姿势,从而可以跟踪手术工具。
根据一个实施例,跟踪部130可以把回射器(retroreflector)用作标记,测量标记的位置。根据又一实施例,为了同时测量跟踪对象的位置及姿势,附着有三个以上的多个标记的结构物可以附着于跟踪对象。此时,作为标记,可以使用回射器,但只要是跟踪部130可以识别位置的标记,任何形态的标记均可使用。根据一个实施例,可以比较通过跟踪部130测量的三个以上的标记间的几何学位置关系与预先存储的三个以上的标记间的几何学位置关系,同时测量跟踪对象的位置及姿势。
另一方面,为了简化标记,可以只使用一个标记,测量附着了标记的物体的位置及姿势。图9是根据本发明的一个实施例,显示在使用一个标记的光学跟踪方法中可以应用的标记910及跟踪部130的框图。标记910可以包括体现图案的至少一个图案部911及能够扩大图案部911的图案并传送的第一透镜912。跟踪部130可以包括能够把从标记910传送的图案部911图案成像为图像的第二透镜131及成像元件132。根据一个实施例,为了加大图案部911的图案的识别范围或提高图案的识别率,跟踪部130可以使用两个以上,在一个跟踪部130内,成像元件132可以包括两个以上。
在图案部911形成的图案可以提供测量标记910位置及姿势所需的信息。根据一个实施例,在图案部911形成的图案可以由多个图案按既定形态和间隔排列形成,利用对这种图案进行成像的图像,可以决定标记910的位置及姿势。
根据一个实施例,成像元件132对在图案部911体现的图案的全部或一部分进行成像后,控制部140可以在成像的图像中提取显示图案的区域的大小变化,并基于此决定标记910的位置。具体而言,如果标记910的位置变化,则成像的图案的大小不同,这种图案大小变化可以与透镜131的直径及焦距进行比较并换算成位置。
根据又一实施例,在两个成像元件分别成像的图像中,显示出图案全部或一部分的区域的位置不同,控制部140可以利用基于此的三角法(triangulation),计算标记910的位置。根据一个实施例,控制部140可以基于图案内各图案区域的位置变化,决定标记910的姿势。根据一个实施例,控制部140的能够控制跟踪部130的功能可以与跟踪部130一体形成。
标记910可以以主动标记(active marker)或被动标记(passive marker)体现。在标记910为主动标记的情况下,标记910可以在内部包括光源。因此,标记910内部的光源可以向图案部911照射光线,照射的光线可以透过在图案部911形成的图案或被图案反射。跟踪部130可以接收透过图案或被图案反射的光线,对图案部911的图案的图像进行成像。控制部140可以基于如此成像的图像,跟踪标记910的位置及姿势。
在标记910为被动标记的情况下,在标记910的外部可以配置有朝向标记910照射光线的光源。因此,标记910的外部光源向标记910照射光线,照射的光线可以透过在图案部911形成的图案或被图案反射。跟踪部130可以接收透过图案或被图案反射的光线,对图案部911的图案的图像进行成像。控制部140可以基于如此成像的图像,跟踪标记910的位置及姿势。如果手术场所充分明亮,标记910的图案可以被跟踪部130明确识别,那么,无需追加的光源,也可以跟踪标记910。
根据一个实施例,标记910可以体现得使第一透镜912的焦点聚焦于图案部911的图案面。为此,图案部911的图案面的形状可以与第一透镜912的焦点聚焦面的形状一致地体现,或者可以设计第一透镜912,使第一透镜912的焦点聚焦于图案部911的图案面。
如果标记910体现得使第一透镜912的焦点聚焦于图案部911的图案面,另外,跟踪部130的成像元件132位于第二透镜131的焦距,那么,标记910与跟踪部130的光学系可以形成无限远光学系。如果标记910与跟踪部130形成无限远光学系,则跟踪部130可以对通过无限远光学系扩大的图案图像进行成像。因此,即使标记910远离跟踪部130,也能够提高跟踪部130中的图案的识别率。
跟踪部130可以利用成像元件132,对通过第二透镜131传递的图案进行成像。成像元件132作为把通过光线传递的图像信息变换成电气信号的装置,代表性地可以利用CMOS图像传感器或CCD等而体现。根据一个实施例,成像元件132可以在与第二透镜131的焦距相应的位置对图像进行成像。
<拍摄部120>
拍摄部120是可以生成代表手术部位外部图像的成像数据的装置。根据一个实施例,拍摄部120可以生成获得患者160的表面图像或者代表手术部位或手术工具进入位置(或其周边)图像的成像数据。拍摄部120虽然可以是能够生成代表诸如普通摄像头图像的二维图像的成像数据的装置,但也可以是能够生成代表为了进行诸如定位手术的精密手术所需三维图像的成像数据的装置。
根据一个实施例,拍摄部120可以基于利用图案光等的相位迁移方式,生成代表三维图像的成像数据。例如,对向患者照射既定形态的图案光并拍摄的图像进行处理,可以生成代表三维图像的成像数据。图案光可以是诸如格子图案光的照度具有正弦波形态的图案光,但不限定于此。就照射的图案光而言,在患者160的表面上的光线强度会因患者160表面的折弯而异,由此生成相位数据,计算构成表面的各点的高度,从而可以生成代表三维图像的成像数据。
根据一个实施例,拍摄部120可以在拍摄部120内包括的图像处理部生成代表三维图像的成像数据。根据又一实施例,控制部140也可在接收拍摄部120获得的图像数据后,处理图像数据,生成代表三维图像的成像数据。
根据一个实施例,由拍摄部120生成的成像数据可以通过用户界面150在视觉上显示。根据又一实施例,利用由拍摄部120生成的成像数据所代表的拍摄部图像与其它图像间的图像整合,两图像可以重叠,该结果可以通过用户界面150而在视觉上显示。例如,如图10所示,利用拍摄部120获得的关于手术工具进入位置1030周边1050的拍摄部图像与手术前预先获得的包含手术目标1010的手术部位图像间的图像整合,拍摄部图像可以在手术部位图像上重叠。
根据一个实施例,图像整合可以利用拍摄部图像和与之整合的其它图像中共同包含的手术部位的至少一部分而执行。根据又一实施例,包括相同基准标记(fiducialmarker)地获得拍摄部图像及将与之整合的其它图像后,可以利用两图像包含的基准标记执行图像整合。
<手术机器人系统100的控制方法>
一般而言,定位手术是对诸如脑的医生难以直接目视确认的部位的手术。因此,医生可以分析诸如CT或MRI图像的包含位于患者160体内的手术目标的手术部位三维图像或这种三维图像的二维剖面图像,决定手术目标,可以决定手术工具能够安全进入手术目标的位置。例如,通过用户界面150显示CT图像后,医生研究CT图像,从而可以决定手术目标的位置和/或手术工具的进入位置,可以通过用户界面150输入决定的位置。本发明的定位手术部1可以基于医生输入的手术目标的位置和/或手术工具的进入位置进行控制。
图11显示了在手术部位的三维图像中,医生输入手术目标的位置1110及手术工具的进入位置1130的结果。根据一个实施例,诸如医生的用户可以在通过用户界面150显示的图像中,利用触摸屏等,输入手术目标的位置1110或手术工具的进入位置1130。根据又一实施例,用户可以打出坐标值,输入手术目标的位置1110或手术工具的进入位置1130。
如上所述,手术目标的位置1110或手术工具的进入位置1130通过用户界面输入后,控制部140可以基于输入的手术目标的位置1110,控制定位手术部1的动作。
根据一个实施例,控制部140可以基于输入的手术目标的位置1110,使定位手术部1的移动部10沿三个轴中的至少一个轴方向移动。在移动部10,可以附着有使手术工具旋转的旋转部40。因此,随着移动部10的移动,旋转部40可以移动。根据一个实施例,控制部140可以通过移动部10而使旋转部移动,以便与手术目标的位置对应的坐标位于旋转部40的两个旋转轴的交叉点。
根据一个实施例,控制部140可以基于借助于用户输入的手术目标的位置1110及手术工具的进入位置1130,决定手术工具的进入姿势。控制部140可以使附着有手术工具的旋转部40以两个旋转轴中至少一个旋转轴为中心旋转,以便手术工具具有决定的手术工具进入姿势。
定位手术部1可以以定位手术部1的坐标系为基准进行驱动。可是,通过用户界面150输入的手术目标的位置1110及手术工具的进入位置1130不是定位手术部1的坐标系,而是用户界面150中显示的图像的坐标系上的位置。因此,为了以定位手术部1的坐标系为基准控制定位手术部1,以用户界面150中显示的图像的坐标系为基准输入的手术目标的位置1110和手术工具的进入位置1130应转换成定位手术部1的坐标系基准的位置。
根据一个实施例,控制部140可以接收手术前预先拍摄的代表诸如CT或MRI图像的三维图像的成像数据(“第一成像数据”)。第一成像数据可以是关于包含手术目标的手术部位的成像数据。第一成像数据可以在手术前预先存储于存储装置180。控制部140可以接收通过拍摄部120生成的代表手术部位外部三维图像的成像数据(“第二成像数据”)。控制部140可以(i)生成用于把坐标从第一成像数据的第一坐标系变换成第二成像数据的第二坐标系的第一坐标变换关系,可以(ii)利用跟踪部130,跟踪拍摄部120的位置及姿势。
控制部140可以利用第一坐标变换关系和拍摄部120的位置及姿势,生成用于把坐标从第一成像数据的第一坐标系变换成定位手术部1的第四坐标系的坐标变换关系。
下面参照图12,进行更具体说明。首先,用户可以通过用户界面150,输入手术目标的位置1110和手术工具的进入位置1130。控制部140可以把用户输入的手术目标的位置1110及手术工具的进入位置1130变换成第一成像数据的第一坐标系1210上的坐标。
根据一个实施例,为了把第一成像数据的第一坐标系1210上的位置变换成定位手术部1的第四坐标系1230上的位置,第一成像数据的第一坐标系1210上的坐标可以按患者标记174的第三坐标系1220上的坐标、定位手术部1的第四坐标系1230上的坐标顺序变换。为了这种坐标变换,可以获得(i)用于把坐标从第一成像数据的第一坐标系1210变换成患者标记174的第三坐标系1220的第二坐标变换关系和(ii)用于把坐标从患者标记174的第三坐标系1220变换成定位手术部1的第四坐标系1230的第三坐标变换关系。其中,患者标记174可以是附着于患者160的手术部位的标记,或附着于接近手术部位配置并象定位手术部1的手术部位固定部90一样与患者160一体地共同移动的对象的标记。患者标记174可以在这种对象上附着至少一个。
把坐标从第一成像数据的第一坐标系1210变换成患者标记174的第三坐标系1220的第二坐标变换关系,可以利用(i)用于把坐标从第一成像数据的第一坐标系1210变换成第二成像数据的第二坐标系1240的第一坐标变换关系和(ii)利用跟踪部130获得的拍摄部120的位置及姿势而获得。具体而言,如图13所示,第一成像数据的第一坐标系1210上的坐标按第二成像数据的第二坐标系1240上的坐标、拍摄部120的第五坐标系1250上的坐标、患者标记174的第三坐标系1220上的坐标顺序变换后,坐标可以从第一成像数据的第一坐标系1210变换成患者标记174的第三坐标系1220。
第二成像数据可以在定位手术进行之前或定位手术进行过程中,利用拍摄部120而生成。根据一个实施例,利用第一成像数据代表的三维图像和第二成像数据代表的三维图像间的图像整合,可以生成用于把坐标从第一成像数据的第一坐标系1210变换成第二成像数据的第二坐标系1240的第一坐标变换关系。第一成像数据代表的三维图像和第二成像数据代表的三维图像间的图像整合可以利用两图像中共同包含的手术部位的至少一部分而执行。根据又一实施例,获得包括相同基准标记相关数据的第一成像数据和第二成像数据后,可以利用该基准标记执行图像整合。此外,已知的多样的图像整合方法可以用于生成第一坐标变换关系。
根据一个实施例,用于把坐标从第二成像数据的第二坐标系1240变换成拍摄部120的第五坐标系1250的第四坐标变换关系,可以利用(i)用于把坐标从拍摄部120的光学系的基准坐标系变换成拍摄部120的第五坐标系1250的坐标变换关系和(ii)用于把坐标从第二成像数据的第二坐标系1240变换成拍摄部120的光学系的基准坐标系的坐标变换关系而生成。
用于把坐标从拍摄部120的第五坐标系1250变换成患者标记174的第三坐标系1220的第五坐标变换关系,可以利用(i)用于把坐标从拍摄部120的第五坐标系1250变换成跟踪部130的坐标系的坐标变换关系和(ii)用于把坐标从患者标记174的第三坐标系1220变换成跟踪部130的坐标系的坐标变换关系而生成。
此时,用于把坐标从拍摄部120的第五坐标系1250变换成跟踪部130的坐标系的坐标变换关系及用于把坐标从患者标记174的第三坐标系1220变换成跟踪部130的坐标系的坐标变换关系,可以通过利用跟踪部130测量的患者标记174及拍摄部标记170的位置及姿势而生成。
用于把坐标从患者标记174的第三坐标系1220变换成定位手术部1的第四坐标系1230的第三坐标变换关系,可以利用(i)位于定位手术部1原点的标记的位置及姿势和(ii)患者标记174的位置及姿势而生成。此时,各标记的位置及姿势可以利用跟踪部130进行测量。其中,定位手术部1的原点可以定义为定位手术部1的旋转轴的交点。根据又一实施例,患者标记174附着的位置和定位手术部1的原点位置既定,第三坐标变换关系可以通过利用了这点的几何学演算(机构学演算)而生成。
如上所述,如果把第一成像数据的第一坐标系1210上的坐标按患者标记174的第三坐标系1220上的坐标、定位手术部1的第四坐标系1230上的坐标顺序变换,则用第一成像数据的第一坐标系1210上的坐标表现的手术目标的位置1110及手术工具的进入位置1130可以变换成定位手术部1的第四坐标系1230上的坐标。另一方面,如果患者160移动,则如上所述的坐标变换关系变化,因此,患者160应固定,以便不移动,如果患者160移动,则控制部140应能够重新获得上述坐标变换关系。
根据一个实施例,本发明的定位手术部1可以基于构成第一成像数据所代表三维图像的二维剖面图像中显示的手术目标的位置和/或手术工具的进入位置进行控制。图14至16分别是手术前拍摄的手术部位的轴平面(axial plane)、矢状面(sagittal plane)及冠状面(coronal plane)上的二维剖面图像。控制部140可以从第一成像数据提取这种二维剖面图像,将其通过用户界面150向用户可视化。
用户可以在通过用户界面150而可视化的二维剖面图像中标识手术目标的位置1410、1412及手术工具的进入位置1430、1432。控制部140把二维剖面图像的第六坐标系1260上标识的手术目标的位置1410、1412和/或手术工具的进入位置1430、1432变换成定位手术部1的第四坐标系1230上的位置后,可以根据变换的手术目标的位置而使移动部10移动。另外,控制部140可以使附着有手术工具的旋转部40旋转,以便手术工具具有基于变换的手术目标的位置及手术工具的进入位置而决定的手术工具进入姿势。
如图12所示,为了把二维剖面图像的第六坐标系1260上标识的坐标变换成定位手术部1的第四坐标系1230上的坐标,二维剖面图像的第六坐标系1260上的坐标可以分别按(i)第一成像数据上的第一坐标系1210上的坐标、(ii)患者标记174的第三坐标系1220上的坐标、iii定位手术部1的第四坐标系1230上的坐标顺序变换。
可是,用于把坐标从第一坐标系1210变换成第三坐标系的第二坐标变换关系及用于把坐标从第三坐标系变换成第四坐标系的第三坐标变换关系,可以通过前面说明的实施例预先生成。因此,如果用户希望通过用户界面150显示的二维剖面图像来控制定位手术部1,则单纯只生成用于把坐标从二维剖面图像的第六坐标系1260变换成第一成像数据的第一坐标系1210的坐标变换关系,便可以控制定位手术部1。
根据一个实施例,二维剖面图像可以从第一成像数据生成,因此,基于该生成关系,可以生成能够把坐标从二维剖面图像的第六坐标系1260变换成第一成像数据的第一坐标系1210的坐标变换关系。
另一方面,控制部140在使附着于定位手术部1的手术工具移动和/或旋转之前,需要掌握手术工具的基础位置及姿势。根据一个实施例,为了掌握手术工具的位置及姿势,可以在定位手术部1的旋转部40中靠近手术工具处附着定位手术部标记172,借助于跟踪部130,测量定位手术部标记172的位置及姿势。不过,定位手术部标记172的位置及姿势是在跟踪部130的坐标系上的位置及姿势。因此,控制部140把跟踪部130坐标系上的定位手术部标记172的位置及姿势变换为定位手术部1的第四坐标系1230上的位置及姿势后,基于变换的位置及姿势,可以掌握手术工具的初始位置及姿势。
如以上所作的说明,本发明的定位手术部1的控制可以从用于把坐标从手术前拍摄的CT或MRI图像坐标系变换成利用拍摄部120所获得的拍摄部图像坐标系的坐标变换关系(第一坐标变换关系)的生成开始。此时,该坐标变换关系可以通过两图像间的图像整合而简单地生成。可是,如果在定位手术中,患者160不可避免地移动,或定位手术部1的诸如手术部位固定部90的构成移动,手术部位发生移动,那么,用于定位手术部1控制的条件均会变更。此时,控制部140应能够重新获得前面说明的坐标变换关系。就本发明而言,在定位手术中即使有这种移动,如果利用拍摄部120,只重新生成成像数据,那么,利用该成像数据代表的图像与CT或MRI图像间的图像整合,便可以简单地重新生成用于控制定位手术部1的坐标变换关系。因此,在定位手术中,即使有患者160等的移动,也能够在短时间内重新开始定位手术。
另外,以往,定位手术用手术机器人的位置不固定,即使在手术中途也会移动,因此,为了以手术机器人的现在位置为基准控制手术机器人的动作,应能够准确掌握手术机器人的位置。为此,以往在手术机器人的底座附着了追加性标记,可以利用其掌握手术机器人的位置。但是,本发明的定位手术部1固定于手术台110使用,因此,定位手术部1与手术部位的位置关系可以始终保持既定,定位手术部1的位置不变。因此,不需要掌握控制定向手术部1所需的位置,因此,根据本发明的手术机器人系统100,不需要使用以往的追加性标记,由此,还能够减小控制所需的演算量。
图17是显示根据本发明的一个实施例,在定位手术用手术机器人系统中,对使手术工具移动及旋转至少五自由度的定位手术部进行控制的方法的流程图。
首先,在步骤S1710中,控制部可以接收代表包括手术目标在内的手术部位的三维图像的第一成像数据。例如,如果参照图2,控制部140可以从存储装置180接收代表手术前拍摄的手术部位的三维图像的成像数据。第一成像数据通过用户界面150而可视化,从而可以用作能够判断手术目标的位置及手术工具的进入位置的资料。通过用户界面150,如果输入手术目标的位置及手术工具的进入位置,则控制部140可以基于输入的手术目标的位置及手术工具的进入位置,控制定位手术部1。
在步骤S1710中,控制部140接收第一成像数据后,在步骤S1720中,拍摄部可以生成代表手术部位外部的三维图像的第二成像数据。例如,拍摄部120可以生成代表手术工具将通过头盖骨进入的位置的三维图像的第二成像数据。根据一个实施例,第二成像数据可以根据利用图案光等的相位迁移方式生成。
通过步骤S1710及S1720准备第一及第二成像数据后,在步骤S1730中,跟踪部可以跟踪附着或接近配置于拍摄部及手术部位的至少一个标记的位置及姿势。例如,如果参照图2,跟踪部130跟踪附着于拍摄部120的标记170,从而能够跟踪拍摄部120的位置及姿势。另外,跟踪部130可以跟踪患者标记174的位置及姿势。另一方面,步骤S1710至S1730是控制部140用于获得定位手术部1控制所需数据的过程,因此,步骤的顺序可以变更,各步骤也可以并列地进行。
如上所述,准备了定位手术部1控制所需的数据后,在步骤S1740中,控制部可以生成用于把坐标从第一成像数据的第一坐标系变换成第二成像数据的第二坐标系的第一坐标变换关系。根据一个实施例,控制部140生成第一坐标变换关系的步骤可以包括以下步骤,即,通过第一成像数据代表的三维图像与第二成像数据代表的三维图像间的图像整合,控制部140生成第一坐标变换关系。根据一个实施例,控制部140可以利用第一成像数据代表的三维图像和第二成像数据代表的三维图像中共同包括的手术部位的至少一部分,执行图像整合。
通过步骤S1740生成第一坐标变换关系后,在步骤S1750中,控制部可以利用第一坐标变换关系和拍摄部及至少一个患者标记的位置及姿势,生成用于把坐标从第一坐标系变换成至少一个标记的第三坐标系的第二坐标变换关系,以及用于把坐标从第三坐标系变换成定位手术部的第四坐标系的第三坐标变换关系。例如,如果参照图12,控制部140可以生成用于把坐标从第一成像数据的第一坐标系1210变换成患者标记174的第三坐标系1220的第二坐标变换关系,以及用于把坐标从患者标记174的第三坐标系1220变换成定位手术部1的第四坐标系1230的第三坐标变换关系。
根据一个实施例,控制部140可以基于拍摄部120的位置及姿势,生成第二坐标变换关系。如果参照图18具体考查,在步骤S1751中,控制部可以基于拍摄部的位置及姿势,生成用于把坐标从第二坐标系变换成拍摄部的第五坐标系的第四坐标变换关系,以及用于把坐标从第五坐标系变换成第三坐标系的第五坐标变换关系。例如,如果参照图13,控制部140可以基于拍摄部120的位置及姿势,生成用于把坐标从第二成像数据的第二坐标系1240变换成拍摄部120的第五坐标系1250的第四坐标变换关系,以及用于把坐标从拍摄部120的第五坐标系1250变换成患者标记174的第三坐标系1220的第五坐标变换关系。
根据一个实施例,第四坐标变换关系可以利用(i)用于把坐标从拍摄部120的光学系基准坐标系变换成拍摄部120的第五坐标系1250的坐标变换关系、(ii)用于把坐标从第二成像数据的第二坐标系1240变换成拍摄部120光学系基准坐标系的坐标变换关系而生成。根据一个实施例,第五坐标变换关系可以利用(i)用于把坐标从拍摄部120的第五坐标系1250变换成跟踪部130的坐标系的坐标变换关系、(ii)用于把坐标从患者标记174的第三坐标系1220变换成跟踪部130的坐标系的坐标变换关系而生成。
第四坐标变换关系及第五坐标变换关系生成后,在步骤S1752中,控制部140可以基于第一坐标变换关系、第四坐标变换关系及第五坐标变换关系,生成第二坐标变换关系。根据一个实施例,这种坐标变换关系可以以坐标变换矩阵的形态表现。因此,第二坐标变换关系可以通过利用了代表生成的第一坐标变换关系的矩阵、代表第四坐标变换关系的矩阵及代表第五坐标变换关系的矩阵的演算而生成。
根据一个实施例,第三坐标变换关系可以利用可利用跟踪部130获得的(i)置于定位手术部1原点的标记的位置及姿势和(ii)至少一个标记(患者标记)的位置及姿势而生成。根据又一实施例,患者标记174附着的位置和定位手术部1的原点位置既定,第三坐标变换关系可以通过利用了这点的几何学演算(机构学演算)而生成。
如上所述,第二坐标变换关系及第三坐标变换关系生成后,在步骤S1760中,控制部可以利用第二坐标变换关系及第三坐标变换关系,控制定位手术部。下面参照图19具体进行具体说明。通过步骤S1710至S1750生成第二坐标变换关系及第三坐标变换关系后,控制部可以在步骤S1761中,通过用户界面使第一成像数据可视化,以便用户可以输入手术目标的位置及手术工具的进入位置。例如,如果参照图2,控制部140可以通过用户界面150,使代表包含手术目标的手术部位的三维图像的第一成像数据可视化。
第一成像数据通过步骤S1761而可视化后,可以通过用户界面150,输出手术目标的位置及手术工具的进入位置,并显示于可视化的图像上。控制部可以在步骤S1762中,把用户能够通过用户界面输入的手术目标的位置及手术工具的进入位置变换成第一坐标系上的坐标。例如,如果参照图2,控制部140可以把用户通过用户界面150输入的手术目标的位置及手术工具的进入位置变换成第一成像数据的第一坐标系1210上的坐标。
如上所述通过用户界面150输入的手术目标的位置及手术工具的进入位置变换成第一坐标系1210上的坐标后,在步骤S1763中,控制部可以利用第二坐标变换关系及第三坐标变换关系,把变换的第一坐标系上的坐标变换成定位手术部的第四坐标系上的坐标。例如,如果参照图12,控制部140可以利用第二坐标变换关系及第三坐标变换关系,把第一成像数据的第一坐标系1210上的手术目标的坐标及手术工具的进入位置的坐标变换成定位手术部1的第四坐标系1230上的坐标。
如上所述,第一成像数据的第一坐标系1210上的手术目标的坐标和手术工具的进入位置的坐标变换成定位手术部1的第四坐标系1230上的坐标后,在步骤S1764中,控制部可以基于变换的第四坐标系上的坐标,决定手术工具的进入姿势。例如,控制部140可以决定手术工具的进入姿势,以便手术工具可以从手术工具的进入位置移动到手术目标的位置。
然后,在步骤S1765中,控制部可以通过移动部使旋转部移动,以便在第四坐标系上,与手术目标的位置对应的坐标位于旋转部的两个旋转轴的交叉点。例如,如果参照图4及5,控制部140可以通过移动部10,使附着于移动部10的旋转部40移动,以便在定位手术部1的第四坐标系1230上,与手术目标的位置对应的坐标位于旋转部40的两个旋转轴43、45的交叉点。
另外,控制部可以在步骤S1766中,通过旋转部使手术工具旋转,以便手术工具具有决定的手术工具的进入姿势。例如,如果参照图5,控制部140可以通过旋转部40,使附着于旋转部40的手术工具50旋转,以便手术工具50具有决定的手术工具50的进入姿势。如上所述,在本发明中,控制部140可以分别独立地控制移动部10及旋转部40。
所述方法通过特定实施例进行了说明,但所述方法也可以在计算机可读的记录介质中,以计算机可读的代码体现。计算机可读的记录介质包括存储可借助于计算机系统而读取的数据的所有种类的记录装置。作为计算机可读的记录介质的示例,有ROM、RAM、CD-ROM、磁带、软盘、光数据存储装置等,另外,还包括以载波(例如通过互联网的传输)的形态体现者。另外,计算机可读的记录介质可以分布于以网络连接的计算机系统,以分布方式存储、运行计算机可读代码。而且,用于体现所述实施例的功能性(functional)程序、代码及代码片段可以由本发明所属技术领域的程序员容易地推论。
在本说明书中,本发明就一部分实施例进行了说明,但本发明所属技术领域的从业者应了解,在不超出本发明的精神及范围的范围内,可以实现多样的修订及变更。另外,这种变形及变更应视为属于本说明书附带的权利要求书。
Claims (15)
1.一种定位手术用手术机器人系统,其中,包括:
定位手术部,其使手术工具移动及旋转至少五自由度;
控制部,其接收代表包括手术目标在内的手术部位的三维图像的第一成像数据;
拍摄部,其生成代表所述手术部位外部的三维图像的第二成像数据;
第一标记,其附着于所述拍摄部;
第二标记,其附着于所述定位手术部;
第三标记,其附着于所述手术部位或接近所述手术部位配置;及
跟踪部,其跟踪所述第一标记、所述第二标记以及所述第三标记的位置及姿势,
所述定位手术部包括:
旋转部,所述旋转部能够使所述手术工具附着,并根据所述手术工具的进入姿势,以垂直于手术台的第一旋转轴及垂直于所述第一旋转轴的第二旋转轴为中心,旋转所述手术工具;及
移动部,所述移动部根据手术目标的位置,沿三个线性轴中至少一个线性轴方向移动所述旋转部,
所述移动部移动所述旋转部而使所述第一旋转轴及第二旋转轴交叉的地点与所述手术目标一致,
所述控制部基于所述第一成像数据及从所述拍摄部接收的所述第二成像数据,控制所述定位手术部。
2.根据权利要求1所述的定位手术用手术机器人系统,其中,
所述定位手术部还包括:
手术部位支撑部,所述手术部位支撑部与所述移动部连接,且可拆装于所述手术台。
3.根据权利要求1所述的定位手术用手术机器人系统,其中,
所述移动部包括:
第一方向驱动部,其沿着第一线性轴方向进行移动;
第二方向驱动部,其连接于所述第一方向驱动部,沿着第二线性轴方向进行移动;及
第三方向驱动部,其连接于所述第二方向驱动部,沿着第三线性轴方向进行移动,
所述旋转部包括:
第一旋转驱动部,其包括连接于所述第三方向驱动部的一端,以所述第一旋转轴为中心旋转;及
第二旋转驱动部,其以所述第二旋转轴为中心旋转,
所述第二旋转驱动部的一端连接于所述第一旋转驱动部的另一端,所述第二旋转驱动部的另一端能够附着所述手术工具。
4.根据权利要求3所述的定位手术用手术机器人系统,其中,
所述第一线性轴至第三线性轴方向相互直交,
所述第一旋转轴与所述第二旋转轴相互直交。
5.根据权利要求3所述的定位手术用手术机器人系统,其中,
在所述第二旋转驱动部的所述另一端上,附着有供所述手术工具拆装的夹持器。
6.根据权利要求5所述的定位手术用手术机器人系统,其中,
在所述第二旋转驱动部的所述另一端上,还附着有用于感知所述手术工具的加装的手术工具感知部。
7.根据权利要求3所述的定位手术用手术机器人系统,其中,
所述第三方向驱动部包括以所述第一旋转轴为中心形成的中空。
8.根据权利要求7所述的定位手术用手术机器人系统,其中,还包括:
拍摄装置,所述拍摄装置通过所述中空而拍摄医疗图像。
9.根据权利要求1所述的定位手术用手术机器人系统,其中,还包括:
拍摄装置,所述拍摄装置拍摄所述手术部位或其它患部的医疗图像。
10.根据权利要求8或9所述的定位手术用手术机器人系统,其中,
所述拍摄装置是C臂。
11.根据权利要求7所述的定位手术用手术机器人系统,其中,
所述中空在第一旋转驱动部和第三方向驱动部的连接部分沿所述第一旋转轴方向形成。
12.根据权利要求1所述的定位手术用手术机器人系统,其中,
所述控制部,
生成用于把坐标从所述第一成像数据的第一坐标系变换成所述第二成像数据的第二坐标系的第一坐标变换关系,
利用所述第一坐标变换关系和所述第一标记的位置及姿势,生成用于把坐标从所述第一坐标系变换为所述第三标记的第三坐标系的第二坐标变换关系,
利用所述第二标记的位置及姿势和所述第三标记的位置及姿势,生成用于把坐标从所述第三坐标系转换成所述定位手术部的第四坐标系的第三坐标变换关系,
利用所述第二坐标变换关系及所述第三坐标变换关系,控制所述定位手术部。
13.根据权利要求1所述的定位手术用手术机器人系统,其中,
所述控制部,
通过用户界面可视化所述第一成像数据,
通过所述用户界面接收所述手术目标的位置及所述手术工具的进入位置的输入。
14.根据权利要求13所述的定位手术用手术机器人系统,其中,
所述控制部,
将接收到的输入的所述手术目标的位置及所述手术工具的进入位置变换成所述定位手术部的坐标系上的坐标,
基于所述变换的坐标系上的坐标,决定所述手术工具的进入姿势,
通过所述移动部移动所述旋转部而使在所述变换的的坐标系上与所述手术目标的位置对应的坐标位于所述两个旋转轴的交叉点,
通过所述旋转部旋转所述手术工具而使所述手术工具具有所述决定的手术工具的进入姿势。
15.根据权利要求12所述的定位手术用手术机器人系统,其中,
所述控制部通过所述第一成像数据代表的三维图像和所述第二成像数据代表的三维图像间的图像整合,生成所述第一坐标变换关系。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2016-0103717 | 2016-08-16 | ||
KR1020160103717A KR101848027B1 (ko) | 2016-08-16 | 2016-08-16 | 정위수술용 수술로봇 시스템 및 정위수술용 로봇의 제어방법 |
CN201611195412.0A CN107753105B (zh) | 2016-08-16 | 2016-12-22 | 定位手术用手术机器人系统及其控制方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611195412.0A Division CN107753105B (zh) | 2016-08-16 | 2016-12-22 | 定位手术用手术机器人系统及其控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112971993A true CN112971993A (zh) | 2021-06-18 |
Family
ID=57590386
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611195412.0A Active CN107753105B (zh) | 2016-08-16 | 2016-12-22 | 定位手术用手术机器人系统及其控制方法 |
CN202110187988.7A Pending CN112971993A (zh) | 2016-08-16 | 2016-12-22 | 定位手术用手术机器人系统及其控制方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611195412.0A Active CN107753105B (zh) | 2016-08-16 | 2016-12-22 | 定位手术用手术机器人系统及其控制方法 |
Country Status (5)
Country | Link |
---|---|
US (2) | US10548681B2 (zh) |
EP (2) | EP3284433B1 (zh) |
JP (2) | JP6367905B2 (zh) |
KR (1) | KR101848027B1 (zh) |
CN (2) | CN107753105B (zh) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3509800A4 (en) | 2016-09-06 | 2019-09-18 | Advanced Intelligent Systems Inc. | MOBILE WORKSTATION FOR TRANSPORTING A VARIETY OF ARTICLES |
USD897537S1 (en) | 2017-04-18 | 2020-09-29 | Intuitive Surgical Operations, Inc. | Surgical apparatus |
USD837380S1 (en) * | 2017-04-18 | 2019-01-01 | Intuitive Surgical Operations, Inc. | Surgical apparatus |
US11121583B2 (en) * | 2018-01-23 | 2021-09-14 | Stryker Corporation | Operating room wireless power transfer |
WO2019157587A1 (en) | 2018-02-15 | 2019-08-22 | Advanced Intelligent Systems Inc. | Apparatus for supporting an article during transport |
CN108451653A (zh) * | 2018-03-28 | 2018-08-28 | 大连现代高技术集团有限公司 | 一种实时图像引导的体表标记方法及装置 |
CN108927807B (zh) * | 2018-08-14 | 2020-08-07 | 河南工程学院 | 一种基于点特征的机器人视觉控制方法 |
US10745219B2 (en) | 2018-09-28 | 2020-08-18 | Advanced Intelligent Systems Inc. | Manipulator apparatus, methods, and systems with at least one cable |
US10751888B2 (en) | 2018-10-04 | 2020-08-25 | Advanced Intelligent Systems Inc. | Manipulator apparatus for operating on articles |
US10645882B1 (en) | 2018-10-29 | 2020-05-12 | Advanced Intelligent Systems Inc. | Method and apparatus for performing pruning operations using an autonomous vehicle |
US10966374B2 (en) | 2018-10-29 | 2021-04-06 | Advanced Intelligent Systems Inc. | Method and apparatus for performing pruning operations using an autonomous vehicle |
US10676279B1 (en) | 2018-11-20 | 2020-06-09 | Advanced Intelligent Systems Inc. | Systems, methods, and storage units for article transport and storage |
US11744655B2 (en) | 2018-12-04 | 2023-09-05 | Globus Medical, Inc. | Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems |
US11602402B2 (en) | 2018-12-04 | 2023-03-14 | Globus Medical, Inc. | Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems |
CN109692050B (zh) | 2018-12-26 | 2020-05-22 | 雅客智慧(北京)科技有限公司 | 一种牙科种植导航手术的标定、追踪方法和装置 |
CN113271883B (zh) * | 2019-02-06 | 2024-01-02 | 柯惠Lp公司 | 用于机器人手术系统的手眼协调系统 |
US11382549B2 (en) | 2019-03-22 | 2022-07-12 | Globus Medical, Inc. | System for neuronavigation registration and robotic trajectory guidance, and related methods and devices |
JP7290986B2 (ja) * | 2019-04-26 | 2023-06-14 | ニデックインスツルメンツ株式会社 | ロボットシステム |
FR3095331A1 (fr) * | 2019-04-26 | 2020-10-30 | Ganymed Robotics | Procédé de chirurgie orthopédique assistée par ordinateur |
US11045179B2 (en) | 2019-05-20 | 2021-06-29 | Global Medical Inc | Robot-mounted retractor system |
CN110115636B (zh) * | 2019-06-28 | 2022-08-26 | 盐城诺诚祈瑞智能科技有限公司 | 一种增稳防抖式外科手术仪 |
WO2021012142A1 (zh) * | 2019-07-22 | 2021-01-28 | 京东方科技集团股份有限公司 | 手术机器人系统及其控制方法 |
EP4044951A4 (en) * | 2019-10-18 | 2023-11-15 | Alphatec Spine, Inc. | SURGICAL NAVIGATION SYSTEM |
CN110897732A (zh) * | 2019-12-27 | 2020-03-24 | 武汉联影智融医疗科技有限公司 | 一种标定装置和手术器械标定方法 |
CN111134889B (zh) * | 2020-01-10 | 2021-03-05 | 浙江大学 | 一种用于眼科高分辨率检测实验的小鼠固定装置 |
CN111407577A (zh) * | 2020-03-31 | 2020-07-14 | 何筱峰 | 可移动手术平台 |
CN113554710A (zh) * | 2020-04-24 | 2021-10-26 | 西门子(深圳)磁共振有限公司 | 医学影像系统中3d相机的标定方法、系统和存储介质 |
US20230225820A1 (en) * | 2020-05-08 | 2023-07-20 | David Colle | Devices for assisting neurosurgical interventions |
CN112568995A (zh) * | 2020-12-08 | 2021-03-30 | 南京凌华微电子科技有限公司 | 一种机器人辅助手术的骨锯标定方法 |
US11832897B2 (en) * | 2021-07-30 | 2023-12-05 | Remex Medical Corp. | Method and system for surgical navigation |
CN117204951B (zh) * | 2023-09-22 | 2024-04-30 | 上海睿触科技有限公司 | 一种基于x射线的手术定位导航设备及其定位实现方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5257998A (en) * | 1989-09-20 | 1993-11-02 | Mitaka Kohki Co., Ltd. | Medical three-dimensional locating apparatus |
US6351662B1 (en) * | 1998-08-12 | 2002-02-26 | Neutar L.L.C. | Movable arm locator for stereotactic surgery |
US20030088179A1 (en) * | 2000-04-28 | 2003-05-08 | Teresa Seeley | Fluoroscopic tracking and visualization system |
JP2006015045A (ja) * | 2004-07-05 | 2006-01-19 | Hitachi Ltd | 手術支援システム |
US20060036162A1 (en) * | 2004-02-02 | 2006-02-16 | Ramin Shahidi | Method and apparatus for guiding a medical instrument to a subsurface target site in a patient |
JP2012091280A (ja) * | 2010-10-27 | 2012-05-17 | Mitsubishi Electric Corp | 座標系校正方法及びロボットシステム |
JP2013049102A (ja) * | 2011-08-30 | 2013-03-14 | Denso Wave Inc | ロボットの制御装置及びロボットの姿勢決定方法 |
US20130345718A1 (en) * | 2007-02-16 | 2013-12-26 | Excelsius Surgical, L.L.C. | Surgical robot platform |
DE102014212913A1 (de) * | 2014-07-03 | 2016-01-07 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Vorrichtung zur intraoperativen Navigation |
JP2016007277A (ja) * | 2014-06-23 | 2016-01-18 | 公立大学法人公立はこだて未来大学 | 手術支援装置および手術支援システム |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03106359A (ja) * | 1989-09-20 | 1991-05-02 | Shiyouwakai Ota Kinen Biyouin | 医療用三次元定位装置 |
JP2653210B2 (ja) | 1990-03-16 | 1997-09-17 | 天美 加藤 | 定位的脳手術支援装置 |
US6006126A (en) * | 1991-01-28 | 1999-12-21 | Cosman; Eric R. | System and method for stereotactic registration of image scan data |
US5279309A (en) * | 1991-06-13 | 1994-01-18 | International Business Machines Corporation | Signaling device and method for monitoring positions in a surgical operation |
JP3190705B2 (ja) | 1991-08-29 | 2001-07-23 | 日本電信電話株式会社 | 半導体量子細線の形成方法 |
US5953448A (en) * | 1996-03-01 | 1999-09-14 | Textile/Clothing Technology Corporation | Contour measurement of an object having a discontinuous surface using block point identification techniques |
JPH11309A (ja) | 1997-06-12 | 1999-01-06 | Hitachi Ltd | 画像処理装置 |
US5967982A (en) * | 1997-12-09 | 1999-10-19 | The Cleveland Clinic Foundation | Non-invasive spine and bone registration for frameless stereotaxy |
US7313430B2 (en) | 2003-08-28 | 2007-12-25 | Medtronic Navigation, Inc. | Method and apparatus for performing stereotactic surgery |
JP3783011B2 (ja) | 2003-10-02 | 2006-06-07 | 株式会社日立製作所 | 操作入力装置および遠隔操作システムおよび遠隔操作方法 |
HU226450B1 (en) | 2004-09-20 | 2008-12-29 | Attila Dr Balogh | Telerecorder or medical tools movable stock receiver mainly for brain-surgery |
US9261172B2 (en) * | 2004-09-30 | 2016-02-16 | Intuitive Surgical Operations, Inc. | Multi-ply strap drive trains for surgical robotic arms |
US20070005002A1 (en) * | 2005-06-30 | 2007-01-04 | Intuitive Surgical Inc. | Robotic surgical instruments for irrigation, aspiration, and blowing |
FR2917598B1 (fr) | 2007-06-19 | 2010-04-02 | Medtech | Plateforme robotisee multi-applicative pour la neurochirurgie et procede de recalage |
EP2626030A3 (en) * | 2007-08-14 | 2017-03-08 | Koninklijke Philips N.V. | Robotic instrument systems and methods utilizing optical fiber sensors |
KR101061987B1 (ko) | 2008-12-12 | 2011-09-05 | 주식회사 이턴 | 침대 장착식 수술용 로봇 |
US8556815B2 (en) * | 2009-05-20 | 2013-10-15 | Laurent Pelissier | Freehand ultrasound imaging systems and methods for guiding fine elongate instruments |
EP2468207A1 (en) | 2010-12-21 | 2012-06-27 | Renishaw (Ireland) Limited | Method and apparatus for analysing images |
US9008757B2 (en) * | 2012-09-26 | 2015-04-14 | Stryker Corporation | Navigation system including optical and non-optical sensors |
US20140188440A1 (en) * | 2012-12-31 | 2014-07-03 | Intuitive Surgical Operations, Inc. | Systems And Methods For Interventional Procedure Planning |
EP2769689B8 (en) | 2013-02-25 | 2018-06-27 | Stryker European Holdings I, LLC | Computer-implemented technique for calculating a position of a surgical device |
CN105188592B (zh) | 2013-03-15 | 2018-07-27 | Sri国际公司 | 超灵巧型手术系统 |
US9901407B2 (en) * | 2013-08-23 | 2018-02-27 | Stryker European Holdings I, Llc | Computer-implemented technique for determining a coordinate transformation for surgical navigation |
EP3175790B1 (en) | 2013-11-04 | 2021-09-08 | Ecential Robotics | Method for reconstructing a 3d image from 2d x-ray images |
KR101638477B1 (ko) | 2014-09-19 | 2016-07-11 | 주식회사 고영테크놀러지 | 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 좌표계 정합 방법 |
ES2743951T3 (es) | 2015-03-02 | 2020-02-21 | Basf Se | Uso de partículas cristalinas de óxido de tantalio como centro de fijación en un superconductor |
-
2016
- 2016-08-16 KR KR1020160103717A patent/KR101848027B1/ko active IP Right Grant
- 2016-12-21 EP EP16205972.9A patent/EP3284433B1/en active Active
- 2016-12-21 US US15/386,694 patent/US10548681B2/en active Active
- 2016-12-21 EP EP20189769.1A patent/EP3766450A1/en active Pending
- 2016-12-22 CN CN201611195412.0A patent/CN107753105B/zh active Active
- 2016-12-22 JP JP2016248817A patent/JP6367905B2/ja active Active
- 2016-12-22 CN CN202110187988.7A patent/CN112971993A/zh active Pending
-
2018
- 2018-07-05 JP JP2018128193A patent/JP6718920B2/ja active Active
-
2019
- 2019-10-29 US US16/666,805 patent/US11179219B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5257998A (en) * | 1989-09-20 | 1993-11-02 | Mitaka Kohki Co., Ltd. | Medical three-dimensional locating apparatus |
US6351662B1 (en) * | 1998-08-12 | 2002-02-26 | Neutar L.L.C. | Movable arm locator for stereotactic surgery |
US20030088179A1 (en) * | 2000-04-28 | 2003-05-08 | Teresa Seeley | Fluoroscopic tracking and visualization system |
US20060036162A1 (en) * | 2004-02-02 | 2006-02-16 | Ramin Shahidi | Method and apparatus for guiding a medical instrument to a subsurface target site in a patient |
JP2006015045A (ja) * | 2004-07-05 | 2006-01-19 | Hitachi Ltd | 手術支援システム |
US20130345718A1 (en) * | 2007-02-16 | 2013-12-26 | Excelsius Surgical, L.L.C. | Surgical robot platform |
JP2012091280A (ja) * | 2010-10-27 | 2012-05-17 | Mitsubishi Electric Corp | 座標系校正方法及びロボットシステム |
JP2013049102A (ja) * | 2011-08-30 | 2013-03-14 | Denso Wave Inc | ロボットの制御装置及びロボットの姿勢決定方法 |
JP2016007277A (ja) * | 2014-06-23 | 2016-01-18 | 公立大学法人公立はこだて未来大学 | 手術支援装置および手術支援システム |
DE102014212913A1 (de) * | 2014-07-03 | 2016-01-07 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Vorrichtung zur intraoperativen Navigation |
Also Published As
Publication number | Publication date |
---|---|
EP3284433B1 (en) | 2020-09-16 |
JP6367905B2 (ja) | 2018-08-01 |
KR101848027B1 (ko) | 2018-04-12 |
US20200060783A1 (en) | 2020-02-27 |
JP2019034121A (ja) | 2019-03-07 |
US20180049839A1 (en) | 2018-02-22 |
EP3766450A1 (en) | 2021-01-20 |
JP2018027289A (ja) | 2018-02-22 |
US10548681B2 (en) | 2020-02-04 |
CN107753105B (zh) | 2021-03-09 |
US11179219B2 (en) | 2021-11-23 |
EP3284433A1 (en) | 2018-02-21 |
KR20180019402A (ko) | 2018-02-26 |
CN107753105A (zh) | 2018-03-06 |
JP6718920B2 (ja) | 2020-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107753106B (zh) | 定位手术用手术机器人及其控制方法 | |
CN107753105B (zh) | 定位手术用手术机器人系统及其控制方法 | |
EP3711700B1 (en) | System for neuronavigation registration and robotic trajectory guidance, and related methods and devices | |
US11737696B2 (en) | System for neuronavigation registration and robotic trajectory guidance, and related methods and devices | |
EP3881791A1 (en) | System for neuronavigation registration and robotic trajectory guidance, and related methods and devices | |
US20240108417A1 (en) | System for neuronavigation registration and robotic trajectory guidance, and related methods and devices | |
KR101895369B1 (ko) | 정위수술용 수술로봇 시스템 | |
JP7323489B2 (ja) | 誘導された生検針の軌道をロボットによりガイダンスするためのシステムと、関連する方法および装置 | |
KR20180100514A (ko) | 정위수술용 수술로봇 시스템 | |
KR20200039389A (ko) | 정위수술용 수술로봇 시스템 및 정위수술용 로봇의 제어방법 | |
US20200297451A1 (en) | System for robotic trajectory guidance for navigated biopsy needle, and related methods and devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |