WO2012115360A2 - 사용자 지정에 따라 결정되는 변위 정보에 기초하여 수술을 수행하는 수술용 로봇 시스템과 그 제어 방법 - Google Patents

사용자 지정에 따라 결정되는 변위 정보에 기초하여 수술을 수행하는 수술용 로봇 시스템과 그 제어 방법 Download PDF

Info

Publication number
WO2012115360A2
WO2012115360A2 PCT/KR2012/000767 KR2012000767W WO2012115360A2 WO 2012115360 A2 WO2012115360 A2 WO 2012115360A2 KR 2012000767 W KR2012000767 W KR 2012000767W WO 2012115360 A2 WO2012115360 A2 WO 2012115360A2
Authority
WO
WIPO (PCT)
Prior art keywords
user
surgical
robot
information
displacement
Prior art date
Application number
PCT/KR2012/000767
Other languages
English (en)
French (fr)
Other versions
WO2012115360A3 (ko
Inventor
윤상진
Original Assignee
Yoon Sang Jin
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yoon Sang Jin filed Critical Yoon Sang Jin
Priority to CN201280009758.0A priority Critical patent/CN103442661B/zh
Priority to EP12749243.7A priority patent/EP2679193A4/en
Priority to US14/000,827 priority patent/US9179980B2/en
Priority to JP2013555354A priority patent/JP6007194B2/ja
Priority to CA2827927A priority patent/CA2827927A1/en
Publication of WO2012115360A2 publication Critical patent/WO2012115360A2/ko
Publication of WO2012115360A3 publication Critical patent/WO2012115360A3/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00131Accessories for endoscopes
    • A61B1/00133Drive units for endoscopic tools inserted through or with the endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/00149Holding or positioning arrangements using articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/28Surgical forceps
    • A61B17/29Forceps for use in minimally invasive surgery
    • A61B2017/2901Details of shaft
    • A61B2017/2906Multiple forceps
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/256User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/062Measuring instruments not otherwise provided for penetration depth
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40418Presurgical planning, on screen indicate regions to be operated on
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45117Medical, radio surgery manipulator

Definitions

  • the present invention relates to a surgical robot system and a control method for performing the surgery based on the displacement information determined by the user designation.
  • the present inventors have come to devise a surgical robot system and a control method capable of performing surgery by intelligently operating a surgical tool based on a predetermined designation by a user such as a doctor.
  • the present invention aims to solve all of the above-mentioned problems of the prior art.
  • Another object of the present invention is to provide a surgical robot system and a method of controlling the same, which can perform surgery by intelligently operating a surgical tool based on the user's intentional designation.
  • Another object of the present invention is to provide an intelligent surgical robot system and a control method thereof that maximize user convenience and minimize maneuvering requirements for a user.
  • Another object of the present invention is to provide a surgical robot system and a control method thereof capable of accurately, quickly and easily performing surgery.
  • a surgical robot system includes a robot, a control system, and a user control device, the robot including an endoscope and at least one surgical tool, wherein the user control device includes a user in the body. And a display means capable of making a predetermined designation for the part, wherein the control system includes information about the displacement in the display means of lines or contours according to user designation in the display means, and the endoscope and the endoscope.
  • a displacement information processor for determining displacement information based on the reference coordinates of the robot based on the distance between the parts of the body being viewed, and the surgical tool of the robot moves based on the displacement information according to the reference coordinates of the robot; Control to be placed or control the surgical tool to perform a predetermined surgical operation.
  • the surgical robotic system comprising a surgical tool control is provided.
  • a surgical robot system comprising a robot and a user control device, the robot comprising an endoscope and at least one surgical tool, wherein the user control device designates a user with respect to an area within the body.
  • a display means capable of performing a method comprising: information about a displacement in the display means of a line or contour according to a user's designation in the display means, and the endoscope and the portion of the body within which the endoscope is viewing; Determining displacement information based on a reference coordinate of the robot, and controlling the surgical tool of the robot to be moved or arranged based on the displacement information based on the reference coordinate of the robot, or performing the operation
  • a method is provided that includes controlling a tool to perform a predetermined surgical operation. The.
  • a surgical robot system and a control method thereof that can perform surgery by intelligently operating a surgical tool.
  • an intelligent surgical robot system and a control method thereof are provided that maximize user convenience and minimize maneuvering requirements for a user.
  • a surgical robot system and its control method capable of performing the operation accurately, quickly and easily.
  • FIG. 1 is a view showing the overall configuration of a surgical robot system according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating a state before a user actually performs surgery using such a surgical robot system.
  • FIG. 3 is a view showing in detail the internal configuration of the control system according to an embodiment of the present invention.
  • FIG. 4 is a view showing a state in which the endoscope and the surgical tool of the robot is arranged mutually in accordance with an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating a state in which a user makes a predetermined designation on a part of a body on a display panel according to an exemplary embodiment of the present invention.
  • FIG. 1 is a view showing the overall configuration of a surgical robot system according to an embodiment of the present invention.
  • the surgical robot system may include a robot (or an operation robot) 100, a control system 200, and a user control device 300.
  • Figure 2 is a view showing a state before the user actually perform the surgery using such a surgical robot system.
  • the robot 100 includes a base, a plurality of robot arms, an endoscope, at least one surgical tool, and the like, and a mechanical device for performing surgery under the control of the control system 200.
  • the endoscope of the robot 100 may be provided with a distance measuring module (not shown), such as an ultrasonic range finder, at its end or elsewhere. Data or information determined by such a distance measurement module may be used in the control system 200 as described below.
  • the robot 100 may be freely configured by those skilled in the art within the scope of implementing the technical idea of the present invention.
  • Korean Patent Application No. 2008-108103 for a specific configuration example of such a robot 100 may be referred to the specification, such as Korean Patent Application No. 2008-108103.
  • the specification of the Korean patent application should be regarded as incorporated in the present specification as a whole.
  • the control system 200 when the user makes a predetermined designation in the display means of the user control device 300, the information about the user designation and the robot ( Determine the displacement information according to the reference coordinate of the robot 100 based on the endoscope of the endoscope 100 and the distance within the body that the endoscope is viewing, and operate the corresponding surgical tool of the robot 100 based on the displacement information. It may be a computer system for controlling. A detailed configuration example of the control system 200 will be described below with reference to FIG. 3 and the like.
  • the user control apparatus 300 includes a display means, a user designation means, a user command means, and the like. It may be a control device for enabling the command of the.
  • the display means of the user control device 300 displays a portion of the body that the endoscope of the robot 100 is viewing to the user according to a predetermined magnification, and displays the line or contour of the display means determined by the user's designation.
  • the function of transmitting the information about the displacement to the control system 200 may be performed.
  • the display means is combined with a display panel for display or a display space for two-dimensional display (not shown), and the display panel or display space of the line or contour according to the user's customization combined with the display panel or display space.
  • a processor (not shown) capable of determining information regarding the displacement of the.
  • the display panel may be a known two-dimensional display device such as an LCD panel, a PDP panel, an LED display device, etc., which can display a visual display two-dimensionally
  • the display space may be a known three-dimensional display such as a holographic display device. It may be a display device.
  • examples of such a processor include a known touch panel processor and a known three-dimensional position recognition processor.
  • a model for example, a model having an electronic sensitive means on the surface, etc.
  • a model for example, a model having an electronic sensitive means on the surface, etc.
  • FIG. 5 is a diagram illustrating a state in which a user makes a predetermined designation on a part of a body on a display panel according to an exemplary embodiment of the present invention.
  • the user designation means of the user control device 300 is a tool for performing a function to be recognized by the display means when the user picks up and makes a predetermined designation on the display means, for example, a mouse, an electronic pen. , Various known tools such as a light pen, a track ball, and the like.
  • the user command means of the user control device 300 allows the user to select the desired surgical tool, or to grab, tighten, and support a user-specified portion of the body after the surgical tool has been moved and disposed according to a user's specification. It may be a command means of various forms to enable the user to command to perform a surgical operation, such as, incision, suture.
  • the user command means may be implemented separately from the display means in the form of a control panel or a control button, but may be configured in combination with the display means. For example, when the display means is a touch panel, the user command means may be a window or graphic button of the touch panel.
  • FIG 3 is a diagram illustrating in detail the internal configuration of the control system 200 according to an embodiment of the present invention.
  • the control system 200 may include a displacement information processor 210, a surgical tool controller 220, an information manager 230, a database 240, and a communicator 250. ) And the control unit 260.
  • the displacement information processing unit 210, the surgical instrument control unit 220, the information management unit 230, the database 240, the communication unit 250 and the control unit 260 is at least a part of the robot Or a program module communicating with the user control device 300.
  • Such program modules may be included in the control system 200 in the form of operating systems, application modules or other program modules, and may be physically stored in various known storage devices.
  • Such program modules may also be stored in a remote storage device capable of communicating with the control system 200.
  • program modules include, but are not limited to, routines, subroutines, programs, objects, components, data structures, etc. that perform particular tasks or execute particular abstract data types, described below, in accordance with the present invention.
  • control system 200 may be configured separately from the robot 100 and / or the user control device 300, according to the selection of those skilled in the art, the robot 100 and / or the user control device 300 It may be configured physically.
  • the displacement information processing unit 210 when the user makes a predetermined designation in the display means of the user control device 300, the information about the user designation in the display means and the robot 100 May be performed to determine the displacement information according to the reference coordinate of the robot 100 based on the distance between the endoscope and the part of the body viewed by the endoscope.
  • the steps for this process are as follows:
  • the displacement information processor 210 may receive information about the displacement (for example, the displacement of the center of the display means as the origin) of the display means of the line or contour according to the user's designation from the display means.
  • the information about such displacement may be a collection of a plurality of two-dimensional or three-dimensional displacement vectors. This set is referred to hereinafter as D '(in the following description, English uppercase letters generally represent vectors, and English lowercase letters represent scalar values).
  • the displacement information processing unit 210 receives from the robot 100 basic information about the distance between the endoscope and the part of the body viewed by the endoscope (for example, ultrasonic turnaround time) or information about the distance itself. This allows the distance d to be determined.
  • the displacement information processing unit 210 is a coordinate that sets the reference position of the robot 100 (for example, the observation position of the endoscope of the robot 100 as the origin) corresponding to the displacement in the display means of the line or the contour according to the user specification. Displacement information can be determined. Such displacement information may also be a collection of a plurality of two-dimensional or three-dimensional displacement vectors. This set will be referred to as D below.
  • F (d) is a vector function determined according to d, which is a vector function for approximating D 'to an appropriate D.
  • F (d) can be an empirical formula that can be determined through appropriate experiments or a simple magnification formula determined based on the observed magnification of the endoscope.
  • Equation 1 may be changed as follows:
  • F may not be a vector function for approximation, but rather a vector function for (almost) converting D 'to D exactly.
  • the displacement information processor 210 may determine the displacement information (that is, D) according to the reference coordinate of the robot 100.
  • the displacement information processing unit 210 may modify the displacement information according to the reference coordinates of the robot 100 once determined once the user designation is changed by the user. That is, after the user observes through the display means that the surgical tool is actually moved and disposed with respect to an internal part of the body by the action of the surgical tool control unit 220, which will be described later, the existing user designation is changed in the display means. In this case (eg, when the user redraws the contour designated by the user), the displacement information processor 210 may modify the displacement information according to the reference coordinate of the robot 100 according to the changed user specification.
  • the surgical tool control unit 220 based on the displacement information according to the reference coordinates of the robot 100 determined by the displacement information processing unit 210, the corresponding surgical tool of the robot 100 May be controlled to actually move and position, or may be controlled so that the moved and disposed surgical tool performs a predetermined surgical operation.
  • the surgical tool control unit 220 in order for the surgical tool of the robot 100 to be moved and arranged according to a user's specification, information about the displacement that the surgical tool should take as a result (that is, actually performing a surgical operation).
  • Set of displacement vectors to be taken by the end effector of the surgical instrument This will be referred to as Dt (Dtool).
  • Rt is a vector representing the basic displacement of the surgical tool with respect to the reference coordinate of the robot 100.
  • Rt may be a vector predetermined for each surgical instrument.
  • FIG. 4 is a view illustrating a state in which the endoscope 50 and the surgical tool 60 of the robot 100 are mutually disposed according to an embodiment of the present invention.
  • the end effector of the surgical tool 60 may be moved and disposed according to Dt as shown.
  • the surgical tool control unit 220 allows the surgical tool to be selected according to the contents commanded by the user through the user's command means, or the surgical tool is moved and arranged according to the corresponding Dt, while the surgical tool control unit 220 It can be controlled to perform the surgical operation according to. Examples of possible surgical operations depending on the type of end effector of the surgical tool are as described above.
  • the information management unit 230 can store and manage information on the designations and commands made by experienced users. Such information may be stored in the database 240 along with a pre-operative image of the part within the body.
  • the user may search for the image of the body part once before the operation and then, in some cases, specify the type of the body part, etc., and retrieve a similar image from the database 240. Since the retrieved image is stored together with information about a designation or a command previously made by the user, the user can perform the operation more accurately, quickly and easily by referring to or using the information as it is.
  • the database 240 may store information about a designation or a command that a user has made while performing a surgery.
  • the database 240 is illustrated as being included in the control system 200 in FIG. 3, the database 240 may be configured separately from the control system 200 according to the needs of those skilled in the art to implement the present invention. It may be.
  • the database 240 may be referenced by a number of users that are built on a web server (not shown) and scattered throughout.
  • the communication unit 250 enables data transmission / reception from / to the displacement information processing unit 210, the surgical tool control unit 220, the information management unit 230, and the database 240. Function can be performed.
  • the controller 260 controls the flow of data between the displacement information processor 210, the surgical tool controller 220, the information manager 230, the database 240, and the communicator 250.
  • the surgical tool controller 220, the information manager 230, the database 240, and the communicator 250 may control to perform unique functions, respectively.
  • Embodiments according to the present invention described above can be implemented in the form of program instructions that can be executed by various computer components and recorded in a computer-readable recording medium.
  • the computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.
  • Program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. medium) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device may be modified with one or more software modules to perform the processing according to the present invention, and vice versa.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

수술용 로봇 시스템으로서, 로봇, 제어 시스템, 및 사용자 제어 장치를 포함하고, 상기 로봇은 내시경과 적어도 하나의 수술 도구를 포함하며, 상기 사용자 제어 장치는 사용자가 신체 내 부위에 대하여 소정의 지정을 행할 수 있는 디스플레이 수단을 포함하고, 상기 제어 시스템은, 변위 정보 처리부 및 수술 도구 제어부를 포함하는 수술용 로봇 시스템이 제공된다.

Description

사용자 지정에 따라 결정되는 변위 정보에 기초하여 수술을 수행하는 수술용 로봇 시스템과 그 제어 방법
본 발명은 사용자 지정에 따라 결정되는 변위 정보에 기초하여 수술을 수행하는 수술용 로봇 시스템과 그 제어 방법에 관한 것이다.
예전부터 수술은 훈련된 의사에 의하여만 행하여져 온 것이 사실이다. 하지만, 수술용 로봇 시스템이 점진적으로 발달함에 따라, 의사들은 수술의 일부 영역을 수술용 로봇 시스템에 점차 양보하게 되고 있다. 이러한 수술용 로봇 시스템의 대표적인 예로서 미국의 Intuitive Surgical, Inc.의 다빈치(상표명)를 들 수 있다. 그러나, 가장 현대적인 수술용 로봇 시스템 중 하나인 다빈치로도, 특수한 조종 훈련을 받은 의사가 모니터를 보면서 핸들, 스틱, 발판 등을 조종함으로써 수술 도구의 동작을 일일이 제어하여야만 비로소 수술이 수행될 수 있는 형편이므로, 제대로 된 지능을 갖춘 수술용 로봇 시스템이 현존한다고 말하기는 어려운 것이 사실이다.
이에, 본 발명자는 의사와 같은 사용자가 자신의 직관에 따라 소정의 지정을 행하면 그에 기초하여 수술 도구를 지능적으로 동작시켜 수술을 수행할 수 있는 수술용 로봇 시스템과 그 제어 방법을 고안하기에 이르렀다.
본 발명은 전술한 종래 기술의 문제점을 모두 해결하는 것을 그 목적으로 한다.
본 발명은 사용자가 자신의 직관에 따라 소정의 지정을 행하면 그에 기초하여 수술 도구를 지능적으로 동작시켜 수술을 수행할 수 있는 수술용 로봇 시스템과 그 제어 방법을 제공하는 것을 다른 목적으로 한다.
본 발명은 사용자 편의는 극대화시키고 사용자에 대한 조종 요구는 최소화시키는 지능적인 수술용 로봇 시스템과 그 제어 방법을 제공하는 것을 또 다른 목적으로 한다.
본 발명은 수술을 정확하고 신속하며 용이하게 수행할 수 있는 수술용 로봇 시스템과 그 제어 방법을 제공하는 것을 또 다른 목적으로 한다.
상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.
본 발명의 일 태양에 따르면, 수술용 로봇 시스템으로서, 로봇, 제어 시스템, 및 사용자 제어 장치를 포함하고, 상기 로봇은 내시경과 적어도 하나의 수술 도구를 포함하며, 상기 사용자 제어 장치는 사용자가 신체 내 부위에 대하여 소정의 지정을 행할 수 있는 디스플레이 수단을 포함하고, 상기 제어 시스템은, 상기 디스플레이 수단에서의 사용자 지정에 따른 선이나 윤곽의 상기 디스플레이 수단에서의 변위에 관한 정보와 상기 내시경 및 상기 내시경이 보고 있는 신체 내 부위 간의 거리에 기초하여, 상기 로봇의 기준 좌표에 따른 변위 정보를 결정하는 변위 정보 처리부, 및 상기 로봇의 기준 좌표에 따른 상기 변위 정보에 기초하여, 상기 로봇의 수술 도구가 이동, 배치되도록 제어하거나, 상기 수술 도구가 소정의 수술 동작을 수행하도록 제어하는 수술 도구 제어부를 포함하는 수술용 로봇 시스템이 제공된다.
본 발명의 일 태양에 따르면, 로봇과 사용자 제어 장치를 포함하는 수술용 로봇 시스템 - 상기 로봇은 내시경과 적어도 하나의 수술 도구를 포함하고, 상기 사용자 제어 장치는 사용자가 신체 내 부위에 대하여 소정의 지정을 행할 수 있는 디스플레이 수단을 포함함 - 을 제어하는 방법으로서, 상기 디스플레이 수단에서의 사용자 지정에 따른 선이나 윤곽의 상기 디스플레이 수단에서의 변위에 관한 정보와 상기 내시경 및 상기 내시경이 보고 있는 신체 내 부위 간의 거리에 기초하여, 상기 로봇의 기준 좌표에 따른 변위 정보를 결정하는 단계, 및 상기 로봇의 기준 좌표에 따른 상기 변위 정보에 기초하여, 상기 로봇의 수술 도구가 이동, 배치되도록 제어하거나, 상기 수술 도구가 소정의 수술 동작을 수행하도록 제어하는 단계를 포함하는 방법이 제공된다.
이 외에도, 본 발명을 구현하기 위한 다른 시스템과 방법이 더 제공된다.
본 발명에 의하면, 사용자가 자신의 직관에 따라 소정의 지정을 행하면 그에 기초하여 수술 도구를 지능적으로 동작시켜 수술을 수행할 수 있는 수술용 로봇 시스템과 그 제어 방법이 제공된다.
본 발명에 의하면, 사용자 편의는 극대화시키고 사용자에 대한 조종 요구는 최소화시키는 지능적인 수술용 로봇 시스템과 그 제어 방법이 제공된다.
본 발명에 의하면, 수술을 정확하고 신속하며 용이하게 수행할 수 있는 수술용 로봇 시스템과 그 제어 방법이 제공된다.
도 1은 본 발명의 일 실시예에 따른 수술용 로봇 시스템의 전체적인 구성을 도시하는 도면이다.
도 2는 이러한 수술용 로봇 시스템을 이용하여 사용자가 실제로 수술을 행하기 전의 모습을 도시하는 도면이다.
도 3은 본 발명의 일 실시예에 따른 제어 시스템의 내부 구성을 상세하게 도시하는 도면이다.
도 4는 본 발명의 일 실시예에 따라 로봇의 내시경과 수술 도구가 상호 배치되어 있는 모습을 도시하는 도면이다.
도 5는 본 발명의 일 실시예에 따라 사용자가 디스플레이 패널 상에서 신체 내 부위에 대하여 소정의 지정을 행한 모습을 도시하는 도면이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 바람직한 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
[본 발명의 바람직한 실시예]
전체 시스템의 구성
도 1은 본 발명의 일 실시예에 따른 수술용 로봇 시스템의 전체적인 구성을 도시하는 도면이다. 도 1에 도시된 바와 같이, 수술용 로봇 시스템은 로봇(또는, 동작 로봇)(100), 제어 시스템(200) 및 사용자 제어 장치(300)를 포함하여 구성될 수 있다. 한편, 도 2는 이러한 수술용 로봇 시스템을 이용하여 사용자가 실제로 수술을 행하기 전의 모습을 도시하는 도면이다.
먼저, 본 발명의 일 실시예에 따른 로봇(100)은 베이스, 다수의 로봇 암, 내시경, 적어도 하나의 수술 도구 등을 포함하여, 제어 시스템(200)의 제어에 따라 수술을 수행하기 위한 기계 장치일 수 있다. 특히, 로봇(100)의 내시경은 그 단부에 또는 다른 곳에 초음파 거리 측정기와 같은 거리 측정 모듈(미도시됨)을 구비하고 있을 수 있다. 이러한 거리 측정 모듈에서 결정된 데이터나 정보는 후술하는 바와 같이 제어 시스템(200)에서 사용될 수 있다. 로봇(100)은, 본 발명의 기술적 사상을 구현하는 범위 내에서, 당업자에 의하여 얼마든지 자유롭게 구성될 수 있다. 이러한 로봇(100)의 구체적인 구성 예에 관하여는 한국특허출원 제2008-108103호 등의 명세서가 참조될 수 있다. 여기서, 상기 한국특허출원의 명세서는 그 전체로서 본 명세서에 편입된 것으로 간주되어야 한다.
다음으로, 본 발명의 일 실시예에 따른 제어 시스템(200)은, 사용자가 사용자 제어 장치(300)의 디스플레이 수단에서 소정의 지정을 행하면, 상기 디스플레이 수단에서의 상기 사용자 지정에 관한 정보와 로봇(100)의 내시경 및 상기 내시경이 보고 있는 신체 내 부위 간의 거리에 기초하여 로봇(100)의 기준 좌표에 따른 변위 정보를 결정하고, 이러한 변위 정보에 기초하여 로봇(100)의 해당 수술 도구가 동작하도록 제어하기 위한 컴퓨터 시스템일 수 있다. 제어 시스템(200)의 구체적인 구성 예에 관하여는 도 3 등을 참조하여 아래에서 상술하기로 한다.
마지막으로, 본 발명의 일 실시예에 따른 사용자 제어 장치(300)는 디스플레이 수단, 사용자 지정 수단, 사용자 명령 수단 등을 포함하여, 사용자가 소정의 지정을 행하거나 이동, 배치된 수술 도구에 대하여 소정의 명령을 행할 수 있도록 하기 위한 제어 장치일 수 있다.
먼저, 사용자 제어 장치(300)의 디스플레이 수단은 로봇(100)의 내시경이 보고 있는 신체 내 부위를 소정의 배율에 따라 사용자에게 디스플레이하여 주고, 사용자 지정에 따라 결정되는 선이나 윤곽의 디스플레이 수단에서의 변위에 관한 정보를 제어 시스템(200)에 전송하는 기능을 수행할 수 있다. 이를 위하여, 디스플레이 수단은 2차원 디스플레이를 위한 디스플레이 패널이나 3차원 디스플레이를 위한 디스플레이 공간(미도시됨)과, 디스플레이 패널이나 디스플레이 공간에 결합되어 사용자 지정에 따른 선이나 윤곽의 디스플레이 패널이나 디스플레이 공간에서의 변위에 관한 정보를 결정할 수 있는 프로세서(미도시됨)를 포함할 수 있다. 여기서, 디스플레이 패널은 시각적 표시를 2차원적으로 디스플레이할 수 있는, LCD 패널, PDP 패널, LED 디스플레이 장치 등의 공지의 2차원 디스플레이 장치일 수 있고, 디스플레이 공간은 홀로그래피 디스플레이 장치 등의 공지의 3차원 디스플레이 장치일 수 있다. 한편, 상기와 같은 프로세서의 예로서, 공지의 터치 패널용 프로세서나 공지의 3차원 위치 인식 프로세서를 들 수 있다. 한편, 위와 같은 디스플레이 공간 대신에 신체 내의 특정 부위나 기관을 본떠서 제작되는 모형(예를 들면, 표면 등에 전자 감응 수단을 갖는 모형)이 이용될 수도 있다.
도 5는 본 발명의 일 실시예에 따라 사용자가 디스플레이 패널 상에서 신체 내 부위에 대하여 소정의 지정을 행한 모습을 도시하는 도면이다. 위의 설명 외에 도 5를 더 참조함으로써, 디스플레이 수단 상에서의 사용자 지정에 관하여 더 잘 이해할 수 있다.
다음으로, 사용자 제어 장치(300)의 사용자 지정 수단은 사용자가 들고 디스플레이 수단에서 소정의 지정을 행하면, 이것이 디스플레이 수단에 의하여 인식될 수 있도록 하는 기능을 수행하는 도구로서, 그 예로는 마우스, 전자 펜, 라이트 펜, 트랙 볼 등과 같은 다양한 공지의 도구를 들 수 있다.
마지막으로, 사용자 제어 장치(300)의 사용자 명령 수단은 사용자가 원하는 수술 도구를 선택할 수 있도록 하거나, 수술 도구가 사용자 지정에 따라 이동, 배치된 후에 사용자 지정된 신체 내 부위에 대하여 잡기, 조이기, 지지기, 절개, 봉합 등의 수술 동작을 수행하게끔 사용자가 명령할 수 있도록 하는 다양한 형태의 명령 수단일 수 있다. 이러한 사용자 명령 수단은 디스플레이 수단과 분리되어 조종 패널이나 조종 버튼의 형태로 구현될 수도 있지만, 디스플레이 수단과 결합되어 구성될 수 있다. 예를 들어, 디스플레이 수단이 터치 패널인 경우에는, 사용자 명령 수단이 터치 패널의 창이나 그래픽 버튼일 수 있다.
제어 시스템의 구성
도 3은 본 발명의 일 실시예에 따른 제어 시스템(200)의 내부 구성을 상세하게 도시하는 도면이다.
도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 제어 시스템(200)은 변위 정보 처리부(210), 수술 도구 제어부(220), 정보 관리부(230), 데이터베이스(240), 통신부(250) 및 제어부(260)를 포함하여 구성될 수 있다. 본 발명의 일 실시예에 따르면, 변위 정보 처리부(210), 수술 도구 제어부(220), 정보 관리부(230), 데이터베이스(240), 통신부(250) 및 제어부(260)는 그 중 적어도 일부가 로봇(100)이나 사용자 제어 장치(300)와 통신하는 프로그램 모듈일 수 있다.  이러한 프로그램 모듈은 운영 시스템, 응용 프로그램 모듈 또는 기타 프로그램 모듈의 형태로 제어 시스템(200)에 포함될 수 있고, 물리적으로는 여러 가지 공지의 기억 장치에 저장될 수 있다.  또한, 이러한 프로그램 모듈은 제어 시스템(200)과 통신 가능한 원격 기억 장치에 저장될 수도 있다.  한편, 이러한 프로그램 모듈은 본 발명에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.
한편, 제어 시스템(200)은, 당업자의 선택에 따라, 로봇(100) 및/또는 사용자 제어 장치(300)로부터 분리되어 구성될 수도 있고, 로봇(100) 및/또는 사용자 제어 장치(300)에 물리적으로 결합되어 구성될 수도 있다.
먼저, 본 발명의 일 실시예에 따른 변위 정보 처리부(210)는 사용자가 사용자 제어 장치(300)의 디스플레이 수단에서 소정의 지정을 행하면, 상기 디스플레이 수단에서의 상기 사용자 지정에 관한 정보와 로봇(100)의 내시경 및 상기 내시경이 보고 있는 신체 내 부위 간의 거리에 기초하여 로봇(100)의 기준 좌표에 따른 변위 정보를 결정하는 처리를 수행할 수 있다. 이러한 처리에 관하여 단계별로 살펴보면 아래와 같다:
1. 사용자 지정에 따른 선이나 윤곽의 디스플레이 수단에서의 변위에 관한 정보의 수신
변위 정보 처리부(210)는 디스플레이 수단으로부터 사용자 지정에 따른 선이나 윤곽의 디스플레이 수단에서의 변위(예를 들면, 디스플레이 수단의 중심을 원점으로 하는 변위)에 관한 정보를 수신할 수 있다. 이러한 변위에 관한 정보는 다수의 2차원 또는 3차원 변위 벡터의 집합일 수 있다. 이러한 집합을 이하에서는 D'라고 표기하기로 한다(이하의 설명에서, 일반적으로 영어 대문자는 벡터를, 영어 소문자는 스칼라 값을 나타낸다).
2. 로봇(100)의 내시경 및 상기 내시경이 보고 있는 신체 내 부위 간의 거리의 결정
변위 정보 처리부(210)는 로봇(100)으로부터 그 내시경 및 상기 내시경이 보고 있는 신체 내 부위 간의 거리에 관한 기초 데이터(예를 들면, 초음파 턴어라운드(turnaround) 시간)나 거리 자체에 관한 정보를 수신하여 이로써 상기 거리 d를 결정할 수 있다.
3. 로봇(100)의 기준 좌표에 따른 변위 정보의 결정
변위 정보 처리부(210)는 사용자 지정에 따른 선이나 윤곽의 디스플레이 수단에서의 변위에 대응되는, 로봇(100)의 기준 좌표(예를 들면, 로봇(100)의 내시경의 관찰 위치를 원점으로 하는 좌표)에 따른 변위 정보를 결정할 수 있다. 이러한 변위 정보 역시 다수의 2차원 또는 3차원 변위 벡터의 집합일 수 있다. 이러한 집합을 이하에서는 D라고 표기하기로 한다.
위의 경우, 다음의 수학식 1이 성립할 수 있다:
[수학식 1]
D = F(d) x D'
여기서, F(d)는 d에 따라 결정되는 벡터 함수로서 D'를 적절한 D로 근사 변환하기 위한 벡터 함수이다. F(d)는 적절한 실험을 거쳐 결정될 수 있는 실험식이거나 내시경의 관찰 배율에 기초하여 결정되는 단순한 배율 결정 공식일 수 있다.
한편, F가 충분한 횟수의 실험을 거쳐 확정되는 경우에는 수학식 1은 다음과 같이 변경될 수도 있다:
[수학식 2]
D = F(d, D')
즉, F는 단지 근사 변환을 위한 벡터 함수가 아니라 D'를 D로 (거의) 정확하게 변환시키기 위한 벡터 함수가 될 수도 있다.
따라서, 변위 정보 처리부(210)는 로봇(100)의 기준 좌표에 따른 변위 정보(즉, D)를 결정할 수 있다.
한편, 변위 정보 처리부(210)는, 사용자에 의하여 사용자 지정이 변경되면, 일단 결정된 로봇(100)의 기준 좌표에 따른 변위 정보를 수정할 수도 있다. 즉, 사용자가 후술하는 바와 같은 수술 도구 제어부(220)의 작용에 의하여 수술 도구가 신체 내 부위에 대하여 실제로 이동, 배치된 것을 디스플레이 수단을 통하여 관찰한 후에, 기존의 사용자 지정을 디스플레이 수단에서 변경하는 경우(예를 들면, 사용자가 자신이 지정한 윤곽을 고쳐 그리는 경우), 변위 정보 처리부(210)는 변경된 사용자 지정에 따라 로봇(100)의 기준 좌표에 따른 변위 정보를 수정할 수도 있다.
다음으로, 본 발명의 일 실시예에 따른 수술 도구 제어부(220)는, 변위 정보 처리부(210)에서 결정된 로봇(100)의 기준 좌표에 따른 변위 정보에 기초하여, 로봇(100)의 해당 수술 도구가 실제로 이동, 배치되도록 제어하거나, 이동, 배치된 수술 도구가 소정의 수술 동작을 수행하도록 제어할 수 있다.
우선, 수술 도구 제어부(220)는, 로봇(100)의 수술 도구가 사용자 지정에 따라 이동, 배치되도록 하기 위하여, 상기 수술 도구가 결과적으로 취하여야 할 변위에 관한 정보(즉, 실제로 수술 동작을 수행하는 수술 도구의 엔드 이펙터(end effector)가 취하여야 할 변위 벡터의 집합)를 결정할 수 있다. 이하에서는, 이를 Dt(Dtool)라고 표기하기로 한다.
위의 경우, 다음의 수학식 3이 성립할 수 있다:
[수학식 3]
Dt = D - Rt
여기서, Rt는 로봇(100)의 기준 좌표에 대한 수술 도구의 기본 변위를 나타내는 벡터이다. Rt는 각 수술 도구마다 미리 결정되어 있는 벡터일 수 있다.
도 4를 참조하여 더 살펴본다. 도 4는 본 발명의 일 실시예에 따라 로봇(100)의 내시경(50)과 수술 도구(60)가 상호 배치되어 있는 모습을 도시하는 도면이다. 예를 들어, 로봇(100)의 좌표 기준이 내시경(50)의 단부인 경우에는, 수술 도구(60)의 엔드 이펙터는 도시된 바와 같은 Dt에 따라 이동, 배치될 수 있다.
또한, 수술 도구 제어부(220)는 사용자가 사용자 명령 수단을 통하여 명령한 내용에 따라 수술 도구가 선택되도록 하거나, 수술 도구가 해당 Dt에 따라 이동, 배치되면서 사용자가 사용자 명령 수단을 통하여 명령한 내용에 따른 수술 동작을 수행하도록 제어할 수 있다. 수술 도구의 엔드 이펙터의 종류에 따라 가능한 수술 동작의 예는 상술한 바와 같다.
다음으로, 본 발명의 일 실시예에 따른 정보 관리부(230)는 수술용 로봇 시스템에 의한 수술의 대상이 된 신체 내 부위의 종류, 프로파일, 크기, 연관된 질병의 이름, 연관된 질병의 기(期) 등에 따라 숙련된 사용자가 행한 지정이나 명령에 관한 정보를 저장하고 관리할 수 있다. 이러한 정보는 해당 신체 내 부위의 수술 전 이미지와 함께 데이터베이스(240)에 저장될 수 있다.
따라서, 사용자는 수술 전에 일단 해당 신체 내 부위를 촬영한 후에 촬영된 이미지로, 경우에 따라, 해당 신체 내 부위의 종류 등도 특정하여, 그와 유사한 이미지를 데이터베이스(240)로부터 검색할 수 있다. 이렇게 검색된 이미지는 이전의 사용자가 행한 지정이나 명령에 관한 정보와 함께 저장되어 있으므로, 사용자가 상기 정보를 참조하거나 그대로 이용함으로써 보다 정확하고 신속하며 용이하게 수술을 행할 수 있게 된다.
다음으로, 본 발명의 일 실시예에 따른 데이터베이스(240)에는, 상술된 바와 같이, 사용자가 수술을 수행하는 과정에서 행한 지정이나 명령에 관한 정보가 저장될 수 있다. 비록 도 3에서 데이터베이스(240)가 제어 시스템(200)에 포함되어 구성되는 것으로 도시되어 있지만, 본 발명을 구현하는 당업자의 필요에 따라, 데이터베이스(240)는 제어 시스템(200)과 별개로 구성될 수도 있다. 예를 들면, 데이터베이스(240)는 웹 서버(미도시됨)에 구축되어 곳곳에 흩어져 있는 다수의 사용자에 의하여 참조될 수도 있을 것이다.
다음으로, 본 발명의 일 실시예에 따른 통신부(250)는 변위 정보 처리부(210), 수술 도구 제어부(220), 정보 관리부(230) 및 데이터베이스(240)로부터의/로의 데이터 송수신이 가능하도록 하는 기능을 수행할 수 있다.
마지막으로, 본 발명의 일 실시예에 따른 제어부(260)는 변위 정보 처리부(210), 수술 도구 제어부(220), 정보 관리부(230), 데이터베이스(240) 및 통신부(250) 간의 데이터의 흐름을 제어하는 기능을 수행할 수 있다. 즉, 본 발명에 따른 제어부(260)는 제어 시스템(200)의 외부로부터의/외부로의 데이터 흐름 또는 제어 시스템(200)의 각 구성요소 간의 데이터 흐름을 제어함으로써, 변위 정보 처리부(210), 수술 도구 제어부(220), 정보 관리부(230), 데이터베이스(240) 및 통신부(250)에서 각각 고유 기능을 수행하도록 제어할 수 있다.
이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항과 한정된 실시예 및 도면에 의하여 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐, 본 발명이 상기 실시예에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정과 변경을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.

Claims (25)

  1. 수술용 로봇 시스템으로서,
    로봇,
    제어 시스템, 및
    사용자 제어 장치
    를 포함하고,
    상기 로봇은 내시경과 적어도 하나의 수술 도구를 포함하며,
    상기 사용자 제어 장치는 사용자가 신체 내 부위에 대하여 소정의 지정을 행할 수 있는 디스플레이 수단을 포함하고,
    상기 제어 시스템은,
    상기 디스플레이 수단에서의 사용자 지정에 따른 선이나 윤곽의 상기 디스플레이 수단에서의 변위에 관한 정보와 상기 내시경 및 상기 내시경이 보고 있는 신체 내 부위 간의 거리에 기초하여, 상기 로봇의 기준 좌표에 따른 변위 정보를 결정하는 변위 정보 처리부, 및
    상기 로봇의 기준 좌표에 따른 상기 변위 정보에 기초하여, 상기 로봇의 수술 도구가 이동, 배치되도록 제어하거나, 상기 수술 도구가 소정의 수술 동작을 수행하도록 제어하는 수술 도구 제어부
    를 포함하는
    수술용 로봇 시스템.
  2. 제1항에 있어서,
    상기 내시경은 거리 측정 모듈을 포함하는 수술용 로봇 시스템.
  3. 제2항에 있어서,
    상기 내시경은 그 단부에 상기 거리 측정 모듈을 포함하는 수술용 로봇 시스템.
  4. 제1항에 있어서,
    상기 디스플레이 수단은 2차원 디스플레이를 위한 디스플레이 패널이나 3차원 디스플레이를 위한 디스플레이 공간인 수술용 로봇 시스템.
  5. 제1항에 있어서,
    상기 로봇의 기준 좌표에 따른 상기 변위 정보(D)는,
    (수학식 1)
    D = F(d) x D'
    (여기서, d는 상기 거리이고, D'는 상기 디스플레이 수단에서의 상기 사용자 지정에 따른 상기 변위에 관한 정보임.)
    에 의하여 결정되는
    수술용 로봇 시스템.
  6. 제1항에 있어서,
    상기 로봇의 기준 좌표에 따른 상기 변위 정보(D)는,
    (수학식 2)
    D = F(d, D')
    (여기서, d는 상기 거리이고, D'는 상기 디스플레이 수단에서의 상기 사용자 지정에 따른 상기 변위에 관한 정보임.)
    에 의하여 결정되는
    수술용 로봇 시스템.
  7. 제1항에 있어서,
    상기 사용자 지정은 상기 사용자에 의하여 상기 디스플레이 수단 상에서 수정될 수 있는 수술용 로봇 시스템.
  8. 제1항에 있어서,
    상기 수술 도구 제어부는 상기 수술 도구가 취하여야 할 변위에 관한 정보를 결정하는 수술용 로봇 시스템.
  9. 제8항에 있어서,
    상기 수술 도구가 취하여야 할 상기 변위에 관한 정보는 상기 수술 도구의 엔드 이펙터가 취하여야 할 변위 벡터의 집합인 수술용 로봇 시스템.
  10. 제1항에 있어서,
    상기 수술 도구 제어부는 상기 수술 도구가 이동, 배치되면서 상기 사용자가 명령한 내용에 따른 수술 동작을 수행하도록 상기 수술 도구를 제어하는 수술용 로봇 시스템.
  11. 제10항에 있어서,
    상기 수술 동작은 잡기, 조이기, 지지기, 절개 및 봉합 중 적어도 하나인 수술용 로봇 시스템.
  12. 제1항에 있어서,
    상기 제어 시스템은 정보 관리부를 더 포함하고,
    상기 정보 관리부는 이전에 수술의 대상이 된 신체 내 부위의 종류, 프로파일, 크기, 연관된 질병의 이름 또는 연관된 질병의 기에 따라 이전의 사용자가 행한 지정이나 명령에 관한 정보를 소정의 데이터베이스에서 저장하고 관리하는 수술용 로봇 시스템.
  13. 제12항에 있어서,
    상기 정보 관리부는 상기 이전에 수술의 대상이 된 신체 내 부위의 이미지를 상기 데이터베이스에서 더 저장하고 관리하는 수술용 로봇 시스템.
  14. 제13항에 있어서,
    상기 이미지는 상기 데이터베이스로부터 이미지 검색될 수 있는 수술용 로봇 시스템.
  15. 로봇과 사용자 제어 장치를 포함하는 수술용 로봇 시스템 - 상기 로봇은 내시경과 적어도 하나의 수술 도구를 포함하고, 상기 사용자 제어 장치는 사용자가 신체 내 부위에 대하여 소정의 지정을 행할 수 있는 디스플레이 수단을 포함함 - 을 제어하는 방법으로서,
    상기 디스플레이 수단에서의 사용자 지정에 따른 선이나 윤곽의 상기 디스플레이 수단에서의 변위에 관한 정보와 상기 내시경 및 상기 내시경이 보고 있는 신체 내 부위 간의 거리에 기초하여, 상기 로봇의 기준 좌표에 따른 변위 정보를 결정하는 단계, 및
    상기 로봇의 기준 좌표에 따른 상기 변위 정보에 기초하여, 상기 로봇의 수술 도구가 이동, 배치되도록 제어하거나, 상기 수술 도구가 소정의 수술 동작을 수행하도록 제어하는 단계
    를 포함하는 방법.
  16. 제15항에 있어서,
    상기 로봇의 기준 좌표에 따른 상기 변위 정보(D)는,
    (수학식 1)
    D = F(d) x D'
    (여기서, d는 상기 거리이고, D'는 상기 디스플레이 수단에서의 상기 사용자 지정에 따른 상기 변위에 관한 정보임.)
    에 의하여 결정되는
    방법.
  17. 제15항에 있어서,
    상기 로봇의 기준 좌표에 따른 상기 변위 정보(D)는,
    (수학식 2)
    D = F(d, D')
    (여기서, d는 상기 거리이고, D'는 상기 디스플레이 수단에서의 상기 사용자 지정에 따른 상기 변위에 관한 정보임.)
    에 의하여 결정되는
    방법.
  18. 제15항에 있어서,
    상기 사용자 지정은 상기 사용자에 의하여 상기 디스플레이 수단 상에서 수정될 수 있는 방법.
  19. 제15항에 있어서,
    상기 수술 도구가 취하여야 할 변위에 관한 정보를 결정하는 단계를 더 포함하는 방법.
  20. 제19항에 있어서,
    상기 수술 도구가 취하여야 할 상기 변위에 관한 정보는 상기 수술 도구의 엔드 이펙터가 취하여야 할 변위 벡터의 집합인 방법.
  21. 제15항에 있어서,
    상기 수술 도구가 이동, 배치되면서 상기 사용자가 명령한 내용에 따른 수술 동작을 수행하도록 상기 수술 도구를 제어하는 단계를 더 포함하는 방법.
  22. 제21항에 있어서,
    상기 수술 동작은 잡기, 조이기, 지지기, 절개 및 봉합 중 적어도 하나인 방법.
  23. 제15항에 있어서,
    이전에 수술의 대상이 된 신체 내 부위의 종류, 프로파일, 크기, 연관된 질병의 이름 또는 연관된 질병의 기에 따라 이전의 사용자가 행한 지정이나 명령에 관한 정보를 소정의 데이터베이스에서 저장하고 관리하는 단계를 더 포함하는 방법.
  24. 제23항에 있어서,
    상기 데이터베이스는 상기 이전에 수술의 대상이 된 신체 내 부위의 이미지를 더 저장하고 관리하는 것인 방법.
  25. 제24항에 있어서,
    상기 이미지는 상기 데이터베이스로부터 이미지 검색될 수 있는 것인 방법.
PCT/KR2012/000767 2011-02-21 2012-01-31 사용자 지정에 따라 결정되는 변위 정보에 기초하여 수술을 수행하는 수술용 로봇 시스템과 그 제어 방법 WO2012115360A2 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201280009758.0A CN103442661B (zh) 2011-02-21 2012-01-31 基于根据使用者指定所确定的变位信息执行手术的手术用机器人系统及其控制方法
EP12749243.7A EP2679193A4 (en) 2011-02-21 2012-01-31 Surgical robot system for performing surgery based on displacement information determined by the specification of the user, and method for controlling same
US14/000,827 US9179980B2 (en) 2011-02-21 2012-01-31 Surgical robot system for performing surgery based on displacement information determined by the specification of the user, and method for controlling same
JP2013555354A JP6007194B2 (ja) 2011-02-21 2012-01-31 使用者指定によって決定される変位情報に基づいて手術を行う手術用ロボットシステムとその制御方法
CA2827927A CA2827927A1 (en) 2011-02-21 2012-01-31 Surgical robot system for performing surgery based on displacement information determined by user indication and method for controlling the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020110015251A KR101181613B1 (ko) 2011-02-21 2011-02-21 사용자 지정에 따라 결정되는 변위 정보에 기초하여 수술을 수행하는 수술용 로봇 시스템과 그 제어 방법
KR10-2011-0015251 2011-02-21

Publications (2)

Publication Number Publication Date
WO2012115360A2 true WO2012115360A2 (ko) 2012-08-30
WO2012115360A3 WO2012115360A3 (ko) 2012-12-13

Family

ID=46721284

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/000767 WO2012115360A2 (ko) 2011-02-21 2012-01-31 사용자 지정에 따라 결정되는 변위 정보에 기초하여 수술을 수행하는 수술용 로봇 시스템과 그 제어 방법

Country Status (7)

Country Link
US (1) US9179980B2 (ko)
EP (1) EP2679193A4 (ko)
JP (1) JP6007194B2 (ko)
KR (1) KR101181613B1 (ko)
CN (1) CN103442661B (ko)
CA (1) CA2827927A1 (ko)
WO (1) WO2012115360A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104000657A (zh) * 2014-05-21 2014-08-27 上海交通大学 体内微型手术机器人

Families Citing this family (108)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8219178B2 (en) 2007-02-16 2012-07-10 Catholic Healthcare West Method and system for performing invasive medical procedures using a surgical robot
US10653497B2 (en) 2006-02-16 2020-05-19 Globus Medical, Inc. Surgical tool systems and methods
US9782229B2 (en) 2007-02-16 2017-10-10 Globus Medical, Inc. Surgical robot platform
US10893912B2 (en) 2006-02-16 2021-01-19 Globus Medical Inc. Surgical tool systems and methods
US10357184B2 (en) 2012-06-21 2019-07-23 Globus Medical, Inc. Surgical tool systems and method
WO2012131660A1 (en) 2011-04-01 2012-10-04 Ecole Polytechnique Federale De Lausanne (Epfl) Robotic system for spinal and other surgeries
US11857266B2 (en) 2012-06-21 2024-01-02 Globus Medical, Inc. System for a surveillance marker in robotic-assisted surgery
US10350013B2 (en) 2012-06-21 2019-07-16 Globus Medical, Inc. Surgical tool systems and methods
US11253327B2 (en) 2012-06-21 2022-02-22 Globus Medical, Inc. Systems and methods for automatically changing an end-effector on a surgical robot
US11793570B2 (en) 2012-06-21 2023-10-24 Globus Medical Inc. Surgical robotic automation with tracking markers
US11317971B2 (en) 2012-06-21 2022-05-03 Globus Medical, Inc. Systems and methods related to robotic guidance in surgery
US11607149B2 (en) 2012-06-21 2023-03-21 Globus Medical Inc. Surgical tool systems and method
US11864839B2 (en) 2012-06-21 2024-01-09 Globus Medical Inc. Methods of adjusting a virtual implant and related surgical navigation systems
US10624710B2 (en) 2012-06-21 2020-04-21 Globus Medical, Inc. System and method for measuring depth of instrumentation
US11974822B2 (en) 2012-06-21 2024-05-07 Globus Medical Inc. Method for a surveillance marker in robotic-assisted surgery
US10136954B2 (en) 2012-06-21 2018-11-27 Globus Medical, Inc. Surgical tool systems and method
US11864745B2 (en) 2012-06-21 2024-01-09 Globus Medical, Inc. Surgical robotic system with retractor
US11298196B2 (en) 2012-06-21 2022-04-12 Globus Medical Inc. Surgical robotic automation with tracking markers and controlled tool advancement
US11399900B2 (en) 2012-06-21 2022-08-02 Globus Medical, Inc. Robotic systems providing co-registration using natural fiducials and related methods
US10231791B2 (en) 2012-06-21 2019-03-19 Globus Medical, Inc. Infrared signal based position recognition system for use with a robot-assisted surgery
US10758315B2 (en) 2012-06-21 2020-09-01 Globus Medical Inc. Method and system for improving 2D-3D registration convergence
US11045267B2 (en) 2012-06-21 2021-06-29 Globus Medical, Inc. Surgical robotic automation with tracking markers
US11395706B2 (en) 2012-06-21 2022-07-26 Globus Medical Inc. Surgical robot platform
US11116576B2 (en) 2012-06-21 2021-09-14 Globus Medical Inc. Dynamic reference arrays and methods of use
US11857149B2 (en) 2012-06-21 2024-01-02 Globus Medical, Inc. Surgical robotic systems with target trajectory deviation monitoring and related methods
BR112015022187A2 (pt) 2013-03-14 2017-07-18 Stanford Res Inst Int ferramentas cirúrgicas minimamente invasivas
AU2014233662B2 (en) 2013-03-15 2019-01-17 Sri International Hyperdexterous surgical system
JP6010225B2 (ja) * 2013-06-13 2016-10-19 テルモ株式会社 医療用マニピュレータ
US9283048B2 (en) 2013-10-04 2016-03-15 KB Medical SA Apparatus and systems for precise guidance of surgical tools
JP6475409B2 (ja) * 2013-12-20 2019-02-27 蛇の目ミシン工業株式会社 ロボット、ロボットの制御方法、及びロボットの制御プログラム
US9241771B2 (en) 2014-01-15 2016-01-26 KB Medical SA Notched apparatus for guidance of an insertable instrument along an axis during spinal surgery
WO2015121311A1 (en) 2014-02-11 2015-08-20 KB Medical SA Sterile handle for controlling a robotic surgical system from a sterile field
CN106659537B (zh) 2014-04-24 2019-06-11 Kb医疗公司 结合机器人手术系统使用的手术器械固持器
EP3169252A1 (en) 2014-07-14 2017-05-24 KB Medical SA Anti-skid surgical instrument for use in preparing holes in bone tissue
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
EP3258872B1 (en) 2015-02-18 2023-04-26 KB Medical SA Systems for performing minimally invasive spinal surgery with a robotic surgical system using a percutaneous technique
JP6510631B2 (ja) * 2015-03-24 2019-05-08 オリンパス株式会社 軟性マニピュレータ制御装置および医療用マニピュレータシステム
WO2016186116A1 (ja) * 2015-05-21 2016-11-24 オリンパス株式会社 医療用マニピュレータシステム
CN108025445A (zh) 2015-07-23 2018-05-11 斯里国际 机器人臂及机器人手术系统
US10058394B2 (en) 2015-07-31 2018-08-28 Globus Medical, Inc. Robot arm and methods of use
US10646298B2 (en) 2015-07-31 2020-05-12 Globus Medical, Inc. Robot arm and methods of use
US10080615B2 (en) 2015-08-12 2018-09-25 Globus Medical, Inc. Devices and methods for temporary mounting of parts to bone
WO2017037127A1 (en) 2015-08-31 2017-03-09 KB Medical SA Robotic surgical systems and methods
US10034716B2 (en) 2015-09-14 2018-07-31 Globus Medical, Inc. Surgical robotic systems and methods thereof
US9771092B2 (en) 2015-10-13 2017-09-26 Globus Medical, Inc. Stabilizer wheel assembly and methods of use
US10117632B2 (en) 2016-02-03 2018-11-06 Globus Medical, Inc. Portable medical imaging system with beam scanning collimator
US10842453B2 (en) 2016-02-03 2020-11-24 Globus Medical, Inc. Portable medical imaging system
US10448910B2 (en) 2016-02-03 2019-10-22 Globus Medical, Inc. Portable medical imaging system
US11883217B2 (en) 2016-02-03 2024-01-30 Globus Medical, Inc. Portable medical imaging system and method
US11058378B2 (en) 2016-02-03 2021-07-13 Globus Medical, Inc. Portable medical imaging system
US10866119B2 (en) 2016-03-14 2020-12-15 Globus Medical, Inc. Metal detector for detecting insertion of a surgical device into a hollow tube
EP3241518A3 (en) 2016-04-11 2018-01-24 Globus Medical, Inc Surgical tool systems and methods
CN105902253A (zh) * 2016-04-28 2016-08-31 深圳市鹏瑞智能图像有限公司 一种内窥镜插入控制方法及系统
CN106003102A (zh) * 2016-06-13 2016-10-12 无锡虹业自动化工程有限公司 安装自动化机器人的控制柜
JP6847218B2 (ja) 2016-11-28 2021-03-24 バーブ サージカル インコーポレイテッドVerb Surgical Inc. 望ましくない振動を低減するためのロボット外科用システム
EP3360502A3 (en) 2017-01-18 2018-10-31 KB Medical SA Robotic navigation of robotic surgical systems
US11071594B2 (en) 2017-03-16 2021-07-27 KB Medical SA Robotic navigation of robotic surgical systems
US10792119B2 (en) 2017-05-22 2020-10-06 Ethicon Llc Robotic arm cart and uses therefor
US10856948B2 (en) 2017-05-31 2020-12-08 Verb Surgical Inc. Cart for robotic arms and method and apparatus for registering cart to surgical table
US10485623B2 (en) 2017-06-01 2019-11-26 Verb Surgical Inc. Robotic arm cart with fine position adjustment features and uses therefor
US10913145B2 (en) 2017-06-20 2021-02-09 Verb Surgical Inc. Cart for robotic arms and method and apparatus for cartridge or magazine loading of arms
US10675094B2 (en) 2017-07-21 2020-06-09 Globus Medical Inc. Robot surgical platform
US11357548B2 (en) 2017-11-09 2022-06-14 Globus Medical, Inc. Robotic rod benders and related mechanical and motor housings
US11794338B2 (en) 2017-11-09 2023-10-24 Globus Medical Inc. Robotic rod benders and related mechanical and motor housings
JP6778242B2 (ja) 2017-11-09 2020-10-28 グローバス メディカル インコーポレイティッド 手術用ロッドを曲げるための手術用ロボットシステム、および関連する方法および装置
US11134862B2 (en) 2017-11-10 2021-10-05 Globus Medical, Inc. Methods of selecting surgical implants and related devices
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
KR102014355B1 (ko) * 2018-02-20 2019-08-26 (주)휴톰 수술도구의 위치 정보 산출 방법 및 장치
US10573023B2 (en) 2018-04-09 2020-02-25 Globus Medical, Inc. Predictive visualization of medical imaging scanner component movement
US11337742B2 (en) 2018-11-05 2022-05-24 Globus Medical Inc Compliant orthopedic driver
US11278360B2 (en) 2018-11-16 2022-03-22 Globus Medical, Inc. End-effectors for surgical robotic systems having sealed optical components
US11602402B2 (en) 2018-12-04 2023-03-14 Globus Medical, Inc. Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems
US11744655B2 (en) 2018-12-04 2023-09-05 Globus Medical, Inc. Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems
US11918313B2 (en) 2019-03-15 2024-03-05 Globus Medical Inc. Active end effectors for surgical robots
US20200297357A1 (en) 2019-03-22 2020-09-24 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
US11419616B2 (en) 2019-03-22 2022-08-23 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
US11382549B2 (en) 2019-03-22 2022-07-12 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
US11806084B2 (en) 2019-03-22 2023-11-07 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
US11317978B2 (en) 2019-03-22 2022-05-03 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
US11571265B2 (en) 2019-03-22 2023-02-07 Globus Medical Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
US11045179B2 (en) 2019-05-20 2021-06-29 Global Medical Inc Robot-mounted retractor system
US11628023B2 (en) 2019-07-10 2023-04-18 Globus Medical, Inc. Robotic navigational system for interbody implants
US11571171B2 (en) 2019-09-24 2023-02-07 Globus Medical, Inc. Compound curve cable chain
US11890066B2 (en) 2019-09-30 2024-02-06 Globus Medical, Inc Surgical robot with passive end effector
US11864857B2 (en) 2019-09-27 2024-01-09 Globus Medical, Inc. Surgical robot with passive end effector
US11426178B2 (en) 2019-09-27 2022-08-30 Globus Medical Inc. Systems and methods for navigating a pin guide driver
US11510684B2 (en) 2019-10-14 2022-11-29 Globus Medical, Inc. Rotary motion passive end effector for surgical robots in orthopedic surgeries
US11992373B2 (en) 2019-12-10 2024-05-28 Globus Medical, Inc Augmented reality headset with varied opacity for navigated robotic surgery
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US11253216B2 (en) 2020-04-28 2022-02-22 Globus Medical Inc. Fixtures for fluoroscopic imaging systems and related navigation systems and methods
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11317973B2 (en) 2020-06-09 2022-05-03 Globus Medical, Inc. Camera tracking bar for computer assisted navigation during surgery
US11382713B2 (en) 2020-06-16 2022-07-12 Globus Medical, Inc. Navigated surgical system with eye to XR headset display calibration
US11877807B2 (en) 2020-07-10 2024-01-23 Globus Medical, Inc Instruments for navigated orthopedic surgeries
US11793588B2 (en) 2020-07-23 2023-10-24 Globus Medical, Inc. Sterile draping of robotic arms
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
US11523785B2 (en) 2020-09-24 2022-12-13 Globus Medical, Inc. Increased cone beam computed tomography volume length without requiring stitching or longitudinal C-arm movement
US11911112B2 (en) 2020-10-27 2024-02-27 Globus Medical, Inc. Robotic navigational system
US11941814B2 (en) 2020-11-04 2024-03-26 Globus Medical Inc. Auto segmentation using 2-D images taken during 3-D imaging spin
USD1022197S1 (en) 2020-11-19 2024-04-09 Auris Health, Inc. Endoscope
US11717350B2 (en) 2020-11-24 2023-08-08 Globus Medical Inc. Methods for robotic assistance and navigation in spinal surgery and related systems
CN113040913A (zh) * 2021-03-02 2021-06-29 上海微创医疗机器人(集团)股份有限公司 机械臂、手术装置、手术末端装置、手术系统及工作方法
US11857273B2 (en) 2021-07-06 2024-01-02 Globus Medical, Inc. Ultrasonic robotic surgical navigation
US11439444B1 (en) 2021-07-22 2022-09-13 Globus Medical, Inc. Screw tower and rod reduction tool
US11918304B2 (en) 2021-12-20 2024-03-05 Globus Medical, Inc Flat panel registration fixture and method of using same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080108103A (ko) 2006-02-21 2008-12-11 엑사테크 엘.엘.씨. 윈도우 조립체를 위한 인쇄가능한 제어부

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10555775B2 (en) * 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
US20090318804A1 (en) * 2006-05-02 2009-12-24 Galil Medical Ltd. Cryotherapy Planning and Control System
WO2007145327A1 (ja) * 2006-06-15 2007-12-21 Kansai Technology Licensing Organization Co., Ltd. 遠隔操作システム
US8473031B2 (en) * 2007-12-26 2013-06-25 Intuitive Surgical Operations, Inc. Medical robotic system with functionality to determine and display a distance indicated by movement of a tool robotically manipulated by an operator
JP5288447B2 (ja) * 2008-03-28 2013-09-11 学校法人早稲田大学 手術支援システム、接近状態検出装置及びそのプログラム
US20100013812A1 (en) * 2008-07-18 2010-01-21 Wei Gu Systems for Controlling Computers and Devices
US8184880B2 (en) * 2008-12-31 2012-05-22 Intuitive Surgical Operations, Inc. Robust sparse image matching for robotic surgery
US8830224B2 (en) * 2008-12-31 2014-09-09 Intuitive Surgical Operations, Inc. Efficient 3-D telestration for local robotic proctoring
KR101049507B1 (ko) * 2009-02-27 2011-07-15 한국과학기술원 영상유도수술시스템 및 그 제어방법
KR101057702B1 (ko) 2009-04-09 2011-08-18 의료법인 우리들의료재단 수술용 로봇의 제어 방법 및 그 시스템
US8760391B2 (en) * 2009-05-22 2014-06-24 Robert W. Hawkins Input cueing emersion system and method
KR101114227B1 (ko) * 2009-07-08 2012-03-05 주식회사 이턴 수술용 로봇 및 그 세팅방법
KR100997194B1 (ko) * 2009-08-18 2010-11-30 주식회사 이턴 간접적으로 수술감을 제공하는 원격 수술 로봇 시스템 및 그 제어 방법
US8679125B2 (en) * 2010-09-22 2014-03-25 Biomet Manufacturing, Llc Robotic guided femoral head reshaping
US9696897B2 (en) * 2011-10-19 2017-07-04 The Regents Of The University Of California Image-based measurement tools

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080108103A (ko) 2006-02-21 2008-12-11 엑사테크 엘.엘.씨. 윈도우 조립체를 위한 인쇄가능한 제어부

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104000657A (zh) * 2014-05-21 2014-08-27 上海交通大学 体内微型手术机器人

Also Published As

Publication number Publication date
US20130331861A1 (en) 2013-12-12
KR20120095746A (ko) 2012-08-29
EP2679193A2 (en) 2014-01-01
EP2679193A4 (en) 2017-07-12
KR101181613B1 (ko) 2012-09-10
WO2012115360A3 (ko) 2012-12-13
US9179980B2 (en) 2015-11-10
JP6007194B2 (ja) 2016-10-12
JP2014513578A (ja) 2014-06-05
CN103442661A (zh) 2013-12-11
CN103442661B (zh) 2016-02-10
CA2827927A1 (en) 2012-08-30

Similar Documents

Publication Publication Date Title
WO2012115360A2 (ko) 사용자 지정에 따라 결정되는 변위 정보에 기초하여 수술을 수행하는 수술용 로봇 시스템과 그 제어 방법
CN109275333B (zh) 用于控制机器人递送操纵器的系统、方法和计算机可读程序产品
CN108472084B (zh) 具有训练或辅助功能的外科手术系统
KR101762638B1 (ko) 최소 침습 수술 시스템에서 손 제스처 제어를 위한 방법 및 장치
KR101762631B1 (ko) 주 손가락 추적 장치 및 최소 침습 수술 시스템에서의 사용 방법
KR101785360B1 (ko) 최소 침습 수술 시스템에서 손 존재 검출을 위한 방법 및 시스템
KR101789064B1 (ko) 원격조종 최소 침습 종속 수술 기구의 손 제어를 위한 방법 및 시스템
US9044257B2 (en) Frame mapping and force feedback methods, devices and systems
US7274290B2 (en) Hygienic input device for medical information systems
WO2011040710A2 (ko) 단말기의 움직임 또는 자세에 기초하여 비주얼 서치를 수행하기 위한 방법, 단말기 및 컴퓨터 판독 가능한 기록 매체
CN113768625B (zh) 手术机器人系统的机械臂构型确定方法、装置和设备
CN115869069A (zh) 手术机器人控制方法、装置、设备、介质及系统
KR101956900B1 (ko) 최소 침습 수술 시스템에서 손 존재 검출을 위한 방법 및 시스템
CN114041874B (zh) 界面显示控制方法和装置、计算机设备和系统、及介质
CN116185205B (zh) 非接触手势交互方法和装置
Kim et al. A unified virtual fixture model for haptic telepresence systems based on streaming point cloud data and implicit surfaces
WO2013081260A1 (ko) 포인터 이동을 기반으로 그래픽 버튼을 선택하는 사용자 인터페이스 방법 및 이를 적용한 전자장치
WO2019164278A1 (ko) 수술영상을 이용한 수술정보 제공 방법 및 장치
CN115869068A (zh) 位姿调整方法、装置、设备、介质及手术机器人系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12749243

Country of ref document: EP

Kind code of ref document: A2

ENP Entry into the national phase

Ref document number: 2827927

Country of ref document: CA

Ref document number: 2013555354

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14000827

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2012749243

Country of ref document: EP