KR20200108124A - Surgical robot system for minimal invasive surgery and drive method thereof - Google Patents
Surgical robot system for minimal invasive surgery and drive method thereof Download PDFInfo
- Publication number
- KR20200108124A KR20200108124A KR1020190025580A KR20190025580A KR20200108124A KR 20200108124 A KR20200108124 A KR 20200108124A KR 1020190025580 A KR1020190025580 A KR 1020190025580A KR 20190025580 A KR20190025580 A KR 20190025580A KR 20200108124 A KR20200108124 A KR 20200108124A
- Authority
- KR
- South Korea
- Prior art keywords
- endoscope
- user
- head
- robot system
- driving
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/74—Manipulators with manual electric input means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00057—Operational features of endoscopes provided with means for testing or calibration
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00131—Accessories for endoscopes
- A61B1/00133—Drive units for endoscopic tools inserted through or with the endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/00234—Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00216—Electrical control of surgical instruments with eye tracking or head position tracking control
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/301—Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/368—Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0219—Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Veterinary Medicine (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Biophysics (AREA)
- Robotics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Gynecology & Obstetrics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Endoscopes (AREA)
Abstract
Description
본 발명은 최소 침습 수술을 위한 수술로봇 시스템 및 상기 수술로봇 시스템의 구동방법에 관한 것으로서, 상세하게는 수술로봇을 이용하여 수술을 진행하는 중에 사용자의 손을 사용하지 않고 사용자의 머리 움직임으로 내시경을 움직일 수 있으며, 나아가 상기 내시경과 로봇팔의 충돌을 방지할 수 있는 수술로봇 시스템 및 상기 수술로봇 시스템의 구동방법에 대한 것이다.The present invention relates to a surgical robot system for minimally invasive surgery and a driving method of the surgical robot system, and in detail, the endoscope is operated with the movement of the user's head without using the user's hand during the operation using the surgical robot. The present invention relates to a surgical robot system capable of moving, and further preventing a collision between the endoscope and a robot arm, and a driving method of the surgical robot system.
일반적으로 복강경은 복벽의 작은 구멍을 통해 삽입되어 담낭, 복막, 간장, 소화관 외측 등을 검사하기 위한 내시경을 말하며, 내시경 수술이란 기존의 피부 절개를 통해 시행하는 수술이 아닌 하나 또는 여러 개의 구멍을 통해 진행하는 수술을 말한다.In general, a laparoscope is an endoscope that is inserted through a small hole in the abdominal wall and is used to examine the gallbladder, peritoneum, liver, and the outside of the digestive tract. Endoscopic surgery is not a surgery performed through conventional skin incisions, but through one or several holes. It is an ongoing surgery.
이 경우, 복강경 내시경을 이용한 수술은 복부에 대략 지름 5mm 내지 1cm 가량의 작은 구멍을 두 군에 이상 형성하고, 상기 구멍으로 복강경이나 집게 또는 메스를 삽입하여, 복강경이 촬영하는 체내의 모양을 비디오 모니터 등을 통해서 화면을 화면서 행하는 수술에 해당한다.In this case, in the case of surgery using a laparoscopic endoscope, a small hole of approximately 5mm to 1cm in diameter is formed in two groups or more in the abdomen, and a laparoscope, forceps, or scalpel is inserted into the hole, and the shape of the body photographed by the laparoscope is video monitored. It corresponds to an operation performed on the screen through the screen.
또한, 로봇을 이용한 수술은 수술 도구를 움직일 수 있는 로봇의 동작을 의사 등이 제어하는 수술을 말한다. 특히, 복강경 로봇 수술은 복부에 여러 개의 구멍을 뚫은 후 상기 구멍으로 복강경 내시경과 함께 로봇수술을 위한 수술용 도구(end-effector)가 부착된 수술로봇의 로봇팔을 삽입하여 수술하는 것을 말한다.In addition, surgery using a robot refers to surgery in which a doctor or the like controls the operation of a robot capable of moving a surgical tool. In particular, laparoscopic robotic surgery refers to surgery by drilling a plurality of holes in the abdomen and inserting the robot arm of a surgical robot with an end-effector attached to the laparoscopic endoscope through the hole.
이러한 복강경 로봇수술의 경우, 기존의 개복수술보다 절개부위가 적어 환자의 회복시간이 빠르고, 고통 및 흉터도 적다는 장점뿐만 아니라 로봇팔을 이용하여 수술을 진행하기 때문에 더 정밀한 수술이 가능하게 된다. 또한, 로봇수술에서는 수술공간에 대한 깊이정보를 전달하기 위해 3D 영상을 제공할 수 있는 복강경 내시경과 디스플레이를 사용하여 수술을 진행하기에 2D 영상을 이용하는 복강경 수술보다 더 정확한 수술이 가능해진다.In the case of such laparoscopic robotic surgery, the patient's recovery time is faster, pain and scars are less due to fewer incisions than conventional open surgery, and more precise surgery is possible because the operation is performed using a robotic arm. In addition, since robotic surgery uses a laparoscopic endoscope and display that can provide 3D images to deliver depth information about the operating space, more accurate surgery is possible than laparoscopic surgery using 2D images.
종래기술에 따르면 복강경 수술과 같은 최소 침습 수술을 위해 대략 3개의 로봇팔과 내시경을 이용하여 수술을 진행하게 되며, 상기 로봇팔 및 내시경의 조작을 위하여 사용자의 양손으로 컨트롤러를 조작하게 된다. 이 경우, 복강경 내시경의 위치를 이동시키기 위해서는 발로 페달 등을 밟아서 조작 대상을 로봇팔에서 내시경으로 전환하여 내시경을 조작하게 된다. According to the prior art, surgery is performed using approximately three robotic arms and an endoscope for minimally invasive surgery such as laparoscopic surgery, and a controller is operated with both hands of a user to manipulate the robotic arm and the endoscope. In this case, in order to move the position of the laparoscopic endoscope, the operation target is switched from the robot arm to the endoscope by pressing a pedal or the like with a foot to operate the endoscope.
따라서, 사용자가 로봇팔에서 내시경으로 조작 대상을 전환하는 경우에 수술의 흐름이 끊기게 되고, 수술 도구의 충돌, 수술 부위의 손상, 수술 시간의 증가를 초래할 수 있다. 또한, 사용자의 손으로 로봇팔과 내시경을 동시에 제어하는 부분에 있어서 정밀한 제어를 위한 숙련도가 필요하게 된다.Therefore, when the user switches the operation object from the robot arm to the endoscope, the flow of surgery is interrupted, and collision of surgical tools, damage to the surgical site, and increase in operation time may occur. In addition, skill level for precise control is required in the portion of simultaneously controlling the robot arm and the endoscope with the user's hand.
본 발명은 전술한 문제점을 해결하기 위한 것으로서, 최소 침습 수술을 위한 수술로봇 시스템에 있어서 내시경을 이동시키는 경우에 사용자의 손으로 조작하지 않고 사용자의 머리에 헤드셋(headset)을 착용하고 상기 사용자의 머리 움직임에 대응하여 상기 내시경을 이동시킬 수 있는 수술로봇 시스템 및 상기 수술로봇 시스템의 구동방법을 제공하는데 목적이 있다.The present invention is to solve the above-described problem, in the case of moving the endoscope in a surgical robot system for minimally invasive surgery, without manipulating the user's hand, wearing a headset on the user's head and An object of the present invention is to provide a surgical robot system capable of moving the endoscope in response to movement and a driving method of the surgical robot system.
또한, 본 발명은 상기 헤드셋을 통해 상기 내시경을 통해 획득한 영상정보를 표시할 수 있도록 하는 수술로봇 시스템 및 상기 수술로봇 시스템의 구동방법을 제공하는데 목적이 있다.Another object of the present invention is to provide a surgical robot system capable of displaying image information acquired through the endoscope through the headset and a driving method of the surgical robot system.
나아가, 본 발명은 로봇팔 및 내시경을 이용하여 최소 침습 수술을 진행하는 중에 내시경과 로봇팔의 충돌을 방지할 수 있는 수술로봇 시스템 및 상기 수술로봇 시스템의 구동방법을 제공하는데 목적이 있다.Further, an object of the present invention is to provide a surgical robot system capable of preventing a collision between an endoscope and a robot arm during minimally invasive surgery using a robot arm and an endoscope, and a driving method of the surgical robot system.
또한, 본 발명은 사용자가 수술 부위의 영상을 확인하기 위한 대형 모니터를 필요치 않아 설치공간이 현격히 감소하여 공간효율을 증대시킬 수 있는 수술로봇 시스템 및 상기 수술로봇 시스템의 구동방법을 제공하는데 목적이 있다.In addition, an object of the present invention is to provide a surgical robot system and a driving method of the surgical robot system that can increase space efficiency by significantly reducing the installation space since the user does not need a large monitor for checking the image of the surgical site. .
상기와 같은 본 발명의 목적은 소정의 절개부위를 통해 수술공간으로 삽입되어 수술부위를 실시간으로 촬영하는 내시경, 상기 수술공간 내부에서 상기 내시경을 이동시키는 구동부, 사용자의 머리에 착탈 가능하게 착용되어 상기 사용자의 머리 움직임을 감지하여 상기 사용자의 머리움직임에 따라 자세정보를 생성하며, 상기 내시경에서 촬영된 2D 또는 3D 영상들을 표시하는 헤드셋(headset) 및 상기 헤드셋에서 생성된 자세정보에 따라 상기 구동부를 제어하도록 구동제어신호를 상기 구동부로 송신하며, 상기 내시경으로부터 영상정보를 수신하여 상기 헤드셋으로 전송하는 제어부를 포함하는 것을 특징으로 하는 최소 침습 수술을 위한 수술로봇 시스템에 의해 달성된다.An object of the present invention as described above is an endoscope that is inserted into an operating space through a predetermined incision to take a picture of the surgical site in real time, a driving unit that moves the endoscope within the operating space, and is detachably worn on the user's head. Detects the movement of the user's head and generates posture information according to the movement of the user's head, and controls the driving unit according to a headset displaying 2D or 3D images captured by the endoscope and posture information generated by the headset It is achieved by a surgical robot system for minimally invasive surgery, characterized in that it includes a control unit that transmits a driving control signal to the driving unit, and receives image information from the endoscope and transmits it to the headset.
여기서, 상기 헤드셋은 상기 제어부에서 전송되는 영상정보를 수신하는 영상수신부, 상기 영상수신부에 의해 수신된 상기 영상정보를 표시하는 영상표시부, 상기 사용자의 머리 이동, 회전 또는 각속도를 감지하여 상기 자세정보를 생성하는 자세감지센서 및 상기 자세정보를 상기 제어부로 송신하는 송신부를 구비할 수 있다.Here, the headset includes an image receiving unit that receives image information transmitted from the control unit, an image display unit that displays the image information received by the image receiving unit, and detects the movement, rotation, or angular velocity of the user's head to receive the posture information. A posture detection sensor to be generated and a transmission unit for transmitting the posture information to the control unit may be provided.
또한, 상기 자세감지센서는 상기 사용자의 머리의 피칭(pitching), 요잉(yawing) 및 롤링(rolling) 회전을 감지하여 상기 자세정보를 생성할 수 있다.In addition, the posture sensor may generate the posture information by detecting the pitching, yawing, and rolling rotation of the user's head.
한편, 상기 제어부는 상기 자세정보에 따라 상기 내시경의 상하회전, 좌우회전, 전진 및 후진의 구동제어신호를 상기 구동부로 송신할 수 있다.Meanwhile, the control unit may transmit driving control signals for vertical rotation, left and right rotation, forward and backward movement of the endoscope to the driving unit according to the posture information.
나아가, 상기 내시경은 상기 수술부위를 촬영하여 각각 영상정보를 생성하는 둘 이상의 촬영부를 구비하고, 상기 헤드셋의 영상표시부는 상기 둘 이상의 촬영부에서 각각 전송되는 영상정보를 교정(calibration)하여 표시할 수 있다.Further, the endoscope may include two or more photographing units for photographing the surgical site and generating image information, respectively, and the image display unit of the headset may calibrate and display image information transmitted from each of the two or more photographing units. have.
한편, 상기 제어부는 상기 사용자의 머리 움직임에 따른 상기 자세정보가 미리 정해진 임계값 이상에 해당하는 경우에 상기 구동제어신호를 생성할 수 있다.Meanwhile, the control unit may generate the driving control signal when the posture information according to the movement of the user's head falls above a predetermined threshold.
이 경우, 상기 제어부는 상기 사용자의 머리 이동거리 또는 회전각도에 비례하여 상기 내시경을 이동 또는 회전시키는 상기 구동제어신호를 생성할 수 있다.In this case, the controller may generate the driving control signal for moving or rotating the endoscope in proportion to the user's head movement distance or rotation angle.
한편, 상기 수술공간으로 삽입되어 상기 수술부위를 수술하기 위한 적어도 하나의 로봇팔을 더 구비하고, 상기 제어부는 상기 내시경과 상기 로봇팔 사이의 거리가 미리 정해진 최소값 이하인 경우에 상기 내시경과 상기 로봇팔의 충돌 방지를 위한 충돌방지제어신호를 생성하여 상기 구동부로 전송할 수 있다.On the other hand, further comprising at least one robot arm inserted into the surgical space for operating the surgical site, the control unit is the endoscope and the robot arm when the distance between the endoscope and the robot arm is less than a predetermined minimum value It is possible to generate a collision avoidance control signal for preventing collision of the vehicle and transmit it to the driving unit.
이때, 상기 제어부는 상기 내시경의 중심선과 상기 로봇팔의 중심선 사이의 최소거리가 상기 최소값 이하인 경우에 상기 충돌방지제어신호를 생성할 수 있다.In this case, the control unit may generate the collision prevention control signal when the minimum distance between the center line of the endoscope and the center line of the robot arm is less than the minimum value.
한편, 상기와 같은 본 발명의 목적은 사용자의 머리 움직임을 감지하여 자세정보를 생성하는 단계, 상기 자세정보에 따라 내시경을 이동시키는 구동제어신호를 생성하는 단계 및 상기 구동제어신호에 따라 상기 내시경을 이동시키는 단계를 포함하는 것을 특징으로 하는 수술로봇 시스템의 구동방법에 의해 달성된다.On the other hand, the object of the present invention as described above is the step of generating posture information by detecting the movement of the user's head, generating a drive control signal for moving the endoscope according to the posture information, and controlling the endoscope according to the drive control signal. It is achieved by a method of driving a surgical robot system comprising the step of moving.
여기서, 상기 자세정보를 생성하는 단계는 상기 사용자의 머리의 피칭(pitching), 요잉(yawing) 및 롤링(rolling) 회전을 감지하여 상기 자세정보를 생성할 수 있다.Here, the step of generating the posture information may generate the posture information by detecting the pitching, yawing, and rolling rotation of the user's head.
또한, 상기 구동제어신호를 생성하는 단계는 상기 내시경의 상하회전, 좌우회전, 전진 및 후진의 구동제어신호를 생성할 수 있다.In addition, generating the driving control signal may generate driving control signals for vertical rotation, left and right rotation, forward and backward rotation of the endoscope.
한편, 상기 구동제어신호를 생성하는 단계는 상기 사용자의 머리 움직임에 따른 상기 자세정보가 미리 정해진 임계값 이상에 해당하는 경우에 상기 구동제어신호를 생성할 수 있다.Meanwhile, in the generating of the driving control signal, the driving control signal may be generated when the posture information according to the movement of the user's head falls above a predetermined threshold.
또한, 상기 사용자의 머리 이동거리 또는 회전각도에 비례하여 상기 내시경을 이동 또는 회전시키는 상기 구동제어신호를 생성할 수 있다.In addition, the driving control signal for moving or rotating the endoscope in proportion to the user's head movement distance or rotation angle may be generated.
한편, 상기 수술공간으로 삽입되어 상기 수술부위를 수술하기 위한 적어도 하나의 로봇팔을 더 구비하고, 상기 내시경과 상기 로봇팔 사이의 거리가 미리 정해진 최소값 이하인 경우에 상기 내시경과 상기 로봇팔의 충돌 방지를 위한 충돌방지제어신호를 생성하는 단계를 더 포함할 수 있다.On the other hand, further provided with at least one robot arm to be inserted into the surgery space to operate on the surgical site, and prevent collision between the endoscope and the robot arm when the distance between the endoscope and the robot arm is less than a predetermined minimum value It may further include generating a collision prevention control signal for.
이때, 상기 내시경의 중심선과 상기 로봇팔의 중심선 사이의 최소거리가 상기 최소값 이하인 경우에 상기 충돌방지제어신호를 생성할 수 있다.In this case, when the minimum distance between the center line of the endoscope and the center line of the robot arm is less than the minimum value, the collision prevention control signal may be generated.
이와 같은 본 발명의 수술로봇 시스템 및 상기 수술로봇 시스템의 구동방법에 의하면, 내시경을 이동시키는 경우에 사용자의 손으로 조작하지 않고 사용자의 머리에 헤드셋(headset)을 착용하고 상기 사용자의 머리 움직임에 대응하여 상기 내시경을 이동시킴으로써, 수술의 흐름이 끊기지 않도록 하여 수술이 원활이 진행되도록 하여 수술시간을 단축할 수 있다.According to the surgical robot system of the present invention and the driving method of the surgical robot system, when the endoscope is moved, a headset is worn on the user's head without manipulation by the user's hand, and the user's head movement is responded to. Thus, by moving the endoscope, the flow of the operation is not interrupted so that the operation proceeds smoothly, and the operation time can be shortened.
또한, 본 발명에 따르면, 사용자가 헤드셋을 통해 상기 내시경을 통해 획득한 영상정보를 확인할 수 있도록 하여 사용자가 별도의 표시부를 응시하는 경우에 사용자의 목이나 어깨에 피로가 누적되는 것을 방지할 수 있다.In addition, according to the present invention, by allowing the user to check the image information acquired through the endoscope through the headset, fatigue can be prevented from accumulating in the user's neck or shoulder when the user gazes at a separate display unit. .
나아가, 본 발명에 따르면 로봇팔 및 내시경을 이용하여 최소 침습 수술을 진행하는 중에 내시경과 로봇팔의 충돌을 방지하여, 수술공간에 위치한 장기, 동맥과 정맥과 같은 각종 혈관 또는 신경 등의 손상을 방지할 수 있다.Further, according to the present invention, by preventing collision between the endoscope and the robot arm during minimally invasive surgery using a robot arm and an endoscope, damage to various blood vessels such as organs, arteries and veins, etc. can do.
또한, 본 발명에 따르면 사용자가 수술 부위의 영상을 확인하기 위한 대형 모니터를 필요로 하지 않고, 사용자의 머리에 착용하는 헤드셋을 이용하여 내시경의 구동 제어 및 영상확인이 가능하게 되어, 수술로봇 시스템의 설치공간이 현격히 감소하여 공간효율을 증대시킬 수 있다.In addition, according to the present invention, the user does not need a large monitor to check the image of the surgical site, and it is possible to control the driving of the endoscope and check the image using a headset worn on the user's head. Installation space can be significantly reduced and space efficiency can be increased.
도 1은 본 발명의 일 실시예에 따른 수술로봇 시스템의 구성을 도시한 개략도,
도 2는 상기 수술로봇 시스템을 사용하는 사용자의 머리에 착용되는 헤드셋(headset)의 구성을 도시한 블록도,
도 3은 내시경의 말단부를 도시한 일부 사시도,
도 4는 사용자가 상기 헤드셋을 착용한 상태에서 머리를 이동 또는 회전시키는 동작을 도시한 개략도,
도 5는 구동부에 의해 상기 내시경의 움직임을 구현하는 동작을 개략적으로 도시한 도면
도 6은 제어부에 의해 상기 내시경과 로봇팔의 충돌방지를 위한 제어동작을 설명하기 위한 도면
도 7은 전술한 구성을 가지는 수술로봇 시스템의 구동방법을 도시한 순서도이다.1 is a schematic diagram showing the configuration of a surgical robot system according to an embodiment of the present invention,
2 is a block diagram showing the configuration of a headset worn on the head of a user using the surgical robot system;
3 is a partial perspective view showing the distal end of the endoscope,
4 is a schematic diagram showing an operation of moving or rotating a head while a user is wearing the headset;
5 is a diagram schematically showing an operation of implementing the movement of the endoscope by a driving unit
6 is a view for explaining a control operation for preventing collision between the endoscope and the robot arm by a control unit
7 is a flow chart showing a method of driving the surgical robot system having the above-described configuration.
이하에서는 첨부된 도면을 참고하여 본 발명의 바람직한 실시예를 상세하게 설명한다. 특별한 정의가 없는 한 본 명세서의 모든 용어는 본 발명이 속하는 기술분야의 통상의 기술자가 이해하는 당해 용어의 일반적 의미와 동일하고, 만약 본 명세서에 사용된 용어가 당해 용어의 일반적 의미와 충돌하는 경우에는 본 명세서에 사용된 정의에 따른다. 한편, 이하에 기술될 장치의 구성이나 제어방법은 본 발명의 실시예를 설명하기 위한 것일 뿐 본 발명의 권리범위를 한정하기 위함은 아니며, 명세서 전반에 걸쳐서 동일하게 사용된 참조번호들은 동일한 구성요소들을 나타낸다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Unless otherwise defined, all terms in this specification are the same as the general meanings of those terms understood by one of ordinary skill in the art to which the present invention belongs, and if the terms used in the present specification conflict with the general meaning of the terms. Is in accordance with the definitions used herein. On the other hand, the configuration or control method of the device to be described below is for explaining the embodiment of the present invention, not to limit the scope of the present invention, and reference numerals used identically throughout the specification are the same components. Show them.
이하에서는 도면을 참조하여 본 발명의 다양한 실시예에 따른 최소 침습 수술을 위한 수술로봇 시스템 및 상기 수술로봇 시스템의 구동방법에 대해서 살펴본다. 먼저, 상기 수술로봇 시스템에 대해서 살펴보고, 이어서 상기 수술로봇 시스템의 구동방법에 대해서 살펴보기로 한다.Hereinafter, a surgical robot system for minimally invasive surgery and a driving method of the surgical robot system according to various embodiments of the present invention will be described with reference to the drawings. First, the surgical robot system will be described, and then the operation method of the surgical robot system will be described.
도 1은 본 발명의 일 실시예에 따른 수술로봇 시스템(1000)의 구성을 도시한 개략도이고, 도 2는 수술로봇 시스템(1000)을 사용하는 집도의(이하 '사용자'라고 한다)의 머리에 착용되는 헤드셋(headset)(100)의 구성을 도시한 블록도이다.1 is a schematic diagram showing the configuration of a
도 1 및 도 2를 참조하면, 상기 수술로봇 시스템(1000)은 소정의 절개부위(21, 23, 25, 27)를 통해 수술공간(12)으로 삽입되어 수술부위를 실시간으로 촬영하는 내시경(430), 상기 수술공간(12) 내부에서 상기 내시경(430)을 이동시키는 구동부(300), 사용자(10)(도 5 참조)의 머리에 착탈 가능하게 착용되어 상기 사용자의 머리 움직임을 감지하여 상기 사용자의 머리움직임에 따라 자세정보를 생성하며, 상기 내시경(430)에서 촬영된 2D 또는 3D 영상들을 표시하는 헤드셋(100) 및 상기 헤드셋(100)에서 생성된 자세정보에 따라 상기 구동부(300)를 제어하도록 구동제어신호를 상기 구동부(300)로 송신하며, 상기 내시경(430)으로부터 영상정보를 수신하여 상기 헤드셋(100)으로 전송하는 제어부(200)를 포함할 수 있다.1 and 2, the
또한, 상기 수술로봇 시스템(1000)은 상기 수술공간(12)으로 삽입되어 상기 수술부위를 수술하기 위한 적어도 하나의 로봇팔(410)을 더 구비할 수 있다.In addition, the
종래기술에 따르면 최소 침습 수술을 위해 대략 3개의 로봇팔과 내시경을 이용하여 수술을 진행하게 되며, 상기 로봇팔의 조작을 위하여 사용자의 양손으로 별도의 컨트롤러를 조작하게 된다. 이 경우, 상기 내시경의 위치를 이동시키기 위해서는 상기 로봇팔의 컨트롤러 이외의 별도의 내시경 컨트롤러를 사용하게 된다. 따라서, 사용자가 로봇팔 컨트롤러에서 내시경 컨트롤러를 조작하기 위해 손을 이동시키는 경우 수술의 흐름이 끊기게 되고, 수술 도구의 충돌, 수술 부위의 손상, 수술 시간의 증가를 초래할 수 있다. According to the prior art, surgery is performed using approximately three robotic arms and an endoscope for minimally invasive surgery, and separate controllers are operated with both hands of a user to manipulate the robotic arm. In this case, in order to move the position of the endoscope, an endoscope controller other than the controller of the robot arm is used. Therefore, when the user moves his or her hand from the robotic arm controller to manipulate the endoscope controller, the flow of surgery may be interrupted, resulting in collision of surgical tools, damage to the surgical site, and increase in operation time.
종래기술의 다른 타입에 따르면 상기 내시경을 이동시키기 위하여 발로 조작하는 조작부를 구비한 장치도 있으나, 발로 조작하는 경우에 손으로 조작하는 경우에 비해 섬세한 조작이 상대적으로 곤란하여, 전술한 문제점을 완전히 해결하지는 못하게 된다.According to another type of the prior art, there is a device equipped with an operation unit that operates with a foot to move the endoscope. However, in the case of operation with a foot, detailed operation is relatively difficult compared to the case of manual operation, so that the aforementioned problem is completely solved. You can't do it.
본 발명의 경우 전술한 문제점을 해결하기 위하여 사용자의 머리에 헤드셋(100)을 착용하고, 사용자의 머리 움직임을 감지하여 상기 사용자의 머리 움직임에 따라 상기 내시경(430)을 이동시키게 된다. 따라서, 사용자는 손으로 상기 로봇팔의 컨트롤러를 조작하고, 머리로 상기 내시경의 이동을 조작하여 수술의 흐름이 끊기지 않고 수술 시간을 단축시킬 수 있다.In the case of the present invention, in order to solve the above-described problem, the
또한, 사용자가 상기 헤드셋(100)을 착용하는 경우에 상기 헤드셋(100)을 통해 상기 내시경(430)에서 촬영된 영상을 표시하여 사용자가 별도의 표시부를 응시하는 경우에 사용자의 목이나 어깨에 피로가 누적되는 것을 방지할 수 있다.In addition, when the user wears the
도 1 및 도 2를 참조하면, 상기 수술공간(12)은 사람 또는 동물의 몸체 내부에 해당하며, 상기 수술공간(12)에는 장기(15), 동맥과 정맥과 같은 각종 혈관(17) 또는 신경(19) 등이 분포할 수 있다.1 and 2, the operating
상기 로봇팔(410)과 내시경은 미리 형성된 절개부위(21, 23, 25, 27)를 통해 그 하단부가 상기 수술공간(12)의 내측으로 삽입될 수 있다. The
상기 로봇팔(410)은 상기 수술공간(12)의 내측에서 상기 수술부위에 대해 필요한 조치를 취할 수 있는 수술도구 등을 그 하단부에 구비할 수 있으며, 특정한 형태로 한정하지는 않는다.The
한편, 상기 절개부위(21, 23, 25, 27)는 상기 내시경(430) 또는 로봇팔(410)의 하단부가 삽입될 수 있는 크기 또는 직경을 가지는 복강공과 같은 구멍으로 이루어질 수 있다.Meanwhile, the
상기 절개부위(21, 23, 25, 27)의 개수는 수술에 필요한 상기 로봇팔(410)과 내시경(430)의 개수에 대응하도록 결정될 수 있다. 예를 들어, 도면에 도시된 바와 같이 3개의 로봇팔(410)과 1개의 내시경(430)을 이용하여 수술을 진행하는 경우에 상기 절개부위(21, 23, 25, 27)는 상기 내시경(430)의 삽입을 위한 1개의 내시경 절개부위(21)와, 상기 로봇팔(410)의 삽입을 위한 3개의 로봇팔 절개부위(23, 25, 27)로 이루어질 수 있다. The number of the
다만, 본 발명에서 설명하는 상기 절개부위(21, 23, 25, 27)의 개수는 일예를 들어 설명한 것에 불과하며, 적절하게 변형될 수 있다.However, the number of the
한편, 사용자의 머리에 착용될 수 있는 헤드셋(100)은 최근 들어 활발히 개발되고 있는 VR 헤드셋(virtual reality headset) 등의 형태로 구현될 수 있다. 하지만, 상기 헤드셋(100)은 단순히 VR 기기의 형태에 한정되지 않으며 다양한 예로 구현이 가능하다.Meanwhile, the
본 발명에서 상기 헤드셋(100)은 상기 제어부(200)에서 전송되는 영상정보를 수신하는 영상수신부(130), 상기 영상수신부(130)에 의해 수신된 상기 영상정보를 표시하는 영상표시부(110)와, 상기 사용자의 머리 이동, 회전 또는 각속도를 감지하여 상기 자세정보를 생성하는 자세감지센서(150) 및 상기 자세정보를 상기 제어부(200)로 송신하는 송신부(170)를 구비할 수 있다.In the present invention, the
상기 내시경(430)에서 촬영된 영상정보는 상기 제어부(200)로 전송되고, 이어서 상기 헤드셋(100)의 영상수신부(130)로 전송된다. 상기 영상수신부(130)는 무선 또는 유선으로 상기 제어부(200)와 연결되어, 상기 제어부(200)에서 상기 영상정보를 전송받을 수 있다.The image information captured by the
한편, 상기 헤드셋(100)의 영상수신부(130)로 수신된 상기 영상정보는 상기 헤드셋(100)의 영상표시부(110)를 통해 표시된다.Meanwhile, the image information received by the
이 경우, 상기 헤드셋(100)에는 사용자의 양측 눈에 대응하는 위치에 머리 착용 디스플레이(HMD, Head Mounted Display)와 같은 형태로 상기 영상표시부(110)가 제공될 수 있다.In this case, the
따라서, 사용자는 상기 영상표시부(110)를 통해 상기 내시경(430)에서 촬영되는 영상정보를 실시간으로 인식하여 수술을 진행할 수 있다.Accordingly, the user can perform an operation by recognizing image information captured by the
한편, 도 3은 상기 내시경(430)의 하단부를 도시한 일부 사시도이다.Meanwhile, FIG. 3 is a partial perspective view showing the lower end of the
도 3을 참조하면, 상기 내시경(430)은 상기 수술부위를 촬영하여 각각 영상정보를 생성하는 둘 이상의 촬영부(432)를 구비할 수 있다.Referring to FIG. 3, the
즉, 본 실시예에 따른 상기 내시경(430)은 소위 '스테레오 비젼(stereo vision)'을 제공하기 위하여 예를 들어 2개의 촬영부(432)를 구비할 수 있다.That is, the
이 경우, 상기 둘 이상의 촬영부(432)에서 각각 촬영되는 영상정보는 서로 상이한 영상정보로 구성될 수 있다. 따라서, 상기 헤드셋(100)의 영상표시부(110)는 상기 둘 이상의 촬영부(432)에서 각각 전송되는 영상정보를 교정(calibration)하여 표시하게 된다. In this case, image information photographed by the two or more photographing
상기 둘 이상의 촬영부(432)에서 각각 전송되는 영상정보를 교정하지 않고, 그대로 상기 영상표시부(110)를 통해서 표시하게 된다면 사용자가 영상을 제대로 정확하게 인식하지 못하기 때문이다.This is because if the image information transmitted from each of the two or more photographing
한편, 도 1 및 도 2를 다시 참조하면, 상기 헤드셋(100)에는 상기 사용자의 머리 움직임을 감지하기 위한 각종 자세감지센서(150)를 구비할 수 있다.Meanwhile, referring again to FIGS. 1 and 2, the
예를 들어, 상기 자세감지센서(150)는 상기 사용자의 머리의 피칭(pitching), 요잉(yawing) 및 롤링(rolling) 회전을 감지하여 상기 자세정보를 생성하여 상기 제어부(200)로 전송할 수 있다.For example, the
이를 위하여 상기 자세감지센서(150)는 예를 들어 자이로스코프(Gyroscope), 가속도계, 자력계 등을 포함하는 MEMS(Micro-electrical-mechanical system) 센서로 구성될 수 있다. 상기 자세감지센서(150)의 종류는 일예를 들어 설명한 것에 불과하며, 전술한 구성에 한정되지는 않는다. 나아가, 상기 사용자의 머리의 피칭(pitching), 요잉(yawing) 및 롤링(rolling) 회전 이외에 사용자의 머리의 전진 또는 후진 등과 같은 다양한 움직임도 물론 감지하도록 상기 자세감지센서(150)가 구성될 수 있다.To this end, the
한편, 도 4는 사용자(10)가 상기 헤드셋(100)을 착용한 상태에서 머리를 이동 또는 회전시키는 동작을 도시한 개략도이다.Meanwhile, FIG. 4 is a schematic diagram illustrating an operation of moving or rotating a head while the
도 4에 도시된 바와 같이, 사용자는 상기 헤드셋(100)을 착용한 상태에서 머리를 상하방향으로 회전, 좌우방향으로 회전 또는 측면으로 회전할 수 있다.As shown in FIG. 4, the user can rotate the head vertically, horizontally, or laterally while wearing the
이 경우, 사용자의 머리를 상하방향으로 회전시키는 경우가 피칭(pitching)(A)에 해당하며, 좌우방향으로 회전하는 경우가 요잉(yawing)(B)에 해당하며, 측면으로 회전하는 경우가 롤링(rolling)(C)에 해당한다.In this case, the case of rotating the user's head up and down corresponds to pitching (A), the case of rotating left and right corresponds to yawing (B), and the case of rotating to the side corresponds to rolling. Corresponds to (rolling)(C).
상기 자세감지센서(150)에서 상기 사용자의 머리 움직임을 통해 감지된 측정값은 예를 들어 API(Application Programming Interface) 함수 등을 이용하여 융합, 교정, 예측 과정을 거쳐 피칭(pitching), 요잉(yawing) 및 롤링(rolling) 회전 방향 값을 실시간으로 상기 제어부(200)로 제공하게 된다.The measured value detected through the movement of the user's head by the
이 경우, 상기 제어부(200)는 상기 자세감지센서(150)에서 전송된 자세정보에 따라 상기 내시경(430)의 상하회전, 좌우회전, 전진 및 후진의 구동제어신호를 생성하여 상기 구동부(300)로 송신하게 된다.In this case, the
사용자가 상기 헤드셋(100)을 착용하여 상기 영상표시부(110)를 통해 상기 내시경(430)에서 실시간으로 전송되는 영상을 확인하는 경우, 보고 싶은 영역으로 머리를 회전시키게 된다.When the user wears the
따라서, 전술한 바와 같이 상기 헤드셋(100)에 구비된 상기 자세감지센서(150)에서 상기 사용자의 머리 움직임 또는 피칭(pitching), 요잉(yawing) 및 롤링(rolling)의 회전방향을 감지하여 측정값을 상기 제어부(200)로 전송하게 된다. Therefore, as described above, the
결국, 본 실시예의 경우 상기 사용자의 머리 움직임 또는 회전이 직접 상기 내시경(430)의 이동 또는 회전 움직임으로 구현되어, 상기 내시경(430)의 직관적이고 직접적인 제어가 가능하게 된다.Consequently, in the present embodiment, the movement or rotation of the user's head is directly implemented as a movement or rotation movement of the
예를 들어, 상기 헤드셋(100)을 착용한 사용자가 머리를 상하방향으로 회전시키는 경우, 즉 피칭(pitching)(A)에 해당하는 측정값이 전송되는 경우에 상기 제어부(200)는 상기 내시경(430)을 상하방향으로 회전시키는 구동제어신호를 생성하여 상기 구동부(300)로 전송할 수 있다.For example, when the user wearing the
또한, 상기 헤드셋(100)을 착용한 사용자가 머리를 좌우방향으로 회전시키는 경우, 즉 요잉(yawing)(B)에 해당하는 측정값이 전송되는 경우에 상기 제어부(200)는 상기 내시경(430)을 좌우방향으로 회전시키는 구동제어신호를 생성하여 상기 구동부(300)로 전송할 수 있다.In addition, when the user wearing the
나아가, 상기 헤드셋(100)을 착용한 사용자가 머리를 측면방향으로 회전시키는 경우, 즉 롤링(rolling)(C)에 해당하는 측정값이 전송되는 경우에 상기 제어부(200)는 상기 내시경(430)을 전진 또는 후진시키는 구동제어신호를 생성하여 상기 구동부(300)로 전송할 수 있다. 예를 들어, 머리를 Z축을 중심으로 왼쪽으로 기울이는 경우에 상기 내시경(430)을 전진시키고, 머리를 Z축을 중심으로 오른쪽으로 기울이는 경우에 상기 내시경(430)을 후진시키도록 구동제어신호를 생성할 수 있다.Further, when the user wearing the
한편, 상기 사용자의 머리의 롤링에 대응하는 구동제어신호는 일예를 들어 설명한 것에 불과하며 다른 구동제어신호가 생성되는 것도 가능하다.Meanwhile, the driving control signal corresponding to the rolling of the user's head is only described as an example, and other driving control signals may be generated.
또한, 상기 사용자의 머리의 피칭(pitching), 요잉(yawing) 및 롤링(rolling) 회전 이외에 사용자의 머리의 전진 또는 후진 등과 같은 움직임을 감지하여 이에 대응하는 상기 내시경(430)의 움직임도 물론 구현할 수 있다.In addition, in addition to the pitching, yawing and rolling rotation of the user's head, movement of the
도 5는 전술한 바와 같이 상기 제어부(200)에 의해 상기 구동부(300)로 상기 구동제어신호가 전송되어, 상기 구동부(300)에 의해 상기 내시경(430)의 움직임을 구현하는 동작을 개략적으로 도시한 도면이다.5 schematically shows the operation of implementing the movement of the
도 5를 참조하면, 상기 내시경(430)의 상단부는 상기 구동부(300)에 연결될 수 있으며, 상기 내시경(430)의 하단부는 상기 내시경 절개부위(21)를 통해 전술한 수술공간(12)으로 삽입될 수 있다.5, the upper end of the
상기 내시경 절개부위(21)는 상기 내시경(430)이 통과할 수 있는 직경 또는 크기의 복강공 등으로 이루어질 수 있다.The
이때, 상기 내시경(430)의 이동 또는 회전으로 인해 상기 내시경 절개부위(21)가 벌어지거나 손상을 받을 수 있으며, 이는 신체의 손상을 최소화하며 수술을 안전하고 정확하게 수행하고자 하는 최소 침습 수술을 저해하는 동작에 해당한다.At this time, the
따라서, 본 실시예에 따른 수술로봇 시스템(1000)의 경우, 상기 구동부(300)에 의해 상기 내시경(430)을 이동 또는 회전시키는 경우에 상기 내시경 절개부위(21)를 중심으로 상기 내시경(430)이 회전할 수 있는 영역(D) 내에서 상기 내시경(430)이 움직이도록 제어하게 된다.Therefore, in the case of the
즉, 상기 내시경(430)이 이동 또는 회전을 하는 경우에 상기 내시경 절개부위(21)는 벌어지거나 손상받지 않게 되어 환자의 신체의 손상을 최소화하여 안전하게 수술을 진행할 수 있다.That is, when the
도 5에는 도시되지 않았지만, 상기 내시경 절개부위(21)에는 상기 내시경(430)의 이동을 제한하는 제한부(미도시)를 더 구비할 수 있다. 예를 들어, 상기 제한부는 상기 내시경 절개부위(21)의 상부에 위치하고, 상기 내시경(430)이 관통할 수 있는 고리 또는 개구부를 구비할 형태를 가질 수 있다.Although not shown in FIG. 5, the
따라서, 상기 내시경(430)이 상기 제한부를 관통하여 상기 상기 내시경 절개부위(21)를 통해 수술공간(12)으로 삽입된다면, 상기 내시경(430)의 상단부를 이동시키거나 회전시키는 경우에 상기 내시경(430)의 하단부를 이동시키거나 회전시킬 수 있다.Therefore, if the
또한, 상기 제한부에 의해 상기 내시경 절개부위(21)에 인접한 상기 내시경(430)의 움직임의 반경을 줄일 수 있게 되어 상기 내시경 절개부위(21)의 손상 또는 벌어짐을 방지할 수 있다.In addition, the limiting portion makes it possible to reduce the radius of movement of the
한편, 사용자가 한 방향을 계속해서 응시하는 경우에도 사용자의 머리는 완전히 고정된 상태가 아니라 미세하게 움직임 또는 회전동작이 발생할 수 있다. 특히, 사용자가 상기 로봇팔(410)을 조작하여 수술을 진행하는 중이라면 사용자가 하나의 일정 영역의 수술부위를 계속 응시하는 경우에도 사용자의 머리는 미세하게 움직이거나 회전할 수 있다.On the other hand, even when the user continues to stare in one direction, the user's head is not completely fixed, but a minute movement or rotation may occur. In particular, if the user is operating the
사용자가 일정 영역의 수술부위를 계속 응시하는 중에 사용자의 머리가 미세하게 움직이거나 회전하는 경우에도 이에 대응하여 상기 내시경(430)을 이동 또는 회전시키도록 상기 제어부(200)에서 상기 구동제어신호를 생성할 수도 있다. 이 경우, 상기 구동제어신호를 전송받은 상기 구동부(300)에 의해 상기 내시경(430)이 이동 또는 회전하게 된다면, 이는 사용자가 원하지 않는 경우에도 상기 내시경(430)을 움직이게 되어 수술을 원할하게 진행하는데 오히려 방해가 될 수 있다.The
따라서, 상기 제어부(200)는 상기 사용자의 머리 움직임에 따른 상기 자세정보가 미리 정해진 임계값 이상에 해당하는 경우에 상기 구동제어신호를 생성할 수 있다.Accordingly, the
즉, 상기 사용자의 머리 움직임에 따른 상기 자세정보가 미리 정해진 임계값보다 작은 경우에는 사용자가 의도적으로 머리를 움직인 것이 아니라 의도치 않게 머리가 움직인 것으로 판단하여 상기 구동제어신호를 생성하지 않게 된다.That is, if the posture information according to the movement of the user's head is smaller than a predetermined threshold, it is determined that the user has not intentionally moved the head but has unintentionally moved the head, and thus the drive control signal is not generated. .
반면에, 상기 사용자의 머리 움직임에 따른 상기 자세정보가 미리 정해진 임계값 이상인 경우에는 사용자가 의도적으로 머리를 움직인 것으로 판단하여 상기 구동제어신호를 생성하여 상기 구동부(300)로 전송하게 된다.On the other hand, when the posture information according to the movement of the user's head exceeds a predetermined threshold, it is determined that the user has intentionally moved his or her head, and the driving control signal is generated and transmitted to the
한편, 상기 사용자의 머리 움직임에 따른 상기 자세정보가 미리 정해진 임계값 이상인 경우, 상기 제어부(200)는 상기 사용자의 머리 이동거리 또는 회전각도에 비례하여 상기 내시경(430)을 이동 또는 회전시키는 상기 구동제어신호를 생성하게 된다.On the other hand, when the posture information according to the movement of the user's head exceeds a predetermined threshold, the
예를 들어, 사용자의 머리의 회전에 따라 측정값이 임계값 이상이 되면 실시간 회전값과 비례하여 적정 속도를 가지는 구동제어신호를 상기 구동부(300)로 전송하여 사용자의 머리의 회전 정도에 따라 상기 내시경(430)의 속도가 제어될 수 있다.For example, when the measured value exceeds the threshold value according to the rotation of the user's head, a driving control signal having an appropriate speed in proportion to the real-time rotation value is transmitted to the
한편, 본 실시예와 같이 헤드셋(100)을 이용하여 상기 내시경(430)의 움직임을 제어하는 경우, 상기 내시경(430) 만을 통해서 수술부위를 관찰하게 되므로 상기 수술공간으로 삽입된 내시경(430)과 로봇팔(410)의 충돌이 발생할 수 있다. 특히, 상기 로봇팔(410)을 전술한 바와 같이 복수개 구비하는 경우에 상기 로봇팔(410)과 내시경(430)의 충돌 가능성이 높아지게 된다. 상기 로봇팔(410)과 내시경(430)이 충돌하게 되면, 상기 수술공간(12)에 위치한 장기(15), 동맥과 정맥과 같은 각종 혈관(17) 또는 신경(19) 등에 손상이 발생할 수 있다.On the other hand, in the case of controlling the movement of the
이미 살펴본 바와 같이, 최소 침습 수술은 신체의 손상을 최소화하며 수술의 정확성과 안전성을 높일 수 있는 수술에 해당한다. 따라서, 상기 수술공간(12) 내에서 상기 수술로봇 시스템(1000)에 의해 수술을 진행하는 경우에 상기 로봇팔(410)과 내시경(430)의 충돌을 방지할 필요가 있다.As we have already seen, minimally invasive surgery is a surgery that minimizes damage to the body and increases the accuracy and safety of surgery. Therefore, when the surgery is performed by the
도 6은 상기 제어부(200)에 의해 상기 내시경(430)과 로봇팔(410)의 충돌방지를 위한 제어동작을 설명하기 위한 도면에 해당한다. 도 6에서는 설명의 편의를 위해 상기 로봇팔(410)을 하나만 도시하였음을 밝혀둔다.6 is a diagram for explaining a control operation for preventing collision between the
도 6을 참조하면, 상기 제어부(200)는 상기 내시경(430)과 상기 로봇팔(410) 사이의 거리가 미리 정해진 최소값 이하인 경우에 상기 내시경(430)과 상기 로봇팔(410)의 충돌 방지를 위한 충돌방지제어신호를 생성하여 상기 구동부(300)로 전송할 수 있다.6, when the distance between the
상기 제어부(200)는 상기 내시경(430)과 로봇팔(410)을 일방향으로 길게 연장된 직육면체의 형상으로 설정하여 인식하게 된다. 이 경우, 상기 제어부(200)는 상기 내시경(430)의 직육면체와 상기 로봇팔(410)의 직육면에 사이에 교차점이 발생하지 않도록 상기 내시경(430) 또는 로봇팔(410)의 움직임을 제어하게 된다.The
이와 같이, 상기 제어부(200)가 상기 내시경(430)과 로봇팔(410)의 형상을 직육면체 형상으로 설정하여 인식함으로써, 복잡한 수술 도구와 내시경의 형상을 단순화하여 제어하는 것이 가능해진다.As described above, the
구체적으로, 상기 제어부(200)는 상기 내시경(430)의 직육면체의 중심부를 관통하는 제1 중심선(432)과 상기 로봇팔(410)의 직육면체의 중심부를 관통하는 제2 중심선(412)을 설정할 수 있다.Specifically, the
상기 제어부는 상기 제1 중심선(432)과 제2 중심선(412)의 3차원 위치 또는 속도정보와 같은 상태정보를 상기 내시경(430)과 로봇팔(410)에서 각각 전달받을 수 있다.The controller may receive state information such as 3D position or speed information of the
이 경우, 상기 제어부는 상기 제1 중심선(432)과 제2 중심선(412) 사이의 최소거리(L)가 상기 최소값 이하인 경우에 상기 충돌방지제어신호를 생성할 수 있다.In this case, the controller may generate the collision prevention control signal when the minimum distance L between the
상기 최소값은 상기 내시경(430)과 로봇팔(410)의 각각의 두께 또는 단면적을 고려하여 상기 내시경(430)이 상기 최소거리를 증가시키도록 움직임이 가능한 충분한 제어시간을 가지도록 적절하게 설정될 수 있다.The minimum value may be appropriately set to have a sufficient control time to allow movement of the
한편, 전술한 바와 같이 상기 내시경(430) 및 로봇팔(410)의 충돌방지를 위해서는 상기 내시경(430) 및 로봇팔(410)의 위치 또는 속도정보와 같은 상태정보가 실시간으로 상기 제어부(200)로 전송될 수 있다.Meanwhile, as described above, in order to prevent collision between the
예를 들어, 상기 수술로봇 시스템(1000)은 상기 내시경(430) 및 로봇팔(410)의 위치정보를 추출할 수 있는 위치 추출부(미도시)를 더 구비할 수 있다.For example, the
상기 위치 추출부는 예를 들어 광학추적기(Optical Tracker), 카메라 등을 이용하여 실시간으로 상기 수술공간(12)으로 삽입된 상기 내시경(430)과 로봇팔(410)의 위치를 추출할 수 있다.The location extraction unit may extract the positions of the
상기 위치 추출부에 의해 상기 내시경(430) 및 로봇팔(410)의 위치를 실시간으로 파악하는 경우에, 상기 제어부(200)는 궤적추정(trajectory estimation) 등을 통해 상기 내시경(430) 및 로봇팔(410)의 예상경로를 파악하여 전술한 충돌방지제어신호를 생성할 수 있다.When the position of the
도 7은 전술한 구성을 가지는 수술로봇 시스템(1000)의 구동방법을 도시한 순서도이다.7 is a flow chart showing a method of driving the
도 7을 참조하면, 상기 수술로봇 시스템(1000)의 구동방법은 사용자의 머리 움직임을 감지하여 자세정보를 생성하는 단계(S710)와, 상기 자세정보에 따라 상기 내시경(430)을 이동시키는 구동제어신호를 생성하는 단계(S730)와, 상기 구동제어신호에 따라 상기 내시경(430)을 이동시키는 단계(S750)를 포함할 수 있다.Referring to FIG. 7, the driving method of the
먼저, 상기 상기 자세정보를 생성하는 단계(S710)는 상기 사용자의 머리의 피칭(pitching), 요잉(yawing) 및 롤링(rolling) 회전을 감지하여 상기 자세정보를 생성하게 된다.First, in the step of generating the posture information (S710), the posture information is generated by detecting the pitching, yawing, and rolling rotation of the user's head.
이 경우, 상기 사용자는 헤드셋(100)을 머리에 착용하게 되며, 상기 사용자의 머리의 이동 또는 회전방향을 상기 헤드셋(100)에 의해 감지하여 상기 자세정보를 생성하게 된다.In this case, the user wears the
또한, 상기 구동제어신호를 생성하는 단계(S730)는 상기 내시경(430)의 상하회전, 좌우회전, 전진 및 후진의 구동제어신호를 생성하게 된다.In addition, in the step of generating the driving control signal (S730), driving control signals for vertical rotation, left and right rotation, forward and backward rotation of the
예를 들어, 상기 헤드셋(100)에 구비된 상기 자세감지센서(150)에서 상기 사용자의 머리 움직임 또는 피칭(pitching), 요잉(yawing) 및 롤링(rolling)의 회전방향을 감지하여 측정값을 상기 제어부(200)로 전송하게 된다. For example, the
예를 들어, 상기 헤드셋(100)을 착용한 사용자가 머리를 상하방향으로 회전시키는 경우, 즉 피칭(pitching)(A)에 해당하는 측정값이 전송되는 경우에 상기 제어부(200)는 상기 내시경(430)을 상하방향으로 회전시키는 구동제어신호를 생성하여 상기 구동부(300)로 전송할 수 있다.For example, when the user wearing the
또한, 상기 헤드셋(100)을 착용한 사용자가 머리를 좌우방향으로 회전시키는 경우, 즉 요잉(yawing)(B)에 해당하는 측정값이 전송되는 경우에 상기 제어부(200)는 상기 내시경(430)을 좌우방향으로 회전시키는 구동제어신호를 생성하여 상기 구동부(300)로 전송할 수 있다.In addition, when the user wearing the
나아가, 상기 헤드셋(100)을 착용한 사용자가 머리를 측면방향으로 회전시키는 경우, 즉 롤링(rolling)(C)에 해당하는 측정값이 전송되는 경우에 상기 제어부(200)는 상기 내시경(430)을 전진 또는 후진시키는 구동제어신호를 생성하여 상기 구동부(300)로 전송할 수 있다. 예를 들어, 머리를 Z축을 중심으로 왼쪽으로 기울이는 경우에 상기 내시경(430)을 전진시키고, 머리를 Z축을 중심으로 오른쪽으로 기울이는 경우에 상기 내시경(430)을 후진시키도록 구동제어신호를 생성할 수 있다.Further, when the user wearing the
한편, 상기 구동제어신호를 생성하는 단계(S730)는 상기 사용자의 머리 움직임에 따른 상기 자세정보가 미리 정해진 임계값 이상에 해당하는 경우에 상기 구동제어신호를 생성하게 된다.Meanwhile, in the step of generating the driving control signal (S730), the driving control signal is generated when the posture information according to the movement of the user's head falls above a predetermined threshold.
즉, 상기 사용자의 머리 움직임에 따른 상기 자세정보가 미리 정해진 임계값보다 작은 경우에는 사용자가 의도적으로 머리를 움직인 것이 아니라 의도치 않게 머리가 움직인 것으로 판단하여 상기 구동제어신호를 생성하지 않게 된다.That is, if the posture information according to the movement of the user's head is smaller than a predetermined threshold, it is determined that the user has not intentionally moved the head but has unintentionally moved the head, and thus the drive control signal is not generated. .
반면에, 상기 사용자의 머리 움직임에 따른 상기 자세정보가 미리 정해진 임계값 이상인 경우에는 사용자가 의도적으로 머리를 움직인 것으로 판단하여 상기 구동제어신호를 생성하여 상기 구동부(300)로 전송하게 된다.On the other hand, when the posture information according to the movement of the user's head exceeds a predetermined threshold, it is determined that the user has intentionally moved his or her head, and the driving control signal is generated and transmitted to the
한편, 상기 사용자의 머리 움직임에 따른 상기 자세정보가 미리 정해진 임계값 이상인 경우, 상기 제어부(200)는 상기 사용자의 머리 이동거리 또는 회전각도에 비례하여 상기 내시경(430)을 이동 또는 회전시키는 상기 구동제어신호를 생성하게 된다.On the other hand, when the posture information according to the movement of the user's head exceeds a predetermined threshold, the
예를 들어, 사용자의 머리의 회전에 따라 측정값이 임계값 이상이 되면 실시간 회전값과 비례하여 적정 속도를 가지는 구동제어신호를 상기 구동부(300)로 전송하여 사용자의 머리의 회전 정도에 따라 상기 내시경(430)의 속도가 제어될 수 있다.For example, when the measured value exceeds the threshold value according to the rotation of the user's head, a driving control signal having an appropriate speed in proportion to the real-time rotation value is transmitted to the
또한, 상기 수술로봇 시스템의 구동제어방법은 상기 내시경(430)과 상기 로봇팔(410) 사이의 거리가 미리 정해진 최소값 이하인 경우에 상기 내시경(430)과 상기 로봇팔(410)의 충돌 방지를 위한 충돌방지제어신호를 생성하는 단계를 더 포함할 수 있다.In addition, the driving control method of the surgical robot system is for preventing collision between the
상기 제어부(200)는 상기 내시경(430)과 로봇팔(410)을 일방향으로 길게 연장된 직육면체의 형상으로 설정하여 인식하게 된다. 이 경우, 상기 제어부(200)는 상기 내시경(430)의 직육면체와 상기 로봇팔(410)의 직육면에 사이에 교차점이 발생하지 않도록 상기 내시경(430) 또는 로봇팔(410)의 움직임을 제어하게 된다.The
이와 같이, 상기 제어부(200)가 상기 내시경(430)과 로봇팔(410)의 형상을 직육면체 형상으로 설정하여 인식함으로써, 복잡한 수술 도구와 내시경의 형상을 단순화하여 제어하는 것이 가능해진다.As described above, the
구체적으로, 상기 제어부(200)는 상기 내시경(430)의 직육면체의 중심부를 관통하는 제1 중심선(432)과 상기 로봇팔(410)의 직육면체의 중심부를 관통하는 제2 중심선(412)을 설정할 수 있다.Specifically, the
상기 제어부는 상기 제1 중심선(432)과 제2 중심선(412)의 3차원 위치 또는 속도정보와 같은 상태정보를 상기 내시경(430)과 로봇팔(410)에서 각각 전달받을 수 있다.The controller may receive state information such as 3D position or speed information of the
이 경우, 상기 제어부는 상기 제1 중심선(432)과 제2 중심선(412) 사이의 최소거리(L)가 상기 최소값 이하인 경우에 상기 충돌방지제어신호를 생성할 수 있다.In this case, the controller may generate the collision prevention control signal when the minimum distance L between the
상기 최소값은 상기 내시경(430)과 로봇팔(410)의 각각의 두께 또는 단면적을 고려하여 상기 내시경(430)이 상기 최소거리를 증가시키도록 움직임이 가능한 충분한 제어시간을 가지도록 적절하게 설정될 수 있다.The minimum value may be appropriately set to have a sufficient control time to allow movement of the
본 발명은 다양한 형태로 변형되어 실시될 수 있을 것인 바 상술한 실시예에 그 권리범위가 한정되지 않는다. 따라서 변형된 실시예가 본 발명 특허청구범위의 구성요소를 포함하고 있다면 본 발명의 권리범위에 속하는 것으로 보아야 할 것이다.The scope of the rights is not limited to the above-described embodiments as the present invention may be modified and implemented in various forms. Therefore, if the modified embodiment includes the elements of the claims of the present invention, it should be viewed as belonging to the scope of the present invention.
100 : 헤드셋
110 : 영상표시부
130 : 영상수신부
150 : 자세감지센서
170 : 송신부
200 : 제어부
300 : 구동부
410 : 로봇팔
430 : 내시경
1000 : 수술로봇 시스템100: headset
110: image display
130: image receiver
150: posture sensor
170: transmitter
200: control unit
300: drive unit
410: robot arm
430: endoscope
1000: surgical robot system
Claims (16)
상기 수술공간 내부에서 상기 내시경을 이동시키는 구동부;
사용자의 머리에 착탈 가능하게 착용되어 상기 사용자의 머리 움직임을 감지하여 상기 사용자의 머리움직임에 따라 자세정보를 생성하며, 상기 내시경에서 촬영된 2D 또는 3D 영상들을 표시하는 헤드셋(headset); 및
상기 헤드셋에서 생성된 자세정보에 따라 상기 구동부를 제어하도록 구동제어신호를 상기 구동부로 송신하며, 상기 내시경으로부터 영상정보를 수신하여 상기 헤드셋으로 전송하는 제어부;를 포함하는 것을 특징으로 하는 최소 침습 수술을 위한 수술로봇 시스템.An endoscope that is inserted into the surgical space through a predetermined incision and photographs the surgical site in real time;
A driving unit for moving the endoscope within the operating space;
A headset that is detachably worn on the user's head, senses the movement of the user's head, generates posture information according to the movement of the user's head, and displays 2D or 3D images captured by the endoscope; And
A minimally invasive surgery comprising: a control unit transmitting a driving control signal to the driving unit to control the driving unit according to the posture information generated by the headset, and receiving image information from the endoscope and transmitting it to the headset; For surgical robot system.
상기 헤드셋은,
상기 제어부에서 전송되는 영상정보를 수신하는 영상수신부;
상기 영상수신부에 의해 수신된 상기 영상정보를 표시하는 영상표시부;
상기 사용자의 머리 이동, 회전 또는 각속도를 감지하여 상기 자세정보를 생성하는 자세감지센서; 및
상기 자세정보를 상기 제어부로 송신하는 송신부;를 구비하는 것을 특징으로 하는 최소 침습 수술을 위한 수술로봇 시스템.The method of claim 1,
The headset,
An image receiving unit for receiving image information transmitted from the control unit;
An image display unit for displaying the image information received by the image receiving unit;
A posture sensor for generating the posture information by detecting the movement, rotation, or angular speed of the user's head; And
A surgical robot system for minimally invasive surgery, comprising: a transmitter for transmitting the posture information to the control unit.
상기 자세감지센서는
상기 사용자의 머리의 피칭(pitching), 요잉(yawing) 및 롤링(rolling) 회전을 감지하여 상기 자세정보를 생성하는 것을 특징으로 하는 최소 침습 수술을 위한 수술로봇 시스템.The method of claim 2,
The posture sensor is
A surgical robot system for minimally invasive surgery, characterized in that for generating the posture information by detecting the user's head pitching, yawing, and rolling rotation.
상기 제어부는
상기 자세정보에 따라
상기 내시경의 상하회전, 좌우회전, 전진 및 후진의 구동제어신호를 상기 구동부로 송신하는 것을 특징으로 하는 최소 침습 수술을 위한 수술로봇 시스템.The method of claim 3,
The control unit
According to the above posture information
A surgical robot system for minimally invasive surgery, characterized in that transmitting control signals for vertical rotation, left and right rotation, forward and backward movement of the endoscope to the driving unit.
상기 내시경은 상기 수술부위를 촬영하여 각각 영상정보를 생성하는 둘 이상의 촬영부를 구비하고,
상기 헤드셋의 영상표시부는 상기 둘 이상의 촬영부에서 각각 전송되는 영상정보를 교정(calibration)하여 표시하는 것을 특징으로 하는 최소 침습 수술을 위한 수술로봇 시스템.The method of claim 2,
The endoscope is provided with two or more photographing units each generating image information by photographing the surgical site,
A surgical robot system for minimally invasive surgery, characterized in that the image display unit of the headset calibrates and displays image information transmitted from each of the two or more photographing units.
상기 제어부는
상기 사용자의 머리 움직임에 따른 상기 자세정보가 미리 정해진 임계값 이상에 해당하는 경우에 상기 구동제어신호를 생성하는 것을 특징으로 하는 최소 침습 수술을 위한 수술로봇 시스템.The method of claim 1,
The control unit
A surgical robot system for minimally invasive surgery, characterized in that generating the drive control signal when the posture information according to the movement of the user's head falls above a predetermined threshold.
상기 제어부는
상기 사용자의 머리 이동거리 또는 회전각도에 비례하여 상기 내시경을 이동 또는 회전시키는 상기 구동제어신호를 생성하는 것을 특징으로 하는 최소 침습 수술을 위한 수술로봇 시스템.The method of claim 6,
The control unit
A surgical robot system for minimally invasive surgery, characterized in that generating the drive control signal for moving or rotating the endoscope in proportion to the user's head movement distance or rotation angle.
상기 수술공간으로 삽입되어 상기 수술부위를 수술하기 위한 적어도 하나의 로봇팔을 더 구비하고,
상기 제어부는 상기 내시경과 상기 로봇팔 사이의 거리가 미리 정해진 최소값 이하인 경우에 상기 내시경과 상기 로봇팔의 충돌 방지를 위한 충돌방지제어신호를 생성하여 상기 구동부로 전송하는 것을 특징으로 하는 최소 침습 수술을 위한 수술로봇 시스템.The method of claim 1,
Further comprising at least one robot arm for being inserted into the surgery space to operate on the surgical site,
The control unit performs minimally invasive surgery, characterized in that when the distance between the endoscope and the robot arm is less than a predetermined minimum value, a collision prevention control signal for preventing collision between the endoscope and the robot arm is generated and transmitted to the driving unit. For surgical robot system.
상기 제어부는
상기 내시경의 중심선과 상기 로봇팔의 중심선 사이의 최소거리가 상기 최소값 이하인 경우에 상기 충돌방지제어신호를 생성하는 것을 특징으로 하는 최소 침습 수술을 위한 수술로봇 시스템.The method of claim 8,
The control unit
A surgical robot system for minimally invasive surgery, characterized in that generating the collision prevention control signal when the minimum distance between the center line of the endoscope and the center line of the robot arm is less than the minimum value.
상기 자세정보에 따라 내시경을 이동시키는 구동제어신호를 생성하는 단계;
상기 구동제어신호에 따라 상기 내시경을 이동시키는 단계;를 포함하는 것을 특징으로 하는 수술로봇 시스템의 구동방법.Generating posture information by detecting the movement of the user's head;
Generating a driving control signal for moving the endoscope according to the posture information;
A method of driving a surgical robot system comprising: moving the endoscope according to the driving control signal.
상기 자세정보를 생성하는 단계는
상기 사용자의 머리의 피칭(pitching), 요잉(yawing) 및 롤링(rolling) 회전을 감지하여 상기 자세정보를 생성하는 것을 특징으로 하는 수술로봇 시스템의 구동방법.The method of claim 10,
Generating the posture information
The driving method of a surgical robot system, characterized in that generating the posture information by detecting the pitching, yawing, and rolling rotation of the user's head.
상기 구동제어신호를 생성하는 단계는
상기 내시경의 상하회전, 좌우회전, 전진 및 후진의 구동제어신호를 생성하는 것을 특징으로 하는 수술로봇 시스템의 구동방법.The method of claim 11,
Generating the drive control signal comprises:
A method of driving a surgical robot system, characterized in that generating driving control signals for up and down rotation, left and right rotation, forward and backward rotation of the endoscope.
상기 구동제어신호를 생성하는 단계는
상기 사용자의 머리 움직임에 따른 상기 자세정보가 미리 정해진 임계값 이상에 해당하는 경우에 상기 구동제어신호를 생성하는 것을 특징으로 하는 수술로봇 시스템의 구동방법.The method of claim 10,
Generating the drive control signal comprises:
The driving method of a surgical robot system, characterized in that generating the driving control signal when the posture information according to the movement of the user's head falls above a predetermined threshold.
상기 사용자의 머리 이동거리 또는 회전각도에 비례하여 상기 내시경을 이동 또는 회전시키는 상기 구동제어신호를 생성하는 것을 특징으로 하는 수술로봇 시스템의 구동방법.The method of claim 13,
The driving method of a surgical robot system, characterized in that generating the driving control signal for moving or rotating the endoscope in proportion to the user's head movement distance or rotation angle.
상기 수술공간으로 삽입되어 상기 수술부위를 수술하기 위한 적어도 하나의 로봇팔을 더 구비하고,
상기 내시경과 상기 로봇팔 사이의 거리가 미리 정해진 최소값 이하인 경우에 상기 내시경과 상기 로봇팔의 충돌 방지를 위한 충돌방지제어신호를 생성하는 단계를 더 포함하는 것을 특징으로 하는 수술로봇 시스템의 구동방법.The method of claim 10,
Further comprising at least one robot arm for being inserted into the surgery space to operate on the surgical site,
When the distance between the endoscope and the robot arm is less than or equal to a predetermined minimum value, generating a collision prevention control signal for preventing collision between the endoscope and the robot arm.
상기 내시경의 중심선과 상기 로봇팔의 중심선 사이의 최소거리가 상기 최소값 이하인 경우에 상기 충돌방지제어신호를 생성하는 것을 특징으로 하는 수술로봇 시스템의 구동방법.
The method of claim 15,
When the minimum distance between the center line of the endoscope and the center line of the robot arm is less than or equal to the minimum value, the collision prevention control signal is generated.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190025580A KR102297517B1 (en) | 2019-03-06 | 2019-03-06 | Surgical robot system for minimal invasive surgery and drive method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190025580A KR102297517B1 (en) | 2019-03-06 | 2019-03-06 | Surgical robot system for minimal invasive surgery and drive method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200108124A true KR20200108124A (en) | 2020-09-17 |
KR102297517B1 KR102297517B1 (en) | 2021-09-02 |
Family
ID=72707116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190025580A KR102297517B1 (en) | 2019-03-06 | 2019-03-06 | Surgical robot system for minimal invasive surgery and drive method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102297517B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220049062A (en) | 2020-10-13 | 2022-04-21 | 서울대학교산학협력단 | Surgical robot system based on Headset using voice recognition Microphone |
CN116459013A (en) * | 2023-04-24 | 2023-07-21 | 北京微链道爱科技有限公司 | Control method based on 3D visual recognition and cooperative robot |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005524442A (en) * | 2002-05-02 | 2005-08-18 | ジーエムピー サージカル ソリューションズ インコーポレイテッド | Device for positioning medical instruments |
KR20100036420A (en) | 2008-09-30 | 2010-04-08 | 주식회사 바이오넷 | Ultrasonic diagnosis and laparoscopy aparratus for surgery |
KR20110094529A (en) | 2010-02-17 | 2011-08-24 | 전남대학교산학협력단 | Tubular type manipulator surgical robot system with image guidance for minimal invasive surgery |
KR20130010092A (en) * | 2005-05-19 | 2013-01-25 | 인튜어티브 서지컬 인코포레이티드 | Software center and highly configurable robotic systems for surgery and other uses |
KR20130015146A (en) | 2011-08-02 | 2013-02-13 | 삼성전자주식회사 | Method and apparatus for processing medical image, robotic surgery system using image guidance |
KR20150105803A (en) * | 2014-03-10 | 2015-09-18 | 서울과학기술대학교 산학협력단 | Three dimension endoscope system using giro sensor |
US20190008595A1 (en) * | 2015-12-29 | 2019-01-10 | Koninklijke Philips N.V. | System, controller and method using virtual reality device for robotic surgery |
-
2019
- 2019-03-06 KR KR1020190025580A patent/KR102297517B1/en active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005524442A (en) * | 2002-05-02 | 2005-08-18 | ジーエムピー サージカル ソリューションズ インコーポレイテッド | Device for positioning medical instruments |
KR20130010092A (en) * | 2005-05-19 | 2013-01-25 | 인튜어티브 서지컬 인코포레이티드 | Software center and highly configurable robotic systems for surgery and other uses |
KR20100036420A (en) | 2008-09-30 | 2010-04-08 | 주식회사 바이오넷 | Ultrasonic diagnosis and laparoscopy aparratus for surgery |
KR20110094529A (en) | 2010-02-17 | 2011-08-24 | 전남대학교산학협력단 | Tubular type manipulator surgical robot system with image guidance for minimal invasive surgery |
KR20130015146A (en) | 2011-08-02 | 2013-02-13 | 삼성전자주식회사 | Method and apparatus for processing medical image, robotic surgery system using image guidance |
KR20150105803A (en) * | 2014-03-10 | 2015-09-18 | 서울과학기술대학교 산학협력단 | Three dimension endoscope system using giro sensor |
US20190008595A1 (en) * | 2015-12-29 | 2019-01-10 | Koninklijke Philips N.V. | System, controller and method using virtual reality device for robotic surgery |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220049062A (en) | 2020-10-13 | 2022-04-21 | 서울대학교산학협력단 | Surgical robot system based on Headset using voice recognition Microphone |
CN116459013A (en) * | 2023-04-24 | 2023-07-21 | 北京微链道爱科技有限公司 | Control method based on 3D visual recognition and cooperative robot |
CN116459013B (en) * | 2023-04-24 | 2024-03-22 | 北京微链道爱科技有限公司 | Collaborative robot based on 3D visual recognition |
Also Published As
Publication number | Publication date |
---|---|
KR102297517B1 (en) | 2021-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230157776A1 (en) | Systems and methods for constraining a virtual reality surgical system | |
US20200397515A1 (en) | Interface for Laparoscopic Surgeries - Movement Gestures | |
US11717309B2 (en) | Medical manipulator and method of controlling the same | |
US10052157B2 (en) | Device and method for assisting laparoscopic surgery—rule based approach | |
WO2018159328A1 (en) | Medical arm system, control device, and control method | |
US20140194699A1 (en) | Single port surgical robot and control method thereof | |
US9844416B2 (en) | Medical manipulator and method of controlling the same | |
US20220168047A1 (en) | Medical arm system, control device, and control method | |
WO2017037705A1 (en) | An intelligent surgical tool control system for laparoscopic surgeries | |
US20230110890A1 (en) | Systems and methods for entering and exiting a teleoperational state | |
KR101598774B1 (en) | Apparatus and Method for processing surgical image | |
KR102297517B1 (en) | Surgical robot system for minimal invasive surgery and drive method thereof | |
KR101114232B1 (en) | Surgical robot system and motion restriction control method thereof | |
KR101706994B1 (en) | Surgical robot system and laparoscope handling method thereof | |
KR101683057B1 (en) | Surgical robot system and motion restriction control method thereof | |
JP2023507063A (en) | Methods, devices, and systems for controlling image capture devices during surgery | |
KR101715026B1 (en) | Surgical robot system and motion restriction control method thereof | |
KR102099563B1 (en) | Surgical robot system for minimal invasive surgery and method for preventing collision using the same | |
KR101709911B1 (en) | Surgical robot system and laparoscope handling method thereof | |
KR101698961B1 (en) | Surgical robot system and laparoscope handling method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |