KR20200108124A - Surgical robot system for minimal invasive surgery and drive method thereof - Google Patents

Surgical robot system for minimal invasive surgery and drive method thereof Download PDF

Info

Publication number
KR20200108124A
KR20200108124A KR1020190025580A KR20190025580A KR20200108124A KR 20200108124 A KR20200108124 A KR 20200108124A KR 1020190025580 A KR1020190025580 A KR 1020190025580A KR 20190025580 A KR20190025580 A KR 20190025580A KR 20200108124 A KR20200108124 A KR 20200108124A
Authority
KR
South Korea
Prior art keywords
endoscope
user
head
robot system
driving
Prior art date
Application number
KR1020190025580A
Other languages
Korean (ko)
Other versions
KR102297517B1 (en
Inventor
김성완
조예은
문혜민
김윤재
조민우
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Priority to KR1020190025580A priority Critical patent/KR102297517B1/en
Publication of KR20200108124A publication Critical patent/KR20200108124A/en
Application granted granted Critical
Publication of KR102297517B1 publication Critical patent/KR102297517B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00057Operational features of endoscopes provided with means for testing or calibration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00131Accessories for endoscopes
    • A61B1/00133Drive units for endoscopic tools inserted through or with the endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00216Electrical control of surgical instruments with eye tracking or head position tracking control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/368Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Gynecology & Obstetrics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Endoscopes (AREA)

Abstract

The present invention relates to a surgical robot system for minimally invasive surgery and a drive method of the surgical robot system. Particularly, the present invention relates to a surgical robot system capable of moving an endoscope with a movement of a user′s head without using the user′s hand while performing an operation using a surgical robot, and also preventing a collision between the endoscope and a robot arm, and to a drive method of the surgical robot system.

Description

최소 침습 수술을 위한 수술로봇 시스템 및 상기 수술로봇 시스템의 구동방법 {Surgical robot system for minimal invasive surgery and drive method thereof}A surgical robot system for minimally invasive surgery and a driving method of the surgical robot system [Surgical robot system for minimal invasive surgery and drive method thereof]

본 발명은 최소 침습 수술을 위한 수술로봇 시스템 및 상기 수술로봇 시스템의 구동방법에 관한 것으로서, 상세하게는 수술로봇을 이용하여 수술을 진행하는 중에 사용자의 손을 사용하지 않고 사용자의 머리 움직임으로 내시경을 움직일 수 있으며, 나아가 상기 내시경과 로봇팔의 충돌을 방지할 수 있는 수술로봇 시스템 및 상기 수술로봇 시스템의 구동방법에 대한 것이다.The present invention relates to a surgical robot system for minimally invasive surgery and a driving method of the surgical robot system, and in detail, the endoscope is operated with the movement of the user's head without using the user's hand during the operation using the surgical robot. The present invention relates to a surgical robot system capable of moving, and further preventing a collision between the endoscope and a robot arm, and a driving method of the surgical robot system.

일반적으로 복강경은 복벽의 작은 구멍을 통해 삽입되어 담낭, 복막, 간장, 소화관 외측 등을 검사하기 위한 내시경을 말하며, 내시경 수술이란 기존의 피부 절개를 통해 시행하는 수술이 아닌 하나 또는 여러 개의 구멍을 통해 진행하는 수술을 말한다.In general, a laparoscope is an endoscope that is inserted through a small hole in the abdominal wall and is used to examine the gallbladder, peritoneum, liver, and the outside of the digestive tract. Endoscopic surgery is not a surgery performed through conventional skin incisions, but through one or several holes. It is an ongoing surgery.

이 경우, 복강경 내시경을 이용한 수술은 복부에 대략 지름 5mm 내지 1cm 가량의 작은 구멍을 두 군에 이상 형성하고, 상기 구멍으로 복강경이나 집게 또는 메스를 삽입하여, 복강경이 촬영하는 체내의 모양을 비디오 모니터 등을 통해서 화면을 화면서 행하는 수술에 해당한다.In this case, in the case of surgery using a laparoscopic endoscope, a small hole of approximately 5mm to 1cm in diameter is formed in two groups or more in the abdomen, and a laparoscope, forceps, or scalpel is inserted into the hole, and the shape of the body photographed by the laparoscope is video monitored. It corresponds to an operation performed on the screen through the screen.

또한, 로봇을 이용한 수술은 수술 도구를 움직일 수 있는 로봇의 동작을 의사 등이 제어하는 수술을 말한다. 특히, 복강경 로봇 수술은 복부에 여러 개의 구멍을 뚫은 후 상기 구멍으로 복강경 내시경과 함께 로봇수술을 위한 수술용 도구(end-effector)가 부착된 수술로봇의 로봇팔을 삽입하여 수술하는 것을 말한다.In addition, surgery using a robot refers to surgery in which a doctor or the like controls the operation of a robot capable of moving a surgical tool. In particular, laparoscopic robotic surgery refers to surgery by drilling a plurality of holes in the abdomen and inserting the robot arm of a surgical robot with an end-effector attached to the laparoscopic endoscope through the hole.

이러한 복강경 로봇수술의 경우, 기존의 개복수술보다 절개부위가 적어 환자의 회복시간이 빠르고, 고통 및 흉터도 적다는 장점뿐만 아니라 로봇팔을 이용하여 수술을 진행하기 때문에 더 정밀한 수술이 가능하게 된다. 또한, 로봇수술에서는 수술공간에 대한 깊이정보를 전달하기 위해 3D 영상을 제공할 수 있는 복강경 내시경과 디스플레이를 사용하여 수술을 진행하기에 2D 영상을 이용하는 복강경 수술보다 더 정확한 수술이 가능해진다.In the case of such laparoscopic robotic surgery, the patient's recovery time is faster, pain and scars are less due to fewer incisions than conventional open surgery, and more precise surgery is possible because the operation is performed using a robotic arm. In addition, since robotic surgery uses a laparoscopic endoscope and display that can provide 3D images to deliver depth information about the operating space, more accurate surgery is possible than laparoscopic surgery using 2D images.

종래기술에 따르면 복강경 수술과 같은 최소 침습 수술을 위해 대략 3개의 로봇팔과 내시경을 이용하여 수술을 진행하게 되며, 상기 로봇팔 및 내시경의 조작을 위하여 사용자의 양손으로 컨트롤러를 조작하게 된다. 이 경우, 복강경 내시경의 위치를 이동시키기 위해서는 발로 페달 등을 밟아서 조작 대상을 로봇팔에서 내시경으로 전환하여 내시경을 조작하게 된다. According to the prior art, surgery is performed using approximately three robotic arms and an endoscope for minimally invasive surgery such as laparoscopic surgery, and a controller is operated with both hands of a user to manipulate the robotic arm and the endoscope. In this case, in order to move the position of the laparoscopic endoscope, the operation target is switched from the robot arm to the endoscope by pressing a pedal or the like with a foot to operate the endoscope.

따라서, 사용자가 로봇팔에서 내시경으로 조작 대상을 전환하는 경우에 수술의 흐름이 끊기게 되고, 수술 도구의 충돌, 수술 부위의 손상, 수술 시간의 증가를 초래할 수 있다. 또한, 사용자의 손으로 로봇팔과 내시경을 동시에 제어하는 부분에 있어서 정밀한 제어를 위한 숙련도가 필요하게 된다.Therefore, when the user switches the operation object from the robot arm to the endoscope, the flow of surgery is interrupted, and collision of surgical tools, damage to the surgical site, and increase in operation time may occur. In addition, skill level for precise control is required in the portion of simultaneously controlling the robot arm and the endoscope with the user's hand.

한국 공개특허공보 제10-2010-0036420호Korean Patent Application Publication No. 10-2010-0036420 한국 공개특허공보 제10-2011-0094529호Korean Patent Application Publication No. 10-2011-0094529 한국 공개특허공보 제10-2013-0015146호Korean Patent Application Publication No. 10-2013-0015146

본 발명은 전술한 문제점을 해결하기 위한 것으로서, 최소 침습 수술을 위한 수술로봇 시스템에 있어서 내시경을 이동시키는 경우에 사용자의 손으로 조작하지 않고 사용자의 머리에 헤드셋(headset)을 착용하고 상기 사용자의 머리 움직임에 대응하여 상기 내시경을 이동시킬 수 있는 수술로봇 시스템 및 상기 수술로봇 시스템의 구동방법을 제공하는데 목적이 있다.The present invention is to solve the above-described problem, in the case of moving the endoscope in a surgical robot system for minimally invasive surgery, without manipulating the user's hand, wearing a headset on the user's head and An object of the present invention is to provide a surgical robot system capable of moving the endoscope in response to movement and a driving method of the surgical robot system.

또한, 본 발명은 상기 헤드셋을 통해 상기 내시경을 통해 획득한 영상정보를 표시할 수 있도록 하는 수술로봇 시스템 및 상기 수술로봇 시스템의 구동방법을 제공하는데 목적이 있다.Another object of the present invention is to provide a surgical robot system capable of displaying image information acquired through the endoscope through the headset and a driving method of the surgical robot system.

나아가, 본 발명은 로봇팔 및 내시경을 이용하여 최소 침습 수술을 진행하는 중에 내시경과 로봇팔의 충돌을 방지할 수 있는 수술로봇 시스템 및 상기 수술로봇 시스템의 구동방법을 제공하는데 목적이 있다.Further, an object of the present invention is to provide a surgical robot system capable of preventing a collision between an endoscope and a robot arm during minimally invasive surgery using a robot arm and an endoscope, and a driving method of the surgical robot system.

또한, 본 발명은 사용자가 수술 부위의 영상을 확인하기 위한 대형 모니터를 필요치 않아 설치공간이 현격히 감소하여 공간효율을 증대시킬 수 있는 수술로봇 시스템 및 상기 수술로봇 시스템의 구동방법을 제공하는데 목적이 있다.In addition, an object of the present invention is to provide a surgical robot system and a driving method of the surgical robot system that can increase space efficiency by significantly reducing the installation space since the user does not need a large monitor for checking the image of the surgical site. .

상기와 같은 본 발명의 목적은 소정의 절개부위를 통해 수술공간으로 삽입되어 수술부위를 실시간으로 촬영하는 내시경, 상기 수술공간 내부에서 상기 내시경을 이동시키는 구동부, 사용자의 머리에 착탈 가능하게 착용되어 상기 사용자의 머리 움직임을 감지하여 상기 사용자의 머리움직임에 따라 자세정보를 생성하며, 상기 내시경에서 촬영된 2D 또는 3D 영상들을 표시하는 헤드셋(headset) 및 상기 헤드셋에서 생성된 자세정보에 따라 상기 구동부를 제어하도록 구동제어신호를 상기 구동부로 송신하며, 상기 내시경으로부터 영상정보를 수신하여 상기 헤드셋으로 전송하는 제어부를 포함하는 것을 특징으로 하는 최소 침습 수술을 위한 수술로봇 시스템에 의해 달성된다.An object of the present invention as described above is an endoscope that is inserted into an operating space through a predetermined incision to take a picture of the surgical site in real time, a driving unit that moves the endoscope within the operating space, and is detachably worn on the user's head. Detects the movement of the user's head and generates posture information according to the movement of the user's head, and controls the driving unit according to a headset displaying 2D or 3D images captured by the endoscope and posture information generated by the headset It is achieved by a surgical robot system for minimally invasive surgery, characterized in that it includes a control unit that transmits a driving control signal to the driving unit, and receives image information from the endoscope and transmits it to the headset.

여기서, 상기 헤드셋은 상기 제어부에서 전송되는 영상정보를 수신하는 영상수신부, 상기 영상수신부에 의해 수신된 상기 영상정보를 표시하는 영상표시부, 상기 사용자의 머리 이동, 회전 또는 각속도를 감지하여 상기 자세정보를 생성하는 자세감지센서 및 상기 자세정보를 상기 제어부로 송신하는 송신부를 구비할 수 있다.Here, the headset includes an image receiving unit that receives image information transmitted from the control unit, an image display unit that displays the image information received by the image receiving unit, and detects the movement, rotation, or angular velocity of the user's head to receive the posture information. A posture detection sensor to be generated and a transmission unit for transmitting the posture information to the control unit may be provided.

또한, 상기 자세감지센서는 상기 사용자의 머리의 피칭(pitching), 요잉(yawing) 및 롤링(rolling) 회전을 감지하여 상기 자세정보를 생성할 수 있다.In addition, the posture sensor may generate the posture information by detecting the pitching, yawing, and rolling rotation of the user's head.

한편, 상기 제어부는 상기 자세정보에 따라 상기 내시경의 상하회전, 좌우회전, 전진 및 후진의 구동제어신호를 상기 구동부로 송신할 수 있다.Meanwhile, the control unit may transmit driving control signals for vertical rotation, left and right rotation, forward and backward movement of the endoscope to the driving unit according to the posture information.

나아가, 상기 내시경은 상기 수술부위를 촬영하여 각각 영상정보를 생성하는 둘 이상의 촬영부를 구비하고, 상기 헤드셋의 영상표시부는 상기 둘 이상의 촬영부에서 각각 전송되는 영상정보를 교정(calibration)하여 표시할 수 있다.Further, the endoscope may include two or more photographing units for photographing the surgical site and generating image information, respectively, and the image display unit of the headset may calibrate and display image information transmitted from each of the two or more photographing units. have.

한편, 상기 제어부는 상기 사용자의 머리 움직임에 따른 상기 자세정보가 미리 정해진 임계값 이상에 해당하는 경우에 상기 구동제어신호를 생성할 수 있다.Meanwhile, the control unit may generate the driving control signal when the posture information according to the movement of the user's head falls above a predetermined threshold.

이 경우, 상기 제어부는 상기 사용자의 머리 이동거리 또는 회전각도에 비례하여 상기 내시경을 이동 또는 회전시키는 상기 구동제어신호를 생성할 수 있다.In this case, the controller may generate the driving control signal for moving or rotating the endoscope in proportion to the user's head movement distance or rotation angle.

한편, 상기 수술공간으로 삽입되어 상기 수술부위를 수술하기 위한 적어도 하나의 로봇팔을 더 구비하고, 상기 제어부는 상기 내시경과 상기 로봇팔 사이의 거리가 미리 정해진 최소값 이하인 경우에 상기 내시경과 상기 로봇팔의 충돌 방지를 위한 충돌방지제어신호를 생성하여 상기 구동부로 전송할 수 있다.On the other hand, further comprising at least one robot arm inserted into the surgical space for operating the surgical site, the control unit is the endoscope and the robot arm when the distance between the endoscope and the robot arm is less than a predetermined minimum value It is possible to generate a collision avoidance control signal for preventing collision of the vehicle and transmit it to the driving unit.

이때, 상기 제어부는 상기 내시경의 중심선과 상기 로봇팔의 중심선 사이의 최소거리가 상기 최소값 이하인 경우에 상기 충돌방지제어신호를 생성할 수 있다.In this case, the control unit may generate the collision prevention control signal when the minimum distance between the center line of the endoscope and the center line of the robot arm is less than the minimum value.

한편, 상기와 같은 본 발명의 목적은 사용자의 머리 움직임을 감지하여 자세정보를 생성하는 단계, 상기 자세정보에 따라 내시경을 이동시키는 구동제어신호를 생성하는 단계 및 상기 구동제어신호에 따라 상기 내시경을 이동시키는 단계를 포함하는 것을 특징으로 하는 수술로봇 시스템의 구동방법에 의해 달성된다.On the other hand, the object of the present invention as described above is the step of generating posture information by detecting the movement of the user's head, generating a drive control signal for moving the endoscope according to the posture information, and controlling the endoscope according to the drive control signal. It is achieved by a method of driving a surgical robot system comprising the step of moving.

여기서, 상기 자세정보를 생성하는 단계는 상기 사용자의 머리의 피칭(pitching), 요잉(yawing) 및 롤링(rolling) 회전을 감지하여 상기 자세정보를 생성할 수 있다.Here, the step of generating the posture information may generate the posture information by detecting the pitching, yawing, and rolling rotation of the user's head.

또한, 상기 구동제어신호를 생성하는 단계는 상기 내시경의 상하회전, 좌우회전, 전진 및 후진의 구동제어신호를 생성할 수 있다.In addition, generating the driving control signal may generate driving control signals for vertical rotation, left and right rotation, forward and backward rotation of the endoscope.

한편, 상기 구동제어신호를 생성하는 단계는 상기 사용자의 머리 움직임에 따른 상기 자세정보가 미리 정해진 임계값 이상에 해당하는 경우에 상기 구동제어신호를 생성할 수 있다.Meanwhile, in the generating of the driving control signal, the driving control signal may be generated when the posture information according to the movement of the user's head falls above a predetermined threshold.

또한, 상기 사용자의 머리 이동거리 또는 회전각도에 비례하여 상기 내시경을 이동 또는 회전시키는 상기 구동제어신호를 생성할 수 있다.In addition, the driving control signal for moving or rotating the endoscope in proportion to the user's head movement distance or rotation angle may be generated.

한편, 상기 수술공간으로 삽입되어 상기 수술부위를 수술하기 위한 적어도 하나의 로봇팔을 더 구비하고, 상기 내시경과 상기 로봇팔 사이의 거리가 미리 정해진 최소값 이하인 경우에 상기 내시경과 상기 로봇팔의 충돌 방지를 위한 충돌방지제어신호를 생성하는 단계를 더 포함할 수 있다.On the other hand, further provided with at least one robot arm to be inserted into the surgery space to operate on the surgical site, and prevent collision between the endoscope and the robot arm when the distance between the endoscope and the robot arm is less than a predetermined minimum value It may further include generating a collision prevention control signal for.

이때, 상기 내시경의 중심선과 상기 로봇팔의 중심선 사이의 최소거리가 상기 최소값 이하인 경우에 상기 충돌방지제어신호를 생성할 수 있다.In this case, when the minimum distance between the center line of the endoscope and the center line of the robot arm is less than the minimum value, the collision prevention control signal may be generated.

이와 같은 본 발명의 수술로봇 시스템 및 상기 수술로봇 시스템의 구동방법에 의하면, 내시경을 이동시키는 경우에 사용자의 손으로 조작하지 않고 사용자의 머리에 헤드셋(headset)을 착용하고 상기 사용자의 머리 움직임에 대응하여 상기 내시경을 이동시킴으로써, 수술의 흐름이 끊기지 않도록 하여 수술이 원활이 진행되도록 하여 수술시간을 단축할 수 있다.According to the surgical robot system of the present invention and the driving method of the surgical robot system, when the endoscope is moved, a headset is worn on the user's head without manipulation by the user's hand, and the user's head movement is responded to. Thus, by moving the endoscope, the flow of the operation is not interrupted so that the operation proceeds smoothly, and the operation time can be shortened.

또한, 본 발명에 따르면, 사용자가 헤드셋을 통해 상기 내시경을 통해 획득한 영상정보를 확인할 수 있도록 하여 사용자가 별도의 표시부를 응시하는 경우에 사용자의 목이나 어깨에 피로가 누적되는 것을 방지할 수 있다.In addition, according to the present invention, by allowing the user to check the image information acquired through the endoscope through the headset, fatigue can be prevented from accumulating in the user's neck or shoulder when the user gazes at a separate display unit. .

나아가, 본 발명에 따르면 로봇팔 및 내시경을 이용하여 최소 침습 수술을 진행하는 중에 내시경과 로봇팔의 충돌을 방지하여, 수술공간에 위치한 장기, 동맥과 정맥과 같은 각종 혈관 또는 신경 등의 손상을 방지할 수 있다.Further, according to the present invention, by preventing collision between the endoscope and the robot arm during minimally invasive surgery using a robot arm and an endoscope, damage to various blood vessels such as organs, arteries and veins, etc. can do.

또한, 본 발명에 따르면 사용자가 수술 부위의 영상을 확인하기 위한 대형 모니터를 필요로 하지 않고, 사용자의 머리에 착용하는 헤드셋을 이용하여 내시경의 구동 제어 및 영상확인이 가능하게 되어, 수술로봇 시스템의 설치공간이 현격히 감소하여 공간효율을 증대시킬 수 있다.In addition, according to the present invention, the user does not need a large monitor to check the image of the surgical site, and it is possible to control the driving of the endoscope and check the image using a headset worn on the user's head. Installation space can be significantly reduced and space efficiency can be increased.

도 1은 본 발명의 일 실시예에 따른 수술로봇 시스템의 구성을 도시한 개략도,
도 2는 상기 수술로봇 시스템을 사용하는 사용자의 머리에 착용되는 헤드셋(headset)의 구성을 도시한 블록도,
도 3은 내시경의 말단부를 도시한 일부 사시도,
도 4는 사용자가 상기 헤드셋을 착용한 상태에서 머리를 이동 또는 회전시키는 동작을 도시한 개략도,
도 5는 구동부에 의해 상기 내시경의 움직임을 구현하는 동작을 개략적으로 도시한 도면
도 6은 제어부에 의해 상기 내시경과 로봇팔의 충돌방지를 위한 제어동작을 설명하기 위한 도면
도 7은 전술한 구성을 가지는 수술로봇 시스템의 구동방법을 도시한 순서도이다.
1 is a schematic diagram showing the configuration of a surgical robot system according to an embodiment of the present invention,
2 is a block diagram showing the configuration of a headset worn on the head of a user using the surgical robot system;
3 is a partial perspective view showing the distal end of the endoscope,
4 is a schematic diagram showing an operation of moving or rotating a head while a user is wearing the headset;
5 is a diagram schematically showing an operation of implementing the movement of the endoscope by a driving unit
6 is a view for explaining a control operation for preventing collision between the endoscope and the robot arm by a control unit
7 is a flow chart showing a method of driving the surgical robot system having the above-described configuration.

이하에서는 첨부된 도면을 참고하여 본 발명의 바람직한 실시예를 상세하게 설명한다. 특별한 정의가 없는 한 본 명세서의 모든 용어는 본 발명이 속하는 기술분야의 통상의 기술자가 이해하는 당해 용어의 일반적 의미와 동일하고, 만약 본 명세서에 사용된 용어가 당해 용어의 일반적 의미와 충돌하는 경우에는 본 명세서에 사용된 정의에 따른다. 한편, 이하에 기술될 장치의 구성이나 제어방법은 본 발명의 실시예를 설명하기 위한 것일 뿐 본 발명의 권리범위를 한정하기 위함은 아니며, 명세서 전반에 걸쳐서 동일하게 사용된 참조번호들은 동일한 구성요소들을 나타낸다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Unless otherwise defined, all terms in this specification are the same as the general meanings of those terms understood by one of ordinary skill in the art to which the present invention belongs, and if the terms used in the present specification conflict with the general meaning of the terms. Is in accordance with the definitions used herein. On the other hand, the configuration or control method of the device to be described below is for explaining the embodiment of the present invention, not to limit the scope of the present invention, and reference numerals used identically throughout the specification are the same components. Show them.

이하에서는 도면을 참조하여 본 발명의 다양한 실시예에 따른 최소 침습 수술을 위한 수술로봇 시스템 및 상기 수술로봇 시스템의 구동방법에 대해서 살펴본다. 먼저, 상기 수술로봇 시스템에 대해서 살펴보고, 이어서 상기 수술로봇 시스템의 구동방법에 대해서 살펴보기로 한다.Hereinafter, a surgical robot system for minimally invasive surgery and a driving method of the surgical robot system according to various embodiments of the present invention will be described with reference to the drawings. First, the surgical robot system will be described, and then the operation method of the surgical robot system will be described.

도 1은 본 발명의 일 실시예에 따른 수술로봇 시스템(1000)의 구성을 도시한 개략도이고, 도 2는 수술로봇 시스템(1000)을 사용하는 집도의(이하 '사용자'라고 한다)의 머리에 착용되는 헤드셋(headset)(100)의 구성을 도시한 블록도이다.1 is a schematic diagram showing the configuration of a surgical robot system 1000 according to an embodiment of the present invention, and FIG. 2 is a head of an operating surgeon (hereinafter referred to as'user') using the surgical robot system 1000 It is a block diagram showing the configuration of a headset 100 to be worn.

도 1 및 도 2를 참조하면, 상기 수술로봇 시스템(1000)은 소정의 절개부위(21, 23, 25, 27)를 통해 수술공간(12)으로 삽입되어 수술부위를 실시간으로 촬영하는 내시경(430), 상기 수술공간(12) 내부에서 상기 내시경(430)을 이동시키는 구동부(300), 사용자(10)(도 5 참조)의 머리에 착탈 가능하게 착용되어 상기 사용자의 머리 움직임을 감지하여 상기 사용자의 머리움직임에 따라 자세정보를 생성하며, 상기 내시경(430)에서 촬영된 2D 또는 3D 영상들을 표시하는 헤드셋(100) 및 상기 헤드셋(100)에서 생성된 자세정보에 따라 상기 구동부(300)를 제어하도록 구동제어신호를 상기 구동부(300)로 송신하며, 상기 내시경(430)으로부터 영상정보를 수신하여 상기 헤드셋(100)으로 전송하는 제어부(200)를 포함할 수 있다.1 and 2, the surgical robot system 1000 is inserted into the surgical space 12 through a predetermined incision (21, 23, 25, 27) and an endoscope 430 that photographs the surgical site in real time. ), the driving unit 300 for moving the endoscope 430 in the surgical space 12, the user 10 (see Fig. 5) is detachably worn on the head of the user to detect the movement of the user's head The headset 100 generates posture information according to the movement of the head of the body, and controls the driving unit 300 according to the posture information generated by the headset 100 and the headset 100 that displays 2D or 3D images captured by the endoscope 430 It may include a control unit 200 that transmits a driving control signal to the driving unit 300 and transmits image information from the endoscope 430 to the headset 100.

또한, 상기 수술로봇 시스템(1000)은 상기 수술공간(12)으로 삽입되어 상기 수술부위를 수술하기 위한 적어도 하나의 로봇팔(410)을 더 구비할 수 있다.In addition, the surgical robot system 1000 may further include at least one robot arm 410 inserted into the surgical space 12 to operate on the surgical site.

종래기술에 따르면 최소 침습 수술을 위해 대략 3개의 로봇팔과 내시경을 이용하여 수술을 진행하게 되며, 상기 로봇팔의 조작을 위하여 사용자의 양손으로 별도의 컨트롤러를 조작하게 된다. 이 경우, 상기 내시경의 위치를 이동시키기 위해서는 상기 로봇팔의 컨트롤러 이외의 별도의 내시경 컨트롤러를 사용하게 된다. 따라서, 사용자가 로봇팔 컨트롤러에서 내시경 컨트롤러를 조작하기 위해 손을 이동시키는 경우 수술의 흐름이 끊기게 되고, 수술 도구의 충돌, 수술 부위의 손상, 수술 시간의 증가를 초래할 수 있다. According to the prior art, surgery is performed using approximately three robotic arms and an endoscope for minimally invasive surgery, and separate controllers are operated with both hands of a user to manipulate the robotic arm. In this case, in order to move the position of the endoscope, an endoscope controller other than the controller of the robot arm is used. Therefore, when the user moves his or her hand from the robotic arm controller to manipulate the endoscope controller, the flow of surgery may be interrupted, resulting in collision of surgical tools, damage to the surgical site, and increase in operation time.

종래기술의 다른 타입에 따르면 상기 내시경을 이동시키기 위하여 발로 조작하는 조작부를 구비한 장치도 있으나, 발로 조작하는 경우에 손으로 조작하는 경우에 비해 섬세한 조작이 상대적으로 곤란하여, 전술한 문제점을 완전히 해결하지는 못하게 된다.According to another type of the prior art, there is a device equipped with an operation unit that operates with a foot to move the endoscope. However, in the case of operation with a foot, detailed operation is relatively difficult compared to the case of manual operation, so that the aforementioned problem is completely solved. You can't do it.

본 발명의 경우 전술한 문제점을 해결하기 위하여 사용자의 머리에 헤드셋(100)을 착용하고, 사용자의 머리 움직임을 감지하여 상기 사용자의 머리 움직임에 따라 상기 내시경(430)을 이동시키게 된다. 따라서, 사용자는 손으로 상기 로봇팔의 컨트롤러를 조작하고, 머리로 상기 내시경의 이동을 조작하여 수술의 흐름이 끊기지 않고 수술 시간을 단축시킬 수 있다.In the case of the present invention, in order to solve the above-described problem, the headset 100 is worn on the user's head, and the endoscope 430 is moved according to the movement of the user's head by detecting the movement of the user's head. Therefore, the user can manipulate the controller of the robot arm with his hand and manipulate the movement of the endoscope with his head to shorten the operation time without interrupting the flow of surgery.

또한, 사용자가 상기 헤드셋(100)을 착용하는 경우에 상기 헤드셋(100)을 통해 상기 내시경(430)에서 촬영된 영상을 표시하여 사용자가 별도의 표시부를 응시하는 경우에 사용자의 목이나 어깨에 피로가 누적되는 것을 방지할 수 있다.In addition, when the user wears the headset 100, the user's neck or shoulder is fatigued when the user gazes at a separate display unit by displaying the image captured by the endoscope 430 through the headset 100. Can be prevented from accumulating.

도 1 및 도 2를 참조하면, 상기 수술공간(12)은 사람 또는 동물의 몸체 내부에 해당하며, 상기 수술공간(12)에는 장기(15), 동맥과 정맥과 같은 각종 혈관(17) 또는 신경(19) 등이 분포할 수 있다.1 and 2, the operating space 12 corresponds to the inside of a human or animal body, and the operating space 12 includes organs 15, various blood vessels 17 such as arteries and veins, or nerves. (19) etc. can be distributed.

상기 로봇팔(410)과 내시경은 미리 형성된 절개부위(21, 23, 25, 27)를 통해 그 하단부가 상기 수술공간(12)의 내측으로 삽입될 수 있다. The robot arm 410 and the endoscope may have a lower end thereof inserted into the surgical space 12 through pre-formed incisions 21, 23, 25, and 27.

상기 로봇팔(410)은 상기 수술공간(12)의 내측에서 상기 수술부위에 대해 필요한 조치를 취할 수 있는 수술도구 등을 그 하단부에 구비할 수 있으며, 특정한 형태로 한정하지는 않는다.The robot arm 410 may be provided with a surgical tool at the lower end of the operation space 12 to take necessary measures for the surgical site, but is not limited to a specific shape.

한편, 상기 절개부위(21, 23, 25, 27)는 상기 내시경(430) 또는 로봇팔(410)의 하단부가 삽입될 수 있는 크기 또는 직경을 가지는 복강공과 같은 구멍으로 이루어질 수 있다.Meanwhile, the incisions 21, 23, 25, and 27 may be formed of a hole such as an abdominal cavity having a size or diameter into which the lower end of the endoscope 430 or the robot arm 410 can be inserted.

상기 절개부위(21, 23, 25, 27)의 개수는 수술에 필요한 상기 로봇팔(410)과 내시경(430)의 개수에 대응하도록 결정될 수 있다. 예를 들어, 도면에 도시된 바와 같이 3개의 로봇팔(410)과 1개의 내시경(430)을 이용하여 수술을 진행하는 경우에 상기 절개부위(21, 23, 25, 27)는 상기 내시경(430)의 삽입을 위한 1개의 내시경 절개부위(21)와, 상기 로봇팔(410)의 삽입을 위한 3개의 로봇팔 절개부위(23, 25, 27)로 이루어질 수 있다. The number of the incisions 21, 23, 25, and 27 may be determined to correspond to the number of the robotic arm 410 and the endoscope 430 required for surgery. For example, as shown in the drawing, in the case of performing an operation using three robotic arms 410 and one endoscope 430, the incision sites 21, 23, 25, 27 are the endoscope 430 ), and three robotic arm incisions 23, 25, and 27 for insertion of the robot arm 410.

다만, 본 발명에서 설명하는 상기 절개부위(21, 23, 25, 27)의 개수는 일예를 들어 설명한 것에 불과하며, 적절하게 변형될 수 있다.However, the number of the incisions 21, 23, 25, and 27 described in the present invention is only described as an example, and may be appropriately modified.

한편, 사용자의 머리에 착용될 수 있는 헤드셋(100)은 최근 들어 활발히 개발되고 있는 VR 헤드셋(virtual reality headset) 등의 형태로 구현될 수 있다. 하지만, 상기 헤드셋(100)은 단순히 VR 기기의 형태에 한정되지 않으며 다양한 예로 구현이 가능하다.Meanwhile, the headset 100 that can be worn on the user's head may be implemented in the form of a VR headset (virtual reality headset), which has been actively developed in recent years. However, the headset 100 is not simply limited to the shape of a VR device and can be implemented in various examples.

본 발명에서 상기 헤드셋(100)은 상기 제어부(200)에서 전송되는 영상정보를 수신하는 영상수신부(130), 상기 영상수신부(130)에 의해 수신된 상기 영상정보를 표시하는 영상표시부(110)와, 상기 사용자의 머리 이동, 회전 또는 각속도를 감지하여 상기 자세정보를 생성하는 자세감지센서(150) 및 상기 자세정보를 상기 제어부(200)로 송신하는 송신부(170)를 구비할 수 있다.In the present invention, the headset 100 includes an image receiving unit 130 for receiving image information transmitted from the control unit 200, an image display unit 110 for displaying the image information received by the image receiving unit 130, and , A posture detection sensor 150 for generating the posture information by detecting the movement, rotation, or angular speed of the user's head, and a transmission unit 170 for transmitting the posture information to the control unit 200 may be provided.

상기 내시경(430)에서 촬영된 영상정보는 상기 제어부(200)로 전송되고, 이어서 상기 헤드셋(100)의 영상수신부(130)로 전송된다. 상기 영상수신부(130)는 무선 또는 유선으로 상기 제어부(200)와 연결되어, 상기 제어부(200)에서 상기 영상정보를 전송받을 수 있다.The image information captured by the endoscope 430 is transmitted to the control unit 200 and then to the image receiving unit 130 of the headset 100. The image receiving unit 130 may be connected to the control unit 200 by wire or wirelessly, and may receive the image information from the control unit 200.

한편, 상기 헤드셋(100)의 영상수신부(130)로 수신된 상기 영상정보는 상기 헤드셋(100)의 영상표시부(110)를 통해 표시된다.Meanwhile, the image information received by the image receiving unit 130 of the headset 100 is displayed through the image display unit 110 of the headset 100.

이 경우, 상기 헤드셋(100)에는 사용자의 양측 눈에 대응하는 위치에 머리 착용 디스플레이(HMD, Head Mounted Display)와 같은 형태로 상기 영상표시부(110)가 제공될 수 있다.In this case, the image display unit 110 may be provided on the headset 100 in the form of a head mounted display (HMD) at positions corresponding to both eyes of the user.

따라서, 사용자는 상기 영상표시부(110)를 통해 상기 내시경(430)에서 촬영되는 영상정보를 실시간으로 인식하여 수술을 진행할 수 있다.Accordingly, the user can perform an operation by recognizing image information captured by the endoscope 430 in real time through the image display unit 110.

한편, 도 3은 상기 내시경(430)의 하단부를 도시한 일부 사시도이다.Meanwhile, FIG. 3 is a partial perspective view showing the lower end of the endoscope 430.

도 3을 참조하면, 상기 내시경(430)은 상기 수술부위를 촬영하여 각각 영상정보를 생성하는 둘 이상의 촬영부(432)를 구비할 수 있다.Referring to FIG. 3, the endoscope 430 may be provided with two or more photographing units 432 that respectively generate image information by photographing the surgical site.

즉, 본 실시예에 따른 상기 내시경(430)은 소위 '스테레오 비젼(stereo vision)'을 제공하기 위하여 예를 들어 2개의 촬영부(432)를 구비할 수 있다.That is, the endoscope 430 according to the present embodiment may include, for example, two photographing units 432 in order to provide so-called'stereo vision'.

이 경우, 상기 둘 이상의 촬영부(432)에서 각각 촬영되는 영상정보는 서로 상이한 영상정보로 구성될 수 있다. 따라서, 상기 헤드셋(100)의 영상표시부(110)는 상기 둘 이상의 촬영부(432)에서 각각 전송되는 영상정보를 교정(calibration)하여 표시하게 된다. In this case, image information photographed by the two or more photographing units 432 may be composed of different image information. Accordingly, the image display unit 110 of the headset 100 calibrates and displays image information transmitted from each of the two or more photographing units 432.

상기 둘 이상의 촬영부(432)에서 각각 전송되는 영상정보를 교정하지 않고, 그대로 상기 영상표시부(110)를 통해서 표시하게 된다면 사용자가 영상을 제대로 정확하게 인식하지 못하기 때문이다.This is because if the image information transmitted from each of the two or more photographing units 432 is not corrected and is displayed through the image display unit 110 as it is, the user cannot correctly recognize the image.

한편, 도 1 및 도 2를 다시 참조하면, 상기 헤드셋(100)에는 상기 사용자의 머리 움직임을 감지하기 위한 각종 자세감지센서(150)를 구비할 수 있다.Meanwhile, referring again to FIGS. 1 and 2, the headset 100 may be provided with various posture sensors 150 for detecting movement of the user's head.

예를 들어, 상기 자세감지센서(150)는 상기 사용자의 머리의 피칭(pitching), 요잉(yawing) 및 롤링(rolling) 회전을 감지하여 상기 자세정보를 생성하여 상기 제어부(200)로 전송할 수 있다.For example, the posture sensor 150 may generate the posture information by detecting the pitching, yawing, and rolling rotation of the user's head and transmit it to the control unit 200. .

이를 위하여 상기 자세감지센서(150)는 예를 들어 자이로스코프(Gyroscope), 가속도계, 자력계 등을 포함하는 MEMS(Micro-electrical-mechanical system) 센서로 구성될 수 있다. 상기 자세감지센서(150)의 종류는 일예를 들어 설명한 것에 불과하며, 전술한 구성에 한정되지는 않는다. 나아가, 상기 사용자의 머리의 피칭(pitching), 요잉(yawing) 및 롤링(rolling) 회전 이외에 사용자의 머리의 전진 또는 후진 등과 같은 다양한 움직임도 물론 감지하도록 상기 자세감지센서(150)가 구성될 수 있다.To this end, the attitude sensor 150 may be configured as a micro-electrical-mechanical system (MEMS) sensor including, for example, a gyroscope, an accelerometer, and a magnetometer. The type of the posture sensor 150 is only described as an example, and is not limited to the above-described configuration. Furthermore, the posture sensor 150 may be configured to detect various movements such as forward or backward of the user's head in addition to the pitching, yawing and rolling rotation of the user's head. .

한편, 도 4는 사용자(10)가 상기 헤드셋(100)을 착용한 상태에서 머리를 이동 또는 회전시키는 동작을 도시한 개략도이다.Meanwhile, FIG. 4 is a schematic diagram illustrating an operation of moving or rotating a head while the user 10 is wearing the headset 100.

도 4에 도시된 바와 같이, 사용자는 상기 헤드셋(100)을 착용한 상태에서 머리를 상하방향으로 회전, 좌우방향으로 회전 또는 측면으로 회전할 수 있다.As shown in FIG. 4, the user can rotate the head vertically, horizontally, or laterally while wearing the headset 100.

이 경우, 사용자의 머리를 상하방향으로 회전시키는 경우가 피칭(pitching)(A)에 해당하며, 좌우방향으로 회전하는 경우가 요잉(yawing)(B)에 해당하며, 측면으로 회전하는 경우가 롤링(rolling)(C)에 해당한다.In this case, the case of rotating the user's head up and down corresponds to pitching (A), the case of rotating left and right corresponds to yawing (B), and the case of rotating to the side corresponds to rolling. Corresponds to (rolling)(C).

상기 자세감지센서(150)에서 상기 사용자의 머리 움직임을 통해 감지된 측정값은 예를 들어 API(Application Programming Interface) 함수 등을 이용하여 융합, 교정, 예측 과정을 거쳐 피칭(pitching), 요잉(yawing) 및 롤링(rolling) 회전 방향 값을 실시간으로 상기 제어부(200)로 제공하게 된다.The measured value detected through the movement of the user's head by the posture sensor 150 is fused, corrected, and predicted using, for example, an API (Application Programming Interface) function, and then pitching and yawing. ) And rolling rotation direction values are provided to the control unit 200 in real time.

이 경우, 상기 제어부(200)는 상기 자세감지센서(150)에서 전송된 자세정보에 따라 상기 내시경(430)의 상하회전, 좌우회전, 전진 및 후진의 구동제어신호를 생성하여 상기 구동부(300)로 송신하게 된다.In this case, the control unit 200 generates driving control signals for up and down rotation, left and right rotation, forward and backward movement of the endoscope 430 according to the posture information transmitted from the posture detection sensor 150, and the driving unit 300 Will be sent to.

사용자가 상기 헤드셋(100)을 착용하여 상기 영상표시부(110)를 통해 상기 내시경(430)에서 실시간으로 전송되는 영상을 확인하는 경우, 보고 싶은 영역으로 머리를 회전시키게 된다.When the user wears the headset 100 and checks an image transmitted in real time from the endoscope 430 through the image display unit 110, the head is rotated to the desired area.

따라서, 전술한 바와 같이 상기 헤드셋(100)에 구비된 상기 자세감지센서(150)에서 상기 사용자의 머리 움직임 또는 피칭(pitching), 요잉(yawing) 및 롤링(rolling)의 회전방향을 감지하여 측정값을 상기 제어부(200)로 전송하게 된다. Therefore, as described above, the posture sensor 150 provided in the headset 100 detects the movement of the user's head or the direction of rotation of the pitching, yawing, and rolling Is transmitted to the control unit 200.

결국, 본 실시예의 경우 상기 사용자의 머리 움직임 또는 회전이 직접 상기 내시경(430)의 이동 또는 회전 움직임으로 구현되어, 상기 내시경(430)의 직관적이고 직접적인 제어가 가능하게 된다.Consequently, in the present embodiment, the movement or rotation of the user's head is directly implemented as a movement or rotation movement of the endoscope 430, so that intuitive and direct control of the endoscope 430 is possible.

예를 들어, 상기 헤드셋(100)을 착용한 사용자가 머리를 상하방향으로 회전시키는 경우, 즉 피칭(pitching)(A)에 해당하는 측정값이 전송되는 경우에 상기 제어부(200)는 상기 내시경(430)을 상하방향으로 회전시키는 구동제어신호를 생성하여 상기 구동부(300)로 전송할 수 있다.For example, when the user wearing the headset 100 rotates the head in the vertical direction, that is, when a measurement value corresponding to a pitching (A) is transmitted, the control unit 200 may use the endoscope ( A driving control signal for rotating 430 in the vertical direction may be generated and transmitted to the driving unit 300.

또한, 상기 헤드셋(100)을 착용한 사용자가 머리를 좌우방향으로 회전시키는 경우, 즉 요잉(yawing)(B)에 해당하는 측정값이 전송되는 경우에 상기 제어부(200)는 상기 내시경(430)을 좌우방향으로 회전시키는 구동제어신호를 생성하여 상기 구동부(300)로 전송할 수 있다.In addition, when the user wearing the headset 100 rotates the head in the left and right direction, that is, when a measurement value corresponding to yawing (B) is transmitted, the control unit 200 controls the endoscope 430 A driving control signal for rotating in the left and right directions may be generated and transmitted to the driving unit 300.

나아가, 상기 헤드셋(100)을 착용한 사용자가 머리를 측면방향으로 회전시키는 경우, 즉 롤링(rolling)(C)에 해당하는 측정값이 전송되는 경우에 상기 제어부(200)는 상기 내시경(430)을 전진 또는 후진시키는 구동제어신호를 생성하여 상기 구동부(300)로 전송할 수 있다. 예를 들어, 머리를 Z축을 중심으로 왼쪽으로 기울이는 경우에 상기 내시경(430)을 전진시키고, 머리를 Z축을 중심으로 오른쪽으로 기울이는 경우에 상기 내시경(430)을 후진시키도록 구동제어신호를 생성할 수 있다.Further, when the user wearing the headset 100 rotates the head in the lateral direction, that is, when a measurement value corresponding to rolling (C) is transmitted, the control unit 200 is the endoscope 430 A driving control signal for moving forward or backward may be generated and transmitted to the driving unit 300. For example, when the head is tilted to the left around the Z axis, the endoscope 430 moves forward, and when the head is tilted to the right around the Z axis, a drive control signal is generated to reverse the endoscope 430. I can.

한편, 상기 사용자의 머리의 롤링에 대응하는 구동제어신호는 일예를 들어 설명한 것에 불과하며 다른 구동제어신호가 생성되는 것도 가능하다.Meanwhile, the driving control signal corresponding to the rolling of the user's head is only described as an example, and other driving control signals may be generated.

또한, 상기 사용자의 머리의 피칭(pitching), 요잉(yawing) 및 롤링(rolling) 회전 이외에 사용자의 머리의 전진 또는 후진 등과 같은 움직임을 감지하여 이에 대응하는 상기 내시경(430)의 움직임도 물론 구현할 수 있다.In addition, in addition to the pitching, yawing and rolling rotation of the user's head, movement of the endoscope 430 corresponding thereto by detecting movements such as forward or backward of the user's head can of course be implemented. have.

도 5는 전술한 바와 같이 상기 제어부(200)에 의해 상기 구동부(300)로 상기 구동제어신호가 전송되어, 상기 구동부(300)에 의해 상기 내시경(430)의 움직임을 구현하는 동작을 개략적으로 도시한 도면이다.5 schematically shows the operation of implementing the movement of the endoscope 430 by the driving unit 300 by transmitting the driving control signal to the driving unit 300 by the control unit 200 as described above. It is a drawing.

도 5를 참조하면, 상기 내시경(430)의 상단부는 상기 구동부(300)에 연결될 수 있으며, 상기 내시경(430)의 하단부는 상기 내시경 절개부위(21)를 통해 전술한 수술공간(12)으로 삽입될 수 있다.5, the upper end of the endoscope 430 may be connected to the driving unit 300, and the lower end of the endoscope 430 is inserted into the surgical space 12 described above through the endoscope incision part 21 Can be.

상기 내시경 절개부위(21)는 상기 내시경(430)이 통과할 수 있는 직경 또는 크기의 복강공 등으로 이루어질 수 있다.The endoscope incision part 21 may be formed of an abdominal cavity having a diameter or size through which the endoscope 430 can pass.

이때, 상기 내시경(430)의 이동 또는 회전으로 인해 상기 내시경 절개부위(21)가 벌어지거나 손상을 받을 수 있으며, 이는 신체의 손상을 최소화하며 수술을 안전하고 정확하게 수행하고자 하는 최소 침습 수술을 저해하는 동작에 해당한다.At this time, the endoscope incision part 21 may be opened or damaged due to the movement or rotation of the endoscope 430, which minimizes damage to the body and inhibits minimally invasive surgery to safely and accurately perform surgery. It corresponds to the action.

따라서, 본 실시예에 따른 수술로봇 시스템(1000)의 경우, 상기 구동부(300)에 의해 상기 내시경(430)을 이동 또는 회전시키는 경우에 상기 내시경 절개부위(21)를 중심으로 상기 내시경(430)이 회전할 수 있는 영역(D) 내에서 상기 내시경(430)이 움직이도록 제어하게 된다.Therefore, in the case of the surgical robot system 1000 according to the present embodiment, when the endoscope 430 is moved or rotated by the driving unit 300, the endoscope 430 is centered on the endoscope incision part 21 The endoscope 430 is controlled to move within the rotatable region D.

즉, 상기 내시경(430)이 이동 또는 회전을 하는 경우에 상기 내시경 절개부위(21)는 벌어지거나 손상받지 않게 되어 환자의 신체의 손상을 최소화하여 안전하게 수술을 진행할 수 있다.That is, when the endoscope 430 moves or rotates, the endoscope incision part 21 is not open or damaged, so that the patient's body can be minimized and the operation can be safely performed.

도 5에는 도시되지 않았지만, 상기 내시경 절개부위(21)에는 상기 내시경(430)의 이동을 제한하는 제한부(미도시)를 더 구비할 수 있다. 예를 들어, 상기 제한부는 상기 내시경 절개부위(21)의 상부에 위치하고, 상기 내시경(430)이 관통할 수 있는 고리 또는 개구부를 구비할 형태를 가질 수 있다.Although not shown in FIG. 5, the endoscope incision portion 21 may further include a limiting portion (not shown) that restricts movement of the endoscope 430. For example, the limiting part may be positioned above the endoscope incision part 21 and may have a shape to have a ring or an opening through which the endoscope 430 can pass.

따라서, 상기 내시경(430)이 상기 제한부를 관통하여 상기 상기 내시경 절개부위(21)를 통해 수술공간(12)으로 삽입된다면, 상기 내시경(430)의 상단부를 이동시키거나 회전시키는 경우에 상기 내시경(430)의 하단부를 이동시키거나 회전시킬 수 있다.Therefore, if the endoscope 430 passes through the limiting portion and is inserted into the operating space 12 through the endoscope incision part 21, the endoscope (in case of moving or rotating the upper end of the endoscope 430) ( The lower end of 430) can be moved or rotated.

또한, 상기 제한부에 의해 상기 내시경 절개부위(21)에 인접한 상기 내시경(430)의 움직임의 반경을 줄일 수 있게 되어 상기 내시경 절개부위(21)의 손상 또는 벌어짐을 방지할 수 있다.In addition, the limiting portion makes it possible to reduce the radius of movement of the endoscope 430 adjacent to the endoscope incision part 21, thereby preventing damage or opening of the endoscope incision part 21.

한편, 사용자가 한 방향을 계속해서 응시하는 경우에도 사용자의 머리는 완전히 고정된 상태가 아니라 미세하게 움직임 또는 회전동작이 발생할 수 있다. 특히, 사용자가 상기 로봇팔(410)을 조작하여 수술을 진행하는 중이라면 사용자가 하나의 일정 영역의 수술부위를 계속 응시하는 경우에도 사용자의 머리는 미세하게 움직이거나 회전할 수 있다.On the other hand, even when the user continues to stare in one direction, the user's head is not completely fixed, but a minute movement or rotation may occur. In particular, if the user is operating the robot arm 410 to perform the operation, the user's head may move or rotate finely even when the user continues to stare at the surgical site in one predetermined area.

사용자가 일정 영역의 수술부위를 계속 응시하는 중에 사용자의 머리가 미세하게 움직이거나 회전하는 경우에도 이에 대응하여 상기 내시경(430)을 이동 또는 회전시키도록 상기 제어부(200)에서 상기 구동제어신호를 생성할 수도 있다. 이 경우, 상기 구동제어신호를 전송받은 상기 구동부(300)에 의해 상기 내시경(430)이 이동 또는 회전하게 된다면, 이는 사용자가 원하지 않는 경우에도 상기 내시경(430)을 움직이게 되어 수술을 원할하게 진행하는데 오히려 방해가 될 수 있다.The control unit 200 generates the drive control signal to move or rotate the endoscope 430 in response to the case where the user's head moves or rotates minutely while the user continues to stare at the surgical site in a certain area. You may. In this case, if the endoscope 430 is moved or rotated by the driving unit 300 that has received the driving control signal, it moves the endoscope 430 even if the user does not want it to proceed smoothly. Rather, it can be a hindrance.

따라서, 상기 제어부(200)는 상기 사용자의 머리 움직임에 따른 상기 자세정보가 미리 정해진 임계값 이상에 해당하는 경우에 상기 구동제어신호를 생성할 수 있다.Accordingly, the control unit 200 may generate the driving control signal when the posture information according to the movement of the user's head falls above a predetermined threshold.

즉, 상기 사용자의 머리 움직임에 따른 상기 자세정보가 미리 정해진 임계값보다 작은 경우에는 사용자가 의도적으로 머리를 움직인 것이 아니라 의도치 않게 머리가 움직인 것으로 판단하여 상기 구동제어신호를 생성하지 않게 된다.That is, if the posture information according to the movement of the user's head is smaller than a predetermined threshold, it is determined that the user has not intentionally moved the head but has unintentionally moved the head, and thus the drive control signal is not generated. .

반면에, 상기 사용자의 머리 움직임에 따른 상기 자세정보가 미리 정해진 임계값 이상인 경우에는 사용자가 의도적으로 머리를 움직인 것으로 판단하여 상기 구동제어신호를 생성하여 상기 구동부(300)로 전송하게 된다.On the other hand, when the posture information according to the movement of the user's head exceeds a predetermined threshold, it is determined that the user has intentionally moved his or her head, and the driving control signal is generated and transmitted to the driving unit 300.

한편, 상기 사용자의 머리 움직임에 따른 상기 자세정보가 미리 정해진 임계값 이상인 경우, 상기 제어부(200)는 상기 사용자의 머리 이동거리 또는 회전각도에 비례하여 상기 내시경(430)을 이동 또는 회전시키는 상기 구동제어신호를 생성하게 된다.On the other hand, when the posture information according to the movement of the user's head exceeds a predetermined threshold, the control unit 200 moves or rotates the endoscope 430 in proportion to the movement distance or rotation angle of the user's head. It generates a control signal.

예를 들어, 사용자의 머리의 회전에 따라 측정값이 임계값 이상이 되면 실시간 회전값과 비례하여 적정 속도를 가지는 구동제어신호를 상기 구동부(300)로 전송하여 사용자의 머리의 회전 정도에 따라 상기 내시경(430)의 속도가 제어될 수 있다.For example, when the measured value exceeds the threshold value according to the rotation of the user's head, a driving control signal having an appropriate speed in proportion to the real-time rotation value is transmitted to the driving unit 300, and according to the rotation degree of the user's head. The speed of the endoscope 430 may be controlled.

한편, 본 실시예와 같이 헤드셋(100)을 이용하여 상기 내시경(430)의 움직임을 제어하는 경우, 상기 내시경(430) 만을 통해서 수술부위를 관찰하게 되므로 상기 수술공간으로 삽입된 내시경(430)과 로봇팔(410)의 충돌이 발생할 수 있다. 특히, 상기 로봇팔(410)을 전술한 바와 같이 복수개 구비하는 경우에 상기 로봇팔(410)과 내시경(430)의 충돌 가능성이 높아지게 된다. 상기 로봇팔(410)과 내시경(430)이 충돌하게 되면, 상기 수술공간(12)에 위치한 장기(15), 동맥과 정맥과 같은 각종 혈관(17) 또는 신경(19) 등에 손상이 발생할 수 있다.On the other hand, in the case of controlling the movement of the endoscope 430 using the headset 100 as in this embodiment, since the surgical site is observed only through the endoscope 430, the endoscope 430 inserted into the operating space and Collision of the robot arm 410 may occur. In particular, when a plurality of robot arms 410 are provided as described above, the possibility of collision between the robot arm 410 and the endoscope 430 increases. When the robot arm 410 and the endoscope 430 collide, damage may occur to the organs 15 located in the operating space 12, various blood vessels 17 such as arteries and veins, or nerves 19. .

이미 살펴본 바와 같이, 최소 침습 수술은 신체의 손상을 최소화하며 수술의 정확성과 안전성을 높일 수 있는 수술에 해당한다. 따라서, 상기 수술공간(12) 내에서 상기 수술로봇 시스템(1000)에 의해 수술을 진행하는 경우에 상기 로봇팔(410)과 내시경(430)의 충돌을 방지할 필요가 있다.As we have already seen, minimally invasive surgery is a surgery that minimizes damage to the body and increases the accuracy and safety of surgery. Therefore, when the surgery is performed by the surgical robot system 1000 in the surgical space 12, it is necessary to prevent the robot arm 410 from colliding with the endoscope 430.

도 6은 상기 제어부(200)에 의해 상기 내시경(430)과 로봇팔(410)의 충돌방지를 위한 제어동작을 설명하기 위한 도면에 해당한다. 도 6에서는 설명의 편의를 위해 상기 로봇팔(410)을 하나만 도시하였음을 밝혀둔다.6 is a diagram for explaining a control operation for preventing collision between the endoscope 430 and the robot arm 410 by the control unit 200. In FIG. 6, it is revealed that only one robot arm 410 is shown for convenience of description.

도 6을 참조하면, 상기 제어부(200)는 상기 내시경(430)과 상기 로봇팔(410) 사이의 거리가 미리 정해진 최소값 이하인 경우에 상기 내시경(430)과 상기 로봇팔(410)의 충돌 방지를 위한 충돌방지제어신호를 생성하여 상기 구동부(300)로 전송할 수 있다.6, when the distance between the endoscope 430 and the robot arm 410 is less than a predetermined minimum value, the control unit 200 prevents collision between the endoscope 430 and the robot arm 410. An anti-collision control signal may be generated and transmitted to the driving unit 300.

상기 제어부(200)는 상기 내시경(430)과 로봇팔(410)을 일방향으로 길게 연장된 직육면체의 형상으로 설정하여 인식하게 된다. 이 경우, 상기 제어부(200)는 상기 내시경(430)의 직육면체와 상기 로봇팔(410)의 직육면에 사이에 교차점이 발생하지 않도록 상기 내시경(430) 또는 로봇팔(410)의 움직임을 제어하게 된다.The control unit 200 sets and recognizes the endoscope 430 and the robot arm 410 in the shape of a rectangular parallelepiped extending in one direction. In this case, the control unit 200 controls the movement of the endoscope 430 or the robot arm 410 so that no intersection occurs between the rectangular parallelepiped of the endoscope 430 and the rectangular surface of the robot arm 410. do.

이와 같이, 상기 제어부(200)가 상기 내시경(430)과 로봇팔(410)의 형상을 직육면체 형상으로 설정하여 인식함으로써, 복잡한 수술 도구와 내시경의 형상을 단순화하여 제어하는 것이 가능해진다.As described above, the control unit 200 sets and recognizes the shapes of the endoscope 430 and the robot arm 410 in a rectangular parallelepiped shape, thereby simplifying and controlling the shape of the complicated surgical tool and the endoscope.

구체적으로, 상기 제어부(200)는 상기 내시경(430)의 직육면체의 중심부를 관통하는 제1 중심선(432)과 상기 로봇팔(410)의 직육면체의 중심부를 관통하는 제2 중심선(412)을 설정할 수 있다.Specifically, the control unit 200 may set a first center line 432 penetrating the center of the rectangular parallelepiped of the endoscope 430 and a second center line 412 penetrating the center of the rectangular parallelepiped of the robot arm 410. have.

상기 제어부는 상기 제1 중심선(432)과 제2 중심선(412)의 3차원 위치 또는 속도정보와 같은 상태정보를 상기 내시경(430)과 로봇팔(410)에서 각각 전달받을 수 있다.The controller may receive state information such as 3D position or speed information of the first center line 432 and the second center line 412 from the endoscope 430 and the robot arm 410, respectively.

이 경우, 상기 제어부는 상기 제1 중심선(432)과 제2 중심선(412) 사이의 최소거리(L)가 상기 최소값 이하인 경우에 상기 충돌방지제어신호를 생성할 수 있다.In this case, the controller may generate the collision prevention control signal when the minimum distance L between the first center line 432 and the second center line 412 is less than or equal to the minimum value.

상기 최소값은 상기 내시경(430)과 로봇팔(410)의 각각의 두께 또는 단면적을 고려하여 상기 내시경(430)이 상기 최소거리를 증가시키도록 움직임이 가능한 충분한 제어시간을 가지도록 적절하게 설정될 수 있다.The minimum value may be appropriately set to have a sufficient control time to allow movement of the endoscope 430 to increase the minimum distance in consideration of the thickness or cross-sectional area of each of the endoscope 430 and the robot arm 410. have.

한편, 전술한 바와 같이 상기 내시경(430) 및 로봇팔(410)의 충돌방지를 위해서는 상기 내시경(430) 및 로봇팔(410)의 위치 또는 속도정보와 같은 상태정보가 실시간으로 상기 제어부(200)로 전송될 수 있다.Meanwhile, as described above, in order to prevent collision between the endoscope 430 and the robot arm 410, status information such as the position or speed information of the endoscope 430 and the robot arm 410 is stored in the control unit 200 in real time. Can be sent to.

예를 들어, 상기 수술로봇 시스템(1000)은 상기 내시경(430) 및 로봇팔(410)의 위치정보를 추출할 수 있는 위치 추출부(미도시)를 더 구비할 수 있다.For example, the surgical robot system 1000 may further include a location extracting unit (not shown) capable of extracting location information of the endoscope 430 and the robot arm 410.

상기 위치 추출부는 예를 들어 광학추적기(Optical Tracker), 카메라 등을 이용하여 실시간으로 상기 수술공간(12)으로 삽입된 상기 내시경(430)과 로봇팔(410)의 위치를 추출할 수 있다.The location extraction unit may extract the positions of the endoscope 430 and the robot arm 410 inserted into the surgical space 12 in real time using, for example, an optical tracker or a camera.

상기 위치 추출부에 의해 상기 내시경(430) 및 로봇팔(410)의 위치를 실시간으로 파악하는 경우에, 상기 제어부(200)는 궤적추정(trajectory estimation) 등을 통해 상기 내시경(430) 및 로봇팔(410)의 예상경로를 파악하여 전술한 충돌방지제어신호를 생성할 수 있다.When the position of the endoscope 430 and the robot arm 410 is determined in real time by the position extracting unit, the control unit 200 may use the endoscope 430 and the robot arm through trajectory estimation. By grasping the expected path of 410, the above-described collision avoidance control signal may be generated.

도 7은 전술한 구성을 가지는 수술로봇 시스템(1000)의 구동방법을 도시한 순서도이다.7 is a flow chart showing a method of driving the surgical robot system 1000 having the above-described configuration.

도 7을 참조하면, 상기 수술로봇 시스템(1000)의 구동방법은 사용자의 머리 움직임을 감지하여 자세정보를 생성하는 단계(S710)와, 상기 자세정보에 따라 상기 내시경(430)을 이동시키는 구동제어신호를 생성하는 단계(S730)와, 상기 구동제어신호에 따라 상기 내시경(430)을 이동시키는 단계(S750)를 포함할 수 있다.Referring to FIG. 7, the driving method of the surgical robot system 1000 includes a step of generating posture information by detecting a movement of a user's head (S710), and a driving control for moving the endoscope 430 according to the posture information. It may include generating a signal (S730) and moving the endoscope 430 according to the driving control signal (S750).

먼저, 상기 상기 자세정보를 생성하는 단계(S710)는 상기 사용자의 머리의 피칭(pitching), 요잉(yawing) 및 롤링(rolling) 회전을 감지하여 상기 자세정보를 생성하게 된다.First, in the step of generating the posture information (S710), the posture information is generated by detecting the pitching, yawing, and rolling rotation of the user's head.

이 경우, 상기 사용자는 헤드셋(100)을 머리에 착용하게 되며, 상기 사용자의 머리의 이동 또는 회전방향을 상기 헤드셋(100)에 의해 감지하여 상기 자세정보를 생성하게 된다.In this case, the user wears the headset 100 on the head, and the position information is generated by detecting the movement or rotation direction of the user's head by the headset 100.

또한, 상기 구동제어신호를 생성하는 단계(S730)는 상기 내시경(430)의 상하회전, 좌우회전, 전진 및 후진의 구동제어신호를 생성하게 된다.In addition, in the step of generating the driving control signal (S730), driving control signals for vertical rotation, left and right rotation, forward and backward rotation of the endoscope 430 are generated.

예를 들어, 상기 헤드셋(100)에 구비된 상기 자세감지센서(150)에서 상기 사용자의 머리 움직임 또는 피칭(pitching), 요잉(yawing) 및 롤링(rolling)의 회전방향을 감지하여 측정값을 상기 제어부(200)로 전송하게 된다. For example, the posture sensor 150 provided in the headset 100 detects the movement of the user's head or the direction of rotation of the pitching, yawing, and rolling, and the measured value is It is transmitted to the control unit 200.

예를 들어, 상기 헤드셋(100)을 착용한 사용자가 머리를 상하방향으로 회전시키는 경우, 즉 피칭(pitching)(A)에 해당하는 측정값이 전송되는 경우에 상기 제어부(200)는 상기 내시경(430)을 상하방향으로 회전시키는 구동제어신호를 생성하여 상기 구동부(300)로 전송할 수 있다.For example, when the user wearing the headset 100 rotates the head in the vertical direction, that is, when a measurement value corresponding to a pitching (A) is transmitted, the control unit 200 may use the endoscope ( A driving control signal for rotating 430 in the vertical direction may be generated and transmitted to the driving unit 300.

또한, 상기 헤드셋(100)을 착용한 사용자가 머리를 좌우방향으로 회전시키는 경우, 즉 요잉(yawing)(B)에 해당하는 측정값이 전송되는 경우에 상기 제어부(200)는 상기 내시경(430)을 좌우방향으로 회전시키는 구동제어신호를 생성하여 상기 구동부(300)로 전송할 수 있다.In addition, when the user wearing the headset 100 rotates the head in the left and right direction, that is, when a measurement value corresponding to yawing (B) is transmitted, the control unit 200 controls the endoscope 430 A driving control signal for rotating in the left and right directions may be generated and transmitted to the driving unit 300.

나아가, 상기 헤드셋(100)을 착용한 사용자가 머리를 측면방향으로 회전시키는 경우, 즉 롤링(rolling)(C)에 해당하는 측정값이 전송되는 경우에 상기 제어부(200)는 상기 내시경(430)을 전진 또는 후진시키는 구동제어신호를 생성하여 상기 구동부(300)로 전송할 수 있다. 예를 들어, 머리를 Z축을 중심으로 왼쪽으로 기울이는 경우에 상기 내시경(430)을 전진시키고, 머리를 Z축을 중심으로 오른쪽으로 기울이는 경우에 상기 내시경(430)을 후진시키도록 구동제어신호를 생성할 수 있다.Further, when the user wearing the headset 100 rotates the head in the lateral direction, that is, when a measurement value corresponding to rolling (C) is transmitted, the control unit 200 is the endoscope 430 A driving control signal for moving forward or backward may be generated and transmitted to the driving unit 300. For example, when the head is tilted to the left around the Z axis, the endoscope 430 moves forward, and when the head is tilted to the right around the Z axis, a drive control signal is generated to reverse the endoscope 430. I can.

한편, 상기 구동제어신호를 생성하는 단계(S730)는 상기 사용자의 머리 움직임에 따른 상기 자세정보가 미리 정해진 임계값 이상에 해당하는 경우에 상기 구동제어신호를 생성하게 된다.Meanwhile, in the step of generating the driving control signal (S730), the driving control signal is generated when the posture information according to the movement of the user's head falls above a predetermined threshold.

즉, 상기 사용자의 머리 움직임에 따른 상기 자세정보가 미리 정해진 임계값보다 작은 경우에는 사용자가 의도적으로 머리를 움직인 것이 아니라 의도치 않게 머리가 움직인 것으로 판단하여 상기 구동제어신호를 생성하지 않게 된다.That is, if the posture information according to the movement of the user's head is smaller than a predetermined threshold, it is determined that the user has not intentionally moved the head but has unintentionally moved the head, and thus the drive control signal is not generated. .

반면에, 상기 사용자의 머리 움직임에 따른 상기 자세정보가 미리 정해진 임계값 이상인 경우에는 사용자가 의도적으로 머리를 움직인 것으로 판단하여 상기 구동제어신호를 생성하여 상기 구동부(300)로 전송하게 된다.On the other hand, when the posture information according to the movement of the user's head exceeds a predetermined threshold, it is determined that the user has intentionally moved his or her head, and the driving control signal is generated and transmitted to the driving unit 300.

한편, 상기 사용자의 머리 움직임에 따른 상기 자세정보가 미리 정해진 임계값 이상인 경우, 상기 제어부(200)는 상기 사용자의 머리 이동거리 또는 회전각도에 비례하여 상기 내시경(430)을 이동 또는 회전시키는 상기 구동제어신호를 생성하게 된다.On the other hand, when the posture information according to the movement of the user's head exceeds a predetermined threshold, the control unit 200 moves or rotates the endoscope 430 in proportion to the movement distance or rotation angle of the user's head. It generates a control signal.

예를 들어, 사용자의 머리의 회전에 따라 측정값이 임계값 이상이 되면 실시간 회전값과 비례하여 적정 속도를 가지는 구동제어신호를 상기 구동부(300)로 전송하여 사용자의 머리의 회전 정도에 따라 상기 내시경(430)의 속도가 제어될 수 있다.For example, when the measured value exceeds the threshold value according to the rotation of the user's head, a driving control signal having an appropriate speed in proportion to the real-time rotation value is transmitted to the driving unit 300, and according to the rotation degree of the user's head. The speed of the endoscope 430 may be controlled.

또한, 상기 수술로봇 시스템의 구동제어방법은 상기 내시경(430)과 상기 로봇팔(410) 사이의 거리가 미리 정해진 최소값 이하인 경우에 상기 내시경(430)과 상기 로봇팔(410)의 충돌 방지를 위한 충돌방지제어신호를 생성하는 단계를 더 포함할 수 있다.In addition, the driving control method of the surgical robot system is for preventing collision between the endoscope 430 and the robot arm 410 when the distance between the endoscope 430 and the robot arm 410 is less than a predetermined minimum value. It may further comprise the step of generating a collision avoidance control signal.

상기 제어부(200)는 상기 내시경(430)과 로봇팔(410)을 일방향으로 길게 연장된 직육면체의 형상으로 설정하여 인식하게 된다. 이 경우, 상기 제어부(200)는 상기 내시경(430)의 직육면체와 상기 로봇팔(410)의 직육면에 사이에 교차점이 발생하지 않도록 상기 내시경(430) 또는 로봇팔(410)의 움직임을 제어하게 된다.The control unit 200 sets and recognizes the endoscope 430 and the robot arm 410 in a shape of a rectangular parallelepiped extending in one direction. In this case, the control unit 200 controls the movement of the endoscope 430 or the robot arm 410 so that no intersection occurs between the rectangular parallelepiped of the endoscope 430 and the rectangular surface of the robot arm 410. do.

이와 같이, 상기 제어부(200)가 상기 내시경(430)과 로봇팔(410)의 형상을 직육면체 형상으로 설정하여 인식함으로써, 복잡한 수술 도구와 내시경의 형상을 단순화하여 제어하는 것이 가능해진다.As described above, the control unit 200 sets and recognizes the shapes of the endoscope 430 and the robot arm 410 in a rectangular parallelepiped shape, thereby simplifying and controlling the shape of the complicated surgical tool and the endoscope.

구체적으로, 상기 제어부(200)는 상기 내시경(430)의 직육면체의 중심부를 관통하는 제1 중심선(432)과 상기 로봇팔(410)의 직육면체의 중심부를 관통하는 제2 중심선(412)을 설정할 수 있다.Specifically, the control unit 200 may set a first center line 432 penetrating the center of the rectangular parallelepiped of the endoscope 430 and a second center line 412 penetrating the center of the rectangular parallelepiped of the robot arm 410. have.

상기 제어부는 상기 제1 중심선(432)과 제2 중심선(412)의 3차원 위치 또는 속도정보와 같은 상태정보를 상기 내시경(430)과 로봇팔(410)에서 각각 전달받을 수 있다.The controller may receive state information such as 3D position or speed information of the first center line 432 and the second center line 412 from the endoscope 430 and the robot arm 410, respectively.

이 경우, 상기 제어부는 상기 제1 중심선(432)과 제2 중심선(412) 사이의 최소거리(L)가 상기 최소값 이하인 경우에 상기 충돌방지제어신호를 생성할 수 있다.In this case, the controller may generate the collision prevention control signal when the minimum distance L between the first center line 432 and the second center line 412 is less than or equal to the minimum value.

상기 최소값은 상기 내시경(430)과 로봇팔(410)의 각각의 두께 또는 단면적을 고려하여 상기 내시경(430)이 상기 최소거리를 증가시키도록 움직임이 가능한 충분한 제어시간을 가지도록 적절하게 설정될 수 있다.The minimum value may be appropriately set to have a sufficient control time to allow movement of the endoscope 430 to increase the minimum distance in consideration of the thickness or cross-sectional area of each of the endoscope 430 and the robot arm 410. have.

본 발명은 다양한 형태로 변형되어 실시될 수 있을 것인 바 상술한 실시예에 그 권리범위가 한정되지 않는다. 따라서 변형된 실시예가 본 발명 특허청구범위의 구성요소를 포함하고 있다면 본 발명의 권리범위에 속하는 것으로 보아야 할 것이다.The scope of the rights is not limited to the above-described embodiments as the present invention may be modified and implemented in various forms. Therefore, if the modified embodiment includes the elements of the claims of the present invention, it should be viewed as belonging to the scope of the present invention.

100 : 헤드셋
110 : 영상표시부
130 : 영상수신부
150 : 자세감지센서
170 : 송신부
200 : 제어부
300 : 구동부
410 : 로봇팔
430 : 내시경
1000 : 수술로봇 시스템
100: headset
110: image display
130: image receiver
150: posture sensor
170: transmitter
200: control unit
300: drive unit
410: robot arm
430: endoscope
1000: surgical robot system

Claims (16)

소정의 절개부위를 통해 수술공간으로 삽입되어 수술부위를 실시간으로 촬영하는 내시경;
상기 수술공간 내부에서 상기 내시경을 이동시키는 구동부;
사용자의 머리에 착탈 가능하게 착용되어 상기 사용자의 머리 움직임을 감지하여 상기 사용자의 머리움직임에 따라 자세정보를 생성하며, 상기 내시경에서 촬영된 2D 또는 3D 영상들을 표시하는 헤드셋(headset); 및
상기 헤드셋에서 생성된 자세정보에 따라 상기 구동부를 제어하도록 구동제어신호를 상기 구동부로 송신하며, 상기 내시경으로부터 영상정보를 수신하여 상기 헤드셋으로 전송하는 제어부;를 포함하는 것을 특징으로 하는 최소 침습 수술을 위한 수술로봇 시스템.
An endoscope that is inserted into the surgical space through a predetermined incision and photographs the surgical site in real time;
A driving unit for moving the endoscope within the operating space;
A headset that is detachably worn on the user's head, senses the movement of the user's head, generates posture information according to the movement of the user's head, and displays 2D or 3D images captured by the endoscope; And
A minimally invasive surgery comprising: a control unit transmitting a driving control signal to the driving unit to control the driving unit according to the posture information generated by the headset, and receiving image information from the endoscope and transmitting it to the headset; For surgical robot system.
제1항에 있어서,
상기 헤드셋은,
상기 제어부에서 전송되는 영상정보를 수신하는 영상수신부;
상기 영상수신부에 의해 수신된 상기 영상정보를 표시하는 영상표시부;
상기 사용자의 머리 이동, 회전 또는 각속도를 감지하여 상기 자세정보를 생성하는 자세감지센서; 및
상기 자세정보를 상기 제어부로 송신하는 송신부;를 구비하는 것을 특징으로 하는 최소 침습 수술을 위한 수술로봇 시스템.
The method of claim 1,
The headset,
An image receiving unit for receiving image information transmitted from the control unit;
An image display unit for displaying the image information received by the image receiving unit;
A posture sensor for generating the posture information by detecting the movement, rotation, or angular speed of the user's head; And
A surgical robot system for minimally invasive surgery, comprising: a transmitter for transmitting the posture information to the control unit.
제2항에 있어서,
상기 자세감지센서는
상기 사용자의 머리의 피칭(pitching), 요잉(yawing) 및 롤링(rolling) 회전을 감지하여 상기 자세정보를 생성하는 것을 특징으로 하는 최소 침습 수술을 위한 수술로봇 시스템.
The method of claim 2,
The posture sensor is
A surgical robot system for minimally invasive surgery, characterized in that for generating the posture information by detecting the user's head pitching, yawing, and rolling rotation.
제3항에 있어서,
상기 제어부는
상기 자세정보에 따라
상기 내시경의 상하회전, 좌우회전, 전진 및 후진의 구동제어신호를 상기 구동부로 송신하는 것을 특징으로 하는 최소 침습 수술을 위한 수술로봇 시스템.
The method of claim 3,
The control unit
According to the above posture information
A surgical robot system for minimally invasive surgery, characterized in that transmitting control signals for vertical rotation, left and right rotation, forward and backward movement of the endoscope to the driving unit.
제2항에 있어서,
상기 내시경은 상기 수술부위를 촬영하여 각각 영상정보를 생성하는 둘 이상의 촬영부를 구비하고,
상기 헤드셋의 영상표시부는 상기 둘 이상의 촬영부에서 각각 전송되는 영상정보를 교정(calibration)하여 표시하는 것을 특징으로 하는 최소 침습 수술을 위한 수술로봇 시스템.
The method of claim 2,
The endoscope is provided with two or more photographing units each generating image information by photographing the surgical site,
A surgical robot system for minimally invasive surgery, characterized in that the image display unit of the headset calibrates and displays image information transmitted from each of the two or more photographing units.
제1항에 있어서,
상기 제어부는
상기 사용자의 머리 움직임에 따른 상기 자세정보가 미리 정해진 임계값 이상에 해당하는 경우에 상기 구동제어신호를 생성하는 것을 특징으로 하는 최소 침습 수술을 위한 수술로봇 시스템.
The method of claim 1,
The control unit
A surgical robot system for minimally invasive surgery, characterized in that generating the drive control signal when the posture information according to the movement of the user's head falls above a predetermined threshold.
제6항에 있어서,
상기 제어부는
상기 사용자의 머리 이동거리 또는 회전각도에 비례하여 상기 내시경을 이동 또는 회전시키는 상기 구동제어신호를 생성하는 것을 특징으로 하는 최소 침습 수술을 위한 수술로봇 시스템.
The method of claim 6,
The control unit
A surgical robot system for minimally invasive surgery, characterized in that generating the drive control signal for moving or rotating the endoscope in proportion to the user's head movement distance or rotation angle.
제1항에 있어서,
상기 수술공간으로 삽입되어 상기 수술부위를 수술하기 위한 적어도 하나의 로봇팔을 더 구비하고,
상기 제어부는 상기 내시경과 상기 로봇팔 사이의 거리가 미리 정해진 최소값 이하인 경우에 상기 내시경과 상기 로봇팔의 충돌 방지를 위한 충돌방지제어신호를 생성하여 상기 구동부로 전송하는 것을 특징으로 하는 최소 침습 수술을 위한 수술로봇 시스템.
The method of claim 1,
Further comprising at least one robot arm for being inserted into the surgery space to operate on the surgical site,
The control unit performs minimally invasive surgery, characterized in that when the distance between the endoscope and the robot arm is less than a predetermined minimum value, a collision prevention control signal for preventing collision between the endoscope and the robot arm is generated and transmitted to the driving unit. For surgical robot system.
제8항에 있어서,
상기 제어부는
상기 내시경의 중심선과 상기 로봇팔의 중심선 사이의 최소거리가 상기 최소값 이하인 경우에 상기 충돌방지제어신호를 생성하는 것을 특징으로 하는 최소 침습 수술을 위한 수술로봇 시스템.
The method of claim 8,
The control unit
A surgical robot system for minimally invasive surgery, characterized in that generating the collision prevention control signal when the minimum distance between the center line of the endoscope and the center line of the robot arm is less than the minimum value.
사용자의 머리 움직임을 감지하여 자세정보를 생성하는 단계;
상기 자세정보에 따라 내시경을 이동시키는 구동제어신호를 생성하는 단계;
상기 구동제어신호에 따라 상기 내시경을 이동시키는 단계;를 포함하는 것을 특징으로 하는 수술로봇 시스템의 구동방법.
Generating posture information by detecting the movement of the user's head;
Generating a driving control signal for moving the endoscope according to the posture information;
A method of driving a surgical robot system comprising: moving the endoscope according to the driving control signal.
제10항에 있어서,
상기 자세정보를 생성하는 단계는
상기 사용자의 머리의 피칭(pitching), 요잉(yawing) 및 롤링(rolling) 회전을 감지하여 상기 자세정보를 생성하는 것을 특징으로 하는 수술로봇 시스템의 구동방법.
The method of claim 10,
Generating the posture information
The driving method of a surgical robot system, characterized in that generating the posture information by detecting the pitching, yawing, and rolling rotation of the user's head.
제11항에 있어서,
상기 구동제어신호를 생성하는 단계는
상기 내시경의 상하회전, 좌우회전, 전진 및 후진의 구동제어신호를 생성하는 것을 특징으로 하는 수술로봇 시스템의 구동방법.
The method of claim 11,
Generating the drive control signal comprises:
A method of driving a surgical robot system, characterized in that generating driving control signals for up and down rotation, left and right rotation, forward and backward rotation of the endoscope.
제10항에 있어서,
상기 구동제어신호를 생성하는 단계는
상기 사용자의 머리 움직임에 따른 상기 자세정보가 미리 정해진 임계값 이상에 해당하는 경우에 상기 구동제어신호를 생성하는 것을 특징으로 하는 수술로봇 시스템의 구동방법.
The method of claim 10,
Generating the drive control signal comprises:
The driving method of a surgical robot system, characterized in that generating the driving control signal when the posture information according to the movement of the user's head falls above a predetermined threshold.
제13항에 있어서,
상기 사용자의 머리 이동거리 또는 회전각도에 비례하여 상기 내시경을 이동 또는 회전시키는 상기 구동제어신호를 생성하는 것을 특징으로 하는 수술로봇 시스템의 구동방법.
The method of claim 13,
The driving method of a surgical robot system, characterized in that generating the driving control signal for moving or rotating the endoscope in proportion to the user's head movement distance or rotation angle.
제10항에 있어서,
상기 수술공간으로 삽입되어 상기 수술부위를 수술하기 위한 적어도 하나의 로봇팔을 더 구비하고,
상기 내시경과 상기 로봇팔 사이의 거리가 미리 정해진 최소값 이하인 경우에 상기 내시경과 상기 로봇팔의 충돌 방지를 위한 충돌방지제어신호를 생성하는 단계를 더 포함하는 것을 특징으로 하는 수술로봇 시스템의 구동방법.
The method of claim 10,
Further comprising at least one robot arm for being inserted into the surgery space to operate on the surgical site,
When the distance between the endoscope and the robot arm is less than or equal to a predetermined minimum value, generating a collision prevention control signal for preventing collision between the endoscope and the robot arm.
제15항에 있어서,
상기 내시경의 중심선과 상기 로봇팔의 중심선 사이의 최소거리가 상기 최소값 이하인 경우에 상기 충돌방지제어신호를 생성하는 것을 특징으로 하는 수술로봇 시스템의 구동방법.


The method of claim 15,
When the minimum distance between the center line of the endoscope and the center line of the robot arm is less than or equal to the minimum value, the collision prevention control signal is generated.


KR1020190025580A 2019-03-06 2019-03-06 Surgical robot system for minimal invasive surgery and drive method thereof KR102297517B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190025580A KR102297517B1 (en) 2019-03-06 2019-03-06 Surgical robot system for minimal invasive surgery and drive method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190025580A KR102297517B1 (en) 2019-03-06 2019-03-06 Surgical robot system for minimal invasive surgery and drive method thereof

Publications (2)

Publication Number Publication Date
KR20200108124A true KR20200108124A (en) 2020-09-17
KR102297517B1 KR102297517B1 (en) 2021-09-02

Family

ID=72707116

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190025580A KR102297517B1 (en) 2019-03-06 2019-03-06 Surgical robot system for minimal invasive surgery and drive method thereof

Country Status (1)

Country Link
KR (1) KR102297517B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220049062A (en) 2020-10-13 2022-04-21 서울대학교산학협력단 Surgical robot system based on Headset using voice recognition Microphone
CN116459013A (en) * 2023-04-24 2023-07-21 北京微链道爱科技有限公司 Control method based on 3D visual recognition and cooperative robot

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005524442A (en) * 2002-05-02 2005-08-18 ジーエムピー サージカル ソリューションズ インコーポレイテッド Device for positioning medical instruments
KR20100036420A (en) 2008-09-30 2010-04-08 주식회사 바이오넷 Ultrasonic diagnosis and laparoscopy aparratus for surgery
KR20110094529A (en) 2010-02-17 2011-08-24 전남대학교산학협력단 Tubular type manipulator surgical robot system with image guidance for minimal invasive surgery
KR20130010092A (en) * 2005-05-19 2013-01-25 인튜어티브 서지컬 인코포레이티드 Software center and highly configurable robotic systems for surgery and other uses
KR20130015146A (en) 2011-08-02 2013-02-13 삼성전자주식회사 Method and apparatus for processing medical image, robotic surgery system using image guidance
KR20150105803A (en) * 2014-03-10 2015-09-18 서울과학기술대학교 산학협력단 Three dimension endoscope system using giro sensor
US20190008595A1 (en) * 2015-12-29 2019-01-10 Koninklijke Philips N.V. System, controller and method using virtual reality device for robotic surgery

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005524442A (en) * 2002-05-02 2005-08-18 ジーエムピー サージカル ソリューションズ インコーポレイテッド Device for positioning medical instruments
KR20130010092A (en) * 2005-05-19 2013-01-25 인튜어티브 서지컬 인코포레이티드 Software center and highly configurable robotic systems for surgery and other uses
KR20100036420A (en) 2008-09-30 2010-04-08 주식회사 바이오넷 Ultrasonic diagnosis and laparoscopy aparratus for surgery
KR20110094529A (en) 2010-02-17 2011-08-24 전남대학교산학협력단 Tubular type manipulator surgical robot system with image guidance for minimal invasive surgery
KR20130015146A (en) 2011-08-02 2013-02-13 삼성전자주식회사 Method and apparatus for processing medical image, robotic surgery system using image guidance
KR20150105803A (en) * 2014-03-10 2015-09-18 서울과학기술대학교 산학협력단 Three dimension endoscope system using giro sensor
US20190008595A1 (en) * 2015-12-29 2019-01-10 Koninklijke Philips N.V. System, controller and method using virtual reality device for robotic surgery

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220049062A (en) 2020-10-13 2022-04-21 서울대학교산학협력단 Surgical robot system based on Headset using voice recognition Microphone
CN116459013A (en) * 2023-04-24 2023-07-21 北京微链道爱科技有限公司 Control method based on 3D visual recognition and cooperative robot
CN116459013B (en) * 2023-04-24 2024-03-22 北京微链道爱科技有限公司 Collaborative robot based on 3D visual recognition

Also Published As

Publication number Publication date
KR102297517B1 (en) 2021-09-02

Similar Documents

Publication Publication Date Title
US20230157776A1 (en) Systems and methods for constraining a virtual reality surgical system
US20200397515A1 (en) Interface for Laparoscopic Surgeries - Movement Gestures
US11717309B2 (en) Medical manipulator and method of controlling the same
US10052157B2 (en) Device and method for assisting laparoscopic surgery—rule based approach
WO2018159328A1 (en) Medical arm system, control device, and control method
US20140194699A1 (en) Single port surgical robot and control method thereof
US9844416B2 (en) Medical manipulator and method of controlling the same
US20220168047A1 (en) Medical arm system, control device, and control method
WO2017037705A1 (en) An intelligent surgical tool control system for laparoscopic surgeries
US20230110890A1 (en) Systems and methods for entering and exiting a teleoperational state
KR101598774B1 (en) Apparatus and Method for processing surgical image
KR102297517B1 (en) Surgical robot system for minimal invasive surgery and drive method thereof
KR101114232B1 (en) Surgical robot system and motion restriction control method thereof
KR101706994B1 (en) Surgical robot system and laparoscope handling method thereof
KR101683057B1 (en) Surgical robot system and motion restriction control method thereof
JP2023507063A (en) Methods, devices, and systems for controlling image capture devices during surgery
KR101715026B1 (en) Surgical robot system and motion restriction control method thereof
KR102099563B1 (en) Surgical robot system for minimal invasive surgery and method for preventing collision using the same
KR101709911B1 (en) Surgical robot system and laparoscope handling method thereof
KR101698961B1 (en) Surgical robot system and laparoscope handling method thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant