KR101447931B1 - Surgical robot system using augmented reality and control method thereof - Google Patents

Surgical robot system using augmented reality and control method thereof Download PDF

Info

Publication number
KR101447931B1
KR101447931B1 KR1020110033649A KR20110033649A KR101447931B1 KR 101447931 B1 KR101447931 B1 KR 101447931B1 KR 1020110033649 A KR1020110033649 A KR 1020110033649A KR 20110033649 A KR20110033649 A KR 20110033649A KR 101447931 B1 KR101447931 B1 KR 101447931B1
Authority
KR
South Korea
Prior art keywords
robot
information
image
surgical
unit
Prior art date
Application number
KR1020110033649A
Other languages
Korean (ko)
Other versions
KR20110042277A (en
Inventor
이민규
최승욱
홍성관
Original Assignee
(주)미래컴퍼니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)미래컴퍼니 filed Critical (주)미래컴퍼니
Priority to KR1020110033649A priority Critical patent/KR101447931B1/en
Publication of KR20110042277A publication Critical patent/KR20110042277A/en
Application granted granted Critical
Publication of KR101447931B1 publication Critical patent/KR101447931B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • A61B2034/742Joysticks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45171Surgery drill

Abstract

증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법이 개시된다. 로봇 암을 포함하는 슬레이브 로봇을 제어하는 마스터 로봇에 장착되는 인터페이스로서, 수술용 내시경으로부터 제공되는 영상 신호에 상응하는 내시경 영상을 디스플레이하는 화면 표시부와, 로봇 암을 각각 제어하기 위해 구비되는 하나 이상의 암 조작부와, 화면 표시부를 통해 가상 수술도구가 디스플레이되도록 하기 위해 암 조작부를 이용한 사용자 조작에 따른 가상 수술도구 정보를 생성하는 증강현실 구현부를 포함하는 수술용 로봇의 마스터 인터페이스는 증강현실을 이용하여 실제 수술도구와 가상 수술도구를 함께 표시함으로써 수술자의 원활한 수술을 가능하도록 한다.A surgical robot system using an augmented reality and a control method thereof are disclosed. An interface mounted on a master robot for controlling a slave robot including a robot arm, comprising: a screen display unit for displaying an endoscopic image corresponding to a video signal provided from a surgical endoscope; The master interface of the surgical robot including the manipulation unit and the augmented reality implementation unit for generating the virtual surgery tool information according to the user operation using the arm operation unit to display the virtual surgery tool through the screen display unit, By displaying the tool together with the virtual surgical tool, the operator can perform a smooth operation.

Description

증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법{Surgical robot system using augmented reality and control method thereof}Technical Field [0001] The present invention relates to a surgical robot system using augmented reality,

본 발명은 수술에 관한 것으로서, 더욱 상세하게는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법에 관한 것이다.The present invention relates to surgery, and more particularly, to a surgical robot system using an augmented reality and a control method thereof.

수술 로봇은 외과의사에 의해 시행되던 수술 행위를 대신할 수 있는 기능을 가지는 로봇을 말한다. 이러한 수술 로봇은 사람에 비하여 정확하고 정밀한 동작을 할 수 있으며 원격 수술이 가능하다는 장점을 가진다.The surgical robot refers to a robot having a function of substituting surgical operation performed by a surgeon. Such a surgical robot has an advantage that it can perform accurate and precise operation compared to a human and can perform a remote operation.

현재 전세계적으로 개발되고 있는 수술 로봇은 뼈 수술 로봇, 복강경(復腔鏡) 수술 로봇, 정위 수술 로봇 등이 있다. 여기서 복강경 수술 로봇은 복강경과 소형 수술도구를 이용하여 최소 침습적 수술을 시행하는 로봇이다.Surgical robots currently being developed around the world include bone surgery robots, laparoscopic surgery robots, and stereotactic robots. Here, a laparoscopic surgical robot is a robot that performs minimally invasive surgery using laparoscopic and small surgical instruments.

복강경 수술은 배꼽 부위에 1cm 정도의 구멍을 뚫고 배 안을 들여다보는 내시경인 복강경을 집어넣은 후 수술하는 첨단 수술기법으로서 향후 많은 발전이 기대되는 분야이다.Laparoscopic surgery is an advanced surgical technique that inserts a laparoscope, which is an endoscope that penetrates a 1 cm hole in the umbilicus and looks into the abdomen.

최근의 복강경은 컴퓨터칩이 장착되어 육안으로 보는 것보다도 더 선명하면서도 확대된 영상을 얻을 수 있으며, 또 모니터를 통해 화면을 보면서 특별히 고안된 복강경용 수술 기구들을 사용하면 어떠한 수술도 가능할 정도로 발전되었다.A recent laparoscope is equipped with a computer chip that provides a sharper, larger image than what the naked eye can see, and the laparoscopic surgical instruments specially designed for viewing through the monitor have been developed to allow any surgery.

더욱이 복강경 수술은 그 수술 범위가 개복 수술과 거의 같으면서도, 개복수술에 비해 합병증이 적고, 시술 후 훨씬 빠른 시간 안에 치료를 시작할 수 있으며, 수술 환자의 체력이나 면역기능을 유지시키는 능력이 우수한 이점이 있다. 이로 인해 미국과 유럽 등지에서는 대장암 치료 등에 있어서는 복강경 수술이 점차 표준 수술로 인식되어 가는 추세이다.In addition, laparoscopic surgery is similar to laparotomy, but it has fewer complications than laparotomy, can start treatment within a short time after surgery, and has the advantage of maintaining the patient's physical strength and immune function have. Therefore, in the United States and Europe, laparoscopic surgery is becoming increasingly recognized as a standard surgery for colorectal cancer treatment and the like.

수술 로봇 시스템은 일반적으로 마스터 로봇과 슬레이브 로봇으로 구성된다. 수술자가 마스터 로봇에 구비된 조종기(예를 들어 핸들)를 조작하면, 슬레이브 로봇의 로봇 암에 결합되거나 로봇 암이 파지하고 있는 수술도구가 조작되어 수술이 수행된다.Surgical robot systems generally consist of a master robot and a slave robot. When the operator manipulates a manipulator (e.g., a handle) provided in the master robot, the surgical tool held by the robot arm is operated by being coupled to the robot arm of the slave robot.

마스터 로봇과 슬레이브 로봇은 통신망을 통해 결합되어 네트워크 통신을 하게 된다. 이때, 네트워크 통신 속도가 충분히 빠르지 않은 경우라면, 마스터 로봇에서 전송된 조작신호가 슬레이브 로봇에 수신될 때까지 또는/및 슬레이브 로봇에 장착된 복강경 카메라로부터 전송되는 복강경 영상이 마스터 로봇에 수신될 때까지 적지 않은 시간이 소요된다. The master robot and the slave robot are connected through a communication network to perform network communication. At this time, if the network communication speed is not sufficiently fast, the operation is not performed until the operation signal transmitted from the master robot is received by the slave robot or / and the laparoscopic image transmitted from the laparoscopic camera mounted on the slave robot is received by the master robot It takes a lot of time.

일반적으로 상호간의 네트워크 통신 속도가 150ms 이내가 되어야 마스터 로봇 및 슬레이브 로봇을 이용한 수술이 가능하다고 알려져 있다. 통신 속도가 그 이상 지연되면 수술자 손의 움직임과 화면을 통해 보는 슬레이브 로봇의 움직임이 일치하지 않아 수술자는 매우 불편함을 느끼게 된다. It is generally known that the network communication speed between the master and slave robots must be within 150 ms. If the communication speed is further delayed, the movement of the operator's hand and the movement of the slave robot seen through the screen do not coincide with each other, so that the operator feels uncomfortable.

또한, 마스터 로봇과 슬레이브 로봇간의 네트워크 통신 속도가 느린 경우 수술자는 화면에 보이는 슬레이브 로봇의 움직임을 의식하거나 미리 예측하여 수술을 진행하게 된다. 이는 부자연스러운 동작이 야기되는 원인이 되며, 심할 경우에는 정상적인 수술이 이루어지지 못하는 원인도 된다.In addition, when the network communication speed between the master robot and the slave robot is slow, the operator considers the motion of the slave robot displayed on the screen or anticipates and predicts the operation of the slave robot. This causes unnatural movements, and in severe cases, normal operation can not be performed.

본 발명은, 증강현실(augmented reality)을 이용하여 실제 수술도구와 가상 수술도구를 함께 표시함으로써 수술자의 원활한 수술을 가능하도록 하는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법을 제공하기 위한 것이다.The present invention relates to a surgical robot system using an augmented reality and a control method thereof, in which an actual surgical tool and a virtual surgical tool are displayed together using an augmented reality, thereby enabling smooth operation of the operator.

또한, 본 발명은 수술시 환자에 대한 다양한 정보를 출력할 수 있는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법을 제공하기 위한 것이다.In addition, the present invention provides a surgical robot system using an augmented reality capable of outputting various information about a patient during surgery and a control method thereof.

또한, 본 발명은 마스터 로봇과 슬레이브 로봇간의 네트워크 통신 속도에 따라 수술자의 원활한 수술 진행이 가능하도록 수술 화면 표시 방법을 다양화할 수 있는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법을 제공하기 위한 것이다.It is another object of the present invention to provide a surgical robot system and a control method thereof using an augmented reality that can diversify a surgical screen display method so that an operator can smoothly proceed according to a network communication speed between a master robot and a slave robot.

또한, 본 발명은 내시경 등을 통해 입력되는 화상을 자동화 처리하여 응급 상황을 즉시 수술자에게 통지할 수 있는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법을 제공하기 위한 것이다. The present invention also provides a surgical robot system using an augmented reality capable of automatically notifying an operator of an emergency situation by automatically processing an image input through an endoscope or the like, and a control method thereof.

또한, 본 발명은 마스터 로봇의 조작에 의한 가상 수술도구의 이동 등에 따른 장기 접촉 등이 수술자에게 실시간 감지될 수 있고, 가상 수술도구와 장기간의 위치 관계가 직관적으로 인지될 수 있도록 하는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법을 제공하기 위한 것이다. In addition, the present invention can be applied to augmented reality in which a long-term contact or the like due to movement of a virtual surgical tool by manipulation of a master robot can be sensed in real time by a surgeon and intuitive recognition of a long- A surgical robot system and a control method thereof.

또한, 본 발명은 수술 부위에 대한 환자의 관련 이미지 데이터(예를 들어, CT 이미지, MRI 이미지 등)가 실시간 제시될 수 있어 다양한 정보를 활용한 수술 진행이 가능하도록 하는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법을 제공하기 위한 것이다. In addition, the present invention provides a surgical robot system using an augmented reality which enables the progression of surgery using a variety of information because the related image data (e.g., CT image, MRI image, etc.) And a control method thereof.

또한, 본 발명은 수술 로봇 시스템이 학습자(learner)와 교육자(trainer)간에 호환 및 공유될 수 있도록 하여 실시간 교육 효과를 극대화할 수 있는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법을 제공하기 위한 것이다. In addition, the present invention provides a surgical robot system using an augmented reality capable of maximizing a real-time educational effect by allowing a surgical robot system to be compatible and shared between a learner and a trainer, and a control method thereof .

또한, 본 발명은 3차원 모델링된 가상 장기를 활용하여 실제 수술 과정의 경과 및 결과를 미리 예측할 수 있도록 하는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법을 제공하기 위한 것이다. The present invention also provides a surgical robot system and a control method thereof using an augmented reality in which a progress of a surgical procedure can be predicted in advance using a three-dimensional modeled virtual organ.

본 발명이 제시하는 이외의 기술적 과제들은 하기의 설명을 통해 쉽게 이해될 수 있을 것이다.The technical problems other than the present invention can be easily understood from the following description.

본 발명의 일 측면에 따르면, 증강현실을 이용한 수술 로봇 시스템, 슬레이브 로봇 및 마스터 로봇이 제공된다.According to one aspect of the present invention, a surgical robot system using augmented reality, a slave robot, and a master robot are provided.

본 발명의 일 실시예에 따르면, 하나 이상의 로봇 암을 포함하는 슬레이브(slave) 로봇을 제어하는 마스터(master) 로봇에 장착되는 인터페이스(interface)로서, 수술용 내시경으로부터 제공되는 영상 신호에 상응하는 내시경 영상을 디스플레이하는 화면 표시부와, 하나 이상의 로봇 암을 각각 제어하기 위해 구비되는 하나 이상의 암 조작부와, 화면 표시부를 통해 가상 수술도구가 디스플레이되도록 하기 위해 암 조작부를 이용한 사용자 조작에 따른 가상 수술도구 정보를 생성하는 증강현실 구현부를 포함하는 수술용 로봇의 마스터 인터페이스가 제공된다.According to an embodiment of the present invention, there is provided an interface mounted on a master robot for controlling a slave robot including at least one robot arm, the interface including: an endoscope corresponding to a video signal provided from a surgical endoscope; And a virtual operation tool information display unit for displaying virtual surgery tool information according to a user operation using a dark operation unit to display a virtual surgery tool through the screen display unit, A master interface of a surgical robot including an augmented reality implementing section is provided.

수술용 내시경은 복강경, 흉강경, 관절경, 비경, 방광경, 직장경, 십이지장경, 종격경, 심장경 중 하나 이상일 수 있다.Surgical endoscopy may be one or more of laparoscopic, thoracoscopic, arthroscopic, non-operative, cystoscopic, rectal, duodenal, mediastinal, and cardiac.

수술용 로봇의 마스터 인터페이스는, 로봇 암의 제어를 위한 사용자 조작에 따른 조작신호를 생성하여 슬레이브 로봇으로 전송하는 조작신호 생성부를 더 포함할 수 있다.The master interface of the surgical robot may further include an operation signal generation unit for generating an operation signal according to a user operation for controlling the robot arm and transmitting the operation signal to the slave robot.

수술용 로봇의 마스터 인터페이스는, 마스터 로봇의 구동모드를 지정하기 위한 구동모드 선택부와, 구동모드 선택부를 통해 선택된 구동모드에 상응하여 화면 표시부를 통해 내시경 영상 및 가상 수술도구 중 하나 이상이 디스플레이되도록 제어하는 제어부를 더 포함할 수 있다. The master interface of the surgical robot includes a drive mode selection unit for designating a drive mode of the master robot and a display unit for displaying at least one of the endoscopic image and the virtual surgery tool through the screen display unit corresponding to the drive mode selected through the drive mode selection unit And a control unit for controlling the display unit.

제어부는 선택된 구동모드에 상응하는 모드 표시자가 화면 표시부를 통해 디스플레이되도록 제어할 수 있다. 모드 표시자는 텍스트 메시지, 테두리 색상, 아이콘, 배경 색상 등 중 하나 이상으로 미리 지정될 수 있다.The controller may control the display of the mode indicator corresponding to the selected drive mode through the screen display unit. The mode indicator may be predefined by one or more of a text message, a border color, an icon, a background color, and the like.

슬레이브 로봇은 생체 정보 측정 유닛을 더 포함할 수 있다. 생체 정보 측정 유닛에 의해 측정된 생체 정보는 화면 표시부를 통해 디스플레이될 수 있다.The slave robot may further include a bio-information measurement unit. The biometric information measured by the biometric information measuring unit can be displayed on the screen display unit.

증강현실 구현부는, 내시경 영상 및 하나 이상의 로봇 암에 결합된 실제 수술도구의 위치 좌표정보 중 하나 이상을 이용하여 특성값을 연산하는 특성값 연산부와, 암 조작부를 이용한 사용자 조작에 따른 가상 수술도구 정보를 생성하는 가상 수술도구 생성부를 포함할 수 있다.The augmented reality implementation unit includes a feature value calculation unit that calculates a feature value using at least one of an endoscopic image and positional coordinate information of an actual surgical tool coupled to the at least one robot arm, And a virtual surgery tool generation unit for generating a virtual surgery tool.

특성값 연산부에 의해 연산되는 특성값은 수술용 내시경의 화각(FOV), 확대율, 관점(viewpoint), 보는 깊이, 실제 수술도구의 종류, 방향, 깊이, 꺽인 각도 중 하나 이상을 포함할 수 있다.The characteristic value calculated by the characteristic value calculation unit may include at least one of an angle of view (FOV) of a surgical endoscope, an enlargement ratio, a viewpoint, a viewing depth, a kind of an actual surgical tool, a direction, a depth and a bending angle.

증강현실 구현부는, 테스트 신호를 슬레이브 로봇으로 전송하고, 슬레이브 로봇으로부터 테스트 신호에 따른 응답 신호를 수신하는 테스트 신호 처리부와, 테스트 신호의 전송 시각 및 응답 신호의 수신 시각을 이용하여 마스터 로봇과 슬레이브 로봇간의 네트워크 통신 속도 및 네트워크 통신상의 지연시간 중 하나 이상에 대한 지연값을 산출하는 지연시간 산출부를 더 포함할 수 있다.The augmented reality implementing unit includes a test signal processing unit that transmits a test signal to the slave robot and receives a response signal in response to the test signal from the slave robot and a test signal processing unit that tests the master robot and the slave robot And a delay time calculation unit for calculating a delay value for at least one of a network communication speed between the base station and the base station, and a network communication delay time.

마스터 인터페이스는, 화면 표시부를 통해 내시경 영상 및 가상 수술도구 중 하나 이상이 디스플레이되도록 제어하는 제어부를 더 포함할 수 있다. 여기서, 제어부는 지연값이 미리 설정된 지연 임계값 이하인 경우에는 내시경 영상만이 화면 표시부를 통해 디스플레이되도록 제어할 수 있다.The master interface may further include a control unit for controlling one or more of the endoscopic image and the virtual surgical tool to be displayed through the screen display unit. Here, when the delay value is equal to or less than a preset delay threshold value, the controller may control only the endoscopic image to be displayed through the screen display unit.

증강현실 구현부는, 화면 표시부를 통해 디스플레이되는 실제 수술도구와 가상 수술도구의 위치 좌표를 이용하여 각 수술도구간의 간격값을 연산하는 간격 연산부를 더 포함할 수 있다. The augmented reality implementing unit may further include an interval calculating unit for calculating an interval value of each operation section using the coordinates of the actual operation tool and the virtual operation tool displayed through the screen display unit.

가상 수술도구 생성부는 간격 연산부에 의해 연산된 간격값이 미리 설정된 간격 임계값 이하인 경우 가상 수술도구가 화면 표시부를 통해 표시되지 않도록 처리할 수 있다.The virtual surgery tool generation unit may process the virtual surgery tool so that the virtual surgery tool is not displayed on the screen display unit when the interval value calculated by the interval operation unit is equal to or less than a preset interval threshold value.

가상 수술도구 생성부는 간격 연산부에 의해 연산된 간격값에 비례하여 가상 수술도구에 대한 반투명도 조절, 색상 변경 및 외곽선 두께 변경 중 하나 이상에 대한 처리를 수행할 수 있다.The virtual surgery tool creation unit may perform processing for at least one of adjusting translucency, color change, and outline thickness change for the virtual surgical tool in proportion to the interval value calculated by the interval calculation unit.

증강현실 구현부는, 화면 표시부를 통해 디스플레이되는 내시경 영상에 대한 이미지 처리를 통해 특징 정보를 추출하는 영상 해석부를 더 포함할 수 있다. 여기서, 특징 정보는 내시경 영상의 픽셀별 색상값, 실제 수술도구의 위치좌표 및 조작 형상 중 하나 이상일 수 있다.The augmented reality implementing unit may further include an image analyzing unit for extracting the feature information through image processing on the endoscopic image displayed through the screen display unit. Here, the feature information may be at least one of a color value per pixel of the endoscopic image, a position coordinate of the actual surgical tool, and an operation shape.

영상 해석부는 내시경 영상 내에 미리 설정된 색상값 범위에 포함되는 색상값을 가지는 픽셀의 면적 또는 수량이 임계값을 초과하는 경우 경고 요청을 출력할 수 있다. 경고 요청에 따라 화면 표시부를 통한 경고 메시지 디스플레이, 스피커부를 통한 경고 음향 출력 및 가상 수술도구에 대한 디스플레이 중지 중 하나 이상이 수행될 수 있다.The image analyzing unit may output a warning request when the area or the number of pixels having a color value included in the color value range set in advance in the endoscopic image exceeds a threshold value. According to the warning request, at least one of a warning message display through a screen display unit, a warning sound output through a speaker unit, and a display stop for a virtual surgical tool can be performed.

마스터 인터페이스는, 특성값 연산부에 의해 연산된 특성값에 포함된 실제 수술도구의 위치 좌표정보 및 가상 수술도구 생성부에 의해 생성된 가상 수술도구 정보에 포함된 가상 수술도구의 위치 좌표정보를 이용하여 마스터 로봇과 슬레이브 로봇간의 네트워크 통신 상태를 검증하는 네트워크 검증부를 더 포함할 수 있다.The master interface uses the position coordinate information of the actual surgical tool contained in the characteristic value calculated by the characteristic value calculation unit and the position coordinate information of the virtual surgery tool included in the virtual surgical tool information generated by the virtual surgery tool generation unit And a network verifying unit for verifying a network communication state between the master robot and the slave robot.

마스터 인터페이스는, 영상 해석부에 의해 추출된 특징 정보에 포함된 실제 수술도구 및 가상 수술도구의 각 위치 좌표정보를 이용하여 마스터 로봇과 슬레이브 로봇간의 네트워크 통신 상태를 검증하는 네트워크 검증부를 더 포함할 수 있다.The master interface may further include a network verifying unit for verifying a network communication state between the master robot and the slave robot using each position coordinate information of the actual surgical tool and the virtual surgical tool included in the feature information extracted by the video analyzing unit have.

네트워크 검증부는 네트워크 통신 상태의 검증을 위해 각 수술도구의 이동궤적 및 조작형태 중 하나 이상을 더 이용할 수 있다.The network verification unit may further use at least one of the movement trajectory and the operation mode of each surgical tool to verify the network communication state.

네트워크 검증부는 가상 수술도구의 위치 좌표정보가 앞서 저장된 실제 수술도구의 위치 좌표정보와 오차범위 내에서 일치하는지 여부의 판단으로서 네트워크 통신 상태를 검증할 수 있다.The network verification unit can verify the network communication status by determining whether the position coordinate information of the virtual surgery tool matches the position coordinate information of the actual surgical tool stored in advance within the error range.

네트워크 검증부는 실제 수술도구의 위치 좌표정보와 가상 수술도구의 위치 좌표정보가 오차범위 내에서 일치하지 않는 경우 경고 요청을 출력할 수 있다. 경고 요청에 따라 화면 표시부를 통한 경고 메시지 디스플레이, 스피커부를 통한 경고 음향 출력 및 가상 수술도구에 대한 디스플레이 중지 중 하나 이상이 수행될 수 있다.The network verification unit can output a warning request when the position coordinate information of the actual surgical tool and the position coordinate information of the virtual surgery tool do not match within the error range. According to the warning request, at least one of a warning message display through a screen display unit, a warning sound output through a speaker unit, and a display stop for a virtual surgical tool can be performed.

증강현실 구현부는, 화면 표시부를 통해 디스플레이되는 내시경 영상에 대한 이미지 처리를 통해 수술부위 또는 내시경 영상을 통해 디스플레이되는 장기(臟器)의 영역 좌표정보를 포함하는 특징 정보를 추출하는 영상 해석부와, 가상 수술도구 정보 및 영역 좌표정보를 이용하여 가상 수술도구가 영역 좌표정보와 중첩이 발생되어 뒤쪽에 위치하는 여부를 판단하고, 중첩이 발생되는 경우 가상 수술도구의 형상 중 중첩이 발생된 영역을 은폐 처리하는 중첩 처리부를 더 포함할 수 있다.The augmented reality implementing unit includes an image analyzing unit that extracts feature information including area coordinate information displayed on a surgical site or an endoscopic image through image processing of an endoscopic image displayed through a screen display unit, The virtual surgical tool information and the area coordinate information are used to determine whether or not the virtual surgical tool overlaps with the area coordinate information and is located at the back side. When overlapping occurs, the area of the virtual surgery tool where the overlap occurs is concealed And a superimposing unit for processing the superimposed image data.

증강현실 구현부는, 화면 표시부를 통해 디스플레이되는 내시경 영상에 대한 이미지 처리를 통해 수술부위 또는 내시경 영상을 통해 디스플레이되는 장기(臟器)의 영역 좌표정보를 포함하는 특징 정보를 추출하는 영상 해석부와, 가상 수술도구 정보 및 영역 좌표정보를 이용하여 가상 수술도구가 영역 좌표정보와 접촉이 발생되었는지 여부를 판단하고, 접촉이 발생되는 경우 접촉 경고 처리를 수행하는 접촉 인식부를 더 포함할 수 있다.The augmented reality implementing unit includes an image analyzing unit that extracts feature information including area coordinate information displayed on a surgical site or an endoscopic image through image processing of an endoscopic image displayed through a screen display unit, The contact detection unit may further include a contact recognition unit for determining whether or not the virtual surgery tool has contacted with the area coordinate information using the virtual surgery tool information and the area coordinate information and performing the contact warning processing when the contact is generated.

접촉 경고 처리는 포스 피드백(force feedback) 처리, 암 조작부의 조작 제한, 화면 표시부를 통한 경고 메시지 디스플레이 및 스피커부를 통한 경고 음향 출력 중 하나 이상일 수 있다.The contact alert process may be at least one of a force feedback process, an operation restriction of a dark operation unit, a warning message display through a screen display unit, and a warning sound output through a speaker unit.

마스터 인터페이스는, 엑스-레이(X-Ray) 영상, 컴퓨터단층촬영(CT) 영상 및 자기공명영상촬영(MRI) 영상 중 하나 이상인 참조 영상을 저장하는 저장부와, 화면 표시부를 통해 디스플레이되는 내시경 영상에 대한 이미지 처리를 통해 수술부위 또는 내시경 영상을 통해 디스플레이되는 장기(臟器)를 인식하는 영상 해석부를 더 포함할 수 있다. 영상 해석부에 의해 인식된 장기의 명칭에 상응하여 참조 영상이 내시경 영상이 표시되는 표시 화면과 독립된 표시 화면을 통해 디스플레이될 수 있다.The master interface includes a storage unit for storing a reference image that is at least one of an X-ray image, a computed tomography (CT) image, and a magnetic resonance imaging (MRI) image, And an image analyzing unit for recognizing an organ displayed on a surgical site or an endoscopic image through image processing on the image. The reference image can be displayed on the display screen independent of the display screen on which the endoscopic image is displayed in accordance with the name of the organ recognized by the image analyzing unit.

마스터 인터페이스는, 엑스-레이(X-Ray) 영상, 컴퓨터단층촬영(CT) 영상 및 자기공명영상촬영(MRI) 영상 중 하나 이상인 참조 영상을 저장하는 저장부를 더 포함할 수 있다. 특성값 연산부에 의해 연산된 실제 수술도구의 위치 좌표정보에 상응하여 참조 영상이 내시경 영상이 표시되는 표시 화면에 함께 표시되거나 상기 표시 화면과 독립된 표시 화면을 통해 디스플레이될 수 있다.The master interface may further include a storage unit for storing a reference image that is at least one of an X-ray image, a computed tomography (CT) image, and a magnetic resonance imaging (MRI) image. The reference image may be displayed together with the display screen on which the endoscopic image is displayed or on the display screen independent of the display screen in correspondence with the position coordinate information of the actual surgical tool calculated by the characteristic value calculation unit.

참조 영상은 MPR(Multi Planner Reformat)을 이용한 3차원 영상으로 디스플레이될 수 있다.The reference image can be displayed as a three-dimensional image using MPR (Multi Planar Reformat).

본 발명의 다른 실시예에 따르면, 수술 로봇 시스템으로서, 상호간에 통신망을 통해 결합된 둘 이상의 마스터(master) 로봇과, 임의의 마스터 로봇으로부터 수신되는 조작신호에 따라 제어되는 하나 이상의 로봇 암을 포함하는 슬레이브(slave) 로봇을 포함하는 수술 로봇 시스템이 제공된다.According to another embodiment of the present invention there is provided a surgical robot system comprising two or more master robots coupled to each other via a communication network and one or more robotic arms controlled in accordance with an operation signal received from any of the master robots A surgical robot system including a slave robot is provided.

마스터 로봇 각각은, 수술용 내시경으로부터 제공되는 영상 신호에 상응하는 내시경 영상을 디스플레이하는 화면 표시부와, 하나 이상의 로봇 암을 각각 제어하기 위해 구비되는 하나 이상의 암 조작부와, 화면 표시부를 통해 가상 수술도구가 디스플레이되도록 하기 위해 암 조작부를 이용한 사용자 조작에 따른 가상 수술도구 정보를 생성하는 증강현실 구현부를 포함할 수 있다.Each of the master robots includes a screen display unit for displaying an endoscopic image corresponding to a video signal provided from a surgical endoscope, at least one arm control unit provided for controlling each of the at least one robot arm, and a virtual operation tool And an augmented reality implementing unit for generating virtual surgery tool information according to a user operation using the arm operation unit to display the virtual surgery tool information.

둘 이상의 마스터 로봇 중 어느 하나인 제1 마스터 로봇의 암 조작부 조작은 가상 수술도구 정보의 생성을 위해서 기능하고, 둘 이상의 마스터 로봇 중 다른 하나인 제2 마스터 로봇의 암 조작부 조작은 로봇 암의 제어를 위해 기능할 수 있다.The manipulation of the arm manipulation part of the first master robot, which is one of the two or more master robots, functions to generate virtual surgical tool information, and the manipulation of the arm manipulation part of the second master robot, which is another one of the two or more master robots, Can function.

제1 마스터 로봇의 암 조작부 조작에 따른 가상 수술도구 정보에 상응하는 가상 수술도구가 제2 마스터 로봇의 화면 표시부를 통해 디스플레이될 수 있다.
A virtual surgical tool corresponding to the virtual surgical tool information according to the operation of the dark operation unit of the first master robot can be displayed through the screen display unit of the second master robot.

본 발명의 다른 측면에 따르면, 수술 로봇 시스템의 제어 방법, 수술 로봇 시스템의 동작 방법 및 각각의 방법을 구현하기 위한 프로그램이 기록된 기록매체가 제공된다.According to another aspect of the present invention, there is provided a control method of a surgical robot system, a method of operating a surgical robot system, and a recording medium on which a program for implementing the respective methods is recorded.

본 발명의 일 실시예에 따르면, 하나 이상의 로봇 암을 포함하는 슬레이브 로봇을 제어하는 마스터 로봇에서 수행되는 수술 로봇 시스템의 제어 방법으로서, 수술용 내시경으로부터 입력되는 영상 신호에 상응하는 내시경 영상을 디스플레이하는 단계와, 암 조작부의 조작에 따른 가상 수술도구 정보를 생성하는 단계와, 가상 수술도구 정보에 상응하는 가상 수술도구가 내시경 영상과 함께 디스플레이되도록 하는 단계를 포함하는 수술 로봇 시스템의 제어 방법이 제공된다.According to an embodiment of the present invention, there is provided a method of controlling a surgical robot system performed by a master robot that controls a slave robot including at least one robot arm, the method comprising: displaying an endoscopic image corresponding to a video signal input from a surgical endoscope; A step of generating virtual surgery tool information according to the operation of the arm operation unit and a step of displaying the virtual surgery tool corresponding to the virtual surgery tool information together with the endoscope image, .

수술용 내시경은 복강경, 흉강경, 관절경, 비경, 방광경, 직장경, 십이지장경, 종격경, 심장경 중 하나 이상일 수 있다.Surgical endoscopy may be one or more of laparoscopic, thoracoscopic, arthroscopic, non-operative, cystoscopic, rectal, duodenal, mediastinal, and cardiac.

가상 수술도구 정보를 생성하는 단계는, 암 조작부의 조작에 따른 조작 정보를 입력받는 단계와, 조작 정보에 따라 가상 수술도구 정보 및 로봇 암의 제어를 위한 조작신호를 생성하는 단계를 포함할 수 있다. 조작신호는 로봇 암의 제어를 위해 슬레이브 로봇으로 전송될 수 있다.The step of generating the virtual surgical tool information may include the steps of receiving the manipulation information according to the manipulation of the arm manipulation unit and generating manipulation signals for controlling the virtual manipulation tool information and the robot arm according to the manipulation information . The operation signal can be transmitted to the slave robot for control of the robot arm.

수술 로봇 시스템의 제어 방법은, 마스터 로봇의 구동모드를 지정하기 위한 구동모드 선택 명령을 입력받는 단계와, 구동모드 선택 명령에 따라 화면 표시부를 통해 내시경 영상 및 가상 수술도구 중 하나 이상이 디스플레이되도록 제어하는 단계를 더 포함할 수 있다. 또한, 구동모드 선택 명령의 의해 지정된 구동모드에 상응하는 모드 표시자가 화면 표시부를 통해 디스플레이되도록 제어하는 단계가 더 포함될 수도 있다.A control method of a surgical robot system includes the steps of receiving a drive mode selection command for designating a drive mode of a master robot and controlling the display mode to display at least one of an endoscopic image and a virtual surgical tool through a screen display unit according to a drive mode selection command The method comprising the steps of: The method may further include controlling a mode indicator corresponding to the drive mode designated by the drive mode selection command to be displayed on the screen display unit.

모드 표시자는 텍스트 메시지, 테두리 색상, 아이콘, 배경 색상 등 중 하나 이상으로 미리 지정될 수 있다.The mode indicator may be predefined by one or more of a text message, a border color, an icon, a background color, and the like.

수술 로봇 시스템의 제어 방법은, 슬레이브 로봇으로부터 측정된 생체 정보를 수신하는 단계와, 생체 정보를 내시경 영상이 디스플레이되는 표시 영역과 독립된 표시 영역에 디스플레이하는 단계를 더 포함할 수 있다.The control method of the surgical robot system may further include receiving biometric information measured by the slave robot and displaying the biometric information in a display area independent of the display area where the endoscopic image is displayed.

수술 로봇 시스템의 제어 방법은, 내시경 영상 및 로봇 암에 결합된 실제 수술도구의 위치 좌표정보 중 하나 이상을 이용하여 특성값을 연산하는 단계를 더 포함할 수 있다. 특성값은 수술용 내시경의 화각(FOV), 확대율, 관점(viewpoint), 보는 깊이, 실제 수술도구의 종류, 방향, 깊이, 꺽인 각도 중 하나 이상을 포함할 수 있다.The control method of the surgical robot system may further include calculating the characteristic value using at least one of the endoscopic image and the position coordinate information of the actual surgical tool coupled to the robot arm. The characteristic value may include at least one of an angle of view (FOV) of a surgical endoscope, a magnification, a viewpoint, a viewing depth, a kind of an actual surgical tool, a direction, a depth and a bending angle.

수술 로봇 시스템의 제어 방법은 테스트 신호를 슬레이브 로봇으로 전송하는 단계와, 슬레이브 로봇으로부터 테스트 신호에 따른 응답 신호를 수신하는 단계와, 테스트 신호의 전송 시각 및 응답 신호의 수신 시각을 이용하여 마스터 로봇과 슬레이브 로봇간의 네트워크 통신 속도 및 네트워크 통신상의 지연시간 중 하나 이상에 대한 지연값을 산출하는 단계를 더 포함할 수 있다.A method of controlling a surgical robot system includes transmitting a test signal to a slave robot, receiving a response signal according to a test signal from the slave robot, and transmitting the test signal to the master robot Calculating a delay value for at least one of a network communication speed between the slave robots and a network communication delay time.

가상 수술도구가 내시경 영상과 함께 디스플레이되도록 하는 단계는, 지연값이 미리 설정된 지연 임계값 이하인지 여부를 판단하는 단계와, 지연 임계값을 초과하는 경우 가상 수술도구가 내시경 영상과 함께 디스플레이되도록 처리하는 단계와, 지연 임계값 이하인 경우 내시경 영상만이 표시되도록 처리하는 단계를 포함할 수 있다.The step of causing the virtual surgical instrument to be displayed with the endoscopic image may include determining whether the delay value is less than or equal to a preset delay threshold value, And processing so that only the endoscopic image is displayed if it is equal to or less than the delay threshold value.

수술 로봇 시스템의 제어 방법은 실제 수술도구가 포함되어 디스플레이되는 내시경 영상 및 디스플레이되는 가상 수술도구의 위치 좌표를 연산하는 단계와, 각 수술도구의 위치 좌표를 이용하여 각 수술도구간의 간격값을 연산하는 단계를 더 포함할 수 있다.The control method of the surgical robot system includes calculating a position coordinate of an endoscopic image and a virtual surgical tool to be displayed including an actual surgical tool and calculating an interval value of each operation section using the position coordinates of each surgical tool Step < / RTI >

가상 수술도구가 내시경 영상과 함께 디스플레이되도록 하는 단계는, 간격값이 미리 설정된 간격 임계값 이하인지 여부를 판단하는 단계와, 이하인 경우에만 가상 수술도구가 내시경 영상과 함께 디스플레이되도록 처리하는 단계를 포함할 수 있다.The step of causing the virtual surgical tool to be displayed with the endoscopic image includes determining whether the interval value is less than or equal to a preset interval threshold value and processing the virtual surgical tool to be displayed with the endoscopic image only when .

또한, 가상 수술도구가 내시경 영상과 함께 디스플레이되도록 하는 단계는, 간격값이 미리 설정된 간격 임계값을 초과하는지 여부를 판단하는 단계와, 초과하는 경우, 반투명도 조절, 색상 변경 및 외곽선 두께 변경 중 하나 이상이 처리된 가상 수술도구가 내시경 영상과 함께 디스플레이되도록 처리하는 단계를 포함할 수 있다.In addition, the step of causing the virtual surgical tool to be displayed with the endoscopic image further comprises the steps of: determining whether the interval value exceeds a preset interval threshold; and if so, selecting one of semitransparency adjustment, color change and outline thickness change And processing the processed virtual surgery tool to be displayed together with the endoscopic image.

수술 로봇 시스템의 제어 방법은 각 수술도구의 위치 좌표가 미리 설정된 오차 범위 내에서 일치하는지 여부를 판단하는 단계와, 판단의 결과에 의해 마스터 로봇과 슬레이브 로봇간의 통신 상태를 검증하는 단계를 더 포함할 수 있다.The control method of the surgical robot system further includes a step of determining whether or not the position coordinates of each surgical tool coincide with each other within a predetermined error range and verifying the communication state between the master robot and the slave robot based on the determination result .

판단하는 단계에서, 가상 수술도구에 대한 현재의 위치 좌표와 실제 수술도구에 대한 이전의 위치 좌표가 오차 범위 내에서 일치하는지 여부가 판단될 수 있다.In the judging step, it can be judged whether or not the current position coordinates of the virtual surgical tool and the previous position coordinates of the actual surgical tool coincide within the error range.

또한, 판단하는 단계에서, 각 수술도구의 이동궤적 및 조작형태 중 하나 이상이 오차 범위 내에서 일치하는지 여부가 더 판단될 수도 있다.Further, in the judging step, it may be further judged whether or not at least one of the movement trajectory and the operation form of each surgical tool coincide within the error range.

수술 로봇 시스템의 제어 방법은 디스플레이되는 내시경 영상에서 픽셀별 색상값을 포함하는 특징 정보를 추출하는 단계와, 내시경 영상 내에 미리 설정된 색상값 범위에 포함되는 색상값을 가지는 픽셀의 면적 또는 수량이 임계값을 초과하는지 여부를 판단하는 단계와, 초과하는 경우 경고 정보를 출력하는 단계를 포함할 수 있다.A method of controlling a surgical robot system includes the steps of extracting feature information including a color value for each pixel in an endoscopic image to be displayed, determining an area or a quantity of pixels having a color value included in a preset color value range in the endoscopic image, , And outputting warning information if it is exceeded.

경고 요청에 따라 경고 메시지 디스플레이, 경고 음향 출력 및 가상 수술도구에 대한 디스플레이 중지 중 하나 이상이 수행될 수 있다.Depending on the alert request, one or more of a warning message display, a warning sound output and a display stop for the virtual surgical instrument may be performed.

가상 수술도구가 내시경 영상과 함께 디스플레이되도록 하는 단계는, 내시경 영상에 대한 이미지 처리를 통해, 수술부위 또는 내시경 영상을 통해 디스플레이되는 장기(臟器)의 영역 좌표정보를 추출하는 단계와, 가상 수술도구 정보 및 영역 좌표정보를 이용하여 가상 수술도구가 영역 좌표정보와 중첩이 발생되어 뒤쪽에 위치하는 여부를 판단하는 단계와, 중첩이 발생되는 경우 가상 수술도구의 형상 중 중첩이 발생된 영역을 은폐 처리하는 단계를 포함할 수 있다.The step of displaying the virtual surgical tool together with the endoscopic image may include extracting area coordinate information of an organ displayed on a surgical site or an endoscopic image through image processing on the endoscopic image, A step of determining whether the virtual surgery tool is overlapped with the area coordinate information and located behind the virtual surgery tool using the information and the area coordinate information, .

수술 로봇 시스템의 제어 방법은 내시경 영상에 대한 이미지 처리를 통해, 수술부위 또는 내시경 영상을 통해 디스플레이되는 장기(臟器)의 영역 좌표정보를 추출하는 단계와, 가상 수술도구 정보 및 영역 좌표정보를 이용하여 가상 수술도구가 영역 좌표정보와 접촉이 발생되었는지 여부를 판단하는 단계와, 접촉이 발생되는 경우 접촉 경고 처리를 수행하는 단계를 더 포함할 수 있다.The control method of the surgical robot system includes the steps of extracting area coordinate information of an organ displayed through a surgical site or an endoscopic image through image processing on an endoscopic image, using virtual surgery tool information and area coordinate information Determining whether or not the virtual surgery tool has contacted with the area coordinate information, and performing the contact warning processing when the contact is generated.

접촉 경고 처리는 포스 피드백(force feedback) 처리, 암 조작부의 조작 제한, 경고 메시지 디스플레이 및 경고 음향 출력 중 하나 이상일 수 있다.The contact alert processing may be one or more of force feedback processing, operation restriction of the dark control section, warning message display, and warning sound output.

수술 로봇 시스템의 제어 방법은 내시경 영상에 대한 이미지 처리를 통해, 수술부위 또는 내시경 영상을 통해 디스플레이되는 장기(臟器)를 인식하는 단계와, 미리 저장된 참조 영상에서 인식된 장기의 명칭에 상응하는 위치의 참조 영상을 추출하여 디스플레이하는 단계를 포함할 수 있다. 여기서, 참조 영상은 엑스-레이(X-Ray) 영상, 컴퓨터단층촬영(CT) 영상 및 자기공명영상촬영(MRI) 영상 중 하나 이상일 수 있다.A control method of a surgical robot system includes the steps of recognizing an organ displayed through a surgical site or an endoscopic image through image processing on an endoscopic image, And extracting and displaying a reference image of the reference image. Here, the reference image may be at least one of an X-ray image, a computed tomography (CT) image, and a magnetic resonance imaging (MRI) image.

수술 로봇 시스템의 제어 방법은 미리 저장된 참조 영상에서 실제 수술도구의 위치 좌표에 상응하는 참조 영상을 추출하는 단계와, 추출된 참조 영상을 추출하여 디스플레이하는 단계를 포함할 수 있다. 참조 영상은 엑스-레이(X-Ray) 영상, 컴퓨터단층촬영(CT) 영상 및 자기공명영상촬영(MRI) 영상 중 하나 이상일 수 있다.The control method of the surgical robot system may include extracting a reference image corresponding to the coordinates of the actual surgical tool from a reference image stored in advance, and extracting and displaying the extracted reference image. The reference image may be at least one of an X-ray image, a computed tomography (CT) image, and a magnetic resonance imaging (MRI) image.

참조 영상은 내시경 영상이 표시되는 표시 화면에 함께 표시되거나 상기 표시 화면과 독립된 표시 화면을 통해 디스플레이될 수 있다.The reference image may be displayed together with the display screen on which the endoscopic image is displayed or on the display screen independent of the display screen.

참조 영상은 MPR(Multi Planner Reformat)을 이용한 3차원 영상으로 디스플레이될 수도 있다.The reference image may be displayed as a three-dimensional image using MPR (Multi Planar Reformat).

본 발명의 다른 실시예에 따르면, 하나 이상의 로봇 암을 포함하는 슬레이브 로봇 및 슬레이브 로봇을 제어하는 마스터 로봇을 포함하는 수술 로봇 시스템의 동작 방법으로서, 제1 마스터 로봇이 암 조작부 조작에 상응하여 가상 수술도구를 디스플레이하기 위한 가상 수술도구 정보 및 로봇 암을 제어하기 위한 조작신호를 생성하는 단계와, 제1 마스터 로봇이 조작신호를 슬레이브 로봇으로 전송하고, 조작신호 또는 가상 수술도구 정보 중 하나 이상을 제2 마스터 로봇으로 전송하는 단계를 포함하되, 제2 마스터 로봇은 조작신호 또는 가상 수술도구 정보 중 하나 이상에 상응하는 가상 수술도구를 화면 표시부를 통해 디스플레이하는 것을 특징으로 하는 수술 로봇 시스템의 동작 방법이 제공된다.According to another embodiment of the present invention, there is provided a method of operating a surgical robot system including a master robot for controlling a slave robot and a slave robot including at least one robot arm, A step of generating a manipulation signal for controlling the robot arm and virtual surgery tool information for displaying the tool, a step of transmitting the manipulation signal to the slave robot, 2 master robot, wherein the second master robot displays a virtual surgical tool corresponding to at least one of an operation signal or virtual surgical tool information through a screen display unit, / RTI >

제1 마스터 로봇 및 제2 마스터 로봇 각각은 슬레이브 로봇으로부터 수신되는 내시경 영상을 화면 표시부를 통해 디스플레이하고, 가상 수술도구는 내시경 영상과 함께 디스플레이되는 것을 특징으로 할 수 있다.Each of the first master robot and the second master robot displays an endoscopic image received from the slave robot through a screen display unit and the virtual surgical tool is displayed together with the endoscopic image.

수술 로봇 시스템의 동작 방법은 제1 마스터 로봇은 제2 마스터 로봇으로부터 수술권한 회수 명령이 수신되었는지 여부를 판단하는 단계와, 수술권한 회수 명령이 수신된 경우, 제1 마스터 로봇은 암 조작부 조작이 가상 수술도구 정보의 생성을 위해서만 기능되도록 제어하는 단계를 더 포함할 수 있다.The operation method of the surgical robot system according to the present invention is characterized in that the first master robot judges whether or not a surgical operation right recovery command has been received from the second master robot, and when the operation right recovery instruction has been received, And controlling to function only for generation of the surgical tool information.

본 발명의 또 다른 실시예에 따르면, 로봇 암을 포함하는 슬레이브 로봇을 제어하는 마스터 로봇에서 수행되는 수술 시뮬레이션 방법으로서, 장기(臟器) 선택 정보를 인식하는 단계와, 미리 저장된 장기 모델링 정보를 이용하여 장기 선택 정보에 상응하는 3차원 장기 이미지를 디스플레이하는 단계를 포함하되, 장기 모델링 정보는 상응하는 장기의 내부 및 외부 각 지점의 형상, 색상 및 촉감 중 하나 이상을 포함하는 특성 정보를 가지는 것을 특징으로 하는 수술 시뮬레이션 방법이 제공된다.According to another embodiment of the present invention, there is provided a surgical simulation method performed by a master robot for controlling a slave robot including a robot arm, the method comprising: recognizing long-term organ selection information; And displaying the three-dimensional long-term image corresponding to the long-term selection information, wherein the long-term modeling information is characterized by having characteristic information including at least one of shape, color, and touch of each internal and external point of the corresponding organ A surgical simulation method is provided.

장기 선택 정보를 인식하기 위하여, 수술용 내시경으로부터 입력되는 영상 신호를 이용하여 수술 부위 내에 포함된 장기의 색상 및 외형 중 하나 이상에 대한 정보를 해석하는 단계와, 미리 저장된 장기 모델링 정보 중 해석된 정보에 매치되는 장기를 인식하는 단계가 수행될 수 있다.Analyzing information on at least one of color and appearance of organs contained in a surgical site using a video signal input from a surgical endoscope to recognize long term selection information; A step of recognizing the organ matched to the user can be performed.

장기 선택 정보는 하나 이상의 장기로서 수술자에 의해 선택 입력될 수도 있다.The long-term selection information may be selected by the operator as one or more organs.

또한, 암 조작부 조작에 따른 3차원 장기 이미지에 대한 수술조작 명령을 입력받는 단계와, 장기 모델링 정보를 이용하여 수술조작 명령에 따른 촉감 정보를 출력하는 단계가 더 포함될 수도 있다.The method may further include receiving a surgical operation command for a three-dimensional long-term image according to the operation of the dark operation unit, and outputting tactile information according to a surgical operation command using the long-term modeling information.

촉감 정보는 암 조작부 조작에 따른 조작 민감도 및 조작 저항감 중 하나 이상을 제어하기 위한 제어 정보이거나 포스 피드백 처리를 위한 제어 정보일 수 있다.The tactile information may be control information for controlling at least one of the operation sensitivity and the operation resistance according to the operation of the dark operation unit, or the control information for the force feedback process.

암 조작부 조작에 따른 3차원 장기 이미지에 대한 수술조작 명령을 입력받는 단계와, 장기 모델링 정보를 이용하여 수술조작 명령에 따른 절단면 이미지를 디스플레이하는 단계가 더 포함될 수도 있다.Receiving a surgical operation command for a three-dimensional long-term image according to the operation of the arm operation unit, and displaying a sectional image according to a surgical operation command using the long-term modeling information.

상술한 수술조작 명령은 절단, 꿰맴, 당김, 누름, 장기 변형, 전기수술에 의한 장기 손상, 혈관에서의 출혈 등 중 하나 이상일 수 있다.The above-described surgical operation command may be at least one of cutting, stitching, pulling, pushing, long-term deformation, organs damage by electrosurgery, bleeding in a blood vessel, and the like.

또한, 장기 선택 정보에 따른 장기를 인식하는 단계와, 미리 저장된 참조 영상에서 인식된 장기의 명칭에 상응하는 위치의 참조 영상을 추출하여 디스플레이하는 단계가 더 포함될 수도 있다. 여기서, 참조 영상은 엑스-레이(X-Ray) 영상, 컴퓨터단층촬영(CT) 영상 및 자기공명영상촬영(MRI) 영상 등 중 하나 이상일 수 있다.The method may further include recognizing an organ according to the organ selection information and extracting and displaying a reference image at a position corresponding to a name of the organ recognized in the reference image stored in advance. Here, the reference image may be at least one of an X-ray image, a computed tomography (CT) image, and a magnetic resonance imaging (MRI) image.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages will become apparent from the following drawings, claims, and detailed description of the invention.

본 발명의 실시예에 따르면, 증강현실(augmented reality)을 이용하여 실제 수술도구와 가상 수술도구를 함께 표시함으로써 수술자의 원활한 수술을 가능하도록 하는 효과가 있다.According to the embodiment of the present invention, an actual surgical tool and a virtual surgical tool are displayed together using an augmented reality, thereby enabling smooth operation of the operator.

또한, 수술시 환자에 대한 다양한 정보가 출력되어 수술자에 제공되는 효과도 있다.In addition, various information about the patient is outputted at the time of operation, and the operation is provided to the operator.

또한, 마스터 로봇과 슬레이브 로봇간의 네트워크 통신 속도에 따라 수술자의 원활한 수술 진행이 가능하도록 수술 화면 표시 방법이 다양화되는 효과도 있다.In addition, there is an effect that the operation screen display method is diversified so that the operator can smoothly perform the operation according to the network communication speed between the master robot and the slave robot.

또한, 내시경 등을 통해 입력되는 화상을 자동화 처리하여 응급 상황을 즉시 수술자에게 통지할 수 있는 효과도 있다.In addition, there is also an effect that an image inputted through an endoscope or the like is automatically processed and an emergency situation is immediately notified to the operator.

또한, 마스터 로봇의 조작에 의한 가상 수술도구의 이동 등에 따른 장기 접촉 등이 수술자에게 실시간 감지될 수 있고, 가상 수술도구와 장기간의 위치 관계가 직관적으로 인지될 수 있도록 하는 효과도 있다.In addition, long-term contact or the like due to the movement of the virtual surgical tool by the operation of the master robot can be detected in real time by the operator, and the long-term positional relationship with the virtual surgical tool can be intuitively recognized.

또한, 수술 부위에 대한 환자의 관련 이미지 데이터(예를 들어, CT 이미지, MRI 이미지 등)가 실시간 제시될 수 있어 다양한 정보를 활용한 수술 진행이 가능하도록 하는 효과도 있다.In addition, related image data (e.g., a CT image, an MRI image, etc.) of the patient with respect to the surgical site can be presented in real time, so that the operation can be performed using various information.

또한, 수술 로봇 시스템이 학습자(learner)와 교육자(trainer)간에 호환 및 공유될 수 있도록 하여 실시간 교육 효과를 극대화할 수 있는 효과도 있다.In addition, the surgical robot system can be compatible and shared between the learner and the trainer, thereby maximizing the real-time educational effect.

또한, 본 발명은 3차원 모델링된 가상 장기를 활용하여 실제 수술 과정의 경과 및 결과를 미리 예측할 수 있도록 하는 효과도 있다.The present invention also has the effect of predicting the progress and results of an actual surgical procedure using a three-dimensional modeled virtual organ.

도 1은 본 발명의 일 실시예에 따른 수술용 로봇의 전체구조를 나타낸 평면도.
도 2는 본 발명의 일 실시예에 따른 수술용 로봇의 마스터 인터페이스를 나타낸 개념도.
도 3은 본 발명의 일 실시예에 따른 마스터 로봇과 슬레이브 로봇의 구성을 개략적으로 나타낸 블록 구성도.
도 4a는 본 발명의 일 실시예에 따른 수술 로봇 시스템의 구동모드를 예시한 도면.
도 4b는 본 발명의 일 실시예에 따른 실행중인 구동모드를 나타내는 모드 표시자를 예시한 도면.
도 5는 본 발명의 일 실시예에 따른 제1 모드와 제2 모드의 구동모드 선택 과정을 나타낸 순서도.
도 6은 본 발명의 일 실시예에 따른 제2 모드에서 모니터부를 통해 출력되는 화면 표시의 예시도.
도 7은 본 발명의 일 실시예에 따른 증강현실 구현부(350)의 세부 구성을 나타낸 도면.
도 8은 본 발명의 일 실시예에 따른 제2 모드에서의 마스터 로봇의 구동방법을 나타낸 순서도.
도 9는 본 발명의 다른 실시예에 따른 증강현실 구현부(350)의 세부 구성을 나타낸 도면.
도 10 및 도 11은 각각 본 발명의 다른 실시예에 따른 제2 모드에서의 마스터 로봇의 구동방법을 나타낸 순서도.
도 12는 본 발명의 또 다른 실시예에 따른 마스터 로봇과 슬레이브 로봇의 구성을 개략적으로 나타낸 블록 구성도.
도 13은 본 발명의 또 다른 실시예에 따른 수술 로봇 시스템의 정상 구동을 검증하는 방법을 나타낸 순서도.
도 14는 본 발명의 또 다른 실시예에 따른 증강현실 구현부의 세부 구성을 나타낸 도면.
도 15 및 도 16은 각각 본 발명의 또 다른 실시예에 따른 가상 수술도구를 출력하기 위한 마스터 로봇의 구동방법을 나타낸 순서도.
도 17은 본 발명의 또 다른 실시예에 따른 참조 이미지 제공 방법을 나타낸 순서도.
도 18은 본 발명의 또 다른 실시예에 따른 수술용 로봇의 전체구조를 나타낸 평면도.
도 19는 본 발명의 또 다른 실시예에 따른 교육 모드에서의 수술 로봇 시스템의 동작 방법을 나타낸 도면.
도 20은 본 발명의 또 다른 실시예에 따른 교육 모드에서의 수술 로봇 시스템의 동작 방법을 나타낸 도면.
1 is a plan view showing the entire structure of a surgical robot according to an embodiment of the present invention;
2 is a conceptual diagram illustrating a master interface of a surgical robot according to an embodiment of the present invention.
3 is a block diagram schematically showing the configuration of a master robot and a slave robot according to an embodiment of the present invention.
FIG. 4A illustrates a driving mode of a surgical robot system according to an embodiment of the present invention; FIG.
FIG. 4B illustrates a mode indicator representing a running mode of operation in accordance with an embodiment of the present invention. FIG.
5 is a flowchart illustrating a driving mode selection process of a first mode and a second mode according to an embodiment of the present invention.
6 is an exemplary view of a screen display output through a monitor unit in a second mode according to an embodiment of the present invention;
7 is a detailed configuration of an augmented reality implementing unit 350 according to an embodiment of the present invention.
8 is a flowchart illustrating a method of driving a master robot in a second mode according to an embodiment of the present invention.
9 is a detailed configuration of an augmented reality implementing unit 350 according to another embodiment of the present invention.
10 and 11 are flowcharts showing a method of driving a master robot in a second mode according to another embodiment of the present invention, respectively.
12 is a block diagram schematically showing the configuration of a master robot and a slave robot according to another embodiment of the present invention.
13 is a flowchart illustrating a method for verifying normal operation of a surgical robot system according to another embodiment of the present invention.
14 is a detailed configuration of an augmented reality implementing unit according to another embodiment of the present invention.
15 and 16 are flowcharts showing a driving method of a master robot for outputting a virtual surgical tool according to another embodiment of the present invention, respectively.
17 is a flowchart showing a reference image providing method according to another embodiment of the present invention.
18 is a plan view showing the entire structure of a surgical robot according to another embodiment of the present invention.
19 is a diagram illustrating a method of operating a surgical robot system in a training mode according to another embodiment of the present invention.
20 illustrates a method of operating a surgical robot system in a training mode according to another embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Referring to the accompanying drawings, the same or corresponding components are denoted by the same reference numerals, .

또한, 본 발명의 다양한 실시예들을 설명함에 있어, 각 실시예가 독립적으로 해석되거나 실시되어야 하는 것은 아니며, 각 실시예에서 설명되는 기술적 사상들이 개별적으로 설명되는 다른 실시예에 조합되어 해석되거나 실시될 수 있는 것으로 이해되어야 한다.Furthermore, in describing various embodiments of the present invention, it is not necessary for each embodiment to be interpreted or practiced independently, and the technical ideas described in each embodiment may be interpreted or practiced in combination with other embodiments, It should be understood that there is.

또한, 본 발명은 수술용 내시경(예를 들어, 복강경, 흉강경, 관절경, 비경 등)이 이용되는 수술들에 범용적으로 사용될 수 있는 기술적 사상이지만, 본 발명의 실시예를 설명함에 있어 설명의 편의를 위해 복강경이 이용되는 경우를 예로 들어 설명하기로 한다.
In addition, while the present invention is a technical idea that can be used universally for surgeries using surgical endoscopes (e.g., laparoscopic, thoracoscopic, arthroscopic, non-rigid, etc.) For convenience, a laparoscope is used as an example.

도 1은 본 발명의 일 실시예에 따른 수술용 로봇의 전체구조를 나타낸 평면도이고, 도 2는 본 발명의 일 실시예에 따른 수술용 로봇의 마스터 인터페이스를 나타낸 개념도이다. FIG. 1 is a plan view showing the entire structure of a surgical robot according to an embodiment of the present invention, and FIG. 2 is a conceptual view illustrating a master interface of a surgical robot according to an embodiment of the present invention.

도 1 및 도 2를 참조하면, 복강경 수술용 로봇 시스템은 수술대에 누워있는 환자에게 수술을 행하는 슬레이브 로봇(2)과 슬레이브 로봇(2)을 수술자가 원격 조종하는 마스터 로봇(1)을 포함하여 구성된다. 마스터 로봇(1)과 슬레이브 로봇(2)이 반드시 물리적으로 독립된 별도의 장치로 분리되어야 하는 것은 아니며, 하나로 통합되어 일체형으로 구성될 수 있으며, 이 경우 마스터 인터페이스(4)는 예를 들어 일체형 로봇의 인터페이스 부분에 상응할 수 있다.1 and 2, the robot system for laparoscopic surgery includes a slave robot 2 for performing surgery on a patient lying on the operating table and a master robot 1 for remotely controlling the slave robot 2 do. The master robot 1 and the slave robot 2 are not necessarily separated from each other by a separate device that is physically independent and may be integrated into one unit. In this case, the master interface 4 is, for example, It can correspond to the interface part.

마스터 로봇(1)의 마스터 인터페이스(4)는 모니터부(6) 및 마스터 조종기를 포함하고, 슬레이브 로봇(2)은 로봇 암(3) 및 복강경(5)을 포함한다. 마스터 인터페이스(4)는 모드전환 제어버튼을 더 포함할 수 있다. 모드전환 제어버튼은 클러치 버튼(14) 또는 페달(도시되지 않음) 등의 형태로 구현될 수 있으며, 모드전환 제어버튼의 구현 형태는 이에 제한되지 않으며 예를 들어 모니터부(6)를 통해 표시되는 기능메뉴 또는 모드선택 메뉴 등으로 구현될 수도 있다.The master interface 4 of the master robot 1 includes a monitor unit 6 and a master manipulator and the slave robot 2 includes a robot arm 3 and a laparoscope 5. [ The master interface 4 may further include a mode switching control button. The mode changeover control button may be implemented in the form of a clutch button 14 or a pedal (not shown), and an embodiment of the mode changeover control button is not limited thereto. For example, A function menu, a mode selection menu, or the like.

마스터 인터페이스(4)는 수술자가 양손에 각각 파지되어 조작할 수 있도록 마스터 조종기를 구비한다. 마스터 조종기는 도 1 및 2에 예시된 바와 같이 두 개의 핸들(10)로 구현될 수 있으며, 수술자의 핸들(10) 조작에 따른 조작신호가 슬레이브 로봇(2)으로 전송되어 로봇 암(3)이 제어된다. 수술자의 핸들(10) 조작에 의해 로봇 암(3)의 위치 이동, 회전, 절단 작업 등이 수행될 수 있다.The master interface 4 is provided with a master controller so that the operator can be grasped by both hands and operated. The master manipulator can be implemented with two handles 10 as illustrated in Figures 1 and 2, and an operation signal according to operation of the operating handle 10 is transmitted to the slave robot 2, Respectively. The robot arm 3 can be moved, rotated, cut, or the like by operating the handle 10 of the operator.

예를 들어, 핸들(10)은 메인 핸들(main handle)과 서브 핸들(sub handle)로 구성될 수 있다. 하나의 핸들만으로 슬레이브 로봇 암(3)이나 복강경(5) 등을 조작할 수도 있고, 서브 핸들을 추가하여 동시에 복수의 수술 장비를 실시간으로 조작할 수도 있다. 메인 핸들 및 서브 핸들은 그 조작방식에 따라 다양한 기구적 구성을 가질 수 있으며, 예를 들면, 조이스틱 형태, 키패드, 트랙볼, 터치스크린 등 슬레이브 로봇(2)의 로봇 암(3) 및/또는 기타 수술 장비를 작동시키기 위한 다양한 입력수단이 사용될 수 있다.For example, the handle 10 may comprise a main handle and a sub handle. The slave robot arm 3 or the laparoscope 5 can be operated with only one handle or a plurality of surgical instruments can be operated simultaneously in real time by adding a sub handle. The main handle and the sub handle may have various mechanical configurations according to their operation modes. For example, a robot arm 3 of a slave robot 2 such as a joystick type, a keypad, a trackball, a touch screen, Various input means for operating the equipment can be used.

마스터 조종기는 핸들(10)의 형상으로 제한되지 않으며, 네트워크를 통해 로봇 암(3)의 동작을 제어할 수 있는 형태이면 아무런 제한없이 적용될 수 있다.The master manipulator is not limited to the shape of the handle 10, and can be applied without any limitation as long as it can control the operation of the robot arm 3 via the network.

마스터 인터페이스(4)의 모니터부(6)에는 복강경(5)에 의해 입력되는 영상이 화상 이미지로 표시된다. 또한, 모니터부(6)에는 수술자의 핸들(10) 조작에 의해 제어되는 가상 수술도구가 함께 표시되거나 독립된 화면에 표시될 수도 있을 것이다. 또한, 모니터부(6)에 표시되는 정보는 선택된 구동모드에 의해 다양할 수 있을 것이다. 가상 수술도구의 표시 여부, 제어 방법, 구동모드별 표시 정보 등에 관해서는 이후 관련 도면을 참조하여 상세히 설명한다.In the monitor section 6 of the master interface 4, an image input by the laparoscope 5 is displayed as an image image. In addition, the virtual surgical tool controlled by the operation of the handle 10 of the operator may be displayed on the monitor unit 6 or may be displayed on an independent screen. The information displayed on the monitor unit 6 may vary depending on the selected drive mode. The display state of the virtual surgical tool, the control method, the display information for each drive mode, and the like will be described in detail with reference to related drawings.

모니터부(6)는 하나 이상의 모니터들로 구성될 수 있으며, 각 모니터에 수술시 필요한 정보들이 개별적으로 표시되도록 할 수 있다. 도 1 및 2에는 모니터부(6)가 세 개의 모니터를 포함하는 경우가 예시되었으나, 모니터의 수량은 표시를 요하는 정보의 유형이나 종류 등에 따라 다양하게 결정될 수 있다.The monitor unit 6 may be constituted by one or more monitors, and information necessary for operation may be individually displayed on each monitor. 1 and 2 illustrate the case where the monitor unit 6 includes three monitors, but the number of monitors can be variously determined according to the type and kind of information required to be displayed.

모니터부(6)는 환자에 대한 복수의 생체 정보를 더 출력할 수도 있다. 이 경우, 모니터부(6)의 하나 이상의 모니터를 통해 환자의 상태를 나타내는 지표, 예를 들면, 체온, 맥박, 호흡 및 혈압 등과 같은 생체 정보가 하나 이상 출력될 수 있으며, 각 정보는 영역별로 나뉘어져 출력될 수도 있다. 이러한 생체 정보를 마스터 로봇(1)으로 제공하기 위해, 슬레이브 로봇(2)은 체온 측정 모듈, 맥박 측정 모듈, 호흡 측정 모듈, 혈압 측정 모듈, 심전도 측정 모듈 등 중 하나 이상을 포함하는 생체 정보 측정 유닛을 포함할 수 있다. 각 모듈에 의해 측정된 생체 정보는 아날로그 신호 또는 디지털 신호의 형태로 슬레이브 로봇(2)에서 마스터 로봇(1)으로 전송될 수도 있으며, 마스터 로봇(1)은 수신된 생체 정보를 모니터부(6)를 통해 디스플레이할 수 있다.The monitor unit 6 may further output a plurality of pieces of biometric information for the patient. In this case, one or more biometric information such as an index indicating the state of the patient, for example, body temperature, pulse, respiration, blood pressure, etc., may be outputted through one or more monitors of the monitor unit 6, May be output. In order to provide such biometric information to the master robot 1, the slave robot 2 includes a biometric information measurement unit including at least one of a body temperature measurement module, a pulse measurement module, a breath measurement module, a blood pressure measurement module, . ≪ / RTI > The biometric information measured by each module may be transmitted from the slave robot 2 to the master robot 1 in the form of an analog signal or a digital signal and the master robot 1 transmits the received biometric information to the monitor unit 6. [ Lt; / RTI >

슬레이브 로봇(2)과 마스터 로봇(1)은 유선 통신망 또는 무선 통신망을 통해 상호 결합되어 조작신호, 복강경(5)을 통해 입력된 복강경 영상 등이 상대방으로 전송될 수 있다. 만일, 마스터 인터페이스(4)에 구비된 두 개의 핸들(10)에 의한 두 개의 조작신호 및/또는 복강경(5)의 위치 조정을 위한 조작신호가 동시에 및/또는 유사한 시점에서 전송될 필요가 있는 경우, 각 조작신호는 상호 독립적으로 슬레이브 로봇(2)으로 전송될 수 있다. 여기서 각 조작신호가 '독립적으로' 전송된다는 것은, 조작신호 간에 서로 간섭을 주지 않으며, 어느 하나의 조작신호가 다른 하나의 신호에 영향을 미치지 않음을 의미한다. 이처럼, 복수의 조작신호가 서로 독립적으로 전송되도록 하기 위해서는, 각 조작신호의 생성 단계에서 각 조작신호에 대한 헤더 정보를 부가하여 전송시키거나, 각 조작신호가 그 생성 순서에 따라 전송되도록 하거나, 또는 각 조작신호의 전송 순서에 관하여 미리 우선순위를 정해 놓고 그에 따라 전송되도록 하는 등 다양한 방식이 이용될 수 있다. 이 경우, 각 조작신호가 전송되는 전송 경로가 독립적으로 구비되도록 함으로써 각 조작신호간에 간섭이 근본적으로 방지되도록 할 수도 있을 것이다.The slave robot 2 and the master robot 1 are coupled to each other through a wired communication network or a wireless communication network so that operation signals and laparoscopic images inputted through the laparoscope 5 can be transmitted to the other party. If two operation signals by the two handles 10 provided in the master interface 4 and / or operation signals for adjusting the position of the laparoscope 5 need to be transmitted at the same time and / , The respective operation signals can be transmitted to the slave robot 2 independently of each other. Here, the fact that each operation signal is transmitted 'independently' means that the operation signals do not interfere with each other, and that any one operation signal does not affect the other. In order to allow a plurality of operation signals to be independently transmitted, header information for each operation signal is added and transmitted in the generation of each operation signal, or each operation signal is transmitted in accordance with the generation order, or A variety of schemes may be used, such that priorities are given in advance regarding the transmission order of each operation signal and are transmitted in accordance with the priorities. In this case, the transmission path through which each operation signal is transmitted may be provided independently so that interference between each operation signal may be fundamentally prevented.

슬레이브 로봇(2)의 로봇 암(3)은 다자유도를 가지며 구동되도록 구현될 수 있다. 로봇 암(3)은 예를 들어 환자의 수술 부위에 삽입되는 수술기구, 수술기구를 수술 위치에 따라 요(yaw)방향으로 회전시키는 요동 구동부, 요동 구동부의 회전 구동과 직교하는 피치(pitch) 방향으로 수술기구를 회전시키는 피치 구동부, 수술기구를 길이 방향으로 이동시키는 이송 구동부와, 수술기구를 회전시키는 회전 구동부, 수술기구의 끝단에 설치되어 수술 병변을 절개 또는 절단하는 수술기구 구동부를 포함하여 구성될 수 있다. 다만, 로봇 암(3)의 구성이 이에 제한되지 않으며, 이러한 예시가 본 발명의 권리범위를 제한하지 않는 것으로 이해되어야 한다. 또한, 수술자가 핸들(10)을 조작함에 의해 로봇 암(3)이 상응하는 방향으로 회전, 이동하는 등의 실제적인 제어 과정은 본 발명의 요지와 다소 거리감이 있으므로 이에 대한 구체적인 설명은 생략한다.The robot arm 3 of the slave robot 2 can be implemented to be driven with multiple degrees of freedom. The robot arm 3 includes, for example, a surgical instrument inserted into a surgical site of a patient, a swinging drive unit for rotating the surgical instrument in a yaw direction according to an operation position, a pitch direction , A pitch driving part for rotating the surgical instrument, a feed driving part for moving the surgical instrument in the longitudinal direction, a rotation driving part for rotating the surgical instrument, and a surgical instrument driving part installed at the end of the surgical instrument for cutting or cutting the surgical lesion. . However, it should be understood that the configuration of the robot arm 3 is not limited thereto, and that these examples do not limit the scope of the present invention. The actual control process of rotating or moving the robot arm 3 in the corresponding direction by operating the handle 10 by the surgeon is somewhat distant from the gist of the present invention, and a detailed description thereof will be omitted.

슬레이브 로봇(2)은 환자를 수술하기 위하여 하나 이상으로 이용될 수 있으며, 수술 부위가 모니터부(6)를 통해 화상 이미지로 표시되도록 하기 위한 복강경(5)은 독립된 슬레이브 로봇(2)으로 구현될 수도 있다. 또한, 앞서 설명된 바와 같이, 본 발명의 실시예들은 복강경 이외의 다양한 수술용 내시경(예를 들어, 흉강경, 관절경, 비경 등)이 이용되는 수술들에 범용적으로 사용될 수 있다.
The slave robot 2 can be used more than one to perform surgery on the patient and the laparoscope 5 for displaying the surgical site through the monitor unit 6 as an image image is implemented as an independent slave robot 2 It is possible. Further, as described above, the embodiments of the present invention can be widely used in surgeries in which a variety of surgical endoscopes other than laparoscopes (e.g., thoracoscopic, arthroscopic, non-circumferential, etc.) are used.

도 3은 본 발명의 일 실시예에 따른 마스터 로봇과 슬레이브 로봇의 구성을 개략적으로 나타낸 블록 구성도이고, 도 4a는 본 발명의 일 실시예에 따른 수술 로봇 시스템의 구동모드를 예시한 도면이며, 도 4b는 본 발명의 일 실시예에 따른 실행중인 구동모드를 나타내는 모드 표시자를 예시한 도면이다.FIG. 3 is a block diagram schematically showing the configuration of a master robot and a slave robot according to an embodiment of the present invention. FIG. 4A is a view illustrating a driving mode of a surgical robot system according to an embodiment of the present invention, 4B is a diagram illustrating a mode indicator indicating a running mode of operation according to an embodiment of the present invention.

마스터 로봇(1)과 슬레이브 로봇(2)의 구성이 개략적으로 표시된 도 3을 참조하면, 마스터 로봇(1)은 영상 입력부(310), 화면 표시부(320), 암 조작부(330), 조작신호 생성부(340), 증강현실 구현부(350) 및 제어부(360)를 포함한다. 슬레이브 로봇(2)은 로봇 암(3) 및 복강경(5)을 포함한다. 도 3에는 도시되지는 않았으나, 슬레이브 로봇(2)은 환자에 대한 생체 정보를 측정하여 제공하기 위한 생체 정보 측정 유닛 등을 더 포함할 수 있다.3, the master robot 1 includes an image input unit 310, a screen display unit 320, a dark operation unit 330, an operation signal generation unit 330, and a display unit 320. The slave robot 2 includes a master robot 1 and a slave robot 2, Unit 340, an augmented reality implementing unit 350, and a control unit 360. [ The slave robot 2 includes a robot arm 3 and a laparoscope 5. [ Although not shown in FIG. 3, the slave robot 2 may further include a bio-information measuring unit for measuring and providing bio-information about the patient.

영상 입력부(310)는 슬레이브 로봇(2)의 복강경(5)에 구비된 카메라를 통해 입력된 영상을 유선 또는 무선 통신망을 통해 수신한다.The image input unit 310 receives an image input through a camera provided in the laparoscope 5 of the slave robot 2 through a wired or wireless communication network.

화면 표시부(320)는 영상 입력부(310)를 통해 수신된 영상에 상응하는 화상 이미지를 시각(視覺)적 정보로 출력한다. 또한, 화면 표시부(320)는 암 조작부(330)의 조작에 따른 가상 수술도구가 시각적 정보로서 더 출력할 수 있으며, 슬레이브 로봇(2)으로부터 생체 정보가 입력되는 경우 이에 상응하는 정보를 더 출력할 수 있다. 화면 표시부(320)는 모니터부(6) 등의 형태로 구현될 수 있으며, 수신된 영상이 화면 표시부(320)를 통해 화상 이미지로 출력되도록 하기 위한 영상 처리 프로세스가 제어부(360), 증강현실 구현부(350) 또는 영상 처리부(도시되지 않음)에 의해 수행될 수 있다.The screen display unit 320 outputs visual images corresponding to the images received through the image input unit 310 as visual information. Further, the screen display unit 320 can further output the virtual surgical tool according to the operation of the arm control unit 330 as visual information, and when biometric information is input from the slave robot 2, . The screen display unit 320 may be implemented in the form of a monitor unit 6 and the like. The image processing process for causing the received image to be outputted as an image image through the screen display unit 320 may include a controller 360, (350) or an image processing unit (not shown).

암 조작부(330)는 슬레이브 로봇(2)의 로봇 암(3)의 위치 및 기능을 수술자가 조작할 수 있도록 하는 수단이다. 암 조작부(330)는 도 2에 예시된 바와 같이 핸들(10)의 형상으로 형성될 수 있으나, 그 형상이 이에 제한되지 않으며 동일한 목적 달성을 위한 다양한 형상으로 변형 구현될 수 있다. 또한, 예를 들어 일부는 핸들 형상으로, 다른 일부는 클러치 버튼 등의 다른 형상으로 형성될 수도 있으며, 수술도구의 조작을 용이하도록 하기 위해 수술자의 손가락을 삽입 고정할 수 있도록 하는 손가락 삽입관 또는 삽입 고리가 더 형성될 수도 있다.The arm control unit 330 is a means for enabling the operator to operate the position and function of the robot arm 3 of the slave robot 2. [ 2, a shape of the handle 10 is not limited to the shape of the handle 10, but may be modified into various shapes to achieve the same purpose. In addition, for example, a part may be formed in a handle shape and the other part may be formed in another shape such as a clutch button or the like. In order to facilitate manipulation of the surgical tool, a finger insertion tube or insertion More rings may be formed.

상술한 바와 같이, 암 조작부(330)에는 클러치 버튼(14)이 구비될 수 있으며, 클러치 버튼(14)은 모드전환 제어버튼으로 이용될 수도 있다. 이외에도 모드전환 제어버튼은 페달(도시되지 않음) 등의 기구적 형태로 구현되거나 모니터부(6)를 통해 표시되는 기능메뉴 또는 모드선택 메뉴 등으로도 구현될 수도 있다. 또한, 복강경(5)이 영상을 입력받기 위해 특정 위치에 고정적으로 존재하지 않고, 그 위치 및/또는 영상 입력 각도가 수술자의 조정에 의해 이동되거나 변경될 수 있다면 클러치 버튼(14) 등은 복강경(5)의 위치 및/또는 영상 입력 각도의 조정을 위해 기능하도록 설정될 수도 있다.As described above, the clutch operation button 330 may be provided with the clutch button 14, and the clutch button 14 may be used as the mode change control button. In addition, the mode changeover control button may be implemented in a mechanical form such as a pedal (not shown) or a function menu displayed through the monitor 6 or a mode selection menu. In addition, if the laparoscope 5 is not fixed at a specific position to receive an image and its position and / or image input angle can be shifted or changed by adjusting the operator, the clutch button 14, 5 and / or for adjusting the image input angle.

조작신호 생성부(340)는 로봇 암(3) 및/또는 복강경(5)의 위치 이동 또는 수술을 위한 조작을 위해 수술자가 암 조작부(330)를 조작하는 경우 이에 상응하는 조작신호를 생성하여 슬레이브 로봇(2)으로 전송한다. 조작신호는 유선 또는 무선 통신망을 통해 송수신될 수 있음은 앞서 설명한 바와 같다.The manipulation signal generator 340 generates a manipulation signal corresponding to the manipulation of the arm manipulation unit 330 by the operator to move the robot arm 3 and / or the laparoscope 5, To the robot (2). The operation signal can be transmitted and received through a wired or wireless communication network as described above.

증강현실 구현부(350)는 마스터 로봇(1)이 제2 모드인 비교 모드 등에서 구동되는 경우, 복강경(5)을 통해 입력되는 수술 부위의 화상뿐 아니라 암 조작부(330)의 조작에 실시간 연동하는 가상 수술도구가 화면 표시부(320)를 통해 함께 출력될 수 있도록 처리한다. 증강현실 구현부(350)의 구체적인 기능, 다양한 세부 구성 등은 이후 관련 도면을 참조하여 상세히 설명한다. When the master robot 1 is driven in a comparison mode or the like, which is the second mode, the augmented reality implementing unit 350 realizes an image of a surgical site input through the laparoscope 5, So that the virtual surgery tool can be output together with the screen display unit 320. [ The detailed functions, various detailed configurations, and the like of the augmented reality implementing unit 350 will be described in detail with reference to related drawings hereinafter.

제어부(360)는 상술한 기능이 수행될 수 있도록 각 구성 요소들의 동작을 제어한다. 제어부(360)는 영상 입력부(310)를 통해 입력되는 영상이 화면 표시부(320)를 통해 표시될 화상 이미지로 변환하는 기능을 수행할 수도 있다. 또한, 제어부(360)는 암 조작부(330)의 조작에 따른 조작정보가 입력되면 이에 상응하도록 가상 수술도구가 화면 표시부(320)를 통해 출력되도록 증강현실 구현부(350)를 제어한다. 또한, 제어부(360)는 교육모드인 제4 모드 수행시 학습자와 교육자간에 수술권한이 부여 또는 회수되도록 제어할 수도 있다.The control unit 360 controls the operation of each component so that the above-described functions can be performed. The control unit 360 may convert the image input through the image input unit 310 into an image to be displayed through the screen display unit 320. [ The control unit 360 controls the augmented reality implementing unit 350 so that the virtual surgery tool is output through the screen display unit 320 so that the operation information corresponding to the operation of the arm operation unit 330 is input. In addition, the control unit 360 may control the learner and the educator to grant or withdraw the right of operation when performing the fourth mode, which is an education mode.

도 4a에 예시된 바와 같이, 마스터 로봇(1) 및/또는 슬레이브 로봇(2)은 다양한 구동모드 중 수술자 등에 의해 선택된 구동모드에서 동작할 수 있다.As illustrated in FIG. 4A, the master robot 1 and / or the slave robot 2 can operate in a drive mode selected by the operator or the like in various drive modes.

예를 들어, 구동모드는 실제 모드인 제1 모드, 비교 모드인 제2 모드, 가상 모드인 제3 모드, 교육 모드인 제4 모드, 시뮬레이션 모드인 제5 모드 등을 포함할 수 있다.For example, the driving mode may include a first mode that is an actual mode, a second mode that is a comparison mode, a third mode that is a virtual mode, a fourth mode that is an education mode, and a fifth mode that is a simulation mode.

마스터 로봇(1) 및/또는 슬레이브 로봇(2)이 실제 모드인 제1 모드에서 동작하는 경우, 마스터 로봇(1)의 모니터부(6)를 통해 표시되는 영상은 수술 부위, 실제 수술 도구 등을 포함할 수 있다. 즉, 가상 수술도구가 표시되지 않도록 할 수 있으며, 이는 종래의 수술 로봇 시스템을 이용한 원격 수술시 표시 화면과 동일하거나 유사할 수 있다. 물론, 제1 모드에서 동작하는 경우에도, 슬레이브 로봇(2)에서 환자의 생체 정보가 측정되어 수신되는 경우 이에 상응하는 정보가 표시될 수 있으며, 그 표시 방법이 다양할 수 있음은 앞서 설명한 바와 같다.When the master robot 1 and / or the slave robot 2 operate in the first mode, which is an actual mode, the image displayed through the monitor unit 6 of the master robot 1 is displayed on a surgical site, . That is, the virtual surgical tool may not be displayed, which may be the same or similar to the display screen during the remote operation using the conventional surgical robot system. Of course, even when operating in the first mode, information corresponding to the patient's biometric information is measured and received in the slave robot 2, and the display method may be varied as described above .

마스터 로봇(1) 및/또는 슬레이브 로봇(2)이 비교 모드인 제2 모드에서 동작하는 경우, 마스터 로봇(1)의 모니터부(6)를 통해 표시되는 영상은 수술 부위, 실제 수술 도구, 가상 수술도구 등을 포함할 수 있다. When the master robot 1 and / or the slave robot 2 operate in the second mode, which is the comparison mode, the image displayed through the monitor unit 6 of the master robot 1 is displayed on the operation part, Surgical tools, and the like.

참고로, 실제 수술도구는 복강경(5)에 의해 입력되어 마스터 로봇(1)으로 전송된 영상에 포함된 수술도구로서 환자의 신체에 직접적인 수술 행위를 가하는 수술도구이다. 이에 비해, 가상 수술도구는 수술자가 암 조작부(330)를 조작함에 따라 마스터 로봇(1)이 인식하는 조작정보(즉, 수술도구의 이동, 회전 등에 관한 정보)에 의해 제어되는 것으로서 화면에만 표시되는 가상의 수술도구이다. 실제 수술도구 및 가상 수술도구는 그 위치 및 조작 형상이 조작정보에 의해 결정될 것이다.For reference, an actual surgical tool is a surgical tool included in an image input by the laparoscope 5 and transmitted to the master robot 1, and is a surgical tool for directly applying a surgical operation to a patient's body. On the other hand, the virtual surgical tool is controlled by the operation information recognized by the master robot 1 (that is, information related to movement, rotation, and the like of the surgical tool) as the operator operates the arm control unit 330, It is a virtual surgical tool. Actual surgical tools and virtual surgical instruments will have their positions and manipulated shapes determined by the manipulation information.

조작신호 생성부(340)는 수술자의 암 조작부(340) 조작에 따른 조작정보를 이용하여 조작신호를 생성하고, 생성한 조작신호를 슬레이브 로봇(2)으로 전송하여 결과적으로 실제 수술도구가 조작정보에 상응하도록 조작되도록 한다. 아울러, 조작신호에 의해 조작된 실제 수술도구의 위치 및 조작 형상은 복강경(5)에 의해 입력된 영상에 의해 수술자의 확인이 가능하다. 즉, 마스터 로봇(1)과 슬레이브 로봇(2)간의 네트워크 통신 속도가 충분히 빠른 상황이라면 실제 수술도구와 가상 수술도구가 거의 비슷한 속도로 움직이게 될 것이다. 이에 비해, 네트워크 통신 속도가 다소 느린 상황이라면 가상 수술도구가 먼저 움직인 후 약간의 시간차를 두고 실제 수술도구가 가상 수술도구의 조작 형태와 동일하게 움직이게 될 것이다. 그러나, 네트워크 통신 속도가 느린 상황(예를 들어, 지연 시간이 150ms 초과)이라면 가상 수술도구가 움직인 후 어느 정도의 시간차를 두고 실제 수술도구가 움직이게 될 것이다.  The operation signal generating unit 340 generates an operation signal by using the operation information according to the operation of the operation member 340 of the operator and transmits the generated operation signal to the slave robot 2. As a result, As shown in FIG. In addition, the position and manipulation shape of the actual surgical tool manipulated by the manipulation signal can be confirmed by the operator through the image input by the laparoscope 5. That is, if the network communication speed between the master robot 1 and the slave robot 2 is sufficiently fast, the actual surgical tool and the virtual surgical tool will move at almost the same speed. On the contrary, if the network communication speed is somewhat slow, the virtual surgical tool will move first, and then the actual surgical tool will move in the same manner as the virtual operation tool. However, if the network communication speed is slow (for example, the delay time is more than 150 ms), the virtual surgical tool will move and the actual surgical tool will move with a certain time difference.

마스터 로봇(1) 및/또는 슬레이브 로봇(2)이 가상 모드인 제3 모드에서 동작하는 경우로서, 암 조작부(330)에 대한 학습자(즉, 실습 학생) 또는 교육자(즉, 실습 교사)의 조작신호를 마스터 로봇(1)이 슬레이브 로봇(2)으로 전송하지 않도록 하여, 마스터 로봇(1)의 모니터부(6)를 통해 표시되는 영상이 수술 부위 및 가상 수술도구 등 중 하나 이상을 포함하도록 할 수 있다. 교육자 등은 제3 모드를 선택하여 실제 수술도구에 대한 사전 시험작동을 할 수 있다. 제3 모드로의 진입은 클러치 버튼(14) 등의 선택에 의해 이루어지도록 할 수 있으며, 해당 버튼이 눌려진 상태(또는 제3 모드가 선택된 상태)에서 핸들(10)의 조작시 실제 수술도구는 움직이지 않고 가상 수술도구만이 움직이도록 할 수 있을 것이다. 이 상태에서 해당 버튼의 누름을 종료(또는 제1 모드 또는 제2 모드를 선택)하면 가상 수술도구가 움직여진 조작정보에 부합하도록 실제 수술도구가 움직이도록 하거나 해당 버튼이 눌려진 시점으로 핸들(10)을 복귀(또는 가상 수술도구의 위치 및 조작 형태가 복귀)되도록 할 수도 있다.(I.e., a training student) or an educator (i.e., a training teacher) with respect to the arm control unit 330 when the master robot 1 and / or the slave robot 2 operate in the third mode, The master robot 1 does not transmit the signal to the slave robot 2 so that the image displayed through the monitor unit 6 of the master robot 1 includes at least one of a surgical site and a virtual surgical tool . Educators can select a third mode and perform pre-test operations on actual surgical tools. The third mode can be entered by selecting the clutch button 14 or the like. When the button 10 is pressed (or the third mode is selected), the actual operation tool moves It will be possible to move only the virtual surgical tool without it. When the depression of the corresponding button is terminated (or the first mode or the second mode is selected) in this state, the virtual surgical tool is moved so that the actual surgical tool is moved so as to match the operated manipulation information, (Or the position and manipulation of the virtual surgical instrument may be restored).

마스터 로봇(1) 및/또는 슬레이브 로봇(2)이 교육 모드인 제4 모드에서 동작하는 경우로서, 암 조작부(330)에 대한 학습자(즉, 실습 학생) 또는 교육자(즉, 실습 교사)의 조작신호가 교육자 또는 학습자에 의해 조작되는 마스터 로봇(1)으로 전달되도록 할 수 있다. 이를 위해, 1개의 슬레이브 로봇(2)에 2개 이상의 마스터 로봇(1)이 연결되도록 하거나, 마스터 로봇(1)에 별도의 마스터 로봇(1)이 연결되도록 할 수도 있다. 이 경우, 교육자용 마스터 로봇(1)의 암 조작부(330)가 조작되면 상응하는 조작신호가 슬레이브 로봇(2)으로 전달되도록 할 수 있으며, 교육자용 및 학습자용 마스터 로봇(1) 각각의 모니터부(6)에는 수술 경과의 확인을 위해 복강경(5)을 통해 입력된 영상이 표시되도록 할 수 있다. 이에 비해, 학습자용 마스터 로봇(1)의 암 조작부(330)가 조작되면 상응하는 조작신호가 교육자용 마스터 로봇(1)으로만 제공되고 슬레이브 로봇(2)으로는 전달되지 않도록 할 수 있다. 이와 같이, 교육자의 조작은 제1 모드에서 기능되도록 하되, 학습자의 조작은 제3 모드에서 기능되도록 할 수 있다. 교육 모드인 제4 모드에서의 동작에 대해서는 이후 관련 도면을 참조하여 상세히 설명한다.(That is, a training student) or an educator (that is, a training teacher) with respect to the arm control unit 330 when the master robot 1 and / or the slave robot 2 operate in the fourth mode, The signal can be transmitted to the master robot 1 operated by the educator or the learner. To this end, two or more master robots 1 may be connected to one slave robot 2, or a separate master robot 1 may be connected to the master robot 1. In this case, a corresponding operation signal can be transmitted to the slave robot 2 when the dark operation unit 330 of the master robot 1 for the educator is operated, The image input through the laparoscope 5 for the confirmation of the progress of the operation can be displayed on the display unit 6. In contrast, when the arm control unit 330 of the learner master robot 1 is operated, a corresponding operation signal may be provided only to the master robot 1 for educator and not to the slave robot 2. Thus, the operation of the educator can be made to function in the first mode, while the operation of the learner can be made to function in the third mode. The operation in the fourth mode which is the education mode will be described in detail with reference to the related drawings hereinafter.

시뮬레이션 모드인 제5 모드에서 동작하는 경우, 마스터 로봇(1)은 3차원 모델링된 3차원 형상의 장기의 특성(예를 들어, 형상, 질감, 절제시의 촉감 등)을 이용하는 수술 시뮬레이터로 기능하게 된다. 즉, 제5 모드는 제3 모드인 가상 모드가 진화된 것으로 이해될 수 있으며, 입체 내시경 등을 이용하여 얻은 3차원 형상에 장기의 특성을 결합하여 수술 시뮬레이터로 동작하는 것이다. When operating in the fifth mode, which is a simulation mode, the master robot 1 functions as a surgical simulator that uses three-dimensional modeled three-dimensional organs characteristics (e.g., shape, texture, do. In other words, the fifth mode can be understood as a virtual mode, which is a third mode, evolved, and operates as a surgical simulator by combining characteristics of an organ in a three-dimensional shape obtained by using a stereoscopic endoscope or the like.

만일, 화면 표시부(320)를 통해 간(肝)이 출력되었다면, 입체 내시경을 이용하여 간의 형상이 3차원적으로 파악될 수 있고, 수학적으로 모델링된 간의 특성 정보(이는 저장부(도시되지 않음)에 미리 저장될 수 있음)와 매칭시켜 수술 도중 가상모드에서 수술 시뮬레이션을 해볼 수 있다. 예를 들어, 실제로 간을 절제하기 전에 간의 형상에 간의 특성정보를 매칭시킨 상태에서 어떤 방향에서 어떻게 간을 절제하여야 적절한지 미리 수술 시뮬레이션을 해볼 수도 있다. 아울러 수학적 모델링 정보 및 특성 정보를 바탕으로 어느 부분이 단단한지 어느 부분이 연한지 수술시의 촉감을 미리 느껴볼 수도 있다. 이 경우, 3차원적으로 얻은 장기의 표면 형상정보를 CT(Computer Tomography) 또는/및 MRI(Magnetic Resonance Imaging) 영상 등을 참조하여 재구성한 장기 표면의 3차원 형상과 정합하고, CT, MRI 영상 등으로부터 재구성한 장기 내부의 3차원 형상과 수학적 모델링 정보를 정합하면 보다 사실적인 수술 시뮬레이션이 가능해질 수 있다.If the liver is output through the screen display unit 320, the liver shape can be grasped three-dimensionally using the stereoscopic endoscope, and mathematically modeled liver characteristic information (which is stored in a storage unit (not shown) Which can be simulated in a virtual mode during surgery. For example, before performing a liver resection, it is possible to perform a surgical simulation in advance, in which the liver is resected in a certain direction while matching the liver characteristic information to the liver shape. In addition, based on mathematical modeling information and characteristic information, it is possible to feel the tactile sensation in advance at which part is hard or which portion is soft. In this case, the surface shape information of the organ obtained in three dimensions is matched with the three-dimensional shape of the reconstructed organ surface with reference to CT (Computer Tomography) or / and MRI (Magnetic Resonance Imaging) And the mathematical modeling information can be matched with the three-dimensional shape reconstructed from the reconstructed image.

이제까지 제1 모드 내지 제5 모드의 구동모드들에 대해 설명하였으나, 이외에도 다양한 목적에 따른 구동모드의 추가가 가능할 수 있다.Although the driving modes of the first to fifth modes have been described so far, it is also possible to add driving modes according to various purposes.

또한, 각 모드에서 마스터 로봇(1)이 구동되도록 하는 경우, 수술자는 현재의 구동모드가 무엇인지 혼동될 수 있다. 보다 명확한 구동모드의 식별이 가능하도록 화면 표시부(320)를 통해 모드 표시자가 더 표시되도록 할 수 있다.Further, when the master robot 1 is driven in each mode, the operator can be confused as to what the current drive mode is. It is possible to display a mode indicator further through the screen display unit 320 so that a clearer drive mode can be identified.

도 4b에 수술 부위와 실제 수술도구(460)가 표시되는 화면상에 모드 표시자가 더 표시되는 표시 형태가 예시되어 있다. 모드 표시자는 현재 어떤 구동모드에서 구동 중인지를 명확히 인식할 수 있도록 하기 위한 것으로, 메시지(450), 테두리 색상(480) 등으로 다양할 수 있다. 이외에도, 모드 표시자는 아이콘, 배경 색상 등으로 구현될 수도 있으며, 하나의 모드 표시자만이 표시되거나 둘 이상의 모드 표시자가 함께 표시되도록 할 수도 있다.
FIG. 4B illustrates a display mode in which a mode indicator is further displayed on the screen where the surgical site and the actual surgical tool 460 are displayed. The mode indicator may be a message 450, a border color (480), or the like in order to clearly recognize in which drive mode the drive is currently being operated. In addition, the mode indicator may be implemented as an icon, a background color, or the like, and only one mode indicator may be displayed or two or more mode indicators may be displayed together.

도 5는 본 발명의 일 실시예에 따른 제1 모드와 제2 모드의 구동모드 선택 과정을 나타낸 순서도이고, 도 6은 본 발명의 일 실시예에 따른 제2 모드에서 모니터부를 통해 출력되는 화면 표시의 예시도이다.FIG. 5 is a flowchart illustrating a driving mode selection process of a first mode and a second mode according to an exemplary embodiment of the present invention. FIG. Fig.

도 5에는 제1 모드 또는 제2 모드 중 어느 하나가 선택되도록 하는 경우가 가정되었으나, 도 4a에 예시된 바와 같이 구동모드가 제1 모드 내지 도 5 모드로 적용되는 경우라면 이후 설명되는 단계 520에서의 모드 선택 입력은 제1 모드 내지 도 5 모드 중 어느 하나에 대한 것일 수 있을 것이다.5, it is assumed that either the first mode or the second mode is selected. However, if the driving mode is applied in the first mode to the fifth mode as illustrated in FIG. 4A, The mode selection input of the first mode may be for any one of the first mode to the fifth mode.

도 5를 참조하면, 단계 510에서 수술 로봇 시스템이 구동 개시된다. 수술 로봇 시스템의 구동 개시 후 복강경(5)을 통해 입력되는 영상이 마스터 로봇(1)의 모니터부(6)를 통해 출력될 것이다.Referring to FIG. 5, the surgical robot system is started in step 510. An image input through the laparoscope 5 after the start of the operation of the surgical robot system will be outputted through the monitor unit 6 of the master robot 1. [

단계 520에서 마스터 로봇(1)은 수술자로부터 구동모드의 선택을 입력받는다. 구동모드의 선택은 예를 들어 기구적으로 구현된 클러치 버튼(14)이나 페달(도시되지 않음) 등의 누름이나 모니터부(6)를 통해 표시되는 기능메뉴 또는 모드선택 메뉴 등을 이용하여 이루어질 수 있을 것이다. In step 520, the master robot 1 receives the selection of the drive mode from the operator. The selection of the drive mode can be made, for example, by depressing a clutch button 14 or a pedal (not shown) implemented mechanically or by using a function menu or a mode selection menu displayed through the monitor 6 There will be.

단계 520에서 만일 제1 모드가 선택되었다면, 마스터 로봇(1)은 실제모드인 구동모드로 동작하며, 복강경(5)으로부터 입력되는 화상을 모니터부(6)에 디스플레이한다. If the first mode is selected in step 520, the master robot 1 operates in the driving mode, which is the actual mode, and displays the image input from the laparoscope 5 on the monitor unit 6.

그러나, 만일 단계 520에서 만일 제2 모드가 선택되었다면, 마스터 로봇(1)은 비교모드인 구동모드로 동작하며, 복강경(5)으로부터 입력되는 화상뿐 아니라 암 조작부(330) 조작에 따른 조작정보에 의해 제어되는 가상 수술도구가 함께 모니터부(6)에 디스플레이한다. However, if the second mode is selected in step 520, the master robot 1 operates in the driving mode, which is the comparison mode, and receives not only the image input from the laparoscope 5 but also the operation information according to the operation of the dark operation unit 330 And displays the virtual surgery tool on the monitor unit 6 together.

도 6에는 제2 모드에서 모니터부(6)를 통해 출력되는 화면 표시 형태가 예시되어 있다.FIG. 6 illustrates a screen display form output through the monitor unit 6 in the second mode.

도 6에 예시된 바와 같이, 비교 모드에서 화면상에는 복강경(5)에 의해 입력되어 제공되는 영상(즉, 수술 부위와 실제 수술도구(460)가 표시되는 영상)과 암 조작부(330)에 따른 조작 정보에 의해 제어되는 가상 수술도구(610)가 함께 표시된다. 6, in the comparison mode, on the screen, the image input by the laparoscope 5 and provided (i.e., the image in which the surgical site and the actual surgical tool 460 are displayed) and the operation A virtual surgical tool 610 controlled by information is displayed together.

실제 수술도구(460)와 가상 수술도구(610)간의 표시 위치 등의 차이는 마스터 로봇(1)과 슬레이브 로봇(2)간의 네트워크 통신 속도에 의해 야기되는 것이며, 소정의 시간이 경과된 후 실제 수술도구(460)는 현재 가상 수술도구(610)가 표시된 위치로 이동되어 표시될 것이다. The difference in the display position between the actual surgical tool 460 and the virtual surgical tool 610 is caused by the network communication speed between the master robot 1 and the slave robot 2, The tool 460 will be moved to the location where the current virtual surgical tool 610 is displayed and displayed.

도 6에는 실제 수술도구(460)와의 구분의 편의를 위해 가상 수술도구(610)가 화살표 모양으로 예시되었으나, 가상 수술도구(610)의 표시 형상은 실제 수술도구의 표시 형상과 동일하게 처리하거나 상호간의 식별 편의를 위해 반투명 형태, 외곽선만 존재하는 점선 도형 등과 같이 다양하게 표현할 수도 있다. 가상 수술도구(610)의 표시 여부 및 표시 형태 등에 대해서는 이후 관련 도면을 참조하여 다시 설명하기로 한다.6, the virtual surgical tool 610 is illustrated in the form of an arrow for convenience in distinguishing it from the actual surgical tool 460. However, the display shape of the virtual surgical tool 610 may be the same as that of the actual surgical tool, A semi-transparent form for distinguishing convenience, a dotted line form including only an outline, and the like. The display state and the display form of the virtual surgical tool 610 will be described later with reference to the related drawings.

또한, 복강경(5)에 의해 입력되어 제공되는 영상과 가상 수술도구(610)가 함께 표시되도록 하는 방법은 예를 들어 복강경 영상 상부에 가상 수술도구(610)가 오버랩되어 표시되도록 하는 방법, 복강경 영상 및 가상 수술도구(610)가 하나의 영상으로 재구성되어 표시되도록 하는 방법 등 다양할 수 있을 것이다.
In addition, a method of causing the virtual surgical tool 610 to be displayed together with the image inputted and provided by the laparoscope 5 includes a method of displaying the virtual surgical tool 610 in an overlapped manner on the laparoscopic image, And a method for causing the virtual surgical tool 610 to be reconstructed and displayed as a single image.

도 7은 본 발명의 일 실시예에 따른 증강현실 구현부(350)의 세부 구성을 나타낸 도면이고, 도 8은 본 발명의 일 실시예에 따른 제2 모드에서의 마스터 로봇(1)의 구동방법을 나타낸 순서도이다.FIG. 7 is a diagram illustrating a detailed configuration of an augmented reality implementing unit 350 according to an embodiment of the present invention. FIG. 8 is a flowchart illustrating a method of driving a master robot 1 in a second mode according to an embodiment of the present invention Fig.

도 7을 참조하면, 증강현실 구현부(350)는 특성값 연산부(710), 가상 수술도구 생성부(720), 테스트 신호 처리부(730), 지연시간 산출부(740)를 포함한다. 증강현실 구현부(350)의 구성 요소 중 일부 구성 요소(예를 들어, 테스트 신호 처리부(730), 지연시간 산출부(740) 등)는 생략될 수 있으며, 일부 구성 요소(예를 들어, 슬레이브 로봇(2)으로부터 수신된 생체 정보를 화면 표시부(320)를 통해 출력 가능하도록 처리하기 위한 구성 요소 등)가 더 추가될 수도 있다. 증강현실 구현부(350)에 포함된 하나 이상의 구성 요소들은 프로그램 코드들의 조합에 의한 소프트웨어 프로그램의 형태로 구현될 수도 있다.7, the augmented reality implementing unit 350 includes a characteristic value calculating unit 710, a virtual surgery tool generating unit 720, a test signal processing unit 730, and a delay time calculating unit 740. [ Some components (for example, the test signal processing unit 730, the delay time calculating unit 740, and the like) of the components of the augmented reality implementing unit 350 may be omitted and some components (e.g., A component for processing the biometric information received from the robot 2 so that the biometric information can be outputted through the screen display unit 320) may be further added. One or more components included in the augmented reality implementing unit 350 may be implemented in the form of a software program by a combination of program codes.

특성값 연산부(710)는 슬레이브 로봇(2)의 복강경(5)에 의해 입력되어 제공되는 영상 및/또는 로봇 암(3)에 결합된 실제 수술도구의 위치에 대한 좌표정보 등을 이용하여 특성값을 연산한다. 실제 수술도구의 위치는 슬레이브 로봇(2)의 로봇 암(3)의 위치값을 참조하여 인식할 수 있으며, 해당 위치에 대한 정보는 슬레이브 로봇(2)으로부터 마스터 로봇(1)으로 제공될 수도 있다.The characteristic value computing unit 710 computes a characteristic value by using the coordinates of the image provided by the laparoscope 5 of the slave robot 2 and / or the position of the actual surgical tool coupled to the robot arm 3, . The position of the actual surgical tool can be recognized by referring to the position value of the robot arm 3 of the slave robot 2 and information on the position can be provided from the slave robot 2 to the master robot 1 .

특성값 연산부(710)는 예를 들어 복강경(5)에 의한 영상 등을 이용하여 복강경(5)의 화각(FOV, Field of View), 확대율, 관점(예를 들어, 보는 방향), 보는 깊이 등과, 실제 수술도구(460)의 종류, 방향, 깊이, 꺽인 정도 등의 특성값을 연산할 수 있다. 복강경(5)에 의한 영상을 이용하여 특성값을 연산하는 경우, 해당 영상에 포함된 피사체의 외곽선 추출, 형상 인식, 기울어진 각도 등을 인식하기 위한 영상 인식 기술이 이용될 수도 있다. 또한, 실제 수술도구(460)의 종류 등은 로봇 암(3)에 해당 수술도구를 결합하는 과정 등에서 미리 입력될 수도 있다.The characteristic value calculator 710 calculates the characteristic value of the laparoscope 5 based on the image of the laparoscope 5 using the image of the laparoscope 5, the field of view of the laparoscope 5, the enlargement ratio, the viewpoint (for example, , The type of the actual surgical tool 460, the direction, the depth, and the degree of tearing. In the case of calculating the characteristic value using the image by the laparoscope 5, an image recognition technique for recognizing the contour extraction, shape recognition, tilted angle, etc. of the subject included in the image may be used. In addition, the type of the actual surgical tool 460 and the like may be input in advance in a process of coupling the surgical tool to the robot arm 3 or the like.

가상 수술도구 생성부(720)는 수술자의 로봇 암(3) 조작에 따른 조작정보를 참조하여 화면 표시부(320)를 통해 출력될 가상 수술도구(610)를 생성한다. 가상 수술도구(610)가 최초로 표시되는 위치는 예를 들어 화면 표시부(320)를 통해 실제 수술도구(460)가 표시된 표시 위치를 기준할 수 있으며, 암 조작부(330)의 조작에 따라 조작되는 가상 수술도구(610)의 이동 변위는 예를 들어 조작신호에 상응하여 실제 수술도구(460)가 이동되는 실측값을 참조하여 사전에 설정될 수 있을 것이다. The virtual surgery tool generation unit 720 generates a virtual surgery tool 610 to be output through the screen display unit 320 by referring to operation information on operation of the robot arm 3 of the operator. The position at which the virtual surgical tool 610 is initially displayed may be based on the display position where the actual surgical tool 460 is displayed through the screen display unit 320, The moving displacement of the surgical tool 610 may be set in advance by referring to an actual value at which the actual surgical tool 460 is moved corresponding to, for example, an operation signal.

가상 수술도구 생성부(720)는 가상 수술도구(610)가 화면 표시부(320)를 통해 출력되도록 하기 위한 가상 수술도구 정보(예를 들어, 가상 수술도구의 표출을 위한 특성값)만을 생성할 수도 있다. 가상 수술도구 생성부(720)는 조작정보에 따른 가상 수술도구(610)의 형상이나 위치를 결정함에 있어 특성값 연산부(710)에 의해 연산된 특성값이나 가상 수술도구(610) 표출을 위해 이용했던 직전의 특성값 등을 참조할 수도 있다. 이는 가상 수술도구(710) 또는 실제 수술도구(460)가 이전의 모양(예를 들어, 기울어진 각도 등)과 동일한 상태에서 평행이동 조작만이 이루어진 경우 신속하게 해당 정보를 생성할 수 있도록 하기 위함이다.The virtual surgery tool generation unit 720 may generate only virtual surgery tool information (e.g., a property value for displaying the virtual surgery tool) for causing the virtual surgery tool 610 to be output through the screen display unit 320 have. The virtual surgery tool generation unit 720 generates a virtual surgery tool 610 by using the virtual surgery tool 610 to display the characteristic value calculated by the characteristic value calculation unit 710 or the virtual surgery tool 610 in determining the shape or position of the virtual surgery tool 610 according to the manipulation information. The value of the immediately preceding characteristic, and the like. This is to allow the virtual surgical tool 710 or the actual surgical tool 460 to quickly generate the information when only the translating operation is performed in the same state as the previous shape (for example, the inclined angle, etc.) to be.

테스트 신호 처리부(730)는 마스터 로봇(1)과 슬레이브 로봇(2)간의 네트워크 통신 속도가 어느 정도인지를 판단할 수 있도록 테스트 신호를 슬레이브 로봇(2)으로 전송하고, 슬레이브 로봇(2)으로부터 응답 신호를 수신한다. 테스트 신호 처리부(730)에 의해 전송되는 테스트 신호는 예를 들어 마스터 로봇(1)과 슬레이브 로봇(2)간에 송수신되는 제어 신호에 타임스탬프(time stamp) 형태로 포함되어 사용되는 통상적인 신호이거나 네트워크 통신 속도를 측정하기 위해 추가적으로 이용되는 신호일 수 있다. 또한 테스트 신호가 송수신되는 매 시점들 중 일부의 시점에서만 네트워크 통신 속도의 측정이 이루어지도록 미리 지정될 수도 있다.The test signal processing unit 730 transmits a test signal to the slave robot 2 so that the network communication speed between the master robot 1 and the slave robot 2 can be determined, Signal. The test signal transmitted by the test signal processing unit 730 may be a conventional signal used as a time stamp in a control signal transmitted and received between the master robot 1 and the slave robot 2, It may be a signal that is additionally used to measure the communication speed. In addition, it may be specified in advance that a measurement of the network communication speed is performed only at a time point of each time point at which the test signal is transmitted and received.

지연시간 산출부(740)는 테스트 신호의 전송 시각과 응답 신호의 수신 시각을 이용하여 네트워크 통신상의 지연시간을 산출한다. 마스터 로봇(1)에서 슬레이브 로봇(2)으로 임의의 신호를 전송하는 구간과 마스터 로봇(1)이 슬레이브 로봇(2)으로부터 임의의 신호를 수신하는 구간의 네트워크 통신 속도가 동일하다면 지연시간은 예를 들어 테스트 신호의 전송 시각과 응답 신호의 수신 시각간의 차이값의 1/2일 수 있다. 이는, 슬레이브 로봇은 마스터 로봇(1)으로부터 조작신호가 수신되면 즉시 상응하는 처리를 수행할 것이기 때문이다. 물론, 지연시간에는 슬레이브 로봇(2)에서 조작신호에 따른 로봇 암(3) 제어 등의 처리를 수행하기 위한 처리 지연시간이 더 포함될 수도 있을 것이다. 다른 예로서, 네트워크 통신상의 지연시간은 수술자의 조작 시각과 관찰 시각간의 차이가 중시되는 경우라면, 지연시각은 전송 시각과 응답 신호의 수신 시각(예를 들어, 표시부를 통해 수술자의 조작 결과가 표시되는 시각)간의 차이값으로 산출될 수도 있을 것이다. 이외에도 지연시간을 산출하는 방식은 다양할 수 있다.The delay time calculating unit 740 calculates the delay time on the network communication by using the transmission time of the test signal and the reception time of the response signal. If the network communication speeds of the master robot 1 and the slave robot 2 are the same and the delay time is the same as the delay time of the slave robot 2 For example, 1/2 of the difference between the transmission time of the test signal and the reception time of the response signal. This is because the slave robot will perform the corresponding processing immediately when an operation signal is received from the master robot 1. [ Of course, the delay time may further include a processing delay time for performing processing such as control of the robot arm 3 in response to an operation signal from the slave robot 2. As another example, if the difference between the operation time of the operator and the observation time is emphasized, the delay time may be determined based on the transmission time and the reception time of the response signal (for example, Of the time difference). In addition, the method of calculating the delay time may be various.

만일 지연시간이 미리 지정된 임계값(예를 들어, 150ms) 이하라면 실제 수술도구(460)와 가상 수술도구(610)간의 표시 위치의 차이 등이 크지 않을 것이다. 이 경우, 가상 수술도구 생성부(720)는 가상 수술도구(610)가 화면 표시부(320)를 통해 표시되지 않도록 할 수 있다. 이는, 실제 수술도구(460)와 가상 수술도구(610)가 일치 또는 매우 근접한 위치에 이중으로 표시됨으로써 수술자의 혼동을 야기할 필요가 없기 때문이다.If the delay time is less than a predetermined threshold value (for example, 150 ms), the difference in display position between the actual surgical tool 460 and the virtual surgical tool 610 may not be large. In this case, the virtual surgery tool creation unit 720 may prevent the virtual surgery tool 610 from being displayed through the screen display unit 320. This is because it is unnecessary to cause the surgeon's confusion because the actual surgical tool 460 and the virtual surgical tool 610 are displayed at the same position or in close proximity to each other.

그러나 만일 지연시간이 미리 지정된 임계값(예를 들어, 150ms)을 초과하면 실제 수술도구(460)와 가상 수술도구(610)간의 표시 위치의 차이 등이 클 수 있다. 이 경우, 가상 수술도구 생성부(720)는 가상 수술도구(610)가 화면 표시부(320)를 통해 표시되도록 할 수 있다. 이는, 수술자의 암 조작부(330) 조작 상황과 실제 수술도구(460)의 조작 상황이 실시간적으로 일치하지 않아 야기되는 수술자의 혼동을 제거하기 위함이며, 수술자가 가상 수술도구(610)를 참조하여 수술하더라도 실제 수술도구(460)가 가상 수술도구(610)의 조작 형태대로 후속하여 조작될 것이기 때문이다.However, if the delay time exceeds a predetermined threshold value (for example, 150 ms), a difference in display position between the actual surgical tool 460 and the virtual surgical tool 610 may be large. In this case, the virtual surgery tool generator 720 may cause the virtual surgery tool 610 to be displayed on the screen display unit 320. This is to remove the confusion of the operator caused by the fact that the operation state of the operator's arm operation unit 330 and the operation state of the actual operation tool 460 do not coincide with each other in real time and the operator refers to the virtual surgery tool 610 Because the actual surgical tool 460 will be subsequently manipulated in accordance with the manipulated form of the virtual surgical tool 610 even if it is operated.

도 8에는 제2 모드에서의 마스터 로봇(1)의 구동방법을 나타낸 순서도가 예시되어 있다. 순서도의 각 단계를 설명함에 있어, 설명 및 이해의 편의를 위해 마스터 로봇(1)이 각 단계를 수행하는 것으로 설명하기로 한다.FIG. 8 illustrates a flowchart showing a method of driving the master robot 1 in the second mode. In describing each step of the flowchart, it will be described that the master robot 1 performs each step for convenience of explanation and understanding.

도 8을 참조하면, 단계 810에서 마스터 로봇(1)은 네트워크 통신 속도를 측정하기 위해 테스트 신호를 생성하여 유선 또는 무선 통신망을 통해 슬레이브 로봇(2)으로 전송한다.Referring to FIG. 8, in step 810, the master robot 1 generates a test signal to measure the network communication speed and transmits the test signal to the slave robot 2 via the wired or wireless communication network.

단계 820에서 마스터 로봇(1)은 슬레이브 로봇(2)로부터 테스트 신호에 대한 응답 신호를 수신한다.In step 820, the master robot 1 receives a response signal to the test signal from the slave robot 2.

단계 830에서 마스터 로봇(1)은 테스트 신호의 전송 시각과 응답 신호의 수신 시각을 이용하여 네트워크 통신 속도상의 지연시간을 산출한다. In step 830, the master robot 1 calculates the delay time on the network communication speed using the transmission time of the test signal and the reception time of the response signal.

이어서, 단계 840에서 마스터 로봇(1)은 산출된 지연시간이 미리 설정된 임계값 이하인지 여부를 판단한다. 여기서, 임계값은 수술 로봇 시스템을 이용하여 수술자의 원활한 수술 진행을 위해 요구되는 네트워크 통신 속도상의 지연 시간이며, 실험적 및/또는 통계적인 방법으로 결정되어 적용될 수 있다.Then, in step 840, the master robot 1 determines whether the calculated delay time is equal to or less than a preset threshold value. Here, the threshold value is a delay time on the network communication speed required for smooth operation of the operator using the surgical robot system, and can be determined and applied by an experimental and / or statistical method.

만일, 산출된 지연시간이 미리 설정된 임계값 이하라면 단계 850으로 진행하여 마스터 로봇(1)은 화면 표시부(320)에 복강경(5)을 통해 입력된 영상(즉, 수술 부위와 실제 수술도구(460)를 포함하는 영상)이 표시되도록 처리한다. 이때, 가상 수술도구(610)는 표시되지 않을 수 있다. 물론, 이 경우에도 가상 수술도구(610)와 실제 수술도구(460)가 함께 표시되도록 할 수도 있을 것이다.If the calculated delay time is equal to or less than the predetermined threshold value, the process proceeds to step 850 and the master robot 1 transmits the image input through the laparoscope 5 to the screen display unit 320 ) Is displayed on the screen. At this time, the virtual surgical tool 610 may not be displayed. Of course, in this case, the virtual surgical tool 610 and the actual surgical tool 460 may be displayed together.

그러나, 산출된 지연시간이 미리 설정된 임계값을 초과하는 경우라면 단계 860으로 진행하여 마스터 로봇(1)은 화면 표시부(320)에 복강경(5)을 통해 입력된 영상(즉, 수술 부위와 실제 수술도구(460)를 포함하는 영상)과 함께 가상 수술도구(610)가 표시되도록 처리할 수 있다. 물론, 이 경우에도 가상 수술도구(610)가 표시되지 않도록 할 수도 있을 것이다.
However, if the calculated delay time exceeds the preset threshold, the master robot 1 proceeds to step 860 so that the image input through the laparoscope 5 to the screen display unit 320 (i.e., The virtual surgical tool 610 may be displayed together with the image including the tool 460. Of course, in this case, the virtual surgical tool 610 may not be displayed.

도 9는 본 발명의 다른 실시예에 따른 증강현실 구현부(350)의 세부 구성을 나타낸 도면이고, 도 10 및 도 11은 각각 본 발명의 다른 실시예에 따른 제2 모드에서의 마스터 로봇(1)의 구동방법을 나타낸 순서도이다.FIG. 9 is a diagram illustrating a detailed configuration of an augmented reality implementing unit 350 according to another embodiment of the present invention. FIGS. 10 and 11 are diagrams showing a configuration of a master robot 1 ) According to the second embodiment of the present invention.

도 9를 참조하면, 증강현실 구현부(350)는 특성값 연산부(710), 가상 수술도구 생성부(720), 간격 연산부(910), 영상 해석부(920)를 포함한다. 증강현실 구현부(350)의 구성 요소 중 일부 구성 요소는 생략될 수 있으며, 일부 구성 요소(예를 들어, 슬레이브 로봇(2)으로부터 수신된 생체 정보를 화면 표시부(320)를 통해 출력 가능하도록 처리하기 위한 구성 요소 등)가 더 추가될 수도 있다. 증강현실 구현부(350)에 포함된 하나 이상의 구성 요소들은 프로그램 코드들의 조합에 의한 소프트웨어 프로그램의 형태로 구현될 수도 있다.9, the augmented reality implementing unit 350 includes a characteristic value calculating unit 710, a virtual surgery tool generating unit 720, an interval calculating unit 910, and an image analyzing unit 920. Some of the components of the augmented reality implementing unit 350 may be omitted and some components (e.g., biometric information received from the slave robot 2) may be processed to be output through the screen display unit 320 And the like) may be further added. One or more components included in the augmented reality implementing unit 350 may be implemented in the form of a software program by a combination of program codes.

특성값 연산부(710)는 슬레이브 로봇(2)의 복강경(5)에 의해 입력되어 제공되는 영상 및/또는 로봇 암(3)에 결합된 실제 수술도구의 위치에 대한 좌표정보 등을 이용하여 특성값을 연산한다. 특성값은 예를 들어 복강경(5)의 화각(FOV, Field of View), 확대율, 관점(예를 들어, 보는 방향), 보는 깊이 등과, 실제 수술도구(460)의 종류, 방향, 깊이, 꺽인 정도 등 중 하나 이상을 포함할 수 있다. The characteristic value computing unit 710 computes a characteristic value by using the coordinates of the image provided by the laparoscope 5 of the slave robot 2 and / or the position of the actual surgical tool coupled to the robot arm 3, . The characteristic values include, for example, the field of view (FOV) of the laparoscope 5, the magnification, the viewpoint (e.g., viewing direction), the viewing depth, and the type, direction, depth, And the like.

가상 수술도구 생성부(720)는 수술자의 로봇 암(3) 조작에 따른 조작정보를 참조하여 화면 표시부(320)를 통해 출력될 가상 수술도구(610)를 생성한다. The virtual surgery tool generation unit 720 generates a virtual surgery tool 610 to be output through the screen display unit 320 by referring to operation information on operation of the robot arm 3 of the operator.

간격 연산부(910)는 특성값 연산부(710)를 통해 연산된 실제 수술도구(460)의 위치좌표와 암 조작부(330) 조작에 연동되는 가상 수술도구(610)의 위치좌표를 이용하여 각 수술도구간의 간격을 연산한다. 예를 들어, 가상 수술도구(610)와 실제 수술도구(460)의 위치 좌표가 각각 결정되면 두 점을 연결하는 선분의 길이로서 연산될 수 있다. 여기서, 위치 좌표는 예를 들어 x-y-z 축으로 규정되는 3차원 공간상의 한 점의 좌표값일 수 있으며, 해당 한 점은 가상 수술도구(610) 및 실제 수술도구(460)상의 특정 위치의 한 점으로 미리 지정될 수 있다. 이외에도, 각 수술도구간의 간격은 조작 방법에 의해 생성되는 경로 또는 궤적의 길이 등이 더 이용될 수 있다. 예를 들어 원(circle)을 그리는 경우 시간차가 원을 그리는 시간만큼 존재할 때 각 수술도구간의 선분의 길이는 매우 작아지지만 경로 또는 궤적상 차이는 조작 방법에 의해 생성된 원의 원주만큼 발생될 수 있기 때문이다.The interval calculator 910 calculates the distance between the operation coordinates of the actual operation tool 460 and the virtual operation tool 610 by using the position coordinates of the actual operation tool 460 calculated through the characteristic value calculator 710 and the position coordinates of the virtual operation tool 610, . For example, when the position coordinates of the virtual surgical tool 610 and the actual surgical tool 460 are determined, they can be calculated as the length of a line connecting two points. Here, the position coordinate may be a coordinate value of a point on a three-dimensional space defined by, for example, an xyz axis, and the point may correspond to a point of a specific position on the virtual surgical tool 610 and the actual surgical tool 460 Can be specified. In addition, the interval of each operation section can be further utilized by the path or the length of the trajectory generated by the operation method. For example, when drawing circles, when the time difference exists for the time of drawing a circle, the length of the line segment of each operation section becomes very small, but the difference in path or trajectory can be generated by the circumference of the circle generated by the manipulation method Because.

간격 연산을 위해 이용되는 실제 수술도구(460)의 위치좌표는 절대 좌표값으로 이용되거나 특정 지점을 기준으로 연산된 상대 좌표값으로 이용되거나, 화면 표시부(320)를 통해 표시되는 실제 수술도구(460)의 위치를 좌표화하여 이용할 수도 있다. 마찬가지로, 가상 수술도구(610)의 위치좌표도 가상 수술도구(610)의 초기 위치를 기준으로 암 조작부(330) 조작에 의해 이동된 가상의 위치를 절대 좌표화하여 이용하거나 특정 지점을 기준으로 연산된 상대 좌표값으로 이용되거나, 화면 표시부(320)를 통해 표시되는 가상 수술도구(610)의 위치를 좌표화하여 이용할 수도 있다. 여기서, 화면 표시부(320)를 통해 표시되는 각 수술도구의 위치를 해석하기 위해 이하에서 설명될 영상 해석부(920)에 의해 해석된 특징 정보가 이용될 수도 있다. The positional coordinates of the actual surgical tool 460 used for the gap calculation may be used as absolute coordinate values or relative coordinate values calculated on the basis of a specific point, ) May be used as coordinates. Likewise, the positional coordinates of the virtual surgical tool 610 may be obtained by using the virtual position shifted by the operation of the dark operation unit 330 on the basis of the initial position of the virtual surgical tool 610, Alternatively, the position of the virtual surgical tool 610 displayed through the screen display unit 320 may be used as coordinates. Here, the feature information interpreted by the image analyzing unit 920, which will be described below, may be used to analyze the position of each surgical tool displayed on the screen display unit 320.

가상 수술도구(610)와 실제 수술도구(460)간의 간격이 좁거나 0인 경우 네트워크 통신 속도가 양호한 것으로 이해될 수 있으나, 간격이 넓은 경우라면 네트워크 통신 속도가 불충분한 것으로 이해될 수 있을 것이다. If the interval between the virtual surgical tool 610 and the actual surgical tool 460 is narrow or zero, it can be understood that the network communication speed is good. However, if the interval is wide, it can be understood that the network communication speed is insufficient.

가상 수술도구 생성부(720)는 간격 연산부(910)에 의해 연산된 간격 정보를 이용하여 가상 수술도구(610)의 표시 여부, 가상 수술도구(610) 표시 색상이나 표시 형태 등 중 하나 이상을 결정할 수 있다. 예를 들어, 가상 수술도구(610)와 실제 수술도구(460)간의 간격이 미리 설정한 임계값(threshold) 이하인 경우라면 가상 수술도구(610)가 화면 표시부(320)를 통해 출력되지 않도록 할 수 있다. 또한 가상 수술도구(610)와 실제 수술도구(460)간의 간격이 미리 설정한 임계값(threshold)을 초과하는 경우 상호간의 간격에 비례하여 반투명도를 조절하거나 색상에 왜곡을 주거나 가상 수술도구(610)의 외곽선 두께를 변경하는 등의 처리를 통해 네트워크 통신 속도에 대한 수술자의 명확한 인식이 가능하도록 할 수도 있다. 여기서, 임계값은 예를 들어 5mm 등과 같은 거리값으로 지정될 수 있을 것이다.The virtual surgery tool generation unit 720 determines at least one of the display state of the virtual surgery tool 610, the color or display form of the virtual surgery tool 610, and the like using the interval information calculated by the interval operation unit 910 . For example, if the interval between the virtual surgical tool 610 and the actual surgical tool 460 is equal to or less than a predetermined threshold value, the virtual surgical tool 610 can be prevented from being output through the screen display unit 320 have. When the interval between the virtual surgical tool 610 and the actual surgical tool 460 exceeds a preset threshold value, the translucency is adjusted or the color is distorted in proportion to the interval between the virtual surgical tool 610 and the virtual surgical tool 460, ) May be changed to allow the operator to clearly recognize the network communication speed. Here, the threshold value may be designated as a distance value such as 5 mm, for example.

영상 해석부(920)는 복강경(5)에 의해 입력되어 제공되는 영상을 이용하여 미리 설정된 특징 정보(예를 들어, 픽셀별 색상값, 실제 수술도구(460)의 위치좌표, 조작 형상 등 중 하나 이상)를 추출한다. 예를 들어, 영상 해석부(920)는 수술 도중 발생될 수 있는 응급 상황(예를 들어, 과다한 출혈 등)에 대한 즉각적 대응이 가능할 수 있도록, 해당 영상의 각 픽셀별 색상값을 해석한 후 피를 나타내는 색상값을 가지는 픽셀이 기준값 이상 존재하는지 여부를 판단하거나, 피를 나타내는 색상값을 가지는 픽셀들에 의해 형성되는 영역 또는 면적이 일정 크기 이상인지 여부를 판단할 수 있다. 또한, 영상 해석부(920)는 복강경(5)에 의해 입력된 영상 및 가상 수술도구(610)가 표시되는 화면 표시부(320)의 표시 화면을 캡쳐하여 각 수술도구의 위치좌표를 생성할 수도 있다. The image analyzing unit 920 analyzes the image data inputted by the laparoscope 5 and outputs predetermined feature information (for example, color value per pixel, position coordinates of the actual surgical tool 460, Or more). For example, the image analyzing unit 920 analyzes the color value of each pixel of the corresponding image so that an immediate response to an emergency (for example, excessive bleeding) Or whether or not the area or area formed by the pixels having the color value indicating the blood is greater than or equal to a predetermined size. The image analyzing unit 920 may capture the image input by the laparoscope 5 and the display screen of the screen display unit 320 on which the virtual surgical tool 610 is displayed to generate the position coordinates of each surgical tool .

도 10에는 본 발명의 다른 실시예에 따른 제2 모드에서의 마스터 로봇(1)의 구동방법을 나타낸 순서도가 도시되어 있다.10 is a flowchart showing a method of driving the master robot 1 in the second mode according to another embodiment of the present invention.

도 10을 참조하면, 단계 1010에서 마스터 로봇(1)은 슬레이브 로봇(2)으로부터 복강경 영상(즉, 복강경(5)을 통해 입력되어 제공되는 영상)을 수신한다.10, in step 1010, the master robot 1 receives a laparoscopic image (that is, an image input through the laparoscope 5) from the slave robot 2.

단계 1020에서 마스터 로봇(1)은 실제 수술도구(460)와 가상 수술도구(610)의 좌표 정보를 연산한다. 여기서 좌표 정보는 예를 들어 특징값 연산부(710)에 의해 연산된 특징값 및 조작 정보를 이용하여 연산되거나, 영상 해석부(920)에 의해 추출된 특징 정보가 이용될 수 있다.In step 1020, the master robot 1 calculates coordinate information of the actual surgical tool 460 and the virtual surgical tool 610. Here, the coordinate information may be calculated using, for example, the feature value and operation information calculated by the feature value calculating unit 710, or the feature information extracted by the image analyzing unit 920 may be used.

단계 1030에서 마스터 로봇(1)은 단계 1020에서 연산된 각 수술도구의 좌표 정보를 이용하여 상호간의 간격을 연산한다.In step 1030, the master robot 1 calculates the distance between the two using the coordinate information of each surgical tool calculated in step 1020.

단계 1040에서 마스터 로봇(1)은 연산된 간격이 임계값 이하인지 여부를 판단한다.In step 1040, the master robot 1 determines whether the calculated interval is below a threshold value.

만일 연산된 간격이 임계값 이하라면, 단계 1050으로 진행하여 마스터 로봇(1)은 화면 표시부(320)를 통해 복강경 영상을 출력하되, 가상 수술도구(610)는 표시되지 않도록 한다.If the calculated interval is less than the threshold value, the master robot 1 proceeds to step 1050 to output the laparoscopic image through the screen display unit 320, but does not display the virtual surgical tool 610.

그러나 만일 연산된 간격이 임계값을 초과하는 경우라면, 단계 1060으로 진행하여 마스터 로봇(1)은 화면 표시부를 통해 복강경 영상과 가상 수술도구(610)가 함께 표시되도록 한다. 이때, 상호간의 간격에 비례하여 반투명도를 조절하거나 색상에 왜곡을 주거나 가상 수술도구(610)의 외곽선 두께를 변경하는 등의 처리가 이루어질 수도 있다.However, if the calculated interval exceeds the threshold value, the master robot 1 proceeds to step 1060 so that the laparoscopic image and the virtual surgical tool 610 are displayed together on the screen display unit. At this time, processing such as adjusting the translucency, distorting the color, or changing the outline thickness of the virtual surgical tool 610 may be performed in proportion to the interval between them.

또한, 도 11에는 본 발명의 또 다른 실시예에 따른 제2 모드에서의 마스터 로봇(1)의 구동방법을 나타낸 순서도가 도시되어 있다.11 is a flowchart showing a method of driving the master robot 1 in the second mode according to another embodiment of the present invention.

도 11을 참조하면, 단계 1110에서 마스터 로봇(1)은 복강경 영상을 수신한다. 수신된 복강경 영상은 화면 표시부(320)를 통해 출력될 것이다.Referring to FIG. 11, in step 1110, the master robot 1 receives a laparoscopic image. The received laparoscopic image will be output through the screen display unit 320.

단계 1120 및 단계 1130에서 마스터 로봇(1)은 수신된 복강경 영상을 해석하여, 해당 영상의 픽셀별 색상값을 연산하고 분석한다. 픽셀별 색상값의 연산은 앞서 예시한 바와 같이 영상 해석부(920)에 의해 수행되거나 영상 인식 기술이 적용되는 특성값 연산부(710)에 의해 수행될 수도 있다. 또한, 픽셀별 색상값의 분석에 의해 예를 들어 색상값 빈도, 분석의 대상이 되는 색상값을 가지는 픽셀들에 의해 형성되는 영역 또는 면적 등 중 하나 이상이 연산될 수 있다.In steps 1120 and 1130, the master robot 1 analyzes the received laparoscopic image, and calculates and analyzes the color value of each pixel of the image. The calculation of the pixel-by-pixel color value may be performed by the image analyzing unit 920 or may be performed by the characteristic value calculating unit 710 to which the image recognizing technique is applied. Also, by analyzing the color value per pixel, at least one of, for example, a color value frequency, a region or an area formed by pixels having a color value to be analyzed, etc. can be calculated.

단계 1140에서 마스터 로봇(1)은 단계 1130에서 분석된 정보를 토대로 응급 상황인지 여부를 판단한다. 응급 상황의 유형(예를 들어, 과다 출혈 등)이나 분석된 정보가 어떤 경우에 응급 상황으로 인지할 것인지 등에 대해서는 사전에 정의되어 있을 수 있다.In step 1140, the master robot 1 determines whether it is an emergency situation based on the information analyzed in step 1130. The types of emergencies (eg, excessive bleeding) or whether the analyzed information will be perceived as an emergency can be defined in advance.

만일 응급 상황인 것으로 판단되면, 단계 1150으로 진행하여 마스터 로봇(1)은 경고 정보를 출력한다. 경고 정보는 예를 들어 화면 표시부(320)를 통해 출력되는 경고 메시지 등이거나 스피커부(도시되지 않음) 등을 통해 출력되는 경고 음향 등일 수 있다. 도 3에는 도시되지 않았으나, 경고 정보나 안내 멘트 등을 출력하기 위한 스피커부가 마스터 로봇(1)에 더 포함될 수 있음은 당연하다. 또한, 응급 상황으로 판단된 시점에서 화면 표시부(320)를 통해 가상 수술도구(610)가 함께 표시되고 있는 경우라면, 수술 부위에 대한 수술자의 정확한 판단이 가능할 수 있도록 가상 수술도구(610)가 표시되지 않도록 제어될 수도 있다.If it is determined as an emergency, the master robot 1 proceeds to step 1150 and outputs warning information. The warning information may be, for example, a warning message output through the screen display unit 320, a warning sound output through a speaker unit (not shown), or the like. Although not shown in FIG. 3, it is needless to say that a speaker unit for outputting warning information, announcement messages, and the like can be further included in the master robot 1. If the virtual surgical tool 610 is displayed together with the screen display unit 320 at the time of the emergency, the virtual surgical tool 610 is displayed so that the operator can be accurately determined .

그러나 만일 응급 상황이 아닌 것으로 판단되면, 단계 1110으로 다시 진행한다.
However, if it is determined that it is not an emergency situation, the flow returns to step 1110.

도 12는 본 발명의 또 다른 실시예에 따른 마스터 로봇과 슬레이브 로봇의 구성을 개략적으로 나타낸 블록 구성도이고, 도 13은 본 발명의 또 다른 실시예에 따른 수술 로봇 시스템의 정상 구동을 검증하는 방법을 나타낸 순서도이다.FIG. 12 is a block diagram schematically showing a configuration of a master robot and a slave robot according to another embodiment of the present invention, FIG. 13 is a flowchart illustrating a method of verifying normal operation of a surgical robot system according to another embodiment of the present invention Fig.

마스터 로봇(1)과 슬레이브 로봇(2)의 구성이 개략적으로 표시된 도 12를 참조하면, 마스터 로봇(1)은 영상 입력부(310), 화면 표시부(320), 암 조작부(330), 조작신호 생성부(340), 증강현실 구현부(350), 제어부(360) 및 네트워크 검증부(1210)를 포함한다. 슬레이브 로봇(2)은 로봇 암(3) 및 복강경(5)을 포함한다. 12, the master robot 1 includes an image input unit 310, a screen display unit 320, a dark operation unit 330, an operation signal generation unit 330, and a display unit 320. The slave robot 2 includes a master robot 1 and a slave robot 2, An augmented reality implementing unit 350, a control unit 360, and a network verifying unit 1210, as shown in FIG. The slave robot 2 includes a robot arm 3 and a laparoscope 5. [

영상 입력부(310)는 슬레이브 로봇(2)의 복강경(5)에 구비된 카메라를 통해 입력된 영상을 유선 또는 무선 통신망을 통해 수신한다.The image input unit 310 receives an image input through a camera provided in the laparoscope 5 of the slave robot 2 through a wired or wireless communication network.

화면 표시부(320)는 영상 입력부(310)를 통해 수신된 영상 및/또는 암 조작부(330) 조작에 따른 가상 수술도구(610)에 상응하는 화상 이미지를 시각(視覺)적 정보로 출력한다. The screen display unit 320 outputs visual images corresponding to the images received through the image input unit 310 and / or the virtual operation tool 610 according to the operation of the dark operation unit 330 as vision information.

암 조작부(330)는 슬레이브 로봇(2)의 로봇 암(3)의 위치 및 기능을 수술자가 조작할 수 있도록 하는 수단이다. The arm control unit 330 is a means for enabling the operator to operate the position and function of the robot arm 3 of the slave robot 2. [

조작신호 생성부(340)는 로봇 암(3) 및/또는 복강경(5)의 위치 이동 또는 수술을 위한 조작을 위해 수술자가 암 조작부(330)를 조작하는 경우 이에 상응하는 조작신호를 생성하여 슬레이브 로봇(2)으로 전송한다. The manipulation signal generator 340 generates a manipulation signal corresponding to the manipulation of the arm manipulation unit 330 by the operator to move the robot arm 3 and / or the laparoscope 5, To the robot (2).

네트워크 검증부(1210)는 특성값 연산부(710)에 의해 연산된 특성값 및 가상 수술도구 생성부(720)에 의해 생성된 가상 수술도구 정보를 이용하여 마스터 로봇(1)과 슬레이브 로봇(2)간의 네트워크 통신을 검증한다. 이를 위해, 예를 들어 특성값 중 실제 수술도구(460)의 위치정보, 방향, 깊이, 꺽인 정도 등 중 하나 이상과 가상 수술도구 정보에 따른 가상 수술도구(610)의 위치정보, 방향, 깊이, 꺽인 정도 등 중 하나 이상이 이용될 수 있으며, 특성값 및 가상수술도구 정보는 저장부(도시되지 않음)에 저장될 수 있다.The network verifying unit 1210 verifies whether the master robot 1 and the slave robot 2 are using the characteristic value calculated by the characteristic value calculating unit 710 and the virtual surgical tool information generated by the virtual surgical tool generating unit 720, Lt; / RTI > For this purpose, for example, at least one of the position information, the direction, the depth, the degree of bending, etc. of the actual surgical tool 460 and the position information, direction, depth and direction of the virtual surgical tool 610, And the degree of distortion, etc., and the characteristic value and the virtual surgical tool information may be stored in a storage unit (not shown).

본 발명의 실시예에 따르면, 수술자의 암 조작부(330) 조작에 의해 조작정보가 생성되면 이에 상응하도록 가상 수술도구(610)가 제어되며, 또한 조작정보에 상응하는 조작신호는 슬레이브 로봇(2)으로 전송되어 실제 수술도구(460)의 조작을 위해 이용된다. 또한 조작신호에 의해 조작 제어된 실제 수술도구(460)의 위치 이동 등은 복강경 영상을 통해 확인될 수 있다. 이 경우, 가상 수술도구(610)의 조작은 마스터 로봇(1) 내에서 이루어지므로, 네트워크 통신 속도 등을 고려할 때 일반적으로 실제 수술도구(460)의 조작보다 앞서 이루어지게 될 것이다. According to the embodiment of the present invention, when the manipulation information is generated by the operation of the arm manipulation part 330 of the operator, the virtual surgical tool 610 is controlled to correspond to the manipulation information, and an operation signal corresponding to the manipulation information is transmitted to the slave robot 2 And is used for manipulation of the actual surgical tool 460. [ In addition, the positional movement of the actual surgical tool 460, which is manipulated and controlled by the manipulation signal, can be confirmed through the laparoscopic image. In this case, since the manipulation of the virtual surgical tool 610 is performed in the master robot 1, the manipulation of the virtual surgical tool 610 will be performed ahead of the operation of the actual surgical tool 460 in consideration of the network communication speed and the like.

따라서, 네트워크 검증부(1210)는 실제 수술도구(460)가 시간적으로는 뒤늦으나 가상 수술도구(610)의 이동 궤적이나 조작 형태 등과 동일하게 또는 미리 설정된 오차범위 내에서 동일시될 수 있도록 조작되는지 여부를 판단함으로써 네트워크 통신이 정상적인지를 판단할 수 있다. 이를 위해, 현재 실제 수술도구(460)의 위치 등에 대한 특성값이 저장부에 저장된 가상 수술도구 정보가 이용될 수 있다. 또한, 오차 범위는 예를 들어 상호 좌표정보간의 거리값이나 일치로 인식될 때까지의 시간값 등으로 설정될 수 있으며, 이는 예를 들어 임의적, 실험적 또는/및 통계적으로 지정될 수 있을 것이다.Accordingly, the network verifying unit 1210 determines whether the actual surgical tool 460 is late or is manipulated so as to be identifiable within the predetermined error range in the same manner as the movement trajectory or the operation form of the virtual surgical tool 610 It is possible to determine whether or not the network communication is normal. For this purpose, the virtual surgery tool information stored in the storage unit may be used as a characteristic value of the actual operation tool 460. Further, the error range may be set, for example, as a distance value between mutual coordinate information, a time value until it is recognized as a coincidence, and the like, which may be arbitrarily, experimentally, and / or statistically specified.

또한, 네트워크 검증부(1210)는 영상 해석부(920)에 의해 해석된 특징 정보를 이용하여 네트워크 통신의 검증을 수행할 수도 있을 것이다.In addition, the network verification unit 1210 may perform verification of network communication using the feature information analyzed by the image analysis unit 920.

제어부(360)는 상술한 기능이 수행될 수 있도록 각 구성 요소들의 동작을 제어한다. 이외에도 다른 실시예들에서 예시적으로 설명한 바와 같이 제어부(360)는 추가적인 다양한 기능을 더 수행할 수도 있다.The control unit 360 controls the operation of each component so that the above-described functions can be performed. In addition, as illustrated in other embodiments, the control unit 360 may perform additional various functions.

도 13에는 네트워크 통신을 검증함으로써 수술 로봇 시스템의 정상 구동 여부를 검증하는 방법이 예시되어 있다.13 illustrates a method for verifying whether the surgical robot system is normally operated by verifying network communication.

도 13을 참조하면, 단계 1310 및 1320에서 마스터 로봇(1)은 수술자로부터 암 조작부(330) 조작을 입력받고, 암 조작부(330) 조작에 따른 조작 정보를 해석한다. 해당 조작 정보는 예를 들어 실제 수술도구(460)의 위치 이동, 수술부위의 절개 등을 위한 암 조작부(330) 조작에 따른 정보이다.Referring to FIG. 13, in steps 1310 and 1320, the master robot 1 receives the manipulation of the manipulation part 330 from the operator and interprets the manipulation information according to the manipulation of the manipulation part 330. The operation information is information related to the operation of the arm operation unit 330 for, for example, moving the actual surgical tool 460, cutting the surgical site, and the like.

단계 1330에서 마스터 로봇(1)은 해석된 조작 정보를 이용하여 가상 수술도구 정보를 생성하고, 생성된 가상 수술도구 정보에 따른 가상 수술도구(610)를 화면 표시부(320)에 출력한다. 이때, 생성된 가상 수술도구 정보는 저장부(도시되지 않음)에 저장될 수 있다.In step 1330, the master robot 1 generates virtual surgery tool information using the analyzed operation information, and outputs the virtual surgery tool 610 according to the generated virtual surgery tool information to the screen display unit 320. At this time, the generated virtual surgical tool information may be stored in a storage unit (not shown).

단계 1340에서 마스터 로봇(1)은 실제 수술도구(460)에 대한 특성값을 연산한다. 특성값의 연산은 예를 들어 특성값 연산부(710) 또는 영상 해석부(920)에 의해 수행될 수 있다.In step 1340, the master robot 1 calculates a characteristic value for the actual surgical tool 460. The characteristic value calculation may be performed, for example, by the characteristic value calculation unit 710 or the image analysis unit 920.

단계 1350에서 마스터 로봇(1)은 각 수술도구의 좌표값 일치점이 존재하는지 여부를 판단한다. 각 수술도구의 좌표정보가 일치 또는 오차범위 내에서 일치하는 경우 좌표값 일치점이 존재하는 것으로 판단될 수 있다. 여기서, 오차범위는 예를 들어 3차원 좌표상의 거리값 등으로 사전 설정될 수 있다. 앞서 설명한 바와 같이, 수술자의 암 조작부(330) 조작에 따른 결과가 실제 수술도구(460) 보다 가상 수술도구(610)에 대해 먼저 반영될 것이므로, 단계 1350은 실제 수술도구(460)에 대한 특성값이 저장부에 저장된 가상 수술도구 정보와 일치되는지 여부의 판단으로 수행될 수 있다. In step 1350, the master robot 1 determines whether there is a coordinate value coincidence point of each surgical tool. It can be judged that a coordinate value coincident point exists when the coordinate information of each surgical tool coincides with each other within the coincidence or error range. Here, the error range can be preset, for example, as a distance value on three-dimensional coordinates or the like. As described above, since the result of operation of the operator's manipulation part 330 of the operator will be reflected first on the virtual surgical tool 610 rather than on the actual surgical tool 460, step 1350 determines the characteristic value for the actual surgical tool 460 May be performed by determining whether or not the virtual surgery tool information stored in the storage unit matches the virtual surgery tool information stored in the storage unit.

만일 좌표값 일치점이 존재하지 않는다면 단계 1360으로 진행하여 마스터 로봇(1)은 경고 정보를 출력한다. 경고 정보는 예를 들어 화면 표시부(320)를 통해 출력되는 경고 메시지 등이거나 스피커부(도시되지 않음) 등을 통해 출력되는 경고 음향 등일 수 있다. If there is no coordinate coincidence point, the master robot 1 proceeds to step 1360 and outputs the warning information. The warning information may be, for example, a warning message output through the screen display unit 320, a warning sound output through a speaker unit (not shown), or the like.

그러나 만일 좌표값 일치점이 존재한다면 네트워크 통신이 정상적인 것으로 판단하여 단계 1310으로 다시 진행한다.However, if there is a coordinate value coincidence point, it is determined that the network communication is normal, and the process proceeds to step 1310 again.

상술한 단계 1310 내지 단계 1360은 수술자의 수술과정에서 실시간으로 수행되도록 하거나, 주기적으로 또는 사전 설정된 시점에서 수행되도록 할 수 있을 것이다.
The above-described steps 1310 to 1360 may be performed in real time during the operation of the operator, or may be performed periodically or at a preset time.

도 14는 본 발명의 또 다른 실시예에 따른 증강현실 구현부(350)의 세부 구성을 나타낸 도면이고, 도 15 및 도 16은 각각 본 발명의 또 다른 실시예에 따른 가상 수술도구를 출력하기 위한 마스터 로봇(1)의 구동방법을 나타낸 순서도이다.FIG. 14 is a diagram illustrating a detailed configuration of an augmented reality implementing unit 350 according to another embodiment of the present invention, and FIGS. 15 and 16 are diagrams for explaining a method for outputting a virtual surgery tool according to another embodiment of the present invention Fig. 2 is a flowchart showing a driving method of the master robot 1. Fig.

도 14를 참조하면, 증강현실 구현부(350)는 특성값 연산부(710), 가상 수술도구 생성부(720), 영상 해석부(920), 중첩 처리부(1410), 접촉 인식부(1420)를 포함한다. 증강현실 구현부(350)의 구성 요소 중 일부 구성 요소는 생략될 수 있으며, 일부 구성 요소(예를 들어, 슬레이브 로봇(2)으로부터 수신된 생체 정보를 화면 표시부(320)를 통해 출력 가능하도록 처리하기 위한 구성 요소 등)가 더 추가될 수도 있다. 증강현실 구현부(350)에 포함된 하나 이상의 구성 요소들은 프로그램 코드들의 조합에 의한 소프트웨어 프로그램의 형태로 구현될 수도 있다.14, the augmented reality implementing unit 350 includes a characteristic value calculating unit 710, a virtual surgery tool generating unit 720, an image analyzing unit 920, an overlapping processing unit 1410, and a contact recognizing unit 1420 . Some of the components of the augmented reality implementing unit 350 may be omitted and some components (e.g., biometric information received from the slave robot 2) may be processed to be output through the screen display unit 320 And the like) may be further added. One or more components included in the augmented reality implementing unit 350 may be implemented in the form of a software program by a combination of program codes.

특성값 연산부(710)는 슬레이브 로봇(2)의 복강경(5)에 의해 입력되어 제공되는 영상 및/또는 로봇 암(3)에 결합된 실제 수술도구의 위치에 대한 좌표정보 등을 이용하여 특성값을 연산한다. 특성값은 예를 들어 복강경(5)의 화각(FOV, Field of View), 확대율, 관점(예를 들어, 보는 방향), 보는 깊이 등과, 실제 수술도구(460)의 종류, 방향, 깊이, 꺽인 정도 등 중 하나 이상을 포함할 수 있다. The characteristic value computing unit 710 computes a characteristic value by using the coordinates of the image provided by the laparoscope 5 of the slave robot 2 and / or the position of the actual surgical tool coupled to the robot arm 3, . The characteristic values include, for example, the field of view (FOV) of the laparoscope 5, the magnification, the viewpoint (e.g., viewing direction), the viewing depth, and the type, direction, depth, And the like.

가상 수술도구 생성부(720)는 수술자의 로봇 암(3) 조작에 따른 조작정보를 참조하여 화면 표시부(320)를 통해 가상 수술도구(610)가 출력되도록 하기 위한 가상 수술도구 정보를 생성한다. The virtual surgical tool generating unit 720 generates virtual surgical tool information for outputting the virtual surgical tool 610 through the screen display unit 320 referring to the operation information of the operation of the robot arm 3 of the operator.

영상 해석부(920)는 복강경(5)에 의해 입력되어 제공되는 영상을 이용하여 미리 설정된 특징 정보(예를 들어, 수술 부위 내의 장기의 형상, 실제 수술도구(460)의 위치좌표, 조작 형상 등 중 하나 이상)를 추출한다. 예를 들어, 영상 해석부(920)는 복강경 영상 내에서 표시되는 장기의 외곽선 추출, 장기를 나타내는 각 픽셀들의 색상값 해석 등의 영상 인식 기술을 이용하여 표시된 장기가 무엇인지를 해석할 수 있다. 이를 위해, 저장부(도시되지 않음)에 각 장기의 형상, 색상, 3차원 공간상에서 각 장기 또는/및 수술부위가 위치하는 영역의 좌표정보 등에 대한 정보가 미리 저장될 수 있다. 또는 영상 해석부(920)가 영상 해석을 통해 해당 장기가 차지하는 영역의 좌표정보(절대좌표 또는 상대좌표)를 해석할 수도 있다.The image analyzing unit 920 analyzes the feature information (for example, the shape of the organ in the surgical site, the position coordinates of the actual surgical tool 460, the manipulated shape, etc.) using the image input by the laparoscope 5, Or more). For example, the image analyzing unit 920 can analyze what the displayed organs are by using an image recognition technique such as extraction of an outline of an organ displayed in a laparoscopic image, color value analysis of each pixel representing an organ, and the like. For this purpose, information on the shape of each organ, hue, coordinate information of the region where each organ or / and surgical site is located in the three-dimensional space, and the like may be stored in advance in a storage unit (not shown). Alternatively, the image analyzing unit 920 may analyze coordinate information (absolute coordinates or relative coordinates) of an area occupied by the organ through image analysis.

중첩 처리부(1410)는 가상 수술도구 생성부(720)에 의해 생성된 가상 수술도구 정보 및 영상 해석부(920)에 의해 인식된 장기 및/또는 수술부위의 영역 좌표 정보를 이용하여 상호간에 중첩이 발생하는지 여부를 판단하여 상응하도록 처리한다. 만일 장기의 아래쪽이나 측면 뒤쪽으로 가상 수술도구의 일부 또는 전체가 위치하게 된다면 해당 부분만큼 상호간에 중첩(즉, 가리어짐)이 발생하는 것으로 판단할 수 있으며, 가상 수술도구(610) 표시상의 사실성을 증대시키기 위해 중첩 부분에 해당되는 가상 수술도구(610)의 영역은 은폐되도록(즉, 화면 표시부(320)를 통해 표시되지 않도록) 처리한다. 해당 중첩 부분을 은폐 처리하는 방법은 예를 들어 가상 수술도구(610)의 형상 중 중첩 부분에 해당하는 영역은 투명 처리되도록 하는 등의 방법이 이용될 수 있다. The superposition processor 1410 superimposes the virtual surgery tool information generated by the virtual surgery tool generator 720 and the region coordinate information of the organs and / or surgery sites recognized by the image analyzer 920 It is judged whether or not it occurs and processed in a corresponding manner. If some or all of the virtual surgical instruments are located at the lower or lateral side of the organ, it can be determined that overlapping (i.e., masked) with respect to each other occurs, and the reality of the virtual surgical tool 610 display The area of the virtual surgical tool 610 corresponding to the overlapping portion is processed so as to be hidden (i.e., not displayed through the screen display unit 320). As a method of concealing the overlapping portion, for example, a method of making a region corresponding to the overlapped portion of the shape of the virtual surgical tool 610 transparent is used.

또는, 중첩 처리부(1410)가 장기와 가상 수술도구(610)간에 중첩이 존재하는 것으로 판단한 경우, 장기의 영역 좌표 정보를 가상 수술도구 생성부(720)로 제공하거나 가상 수술도구 생성부(720)가 저장부로부터 해당 정보를 독출하도록 요청함으로써 가상 수술도구 생성부(720)가 중첩 부분에 대한 가상 수술도구 정보를 생성하지 않도록 할 수도 있다.Or, if the superposition processor 1410 determines that there is an overlap between the organ and the virtual surgical tool 610, it may provide the long-term area coordinate information to the virtual surgery tool generator 720 or the virtual surgery tool generator 720, The virtual surgery tool creation unit 720 may request that the corresponding information be read from the storage unit so that the virtual surgery tool creation unit 720 does not generate the virtual surgery tool information for the overlapping part.

접촉 인식부(1420)는 가상 수술도구 생성부(720)에 의해 생성된 가상 수술도구 정보 및 영상 해석부(920)에 의해 인식된 장기의 영역 좌표 정보를 이용하여 상호간에 접촉이 발생하는지 여부를 판단하여 상응하도록 처리한다. 만일 장기의 영역 좌표 정보 중 표면 좌표 정보와 가상 수술도구의 일부 또는 전체의 좌표정보가 일치하게 된다면 해당 부분에서 접촉이 있는 것으로 판단할 수 있다. 접촉 인식부(1420)에 의해 접촉이 있는 것으로 판단되면, 마스터 로봇(1)은 예를 들어 암 조작부(330)가 더 이상 조작되지 않도록 처리하거나 암 조작부(330)를 통해 포스 피드백(force feedback)이 발생되도록 처리하거나 경고 정보(예를 들어 경고 메시지 또는/및 경고 음향 등)가 출력되도록 처리할 수 있다. 포스 피드백을 처리하거나 경고 정보를 출력하기 위한 구성요소는 마스터 로봇(1)의 구성요소로서 포함될 수 있다.The contact recognition unit 1420 determines whether or not contact is generated between the virtual surgery tool information generated by the virtual surgery tool creation unit 720 and the region coordinate information of the organ recognized by the image analysis unit 920 And judges them to be correspondingly processed. If the surface coordinate information and the coordinate information of some or all of the virtual surgical tool among the long-term area coordinate information are matched, it can be determined that there is a contact in the corresponding part. The master robot 1 performs processing such that the arm control unit 330 is no longer operated or force feedback is performed through the arm control unit 330. [ (For example, a warning message and / or a warning sound) may be output. The components for processing the force feedback or outputting the warning information may be included as a component of the master robot 1.

도 15에는 본 발명의 또 다른 실시예에 따른 가상 수술도구를 출력하기 위한 마스터 로봇(1)의 구동방법이 예시되어 있다.FIG. 15 illustrates a driving method of the master robot 1 for outputting a virtual surgical tool according to another embodiment of the present invention.

도 15를 참조하면, 단계 1510에서 마스터 로봇(1)은 수술자로부터 암 조작부(330) 조작을 입력받는다.Referring to FIG. 15, in step 1510, the master robot 1 receives an operation of the arm control unit 330 from the operator.

이어서, 단계 1520 및 단계 1530에서 마스터 로봇(1)은 암 조작부(330) 조작에 따른 수술자의 조작 정보를 해석하여 가상 수술도구 정보를 생성한다. 가상 수술도구 정보는 예를 들어 화면 표시부(320)를 통해 가상 수술도구(610)를 출력하기 위한 가상 수술도구(610)의 외곽선 또는 영역에 대한 좌표정보를 포함할 수 있다.Then, in steps 1520 and 1530, the master robot 1 analyzes the operation information of the operator according to the operation of the arm control unit 330 and generates virtual surgical tool information. The virtual surgical tool information may include coordinate information for the outline or area of the virtual surgical tool 610 for outputting the virtual surgical tool 610 through the screen display unit 320, for example.

또한, 단계 1540 및 단계 1550에서 마스터 로봇(1)은 슬레이브 로봇(2)으로부터 복강경 영상을 수신하고, 수신된 영상을 해석한다. 수신된 영상의 해석은 예를 들어 영상 해석부(920)에 의해 수행될 수 있으며, 영상 해석부(920)는 복강경 영상에 포함된 장기가 어떤 것인지를 인식할 수 있다.Further, in steps 1540 and 1550, the master robot 1 receives the laparoscopic image from the slave robot 2 and analyzes the received image. The analysis of the received image can be performed, for example, by the image analyzing unit 920, and the image analyzing unit 920 can recognize the organs included in the laparoscopic image.

단계 1560에서 마스터 로봇(1)은 복강경 영상을 통해 인식한 장기에 대한 영역 좌표 정보를 저장부에서 독출한다.In step 1560, the master robot 1 reads the area coordinate information for the organ recognized through the laparoscopic image from the storage unit.

마스터 로봇(1)은 단계 1570에서 가상 수술도구(610)의 좌표 정보 및 장기의 영역 좌표 정보를 이용하여 상호간에 중첩 부분이 존재하는지 여부를 판단한다. In step 1570, the master robot 1 determines whether or not there is an overlapping part between the robot and the robot using the coordinate information of the virtual surgical tool 610 and the area coordinate information of the organ.

만일 중첩 부분이 존재하는 경우, 단계 1580에서 마스터 로봇(1)은 중첩 부분이 은폐 처리된 가상 수술도구(610)가 화면 표시부(320)를 통해 출력되도록 처리한다.If there is an overlapping portion, the master robot 1 processes the virtual surgical tool 610 in which the overlapped portion is concealed so as to be output through the screen display portion 320 in Step 1580. [

그러나 만일 중첩 부분이 존재하지 않는 경우, 마스터 로봇(1)은 단계 1590에서 모든 부분이 정상적으로 표시되는 가상 수술도구(610)가 화면 표시부(320)를 통해 출력되도록 처리한다.However, if there is no overlapping part, the master robot 1 processes the virtual surgical tool 610 in which all the parts are normally displayed in step 1590 through the screen display part 320.

도 16에는 가상 수술도구(610)가 환자의 장기와 접촉된 경우 이를 수술자에게 알리기 위한 실시예가 도시되어 있다. 도 16의 단계 1510 내지 단계 1560은 앞서 도 15를 참조하여 이미 설명하였으므로 이에 대한 설명은 생략한다.FIG. 16 shows an embodiment for notifying the operator of the virtual surgical tool 610 when the virtual surgical tool 610 is in contact with the organ of the patient. Steps 1510 to 1560 of FIG. 16 have already been described with reference to FIG. 15, and a description thereof will be omitted.

도 16을 참조하면, 단계 1610에서 마스터 로봇(1)은 가상 수술도구(610)의 일부 또는 전체가 장기와 접촉되었는지 여부를 판단한다. 장기와 가상 수술도구(610)간의 접촉 여부는 예를 들어 각각의 영역에 대한 좌표 정보를 이용하여 판단될 수 있다.Referring to FIG. 16, in step 1610, the master robot 1 determines whether part or all of the virtual surgical tool 610 has contacted organs. The contact between the organ and the virtual surgical tool 610 can be determined using, for example, coordinate information for each region.

만일 가상 수술도구(610)와 장기가 접촉되었다면 단계 1620으로 진행하여, 마스터 로봇(1)은 수술자에게 이를 알리기 위해 포스 피드백 처리를 수행한다. 앞서 설명한 바와 같이, 예를 들어 암 조작부(330)가 더 이상 조작되지 않도록 처리하거나 경고 정보(예를 들어 경고 메시지 또는/및 경고 음향 등)가 출력되도록 처리될 수도 있다. If the organ has been in contact with the virtual surgical tool 610, the process proceeds to step 1620, where the master robot 1 performs force feedback processing to inform the operator. As described above, for example, the dark operation section 330 may be processed so as to be no longer operated or the warning information (for example, a warning message and / or a warning sound) may be output.

그러나 만일 가상 수술도구(610)와 장기가 접촉되지 않았다면 단계 1610에서 대기한다.However, if the organ is not in contact with the virtual surgical tool 610, the process waits at step 1610.

상술한 과정을 통해, 수술자는 실제 수술도구(460)가 장기와 접촉될 것인지 여부를 사전에 예측할 수 있어 보다 안전하고 정교한 수술 진행이 가능해질 수 있다.
Through the above-described process, the operator can predict whether or not the actual surgical tool 460 will be in contact with the organ in advance, thereby enabling safer and more precise surgery progression.

도 17은 본 발명의 또 다른 실시예에 따른 참조 이미지 제공 방법을 나타낸 순서도이다.17 is a flowchart illustrating a method of providing a reference image according to another embodiment of the present invention.

일반적으로 환자는 수술 이전에 X-ray, CT 또는/및 MRI 등의 다양한 참조 영상을 촬영하게 된다. 이러한 참조 영상이 수술시 복강경 영상과 함께 또는 모니터부(6)의 임의의 모니터에 수술자에게 제시될 수 있다면 수술자의 수술이 보다 원활해질 수 있을 것이다. 해당 참조 영상은 예를 들어 마스터 로봇(1)에 포함된 저장부에 미리 저장되어 있거나, 마스터 로봇(1)이 통신망을 통해 접속 가능한 데이터베이스에 저장될 수 있다.Generally, the patient will take a variety of reference images such as X-ray, CT, and / or MRI prior to surgery. If the reference image can be presented to the surgeon along with the laparoscopic image at the time of surgery or on any monitor of the monitor unit 6, the operation of the surgeon may be more smooth. For example, the reference image may be stored in a storage unit included in the master robot 1 or may be stored in a database that the master robot 1 can access via a communication network.

도 17을 참조하면, 단계 1710에서 마스터 로봇(1)은 슬레이브 로봇(2)의 복강경(5)으로부터 복강경 영상을 수신한다.17, in step 1710, the master robot 1 receives a laparoscopic image from the laparoscope 5 of the slave robot 2.

단계 1720에서 마스터 로봇(1)은 복강경 영상을 이용하여 미리 설정된 특징 정보를 추출한다. 여기서, 특징 정보는 예를 들어 수술 부위 내의 장기의 형상, 실제 수술도구(460)의 위치좌표, 조작 형상 등 중 하나 이상일 수 있다. 특징 정보의 추출은 예를 들어 영상 해석부(920)에 의해 수행될 수도 있다.In step 1720, the master robot 1 extracts preset feature information using the laparoscopic image. Here, the feature information may be at least one of, for example, the shape of the organ in the surgical site, the position coordinates of the actual surgical tool 460, the manipulated shape, and the like. The extraction of the feature information may be performed by the image analyzing unit 920, for example.

단계 1730에서 마스터 로봇(1)은 단계 1720에서 추출한 특징 정보 및 저장부에 미리 저장된 정보들을 이용하여 해당 복강경 영상에 포함되어 표시되는 장기가 무엇인지를 인식한다.In step 1730, the master robot 1 recognizes the organ displayed in the laparoscopic image by using the feature information extracted in step 1720 and information stored in the storage unit in advance.

이어서, 단계 1740에서 마스터 로봇(1)은 단계 1730에서 인식한 장기에 해당하는 영상을 포함하는 참조 영상을 저장부 또는 통신망을 통해 접속 가능한 데이터베이스에서 독출한 후, 해당 참조 영상 중 어느 부위가 모니터부(6)를 통해 표시되어야 하는지를 결정한다. 모니터부(6)를 통해 출력될 참조 영상은 해당 장기의 모습이 촬영된 영상으로, 예를 들어 X-ray, CT 및/또는 MRI 영상일 수 있다. 또한 참조 영상의 어느 부위(예를 들어, 해당 환자에 대한 전신 영상 중 어느 부위)가 참조를 위해 출력될 것인지는 예를 들어 인식된 장기의 명칭 또는 실제 수술도구(460)의 좌표 정보 등에 의해 결정될 수 있다. 이를 위해, 참조 영상의 각 부위에 대한 좌표 정보나 명칭 또는 순차적인 프레임의 참조 영상들 중 몇 번째 프레임이 무엇에 관한 것인지가 미리 특정될 수도 있다. 모니터부(6)를 통해 어느 하나의 참조 영상이 출력될 수도 있으며, 성질을 달리하는 둘 이상의 참조 영상(예를 들어, X-ray 영상과 CT 영상)이 함께 표시될 수도 있다.Then, in step 1740, the master robot 1 reads out a reference image including an image corresponding to the organ recognized in step 1730 from a database connectable via a storage unit or a communication network, (6). ≪ / RTI > The reference image to be output through the monitor unit 6 may be an image of a state of a relevant organ, for example, an X-ray, a CT, and / or an MRI image. Also, which part of the reference image (for example, which part of the whole body image for the patient) is to be output for reference can be determined by, for example, the name of the recognized organ or the coordinate information of the actual surgical tool 460 have. For this purpose, the coordinate information or the name of each part of the reference image or the frame of the reference image of the sequential frame may be specified in advance. Any one reference image may be outputted through the monitor unit 6, or two or more reference images (for example, an X-ray image and a CT image) having different properties may be displayed together.

단계 1750에서 마스터 로봇(1)은 모니터부(6)를 통해 복강경 영상과 참조 영상이 각각 출력되도록 한다. 이때, 참조 영상이 복강경 영상의 입력 각도(예를 들어, 카메라 각도)와 유사한 방향에서 표시되도록 처리함으로써, 수술자의 직관성을 극대화할 수도 있다. 예를 들어 참조 영상이 특정 방향에서 촬상된 평면적인 영상인 경우, 특성값 연산부(710)에 의해 연산된 카메라 각도 등에 따라 실시간 MPR(Multi Planner Reformat)을 이용한 3차원 영상이 출력되도록 할 수도 있다. 참고로, MPR은 단면 영상에서 하나 또는 여러 개의 슬라이스 단위로, 필요한 임의의 부위만을 선택적으로 도시(drawing)하여 부분적으로 3차원 영상으로 구성하는 기법으로, 초기의 한 슬라이스씩 ROI(region of interest)를 그려내는 기법을 발전시킨 기법이다.
In step 1750, the master robot 1 outputs the laparoscopic image and the reference image through the monitor unit 6, respectively. At this time, by processing the reference image so as to be displayed in a direction similar to the input angle (e.g., camera angle) of the laparoscopic image, the intuitiveness of the operator can be maximized. For example, when the reference image is a planar image taken in a specific direction, a three-dimensional image using a real-time MPR (Multi Planar Reformat) may be outputted according to the camera angle calculated by the characteristic value calculator 710. For reference, the MPR is a technique for selectively forming only a necessary part of a single or multiple slices in a cross-sectional image and constructing a partial three-dimensional image. The MPR is a technique for constructing a region of interest (ROI) Is a technique that develops the technique of drawing.

이제까지 마스터 로봇(1)이 실제 모드인 제1 모드, 비교 모드인 제2 모드 및/또는 가상 모드인 제3 모드에서 기능하는 경우를 중심으로 설명하였다. 이하, 마스터 로봇(1)이 교육 모드인 제4 모드 또는 시뮬레이션 모드인 제5 모드에서 기능하는 경우를 중심으로 설명한다. 다만, 이제까지 관련 도면을 참조하여 설명한 가상 수술도구(610)의 표시 등에 관한 다양한 실시예들은 특정 구동모드에서 제한적으로 적용되는 기술적 사상은 아니며, 가상 수술도구(610)가 표시될 필요가 있는 구동모드라면 별도의 설명이 없더라도 제한없이 적용될 수 있다.
The case where the master robot 1 functions in the first mode which is the actual mode, the second mode which is the comparison mode and / or the third mode which is the virtual mode has been described. Hereinafter, the case where the master robot 1 functions in the fourth mode which is the education mode or the fifth mode which is the simulation mode will be mainly described. It should be noted that the various embodiments relating to the display of the virtual surgical tool 610 described above with reference to the related drawings are not technical ideas that are limitedly applied in a specific driving mode, May be applied without limitation without any explanation.

도 18은 본 발명의 또 다른 실시예에 따른 수술용 로봇의 전체구조를 나타낸 평면도이다. 18 is a plan view showing the entire structure of a surgical robot according to another embodiment of the present invention.

도 18을 참조하면, 복강경 수술용 로봇 시스템은 둘 이상의 마스터 로봇(1)과 슬레이브 로봇(2)을 포함한다. 둘 이상의 마스터 로봇(1) 중 제1 마스터 로봇(1a)은 학습자(예를 들어, 실습 학생)에 의해 이용되는 학생 마스터 로봇일 수 있고, 제2 마스터 로봇(1b)은 교육자(예를 들어, 실습 교사)에 의해 이용되는 교사 마스터 로봇일 수 있다. 마스터 로봇(1) 및 슬레이브 로봇(2)의 구성은 앞서 설명한 바와 같으므로 이에 대해서는 간략히 설명하기로 한다.Referring to FIG. 18, the robot system for laparoscopic surgery includes two or more master robots 1 and slave robots 2. The first master robot 1a among the two or more master robots 1 may be a student master robot used by a learner (for example, a student in training) and the second master robot 1b may be a student master robot A teacher master robot used by a teacher). Since the configurations of the master robot 1 and the slave robot 2 are as described above, they will be briefly described.

앞서 도 1을 참조하여 설명한 바와 같이, 마스터 로봇(1)의 마스터 인터페이스(4)는 모니터부(6) 및 마스터 조종기를 포함하고, 슬레이브 로봇(2)은 로봇 암(3) 및 복강경(5)을 포함할 수 있다. 마스터 인터페이스(4)는 복수의 구동모드 중 어느 하나를 선택할 수 있도록 하기 위한 모드전환 제어버튼을 더 포함할 수 있다. 마스터 조종기는 예를 들어 수술자가 양손에 각각 파지되어 조작할 수 있는 형태(예를 들어 핸들)로 구현될 수 있다. 모니터부(6)에는 복강경 영상 뿐 아니라 복수의 생체 정보나 참조 영상이 더 출력될 수 있다.1, the master interface 4 of the master robot 1 includes a monitor unit 6 and a master controller. The slave robot 2 includes a robot arm 3 and a laparoscope 5, . ≪ / RTI > The master interface 4 may further include a mode switching control button for selecting any one of the plurality of driving modes. The master manipulator may be embodied, for example, in a form (e.g., a handle) that can be manipulated by the operator to be gripped by his or her hands, respectively. Not only the laparoscopic image but also a plurality of biometric information and reference images can be output to the monitor unit 6. [

도 18에 예시된 두 개의 마스터 로봇(1)은 상호간에 통신망을 통해 결합되어 있으며, 각각 슬레이브 로봇(2)과 통신망을 통해 결합될 수 있다. 통신망을 통해 상호 결합되는 마스터 로봇(1)은 필요에 따라 다양한 수량으로 구비될 수 있다. 또한, 제1 마스터 로봇(1a) 및 제2 마스터 로봇(1b)의 용도, 실습 교사와 실습 학생은 사전에 미리 결정될 수도 있으나, 상호간에 그 역할이 요구나 필요에 따라 교환될 수도 있을 것이다.The two master robots 1 illustrated in FIG. 18 are coupled to each other through a communication network, and can be coupled to the slave robot 2 through a communication network. The master robot 1, which is coupled to each other through a communication network, may be provided in various quantities as needed. In addition, the use of the first master robot 1a and the second master robot 1b, the training teacher and the training student may be determined in advance, but their roles may be exchanged with each other as required or required.

일 예로, 학습자를 위한 제1 마스터 로봇(1a)은 실습 교사를 위한 제2 마스터 로봇(1b)과만 통신망을 통해 결합되고, 제2 마스터 로봇(1b)은 제1 마스터 로봇(1a) 및 슬레이브 로봇(2)과 통신망을 통해 결합될 수도 있다. 즉, 실습 학생이 제1 마스터 로봇(1a)에 구비된 마스터 조종기를 조작하면 가상 수술도구(610)만이 조작되어 화면 표시부(320)를 통해 출력되도록 할 수 있다. 이때, 제1 마스터 로봇(1a)으로부터 조작신호가 제2 마스터 로봇(1b)으로 제공되고, 이에 따른 가상 수술도구(610)의 조작 상태가 제2 마스터 로봇(1b)의 모니터부(6b)를 통해 출력됨으로써 실습 교사는 실습 학생이 정상적인 과정으로 수술을 진행하는지 확인할 수 있다.For example, the first master robot 1a for the learner is connected to the second master robot 1b for the teacher only through a communication network, and the second master robot 1b is connected to the first master robot 1a and the slave robot 1a. Or may be coupled to the base station 2 via a communication network. That is, when the trainee student manipulates the master manipulator provided in the first master robot 1a, only the virtual surgical tool 610 is manipulated and output through the screen display unit 320. At this time, an operation signal is supplied from the first master robot 1a to the second master robot 1b, and the operation state of the virtual surgical tool 610 is transmitted to the monitor unit 6b of the second master robot 1b The trainee can confirm that the trainee is proceeding with the normal course.

다른 예로, 제1 마스터 로봇(1a)과 제2 마스터 로봇(1b)이 통신망을 통해 결합되고 또한 각각이 슬레이브 로봇(2)과 통신망을 통해 결합될 수도 있다. 이 경우, 실습 학생이 제1 마스터 로봇(1a)에 구비된 마스터 조종기를 조작하면 실제 수술도구(460)가 조작되고, 이에 상응하는 조작신호가 제2 마스터 로봇(1b)으로도 제공되어 실습 교사는 실습 학생이 정상적인 과정으로 수술을 진행하는지 확인할 수 있다. As another example, the first master robot 1a and the second master robot 1b may be coupled through a communication network and each may be coupled to the slave robot 2 via a communication network. In this case, when the trainee manipulates the master manipulator provided in the first master robot 1a, the actual surgical tool 460 is manipulated, and the corresponding manipulation signal is also provided to the second master robot 1b, Can confirm that the trainee student is performing the operation in the normal course.

이 경우, 실습 교사는 자신의 마스터 로봇을 조작하여 실습 학생의 마스터 로봇이 어떤 모드에서 기능하도록 할 것인지 제어할 수도 있다. 이를 위해, 임의의 마스터 로봇은 다른 마스터 로봇으로부터 수신되는 제어 신호에 의해 구동모드가 결정되어 실제 수술도구(460) 및/또는 가상 수술도구(610)의 조작이 가능해지도록 미리 설정될 수도 있을 것이다.
In this case, the practical teacher can control his / her master robot to control the mode of the master robot of the practical student. For this purpose, any master robot may be preset to enable the operation mode of the actual surgical tool 460 and / or the virtual surgical tool 610 to be determined by a control signal received from another master robot.

도 19는 본 발명의 또 다른 실시예에 따른 교육 모드에서의 수술 로봇 시스템의 동작 방법을 나타낸 도면이다.FIG. 19 is a diagram illustrating a method of operating a surgical robot system in a training mode according to another embodiment of the present invention.

도 19에는 제1 마스터 로봇(1a)에서의 암 조작부(330) 조작이 가상 수술도구(610)의 조작을 위해서만 기능되고, 제1 마스터 로봇(1a)으로부터 조작신호가 제2 마스터 로봇(1b)으로 제공되는 경우의 수술 로봇 시스템의 동작 방법이 예시되어 있다. 이는, 실습 학생 또는 실습 교사 중 1인에 의한 제1 마스터 로봇(1a) 조작 상황을 실습 교사 또는 실습 학생 중 다른 1인이 제2 마스터 로봇(1b)을 이용하여 확인하는 등의 용도로 이용될 수 있다.19 shows that the operation of the arm operating section 330 in the first master robot 1a functions only for the operation of the virtual surgical tool 610 and the operation signal from the first master robot 1a is transmitted to the second master robot 1b, The operation method of the surgical robot system is exemplified. This is because it is possible to use the second master robot 1b to confirm the operation status of the first master robot 1a by one of the practicing student or the practicing teacher, .

도 19를 참조하면, 단계 1905에서 제1 마스터 로봇(1a)과 제2 마스터 로봇(1b)간에 통신 접속 설정이 수행된다. 통신 접속 설정은 예를 들어 상호간에 조작신호, 권한 명령 등 중 하나 이상을 송수신하기 위한 것일 수 있다. 통신 접속 설정은 제1 마스터 로봇(1a)과 제2 마스터 로봇(1b) 중 하나 이상의 요청에 의해 이루어지거나, 각 마스터 로봇이 전원 온(on)되면 즉시 이루어질 수도 있다.Referring to Fig. 19, in step 1905, communication connection establishment is performed between the first master robot 1a and the second master robot 1b. The communication connection setting may be, for example, to transmit and receive at least one of an operation signal, an authority command, and the like to each other. The communication connection setting may be made at the request of one or more of the first master robot 1a and the second master robot 1b or may be performed immediately when each master robot is powered on.

단계 1910에서 제1 마스터 로봇(1a)은 암 조작부(330)의 조작에 따른 사용자 조작을 입력받는다. 여기서, 사용자는 예를 들어 실습 학생 또는 실습 교사 중 어느 일방일 수 있다.In step 1910, the first master robot 1a receives a user operation according to the operation of the arm control unit 330. [ Here, the user may be, for example, either a student who is practicing or a teacher who is practicing.

단계 1920 및 단계 1930에서 제1 마스터 로봇(1a)은 단계 1910의 사용자 조작에 따른 조작신호를 생성하고, 생성된 조작신호에 상응하는 가상 수술도구 정보를 생성한다. 앞서 설명한 바와 같이, 암 조작부(330) 조작에 따른 조작 정보를 이용하여 가상 수술도구 정보가 생성될 수도 있다.In steps 1920 and 1930, the first master robot 1a generates an operation signal in accordance with the user operation in step 1910, and generates virtual surgical tool information corresponding to the generated operation signal. As described above, the virtual surgery tool information may be generated using the operation information according to the operation of the arm operation unit 330. [

단계 1940에서 제1 마스터 로봇(1a)은 생성된 가상 수술도구 정보에 의할 때 장기와의 중첩 또는 접촉 부분이 존재하는지 여부를 판단한다. 가상 수술도구와 장기간의 중첩 또는 접촉 부분의 존재 여부를 판단하는 방법은 앞서 도 15 및/또는 도 16을 참조하여 설명하였으므로 이에 대한 설명은 생략한다.In step 1940, the first master robot 1a determines whether there is an overlapping part or a contact part with the organ based on the generated virtual surgical tool information. A method of determining whether there is a long-term overlap or a contact portion with the virtual surgical tool has been described with reference to FIG. 15 and / or FIG. 16, and a description thereof will be omitted.

만일 중첩 또는 접촉 부분이 존재하는 경우라면 단계 1950으로 진행하여 중첩 또는 접촉에 따른 처리 정보를 생성한다. 처리 정보는 앞서 도 15 및/또는 도 16에서 예시적으로 설명된 바와 같이 중첩 부분에 대한 투명 처리, 접촉에 따른 포스 피드백 수행 등일 수 있다.If overlap or contact portions are present, proceed to step 1950 to generate processing information according to the overlap or contact. The processing information may be transparency processing for the overlapping portion, performing force feedback according to the contact, and the like, as exemplified in Figs. 15 and / or 16 above.

단계 1960에서 제1 마스터 로봇(1a)은 제2 마스터 로봇(1b)으로 가상 수술도구 정보 및/또는 처리 정보를 전송한다. 제1 마스터 로봇(1a)은 제2 마스터 로봇(1b)으로 조작신호를 전송할 수도 있으며, 제2 마스터 로봇(1b)이 수신한 조작신호를 이용하여 가상 수술도구 정보를 생성한 후 중첩 또는 접촉 여부를 판단할 수도 있다.In step 1960, the first master robot 1a transmits the virtual surgical tool information and / or the processing information to the second master robot 1b. The first master robot 1a may transmit an operation signal to the second master robot 1b or generate virtual surgical tool information using the operation signal received by the second master robot 1b, .

단계 1970 및 단계 1980에서 제1 마스터 로봇(1a) 및 제2 마스터 로봇(1b)은 가상 수술도구 정보를 이용하여 화면 표시부(320)에 가상 수술도구(610)를 출력한다. 이때, 처리 정보에 해당하는 사항이 함께 처리될 수도 있다.In steps 1970 and 1980, the first master robot 1a and the second master robot 1b output the virtual surgical tool 610 to the screen display unit 320 using the virtual surgical tool information. At this time, items corresponding to the processing information may be processed together.

이제까지 도 19를 참조하여 제1 마스터 로봇(1a)이 가상 수술도구(610)만을 제어하고 이에 따른 조작신호 등이 제2 마스터 로봇(1b)으로 제공되는 경우를 설명하였다. 그러나, 제1 마스터 로봇(1a)이 구동모드 선택에 따라 실제 수술도구(460)를 제어하고 이에 따른 조작신호 등이 제2 마스터 로봇(1b)으로 제공될 수도 있을 것이다.
19, a case has been described in which the first master robot 1a controls only the virtual surgical tool 610, and an operation signal or the like corresponding thereto is provided to the second master robot 1b. However, the first master robot 1a may control the actual operation tool 460 according to the drive mode selection, and an operation signal or the like may be provided to the second master robot 1b.

도 20은 본 발명의 또 다른 실시예에 따른 교육 모드에서의 수술 로봇 시스템의 동작 방법을 나타낸 도면이다. 20 is a diagram illustrating a method of operating a surgical robot system in a training mode according to another embodiment of the present invention.

도 20을 참조하여 수술 로봇 시스템의 동작 방법을 설명함에 있어, 제1 마스터 로봇(1a)에 대한 제어 권한을 제2 마스터 로봇(1b)이 가지는 경우를 가정하여 설명한다.Referring to FIG. 20, a description will be given of a method of operating the surgical robot system, assuming that the second master robot 1b has a control right for the first master robot 1a.

도 20을 참조하면, 단계 2010에서 제1 마스터 로봇(1a)과 제2 마스터 로봇(1b)간에 통신 접속 설정이 수행된다. 통신 접속 설정은 예를 들어 상호간에 조작신호, 권한 명령 등 중 하나 이상을 송수신하기 위한 것일 수 있다. 통신 접속 설정은 제1 마스터 로봇(1a)과 제2 마스터 로봇(1b) 중 하나 이상의 요청에 의해 이루어지거나, 각 마스터 로봇이 전원 온(on)되면 즉시 이루어질 수도 있다.Referring to Fig. 20, in step 2010, communication connection establishment is performed between the first master robot 1a and the second master robot 1b. The communication connection setting may be, for example, to transmit and receive at least one of an operation signal, an authority command, and the like to each other. The communication connection setting may be made at the request of one or more of the first master robot 1a and the second master robot 1b or may be performed immediately when each master robot is turned on.

단계 2020에서 제2 마스터 로봇(1b)은 제1 마스터 로봇(1a)으로 수술권한 부여 명령을 전송한다. 수술권한 부여명령에 의해 제1 마스터 로봇(1a)은 슬레이브 로봇(2)에 구비된 로봇 암(3)을 실제적으로 제어할 수 있는 권한을 가지게 된다. 수술권한 부여명령은 예를 들어 마스터 로봇들간에 사전 규정된 신호 형태 및 정보 형태로 구성되도록 제2 마스터 로봇(1b)에 의해 생성될 수 있다.In step 2020, the second master robot 1b transmits the operation authorization command to the first master robot 1a. The first master robot 1a has the authority to actually control the robot arm 3 provided in the slave robot 2 by the operation grant command. The operation authorization command may be generated by the second master robot 1b so as to be constituted of, for example, predefined signal forms and information forms between the master robots.

단계 2030에서 제1 마스터 로봇(1a)은 암 조작부(330)의 조작에 따른 사용자 조작을 입력받는다. 여기서, 사용자는 예를 들어 실습 학생일 수 있다.In step 2030, the first master robot 1a receives a user operation according to the operation of the arm control unit 330. [ Here, the user may be, for example, a practicing student.

단계 2040에서 제1 마스터 로봇(1a)은 단계 1910의 사용자 조작에 따른 조작신호를 생성하여 통신망을 통해 슬레이브 로봇(2)으로 전송한다. 제1 마스터 로봇(1a)은 생성된 조작신호 또는 암 조작부(330) 조작에 따른 조작 정보에 상응하는 가상 수술도구 정보를 생성하여 모니터부(6)를 통해 가상 수술도구(610)가 표시될 수 있도록 한다. In step 2040, the first master robot 1a generates an operation signal in accordance with the user operation in step 1910 and transmits it to the slave robot 2 through the communication network. The first master robot 1a generates virtual operation tool information corresponding to the generated operation signal or the operation information according to the operation of the arm operation unit 330 and displays the virtual operation tool 610 through the monitor unit 6 .

또한, 제1 마스터 로봇(1a)은 실제 수술도구(460) 조작 상황을 확인할 수 있도록 하기 위해 조작신호 또는/및 가상 수술도구 정보를 제2 마스터 로봇(1b)으로 전송할 수 있다. 단계 2050에서 제2 마스터 로봇(1b)은 조작신호 또는/및 가상 수술도구 정보를 수신한다.In addition, the first master robot 1a may transmit operation signals and / or virtual surgical tool information to the second master robot 1b so that the actual operation tool 460 may be checked. In step 2050, the second master robot 1b receives the manipulation signal and / or virtual surgical tool information.

단계 2060 및 단계 2070에서 제1 마스터 로봇(1a) 및 제2 마스터 로봇(1b)은 각각 슬레이브 로봇(2)으로부터 수신되는 복강경 영상 및 제1 마스터 로봇(1a)의 암 조작부(330) 조작에 따른 가상 수술도구(610)를 화면 표시부(320)를 통해 출력한다. In steps 2060 and 2070, the first master robot 1a and the second master robot 1b respectively receive the laparoscopic image received from the slave robot 2 and the laparoscopic image received from the slave robot 2 in accordance with the operation of the arm control part 330 of the first master robot 1a And outputs the virtual surgical tool 610 through the screen display unit 320. [

만일 제2 마스터 로봇(1b)이 제1 마스터 로봇(1a)의 암 조작부(330) 조작에 따른 가상 수술도구(610)를 화면 표시부(320)에 출력하지 않고, 슬레이브 로봇(2)으로부터 수신되는 복강경 영상을 통해 실제 수술도구(460) 조작 상황을 확인하도록 하는 경우라면, 단계 2050은 생략될 수 있고, 단계 2070에서는 수신된 복강경 영상만이 출력될 것이다.If the second master robot 1b does not output the virtual surgical tool 610 according to the operation of the arm control unit 330 of the first master robot 1a to the screen display unit 320 but receives the virtual surgical tool 610 from the slave robot 2 If the operation situation of the actual surgical tool 460 is confirmed through the laparoscopic image, step 2050 may be omitted, and only the received laparoscopic image will be output in step 2070.

단계 2080에서 제2 마스터 로봇(1b)은 사용자로부터 제1 마스터 로봇(1a)에 부여한 수술권한의 회수 요청이 입력되는지 여부를 판단한다. 여기서, 사용자는 예를 들어 실습 학생일 수 있으며, 제1 마스터 로봇(1a)의 사용자에 의해 정상적인 수술이 이루어지지 못하는 경우 등에 수술권한을 회수할 수 있다.In step 2080, the second master robot 1b determines whether a request for retrieving the operation right granted to the first master robot 1a from the user is input. Here, the user may be, for example, a trainee student, and can recover the operation authority in the case where normal operation can not be performed by the user of the first master robot 1a.

만일 수술권한 회수 요청이 입력되지 않은 경우라면 단계 2050으로 다시 진행하여 사용자가 제1 마스터 로봇(1a)에 의한 실제 수술도구(460) 조작 상황을 관찰할 수 있도록 한다.If the operation right withdrawal request is not input, the process returns to step 2050 to allow the user to observe the operation state of the actual operation tool 460 by the first master robot 1a.

그러나, 만일 수술권환 회수 요청이 입력된 경우라면 단계 2090에서 제2 마스터 로봇(1b)은 제1 마스터 로봇(1a)으로 통신망을 통해 수술권한 종료명령을 전송한다. However, if it is determined that the request for surgical removal is input, in step 2090, the second master robot 1b transmits a surgical operation termination command via the communication network to the first master robot 1a.

수술권한 종료명령의 전송에 의해 제1 마스터 로봇(1a)은 제2 마스터 로봇(1b)에 의한 실제 수술도구(460)의 조작 상황을 관찰할 수 있는 교육 모드로 전환할 수 있다(단계 2095).The first master robot 1a can switch to the training mode in which the operation state of the actual surgical tool 460 by the second master robot 1b can be observed by transmitting the operation authority end command (step 2095) .

이제까지 도 20을 참조하여 제1 마스터 로봇(1a)에 대한 제어 권한을 제2 마스터 로봇(1b)이 가지는 경우를 중심으로 설명하였다. 그러나, 이와 반대의 경우로서, 제1 마스터 로봇(1a)이 제2 마스터 로봇(1b)으로 수술권한 종료요청을 전송할 수도 있을 것이다. 이는, 제2 마스터 로봇(1b)의 사용자에 의해 실제 수술도구(460) 조작이 이루어질 수 있도록 권한을 이전하기 위한 것으로서, 예를 들어 해당 수술부위의 수술이 쉽지 않거나 해당 수술부위의 수술이 매우 용이한 경우로서 교육상 필요한 경우 등에서 이용될 수 있을 것이다.20, the case where the second master robot 1b has the control authority for the first master robot 1a has been mainly described. However, in the opposite case, the first master robot 1a may transmit a surgical operation termination request to the second master robot 1b. This is for transferring authority to allow the user of the second master robot 1b to actually operate the surgical tool 460. For example, it is not easy to perform the operation at the operation site, or the operation of the operation site is very easy In one case, it could be used in case of education.

이외에도 복수의 마스터 로봇간에 수술권한이나 제어권한을 상호간에 이전하거나 하나의 마스터 로봇이 주도적인 권한 부여/회수가 가능하도록 하는 다양한 방안이 제한없이 고려 및 적용될 수 있다.
In addition, various methods for transferring operation authority or control authority among a plurality of master robots to each other, or for allowing a single master robot to grant / revoke authority can be considered and applied without limitation.

이제까지 관련도면을 참조하여 본 발명의 다양한 실시예들에 대해 설명하였다. 그러나 본 발명이 상술한 실시예들에 의해 제한되지 않으며, 보다 다양한 실시예들이 추가적으로 제시될 수 있다.Various embodiments of the present invention have been described above with reference to the related drawings. However, the present invention is not limited by the above-described embodiments, and a more various embodiments can be additionally suggested.

일 실시예로, 복수의 마스터 로봇이 통신망을 통해 연결되고, 교육 모드인 제4 모드에서 기능하는 경우, 학습자의 마스터 로봇(1) 제어 능력 또는 수술 능력에 대한 평가 기능이 수행될 수도 있다.In one embodiment, when a plurality of master robots are connected through a communication network and function in the fourth mode which is an education mode, the learner's ability to control the master robot 1 or the operative ability may be performed.

교육 모드의 평가 기능은 실습 교사가 제1 마스터 로봇(1a)을 이용하여 수술을 진행하는 동안, 실습 학생은 제2 마스터 로봇(1b)의 암 조작부(330)를 조작하여 가상 수술도구(610)를 제어하는 과정에서 실행된다. 제2 마스터 로봇(1b)은 슬레이브 로봇(2)으로부터 복강경 영상을 수신하여 실제 수술도구(460)에 관한 특성값이나 특징 정보를 해석하고, 또한 실습 학생의 암 조작부(330) 조작에 따른 가상 수술도구(610)의 제어 과정을 해석한다. 이어서, 제2 마스터 로봇(1b)은 복강경 영상에 포함된 실제 수술도구(460)의 이동궤적 및 조작 형태와 실습 학생에 의한 가상 수술도구(610)의 이동 궤적 및 조작 형태의 유사성을 분석함으로써 실습 학생에 대한 평가 점수를 산출할 수 있다. The training mode evaluating function is a function that the practitioner manipulates the arm control unit 330 of the second master robot 1b to perform the virtual surgery tool 610 while the training teacher is performing the operation using the first master robot 1a, As shown in FIG. The second master robot 1b receives the laparoscopic image from the slave robot 2 and analyzes the characteristic value or characteristic information about the actual surgical tool 460. The second master robot 1b also analyzes the characteristic value or characteristic information about the actual surgical tool 460, And interprets the control process of the tool 610. Then, the second master robot 1b analyzes the movement trajectory and the operation form of the actual surgical tool 460 included in the laparoscopic image and the similarity between the movement trajectory and the operation form of the virtual surgical tool 610 by the practicing student, It is possible to calculate the evaluation score for the student.

다른 실시예로서, 가상 모드를 보다 개량한 시뮬레이션 모드인 제5 모드에서 마스터 로봇(1)은 입체내시경을 이용하여 얻은 3차원 형상에 장기의 특성을 결합하여 수술 시뮬레이터로 동작할 수도 있다. In another embodiment, the master robot 1 may operate as a surgical simulator by combining characteristics of an organ in a three-dimensional shape obtained by using a stereoscopic endoscope in a fifth mode, which is a simulation mode in which a virtual mode is further improved.

예를 들어, 화면 표시부(320)를 통해 출력되는 복강경 영상 또는 가상 화면상에 간이 포함된 경우, 마스터 로봇(1)은 저장부에 저장된 간의 특성 정보를 추출하여 화면 표시부(320)에 출력된 간과 매칭시킴으로써 수술 도중 또는 수술과 별개로 가상 모드에서 수술 시뮬레이션이 수행되도록 할 수도 있다. 복강경 영상 등에 어떤 장기가 포함되었는지 여부는 예를 들어 통상의 영상 처리 및 인식 기술을 이용하여 해당 장기의 색상, 형상 등을 인식하고, 인식된 정보를 미리 저장된 장기의 특성 정보들과 비교함으로써 해석될 수 있다. 물론, 어떤 장기가 포함되었는지 및/또는 어떤 장기에 대한 수술 시뮬레이션을 수행할 것인지는 수술자에 의해 선택될 수도 있을 것이다.For example, when the laparoscopic image or the virtual screen output through the screen display unit 320 includes the liver, the master robot 1 extracts the liver characteristic information stored in the storage unit, So that the surgical simulation can be performed in a virtual mode during surgery or separately from surgery. Whether organs such as laparoscopic images are included can be determined by, for example, recognizing the color or shape of a relevant organ using normal image processing and recognition technology, and comparing the recognized information with previously stored characteristic information . Of course, the operator may choose which organs were involved and / or which surgical simulations to perform on which organs.

이를 이용하여, 수술자는 실제로 간을 절제 또는 절단하기 전에 특성 정보와 매칭된 간의 형상을 이용하여 어떤 방향에서 어떻게 간을 절제하여야 하는지에 대한 사전수술 시뮬레이션을 진행할 수 있다. 수술 시뮬레이션 과정에서 마스터 로봇(1)은 특성 정보(예를 들어 수학적 모델링 정보 등)를 바탕으로 수술조작(예를 들어, 절제, 절단, 꿰맴, 당김, 누름 등 중 하나 이상)이 이루어지는 부분이 단단한지 또는 연한지 등에 대한 촉감이 수술자에게 전달되도록 할 수도 있다. Using this, the operator can perform pre-surgery simulation of how the liver should be resected in any direction using the characteristic information and the matching liver shape before actually cutting or cutting the liver. In the course of the surgical simulation, the master robot 1 performs a surgical operation (for example, one or more of cutting, stitching, pulling, pushing, etc.) based on characteristic information (e.g., mathematical modeling information) The tactile sensation on the ground or soft tissue may be transmitted to the operator.

해당 촉감을 전달하는 방법으로는 예를 들어 포스 피드백 처리를 수행하거나 암 조작부(330)의 조작 민감도나 조작시 저항력(예를 들어 암 조작부(330)를 앞쪽으로 밀고자 할 때 이를 저지하는 저항력 등)을 조정하는 방법 등이 있다. As a method of transmitting the tactile sensation, for example, there is a method of performing force feedback processing, or the operation sensitivity of the arm operation unit 330 or the resistance force in operation (for example, resistance to stop the arm operation unit 330 when pushing the arm operation unit 330 forward ), And the like.

또한, 수술자의 조작에 의해 가상으로 절제 또는 절단된 장기의 단면이 화면 표시부(320)를 통해 출력되도록 함으로써 수술자에게 실제적인 절제 또는 절단의 결과를 예측하도록 할 수도 있다.In addition, a section of the organ virtually resected or cut by the operation of the operator can be output through the screen display unit 320, so that the operator can be made to predict the result of the actual resection or disconnection.

또한, 마스터 로봇(1)은 수술 시뮬레이터로 기능함에 있어 화면 표시부(320)를 통해 입체 내시경을 이용하여 3차원적으로 얻은 장기의 표면 형상 정보와 CT, MRI 등의 참조 영상으로부터 재구성한 장기 표면의 3차원 형상과 정합하고, 참조 영상으로부터 재구성한 장기 내부의 3차원 형상과 특성 정보(예를 들어 수학적 모델링 정보)를 정합함으로써, 수술자에게 보다 사실적인 수술 시뮬레이션이 가능하도록 할 수도 있을 것이다. 상기 특성 정보는 해당 환자에 특화된 특성 정보일 수도 있으며, 범용으로 이용하기 위해 생성된 특성 정보일 수도 있다.
The master robot 1 functions as a surgical simulator. The master robot 1 displays the organs obtained by three-dimensionally using the stereoscopic endoscope through the screen display unit 320 and the organ images reconstructed from reference images such as CT and MRI By matching the three-dimensional shape and matching the three-dimensional shape of the organs reconstructed from the reference image with the characteristic information (for example, mathematical modeling information), a more realistic surgical simulation can be made available to the operator. The characteristic information may be characteristic information specific to the patient or characteristic information generated for universal use.

상술한 증강현실을 이용한 수술 로봇 시스템의 제어 방법은 소프트웨어 프로그램 등으로 구현될 수도 있다. 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 프로그램은 컴퓨터가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 컴퓨터에 의하여 읽혀지고 실행됨으로써 상기 방법을 구현한다. 정보저장매체는 자기 기록매체, 광 기록매체 및 캐리어 웨이브 매체를 포함한다.The control method of the surgical robot system using the augmented reality may be implemented by a software program or the like. The code and code segments that make up the program can be easily deduced by a computer programmer in the field. In addition, the program is stored in a computer readable medium, readable and executed by a computer, and implements the method. The information storage medium includes a magnetic recording medium, an optical recording medium, and a carrier wave medium.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention as defined in the appended claims. It will be understood that the invention may be varied and varied without departing from the scope of the invention.

1, 1a, 1b: 마스터 로봇 2: 슬레이브 로봇
3: 로봇 암 4: 마스터 인터페이스
5: 복강경 6: 모니터부
10: 핸들 14: 클러치 버튼
310: 영상 입력부 320: 화면 표시부
330: 암 조작부 340: 조작신호 생성부
350: 증강현실 구현부 360: 제어부
710: 특성값 연산부 720: 가상 수술도구 생성부
730: 테스트 신호 처리부 740: 지연시간 산출부
910: 간격 연산부 920: 영상 해석부
1210: 네트워크 검증부 1410: 중첩 처리부
1420: 접촉 인식부
1, 1a, 1b: master robot 2: slave robot
3: Robot arm 4: Master interface
5: Laparoscope 6: Monitor section
10: Handle 14: Clutch button
310: image input unit 320:
330: Cancer control unit 340: Operation signal generation unit
350: augmented reality realization part 360: control part
710: characteristic value calculating unit 720: virtual surgery tool generating unit
730: test signal processing unit 740: delay time calculating unit
910: interval calculating unit 920:
1210: Network verification unit 1410: Overlay processing unit
1420:

Claims (16)

수술 로봇 시스템으로서,
상호간에 통신망을 통해 결합된 둘 이상의 마스터(master) 로봇; 및
임의의 마스터 로봇으로부터 수신되는 조작신호에 따라 제어되는 하나 이상의 로봇 암을 포함하는 슬레이브(slave) 로봇을 포함하되,
상기 마스터 로봇 각각은,
수술용 내시경으로부터 제공되는 영상 신호에 상응하는 내시경 영상을 디스플레이하는 화면 표시부;
하나 이상의 로봇 암을 각각 제어하기 위해 구비되는 하나 이상의 암 조작부; 및
상기 화면 표시부를 통해 가상 수술도구가 디스플레이되도록 하기 위해 상기 암 조작부를 이용한 사용자 조작에 따른 가상 수술도구 정보를 생성하는 증강현실 구현부를 포함하는 것을 특징으로 하는 수술 로봇 시스템.
As a surgical robot system,
Two or more master robots coupled to each other through a communication network; And
And a slave robot including at least one robot arm controlled in accordance with an operation signal received from an arbitrary master robot,
Wherein each of the master robots comprises:
A screen display unit for displaying an endoscopic image corresponding to a video signal provided from a surgical endoscope;
At least one arm operating section provided for respectively controlling at least one robot arm; And
And an augmented reality implementation unit for generating virtual surgery tool information according to a user operation using the dark operation unit to display a virtual surgery tool through the screen display unit.
삭제delete 제1항에 있어서,
상기 둘 이상의 마스터 로봇 중 어느 하나인 제1 마스터 로봇의 암 조작부 조작은 상기 가상 수술도구 정보의 생성을 위해서 기능하고, 상기 둘 이상의 마스터 로봇 중 다른 하나인 제2 마스터 로봇의 암 조작부 조작은 상기 로봇 암의 제어를 위해 기능하는 것을 특징으로 하는 수술 로봇 시스템.
The method according to claim 1,
Wherein the operation of the arm manipulation part of the first master robot, which is one of the two or more master robots, functions to generate the virtual surgical tool information, and the operation of the arm manipulation part of the second master robot, which is another one of the two or more master robots, Wherein the surgical robot system functions to control the cancer.
제3항에 있어서,
상기 제1 마스터 로봇의 암 조작부 조작에 따른 가상 수술도구 정보에 상응하는 가상 수술도구가 상기 제2 마스터 로봇의 화면 표시부를 통해 디스플레이되는 것을 특징으로 하는 수술 로봇 시스템.
The method of claim 3,
Wherein a virtual surgical tool corresponding to virtual surgical tool information according to an operation of a dark operation unit of the first master robot is displayed through a screen display unit of the second master robot.
삭제delete 삭제delete 삭제delete 로봇 암을 포함하는 슬레이브 로봇을 제어하는 마스터 로봇에서 수행되는 수술 시뮬레이션 방법으로서,
장기(臟器) 선택 정보를 인식하는 단계; 및
미리 저장된 장기 모델링 정보를 이용하여 상기 장기 선택 정보에 상응하는 3차원 장기 이미지를 디스플레이하는 단계를 포함하되,
상기 장기 모델링 정보는 상응하는 장기의 내부 및 외부 각 지점의 형상, 색상 및 촉감 중 하나 이상을 포함하는 특성 정보를 가지는 것을 특징으로 하는 수술 시뮬레이션 방법.
1. A surgical simulation method performed by a master robot for controlling a slave robot including a robot arm,
Recognizing the organ selection information; And
Displaying the three-dimensional organ image corresponding to the organ selection information using previously stored long-term modeling information,
Wherein the long term modeling information has characteristic information including at least one of a shape, a hue, and a touch of each of internal and external points of a corresponding organ.
제8항에 있어서,
상기 장기 선택 정보를 인식하기 위하여,
수술용 내시경으로부터 입력되는 영상 신호를 이용하여 수술 부위 내에 포함된 장기의 색상 및 외형 중 하나 이상에 대한 정보를 해석하는 단계; 및
미리 저장된 장기 모델링 정보 중 상기 해석된 정보에 매치되는 장기를 인식하는 단계를 수행하는 것을 특징으로 하는 수술 시뮬레이션 방법.
9. The method of claim 8,
To recognize the organ selection information,
Analyzing information on at least one of a color and an appearance of an organ included in a surgical site using a video signal input from a surgical endoscope; And
And recognizing an organ matched with the interpreted information among the previously stored long term modeling information.
제8항에 있어서,
상기 장기 선택 정보는 하나 이상의 장기로서 수술자에 의해 선택 입력되는 것을 특징으로 하는 수술 시뮬레이션 방법.
9. The method of claim 8,
Wherein the organ selection information is selected by one or more organs as an operator.
제8항에 있어서,
암 조작부 조작에 따른 상기 3차원 장기 이미지에 대한 수술조작 명령을 입력받는 단계; 및
상기 장기 모델링 정보를 이용하여 상기 수술조작 명령에 따른 촉감 정보를 출력하는 단계를 더 포함하는 수술 시뮬레이션 방법.
9. The method of claim 8,
Receiving a surgical operation command for the three-dimensional organ image in accordance with the operation of the dark operation unit; And
Further comprising the step of outputting tactile information according to the operation command using the long term modeling information.
제11항에 있어서,
상기 촉감 정보는 상기 암 조작부 조작에 따른 조작 민감도 및 조작 저항감 중 하나 이상을 제어하기 위한 제어 정보이거나 포스 피드백 처리를 위한 제어 정보인 것을 특징으로 하는 수술 시뮬레이션 방법.
12. The method of claim 11,
Wherein the tactile information is control information for controlling at least one of an operation sensitivity and an operation resistance according to the operation of the arm operation unit, or control information for a force feedback process.
제8항에 있어서,
암 조작부 조작에 따른 상기 3차원 장기 이미지에 대한 수술조작 명령을 입력받는 단계; 및
상기 장기 모델링 정보를 이용하여 상기 수술조작 명령에 따른 조작 결과 이미지를 디스플레이하는 단계를 더 포함하는 수술 시뮬레이션 방법.
9. The method of claim 8,
Receiving a surgical operation command for the three-dimensional organ image in accordance with the operation of the dark operation unit; And
Further comprising the step of displaying an operation result image according to the surgical operation command using the long term modeling information.
제11항 및 제13항 중 어느 한 항에 있어서,
상기 수술조작 명령은 절단, 꿰맴, 당김, 누름, 접촉에 따른 장기 변형, 전기수술에 의한 장기 손상, 혈관에서의 출혈 중 하나 이상인 것을 특징으로 하는 수술 시뮬레이션 방법.
The method according to any one of claims 11 to 13,
Wherein the surgical operation command is at least one of cutting, stitching, pulling, pushing, long-term deformation due to contact, organ damage due to electrosurgery, and bleeding in a blood vessel.
제8항에 있어서,
상기 장기 선택 정보에 따른 장기를 인식하는 단계; 및
미리 저장된 참조 영상에서 상기 인식된 장기의 명칭에 상응하는 위치의 참조 영상을 추출하여 디스플레이하는 단계를 더 포함하되,
상기 참조 영상은 엑스-레이(X-Ray) 영상, 컴퓨터단층촬영(CT) 영상 및 자기공명영상촬영(MRI) 영상 중 하나 이상인 것을 특징으로 하는 수술 시뮬레이션 방법.
9. The method of claim 8,
Recognizing an organ according to the organ selection information; And
Extracting and displaying a reference image at a position corresponding to a name of the recognized organ in a previously stored reference image,
Wherein the reference image is at least one of an X-ray image, a computed tomography (CT) image, and a magnetic resonance imaging (MRI) image.
제8항에 기재된 수술 시뮬레이션 방법을 수행하기 위하여 디지털 처리 장치에 의해 실행될 수 있는 명령어들의 프로그램이 유형적으로 구현되어 있으며 디지털 처리 장치에 의해 판독될 수 있는 프로그램을 기록한 기록매체.A recording medium on which a program of instructions executable by a digital processing apparatus to perform the surgical simulation method according to claim 8 is tangibly embodied and which can be read by a digital processing apparatus.
KR1020110033649A 2011-04-12 2011-04-12 Surgical robot system using augmented reality and control method thereof KR101447931B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110033649A KR101447931B1 (en) 2011-04-12 2011-04-12 Surgical robot system using augmented reality and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110033649A KR101447931B1 (en) 2011-04-12 2011-04-12 Surgical robot system using augmented reality and control method thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020090025067A Division KR101108927B1 (en) 2009-03-24 2009-03-24 Surgical robot system using augmented reality and control method thereof

Publications (2)

Publication Number Publication Date
KR20110042277A KR20110042277A (en) 2011-04-26
KR101447931B1 true KR101447931B1 (en) 2014-10-13

Family

ID=44047798

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110033649A KR101447931B1 (en) 2011-04-12 2011-04-12 Surgical robot system using augmented reality and control method thereof

Country Status (1)

Country Link
KR (1) KR101447931B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019036456A3 (en) * 2017-08-16 2019-03-28 Intuitive Surgical Operations, Inc. Systems and methods for monitoring patient motion during a medical procedure
WO2019166829A3 (en) * 2018-03-01 2019-11-28 Cmr Surgical Limited Electrosurgical connection unit
WO2021112312A1 (en) * 2019-12-06 2021-06-10 서울대학교산학협력단 Augmented reality tool for implant surgery and implant surgery information visualization method

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101978740B1 (en) 2012-02-15 2019-05-15 삼성전자주식회사 Tele-operation system and control method thereof
US9105207B2 (en) * 2012-05-02 2015-08-11 Empire Technology Development Llc Four dimensional image registration using dynamical model for augmented reality in medical applications
KR101448278B1 (en) * 2013-02-18 2014-10-07 주식회사 케이티 Method for matching control command about robot and video of robot, control apparatus
KR20140112207A (en) 2013-03-13 2014-09-23 삼성전자주식회사 Augmented reality imaging display system and surgical robot system comprising the same
JP7342676B2 (en) * 2019-12-13 2023-09-12 トヨタ自動車株式会社 Remote control system and remote control method
KR102531400B1 (en) * 2021-03-19 2023-05-12 주식회사 인피니트헬스케어 Artificial intelligence-based colonoscopy diagnosis supporting system and method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020120188A1 (en) * 2000-12-21 2002-08-29 Brock David L. Medical mapping system
US20030144649A1 (en) * 2002-01-16 2003-07-31 Modjtaba Ghodoussi Tele-medicine system that transmits an entire state of a subsystem

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020120188A1 (en) * 2000-12-21 2002-08-29 Brock David L. Medical mapping system
US20030144649A1 (en) * 2002-01-16 2003-07-31 Modjtaba Ghodoussi Tele-medicine system that transmits an entire state of a subsystem

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019036456A3 (en) * 2017-08-16 2019-03-28 Intuitive Surgical Operations, Inc. Systems and methods for monitoring patient motion during a medical procedure
WO2019166829A3 (en) * 2018-03-01 2019-11-28 Cmr Surgical Limited Electrosurgical connection unit
EP3795106A1 (en) * 2018-03-01 2021-03-24 CMR Surgical Limited Token-based electrosurgical instrument activation
JP2021118844A (en) * 2018-03-01 2021-08-12 シーエムアール・サージカル・リミテッドCmr Surgical Limited Galvanosurgery connection unit
AU2020267153B2 (en) * 2018-03-01 2022-05-19 Cmr Surgical Limited Electrosurgical connection unit
JP7157124B2 (en) 2018-03-01 2022-10-19 シーエムアール・サージカル・リミテッド electrosurgical connection unit
US11857147B2 (en) 2018-03-01 2024-01-02 Cmr Surgical Limited Token-based electrosurgical instrument activation
US11882989B2 (en) 2018-03-01 2024-01-30 Cmr Surgical Limited Electrosurgical connection unit
WO2021112312A1 (en) * 2019-12-06 2021-06-10 서울대학교산학협력단 Augmented reality tool for implant surgery and implant surgery information visualization method

Also Published As

Publication number Publication date
KR20110042277A (en) 2011-04-26

Similar Documents

Publication Publication Date Title
KR101108927B1 (en) Surgical robot system using augmented reality and control method thereof
KR101447931B1 (en) Surgical robot system using augmented reality and control method thereof
JP7195385B2 (en) Simulator system for medical procedure training
US20110306986A1 (en) Surgical robot system using augmented reality, and method for controlling same
KR101598774B1 (en) Apparatus and Method for processing surgical image
WO2010105237A2 (en) Method and system for minimally-invasive surgery training
KR100957470B1 (en) Surgical robot system using augmented reality and control method thereof
JP2004344491A (en) Virtual surgery simulation system
EP3917428A1 (en) Systems and methods for facilitating insertion of a surgical instrument into a surgical space
KR101114232B1 (en) Surgical robot system and motion restriction control method thereof
KR101114226B1 (en) Surgical robot system using history information and control method thereof
KR100956762B1 (en) Surgical robot system using history information and control method thereof
KR101683057B1 (en) Surgical robot system and motion restriction control method thereof
KR101715026B1 (en) Surgical robot system and motion restriction control method thereof
KR20150007517A (en) Control method of surgical action using realistic visual information
KR101114237B1 (en) Apparatus and method for processing surgical image based on motion
KR20110114421A (en) Apparatus and method for processing surgical image based on motion
KR20150135752A (en) Apparatus and Method for processing surgical image based on motion

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180831

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190902

Year of fee payment: 6