KR20100106834A - Surgical robot system using augmented reality and control method thereof - Google Patents

Surgical robot system using augmented reality and control method thereof Download PDF

Info

Publication number
KR20100106834A
KR20100106834A KR1020090025067A KR20090025067A KR20100106834A KR 20100106834 A KR20100106834 A KR 20100106834A KR 1020090025067 A KR1020090025067 A KR 1020090025067A KR 20090025067 A KR20090025067 A KR 20090025067A KR 20100106834 A KR20100106834 A KR 20100106834A
Authority
KR
South Korea
Prior art keywords
robot
surgical tool
image
unit
information
Prior art date
Application number
KR1020090025067A
Other languages
Korean (ko)
Other versions
KR101108927B1 (en
Inventor
이민규
최승욱
홍성관
Original Assignee
주식회사 이턴
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이턴 filed Critical 주식회사 이턴
Priority to KR1020090025067A priority Critical patent/KR101108927B1/en
Priority to CN201710817544.0A priority patent/CN107510506A/en
Priority to CN201080010742.2A priority patent/CN102341046B/en
Priority to PCT/KR2010/001740 priority patent/WO2010110560A2/en
Priority to US13/203,180 priority patent/US20110306986A1/en
Priority to CN201510802654.0A priority patent/CN105342705A/en
Publication of KR20100106834A publication Critical patent/KR20100106834A/en
Application granted granted Critical
Publication of KR101108927B1 publication Critical patent/KR101108927B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • A61B2034/742Joysticks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45171Surgery drill

Abstract

PURPOSE: An operating robot system using augmented reality and a method for controlling the same are provided to facilitate the progress of an operation by displaying actual surgical tools and virtual surgical tools. CONSTITUTION: A master robot controls a slave robot(2) including a robot arm(3). A display unit(320) displays endoscopic images from a surgical endoscope. One or more arm manipulating unit(330) controls the robot arm. An augmented reality implementing unit(350) generates information related to virtual surgical tools. A manipulating signal generating unit(340) generates a manipulating signal for controlling the robot arm and transmitting the manipulating signal to the slave robot.

Description

증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법{Surgical robot system using augmented reality and control method thereof}Surgical robot system using augmented reality and control method

본 발명은 수술에 관한 것으로서, 더욱 상세하게는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법에 관한 것이다.The present invention relates to surgery, and more particularly, to a surgical robot system using augmented reality and a control method thereof.

수술 로봇은 외과의사에 의해 시행되던 수술 행위를 대신할 수 있는 기능을 가지는 로봇을 말한다. 이러한 수술 로봇은 사람에 비하여 정확하고 정밀한 동작을 할 수 있으며 원격 수술이 가능하다는 장점을 가진다.Surgical robot refers to a robot having a function that can replace a surgical operation performed by a surgeon. Such a surgical robot has the advantage of being capable of accurate and precise operation and remote surgery compared to humans.

현재 전세계적으로 개발되고 있는 수술 로봇은 뼈 수술 로봇, 복강경(復腔鏡) 수술 로봇, 정위 수술 로봇 등이 있다. 여기서 복강경 수술 로봇은 복강경과 소형 수술도구를 이용하여 최소 침습적 수술을 시행하는 로봇이다.Surgical robots currently being developed worldwide include bone surgery robots, laparoscopic surgery robots, and stereotactic surgery robots. The laparoscopic surgical robot is a robot that performs minimally invasive surgery using a laparoscope and a small surgical tool.

복강경 수술은 배꼽 부위에 1cm 정도의 구멍을 뚫고 배 안을 들여다보는 내시경인 복강경을 집어넣은 후 수술하는 첨단 수술기법으로서 향후 많은 발전이 기대되는 분야이다.Laparoscopic surgery is an advanced surgical technique that involves surgery after inserting a laparoscope, an endoscope that looks into the belly and drills a hole about 1 cm in the navel area.

최근의 복강경은 컴퓨터칩이 장착되어 육안으로 보는 것보다도 더 선명하면서도 확대된 영상을 얻을 수 있으며, 또 모니터를 통해 화면을 보면서 특별히 고안 된 복강경용 수술 기구들을 사용하면 어떠한 수술도 가능할 정도로 발전되었다.Recent laparoscopy is equipped with a computer chip to obtain a clearer and more magnified image than the naked eye, and has been developed so that any operation can be performed using specially designed laparoscopic surgical instruments while viewing the screen through the monitor.

더욱이 복강경 수술은 그 수술 범위가 개복 수술과 거의 같으면서도, 개복수술에 비해 합병증이 적고, 시술 후 훨씬 빠른 시간 안에 치료를 시작할 수 있으며, 수술 환자의 체력이나 면역기능을 유지시키는 능력이 우수한 이점이 있다. 이로 인해 미국과 유럽 등지에서는 대장암 치료 등에 있어서는 복강경 수술이 점차 표준 수술로 인식되어 가는 추세이다.Moreover, laparoscopic surgery has the same range of surgery as laparotomy, but has fewer complications than laparotomy, and can start treatment much faster after the procedure, and it has the advantage of maintaining the stamina or immune function of the patient. have. As a result, laparoscopic surgery is increasingly recognized as a standard surgery for treating colorectal cancer in the US and Europe.

수술 로봇 시스템은 일반적으로 마스터 로봇과 슬레이브 로봇으로 구성된다. 수술자가 마스터 로봇에 구비된 조종기(예를 들어 핸들)를 조작하면, 슬레이브 로봇의 로봇 암에 결합되거나 로봇 암이 파지하고 있는 수술도구가 조작되어 수술이 수행된다.The surgical robot system generally consists of a master robot and a slave robot. When the operator manipulates a manipulator (for example, a handle) provided in the master robot, a surgical tool coupled to the robot arm of the slave robot or held by the robot arm is operated to perform surgery.

마스터 로봇과 슬레이브 로봇은 통신망을 통해 결합되어 네트워크 통신을 하게 된다. 이때, 네트워크 통신 속도가 충분히 빠르지 않은 경우라면, 마스터 로봇에서 전송된 조작신호가 슬레이브 로봇에 수신될 때까지 또는/및 슬레이브 로봇에 장착된 복강경 카메라로부터 전송되는 복강경 영상이 마스터 로봇에 수신될 때까지 적지 않은 시간이 소요된다. The master robot and the slave robot are combined through a communication network to perform network communication. At this time, if the network communication speed is not fast enough, until the operation signal transmitted from the master robot is received by the slave robot and / or until the laparoscope image transmitted from the laparoscopic camera mounted on the slave robot is received by the master robot It takes a lot of time.

일반적으로 상호간의 네트워크 통신 속도가 150ms 이내가 되어야 마스터 로봇 및 슬레이브 로봇을 이용한 수술이 가능하다고 알려져 있다. 통신 속도가 그 이상 지연되면 수술자 손의 움직임과 화면을 통해 보는 슬레이브 로봇의 움직임이 일치하지 않아 수술자는 매우 불편함을 느끼게 된다. In general, it is known that the operation using the master robot and the slave robot is possible only when the network communication speed is less than 150ms. If the communication speed is further delayed, the operator's hand does not match the movement of the slave robot through the screen, which makes the operator very uncomfortable.

또한, 마스터 로봇과 슬레이브 로봇간의 네트워크 통신 속도가 느린 경우 수술자는 화면에 보이는 슬레이브 로봇의 움직임을 의식하거나 미리 예측하여 수술을 진행하게 된다. 이는 부자연스러운 동작이 야기되는 원인이 되며, 심할 경우에는 정상적인 수술이 이루어지지 못하는 원인도 된다.In addition, when the network communication speed between the master robot and the slave robot is slow, the operator performs the operation by consciously or predicting the movement of the slave robot shown on the screen in advance. This causes unnatural movements and, in severe cases, causes normal surgery to fail.

본 발명은, 증강현실(augmented reality)을 이용하여 실제 수술도구와 가상 수술도구를 함께 표시함으로써 수술자의 원활한 수술을 가능하도록 하는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법을 제공하기 위한 것이다.The present invention is to provide a surgical robot system and a control method using augmented reality to enable a smooth operation of the operator by displaying a real surgical tool and a virtual surgical tool using augmented reality (augmented reality).

또한, 본 발명은 수술시 환자에 대한 다양한 정보를 출력할 수 있는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법을 제공하기 위한 것이다.In addition, the present invention is to provide a surgical robot system using augmented reality that can output a variety of information on the patient during surgery and its control method.

또한, 본 발명은 마스터 로봇과 슬레이브 로봇간의 네트워크 통신 속도에 따라 수술자의 원활한 수술 진행이 가능하도록 수술 화면 표시 방법을 다양화할 수 있는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법을 제공하기 위한 것이다.In addition, the present invention is to provide a surgical robot system using augmented reality and its control method that can be varied in the surgical screen display method to enable the operation of the operator smoothly according to the network communication speed between the master robot and the slave robot.

또한, 본 발명은 내시경 등을 통해 입력되는 화상을 자동화 처리하여 응급 상황을 즉시 수술자에게 통지할 수 있는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법을 제공하기 위한 것이다. In addition, the present invention is to provide a surgical robot system using augmented reality and the control method that can be notified to the operator immediately by emergency processing the image input through the endoscope and the like.

또한, 본 발명은 마스터 로봇의 조작에 의한 가상 수술도구의 이동 등에 따른 장기 접촉 등이 수술자에게 실시간 감지될 수 있고, 가상 수술도구와 장기간의 위치 관계가 직관적으로 인지될 수 있도록 하는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법을 제공하기 위한 것이다. In addition, the present invention using augmented reality to ensure that the long-term contact, such as the movement of the virtual surgical tool by the operation of the master robot can be detected in real time to the operator, the intuitive relationship between the virtual surgical tool and the long term position can be intuitively recognized. It is to provide a surgical robot system and a control method thereof.

또한, 본 발명은 수술 부위에 대한 환자의 관련 이미지 데이터(예를 들어, CT 이미지, MRI 이미지 등)가 실시간 제시될 수 있어 다양한 정보를 활용한 수술 진행이 가능하도록 하는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법을 제공하기 위한 것이다. In addition, the present invention is a surgical robot system using augmented reality to enable the operation progress using a variety of information can be presented in real time the relevant image data (for example, CT image, MRI image, etc.) of the patient to the surgical site And a control method thereof.

또한, 본 발명은 수술 로봇 시스템이 학습자(learner)와 교육자(trainer)간에 호환 및 공유될 수 있도록 하여 실시간 교육 효과를 극대화할 수 있는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법을 제공하기 위한 것이다. In addition, the present invention is to provide a surgical robot system using augmented reality that can maximize the real-time education by allowing the surgical robot system to be compatible and shared between the learner (learner) and trainer (trainer) and its control method. .

또한, 본 발명은 3차원 모델링된 가상 장기를 활용하여 실제 수술 과정의 경과 및 결과를 미리 예측할 수 있도록 하는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법을 제공하기 위한 것이다. In addition, the present invention is to provide a surgical robot system using augmented reality and its control method to predict the progress and results of the actual surgical process in advance by using a three-dimensional modeled virtual organs.

본 발명이 제시하는 이외의 기술적 과제들은 하기의 설명을 통해 쉽게 이해될 수 있을 것이다.Technical problems other than the present invention will be easily understood through the following description.

본 발명의 일 측면에 따르면, 증강현실을 이용한 수술 로봇 시스템, 슬레이브 로봇 및 마스터 로봇이 제공된다.According to one aspect of the invention, there is provided a surgical robot system, a slave robot and a master robot using augmented reality.

본 발명의 일 실시예에 따르면, 하나 이상의 로봇 암을 포함하는 슬레이브(slave) 로봇을 제어하는 마스터(master) 로봇에 장착되는 인터페이 스(interface)로서, 수술용 내시경으로부터 제공되는 영상 신호에 상응하는 내시경 영상을 디스플레이하는 화면 표시부와, 하나 이상의 로봇 암을 각각 제어하기 위해 구비되는 하나 이상의 암 조작부와, 화면 표시부를 통해 가상 수술도구가 디스플레이되도록 하기 위해 암 조작부를 이용한 사용자 조작에 따른 가상 수술도구 정보를 생성하는 증강현실 구현부를 포함하는 수술용 로봇의 마스터 인터페이스가 제공된다.According to an embodiment of the present invention, an interface mounted on a master robot that controls a slave robot including one or more robot arms, which corresponds to an image signal provided from a surgical endoscope. Virtual surgical tool information according to a user operation using a screen display unit for displaying an endoscope image, one or more arm manipulation units provided to control at least one robot arm, and a virtual surgical tool to be displayed through the screen display unit Provided is a master interface of a surgical robot including an augmented reality implementation to generate the.

수술용 내시경은 복강경, 흉강경, 관절경, 비경, 방광경, 직장경, 십이지장경, 종격경, 심장경 중 하나 이상일 수 있다.The surgical endoscope may be one or more of laparoscopic, thoracoscopic, arthroscopic, parenteral, bladder, rectal, duodenum, mediastinal, cardiac.

수술용 로봇의 마스터 인터페이스는, 로봇 암의 제어를 위한 사용자 조작에 따른 조작신호를 생성하여 슬레이브 로봇으로 전송하는 조작신호 생성부를 더 포함할 수 있다.The master interface of the surgical robot may further include an operation signal generation unit configured to generate an operation signal according to a user operation for controlling the robot arm and transmit the operation signal to the slave robot.

수술용 로봇의 마스터 인터페이스는, 마스터 로봇의 구동모드를 지정하기 위한 구동모드 선택부와, 구동모드 선택부를 통해 선택된 구동모드에 상응하여 화면 표시부를 통해 내시경 영상 및 가상 수술도구 중 하나 이상이 디스플레이되도록 제어하는 제어부를 더 포함할 수 있다. The master interface of the surgical robot may include a driving mode selection unit for designating a driving mode of the master robot and at least one of an endoscope image and a virtual surgical tool through a screen display corresponding to the driving mode selected through the driving mode selection unit. The control unit may further include a control unit.

제어부는 선택된 구동모드에 상응하는 모드 표시자가 화면 표시부를 통해 디스플레이되도록 제어할 수 있다. 모드 표시자는 텍스트 메시지, 테두리 색상, 아이콘, 배경 색상 등 중 하나 이상으로 미리 지정될 수 있다.The controller may control a mode indicator corresponding to the selected driving mode to be displayed through the screen display unit. The mode indicator may be predefined as one or more of a text message, a border color, an icon, a background color, and the like.

슬레이브 로봇은 생체 정보 측정 유닛을 더 포함할 수 있다. 생체 정보 측정 유닛에 의해 측정된 생체 정보는 화면 표시부를 통해 디스플레이될 수 있다.The slave robot may further include a biometric information measuring unit. The biometric information measured by the biometric information measuring unit may be displayed through the screen display unit.

증강현실 구현부는, 내시경 영상 및 하나 이상의 로봇 암에 결합된 실제 수술도구의 위치 좌표정보 중 하나 이상을 이용하여 특성값을 연산하는 특성값 연산부와, 암 조작부를 이용한 사용자 조작에 따른 가상 수술도구 정보를 생성하는 가상 수술도구 생성부를 포함할 수 있다.The augmented reality implementation unit, a characteristic value calculation unit for calculating a characteristic value using at least one of the endoscope image and the position coordinate information of the actual surgical tool coupled to one or more robot arms, and virtual surgical tool information according to the user operation using the arm operation unit It may include a virtual surgical tool generating unit for generating a.

특성값 연산부에 의해 연산되는 특성값은 수술용 내시경의 화각(FOV), 확대율, 관점(viewpoint), 보는 깊이, 실제 수술도구의 종류, 방향, 깊이, 꺽인 각도 중 하나 이상을 포함할 수 있다.The characteristic value calculated by the characteristic value calculator may include one or more of a field of view (FOV), an enlargement ratio, a viewpoint, a viewing depth, a type of an actual surgical tool, a direction, a depth, and a bending angle of the surgical endoscope.

증강현실 구현부는, 테스트 신호를 슬레이브 로봇으로 전송하고, 슬레이브 로봇으로부터 테스트 신호에 따른 응답 신호를 수신하는 테스트 신호 처리부와, 테스트 신호의 전송 시각 및 응답 신호의 수신 시각을 이용하여 마스터 로봇과 슬레이브 로봇간의 네트워크 통신 속도 및 네트워크 통신상의 지연시간 중 하나 이상에 대한 지연값을 산출하는 지연시간 산출부를 더 포함할 수 있다.The augmented reality implementation unit transmits a test signal to the slave robot and receives a response signal corresponding to the test signal from the slave robot, and a master robot and a slave robot using a transmission time of the test signal and a reception time of the response signal. The apparatus may further include a delay time calculator configured to calculate a delay value for at least one of a network communication speed and a delay time in network communication.

마스터 인터페이스는, 화면 표시부를 통해 내시경 영상 및 가상 수술도구 중 하나 이상이 디스플레이되도록 제어하는 제어부를 더 포함할 수 있다. 여기서, 제어부는 지연값이 미리 설정된 지연 임계값 이하인 경우에는 내시경 영상만이 화면 표시부를 통해 디스플레이되도록 제어할 수 있다.The master interface may further include a control unit for controlling one or more of the endoscope image and the virtual surgical tool to be displayed through the screen display unit. Here, when the delay value is less than or equal to a preset delay threshold, the controller may control only the endoscope image to be displayed through the screen display unit.

증강현실 구현부는, 화면 표시부를 통해 디스플레이되는 실제 수술도구와 가상 수술도구의 위치 좌표를 이용하여 각 수술도구간의 간격값을 연산하는 간격 연산부를 더 포함할 수 있다. The augmented reality implementation may further include an interval calculator configured to calculate an interval value between each surgical tool by using the position coordinates of the actual surgical tool and the virtual surgical tool displayed through the screen display unit.

가상 수술도구 생성부는 간격 연산부에 의해 연산된 간격값이 미리 설정된 간격 임계값 이하인 경우 가상 수술도구가 화면 표시부를 통해 표시되지 않도록 처리할 수 있다.The virtual surgical tool generating unit may process the virtual surgical tool not to be displayed through the screen display unit when the interval value calculated by the interval calculating unit is equal to or less than a preset interval threshold.

가상 수술도구 생성부는 간격 연산부에 의해 연산된 간격값에 비례하여 가상 수술도구에 대한 반투명도 조절, 색상 변경 및 외곽선 두께 변경 중 하나 이상에 대한 처리를 수행할 수 있다.The virtual surgical tool generation unit may perform processing for one or more of semi-transparency control, color change, and outline thickness change for the virtual surgical tool in proportion to the interval value calculated by the interval calculator.

증강현실 구현부는, 화면 표시부를 통해 디스플레이되는 내시경 영상에 대한 이미지 처리를 통해 특징 정보를 추출하는 영상 해석부를 더 포함할 수 있다. 여기서, 특징 정보는 내시경 영상의 픽셀별 색상값, 실제 수술도구의 위치좌표 및 조작 형상 중 하나 이상일 수 있다.The augmented reality implementation unit may further include an image analyzer extracting feature information through image processing of the endoscope image displayed through the screen display unit. Here, the feature information may be at least one of color values of pixels of the endoscope image, position coordinates of the actual surgical tool, and manipulation shapes.

영상 해석부는 내시경 영상 내에 미리 설정된 색상값 범위에 포함되는 색상값을 가지는 픽셀의 면적 또는 수량이 임계값을 초과하는 경우 경고 요청을 출력할 수 있다. 경고 요청에 따라 화면 표시부를 통한 경고 메시지 디스플레이, 스피커부를 통한 경고 음향 출력 및 가상 수술도구에 대한 디스플레이 중지 중 하나 이상이 수행될 수 있다.The image analyzer may output a warning request when an area or a quantity of pixels having a color value included in a preset color value range in the endoscope image exceeds a threshold. According to the warning request, one or more of displaying a warning message through the screen display unit, outputting a warning sound through the speaker unit, and stopping the display of the virtual surgical tool may be performed.

마스터 인터페이스는, 특성값 연산부에 의해 연산된 특성값에 포함된 실제 수술도구의 위치 좌표정보 및 가상 수술도구 생성부에 의해 생성된 가상 수술도구 정보에 포함된 가상 수술도구의 위치 좌표정보를 이용하여 마스터 로봇과 슬레이브 로봇간의 네트워크 통신 상태를 검증하는 네트워크 검증부를 더 포함할 수 있다.The master interface uses the position coordinate information of the virtual surgical tool included in the virtual surgical tool information generated by the virtual surgical tool generator and the position coordinate information of the actual surgical tool included in the characteristic value calculated by the characteristic value calculator. The apparatus may further include a network verification unit verifying a network communication state between the master robot and the slave robot.

마스터 인터페이스는, 영상 해석부에 의해 추출된 특징 정보에 포함된 실제 수술도구 및 가상 수술도구의 각 위치 좌표정보를 이용하여 마스터 로봇과 슬레이 브 로봇간의 네트워크 통신 상태를 검증하는 네트워크 검증부를 더 포함할 수 있다.The master interface may further include a network verification unit verifying a network communication state between the master robot and the slave robot by using positional coordinate information of the real surgical tool and the virtual surgical tool included in the feature information extracted by the image analyzer. Can be.

네트워크 검증부는 네트워크 통신 상태의 검증을 위해 각 수술도구의 이동궤적 및 조작형태 중 하나 이상을 더 이용할 수 있다.The network verification unit may further use at least one of a movement trajectory and a manipulation form of each surgical tool to verify the network communication state.

네트워크 검증부는 가상 수술도구의 위치 좌표정보가 앞서 저장된 실제 수술도구의 위치 좌표정보와 오차범위 내에서 일치하는지 여부의 판단으로서 네트워크 통신 상태를 검증할 수 있다.The network verification unit may verify the network communication state as a determination of whether the position coordinate information of the virtual surgical tool coincides with the position coordinate information of the previously stored actual surgical tool within an error range.

네트워크 검증부는 실제 수술도구의 위치 좌표정보와 가상 수술도구의 위치 좌표정보가 오차범위 내에서 일치하지 않는 경우 경고 요청을 출력할 수 있다. 경고 요청에 따라 화면 표시부를 통한 경고 메시지 디스플레이, 스피커부를 통한 경고 음향 출력 및 가상 수술도구에 대한 디스플레이 중지 중 하나 이상이 수행될 수 있다.The network verification unit may output a warning request when the position coordinate information of the actual surgical tool and the position coordinate information of the virtual surgical tool do not match within an error range. According to the warning request, one or more of displaying a warning message through the screen display unit, outputting a warning sound through the speaker unit, and stopping the display of the virtual surgical tool may be performed.

증강현실 구현부는, 화면 표시부를 통해 디스플레이되는 내시경 영상에 대한 이미지 처리를 통해 수술부위 또는 내시경 영상을 통해 디스플레이되는 장기(臟器)의 영역 좌표정보를 포함하는 특징 정보를 추출하는 영상 해석부와, 가상 수술도구 정보 및 영역 좌표정보를 이용하여 가상 수술도구가 영역 좌표정보와 중첩이 발생되어 뒤쪽에 위치하는 여부를 판단하고, 중첩이 발생되는 경우 가상 수술도구의 형상 중 중첩이 발생된 영역을 은폐 처리하는 중첩 처리부를 더 포함할 수 있다.The augmented reality implementation unit, an image analysis unit for extracting the feature information including the area coordinate information of the organ displayed through the surgical site or the endoscope image through the image processing for the endoscope image displayed through the screen display unit; The virtual surgical tool information and the area coordinate information are used to determine whether the virtual surgical tool is located at the rear side due to the overlapping of the area coordinate information, and when the overlap occurs, concealing the overlapped area of the shape of the virtual surgical tool. It may further include an overlap processing unit for processing.

증강현실 구현부는, 화면 표시부를 통해 디스플레이되는 내시경 영상에 대 한 이미지 처리를 통해 수술부위 또는 내시경 영상을 통해 디스플레이되는 장기(臟器)의 영역 좌표정보를 포함하는 특징 정보를 추출하는 영상 해석부와, 가상 수술도구 정보 및 영역 좌표정보를 이용하여 가상 수술도구가 영역 좌표정보와 접촉이 발생되었는지 여부를 판단하고, 접촉이 발생되는 경우 접촉 경고 처리를 수행하는 접촉 인식부를 더 포함할 수 있다.The augmented reality implementation unit, the image analysis unit for extracting feature information including the coordinate information of the area of the organ displayed through the surgical site or the endoscope image through the image processing for the endoscope image displayed through the screen display unit and The virtual surgical tool may further include a contact recognition unit that determines whether the virtual surgical tool is in contact with the region coordinate information by using the virtual surgical tool information and the region coordinate information, and performs a contact warning process when the contact is generated.

접촉 경고 처리는 포스 피드백(force feedback) 처리, 암 조작부의 조작 제한, 화면 표시부를 통한 경고 메시지 디스플레이 및 스피커부를 통한 경고 음향 출력 중 하나 이상일 수 있다.The contact warning processing may be one or more of a force feedback processing, an operation restriction of the arm operation unit, a warning message display through the screen display unit, and an alarm sound output through the speaker unit.

마스터 인터페이스는, 엑스-레이(X-Ray) 영상, 컴퓨터단층촬영(CT) 영상 및 자기공명영상촬영(MRI) 영상 중 하나 이상인 참조 영상을 저장하는 저장부와, 화면 표시부를 통해 디스플레이되는 내시경 영상에 대한 이미지 처리를 통해 수술부위 또는 내시경 영상을 통해 디스플레이되는 장기(臟器)를 인식하는 영상 해석부를 더 포함할 수 있다. 영상 해석부에 의해 인식된 장기의 명칭에 상응하여 참조 영상이 내시경 영상이 표시되는 표시 화면과 독립된 표시 화면을 통해 디스플레이될 수 있다.The master interface includes a storage unit for storing a reference image of at least one of an X-ray image, a computed tomography (CT) image, and a magnetic resonance imaging (MRI) image, and an endoscope image displayed through a screen display. The image processing unit may further include an image analyzing unit configured to recognize an organ displayed on the surgical site or the endoscope image through image processing. The reference image may be displayed through a display screen independent of the display screen on which the endoscope image is displayed, corresponding to the name of the organ recognized by the image analyzer.

마스터 인터페이스는, 엑스-레이(X-Ray) 영상, 컴퓨터단층촬영(CT) 영상 및 자기공명영상촬영(MRI) 영상 중 하나 이상인 참조 영상을 저장하는 저장부를 더 포함할 수 있다. 특성값 연산부에 의해 연산된 실제 수술도구의 위치 좌표정보에 상응하여 참조 영상이 내시경 영상이 표시되는 표시 화면에 함께 표시되거나 상기 표시 화면과 독립된 표시 화면을 통해 디스플레이될 수 있다.The master interface may further include a storage unit which stores a reference image which is one or more of an X-ray image, a computed tomography (CT) image, and a magnetic resonance imaging (MRI) image. The reference image may be displayed together on the display screen on which the endoscope image is displayed, or may be displayed through a display screen independent of the display screen, corresponding to the position coordinate information of the actual surgical tool calculated by the characteristic value calculator.

참조 영상은 MPR(Multi Planner Reformat)을 이용한 3차원 영상으로 디스플레이될 수 있다.The reference image may be displayed as a 3D image using MPR (Multi Planner Reformat).

본 발명의 다른 실시예에 따르면, 수술 로봇 시스템으로서, 상호간에 통신망을 통해 결합된 둘 이상의 마스터(master) 로봇과, 임의의 마스터 로봇으로부터 수신되는 조작신호에 따라 제어되는 하나 이상의 로봇 암을 포함하는 슬레이브(slave) 로봇을 포함하는 수술 로봇 시스템이 제공된다.According to another embodiment of the present invention, a surgical robot system comprising two or more master robots coupled to each other via a communication network, and one or more robot arms controlled according to an operation signal received from any master robot. A surgical robot system is provided that includes a slave robot.

마스터 로봇 각각은, 수술용 내시경으로부터 제공되는 영상 신호에 상응하는 내시경 영상을 디스플레이하는 화면 표시부와, 하나 이상의 로봇 암을 각각 제어하기 위해 구비되는 하나 이상의 암 조작부와, 화면 표시부를 통해 가상 수술도구가 디스플레이되도록 하기 위해 암 조작부를 이용한 사용자 조작에 따른 가상 수술도구 정보를 생성하는 증강현실 구현부를 포함할 수 있다.Each of the master robots may include a screen display unit displaying an endoscope image corresponding to an image signal provided from a surgical endoscope, at least one arm operation unit provided to control at least one robot arm, and a virtual surgical tool through the screen display unit. It may include an augmented reality implementation unit for generating virtual surgical tool information according to a user operation using the arm operation unit to be displayed.

둘 이상의 마스터 로봇 중 어느 하나인 제1 마스터 로봇의 암 조작부 조작은 가상 수술도구 정보의 생성을 위해서 기능하고, 둘 이상의 마스터 로봇 중 다른 하나인 제2 마스터 로봇의 암 조작부 조작은 로봇 암의 제어를 위해 기능할 수 있다.The operation of the arm operation unit of the first master robot, which is one of the two or more master robots, functions to generate virtual surgical tool information, and the operation of the arm operation unit of the second master robot, which is the other of the two or more master robots, controls the control of the robot arm. Can function.

제1 마스터 로봇의 암 조작부 조작에 따른 가상 수술도구 정보에 상응하는 가상 수술도구가 제2 마스터 로봇의 화면 표시부를 통해 디스플레이될 수 있다.The virtual surgical tool corresponding to the virtual surgical tool information according to the manipulation of the arm manipulation unit of the first master robot may be displayed through the screen display of the second master robot.

본 발명의 다른 측면에 따르면, 수술 로봇 시스템의 제어 방법, 수술 로봇 시스템의 동작 방법 및 각각의 방법을 구현하기 위한 프로그램이 기록된 기록매체 가 제공된다.According to another aspect of the present invention, there is provided a recording medium in which a control method of a surgical robot system, an operating method of a surgical robot system, and a program for implementing each method are recorded.

본 발명의 일 실시예에 따르면, 하나 이상의 로봇 암을 포함하는 슬레이브 로봇을 제어하는 마스터 로봇에서 수행되는 수술 로봇 시스템의 제어 방법으로서, 수술용 내시경으로부터 입력되는 영상 신호에 상응하는 내시경 영상을 디스플레이하는 단계와, 암 조작부의 조작에 따른 가상 수술도구 정보를 생성하는 단계와, 가상 수술도구 정보에 상응하는 가상 수술도구가 내시경 영상과 함께 디스플레이되도록 하는 단계를 포함하는 수술 로봇 시스템의 제어 방법이 제공된다.According to an embodiment of the present invention, as a control method of a surgical robot system performed in a master robot for controlling a slave robot including one or more robot arms, displaying an endoscope image corresponding to an image signal input from a surgical endoscope. A method of controlling a surgical robot system is provided, the method comprising: generating virtual surgical tool information according to manipulation of an arm manipulation unit, and causing a virtual surgical tool corresponding to the virtual surgical tool information to be displayed together with an endoscope image. .

수술용 내시경은 복강경, 흉강경, 관절경, 비경, 방광경, 직장경, 십이지장경, 종격경, 심장경 중 하나 이상일 수 있다.The surgical endoscope may be one or more of laparoscopic, thoracoscopic, arthroscopic, parenteral, bladder, rectal, duodenum, mediastinal, cardiac.

가상 수술도구 정보를 생성하는 단계는, 암 조작부의 조작에 따른 조작 정보를 입력받는 단계와, 조작 정보에 따라 가상 수술도구 정보 및 로봇 암의 제어를 위한 조작신호를 생성하는 단계를 포함할 수 있다. 조작신호는 로봇 암의 제어를 위해 슬레이브 로봇으로 전송될 수 있다.The generating of the virtual surgical tool information may include receiving operation information according to an operation of the arm manipulation unit and generating an operation signal for controlling the virtual surgical tool information and the robot arm according to the operation information. . The operation signal may be transmitted to the slave robot for the control of the robot arm.

수술 로봇 시스템의 제어 방법은, 마스터 로봇의 구동모드를 지정하기 위한 구동모드 선택 명령을 입력받는 단계와, 구동모드 선택 명령에 따라 화면 표시부를 통해 내시경 영상 및 가상 수술도구 중 하나 이상이 디스플레이되도록 제어하는 단계를 더 포함할 수 있다. 또한, 구동모드 선택 명령의 의해 지정된 구동모드에 상응하는 모드 표시자가 화면 표시부를 통해 디스플레이되도록 제어하는 단계가 더 포함될 수도 있다.In the control method of the surgical robot system, receiving a driving mode selection command for designating a driving mode of the master robot, and controlling one or more of the endoscope image and the virtual surgical tool to be displayed through the screen display according to the driving mode selection command. It may further comprise the step. The method may further include controlling a mode indicator corresponding to the driving mode designated by the driving mode selection command to be displayed on the screen display unit.

모드 표시자는 텍스트 메시지, 테두리 색상, 아이콘, 배경 색상 등 중 하나 이상으로 미리 지정될 수 있다.The mode indicator may be predefined as one or more of a text message, a border color, an icon, a background color, and the like.

수술 로봇 시스템의 제어 방법은, 슬레이브 로봇으로부터 측정된 생체 정보를 수신하는 단계와, 생체 정보를 내시경 영상이 디스플레이되는 표시 영역과 독립된 표시 영역에 디스플레이하는 단계를 더 포함할 수 있다.The control method of the surgical robot system may further include receiving biometric information measured from a slave robot, and displaying the biometric information on a display area independent of the display area on which the endoscope image is displayed.

수술 로봇 시스템의 제어 방법은, 내시경 영상 및 로봇 암에 결합된 실제 수술도구의 위치 좌표정보 중 하나 이상을 이용하여 특성값을 연산하는 단계를 더 포함할 수 있다. 특성값은 수술용 내시경의 화각(FOV), 확대율, 관점(viewpoint), 보는 깊이, 실제 수술도구의 종류, 방향, 깊이, 꺽인 각도 중 하나 이상을 포함할 수 있다.The control method of the surgical robot system may further include calculating a characteristic value using at least one of an endoscope image and position coordinate information of an actual surgical tool coupled to the robotic arm. The characteristic value may include one or more of the field of view (FOV), magnification, viewpoint, depth of view, actual type of surgical instrument, direction, depth, angle of bending of the surgical endoscope.

수술 로봇 시스템의 제어 방법은 테스트 신호를 슬레이브 로봇으로 전송하는 단계와, 슬레이브 로봇으로부터 테스트 신호에 따른 응답 신호를 수신하는 단계와, 테스트 신호의 전송 시각 및 응답 신호의 수신 시각을 이용하여 마스터 로봇과 슬레이브 로봇간의 네트워크 통신 속도 및 네트워크 통신상의 지연시간 중 하나 이상에 대한 지연값을 산출하는 단계를 더 포함할 수 있다.The control method of the surgical robot system includes transmitting the test signal to the slave robot, receiving a response signal according to the test signal from the slave robot, and transmitting the test signal and the receiving time of the response signal. The method may further include calculating a delay value for at least one of a network communication speed between slave robots and a delay time in network communication.

가상 수술도구가 내시경 영상과 함께 디스플레이되도록 하는 단계는, 지연값이 미리 설정된 지연 임계값 이하인지 여부를 판단하는 단계와, 지연 임계값을 초과하는 경우 가상 수술도구가 내시경 영상과 함께 디스플레이되도록 처리하는 단계와, 지연 임계값 이하인 경우 내시경 영상만이 표시되도록 처리하는 단계를 포함할 수 있다.The step of causing the virtual surgical tool to be displayed together with the endoscope image may include determining whether the delay value is less than or equal to a preset delay threshold, and processing the virtual surgical tool to be displayed together with the endoscope image if the delay threshold value is exceeded. And processing to display only the endoscope image when the delay threshold value is less than or equal to.

수술 로봇 시스템의 제어 방법은 실제 수술도구가 포함되어 디스플레이되는 내시경 영상 및 디스플레이되는 가상 수술도구의 위치 좌표를 연산하는 단계와, 각 수술도구의 위치 좌표를 이용하여 각 수술도구간의 간격값을 연산하는 단계를 더 포함할 수 있다.The control method of the surgical robot system includes calculating the position coordinates of the displayed endoscope image and the displayed virtual surgical tool including the actual surgical tool, and calculating the interval value between each surgical tool by using the position coordinate of each surgical tool. It may further comprise a step.

가상 수술도구가 내시경 영상과 함께 디스플레이되도록 하는 단계는, 간격값이 미리 설정된 간격 임계값 이하인지 여부를 판단하는 단계와, 이하인 경우에만 가상 수술도구가 내시경 영상과 함께 디스플레이되도록 처리하는 단계를 포함할 수 있다.The step of displaying the virtual surgical tool with the endoscope image may include determining whether the interval value is less than or equal to a preset interval threshold value, and processing the virtual surgical tool to be displayed together with the endoscope image only when it is less than or equal to. Can be.

또한, 가상 수술도구가 내시경 영상과 함께 디스플레이되도록 하는 단계는, 간격값이 미리 설정된 간격 임계값을 초과하는지 여부를 판단하는 단계와, 초과하는 경우, 반투명도 조절, 색상 변경 및 외곽선 두께 변경 중 하나 이상이 처리된 가상 수술도구가 내시경 영상과 함께 디스플레이되도록 처리하는 단계를 포함할 수 있다.Also, the step of causing the virtual surgical tool to be displayed together with the endoscope image may include determining whether the interval value exceeds a preset interval threshold, and if exceeding, adjusting the translucency, changing the color, and changing the outline thickness. It may include the step of processing such that the above-described virtual surgical tool is displayed with the endoscope image.

수술 로봇 시스템의 제어 방법은 각 수술도구의 위치 좌표가 미리 설정된 오차 범위 내에서 일치하는지 여부를 판단하는 단계와, 판단의 결과에 의해 마스터 로봇과 슬레이브 로봇간의 통신 상태를 검증하는 단계를 더 포함할 수 있다.The control method of the surgical robot system may further include determining whether the position coordinates of each surgical tool are within a preset error range, and verifying a communication state between the master robot and the slave robot based on the result of the determination. Can be.

판단하는 단계에서, 가상 수술도구에 대한 현재의 위치 좌표와 실제 수술도구에 대한 이전의 위치 좌표가 오차 범위 내에서 일치하는지 여부가 판단될 수 있다.In the determining step, it may be determined whether the current position coordinates for the virtual surgical instrument and the previous position coordinates for the actual surgical instrument coincide within the error range.

또한, 판단하는 단계에서, 각 수술도구의 이동궤적 및 조작형태 중 하나 이상이 오차 범위 내에서 일치하는지 여부가 더 판단될 수도 있다.Further, in the determining step, it may be further determined whether one or more of the movement trajectory and the manipulation form of each surgical tool coincide within an error range.

수술 로봇 시스템의 제어 방법은 디스플레이되는 내시경 영상에서 픽셀별 색상값을 포함하는 특징 정보를 추출하는 단계와, 내시경 영상 내에 미리 설정된 색상값 범위에 포함되는 색상값을 가지는 픽셀의 면적 또는 수량이 임계값을 초과하는지 여부를 판단하는 단계와, 초과하는 경우 경고 정보를 출력하는 단계를 포함할 수 있다.The control method of the surgical robot system includes extracting feature information including color values for each pixel from the displayed endoscope image, and the area or quantity of pixels having a color value included in a preset color value range in the endoscope image is thresholded. Determining whether or not exceeding, and outputting the warning information if exceeded.

경고 요청에 따라 경고 메시지 디스플레이, 경고 음향 출력 및 가상 수술도구에 대한 디스플레이 중지 중 하나 이상이 수행될 수 있다.In response to the alert request, one or more of the alert message display, alert sound output, and disabling display for the virtual surgical instrument may be performed.

가상 수술도구가 내시경 영상과 함께 디스플레이되도록 하는 단계는, 내시경 영상에 대한 이미지 처리를 통해, 수술부위 또는 내시경 영상을 통해 디스플레이되는 장기(臟器)의 영역 좌표정보를 추출하는 단계와, 가상 수술도구 정보 및 영역 좌표정보를 이용하여 가상 수술도구가 영역 좌표정보와 중첩이 발생되어 뒤쪽에 위치하는 여부를 판단하는 단계와, 중첩이 발생되는 경우 가상 수술도구의 형상 중 중첩이 발생된 영역을 은폐 처리하는 단계를 포함할 수 있다.The step of displaying the virtual surgical tool together with the endoscope image may include extracting region coordinate information of the organ displayed through the surgical site or the endoscope image through image processing of the endoscope image, and the virtual surgical tool. Determining whether the virtual surgical tool is located at the rear side by overlapping with the region coordinate information by using the information and the area coordinate information; and when the overlap is generated, concealing the overlapped area of the shape of the virtual surgical tool; It may include the step.

수술 로봇 시스템의 제어 방법은 내시경 영상에 대한 이미지 처리를 통해, 수술부위 또는 내시경 영상을 통해 디스플레이되는 장기(臟器)의 영역 좌표정보를 추출하는 단계와, 가상 수술도구 정보 및 영역 좌표정보를 이용하여 가상 수술도구가 영역 좌표정보와 접촉이 발생되었는지 여부를 판단하는 단계와, 접촉이 발생되는 경우 접촉 경고 처리를 수행하는 단계를 더 포함할 수 있다.The control method of the surgical robot system extracts the region coordinate information of the organ displayed through the surgical site or the endoscope image through image processing on the endoscope image, and uses the virtual surgical tool information and the region coordinate information. The virtual surgical tool may further include determining whether a contact has occurred with the region coordinate information, and performing contact warning processing when a contact occurs.

접촉 경고 처리는 포스 피드백(force feedback) 처리, 암 조작부의 조작 제한, 경고 메시지 디스플레이 및 경고 음향 출력 중 하나 이상일 수 있다.The contact warning processing may be one or more of force feedback processing, an operation restriction of the arm control unit, a warning message display and a warning sound output.

수술 로봇 시스템의 제어 방법은 내시경 영상에 대한 이미지 처리를 통해, 수술부위 또는 내시경 영상을 통해 디스플레이되는 장기(臟器)를 인식하는 단계와, 미리 저장된 참조 영상에서 인식된 장기의 명칭에 상응하는 위치의 참조 영상을 추출하여 디스플레이하는 단계를 포함할 수 있다. 여기서, 참조 영상은 엑스-레이(X-Ray) 영상, 컴퓨터단층촬영(CT) 영상 및 자기공명영상촬영(MRI) 영상 중 하나 이상일 수 있다.The control method of the surgical robot system includes recognizing an organ displayed through a surgical site or an endoscope image through image processing of an endoscope image, and a position corresponding to a name of an organ recognized in a pre-stored reference image. The method may include extracting and displaying a reference image of the. Here, the reference image may be at least one of an X-ray image, a computed tomography (CT) image, and a magnetic resonance imaging (MRI) image.

수술 로봇 시스템의 제어 방법은 미리 저장된 참조 영상에서 실제 수술도구의 위치 좌표에 상응하는 참조 영상을 추출하는 단계와, 추출된 참조 영상을 추출하여 디스플레이하는 단계를 포함할 수 있다. 참조 영상은 엑스-레이(X-Ray) 영상, 컴퓨터단층촬영(CT) 영상 및 자기공명영상촬영(MRI) 영상 중 하나 이상일 수 있다.The control method of the surgical robot system may include extracting a reference image corresponding to the position coordinates of the actual surgical instrument from a pre-stored reference image, and extracting and displaying the extracted reference image. The reference image may be at least one of an X-ray image, a computed tomography (CT) image, and a magnetic resonance imaging (MRI) image.

참조 영상은 내시경 영상이 표시되는 표시 화면에 함께 표시되거나 상기 표시 화면과 독립된 표시 화면을 통해 디스플레이될 수 있다.The reference image may be displayed together on a display screen on which the endoscope image is displayed or may be displayed on a display screen independent of the display screen.

참조 영상은 MPR(Multi Planner Reformat)을 이용한 3차원 영상으로 디스플레이될 수도 있다.The reference image may be displayed as a 3D image using MPR (Multi Planner Reformat).

본 발명의 다른 실시예에 따르면, 하나 이상의 로봇 암을 포함하는 슬레이브 로봇 및 슬레이브 로봇을 제어하는 마스터 로봇을 포함하는 수술 로봇 시스템의 동작 방법으로서, 제1 마스터 로봇이 암 조작부 조작에 상응하여 가상 수술도구를 디스플레이하기 위한 가상 수술도구 정보 및 로봇 암을 제어하기 위한 조작신호를 생성하는 단계와, 제1 마스터 로봇이 조작신호를 슬레이브 로봇으로 전송하고, 조작신호 또는 가상 수술도구 정보 중 하나 이상을 제2 마스터 로봇으로 전송하는 단 계를 포함하되, 제2 마스터 로봇은 조작신호 또는 가상 수술도구 정보 중 하나 이상에 상응하는 가상 수술도구를 화면 표시부를 통해 디스플레이하는 것을 특징으로 하는 수술 로봇 시스템의 동작 방법이 제공된다.According to another embodiment of the present invention, a method of operating a surgical robot system comprising a slave robot including at least one robot arm and a master robot for controlling the slave robot, wherein the first master robot corresponds to the operation of the arm manipulation unit to perform virtual surgery. Generating virtual surgical tool information for displaying the tool and an operation signal for controlling the robot arm, and the first master robot transmits the operation signal to the slave robot and provides one or more of the operation signal or the virtual surgical tool information. And a step of transmitting to the master robot, wherein the second master robot displays a virtual surgical tool corresponding to at least one of an operation signal or virtual surgical tool information through a screen display unit. This is provided.

제1 마스터 로봇 및 제2 마스터 로봇 각각은 슬레이브 로봇으로부터 수신되는 내시경 영상을 화면 표시부를 통해 디스플레이하고, 가상 수술도구는 내시경 영상과 함께 디스플레이되는 것을 특징으로 할 수 있다.Each of the first and second master robots may display an endoscope image received from a slave robot through a screen display unit, and the virtual surgical tool may be displayed together with the endoscope image.

수술 로봇 시스템의 동작 방법은 제1 마스터 로봇은 제2 마스터 로봇으로부터 수술권한 회수 명령이 수신되었는지 여부를 판단하는 단계와, 수술권한 회수 명령이 수신된 경우, 제1 마스터 로봇은 암 조작부 조작이 가상 수술도구 정보의 생성을 위해서만 기능되도록 제어하는 단계를 더 포함할 수 있다.In the operating method of the surgical robot system, the first master robot determines whether the operation authority recovery command has been received from the second master robot, and if the operation authority recovery command is received, the first master robot is virtual operation of the arm operation unit The method may further include controlling to function only for generation of the surgical tool information.

본 발명의 또 다른 실시예에 따르면, 로봇 암을 포함하는 슬레이브 로봇을 제어하는 마스터 로봇에서 수행되는 수술 시뮬레이션 방법으로서, 장기(臟器) 선택 정보를 인식하는 단계와, 미리 저장된 장기 모델링 정보를 이용하여 장기 선택 정보에 상응하는 3차원 장기 이미지를 디스플레이하는 단계를 포함하되, 장기 모델링 정보는 상응하는 장기의 내부 및 외부 각 지점의 형상, 색상 및 촉감 중 하나 이상을 포함하는 특성 정보를 가지는 것을 특징으로 하는 수술 시뮬레이션 방법이 제공된다.According to another embodiment of the present invention, as a surgical simulation method performed in a master robot controlling a slave robot including a robot arm, recognizing organ selection information and using previously stored organ modeling information And displaying a three-dimensional organ image corresponding to the organ selection information, wherein the organ modeling information has characteristic information including one or more of the shape, color, and feel of each point of the inside and the outside of the corresponding organ. A surgical simulation method is provided.

장기 선택 정보를 인식하기 위하여, 수술용 내시경으로부터 입력되는 영상 신호를 이용하여 수술 부위 내에 포함된 장기의 색상 및 외형 중 하나 이상에 대한 정보를 해석하는 단계와, 미리 저장된 장기 모델링 정보 중 해석된 정보에 매치되 는 장기를 인식하는 단계가 수행될 수 있다.In order to recognize the organ selection information, using the image signal input from the surgical endoscope to interpret the information on one or more of the color and appearance of the organ included in the surgical site, and information that is interpreted in the pre-stored organ modeling information The step of recognizing the organ matching to may be performed.

장기 선택 정보는 하나 이상의 장기로서 수술자에 의해 선택 입력될 수도 있다.The organ selection information may be optionally entered by the operator as one or more organs.

또한, 암 조작부 조작에 따른 3차원 장기 이미지에 대한 수술조작 명령을 입력받는 단계와, 장기 모델링 정보를 이용하여 수술조작 명령에 따른 촉감 정보를 출력하는 단계가 더 포함될 수도 있다.The method may further include receiving a surgical operation command for the 3D organ image according to the manipulation of the cancer manipulation unit, and outputting the tactile information according to the surgical operation command using the organ modeling information.

촉감 정보는 암 조작부 조작에 따른 조작 민감도 및 조작 저항감 중 하나 이상을 제어하기 위한 제어 정보이거나 포스 피드백 처리를 위한 제어 정보일 수 있다.The tactile information may be control information for controlling one or more of manipulation sensitivity and manipulation resistance according to the operation of the arm manipulation unit or control information for force feedback processing.

암 조작부 조작에 따른 3차원 장기 이미지에 대한 수술조작 명령을 입력받는 단계와, 장기 모델링 정보를 이용하여 수술조작 명령에 따른 절단면 이미지를 디스플레이하는 단계가 더 포함될 수도 있다.The method may further include receiving a surgical operation command for the 3D organ image according to the manipulation of the arm manipulation unit, and displaying a cut plane image according to the surgical operation command using the organ modeling information.

상술한 수술조작 명령은 절단, 꿰맴, 당김, 누름, 장기 변형, 전기수술에 의한 장기 손상, 혈관에서의 출혈 등 중 하나 이상일 수 있다.The surgical operation command described above may be one or more of cutting, stitching, pulling, pressing, organ deformation, organ damage by electrosurgery, bleeding in blood vessels, and the like.

또한, 장기 선택 정보에 따른 장기를 인식하는 단계와, 미리 저장된 참조 영상에서 인식된 장기의 명칭에 상응하는 위치의 참조 영상을 추출하여 디스플레이하는 단계가 더 포함될 수도 있다. 여기서, 참조 영상은 엑스-레이(X-Ray) 영상, 컴퓨터단층촬영(CT) 영상 및 자기공명영상촬영(MRI) 영상 등 중 하나 이상일 수 있다.The method may further include recognizing an organ according to organ selection information, and extracting and displaying a reference image at a position corresponding to a name of the recognized organ from a previously stored reference image. The reference image may be at least one of an X-ray image, a computed tomography (CT) image, a magnetic resonance imaging (MRI) image, and the like.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages other than those described above will become apparent from the following drawings, claims, and detailed description of the invention.

본 발명의 실시예에 따르면, 증강현실(augmented reality)을 이용하여 실제 수술도구와 가상 수술도구를 함께 표시함으로써 수술자의 원활한 수술을 가능하도록 하는 효과가 있다.According to an embodiment of the present invention, by using the augmented reality (augmented reality) by displaying the actual surgical tool and the virtual surgical tool is effective to enable the operation of the operator smoothly.

또한, 수술시 환자에 대한 다양한 정보가 출력되어 수술자에 제공되는 효과도 있다.In addition, there is an effect that is provided to the operator to output a variety of information about the patient during surgery.

또한, 마스터 로봇과 슬레이브 로봇간의 네트워크 통신 속도에 따라 수술자의 원활한 수술 진행이 가능하도록 수술 화면 표시 방법이 다양화되는 효과도 있다.In addition, according to the network communication speed between the master robot and the slave robot, there is an effect that the operation screen display method is diversified to enable the operator to proceed smoothly.

또한, 내시경 등을 통해 입력되는 화상을 자동화 처리하여 응급 상황을 즉시 수술자에게 통지할 수 있는 효과도 있다.In addition, there is an effect that the operator can be notified immediately of the emergency by automatically processing the image input through the endoscope.

또한, 마스터 로봇의 조작에 의한 가상 수술도구의 이동 등에 따른 장기 접촉 등이 수술자에게 실시간 감지될 수 있고, 가상 수술도구와 장기간의 위치 관계가 직관적으로 인지될 수 있도록 하는 효과도 있다.In addition, long-term contact due to the movement of the virtual surgical tool by the operation of the master robot can be sensed by the operator in real time, and there is an effect to intuitively recognize the long-term positional relationship with the virtual surgical tool.

또한, 수술 부위에 대한 환자의 관련 이미지 데이터(예를 들어, CT 이미지, MRI 이미지 등)가 실시간 제시될 수 있어 다양한 정보를 활용한 수술 진행이 가능하도록 하는 효과도 있다.In addition, the relevant image data (for example, CT image, MRI image, etc.) of the patient for the surgical site can be presented in real time has the effect of enabling the operation progress using a variety of information.

또한, 수술 로봇 시스템이 학습자(learner)와 교육자(trainer)간에 호환 및 공유될 수 있도록 하여 실시간 교육 효과를 극대화할 수 있는 효과도 있다.In addition, the surgical robot system can be compatible and shared between the learner (learner) and the trainer (trainer) has the effect of maximizing the real-time education effect.

또한, 본 발명은 3차원 모델링된 가상 장기를 활용하여 실제 수술 과정의 경과 및 결과를 미리 예측할 수 있도록 하는 효과도 있다.In addition, the present invention also has the effect of using the three-dimensional modeled virtual organs to predict in advance the progress and results of the actual surgical process.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.As the invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all transformations, equivalents, and substitutes included in the spirit and scope of the present invention. In the following description of the present invention, if it is determined that the detailed description of the related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, and in the following description with reference to the accompanying drawings, the same or corresponding components are given the same reference numerals and redundant description thereof will be omitted. Shall be.

또한, 본 발명의 다양한 실시예들을 설명함에 있어, 각 실시예가 독립적으로 해석되거나 실시되어야 하는 것은 아니며, 각 실시예에서 설명되는 기술적 사상들이 개별적으로 설명되는 다른 실시예에 조합되어 해석되거나 실시될 수 있는 것으로 이해되어야 한다.In addition, in describing various embodiments of the present invention, each embodiment should not be interpreted or implemented independently, and the technical spirit described in each embodiment may be interpreted or implemented in combination with other embodiments separately described. It should be understood that there is.

또한, 본 발명은 수술용 내시경(예를 들어, 복강경, 흉강경, 관절경, 비경 등)이 이용되는 수술들에 범용적으로 사용될 수 있는 기술적 사상이지만, 본 발명의 실시예를 설명함에 있어 설명의 편의를 위해 복강경이 이용되는 경우를 예로 들어 설명하기로 한다.In addition, the present invention is a technical concept that can be used universally in the surgery that is used for surgical endoscopes (for example, laparoscopic, thoracoscopic, arthroscopy, parenteral, etc.), in the description of the embodiments of the present invention For convenience, a case where laparoscope is used will be described as an example.

도 1은 본 발명의 일 실시예에 따른 수술용 로봇의 전체구조를 나타낸 평면도이고, 도 2는 본 발명의 일 실시예에 따른 수술용 로봇의 마스터 인터페이스를 나타낸 개념도이다. 1 is a plan view showing the overall structure of a surgical robot according to an embodiment of the present invention, Figure 2 is a conceptual diagram showing a master interface of a surgical robot according to an embodiment of the present invention.

도 1 및 도 2를 참조하면, 복강경 수술용 로봇 시스템은 수술대에 누워있는 환자에게 수술을 행하는 슬레이브 로봇(2)과 슬레이브 로봇(2)을 수술자가 원격 조 종하는 마스터 로봇(1)을 포함하여 구성된다. 마스터 로봇(1)과 슬레이브 로봇(2)이 반드시 물리적으로 독립된 별도의 장치로 분리되어야 하는 것은 아니며, 하나로 통합되어 일체형으로 구성될 수 있으며, 이 경우 마스터 인터페이스(4)는 예를 들어 일체형 로봇의 인터페이스 부분에 상응할 수 있다.1 and 2, the laparoscopic surgical robot system includes a slave robot 2 performing surgery on a patient lying on an operating table and a master robot 1 on which an operator remotely controls the slave robot 2. It is composed. The master robot 1 and the slave robot 2 are not necessarily separated into separate devices that are physically independent, but may be integrated into one and integrally formed, in which case the master interface 4 may be, for example, of an integrated robot. May correspond to an interface portion.

마스터 로봇(1)의 마스터 인터페이스(4)는 모니터부(6) 및 마스터 조종기를 포함하고, 슬레이브 로봇(2)은 로봇 암(3) 및 복강경(5)을 포함한다. 마스터 인터페이스(4)는 모드전환 제어버튼을 더 포함할 수 있다. 모드전환 제어버튼은 클러치 버튼(14) 또는 페달(도시되지 않음) 등의 형태로 구현될 수 있으며, 모드전환 제어버튼의 구현 형태는 이에 제한되지 않으며 예를 들어 모니터부(6)를 통해 표시되는 기능메뉴 또는 모드선택 메뉴 등으로 구현될 수도 있다.The master interface 4 of the master robot 1 comprises a monitor 6 and a master manipulator, and the slave robot 2 comprises a robot arm 3 and a laparoscope 5. The master interface 4 may further include a mode switch control button. The mode switching control button may be implemented in the form of a clutch button 14 or a pedal (not shown), and the mode switching control button is not limited thereto. For example, the mode switching control button may be displayed through the monitor unit 6. It may be implemented as a function menu or a mode selection menu.

마스터 인터페이스(4)는 수술자가 양손에 각각 파지되어 조작할 수 있도록 마스터 조종기를 구비한다. 마스터 조종기는 도 1 및 2에 예시된 바와 같이 두 개의 핸들(10)로 구현될 수 있으며, 수술자의 핸들(10) 조작에 따른 조작신호가 슬레이브 로봇(2)으로 전송되어 로봇 암(3)이 제어된다. 수술자의 핸들(10) 조작에 의해 로봇 암(3)의 위치 이동, 회전, 절단 작업 등이 수행될 수 있다.The master interface 4 is provided with a master controller so that the operator can be gripped and manipulated by both hands. As illustrated in FIGS. 1 and 2, the master controller may be implemented with two handles 10. An operation signal according to the manipulation of the operator's handle 10 is transmitted to the slave robot 2 so that the robot arm 3 may be moved. Controlled. By operating the handle 10 of the operator, the position movement, rotation, and cutting operation of the robot arm 3 may be performed.

예를 들어, 핸들(10)은 메인 핸들(main handle)과 서브 핸들(sub handle)로 구성될 수 있다. 하나의 핸들만으로 슬레이브 로봇 암(3)이나 복강경(5) 등을 조작할 수도 있고, 서브 핸들을 추가하여 동시에 복수의 수술 장비를 실시간으로 조작할 수도 있다. 메인 핸들 및 서브 핸들은 그 조작방식에 따라 다양한 기구적 구성을 가질 수 있으며, 예를 들면, 조이스틱 형태, 키패드, 트랙볼, 터치스크린 등 슬 레이브 로봇(2)의 로봇 암(3) 및/또는 기타 수술 장비를 작동시키기 위한 다양한 입력수단이 사용될 수 있다.For example, the handle 10 may be composed of a main handle and a sub handle. The slave robot arm 3, the laparoscope 5, etc. may be operated with only one handle, or a plurality of surgical equipment may be operated in real time by adding a sub handle. The main handle and the sub handle may have various mechanical configurations depending on the operation method thereof. For example, the robot arm 3 of the slave robot 2 and / or the like may be a joystick type, a keypad, a trackball, a touch screen, or the like. Various input means for operating the surgical equipment may be used.

마스터 조종기는 핸들(10)의 형상으로 제한되지 않으며, 네트워크를 통해 로봇 암(3)의 동작을 제어할 수 있는 형태이면 아무런 제한없이 적용될 수 있다.The master controller is not limited to the shape of the handle 10 and may be applied without any limitation as long as it can control the operation of the robot arm 3 through a network.

마스터 인터페이스(4)의 모니터부(6)에는 복강경(5)에 의해 입력되는 영상이 화상 이미지로 표시된다. 또한, 모니터부(6)에는 수술자의 핸들(10) 조작에 의해 제어되는 가상 수술도구가 함께 표시되거나 독립된 화면에 표시될 수도 있을 것이다. 또한, 모니터부(6)에 표시되는 정보는 선택된 구동모드에 의해 다양할 수 있을 것이다. 가상 수술도구의 표시 여부, 제어 방법, 구동모드별 표시 정보 등에 관해서는 이후 관련 도면을 참조하여 상세히 설명한다.The monitor 6 of the master interface 4 displays an image input by the laparoscope 5 as an image image. In addition, the monitor 6 may be displayed together with the virtual surgical tool controlled by the operator's handle 10, or may be displayed on a separate screen. In addition, the information displayed on the monitor unit 6 may vary depending on the selected driving mode. Whether to display the virtual surgical tool, a control method, display information for each driving mode, etc. will be described in detail with reference to the accompanying drawings.

모니터부(6)는 하나 이상의 모니터들로 구성될 수 있으며, 각 모니터에 수술시 필요한 정보들이 개별적으로 표시되도록 할 수 있다. 도 1 및 2에는 모니터부(6)가 세 개의 모니터를 포함하는 경우가 예시되었으나, 모니터의 수량은 표시를 요하는 정보의 유형이나 종류 등에 따라 다양하게 결정될 수 있다.The monitor unit 6 may be composed of one or more monitors, and may display information necessary for surgery on each monitor separately. 1 and 2 illustrate a case in which the monitor unit 6 includes three monitors, the quantity of the monitors may be variously determined according to the type or type of information requiring display.

모니터부(6)는 환자에 대한 복수의 생체 정보를 더 출력할 수도 있다. 이 경우, 모니터부(6)의 하나 이상의 모니터를 통해 환자의 상태를 나타내는 지표, 예를 들면, 체온, 맥박, 호흡 및 혈압 등과 같은 생체 정보가 하나 이상 출력될 수 있으며, 각 정보는 영역별로 나뉘어져 출력될 수도 있다. 이러한 생체 정보를 마스터 로봇(1)으로 제공하기 위해, 슬레이브 로봇(2)은 체온 측정 모듈, 맥박 측정 모듈, 호흡 측정 모듈, 혈압 측정 모듈, 심전도 측정 모듈 등 중 하나 이상을 포함하 는 생체 정보 측정 유닛을 포함할 수 있다. 각 모듈에 의해 측정된 생체 정보는 아날로그 신호 또는 디지털 신호의 형태로 슬레이브 로봇(2)에서 마스터 로봇(1)으로 전송될 수도 있으며, 마스터 로봇(1)은 수신된 생체 정보를 모니터부(6)를 통해 디스플레이할 수 있다.The monitor unit 6 may further output a plurality of biometric information about the patient. In this case, one or more indicators indicating a patient's condition, for example, body temperature, pulse rate, respiration, and blood pressure, may be output through one or more monitors of the monitor unit 6. It may be output. In order to provide such biometric information to the master robot 1, the slave robot 2 measures biometric information including at least one of a body temperature measuring module, a pulse measuring module, a respiratory measuring module, a blood pressure measuring module, an electrocardiogram measuring module, and the like. It may include a unit. The biometric information measured by each module may be transmitted from the slave robot 2 to the master robot 1 in the form of an analog signal or a digital signal, and the master robot 1 monitors the received biometric information. Can be displayed via

슬레이브 로봇(2)과 마스터 로봇(1)은 유선 통신망 또는 무선 통신망을 통해 상호 결합되어 조작신호, 복강경(5)을 통해 입력된 복강경 영상 등이 상대방으로 전송될 수 있다. 만일, 마스터 인터페이스(4)에 구비된 두 개의 핸들(10)에 의한 두 개의 조작신호 및/또는 복강경(5)의 위치 조정을 위한 조작신호가 동시에 및/또는 유사한 시점에서 전송될 필요가 있는 경우, 각 조작신호는 상호 독립적으로 슬레이브 로봇(2)으로 전송될 수 있다. 여기서 각 조작신호가 '독립적으로' 전송된다는 것은, 조작신호 간에 서로 간섭을 주지 않으며, 어느 하나의 조작신호가 다른 하나의 신호에 영향을 미치지 않음을 의미한다. 이처럼, 복수의 조작신호가 서로 독립적으로 전송되도록 하기 위해서는, 각 조작신호의 생성 단계에서 각 조작신호에 대한 헤더 정보를 부가하여 전송시키거나, 각 조작신호가 그 생성 순서에 따라 전송되도록 하거나, 또는 각 조작신호의 전송 순서에 관하여 미리 우선순위를 정해 놓고 그에 따라 전송되도록 하는 등 다양한 방식이 이용될 수 있다. 이 경우, 각 조작신호가 전송되는 전송 경로가 독립적으로 구비되도록 함으로써 각 조작신호간에 간섭이 근본적으로 방지되도록 할 수도 있을 것이다.The slave robot 2 and the master robot 1 may be coupled to each other through a wired communication network or a wireless communication network so that an operation signal and a laparoscope image input through the laparoscope 5 may be transmitted to the counterpart. If two operation signals by the two handles 10 provided in the master interface 4 and / or operation signals for adjusting the position of the laparoscope 5 need to be transmitted at the same time and / or at a similar point in time. Each operation signal may be independently transmitted to the slave robot 2. Herein, when each operation signal is 'independently' transmitted, it means that the operation signals do not interfere with each other and one operation signal does not affect the other signal. As described above, in order to transmit the plurality of operation signals independently of each other, in the generation step of each operation signal, header information for each operation signal is added and transmitted, or each operation signal is transmitted in the generation order thereof, or Various methods may be used such as prioritizing each operation signal in advance and transmitting the operation signal accordingly. In this case, the transmission path through which each operation signal is transmitted may be provided independently so that interference between each operation signal may be fundamentally prevented.

슬레이브 로봇(2)의 로봇 암(3)은 다자유도를 가지며 구동되도록 구현될 수 있다. 로봇 암(3)은 예를 들어 환자의 수술 부위에 삽입되는 수술기구, 수술기구를 수술 위치에 따라 요(yaw)방향으로 회전시키는 요동 구동부, 요동 구동부의 회전 구동과 직교하는 피치(pitch) 방향으로 수술기구를 회전시키는 피치 구동부, 수술기구를 길이 방향으로 이동시키는 이송 구동부와, 수술기구를 회전시키는 회전 구동부, 수술기구의 끝단에 설치되어 수술 병변을 절개 또는 절단하는 수술기구 구동부를 포함하여 구성될 수 있다. 다만, 로봇 암(3)의 구성이 이에 제한되지 않으며, 이러한 예시가 본 발명의 권리범위를 제한하지 않는 것으로 이해되어야 한다. 또한, 수술자가 핸들(10)을 조작함에 의해 로봇 암(3)이 상응하는 방향으로 회전, 이동하는 등의 실제적인 제어 과정은 본 발명의 요지와 다소 거리감이 있으므로 이에 대한 구체적인 설명은 생략한다.The robot arm 3 of the slave robot 2 can be implemented to be driven with multiple degrees of freedom. The robot arm 3 includes, for example, a surgical instrument inserted into a surgical site of a patient, a rocking drive unit for rotating the surgical instrument in the yaw direction according to the surgical position, and a pitch direction perpendicular to the rotational drive of the rocking drive unit. It comprises a pitch drive unit for rotating the surgical instruments, a transfer drive for moving the surgical instruments in the longitudinal direction, a rotation drive for rotating the surgical instruments, a surgical instrument drive unit installed on the end of the surgical instruments to cut or cut the surgical lesion Can be. However, the configuration of the robot arm 3 is not limited thereto, and it should be understood that this example does not limit the scope of the present invention. In addition, the actual control process, such as the operator rotates the robot arm 3 in the corresponding direction by operating the handle 10 is somewhat distanced from the subject matter of the present invention, so a detailed description thereof will be omitted.

슬레이브 로봇(2)은 환자를 수술하기 위하여 하나 이상으로 이용될 수 있으며, 수술 부위가 모니터부(6)를 통해 화상 이미지로 표시되도록 하기 위한 복강경(5)은 독립된 슬레이브 로봇(2)으로 구현될 수도 있다. 또한, 앞서 설명된 바와 같이, 본 발명의 실시예들은 복강경 이외의 다양한 수술용 내시경(예를 들어, 흉강경, 관절경, 비경 등)이 이용되는 수술들에 범용적으로 사용될 수 있다.One or more slave robots 2 may be used to operate the patient, and the laparoscope 5 for allowing the surgical site to be displayed as an image image through the monitor unit 6 may be implemented as an independent slave robot 2. It may be. In addition, as described above, embodiments of the present invention may be used universally in operations in which various surgical endoscopes (eg, thoracoscopic, arthroscopy, parenteral, etc.) other than laparoscopic are used.

도 3은 본 발명의 일 실시예에 따른 마스터 로봇과 슬레이브 로봇의 구성을 개략적으로 나타낸 블록 구성도이고, 도 4a는 본 발명의 일 실시예에 따른 수술 로봇 시스템의 구동모드를 예시한 도면이며, 도 4b는 본 발명의 일 실시예에 따른 실행중인 구동모드를 나타내는 모드 표시자를 예시한 도면이다.3 is a block diagram schematically showing the configuration of a master robot and a slave robot according to an embodiment of the present invention, Figure 4a is a view illustrating a driving mode of a surgical robot system according to an embodiment of the present invention, 4B is a diagram illustrating a mode indicator indicating a running mode in accordance with one embodiment of the present invention.

마스터 로봇(1)과 슬레이브 로봇(2)의 구성이 개략적으로 표시된 도 3을 참 조하면, 마스터 로봇(1)은 영상 입력부(310), 화면 표시부(320), 암 조작부(330), 조작신호 생성부(340), 증강현실 구현부(350) 및 제어부(360)를 포함한다. 슬레이브 로봇(2)은 로봇 암(3) 및 복강경(5)을 포함한다. 도 3에는 도시되지는 않았으나, 슬레이브 로봇(2)은 환자에 대한 생체 정보를 측정하여 제공하기 위한 생체 정보 측정 유닛 등을 더 포함할 수 있다.Referring to FIG. 3 in which the configurations of the master robot 1 and the slave robot 2 are schematically shown, the master robot 1 includes an image input unit 310, a screen display unit 320, an arm operation unit 330, and an operation signal. The generation unit 340, the augmented reality implementation unit 350 and the control unit 360. The slave robot 2 comprises a robot arm 3 and a laparoscope 5. Although not shown in FIG. 3, the slave robot 2 may further include a biometric information measuring unit for measuring and providing biometric information about the patient.

영상 입력부(310)는 슬레이브 로봇(2)의 복강경(5)에 구비된 카메라를 통해 입력된 영상을 유선 또는 무선 통신망을 통해 수신한다.The image input unit 310 receives an image input through a camera provided in the laparoscope 5 of the slave robot 2 through a wired or wireless communication network.

화면 표시부(320)는 영상 입력부(310)를 통해 수신된 영상에 상응하는 화상 이미지를 시각(視覺)적 정보로 출력한다. 또한, 화면 표시부(320)는 암 조작부(330)의 조작에 따른 가상 수술도구가 시각적 정보로서 더 출력할 수 있으며, 슬레이브 로봇(2)으로부터 생체 정보가 입력되는 경우 이에 상응하는 정보를 더 출력할 수 있다. 화면 표시부(320)는 모니터부(6) 등의 형태로 구현될 수 있으며, 수신된 영상이 화면 표시부(320)를 통해 화상 이미지로 출력되도록 하기 위한 영상 처리 프로세스가 제어부(360), 증강현실 구현부(350) 또는 영상 처리부(도시되지 않음)에 의해 수행될 수 있다.The screen display unit 320 outputs an image image corresponding to the image received through the image input unit 310 as visual information. In addition, the screen display unit 320 may further output the virtual surgical tool according to the operation of the arm operation unit 330 as visual information, and further outputs corresponding information when the biometric information is input from the slave robot 2. Can be. The screen display unit 320 may be implemented in the form of a monitor unit 6, and the image processing process for outputting the received image as an image image through the screen display unit 320, the control unit 360, augmented reality implementation It may be performed by the unit 350 or an image processor (not shown).

암 조작부(330)는 슬레이브 로봇(2)의 로봇 암(3)의 위치 및 기능을 수술자가 조작할 수 있도록 하는 수단이다. 암 조작부(330)는 도 2에 예시된 바와 같이 핸들(10)의 형상으로 형성될 수 있으나, 그 형상이 이에 제한되지 않으며 동일한 목적 달성을 위한 다양한 형상으로 변형 구현될 수 있다. 또한, 예를 들어 일부는 핸들 형상으로, 다른 일부는 클러치 버튼 등의 다른 형상으로 형성될 수도 있으며, 수술도구의 조작을 용이하도록 하기 위해 수술자의 손가락을 삽입 고정할 수 있도록 하는 손가락 삽입관 또는 삽입 고리가 더 형성될 수도 있다.The arm manipulation unit 330 is a means for allowing the operator to manipulate the position and function of the robot arm 3 of the slave robot 2. The arm manipulation unit 330 may be formed in the shape of the handle 10 as illustrated in FIG. 2, but the shape is not limited thereto and may be modified in various shapes for achieving the same purpose. Further, for example, some may be formed in the shape of a handle, others may be formed in other shapes, such as a clutch button, finger insertion tube or insertion to allow the operator's fingers can be inserted and fixed to facilitate the operation of the surgical tool More rings may be formed.

상술한 바와 같이, 암 조작부(330)에는 클러치 버튼(14)이 구비될 수 있으며, 클러치 버튼(14)은 모드전환 제어버튼으로 이용될 수도 있다. 이외에도 모드전환 제어버튼은 페달(도시되지 않음) 등의 기구적 형태로 구현되거나 모니터부(6)를 통해 표시되는 기능메뉴 또는 모드선택 메뉴 등으로도 구현될 수도 있다. 또한, 복강경(5)이 영상을 입력받기 위해 특정 위치에 고정적으로 존재하지 않고, 그 위치 및/또는 영상 입력 각도가 수술자의 조정에 의해 이동되거나 변경될 수 있다면 클러치 버튼(14) 등은 복강경(5)의 위치 및/또는 영상 입력 각도의 조정을 위해 기능하도록 설정될 수도 있다.As described above, the arm operation unit 330 may be provided with a clutch button 14, the clutch button 14 may be used as a mode switching control button. In addition, the mode switching control button may be implemented in a mechanical form such as a pedal (not shown) or may be implemented as a function menu or a mode selection menu displayed through the monitor unit 6. In addition, if the laparoscope 5 is not fixedly present at a specific position to receive an image, and the position and / or the image input angle can be moved or changed by the operator's adjustment, the clutch button 14 or the like is used as the laparoscope ( 5) may be set to function for adjustment of the position and / or the image input angle.

조작신호 생성부(340)는 로봇 암(3) 및/또는 복강경(5)의 위치 이동 또는 수술을 위한 조작을 위해 수술자가 암 조작부(330)를 조작하는 경우 이에 상응하는 조작신호를 생성하여 슬레이브 로봇(2)으로 전송한다. 조작신호는 유선 또는 무선 통신망을 통해 송수신될 수 있음은 앞서 설명한 바와 같다.The operation signal generator 340 generates a corresponding operation signal when the operator manipulates the arm operation unit 330 for the movement of the robot arm 3 and / or the laparoscope 5 or the operation for surgery. Transfer to the robot (2). As described above, the manipulation signal may be transmitted and received through a wired or wireless communication network.

증강현실 구현부(350)는 마스터 로봇(1)이 제2 모드인 비교 모드 등에서 구동되는 경우, 복강경(5)을 통해 입력되는 수술 부위의 화상뿐 아니라 암 조작부(330)의 조작에 실시간 연동하는 가상 수술도구가 화면 표시부(320)를 통해 함께 출력될 수 있도록 처리한다. 증강현실 구현부(350)의 구체적인 기능, 다양한 세부 구성 등은 이후 관련 도면을 참조하여 상세히 설명한다. When the master robot 1 is driven in the comparison mode that is the second mode, the augmented reality implementation unit 350 is linked to the operation of the arm operation unit 330 as well as the image of the surgical site input through the laparoscope 5 in real time. The virtual surgical tool is processed to be output together through the screen display unit 320. Specific functions, various detailed configurations, and the like, of the augmented reality implementation unit 350 will be described in detail with reference to the accompanying drawings.

제어부(360)는 상술한 기능이 수행될 수 있도록 각 구성 요소들의 동작을 제어한다. 제어부(360)는 영상 입력부(310)를 통해 입력되는 영상이 화면 표시부(320)를 통해 표시될 화상 이미지로 변환하는 기능을 수행할 수도 있다. 또한, 제어부(360)는 암 조작부(330)의 조작에 따른 조작정보가 입력되면 이에 상응하도록 가상 수술도구가 화면 표시부(320)를 통해 출력되도록 증강현실 구현부(350)를 제어한다. 또한, 제어부(360)는 교육모드인 제4 모드 수행시 학습자와 교육자간에 수술권한이 부여 또는 회수되도록 제어할 수도 있다.The controller 360 controls the operation of each component so that the above-described function can be performed. The controller 360 may perform a function of converting an image input through the image input unit 310 into an image image to be displayed through the screen display unit 320. In addition, the controller 360 controls the augmented reality implementation unit 350 to output the virtual surgical tool through the screen display unit 320 to correspond to the operation information according to the operation of the arm operation unit 330. In addition, the controller 360 may control to grant or retrieve the operation right between the learner and the educator when the fourth mode is performed.

도 4a에 예시된 바와 같이, 마스터 로봇(1) 및/또는 슬레이브 로봇(2)은 다양한 구동모드 중 수술자 등에 의해 선택된 구동모드에서 동작할 수 있다.As illustrated in FIG. 4A, the master robot 1 and / or the slave robot 2 may operate in a drive mode selected by an operator or the like among various drive modes.

예를 들어, 구동모드는 실제 모드인 제1 모드, 비교 모드인 제2 모드, 가상 모드인 제3 모드, 교육 모드인 제4 모드, 시뮬레이션 모드인 제5 모드 등을 포함할 수 있다.For example, the driving mode may include a first mode that is an actual mode, a second mode that is a comparison mode, a third mode that is a virtual mode, a fourth mode that is an education mode, a fifth mode that is a simulation mode, and the like.

마스터 로봇(1) 및/또는 슬레이브 로봇(2)이 실제 모드인 제1 모드에서 동작하는 경우, 마스터 로봇(1)의 모니터부(6)를 통해 표시되는 영상은 수술 부위, 실제 수술 도구 등을 포함할 수 있다. 즉, 가상 수술도구가 표시되지 않도록 할 수 있으며, 이는 종래의 수술 로봇 시스템을 이용한 원격 수술시 표시 화면과 동일하거나 유사할 수 있다. 물론, 제1 모드에서 동작하는 경우에도, 슬레이브 로봇(2)에서 환자의 생체 정보가 측정되어 수신되는 경우 이에 상응하는 정보가 표시될 수 있으며, 그 표시 방법이 다양할 수 있음은 앞서 설명한 바와 같다.When the master robot 1 and / or the slave robot 2 operates in the first mode, which is the actual mode, the image displayed through the monitor unit 6 of the master robot 1 may display an operation site, an actual surgical tool, or the like. It may include. That is, the virtual surgical tool may not be displayed, which may be the same as or similar to the display screen during remote surgery using a conventional surgical robot system. Of course, even when operating in the first mode, the corresponding information may be displayed when the biometric information of the patient is measured and received by the slave robot 2, and the display method may vary. .

마스터 로봇(1) 및/또는 슬레이브 로봇(2)이 비교 모드인 제2 모드에서 동작하는 경우, 마스터 로봇(1)의 모니터부(6)를 통해 표시되는 영상은 수술 부위, 실제 수술 도구, 가상 수술도구 등을 포함할 수 있다. When the master robot 1 and / or the slave robot 2 operates in the second mode, which is the comparison mode, the image displayed through the monitor unit 6 of the master robot 1 may be displayed on the surgical site, the actual surgical tool, and the virtual. Surgical instruments and the like.

참고로, 실제 수술도구는 복강경(5)에 의해 입력되어 마스터 로봇(1)으로 전송된 영상에 포함된 수술도구로서 환자의 신체에 직접적인 수술 행위를 가하는 수술도구이다. 이에 비해, 가상 수술도구는 수술자가 암 조작부(330)를 조작함에 따라 마스터 로봇(1)이 인식하는 조작정보(즉, 수술도구의 이동, 회전 등에 관한 정보)에 의해 제어되는 것으로서 화면에만 표시되는 가상의 수술도구이다. 실제 수술도구 및 가상 수술도구는 그 위치 및 조작 형상이 조작정보에 의해 결정될 것이다.For reference, the actual surgical tool is a surgical tool that is applied by the laparoscopic (5) and included in the image transmitted to the master robot (1) is a surgical tool that applies a direct surgical action to the body of the patient. In contrast, the virtual surgical tool is displayed only on the screen as controlled by operation information (that is, information about movement and rotation of the surgical tool) recognized by the master robot 1 as the operator manipulates the arm manipulation unit 330. It is a virtual surgical tool. The actual surgical tool and the virtual surgical tool will be determined by the operation information of the position and operation shape.

조작신호 생성부(340)는 수술자의 암 조작부(340) 조작에 따른 조작정보를 이용하여 조작신호를 생성하고, 생성한 조작신호를 슬레이브 로봇(2)으로 전송하여 결과적으로 실제 수술도구가 조작정보에 상응하도록 조작되도록 한다. 아울러, 조작신호에 의해 조작된 실제 수술도구의 위치 및 조작 형상은 복강경(5)에 의해 입력된 영상에 의해 수술자의 확인이 가능하다. 즉, 마스터 로봇(1)과 슬레이브 로봇(2)간의 네트워크 통신 속도가 충분히 빠른 상황이라면 실제 수술도구와 가상 수술도구가 거의 비슷한 속도로 움직이게 될 것이다. 이에 비해, 네트워크 통신 속도가 다소 느린 상황이라면 가상 수술도구가 먼저 움직인 후 약간의 시간차를 두고 실제 수술도구가 가상 수술도구의 조작 형태와 동일하게 움직이게 될 것이다. 그러나, 네트워크 통신 속도가 느린 상황(예를 들어, 지연 시간이 150ms 초과)이라면 가상 수술도구가 움직인 후 어느 정도의 시간차를 두고 실제 수술도구가 움직이게 될 것이다.  The operation signal generation unit 340 generates an operation signal using the operation information according to the operation of the operator's arm operation unit 340, and transmits the generated operation signal to the slave robot 2. To be manipulated accordingly. In addition, the position and operation shape of the actual surgical tool operated by the operation signal can be confirmed by the operator by the image input by the laparoscope (5). In other words, if the network communication speed between the master robot 1 and the slave robot 2 is fast enough, the actual surgical tool and the virtual surgical tool will move at almost the same speed. In contrast, if the network communication speed is somewhat slow, the virtual surgical tool will move first, and then the actual surgical tool will move in the same manner as the virtual surgical tool operation with a slight time difference. However, if the network communication speed is slow (for example, the delay time exceeds 150ms), the actual surgical tool will move with a certain amount of time after the virtual surgical tool moves.

마스터 로봇(1) 및/또는 슬레이브 로봇(2)이 가상 모드인 제3 모드에서 동작하는 경우로서, 암 조작부(330)에 대한 학습자(즉, 실습 학생) 또는 교육자(즉, 실습 교사)의 조작신호를 마스터 로봇(1)이 슬레이브 로봇(2)으로 전송하지 않도록 하여, 마스터 로봇(1)의 모니터부(6)를 통해 표시되는 영상이 수술 부위 및 가상 수술도구 등 중 하나 이상을 포함하도록 할 수 있다. 교육자 등은 제3 모드를 선택하여 실제 수술도구에 대한 사전 시험작동을 할 수 있다. 제3 모드로의 진입은 클러치 버튼(14) 등의 선택에 의해 이루어지도록 할 수 있으며, 해당 버튼이 눌려진 상태(또는 제3 모드가 선택된 상태)에서 핸들(10)의 조작시 실제 수술도구는 움직이지 않고 가상 수술도구만이 움직이도록 할 수 있을 것이다. 이 상태에서 해당 버튼의 누름을 종료(또는 제1 모드 또는 제2 모드를 선택)하면 가상 수술도구가 움직여진 조작정보에 부합하도록 실제 수술도구가 움직이도록 하거나 해당 버튼이 눌려진 시점으로 핸들(10)을 복귀(또는 가상 수술도구의 위치 및 조작 형태가 복귀)되도록 할 수도 있다.In the case where the master robot 1 and / or the slave robot 2 operate in the third mode, which is the virtual mode, the learner (ie, the student) or the educator (ie, the teacher) of the arm operation unit 330. The master robot 1 does not transmit the signal to the slave robot 2 so that the image displayed through the monitor unit 6 of the master robot 1 includes at least one of a surgical site and a virtual surgical tool. Can be. The educator can select the third mode and perform pre-testing on the actual surgical tool. Entering the third mode may be made by selection of the clutch button 14 or the like, and the actual surgical tool moves when the handle 10 is operated while the corresponding button is pressed (or the third mode is selected). Instead of this, only the virtual surgical instruments will be able to move. In this state, when the button is pressed (or the first mode or the second mode is selected), the virtual surgical tool moves the actual surgical tool to correspond to the operation information moved or the handle 10 is pressed to the point where the button is pressed. May be returned (or the position and operation form of the virtual surgical tool is returned).

마스터 로봇(1) 및/또는 슬레이브 로봇(2)이 교육 모드인 제4 모드에서 동작하는 경우로서, 암 조작부(330)에 대한 학습자(즉, 실습 학생) 또는 교육자(즉, 실습 교사)의 조작신호가 교육자 또는 학습자에 의해 조작되는 마스터 로봇(1)으로 전달되도록 할 수 있다. 이를 위해, 1개의 슬레이브 로봇(2)에 2개 이상의 마스터 로봇(1)이 연결되도록 하거나, 마스터 로봇(1)에 별도의 마스터 로봇(1)이 연결되도록 할 수도 있다. 이 경우, 교육자용 마스터 로봇(1)의 암 조작부(330)가 조작되면 상응하는 조작신호가 슬레이브 로봇(2)으로 전달되도록 할 수 있으며, 교육자용 및 학습자용 마스터 로봇(1) 각각의 모니터부(6)에는 수술 경과의 확인을 위해 복강경(5)을 통해 입력된 영상이 표시되도록 할 수 있다. 이에 비해, 학습자용 마스터 로봇(1)의 암 조작부(330)가 조작되면 상응하는 조작신호가 교육자용 마스터 로봇(1)으로만 제공되고 슬레이브 로봇(2)으로는 전달되지 않도록 할 수 있다. 이와 같이, 교육자의 조작은 제1 모드에서 기능되도록 하되, 학습자의 조작은 제3 모드에서 기능되도록 할 수 있다. 교육 모드인 제4 모드에서의 동작에 대해서는 이후 관련 도면을 참조하여 상세히 설명한다.In the case where the master robot 1 and / or the slave robot 2 operate in the fourth mode in the education mode, the learner (ie, the student) or the educator (ie, the teacher) of the arm operation unit 330 is operated. The signal may be transmitted to the master robot 1 operated by an educator or learner. To this end, two or more master robots 1 may be connected to one slave robot 2, or a separate master robot 1 may be connected to the master robot 1. In this case, when the arm operation unit 330 of the master robot 1 for educators is operated, a corresponding operation signal may be transmitted to the slave robot 2, and each monitor unit of the master robot 1 for educators and learners is provided. In (6), the image input through the laparoscope (5) can be displayed to confirm the operation progress. On the contrary, when the arm operation unit 330 of the learner master robot 1 is operated, the corresponding operation signal may be provided only to the master master robot 1 for education, and may not be transmitted to the slave robot 2. In this manner, the educator's operation can be operated in the first mode, but the learner's operation can be made in the third mode. Operation in the fourth mode, which is the education mode, will be described in detail with reference to the accompanying drawings.

시뮬레이션 모드인 제5 모드에서 동작하는 경우, 마스터 로봇(1)은 3차원 모델링된 3차원 형상의 장기의 특성(예를 들어, 형상, 질감, 절제시의 촉감 등)을 이용하는 수술 시뮬레이터로 기능하게 된다. 즉, 제5 모드는 제3 모드인 가상 모드가 진화된 것으로 이해될 수 있으며, 입체 내시경 등을 이용하여 얻은 3차원 형상에 장기의 특성을 결합하여 수술 시뮬레이터로 동작하는 것이다. When operating in the fifth mode, which is the simulation mode, the master robot 1 functions as a surgical simulator using characteristics of organs of the three-dimensional modeled three-dimensional shape (for example, shape, texture, and tactile feel during ablation). do. That is, the fifth mode may be understood as the evolution of the virtual mode, which is the third mode, to operate as a surgical simulator by combining the characteristics of organs with a three-dimensional shape obtained using a stereoscopic endoscope or the like.

만일, 화면 표시부(320)를 통해 간(肝)이 출력되었다면, 입체 내시경을 이용하여 간의 형상이 3차원적으로 파악될 수 있고, 수학적으로 모델링된 간의 특성 정보(이는 저장부(도시되지 않음)에 미리 저장될 수 있음)와 매칭시켜 수술 도중 가상모드에서 수술 시뮬레이션을 해볼 수 있다. 예를 들어, 실제로 간을 절제하기 전에 간의 형상에 간의 특성정보를 매칭시킨 상태에서 어떤 방향에서 어떻게 간을 절제하여야 적절한지 미리 수술 시뮬레이션을 해볼 수도 있다. 아울러 수학적 모델링 정보 및 특성 정보를 바탕으로 어느 부분이 단단한지 어느 부분이 연한지 수술시의 촉감을 미리 느껴볼 수도 있다. 이 경우, 3차원적으로 얻은 장기의 표면 형상 정보를 CT(Computer Tomography) 또는/및 MRI(Magnetic Resonance Imaging) 영상 등을 참조하여 재구성한 장기 표면의 3차원 형상과 정합하고, CT, MRI 영상 등으로부터 재구성한 장기 내부의 3차원 형상과 수학적 모델링 정보를 정합하면 보다 사실적인 수술 시뮬레이션이 가능해질 수 있다.If the liver is output through the screen display unit 320, the shape of the liver may be grasped three-dimensionally by using a stereoscopic endoscope, and the characteristic information of the liver modeled mathematically (this is a storage unit (not shown)) Can be stored in advance in the virtual mode during surgery. For example, before actually cutting the liver, surgery simulation may be performed in advance on how and in what direction the liver should be excised while matching the characteristics of the liver to the shape of the liver. In addition, based on mathematical modeling information and characteristic information, it is possible to feel in advance the touch of which part is hard or which part is soft. In this case, the surface shape information of the organ obtained three-dimensionally is matched with the three-dimensional shape of the organ surface reconstructed with reference to CT (Computer Tomography) or MRI (Magnetic Resonance Imaging) image, and the like. Matching mathematical modeling information with the three-dimensional shape of the organs reconstructed from can enable more realistic surgical simulation.

이제까지 제1 모드 내지 제5 모드의 구동모드들에 대해 설명하였으나, 이외에도 다양한 목적에 따른 구동모드의 추가가 가능할 수 있다.The driving modes of the first to fifth modes have been described so far, but it may be possible to add the driving mode according to various purposes.

또한, 각 모드에서 마스터 로봇(1)이 구동되도록 하는 경우, 수술자는 현재의 구동모드가 무엇인지 혼동될 수 있다. 보다 명확한 구동모드의 식별이 가능하도록 화면 표시부(320)를 통해 모드 표시자가 더 표시되도록 할 수 있다.In addition, when the master robot 1 is driven in each mode, the operator may be confused about what the current driving mode is. The mode indicator may be further displayed through the screen display unit 320 to identify the driving mode more clearly.

도 4b에 수술 부위와 실제 수술도구(460)가 표시되는 화면상에 모드 표시자가 더 표시되는 표시 형태가 예시되어 있다. 모드 표시자는 현재 어떤 구동모드에서 구동 중인지를 명확히 인식할 수 있도록 하기 위한 것으로, 메시지(450), 테두리 색상(480) 등으로 다양할 수 있다. 이외에도, 모드 표시자는 아이콘, 배경 색상 등으로 구현될 수도 있으며, 하나의 모드 표시자만이 표시되거나 둘 이상의 모드 표시자가 함께 표시되도록 할 수도 있다.4B illustrates a display form in which a mode indicator is further displayed on a screen on which a surgical site and an actual surgical tool 460 are displayed. The mode indicator is for clearly recognizing which driving mode is currently being driven. The mode indicator may vary with the message 450 and the border color 480. In addition, the mode indicator may be implemented with an icon, a background color, or the like, and only one mode indicator may be displayed or two or more mode indicators may be displayed together.

도 5는 본 발명의 일 실시예에 따른 제1 모드와 제2 모드의 구동모드 선택 과정을 나타낸 순서도이고, 도 6은 본 발명의 일 실시예에 따른 제2 모드에서 모니터부를 통해 출력되는 화면 표시의 예시도이다.5 is a flowchart illustrating a driving mode selection process of a first mode and a second mode according to an embodiment of the present invention, and FIG. 6 is a screen display output through a monitor unit in a second mode according to an embodiment of the present invention. An illustration of the.

도 5에는 제1 모드 또는 제2 모드 중 어느 하나가 선택되도록 하는 경우가 가정되었으나, 도 4a에 예시된 바와 같이 구동모드가 제1 모드 내지 도 5 모드로 적용되는 경우라면 이후 설명되는 단계 520에서의 모드 선택 입력은 제1 모드 내지 도 5 모드 중 어느 하나에 대한 것일 수 있을 것이다.In FIG. 5, it is assumed that one of the first mode and the second mode is selected. However, if the driving mode is applied to the first to fifth modes as illustrated in FIG. 4A, in operation 520 described below. The mode selection input of may be for any one of the first mode to FIG. 5 mode.

도 5를 참조하면, 단계 510에서 수술 로봇 시스템이 구동 개시된다. 수술 로봇 시스템의 구동 개시 후 복강경(5)을 통해 입력되는 영상이 마스터 로봇(1)의 모니터부(6)를 통해 출력될 것이다.Referring to FIG. 5, in operation 510, the surgical robot system is driven. After the driving of the surgical robot system starts, the image input through the laparoscope 5 will be output through the monitor unit 6 of the master robot 1.

단계 520에서 마스터 로봇(1)은 수술자로부터 구동모드의 선택을 입력받는다. 구동모드의 선택은 예를 들어 기구적으로 구현된 클러치 버튼(14)이나 페달(도시되지 않음) 등의 누름이나 모니터부(6)를 통해 표시되는 기능메뉴 또는 모드선택 메뉴 등을 이용하여 이루어질 수 있을 것이다. In operation 520, the master robot 1 receives a selection of a driving mode from an operator. Selection of the driving mode may be made by, for example, pressing a mechanically implemented clutch button 14 or a pedal (not shown) or using a function menu or mode selection menu displayed through the monitor unit 6. There will be.

단계 520에서 만일 제1 모드가 선택되었다면, 마스터 로봇(1)은 실제모드인 구동모드로 동작하며, 복강경(5)으로부터 입력되는 화상을 모니터부(6)에 디스플레이한다. If the first mode is selected in step 520, the master robot 1 operates in the driving mode, which is the actual mode, and displays the image input from the laparoscope 5 on the monitor unit 6.

그러나, 만일 단계 520에서 만일 제2 모드가 선택되었다면, 마스터 로봇(1)은 비교모드인 구동모드로 동작하며, 복강경(5)으로부터 입력되는 화상뿐 아니라 암 조작부(330) 조작에 따른 조작정보에 의해 제어되는 가상 수술도구가 함께 모니터부(6)에 디스플레이한다. However, if the second mode is selected in step 520, the master robot 1 operates in the drive mode of the comparison mode, and not only the image input from the laparoscope 5 but also the operation information according to the operation of the arm operating unit 330. The virtual surgical tool controlled by the display is displayed on the monitor unit 6 together.

도 6에는 제2 모드에서 모니터부(6)를 통해 출력되는 화면 표시 형태가 예시되어 있다.6 illustrates a screen display form output through the monitor unit 6 in the second mode.

도 6에 예시된 바와 같이, 비교 모드에서 화면상에는 복강경(5)에 의해 입 력되어 제공되는 영상(즉, 수술 부위와 실제 수술도구(460)가 표시되는 영상)과 암 조작부(330)에 따른 조작 정보에 의해 제어되는 가상 수술도구(610)가 함께 표시된다. As illustrated in FIG. 6, in the comparison mode, an image provided by the laparoscope 5 is provided on the screen (that is, an image in which the surgical site and the actual surgical tool 460 are displayed) and the arm manipulation unit 330. The virtual surgical tool 610 controlled by the operation information is displayed together.

실제 수술도구(460)와 가상 수술도구(610)간의 표시 위치 등의 차이는 마스터 로봇(1)과 슬레이브 로봇(2)간의 네트워크 통신 속도에 의해 야기되는 것이며, 소정의 시간이 경과된 후 실제 수술도구(460)는 현재 가상 수술도구(610)가 표시된 위치로 이동되어 표시될 것이다. The difference in the display position between the actual surgical tool 460 and the virtual surgical tool 610 is caused by the network communication speed between the master robot 1 and the slave robot 2, and after a predetermined time elapses, the actual surgery The tool 460 will be moved to the location where the current virtual surgical tool 610 is displayed.

도 6에는 실제 수술도구(460)와의 구분의 편의를 위해 가상 수술도구(610)가 화살표 모양으로 예시되었으나, 가상 수술도구(610)의 표시 형상은 실제 수술도구의 표시 형상과 동일하게 처리하거나 상호간의 식별 편의를 위해 반투명 형태, 외곽선만 존재하는 점선 도형 등과 같이 다양하게 표현할 수도 있다. 가상 수술도구(610)의 표시 여부 및 표시 형태 등에 대해서는 이후 관련 도면을 참조하여 다시 설명하기로 한다.In FIG. 6, the virtual surgical tool 610 is illustrated in the shape of an arrow for convenience of distinguishing it from the actual surgical tool 460, but the display shape of the virtual surgical tool 610 is the same as the display shape of the actual surgical tool or mutually. For convenience of identification, it may be expressed in various ways, such as a semi-transparent form and a dotted line having only an outline. Whether the virtual surgical tool 610 is displayed or not will be described later with reference to the accompanying drawings.

또한, 복강경(5)에 의해 입력되어 제공되는 영상과 가상 수술도구(610)가 함께 표시되도록 하는 방법은 예를 들어 복강경 영상 상부에 가상 수술도구(610)가 오버랩되어 표시되도록 하는 방법, 복강경 영상 및 가상 수술도구(610)가 하나의 영상으로 재구성되어 표시되도록 하는 방법 등 다양할 수 있을 것이다.In addition, a method for displaying the image and the input provided by the laparoscopic 5 and the virtual surgical tool 610 together, for example, a method such that the virtual surgical tool 610 is displayed overlapped on the laparoscopic image, laparoscopic image And a method such that the virtual surgical tool 610 is reconstructed and displayed as one image.

도 7은 본 발명의 일 실시예에 따른 증강현실 구현부(350)의 세부 구성을 나타낸 도면이고, 도 8은 본 발명의 일 실시예에 따른 제2 모드에서의 마스터 로 봇(1)의 구동방법을 나타낸 순서도이다.7 is a view showing a detailed configuration of the augmented reality implementation unit 350 according to an embodiment of the present invention, Figure 8 is a drive of the master robot 1 in the second mode according to an embodiment of the present invention A flowchart illustrating the method.

도 7을 참조하면, 증강현실 구현부(350)는 특성값 연산부(710), 가상 수술도구 생성부(720), 테스트 신호 처리부(730), 지연시간 산출부(740)를 포함한다. 증강현실 구현부(350)의 구성 요소 중 일부 구성 요소(예를 들어, 테스트 신호 처리부(730), 지연시간 산출부(740) 등)는 생략될 수 있으며, 일부 구성 요소(예를 들어, 슬레이브 로봇(2)으로부터 수신된 생체 정보를 화면 표시부(320)를 통해 출력 가능하도록 처리하기 위한 구성 요소 등)가 더 추가될 수도 있다. 증강현실 구현부(350)에 포함된 하나 이상의 구성 요소들은 프로그램 코드들의 조합에 의한 소프트웨어 프로그램의 형태로 구현될 수도 있다.Referring to FIG. 7, the augmented reality implementation unit 350 includes a characteristic value calculator 710, a virtual surgical tool generator 720, a test signal processor 730, and a delay time calculator 740. Some components (for example, the test signal processor 730 and the delay time calculator 740, etc.) of the components of the augmented reality implementation unit 350 may be omitted, and some components (for example, slaves). Components for processing the biometric information received from the robot 2 to be output through the screen display unit 320). One or more components included in the augmented reality implementation unit 350 may be implemented in the form of a software program by a combination of program codes.

특성값 연산부(710)는 슬레이브 로봇(2)의 복강경(5)에 의해 입력되어 제공되는 영상 및/또는 로봇 암(3)에 결합된 실제 수술도구의 위치에 대한 좌표정보 등을 이용하여 특성값을 연산한다. 실제 수술도구의 위치는 슬레이브 로봇(2)의 로봇 암(3)의 위치값을 참조하여 인식할 수 있으며, 해당 위치에 대한 정보는 슬레이브 로봇(2)으로부터 마스터 로봇(1)으로 제공될 수도 있다.The characteristic value calculator 710 uses the characteristic value by using the image inputted by the laparoscope 5 of the slave robot 2 and / or the coordinate information on the position of the actual surgical tool coupled to the robot arm 3. Calculate The actual position of the surgical tool can be recognized by referring to the position value of the robot arm 3 of the slave robot 2, the information about the position may be provided from the slave robot 2 to the master robot (1). .

특성값 연산부(710)는 예를 들어 복강경(5)에 의한 영상 등을 이용하여 복강경(5)의 화각(FOV, Field of View), 확대율, 관점(예를 들어, 보는 방향), 보는 깊이 등과, 실제 수술도구(460)의 종류, 방향, 깊이, 꺽인 정도 등의 특성값을 연산할 수 있다. 복강경(5)에 의한 영상을 이용하여 특성값을 연산하는 경우, 해당 영상에 포함된 피사체의 외곽선 추출, 형상 인식, 기울어진 각도 등을 인식하기 위한 영상 인식 기술이 이용될 수도 있다. 또한, 실제 수술도구(460)의 종류 등은 로 봇 암(3)에 해당 수술도구를 결합하는 과정 등에서 미리 입력될 수도 있다.The characteristic value calculator 710 may use, for example, a field of view (FOV), an enlargement ratio, a perspective (for example, a viewing direction), a viewing depth, etc. of the laparoscope 5 using an image by the laparoscope 5. In addition, the type of the actual surgical tool 460, the direction, the depth, the degree of bending and the like can be calculated. When the characteristic value is calculated using the image of the laparoscope 5, an image recognition technique for recognizing the outline of the subject included in the image, shape recognition, tilt angle, or the like may be used. In addition, the type of the actual surgical tool 460 may be input in advance in the process of coupling the corresponding surgical tool to the robot arm (3).

가상 수술도구 생성부(720)는 수술자의 로봇 암(3) 조작에 따른 조작정보를 참조하여 화면 표시부(320)를 통해 출력될 가상 수술도구(610)를 생성한다. 가상 수술도구(610)가 최초로 표시되는 위치는 예를 들어 화면 표시부(320)를 통해 실제 수술도구(460)가 표시된 표시 위치를 기준할 수 있으며, 암 조작부(330)의 조작에 따라 조작되는 가상 수술도구(610)의 이동 변위는 예를 들어 조작신호에 상응하여 실제 수술도구(460)가 이동되는 실측값을 참조하여 사전에 설정될 수 있을 것이다. The virtual surgical tool generation unit 720 generates a virtual surgical tool 610 to be output through the screen display unit 320 with reference to the operation information according to the operation of the operator's robot arm (3). The position at which the virtual surgical tool 610 is initially displayed may be based on the display position at which the actual surgical tool 460 is displayed through the screen display 320, for example, and is manipulated according to the operation of the arm manipulation unit 330. The movement displacement of the surgical tool 610 may be set in advance with reference to the measured value at which the actual surgical tool 460 is moved in correspondence with the manipulation signal, for example.

가상 수술도구 생성부(720)는 가상 수술도구(610)가 화면 표시부(320)를 통해 출력되도록 하기 위한 가상 수술도구 정보(예를 들어, 가상 수술도구의 표출을 위한 특성값)만을 생성할 수도 있다. 가상 수술도구 생성부(720)는 조작정보에 따른 가상 수술도구(610)의 형상이나 위치를 결정함에 있어 특성값 연산부(710)에 의해 연산된 특성값이나 가상 수술도구(610) 표출을 위해 이용했던 직전의 특성값 등을 참조할 수도 있다. 이는 가상 수술도구(710) 또는 실제 수술도구(460)가 이전의 모양(예를 들어, 기울어진 각도 등)과 동일한 상태에서 평행이동 조작만이 이루어진 경우 신속하게 해당 정보를 생성할 수 있도록 하기 위함이다.The virtual surgical tool generating unit 720 may generate only the virtual surgical tool information (for example, a characteristic value for the display of the virtual surgical tool) for the virtual surgical tool 610 is output through the screen display unit 320. have. The virtual surgical tool generating unit 720 is used to express the characteristic value or the virtual surgical tool 610 calculated by the characteristic value calculating unit 710 in determining the shape or position of the virtual surgical tool 610 according to the operation information. You can also refer to the characteristic value just before. This is to enable the virtual surgical tool 710 or the actual surgical tool 460 to quickly generate the corresponding information when only the translation operation is performed in the same state as the previous shape (for example, the inclined angle, etc.). to be.

테스트 신호 처리부(730)는 마스터 로봇(1)과 슬레이브 로봇(2)간의 네트워크 통신 속도가 어느 정도인지를 판단할 수 있도록 테스트 신호를 슬레이브 로봇(2)으로 전송하고, 슬레이브 로봇(2)으로부터 응답 신호를 수신한다. 테스트 신호 처리부(730)에 의해 전송되는 테스트 신호는 예를 들어 마스터 로봇(1)과 슬레이브 로봇(2)간에 송수신되는 제어 신호에 타임스탬프(time stamp) 형태로 포함되 어 사용되는 통상적인 신호이거나 네트워크 통신 속도를 측정하기 위해 추가적으로 이용되는 신호일 수 있다. 또한 테스트 신호가 송수신되는 매 시점들 중 일부의 시점에서만 네트워크 통신 속도의 측정이 이루어지도록 미리 지정될 수도 있다.The test signal processor 730 transmits a test signal to the slave robot 2 so as to determine what network communication speed is between the master robot 1 and the slave robot 2, and responds from the slave robot 2. Receive the signal. The test signal transmitted by the test signal processing unit 730 is a typical signal that is included in the form of a time stamp in a control signal transmitted and received between the master robot 1 and the slave robot 2, for example. It may be a signal additionally used to measure the network communication speed. In addition, the network communication speed may be previously determined to be measured only at some of the time points at which the test signal is transmitted and received.

지연시간 산출부(740)는 테스트 신호의 전송 시각과 응답 신호의 수신 시각을 이용하여 네트워크 통신상의 지연시간을 산출한다. 마스터 로봇(1)에서 슬레이브 로봇(2)으로 임의의 신호를 전송하는 구간과 마스터 로봇(1)이 슬레이브 로봇(2)으로부터 임의의 신호를 수신하는 구간의 네트워크 통신 속도가 동일하다면 지연시간은 예를 들어 테스트 신호의 전송 시각과 응답 신호의 수신 시각간의 차이값의 1/2일 수 있다. 이는, 슬레이브 로봇은 마스터 로봇(1)으로부터 조작신호가 수신되면 즉시 상응하는 처리를 수행할 것이기 때문이다. 물론, 지연시간에는 슬레이브 로봇(2)에서 조작신호에 따른 로봇 암(3) 제어 등의 처리를 수행하기 위한 처리 지연시간이 더 포함될 수도 있을 것이다. 다른 예로서, 네트워크 통신상의 지연시간은 수술자의 조작 시각과 관찰 시각간의 차이가 중시되는 경우라면, 지연시각은 전송 시각과 응답 신호의 수신 시각(예를 들어, 표시부를 통해 수술자의 조작 결과가 표시되는 시각)간의 차이값으로 산출될 수도 있을 것이다. 이외에도 지연시간을 산출하는 방식은 다양할 수 있다.The delay time calculator 740 calculates a delay time in network communication using the transmission time of the test signal and the reception time of the response signal. If the network communication speed is the same in a section in which the master robot 1 transmits an arbitrary signal to the slave robot 2 and in a section in which the master robot 1 receives an arbitrary signal from the slave robot 2, the delay time is YES. For example, it may be 1/2 of the difference between the transmission time of the test signal and the reception time of the response signal. This is because the slave robot will immediately perform the corresponding processing when an operation signal is received from the master robot 1. Of course, the delay time may further include a processing delay time for performing a process such as controlling the robot arm 3 according to the manipulation signal in the slave robot 2. As another example, if the delay time in the network communication is important when the difference between the operator's operation time and the observation time is important, the delay time may indicate the operation time of the operator through the transmission time and the reception time of the response signal (for example, the display unit). The time difference may be calculated as the difference value. In addition, the method of calculating the delay time may vary.

만일 지연시간이 미리 지정된 임계값(예를 들어, 150ms) 이하라면 실제 수술도구(460)와 가상 수술도구(610)간의 표시 위치의 차이 등이 크지 않을 것이다. 이 경우, 가상 수술도구 생성부(720)는 가상 수술도구(610)가 화면 표시부(320)를 통해 표시되지 않도록 할 수 있다. 이는, 실제 수술도구(460)와 가상 수술도 구(610)가 일치 또는 매우 근접한 위치에 이중으로 표시됨으로써 수술자의 혼동을 야기할 필요가 없기 때문이다.If the delay time is less than or equal to a predetermined threshold (eg, 150 ms), the difference in the display position between the actual surgical tool 460 and the virtual surgical tool 610 will not be large. In this case, the virtual surgical tool generation unit 720 may prevent the virtual surgical tool 610 from being displayed through the screen display unit 320. This is because the actual surgical tool 460 and the virtual surgical tool 610 are displayed in duplicate in a coincident or very close position so that there is no need to cause operator confusion.

그러나 만일 지연시간이 미리 지정된 임계값(예를 들어, 150ms)을 초과하면 실제 수술도구(460)와 가상 수술도구(610)간의 표시 위치의 차이 등이 클 수 있다. 이 경우, 가상 수술도구 생성부(720)는 가상 수술도구(610)가 화면 표시부(320)를 통해 표시되도록 할 수 있다. 이는, 수술자의 암 조작부(330) 조작 상황과 실제 수술도구(460)의 조작 상황이 실시간적으로 일치하지 않아 야기되는 수술자의 혼동을 제거하기 위함이며, 수술자가 가상 수술도구(610)를 참조하여 수술하더라도 실제 수술도구(460)가 가상 수술도구(610)의 조작 형태대로 후속하여 조작될 것이기 때문이다.However, if the delay time exceeds a predetermined threshold (eg, 150 ms), the difference in the display position between the actual surgical tool 460 and the virtual surgical tool 610 may be large. In this case, the virtual surgical tool generation unit 720 may allow the virtual surgical tool 610 to be displayed through the screen display unit 320. This is to remove the operator's confusion caused by the operation situation of the operator's cancer operation unit 330 and the operation state of the actual surgical tool 460 in real time, the operator with reference to the virtual surgical tool 610 This is because the actual surgical tool 460 is subsequently operated in the operation form of the virtual surgical tool 610 even if the surgery.

도 8에는 제2 모드에서의 마스터 로봇(1)의 구동방법을 나타낸 순서도가 예시되어 있다. 순서도의 각 단계를 설명함에 있어, 설명 및 이해의 편의를 위해 마스터 로봇(1)이 각 단계를 수행하는 것으로 설명하기로 한다.8 is a flowchart illustrating a method of driving the master robot 1 in the second mode. In describing each step of the flowchart, it will be described that the master robot 1 performs each step for convenience of explanation and understanding.

도 8을 참조하면, 단계 810에서 마스터 로봇(1)은 네트워크 통신 속도를 측정하기 위해 테스트 신호를 생성하여 유선 또는 무선 통신망을 통해 슬레이브 로봇(2)으로 전송한다.Referring to FIG. 8, in operation 810, the master robot 1 generates a test signal and transmits a test signal to the slave robot 2 through a wired or wireless communication network.

단계 820에서 마스터 로봇(1)은 슬레이브 로봇(2)로부터 테스트 신호에 대한 응답 신호를 수신한다.In operation 820, the master robot 1 receives a response signal to the test signal from the slave robot 2.

단계 830에서 마스터 로봇(1)은 테스트 신호의 전송 시각과 응답 신호의 수신 시각을 이용하여 네트워크 통신 속도상의 지연시간을 산출한다. In step 830, the master robot 1 calculates a delay time on the network communication speed using the transmission time of the test signal and the reception time of the response signal.

이어서, 단계 840에서 마스터 로봇(1)은 산출된 지연시간이 미리 설정된 임계값 이하인지 여부를 판단한다. 여기서, 임계값은 수술 로봇 시스템을 이용하여 수술자의 원활한 수술 진행을 위해 요구되는 네트워크 통신 속도상의 지연 시간이며, 실험적 및/또는 통계적인 방법으로 결정되어 적용될 수 있다.In operation 840, the master robot 1 determines whether the calculated delay time is equal to or less than a preset threshold. Here, the threshold value is a delay time in network communication speed required for the smooth operation of the operator using the surgical robot system, and may be determined and applied in an experimental and / or statistical manner.

만일, 산출된 지연시간이 미리 설정된 임계값 이하라면 단계 850으로 진행하여 마스터 로봇(1)은 화면 표시부(320)에 복강경(5)을 통해 입력된 영상(즉, 수술 부위와 실제 수술도구(460)를 포함하는 영상)이 표시되도록 처리한다. 이때, 가상 수술도구(610)는 표시되지 않을 수 있다. 물론, 이 경우에도 가상 수술도구(610)와 실제 수술도구(460)가 함께 표시되도록 할 수도 있을 것이다.If the calculated delay time is less than or equal to a predetermined threshold value, the process proceeds to step 850 where the master robot 1 inputs the image input through the laparoscope 5 to the screen display 320 (that is, the surgical site and the actual surgical tool 460). Image), which is displayed on the screen, to be displayed. At this time, the virtual surgical tool 610 may not be displayed. Of course, even in this case, the virtual surgical tool 610 and the actual surgical tool 460 may be displayed together.

그러나, 산출된 지연시간이 미리 설정된 임계값을 초과하는 경우라면 단계 860으로 진행하여 마스터 로봇(1)은 화면 표시부(320)에 복강경(5)을 통해 입력된 영상(즉, 수술 부위와 실제 수술도구(460)를 포함하는 영상)과 함께 가상 수술도구(610)가 표시되도록 처리할 수 있다. 물론, 이 경우에도 가상 수술도구(610)가 표시되지 않도록 할 수도 있을 것이다.However, if the calculated delay time exceeds the preset threshold, the process proceeds to step 860 where the master robot 1 inputs the image (that is, the surgical site and the actual surgery) input through the laparoscope 5 to the screen display 320. And the virtual surgical tool 610 is displayed together with the image including the tool 460. Of course, even in this case, the virtual surgical tool 610 may not be displayed.

도 9는 본 발명의 다른 실시예에 따른 증강현실 구현부(350)의 세부 구성을 나타낸 도면이고, 도 10 및 도 11은 각각 본 발명의 다른 실시예에 따른 제2 모드에서의 마스터 로봇(1)의 구동방법을 나타낸 순서도이다.9 is a view showing a detailed configuration of the augmented reality implementation unit 350 according to another embodiment of the present invention, Figures 10 and 11 are each a master robot 1 in the second mode according to another embodiment of the present invention; ) Is a flow chart showing the driving method.

도 9를 참조하면, 증강현실 구현부(350)는 특성값 연산부(710), 가상 수술도구 생성부(720), 간격 연산부(910), 영상 해석부(920)를 포함한다. 증강현실 구 현부(350)의 구성 요소 중 일부 구성 요소는 생략될 수 있으며, 일부 구성 요소(예를 들어, 슬레이브 로봇(2)으로부터 수신된 생체 정보를 화면 표시부(320)를 통해 출력 가능하도록 처리하기 위한 구성 요소 등)가 더 추가될 수도 있다. 증강현실 구현부(350)에 포함된 하나 이상의 구성 요소들은 프로그램 코드들의 조합에 의한 소프트웨어 프로그램의 형태로 구현될 수도 있다.Referring to FIG. 9, the augmented reality implementation unit 350 may include a feature value calculator 710, a virtual surgical tool generator 720, an interval calculator 910, and an image analyzer 920. Some components of the components of the augmented reality implementation unit 350 may be omitted, and may process some components (for example, outputting biometric information received from the slave robot 2 through the screen display unit 320). Components, etc.) may be further added. One or more components included in the augmented reality implementation unit 350 may be implemented in the form of a software program by a combination of program codes.

특성값 연산부(710)는 슬레이브 로봇(2)의 복강경(5)에 의해 입력되어 제공되는 영상 및/또는 로봇 암(3)에 결합된 실제 수술도구의 위치에 대한 좌표정보 등을 이용하여 특성값을 연산한다. 특성값은 예를 들어 복강경(5)의 화각(FOV, Field of View), 확대율, 관점(예를 들어, 보는 방향), 보는 깊이 등과, 실제 수술도구(460)의 종류, 방향, 깊이, 꺽인 정도 등 중 하나 이상을 포함할 수 있다. The characteristic value calculator 710 uses the characteristic value by using the image inputted by the laparoscope 5 of the slave robot 2 and / or the coordinate information on the position of the actual surgical tool coupled to the robot arm 3. Calculate The characteristic value may be, for example, the field of view (FOV), magnification, perspective (for example, viewing direction), viewing depth, etc. of the laparoscope 5, and the type, direction, depth, and bending of the actual surgical tool 460. Degree or the like.

가상 수술도구 생성부(720)는 수술자의 로봇 암(3) 조작에 따른 조작정보를 참조하여 화면 표시부(320)를 통해 출력될 가상 수술도구(610)를 생성한다. The virtual surgical tool generation unit 720 generates a virtual surgical tool 610 to be output through the screen display unit 320 with reference to the operation information according to the operation of the operator's robot arm (3).

간격 연산부(910)는 특성값 연산부(710)를 통해 연산된 실제 수술도구(460)의 위치좌표와 암 조작부(330) 조작에 연동되는 가상 수술도구(610)의 위치좌표를 이용하여 각 수술도구간의 간격을 연산한다. 예를 들어, 가상 수술도구(610)와 실제 수술도구(460)의 위치 좌표가 각각 결정되면 두 점을 연결하는 선분의 길이로서 연산될 수 있다. 여기서, 위치 좌표는 예를 들어 x-y-z 축으로 규정되는 3차원 공간상의 한 점의 좌표값일 수 있으며, 해당 한 점은 가상 수술도구(610) 및 실제 수술도구(460)상의 특정 위치의 한 점으로 미리 지정될 수 있다. 이외에도, 각 수술도구간의 간격은 조작 방법에 의해 생성되는 경로 또는 궤적의 길이 등이 더 이용 될 수 있다. 예를 들어 원(circle)을 그리는 경우 시간차가 원을 그리는 시간만큼 존재할 때 각 수술도구간의 선분의 길이는 매우 작아지지만 경로 또는 궤적상 차이는 조작 방법에 의해 생성된 원의 원주만큼 발생될 수 있기 때문이다.The interval calculator 910 uses the position coordinates of the actual surgical tool 460 calculated through the characteristic value calculator 710 and the position coordinates of the virtual surgical tool 610 linked to the operation of the arm operator 330. Calculate the interval of. For example, if the position coordinates of the virtual surgical tool 610 and the actual surgical tool 460 are determined, respectively, it may be calculated as the length of a line connecting two points. Here, the position coordinate may be, for example, a coordinate value of a point in three-dimensional space defined by the xyz axis, and the point is previously a point of a specific position on the virtual surgical tool 610 and the actual surgical tool 460. Can be specified. In addition, the interval between the surgical instruments may be further used, such as the length of the path or trajectory generated by the operation method. For example, in the case of drawing a circle, when the time difference exists for the time of drawing the circle, the length of the line segment between each surgical tool becomes very small, but the difference in path or trajectory may be generated as the circumference of the circle generated by the manipulation method. Because.

간격 연산을 위해 이용되는 실제 수술도구(460)의 위치좌표는 절대 좌표값으로 이용되거나 특정 지점을 기준으로 연산된 상대 좌표값으로 이용되거나, 화면 표시부(320)를 통해 표시되는 실제 수술도구(460)의 위치를 좌표화하여 이용할 수도 있다. 마찬가지로, 가상 수술도구(610)의 위치좌표도 가상 수술도구(610)의 초기 위치를 기준으로 암 조작부(330) 조작에 의해 이동된 가상의 위치를 절대 좌표화하여 이용하거나 특정 지점을 기준으로 연산된 상대 좌표값으로 이용되거나, 화면 표시부(320)를 통해 표시되는 가상 수술도구(610)의 위치를 좌표화하여 이용할 수도 있다. 여기서, 화면 표시부(320)를 통해 표시되는 각 수술도구의 위치를 해석하기 위해 이하에서 설명될 영상 해석부(920)에 의해 해석된 특징 정보가 이용될 수도 있다. The position coordinates of the actual surgical tool 460 used for the interval calculation may be used as an absolute coordinate value or a relative coordinate value calculated based on a specific point, or the actual surgical tool 460 displayed through the screen display 320. ) Can be used by coordinates. Similarly, the position coordinates of the virtual surgical tool 610 are also used as the absolute coordinates of the virtual position moved by the operation of the arm operation unit 330 based on the initial position of the virtual surgical tool 610 or calculated based on a specific point. The relative coordinate value may be used, or the position of the virtual surgical tool 610 displayed through the screen display unit 320 may be coordinated. Here, the feature information analyzed by the image analyzer 920 to be described below may be used to interpret the position of each surgical tool displayed through the screen display unit 320.

가상 수술도구(610)와 실제 수술도구(460)간의 간격이 좁거나 0인 경우 네트워크 통신 속도가 양호한 것으로 이해될 수 있으나, 간격이 넓은 경우라면 네트워크 통신 속도가 불충분한 것으로 이해될 수 있을 것이다. If the distance between the virtual surgical tool 610 and the actual surgical tool 460 is narrow or 0, it may be understood that the network communication speed is good, but if the interval is wide it may be understood that the network communication speed is insufficient.

가상 수술도구 생성부(720)는 간격 연산부(910)에 의해 연산된 간격 정보를 이용하여 가상 수술도구(610)의 표시 여부, 가상 수술도구(610) 표시 색상이나 표시 형태 등 중 하나 이상을 결정할 수 있다. 예를 들어, 가상 수술도구(610)와 실제 수술도구(460)간의 간격이 미리 설정한 임계값(threshold) 이하인 경우라면 가 상 수술도구(610)가 화면 표시부(320)를 통해 출력되지 않도록 할 수 있다. 또한 가상 수술도구(610)와 실제 수술도구(460)간의 간격이 미리 설정한 임계값(threshold)을 초과하는 경우 상호간의 간격에 비례하여 반투명도를 조절하거나 색상에 왜곡을 주거나 가상 수술도구(610)의 외곽선 두께를 변경하는 등의 처리를 통해 네트워크 통신 속도에 대한 수술자의 명확한 인식이 가능하도록 할 수도 있다. 여기서, 임계값은 예를 들어 5mm 등과 같은 거리값으로 지정될 수 있을 것이다.The virtual surgical tool generating unit 720 determines one or more of whether to display the virtual surgical tool 610, the display color or the display form of the virtual surgical tool 610, etc. by using the interval information calculated by the interval calculating unit 910. Can be. For example, if the distance between the virtual surgical tool 610 and the actual surgical tool 460 is less than a predetermined threshold, the virtual surgical tool 610 is not to be output through the screen display 320 Can be. In addition, when the interval between the virtual surgical tool 610 and the actual surgical tool 460 exceeds a predetermined threshold (threshold), in order to adjust the translucency in proportion to each other or to distort the color or virtual surgical tool (610 The operator may be able to clearly recognize the network communication speed through a process such as changing the thickness of the outline. Here, the threshold value may be designated as a distance value, for example, 5 mm.

영상 해석부(920)는 복강경(5)에 의해 입력되어 제공되는 영상을 이용하여 미리 설정된 특징 정보(예를 들어, 픽셀별 색상값, 실제 수술도구(460)의 위치좌표, 조작 형상 등 중 하나 이상)를 추출한다. 예를 들어, 영상 해석부(920)는 수술 도중 발생될 수 있는 응급 상황(예를 들어, 과다한 출혈 등)에 대한 즉각적 대응이 가능할 수 있도록, 해당 영상의 각 픽셀별 색상값을 해석한 후 피를 나타내는 색상값을 가지는 픽셀이 기준값 이상 존재하는지 여부를 판단하거나, 피를 나타내는 색상값을 가지는 픽셀들에 의해 형성되는 영역 또는 면적이 일정 크기 이상인지 여부를 판단할 수 있다. 또한, 영상 해석부(920)는 복강경(5)에 의해 입력된 영상 및 가상 수술도구(610)가 표시되는 화면 표시부(320)의 표시 화면을 캡쳐하여 각 수술도구의 위치좌표를 생성할 수도 있다. The image analyzer 920 may use one of preset feature information (for example, color value for each pixel, position coordinates of the actual surgical tool 460, and manipulation shape) by using the image input and provided by the laparoscope 5. Above). For example, the image analyzer 920 analyzes the color values of each pixel of the image so as to enable immediate response to an emergency situation (for example, excessive bleeding) that may occur during surgery. It may be determined whether a pixel having a color value indicating a is greater than or equal to a reference value, or whether a region or area formed by pixels having a color value indicating blood is a predetermined size or more. In addition, the image analyzer 920 may generate a position coordinate of each surgical tool by capturing a display screen of the screen display unit 320 on which the image input by the laparoscope 5 and the virtual surgical tool 610 are displayed. .

도 10에는 본 발명의 다른 실시예에 따른 제2 모드에서의 마스터 로봇(1)의 구동방법을 나타낸 순서도가 도시되어 있다.10 is a flowchart illustrating a method of driving the master robot 1 in the second mode according to another embodiment of the present invention.

도 10을 참조하면, 단계 1010에서 마스터 로봇(1)은 슬레이브 로봇(2)으로 부터 복강경 영상(즉, 복강경(5)을 통해 입력되어 제공되는 영상)을 수신한다.Referring to FIG. 10, in operation 1010, the master robot 1 receives a laparoscope image (that is, an image provided through the laparoscope 5) from the slave robot 2.

단계 1020에서 마스터 로봇(1)은 실제 수술도구(460)와 가상 수술도구(610)의 좌표 정보를 연산한다. 여기서 좌표 정보는 예를 들어 특징값 연산부(710)에 의해 연산된 특징값 및 조작 정보를 이용하여 연산되거나, 영상 해석부(920)에 의해 추출된 특징 정보가 이용될 수 있다.In operation 1020, the master robot 1 calculates coordinate information of the actual surgical tool 460 and the virtual surgical tool 610. In this case, the coordinate information may be calculated using, for example, feature values and manipulation information calculated by the feature value calculator 710, or feature information extracted by the image analyzer 920 may be used.

단계 1030에서 마스터 로봇(1)은 단계 1020에서 연산된 각 수술도구의 좌표 정보를 이용하여 상호간의 간격을 연산한다.In step 1030, the master robot 1 calculates the distance between each other using the coordinate information of each surgical tool calculated in step 1020.

단계 1040에서 마스터 로봇(1)은 연산된 간격이 임계값 이하인지 여부를 판단한다.In step 1040, the master robot 1 determines whether the calculated interval is less than or equal to the threshold.

만일 연산된 간격이 임계값 이하라면, 단계 1050으로 진행하여 마스터 로봇(1)은 화면 표시부(320)를 통해 복강경 영상을 출력하되, 가상 수술도구(610)는 표시되지 않도록 한다.If the calculated interval is less than or equal to the threshold value, the process proceeds to step 1050 where the master robot 1 outputs the laparoscope image through the screen display unit 320, but the virtual surgical tool 610 is not displayed.

그러나 만일 연산된 간격이 임계값을 초과하는 경우라면, 단계 1060으로 진행하여 마스터 로봇(1)은 화면 표시부를 통해 복강경 영상과 가상 수술도구(610)가 함께 표시되도록 한다. 이때, 상호간의 간격에 비례하여 반투명도를 조절하거나 색상에 왜곡을 주거나 가상 수술도구(610)의 외곽선 두께를 변경하는 등의 처리가 이루어질 수도 있다.However, if the calculated interval exceeds the threshold, the process proceeds to step 1060 where the master robot 1 causes the laparoscopic image and the virtual surgical tool 610 to be displayed together through the screen display. In this case, a process such as adjusting the translucency, distorting the color, or changing the thickness of the outline of the virtual surgical tool 610 may be performed in proportion to the distance between the two.

또한, 도 11에는 본 발명의 또 다른 실시예에 따른 제2 모드에서의 마스터 로봇(1)의 구동방법을 나타낸 순서도가 도시되어 있다.11 is a flow chart showing a method of driving the master robot 1 in the second mode according to another embodiment of the present invention.

도 11을 참조하면, 단계 1110에서 마스터 로봇(1)은 복강경 영상을 수신한 다. 수신된 복강경 영상은 화면 표시부(320)를 통해 출력될 것이다.Referring to FIG. 11, in operation 1110, the master robot 1 receives a laparoscope image. The received laparoscopic image will be output through the screen display 320.

단계 1120 및 단계 1130에서 마스터 로봇(1)은 수신된 복강경 영상을 해석하여, 해당 영상의 픽셀별 색상값을 연산하고 분석한다. 픽셀별 색상값의 연산은 앞서 예시한 바와 같이 영상 해석부(920)에 의해 수행되거나 영상 인식 기술이 적용되는 특성값 연산부(710)에 의해 수행될 수도 있다. 또한, 픽셀별 색상값의 분석에 의해 예를 들어 색상값 빈도, 분석의 대상이 되는 색상값을 가지는 픽셀들에 의해 형성되는 영역 또는 면적 등 중 하나 이상이 연산될 수 있다.In steps 1120 and 1130, the master robot 1 analyzes the received laparoscopic image, and calculates and analyzes color values of pixels of the corresponding image. As described above, the color value calculation for each pixel may be performed by the image analyzer 920 or by the feature value calculator 710 to which an image recognition technique is applied. In addition, one or more of, for example, a color value frequency, an area or an area formed by pixels having a color value to be analyzed may be calculated by analyzing the color value for each pixel.

단계 1140에서 마스터 로봇(1)은 단계 1130에서 분석된 정보를 토대로 응급 상황인지 여부를 판단한다. 응급 상황의 유형(예를 들어, 과다 출혈 등)이나 분석된 정보가 어떤 경우에 응급 상황으로 인지할 것인지 등에 대해서는 사전에 정의되어 있을 수 있다.In operation 1140, the master robot 1 determines whether an emergency situation is performed based on the information analyzed in operation 1130. The type of emergency (eg, excessive bleeding, etc.) and when the analyzed information will be recognized as an emergency may be predefined.

만일 응급 상황인 것으로 판단되면, 단계 1150으로 진행하여 마스터 로봇(1)은 경고 정보를 출력한다. 경고 정보는 예를 들어 화면 표시부(320)를 통해 출력되는 경고 메시지 등이거나 스피커부(도시되지 않음) 등을 통해 출력되는 경고 음향 등일 수 있다. 도 3에는 도시되지 않았으나, 경고 정보나 안내 멘트 등을 출력하기 위한 스피커부가 마스터 로봇(1)에 더 포함될 수 있음은 당연하다. 또한, 응급 상황으로 판단된 시점에서 화면 표시부(320)를 통해 가상 수술도구(610)가 함께 표시되고 있는 경우라면, 수술 부위에 대한 수술자의 정확한 판단이 가능할 수 있도록 가상 수술도구(610)가 표시되지 않도록 제어될 수도 있다.If it is determined that there is an emergency, the process proceeds to step 1150 and the master robot 1 outputs warning information. The warning information may be, for example, a warning message output through the screen display unit 320 or a warning sound output through a speaker unit (not shown). Although not shown in Figure 3, it is obvious that the speaker unit for outputting warning information or announcements may be further included in the master robot (1). In addition, when the virtual surgical tool 610 is displayed together through the screen display 320 at the time determined as an emergency, the virtual surgical tool 610 is displayed so that the operator can accurately determine the surgical site. May be controlled so as not to.

그러나 만일 응급 상황이 아닌 것으로 판단되면, 단계 1110으로 다시 진행 한다.However, if it is determined that it is not an emergency, the process proceeds to step 1110 again.

도 12는 본 발명의 또 다른 실시예에 따른 마스터 로봇과 슬레이브 로봇의 구성을 개략적으로 나타낸 블록 구성도이고, 도 13은 본 발명의 또 다른 실시예에 따른 수술 로봇 시스템의 정상 구동을 검증하는 방법을 나타낸 순서도이다.12 is a block diagram schematically showing the configuration of a master robot and a slave robot according to another embodiment of the present invention, Figure 13 is a method for verifying the normal operation of the surgical robot system according to another embodiment of the present invention Is a flow chart showing.

마스터 로봇(1)과 슬레이브 로봇(2)의 구성이 개략적으로 표시된 도 12를 참조하면, 마스터 로봇(1)은 영상 입력부(310), 화면 표시부(320), 암 조작부(330), 조작신호 생성부(340), 증강현실 구현부(350), 제어부(360) 및 네트워크 검증부(1210)를 포함한다. 슬레이브 로봇(2)은 로봇 암(3) 및 복강경(5)을 포함한다. Referring to FIG. 12, in which the configuration of the master robot 1 and the slave robot 2 is schematically illustrated, the master robot 1 generates an image input unit 310, a screen display unit 320, an arm operation unit 330, and an operation signal. The unit 340, the augmented reality implementation unit 350, a controller 360, and a network verification unit 1210 are included. The slave robot 2 comprises a robot arm 3 and a laparoscope 5.

영상 입력부(310)는 슬레이브 로봇(2)의 복강경(5)에 구비된 카메라를 통해 입력된 영상을 유선 또는 무선 통신망을 통해 수신한다.The image input unit 310 receives an image input through a camera provided in the laparoscope 5 of the slave robot 2 through a wired or wireless communication network.

화면 표시부(320)는 영상 입력부(310)를 통해 수신된 영상 및/또는 암 조작부(330) 조작에 따른 가상 수술도구(610)에 상응하는 화상 이미지를 시각(視覺)적 정보로 출력한다. The screen display unit 320 outputs an image image received through the image input unit 310 and / or an image image corresponding to the virtual surgical tool 610 according to the operation of the arm operation unit 330 as visual information.

암 조작부(330)는 슬레이브 로봇(2)의 로봇 암(3)의 위치 및 기능을 수술자가 조작할 수 있도록 하는 수단이다. The arm manipulation unit 330 is a means for allowing the operator to manipulate the position and function of the robot arm 3 of the slave robot 2.

조작신호 생성부(340)는 로봇 암(3) 및/또는 복강경(5)의 위치 이동 또는 수술을 위한 조작을 위해 수술자가 암 조작부(330)를 조작하는 경우 이에 상응하는 조작신호를 생성하여 슬레이브 로봇(2)으로 전송한다. The operation signal generator 340 generates a corresponding operation signal when the operator manipulates the arm operation unit 330 for the movement of the robot arm 3 and / or the laparoscope 5 or the operation for surgery. Transfer to the robot (2).

네트워크 검증부(1210)는 특성값 연산부(710)에 의해 연산된 특성값 및 가상 수술도구 생성부(720)에 의해 생성된 가상 수술도구 정보를 이용하여 마스터 로봇(1)과 슬레이브 로봇(2)간의 네트워크 통신을 검증한다. 이를 위해, 예를 들어 특성값 중 실제 수술도구(460)의 위치정보, 방향, 깊이, 꺽인 정도 등 중 하나 이상과 가상 수술도구 정보에 따른 가상 수술도구(610)의 위치정보, 방향, 깊이, 꺽인 정도 등 중 하나 이상이 이용될 수 있으며, 특성값 및 가상수술도구 정보는 저장부(도시되지 않음)에 저장될 수 있다.The network verification unit 1210 uses the characteristic value calculated by the characteristic value calculating unit 710 and the virtual surgical tool information generated by the virtual surgical tool generating unit 720 to display the master robot 1 and the slave robot 2. Verify network communication between To this end, for example, the position information, direction, depth, of the virtual surgical tool 610 according to the virtual surgical tool information and one or more of the position information, direction, depth, degree of bending of the actual surgical tool 460 among the characteristic values One or more of the degree of bending may be used, and the characteristic value and the virtual surgical tool information may be stored in a storage unit (not shown).

본 발명의 실시예에 따르면, 수술자의 암 조작부(330) 조작에 의해 조작정보가 생성되면 이에 상응하도록 가상 수술도구(610)가 제어되며, 또한 조작정보에 상응하는 조작신호는 슬레이브 로봇(2)으로 전송되어 실제 수술도구(460)의 조작을 위해 이용된다. 또한 조작신호에 의해 조작 제어된 실제 수술도구(460)의 위치 이동 등은 복강경 영상을 통해 확인될 수 있다. 이 경우, 가상 수술도구(610)의 조작은 마스터 로봇(1) 내에서 이루어지므로, 네트워크 통신 속도 등을 고려할 때 일반적으로 실제 수술도구(460)의 조작보다 앞서 이루어지게 될 것이다. According to the exemplary embodiment of the present invention, when the operation information is generated by the operation of the operator's arm operation unit 330, the virtual surgical tool 610 is controlled to correspond thereto, and the operation signal corresponding to the operation information is slave robot 2. It is transmitted to and used for the operation of the actual surgical tool 460. In addition, the movement of the position of the actual surgical tool 460 that is manipulated and controlled by the manipulation signal may be confirmed through a laparoscope image. In this case, since the manipulation of the virtual surgical tool 610 is made in the master robot 1, the operation of the virtual surgical tool 460 will generally be made in advance in consideration of the network communication speed.

따라서, 네트워크 검증부(1210)는 실제 수술도구(460)가 시간적으로는 뒤늦으나 가상 수술도구(610)의 이동 궤적이나 조작 형태 등과 동일하게 또는 미리 설정된 오차범위 내에서 동일시될 수 있도록 조작되는지 여부를 판단함으로써 네트워크 통신이 정상적인지를 판단할 수 있다. 이를 위해, 현재 실제 수술도구(460)의 위치 등에 대한 특성값이 저장부에 저장된 가상 수술도구 정보가 이용될 수 있다. 또한, 오차 범위는 예를 들어 상호 좌표정보간의 거리값이나 일치로 인식될 때까지 의 시간값 등으로 설정될 수 있으며, 이는 예를 들어 임의적, 실험적 또는/및 통계적으로 지정될 수 있을 것이다.Accordingly, the network verification unit 1210 is operated so that the actual surgical tool 460 is delayed in time but can be identified with the same movement trajectory or operation type of the virtual surgical tool 610 or within a preset error range. It can be determined whether the network communication is normal by determining. To this end, the virtual surgical tool information stored in the storage unit, such as the current position of the actual surgical tool 460 may be used. In addition, the error range may be set to, for example, a distance value between mutual coordinate information or a time value until it is recognized as a coincidence, and the like, which may be specified arbitrarily, experimentally, and / or statistically.

또한, 네트워크 검증부(1210)는 영상 해석부(920)에 의해 해석된 특징 정보를 이용하여 네트워크 통신의 검증을 수행할 수도 있을 것이다.In addition, the network verification unit 1210 may verify network communication using the feature information interpreted by the image analyzer 920.

제어부(360)는 상술한 기능이 수행될 수 있도록 각 구성 요소들의 동작을 제어한다. 이외에도 다른 실시예들에서 예시적으로 설명한 바와 같이 제어부(360)는 추가적인 다양한 기능을 더 수행할 수도 있다.The controller 360 controls the operation of each component so that the above-described function can be performed. In addition, as described in an exemplary embodiment, the controller 360 may further perform various additional functions.

도 13에는 네트워크 통신을 검증함으로써 수술 로봇 시스템의 정상 구동 여부를 검증하는 방법이 예시되어 있다.FIG. 13 illustrates a method of verifying whether the surgical robot system is normally driven by verifying network communication.

도 13을 참조하면, 단계 1310 및 1320에서 마스터 로봇(1)은 수술자로부터 암 조작부(330) 조작을 입력받고, 암 조작부(330) 조작에 따른 조작 정보를 해석한다. 해당 조작 정보는 예를 들어 실제 수술도구(460)의 위치 이동, 수술부위의 절개 등을 위한 암 조작부(330) 조작에 따른 정보이다.Referring to FIG. 13, in steps 1310 and 1320, the master robot 1 receives a manipulation of the arm manipulation unit 330 from an operator and interprets manipulation information according to manipulation of the arm manipulation unit 330. The operation information is, for example, information according to the operation of the arm operation unit 330 for moving the position of the actual surgical tool 460, incision of the surgical site, and the like.

단계 1330에서 마스터 로봇(1)은 해석된 조작 정보를 이용하여 가상 수술도구 정보를 생성하고, 생성된 가상 수술도구 정보에 따른 가상 수술도구(610)를 화면 표시부(320)에 출력한다. 이때, 생성된 가상 수술도구 정보는 저장부(도시되지 않음)에 저장될 수 있다.In operation 1330, the master robot 1 generates virtual surgical tool information using the analyzed operation information, and outputs the virtual surgical tool 610 according to the generated virtual surgical tool information to the screen display unit 320. In this case, the generated virtual surgical tool information may be stored in a storage unit (not shown).

단계 1340에서 마스터 로봇(1)은 실제 수술도구(460)에 대한 특성값을 연산한다. 특성값의 연산은 예를 들어 특성값 연산부(710) 또는 영상 해석부(920)에 의해 수행될 수 있다.In operation 1340, the master robot 1 calculates characteristic values of the actual surgical tool 460. The calculation of the feature value may be performed by the feature value calculator 710 or the image analyzer 920, for example.

단계 1350에서 마스터 로봇(1)은 각 수술도구의 좌표값 일치점이 존재하는지 여부를 판단한다. 각 수술도구의 좌표정보가 일치 또는 오차범위 내에서 일치하는 경우 좌표값 일치점이 존재하는 것으로 판단될 수 있다. 여기서, 오차범위는 예를 들어 3차원 좌표상의 거리값 등으로 사전 설정될 수 있다. 앞서 설명한 바와 같이, 수술자의 암 조작부(330) 조작에 따른 결과가 실제 수술도구(460) 보다 가상 수술도구(610)에 대해 먼저 반영될 것이므로, 단계 1350은 실제 수술도구(460)에 대한 특성값이 저장부에 저장된 가상 수술도구 정보와 일치되는지 여부의 판단으로 수행될 수 있다. In operation 1350, the master robot 1 determines whether a coordinate value coincidence point of each surgical tool exists. If the coordinate information of each surgical tool is matched or matched within the error range, it may be determined that a coordinate value match point exists. Here, the error range may be preset with, for example, a distance value on three-dimensional coordinates. As described above, since the result of the operation of the operator's cancer operation unit 330 will be reflected to the virtual surgical tool 610 first than the actual surgical tool 460, step 1350 is a characteristic value for the actual surgical tool 460 It may be performed by determining whether or not the information matches the virtual surgical tool information stored in the storage unit.

만일 좌표값 일치점이 존재하지 않는다면 단계 1360으로 진행하여 마스터 로봇(1)은 경고 정보를 출력한다. 경고 정보는 예를 들어 화면 표시부(320)를 통해 출력되는 경고 메시지 등이거나 스피커부(도시되지 않음) 등을 통해 출력되는 경고 음향 등일 수 있다. If the coordinate value coincidence point does not exist, the process proceeds to step 1360 and the master robot 1 outputs warning information. The warning information may be, for example, a warning message output through the screen display unit 320 or a warning sound output through a speaker unit (not shown).

그러나 만일 좌표값 일치점이 존재한다면 네트워크 통신이 정상적인 것으로 판단하여 단계 1310으로 다시 진행한다.However, if there is a coordinate value coincidence point, it is determined that the network communication is normal and the process proceeds to step 1310 again.

상술한 단계 1310 내지 단계 1360은 수술자의 수술과정에서 실시간으로 수행되도록 하거나, 주기적으로 또는 사전 설정된 시점에서 수행되도록 할 수 있을 것이다.Steps 1310 to 1360 described above may be performed in real time during the operation of the operator, or may be performed periodically or at a predetermined time point.

도 14는 본 발명의 또 다른 실시예에 따른 증강현실 구현부(350)의 세부 구성을 나타낸 도면이고, 도 15 및 도 16은 각각 본 발명의 또 다른 실시예에 따른 가상 수술도구를 출력하기 위한 마스터 로봇(1)의 구동방법을 나타낸 순서도이다.14 is a view showing a detailed configuration of the augmented reality implementation unit 350 according to another embodiment of the present invention, Figures 15 and 16 are respectively for outputting a virtual surgical tool according to another embodiment of the present invention It is a flowchart showing the driving method of the master robot 1.

도 14를 참조하면, 증강현실 구현부(350)는 특성값 연산부(710), 가상 수술도구 생성부(720), 영상 해석부(920), 중첩 처리부(1410), 접촉 인식부(1420)를 포함한다. 증강현실 구현부(350)의 구성 요소 중 일부 구성 요소는 생략될 수 있으며, 일부 구성 요소(예를 들어, 슬레이브 로봇(2)으로부터 수신된 생체 정보를 화면 표시부(320)를 통해 출력 가능하도록 처리하기 위한 구성 요소 등)가 더 추가될 수도 있다. 증강현실 구현부(350)에 포함된 하나 이상의 구성 요소들은 프로그램 코드들의 조합에 의한 소프트웨어 프로그램의 형태로 구현될 수도 있다.Referring to FIG. 14, the augmented reality implementation unit 350 may include a feature value calculator 710, a virtual surgical tool generator 720, an image analyzer 920, an overlap processor 1410, and a contact recognizer 1420. Include. Some components of the components of the augmented reality implementation unit 350 may be omitted, and may process some components (for example, outputting biometric information received from the slave robot 2 through the screen display unit 320). Components, etc.) may be further added. One or more components included in the augmented reality implementation unit 350 may be implemented in the form of a software program by a combination of program codes.

특성값 연산부(710)는 슬레이브 로봇(2)의 복강경(5)에 의해 입력되어 제공되는 영상 및/또는 로봇 암(3)에 결합된 실제 수술도구의 위치에 대한 좌표정보 등을 이용하여 특성값을 연산한다. 특성값은 예를 들어 복강경(5)의 화각(FOV, Field of View), 확대율, 관점(예를 들어, 보는 방향), 보는 깊이 등과, 실제 수술도구(460)의 종류, 방향, 깊이, 꺽인 정도 등 중 하나 이상을 포함할 수 있다. The characteristic value calculator 710 uses the characteristic value by using the image inputted by the laparoscope 5 of the slave robot 2 and / or the coordinate information on the position of the actual surgical tool coupled to the robot arm 3. Calculate The characteristic value may be, for example, the field of view (FOV), magnification, perspective (for example, viewing direction), viewing depth, etc. of the laparoscope 5, and the type, direction, depth, and bending of the actual surgical tool 460. Degree or the like.

가상 수술도구 생성부(720)는 수술자의 로봇 암(3) 조작에 따른 조작정보를 참조하여 화면 표시부(320)를 통해 가상 수술도구(610)가 출력되도록 하기 위한 가상 수술도구 정보를 생성한다. The virtual surgical tool generation unit 720 generates virtual surgical tool information for outputting the virtual surgical tool 610 through the screen display 320 with reference to the operation information according to the operation of the operator's robot arm 3.

영상 해석부(920)는 복강경(5)에 의해 입력되어 제공되는 영상을 이용하여 미리 설정된 특징 정보(예를 들어, 수술 부위 내의 장기의 형상, 실제 수술도구(460)의 위치좌표, 조작 형상 등 중 하나 이상)를 추출한다. 예를 들어, 영상 해석부(920)는 복강경 영상 내에서 표시되는 장기의 외곽선 추출, 장기를 나타내는 각 픽셀들의 색상값 해석 등의 영상 인식 기술을 이용하여 표시된 장기가 무엇인지를 해석할 수 있다. 이를 위해, 저장부(도시되지 않음)에 각 장기의 형상, 색상, 3차원 공간상에서 각 장기 또는/및 수술부위가 위치하는 영역의 좌표정보 등에 대한 정보가 미리 저장될 수 있다. 또는 영상 해석부(920)가 영상 해석을 통해 해당 장기가 차지하는 영역의 좌표정보(절대좌표 또는 상대좌표)를 해석할 수도 있다.The image analyzing unit 920 may use the image input and provided by the laparoscope 5 to preset feature information (for example, the shape of an organ in a surgical site, a position coordinate of an actual surgical tool 460, an operation shape, etc.). Extract one or more). For example, the image analyzer 920 may analyze what organs are displayed by using an image recognition technique such as extracting an outline of organs displayed in a laparoscopic image and analyzing color values of pixels representing organs. To this end, the storage unit (not shown) may store in advance information about the shape, color, and coordinate information of the region where each organ and / or the surgical site is located in a three-dimensional space. Alternatively, the image analyzer 920 may analyze coordinate information (absolute coordinates or relative coordinates) of an area occupied by the corresponding organ through image analysis.

중첩 처리부(1410)는 가상 수술도구 생성부(720)에 의해 생성된 가상 수술도구 정보 및 영상 해석부(920)에 의해 인식된 장기 및/또는 수술부위의 영역 좌표 정보를 이용하여 상호간에 중첩이 발생하는지 여부를 판단하여 상응하도록 처리한다. 만일 장기의 아래쪽이나 측면 뒤쪽으로 가상 수술도구의 일부 또는 전체가 위치하게 된다면 해당 부분만큼 상호간에 중첩(즉, 가리어짐)이 발생하는 것으로 판단할 수 있으며, 가상 수술도구(610) 표시상의 사실성을 증대시키기 위해 중첩 부분에 해당되는 가상 수술도구(610)의 영역은 은폐되도록(즉, 화면 표시부(320)를 통해 표시되지 않도록) 처리한다. 해당 중첩 부분을 은폐 처리하는 방법은 예를 들어 가상 수술도구(610)의 형상 중 중첩 부분에 해당하는 영역은 투명 처리되도록 하는 등의 방법이 이용될 수 있다. The overlap processing unit 1410 overlaps each other using the virtual surgical tool information generated by the virtual surgical tool generating unit 720 and the region coordinate information of the organs and / or surgical sites recognized by the image analyzer 920. It is judged whether or not it occurs and processes accordingly. If some or all of the virtual surgical instruments are located below or laterally to the side of the organ, it may be determined that overlapping (i.e., obscuration) occurs as much as the corresponding portions, and the facts of the virtual surgical instrument 610 display may be determined. In order to increase, the area of the virtual surgical tool 610 corresponding to the overlapped portion is processed to be concealed (that is, not displayed through the screen display unit 320). As a method of concealing the overlapped portion, for example, a method of allowing the region corresponding to the overlapped portion of the shape of the virtual surgical tool 610 to be transparently processed.

또는, 중첩 처리부(1410)가 장기와 가상 수술도구(610)간에 중첩이 존재하는 것으로 판단한 경우, 장기의 영역 좌표 정보를 가상 수술도구 생성부(720)로 제공하거나 가상 수술도구 생성부(720)가 저장부로부터 해당 정보를 독출하도록 요청함으로써 가상 수술도구 생성부(720)가 중첩 부분에 대한 가상 수술도구 정보를 생성하지 않도록 할 수도 있다.Alternatively, when the overlapping processor 1410 determines that there is an overlap between the organ and the virtual surgical tool 610, the area coordinate information of the organ is provided to the virtual surgical tool generator 720 or the virtual surgical tool generator 720. May request that the information be read from the storage to prevent the virtual surgical tool generation unit 720 from generating virtual surgical tool information for the overlapped portion.

접촉 인식부(1420)는 가상 수술도구 생성부(720)에 의해 생성된 가상 수술도구 정보 및 영상 해석부(920)에 의해 인식된 장기의 영역 좌표 정보를 이용하여 상호간에 접촉이 발생하는지 여부를 판단하여 상응하도록 처리한다. 만일 장기의 영역 좌표 정보 중 표면 좌표 정보와 가상 수술도구의 일부 또는 전체의 좌표정보가 일치하게 된다면 해당 부분에서 접촉이 있는 것으로 판단할 수 있다. 접촉 인식부(1420)에 의해 접촉이 있는 것으로 판단되면, 마스터 로봇(1)은 예를 들어 암 조작부(330)가 더 이상 조작되지 않도록 처리하거나 암 조작부(330)를 통해 포스 피드백(force feedback)이 발생되도록 처리하거나 경고 정보(예를 들어 경고 메시지 또는/및 경고 음향 등)가 출력되도록 처리할 수 있다. 포스 피드백을 처리하거나 경고 정보를 출력하기 위한 구성요소는 마스터 로봇(1)의 구성요소로서 포함될 수 있다.The contact recognition unit 1420 may determine whether contact is generated by using the virtual surgical tool information generated by the virtual surgical tool generator 720 and the region coordinate information of the organ recognized by the image analyzer 920. Determine and deal with them accordingly. If the surface coordinate information of the organ coordinate information of the organ and the coordinate information of part or all of the virtual surgical tool coincide with each other, it may be determined that there is a contact there. When it is determined that there is a contact by the contact recognition unit 1420, the master robot 1 processes, for example, the arm operation unit 330 so that it is no longer operated, or forces feedback through the arm operation unit 330. Can be generated or warning information (e.g., warning messages and / or warning sounds) can be output. Components for processing force feedback or outputting warning information may be included as components of the master robot 1.

도 15에는 본 발명의 또 다른 실시예에 따른 가상 수술도구를 출력하기 위한 마스터 로봇(1)의 구동방법이 예시되어 있다.15 illustrates a driving method of the master robot 1 for outputting a virtual surgical tool according to another embodiment of the present invention.

도 15를 참조하면, 단계 1510에서 마스터 로봇(1)은 수술자로부터 암 조작부(330) 조작을 입력받는다.Referring to FIG. 15, in operation 1510, the master robot 1 receives a manipulation of the arm manipulation unit 330 from an operator.

이어서, 단계 1520 및 단계 1530에서 마스터 로봇(1)은 암 조작부(330) 조작에 따른 수술자의 조작 정보를 해석하여 가상 수술도구 정보를 생성한다. 가상 수술도구 정보는 예를 들어 화면 표시부(320)를 통해 가상 수술도구(610)를 출력하기 위한 가상 수술도구(610)의 외곽선 또는 영역에 대한 좌표정보를 포함할 수 있다.Subsequently, in steps 1520 and 1530, the master robot 1 analyzes the operator's manipulation information according to the manipulation of the arm manipulation unit 330 and generates virtual surgical tool information. The virtual surgical tool information may include, for example, coordinate information about an outline or an area of the virtual surgical tool 610 for outputting the virtual surgical tool 610 through the screen display unit 320.

또한, 단계 1540 및 단계 1550에서 마스터 로봇(1)은 슬레이브 로봇(2)으로부터 복강경 영상을 수신하고, 수신된 영상을 해석한다. 수신된 영상의 해석은 예를 들어 영상 해석부(920)에 의해 수행될 수 있으며, 영상 해석부(920)는 복강경 영상에 포함된 장기가 어떤 것인지를 인식할 수 있다.In addition, in steps 1540 and 1550, the master robot 1 receives a laparoscope image from the slave robot 2 and interprets the received image. For example, the analysis of the received image may be performed by the image analyzer 920, and the image analyzer 920 may recognize which organs are included in the laparoscopic image.

단계 1560에서 마스터 로봇(1)은 복강경 영상을 통해 인식한 장기에 대한 영역 좌표 정보를 저장부에서 독출한다.In operation 1560, the master robot 1 reads region coordinate information about the organ recognized through the laparoscope image from the storage.

마스터 로봇(1)은 단계 1570에서 가상 수술도구(610)의 좌표 정보 및 장기의 영역 좌표 정보를 이용하여 상호간에 중첩 부분이 존재하는지 여부를 판단한다. In operation 1570, the master robot 1 determines whether overlapping portions exist between each other using coordinate information of the virtual surgical tool 610 and area coordinate information of the organ.

만일 중첩 부분이 존재하는 경우, 단계 1580에서 마스터 로봇(1)은 중첩 부분이 은폐 처리된 가상 수술도구(610)가 화면 표시부(320)를 통해 출력되도록 처리한다.If there is an overlapping portion, in step 1580, the master robot 1 processes the virtual surgical tool 610 in which the overlapping portion is concealed to be output through the screen display unit 320.

그러나 만일 중첩 부분이 존재하지 않는 경우, 마스터 로봇(1)은 단계 1590에서 모든 부분이 정상적으로 표시되는 가상 수술도구(610)가 화면 표시부(320)를 통해 출력되도록 처리한다.However, if there is no overlapping part, the master robot 1 processes the virtual surgical tool 610 in which all parts are normally displayed through the screen display unit 320 in step 1590.

도 16에는 가상 수술도구(610)가 환자의 장기와 접촉된 경우 이를 수술자에게 알리기 위한 실시예가 도시되어 있다. 도 16의 단계 1510 내지 단계 1560은 앞서 도 15를 참조하여 이미 설명하였으므로 이에 대한 설명은 생략한다.16 illustrates an embodiment for notifying the operator when the virtual surgical tool 610 is in contact with an organ of the patient. Steps 1510 to 1560 of FIG. 16 have already been described with reference to FIG. 15, and thus description thereof will be omitted.

도 16을 참조하면, 단계 1610에서 마스터 로봇(1)은 가상 수술도구(610)의 일부 또는 전체가 장기와 접촉되었는지 여부를 판단한다. 장기와 가상 수술도구(610)간의 접촉 여부는 예를 들어 각각의 영역에 대한 좌표 정보를 이용하여 판 단될 수 있다.Referring to FIG. 16, in step 1610, the master robot 1 determines whether some or all of the virtual surgical tool 610 is in contact with an organ. The contact between the organ and the virtual surgical tool 610 may be determined using, for example, coordinate information about each region.

만일 가상 수술도구(610)와 장기가 접촉되었다면 단계 1620으로 진행하여, 마스터 로봇(1)은 수술자에게 이를 알리기 위해 포스 피드백 처리를 수행한다. 앞서 설명한 바와 같이, 예를 들어 암 조작부(330)가 더 이상 조작되지 않도록 처리하거나 경고 정보(예를 들어 경고 메시지 또는/및 경고 음향 등)가 출력되도록 처리될 수도 있다. If the organ is in contact with the virtual surgical tool 610, the process proceeds to step 1620, the master robot 1 performs a force feedback process to inform the operator. As described above, for example, the arm manipulation unit 330 may be processed to no longer be operated, or may be processed to output warning information (eg, a warning message and / or a warning sound).

그러나 만일 가상 수술도구(610)와 장기가 접촉되지 않았다면 단계 1610에서 대기한다.However, if the organ is not in contact with the virtual surgical tool 610, and waits in step 1610.

상술한 과정을 통해, 수술자는 실제 수술도구(460)가 장기와 접촉될 것인지 여부를 사전에 예측할 수 있어 보다 안전하고 정교한 수술 진행이 가능해질 수 있다.Through the above-described process, the operator can predict in advance whether the actual surgical tool 460 will be in contact with the organ in advance, thereby enabling a safer and more sophisticated surgical procedure.

도 17은 본 발명의 또 다른 실시예에 따른 참조 이미지 제공 방법을 나타낸 순서도이다.17 is a flowchart illustrating a method of providing a reference image according to another embodiment of the present invention.

일반적으로 환자는 수술 이전에 X-ray, CT 또는/및 MRI 등의 다양한 참조 영상을 촬영하게 된다. 이러한 참조 영상이 수술시 복강경 영상과 함께 또는 모니터부(6)의 임의의 모니터에 수술자에게 제시될 수 있다면 수술자의 수술이 보다 원활해질 수 있을 것이다. 해당 참조 영상은 예를 들어 마스터 로봇(1)에 포함된 저장부에 미리 저장되어 있거나, 마스터 로봇(1)이 통신망을 통해 접속 가능한 데이터베이스에 저장될 수 있다.Typically, the patient will take various reference images, such as X-rays, CT, and / or MRI, before surgery. If such a reference image can be presented to the operator in conjunction with the laparoscopic image during the operation or on any monitor of the monitor 6, the operation of the operator will be smoother. For example, the reference image may be previously stored in a storage unit included in the master robot 1, or may be stored in a database accessible by the master robot 1 through a communication network.

도 17을 참조하면, 단계 1710에서 마스터 로봇(1)은 슬레이브 로봇(2)의 복강경(5)으로부터 복강경 영상을 수신한다.Referring to FIG. 17, in operation 1710, the master robot 1 receives a laparoscope image from the laparoscope 5 of the slave robot 2.

단계 1720에서 마스터 로봇(1)은 복강경 영상을 이용하여 미리 설정된 특징 정보를 추출한다. 여기서, 특징 정보는 예를 들어 수술 부위 내의 장기의 형상, 실제 수술도구(460)의 위치좌표, 조작 형상 등 중 하나 이상일 수 있다. 특징 정보의 추출은 예를 들어 영상 해석부(920)에 의해 수행될 수도 있다.In operation 1720, the master robot 1 extracts predetermined feature information by using the laparoscope image. Here, the feature information may be, for example, one or more of the shape of the organ in the surgical site, the position coordinates of the actual surgical tool 460, the manipulation shape, and the like. Extraction of the feature information may be performed by, for example, the image analyzer 920.

단계 1730에서 마스터 로봇(1)은 단계 1720에서 추출한 특징 정보 및 저장부에 미리 저장된 정보들을 이용하여 해당 복강경 영상에 포함되어 표시되는 장기가 무엇인지를 인식한다.In operation 1730, the master robot 1 recognizes what organs are included and displayed in the laparoscope image using the feature information extracted in operation 1720 and information previously stored in the storage unit.

이어서, 단계 1740에서 마스터 로봇(1)은 단계 1730에서 인식한 장기에 해당하는 영상을 포함하는 참조 영상을 저장부 또는 통신망을 통해 접속 가능한 데이터베이스에서 독출한 후, 해당 참조 영상 중 어느 부위가 모니터부(6)를 통해 표시되어야 하는지를 결정한다. 모니터부(6)를 통해 출력될 참조 영상은 해당 장기의 모습이 촬영된 영상으로, 예를 들어 X-ray, CT 및/또는 MRI 영상일 수 있다. 또한 참조 영상의 어느 부위(예를 들어, 해당 환자에 대한 전신 영상 중 어느 부위)가 참조를 위해 출력될 것인지는 예를 들어 인식된 장기의 명칭 또는 실제 수술도구(460)의 좌표 정보 등에 의해 결정될 수 있다. 이를 위해, 참조 영상의 각 부위에 대한 좌표 정보나 명칭 또는 순차적인 프레임의 참조 영상들 중 몇 번째 프레임이 무엇에 관한 것인지가 미리 특정될 수도 있다. 모니터부(6)를 통해 어느 하나의 참조 영상이 출력될 수도 있으며, 성질을 달리하는 둘 이상의 참조 영상(예를 들 어, X-ray 영상과 CT 영상)이 함께 표시될 수도 있다.Subsequently, in operation 1740, the master robot 1 reads a reference image including an image corresponding to the organ recognized in operation 1730 from a database accessible through a storage unit or a communication network, and then any part of the reference image is monitored. Determine if it should be indicated through (6). The reference image to be output through the monitor unit 6 is an image of the organ, for example, may be an X-ray, CT, and / or MRI image. In addition, which part of the reference image (for example, which part of the whole body image of the patient) is output for reference may be determined by, for example, the name of the recognized organ or coordinate information of the actual surgical tool 460. have. To this end, the coordinate information or the name of each part of the reference image or the number of reference frames of the sequential frames may be previously specified. Any one reference image may be output through the monitor unit 6, or two or more reference images (eg, X-ray image and CT image) having different properties may be displayed together.

단계 1750에서 마스터 로봇(1)은 모니터부(6)를 통해 복강경 영상과 참조 영상이 각각 출력되도록 한다. 이때, 참조 영상이 복강경 영상의 입력 각도(예를 들어, 카메라 각도)와 유사한 방향에서 표시되도록 처리함으로써, 수술자의 직관성을 극대화할 수도 있다. 예를 들어 참조 영상이 특정 방향에서 촬상된 평면적인 영상인 경우, 특성값 연산부(710)에 의해 연산된 카메라 각도 등에 따라 실시간 MPR(Multi Planner Reformat)을 이용한 3차원 영상이 출력되도록 할 수도 있다. 참고로, MPR은 단면 영상에서 하나 또는 여러 개의 슬라이스 단위로, 필요한 임의의 부위만을 선택적으로 도시(drawing)하여 부분적으로 3차원 영상으로 구성하는 기법으로, 초기의 한 슬라이스씩 ROI(region of interest)를 그려내는 기법을 발전시킨 기법이다.In operation 1750, the master robot 1 outputs the laparoscopic image and the reference image through the monitor 6. At this time, by processing the reference image to be displayed in a direction similar to the input angle (for example, the camera angle) of the laparoscopic image, the intuitiveness of the operator may be maximized. For example, when the reference image is a planar image captured in a specific direction, the 3D image using a real-time multi-planner format (MPR) may be output according to the camera angle calculated by the characteristic value calculator 710. For reference, MPR is a technique of selectively drawing only an arbitrary portion of a cross-sectional image, which is necessary for one or several slices, to form a partially three-dimensional image. It is a technique that developed the technique of drawing.

이제까지 마스터 로봇(1)이 실제 모드인 제1 모드, 비교 모드인 제2 모드 및/또는 가상 모드인 제3 모드에서 기능하는 경우를 중심으로 설명하였다. 이하, 마스터 로봇(1)이 교육 모드인 제4 모드 또는 시뮬레이션 모드인 제5 모드에서 기능하는 경우를 중심으로 설명한다. 다만, 이제까지 관련 도면을 참조하여 설명한 가상 수술도구(610)의 표시 등에 관한 다양한 실시예들은 특정 구동모드에서 제한적으로 적용되는 기술적 사상은 아니며, 가상 수술도구(610)가 표시될 필요가 있는 구동모드라면 별도의 설명이 없더라도 제한없이 적용될 수 있다.The case where the master robot 1 functions in the first mode which is the actual mode, the second mode which is the comparison mode, and / or the third mode which is the virtual mode has been described. Hereinafter, the case where the master robot 1 functions in the fourth mode which is the education mode or the fifth mode which is the simulation mode will be described. However, various embodiments related to the display of the virtual surgical tool 610 described above with reference to the related drawings are not technical ideas that are limitedly applied in a specific driving mode, and the driving mode in which the virtual surgical tool 610 needs to be displayed. If it is not described, it can be applied without limitation.

도 18은 본 발명의 또 다른 실시예에 따른 수술용 로봇의 전체구조를 나타낸 평면도이다. 18 is a plan view showing the overall structure of a surgical robot according to another embodiment of the present invention.

도 18을 참조하면, 복강경 수술용 로봇 시스템은 둘 이상의 마스터 로봇(1)과 슬레이브 로봇(2)을 포함한다. 둘 이상의 마스터 로봇(1) 중 제1 마스터 로봇(1a)은 학습자(예를 들어, 실습 학생)에 의해 이용되는 학생 마스터 로봇일 수 있고, 제2 마스터 로봇(1b)은 교육자(예를 들어, 실습 교사)에 의해 이용되는 교사 마스터 로봇일 수 있다. 마스터 로봇(1) 및 슬레이브 로봇(2)의 구성은 앞서 설명한 바와 같으므로 이에 대해서는 간략히 설명하기로 한다.Referring to FIG. 18, a laparoscopic surgical robot system includes two or more master robots 1 and slave robots 2. Of the two or more master robots 1, the first master robot 1a may be a student master robot used by a learner (eg, a training student), and the second master robot 1b may be an educator (eg, Teacher master robot used by a training teacher). Since the configurations of the master robot 1 and the slave robot 2 are as described above, a brief description thereof will be provided.

앞서 도 1을 참조하여 설명한 바와 같이, 마스터 로봇(1)의 마스터 인터페이스(4)는 모니터부(6) 및 마스터 조종기를 포함하고, 슬레이브 로봇(2)은 로봇 암(3) 및 복강경(5)을 포함할 수 있다. 마스터 인터페이스(4)는 복수의 구동모드 중 어느 하나를 선택할 수 있도록 하기 위한 모드전환 제어버튼을 더 포함할 수 있다. 마스터 조종기는 예를 들어 수술자가 양손에 각각 파지되어 조작할 수 있는 형태(예를 들어 핸들)로 구현될 수 있다. 모니터부(6)에는 복강경 영상 뿐 아니라 복수의 생체 정보나 참조 영상이 더 출력될 수 있다.As described above with reference to FIG. 1, the master interface 4 of the master robot 1 includes a monitor unit 6 and a master controller, and the slave robot 2 includes the robot arm 3 and the laparoscope 5. It may include. The master interface 4 may further include a mode switch control button for selecting one of the plurality of driving modes. The master manipulator may be embodied, for example, in a form (for example, a handle) in which an operator can grip and manipulate each hand. The monitor 6 may further output a plurality of biometric information or reference images as well as a laparoscope image.

도 18에 예시된 두 개의 마스터 로봇(1)은 상호간에 통신망을 통해 결합되어 있으며, 각각 슬레이브 로봇(2)과 통신망을 통해 결합될 수 있다. 통신망을 통해 상호 결합되는 마스터 로봇(1)은 필요에 따라 다양한 수량으로 구비될 수 있다. 또한, 제1 마스터 로봇(1a) 및 제2 마스터 로봇(1b)의 용도, 실습 교사와 실습 학생은 사전에 미리 결정될 수도 있으나, 상호간에 그 역할이 요구나 필요에 따라 교 환될 수도 있을 것이다.The two master robots 1 illustrated in FIG. 18 are coupled to each other through a communication network, and may be coupled to the slave robot 2 through a communication network, respectively. The master robot 1 coupled to each other through a communication network may be provided in various quantities as necessary. In addition, although the use of the first master robot 1a and the second master robot 1b, the training teacher and the training student may be predetermined in advance, the roles may be interchanged with each other according to a request or a need.

일 예로, 학습자를 위한 제1 마스터 로봇(1a)은 실습 교사를 위한 제2 마스터 로봇(1b)과만 통신망을 통해 결합되고, 제2 마스터 로봇(1b)은 제1 마스터 로봇(1a) 및 슬레이브 로봇(2)과 통신망을 통해 결합될 수도 있다. 즉, 실습 학생이 제1 마스터 로봇(1a)에 구비된 마스터 조종기를 조작하면 가상 수술도구(610)만이 조작되어 화면 표시부(320)를 통해 출력되도록 할 수 있다. 이때, 제1 마스터 로봇(1a)으로부터 조작신호가 제2 마스터 로봇(1b)으로 제공되고, 이에 따른 가상 수술도구(610)의 조작 상태가 제2 마스터 로봇(1b)의 모니터부(6b)를 통해 출력됨으로써 실습 교사는 실습 학생이 정상적인 과정으로 수술을 진행하는지 확인할 수 있다.For example, the first master robot 1a for the learner is coupled via a communication network only with the second master robot 1b for the training teacher, and the second master robot 1b is the first master robot 1a and the slave robot. It may be combined with (2) through a communication network. That is, when the training student manipulates the master controller provided in the first master robot 1a, only the virtual surgical tool 610 may be operated to be output through the screen display unit 320. At this time, the operation signal is provided from the first master robot (1a) to the second master robot (1b), the operation state of the virtual surgical tool 610 according to the monitor portion 6b of the second master robot (1b) Through the output, the lab teacher can check whether the lab student is operating in the normal course.

다른 예로, 제1 마스터 로봇(1a)과 제2 마스터 로봇(1b)이 통신망을 통해 결합되고 또한 각각이 슬레이브 로봇(2)과 통신망을 통해 결합될 수도 있다. 이 경우, 실습 학생이 제1 마스터 로봇(1a)에 구비된 마스터 조종기를 조작하면 실제 수술도구(460)가 조작되고, 이에 상응하는 조작신호가 제2 마스터 로봇(1b)으로도 제공되어 실습 교사는 실습 학생이 정상적인 과정으로 수술을 진행하는지 확인할 수 있다. As another example, the first master robot 1a and the second master robot 1b may be coupled through a communication network, and each may be coupled with the slave robot 2 through a communication network. In this case, when the training student manipulates the master controller provided in the first master robot 1a, the actual surgical tool 460 is manipulated, and the corresponding operation signal is also provided to the second master robot 1b to provide the training teacher. The student can check whether the student is undergoing surgery in the normal course.

이 경우, 실습 교사는 자신의 마스터 로봇을 조작하여 실습 학생의 마스터 로봇이 어떤 모드에서 기능하도록 할 것인지 제어할 수도 있다. 이를 위해, 임의의 마스터 로봇은 다른 마스터 로봇으로부터 수신되는 제어 신호에 의해 구동모드가 결정되어 실제 수술도구(460) 및/또는 가상 수술도구(610)의 조작이 가능해지도록 미리 설정될 수도 있을 것이다.In this case, the training teacher may manipulate his master robot to control in which mode the master robot of the training student functions. To this end, any master robot may be set in advance such that a driving mode is determined by a control signal received from another master robot to enable manipulation of the actual surgical tool 460 and / or the virtual surgical tool 610.

도 19는 본 발명의 또 다른 실시예에 따른 교육 모드에서의 수술 로봇 시스템의 동작 방법을 나타낸 도면이다.19 is a view showing a method of operating a surgical robot system in the training mode according to another embodiment of the present invention.

도 19에는 제1 마스터 로봇(1a)에서의 암 조작부(330) 조작이 가상 수술도구(610)의 조작을 위해서만 기능되고, 제1 마스터 로봇(1a)으로부터 조작신호가 제2 마스터 로봇(1b)으로 제공되는 경우의 수술 로봇 시스템의 동작 방법이 예시되어 있다. 이는, 실습 학생 또는 실습 교사 중 1인에 의한 제1 마스터 로봇(1a) 조작 상황을 실습 교사 또는 실습 학생 중 다른 1인이 제2 마스터 로봇(1b)을 이용하여 확인하는 등의 용도로 이용될 수 있다.In FIG. 19, the operation of the arm manipulation unit 330 in the first master robot 1a is functioned only for the operation of the virtual surgical tool 610, and an operation signal is transmitted from the first master robot 1a to the second master robot 1b. The operation method of the surgical robot system when provided with is illustrated. This is to be used for the purpose of checking the operation situation of the first master robot 1a by one of the training students or one of the training teachers by using the second master robot 1b by the other one of the training teachers or training students. Can be.

도 19를 참조하면, 단계 1905에서 제1 마스터 로봇(1a)과 제2 마스터 로봇(1b)간에 통신 접속 설정이 수행된다. 통신 접속 설정은 예를 들어 상호간에 조작신호, 권한 명령 등 중 하나 이상을 송수신하기 위한 것일 수 있다. 통신 접속 설정은 제1 마스터 로봇(1a)과 제2 마스터 로봇(1b) 중 하나 이상의 요청에 의해 이루어지거나, 각 마스터 로봇이 전원 온(on)되면 즉시 이루어질 수도 있다.Referring to FIG. 19, in operation 1905, communication connection establishment is performed between the first master robot 1a and the second master robot 1b. The communication connection setting may be, for example, for transmitting and receiving one or more of an operation signal, an authority command, and the like. The communication connection setting may be made at the request of at least one of the first master robot 1a and the second master robot 1b, or may be made immediately when each master robot is powered on.

단계 1910에서 제1 마스터 로봇(1a)은 암 조작부(330)의 조작에 따른 사용자 조작을 입력받는다. 여기서, 사용자는 예를 들어 실습 학생 또는 실습 교사 중 어느 일방일 수 있다.In operation 1910, the first master robot 1a receives a user manipulation according to the manipulation of the arm manipulation unit 330. Here, the user may be, for example, either a training student or a training teacher.

단계 1920 및 단계 1930에서 제1 마스터 로봇(1a)은 단계 1910의 사용자 조작에 따른 조작신호를 생성하고, 생성된 조작신호에 상응하는 가상 수술도구 정보 를 생성한다. 앞서 설명한 바와 같이, 암 조작부(330) 조작에 따른 조작 정보를 이용하여 가상 수술도구 정보가 생성될 수도 있다.In operation 1920 and operation 1930, the first master robot 1a generates an operation signal according to the user operation of operation 1910 and generates virtual surgical tool information corresponding to the generated operation signal. As described above, the virtual surgical tool information may be generated using the operation information according to the operation of the arm manipulation unit 330.

단계 1940에서 제1 마스터 로봇(1a)은 생성된 가상 수술도구 정보에 의할 때 장기와의 중첩 또는 접촉 부분이 존재하는지 여부를 판단한다. 가상 수술도구와 장기간의 중첩 또는 접촉 부분의 존재 여부를 판단하는 방법은 앞서 도 15 및/또는 도 16을 참조하여 설명하였으므로 이에 대한 설명은 생략한다.In operation 1940, the first master robot 1a determines whether there is an overlap or contact portion with the organs based on the generated virtual surgical instrument information. Since the method for determining the existence of a long-term overlapping or contact portion with the virtual surgical tool has been described above with reference to FIGS. 15 and / or 16, a description thereof will be omitted.

만일 중첩 또는 접촉 부분이 존재하는 경우라면 단계 1950으로 진행하여 중첩 또는 접촉에 따른 처리 정보를 생성한다. 처리 정보는 앞서 도 15 및/또는 도 16에서 예시적으로 설명된 바와 같이 중첩 부분에 대한 투명 처리, 접촉에 따른 포스 피드백 수행 등일 수 있다.If there is an overlap or contact portion, the flow proceeds to step 1950 to generate processing information according to the overlap or contact. The processing information may be transparent processing on the overlapping portion, force feedback performance according to contact, and the like as described above with reference to FIGS. 15 and / or 16.

단계 1960에서 제1 마스터 로봇(1a)은 제2 마스터 로봇(1b)으로 가상 수술도구 정보 및/또는 처리 정보를 전송한다. 제1 마스터 로봇(1a)은 제2 마스터 로봇(1b)으로 조작신호를 전송할 수도 있으며, 제2 마스터 로봇(1b)이 수신한 조작신호를 이용하여 가상 수술도구 정보를 생성한 후 중첩 또는 접촉 여부를 판단할 수도 있다.In operation 1960, the first master robot 1a transmits virtual surgical tool information and / or processing information to the second master robot 1b. The first master robot 1a may transmit an operation signal to the second master robot 1b, and generate virtual surgical tool information using the operation signal received by the second master robot 1b, and then overlap or touch it. You can also judge.

단계 1970 및 단계 1980에서 제1 마스터 로봇(1a) 및 제2 마스터 로봇(1b)은 가상 수술도구 정보를 이용하여 화면 표시부(320)에 가상 수술도구(610)를 출력한다. 이때, 처리 정보에 해당하는 사항이 함께 처리될 수도 있다.In steps 1970 and 1980, the first master robot 1a and the second master robot 1b output the virtual surgical tool 610 to the screen display unit 320 using the virtual surgical tool information. At this time, the matter corresponding to the processing information may be processed together.

이제까지 도 19를 참조하여 제1 마스터 로봇(1a)이 가상 수술도구(610)만을 제어하고 이에 따른 조작신호 등이 제2 마스터 로봇(1b)으로 제공되는 경우를 설명 하였다. 그러나, 제1 마스터 로봇(1a)이 구동모드 선택에 따라 실제 수술도구(460)를 제어하고 이에 따른 조작신호 등이 제2 마스터 로봇(1b)으로 제공될 수도 있을 것이다.Up to now, the case in which the first master robot 1a controls only the virtual surgical tool 610 and a manipulation signal according to the same is provided to the second master robot 1b has been described with reference to FIG. 19. However, the first master robot 1a may control the actual surgical tool 460 according to the driving mode selection, and an operation signal and the like may be provided to the second master robot 1b.

도 20은 본 발명의 또 다른 실시예에 따른 교육 모드에서의 수술 로봇 시스템의 동작 방법을 나타낸 도면이다. 20 is a view showing a method of operating a surgical robot system in the training mode according to another embodiment of the present invention.

도 20을 참조하여 수술 로봇 시스템의 동작 방법을 설명함에 있어, 제1 마스터 로봇(1a)에 대한 제어 권한을 제2 마스터 로봇(1b)이 가지는 경우를 가정하여 설명한다.In the operation method of the surgical robot system with reference to FIG. 20, it is assumed that the second master robot 1b has control authority over the first master robot 1a.

도 20을 참조하면, 단계 2010에서 제1 마스터 로봇(1a)과 제2 마스터 로봇(1b)간에 통신 접속 설정이 수행된다. 통신 접속 설정은 예를 들어 상호간에 조작신호, 권한 명령 등 중 하나 이상을 송수신하기 위한 것일 수 있다. 통신 접속 설정은 제1 마스터 로봇(1a)과 제2 마스터 로봇(1b) 중 하나 이상의 요청에 의해 이루어지거나, 각 마스터 로봇이 전원 온(on)되면 즉시 이루어질 수도 있다.Referring to FIG. 20, in operation 2010, communication connection is established between the first master robot 1a and the second master robot 1b. The communication connection setting may be, for example, for transmitting and receiving one or more of an operation signal, an authority command, and the like. The communication connection setting may be made at the request of at least one of the first master robot 1a and the second master robot 1b, or may be made immediately when each master robot is powered on.

단계 2020에서 제2 마스터 로봇(1b)은 제1 마스터 로봇(1a)으로 수술권한 부여 명령을 전송한다. 수술권한 부여명령에 의해 제1 마스터 로봇(1a)은 슬레이브 로봇(2)에 구비된 로봇 암(3)을 실제적으로 제어할 수 있는 권한을 가지게 된다. 수술권한 부여명령은 예를 들어 마스터 로봇들간에 사전 규정된 신호 형태 및 정보 형태로 구성되도록 제2 마스터 로봇(1b)에 의해 생성될 수 있다.In operation 2020, the second master robot 1b transmits an operation authority grant command to the first master robot 1a. By the operation authority grant command, the first master robot 1a has the authority to actually control the robot arm 3 provided in the slave robot 2. The surgical authority grant command may be generated by the second master robot 1b to be configured, for example, in a signal form and information form predefined between the master robots.

단계 2030에서 제1 마스터 로봇(1a)은 암 조작부(330)의 조작에 따른 사용 자 조작을 입력받는다. 여기서, 사용자는 예를 들어 실습 학생일 수 있다.In operation 2030, the first master robot 1a receives a user manipulation according to the manipulation of the arm manipulation unit 330. Here, the user may be, for example, a training student.

단계 2040에서 제1 마스터 로봇(1a)은 단계 1910의 사용자 조작에 따른 조작신호를 생성하여 통신망을 통해 슬레이브 로봇(2)으로 전송한다. 제1 마스터 로봇(1a)은 생성된 조작신호 또는 암 조작부(330) 조작에 따른 조작 정보에 상응하는 가상 수술도구 정보를 생성하여 모니터부(6)를 통해 가상 수술도구(610)가 표시될 수 있도록 한다. In operation 2040, the first master robot 1a generates an operation signal according to the user operation in operation 1910 and transmits the operation signal to the slave robot 2 through the communication network. The first master robot 1a may generate the virtual surgical tool information corresponding to the generated operation signal or the operation information according to the operation of the arm manipulation unit 330 to display the virtual surgical tool 610 through the monitor unit 6. Make sure

또한, 제1 마스터 로봇(1a)은 실제 수술도구(460) 조작 상황을 확인할 수 있도록 하기 위해 조작신호 또는/및 가상 수술도구 정보를 제2 마스터 로봇(1b)으로 전송할 수 있다. 단계 2050에서 제2 마스터 로봇(1b)은 조작신호 또는/및 가상 수술도구 정보를 수신한다.In addition, the first master robot 1a may transmit operation signals and / or virtual surgical tool information to the second master robot 1b in order to confirm the actual operating condition of the surgical tool 460. In operation 2050, the second master robot 1b receives an operation signal and / or virtual surgical tool information.

단계 2060 및 단계 2070에서 제1 마스터 로봇(1a) 및 제2 마스터 로봇(1b)은 각각 슬레이브 로봇(2)으로부터 수신되는 복강경 영상 및 제1 마스터 로봇(1a)의 암 조작부(330) 조작에 따른 가상 수술도구(610)를 화면 표시부(320)를 통해 출력한다. In steps 2060 and 2070, the first master robot 1a and the second master robot 1b respectively receive the laparoscope image received from the slave robot 2 and the operation of the arm manipulation unit 330 of the first master robot 1a. The virtual surgical tool 610 is output through the screen display unit 320.

만일 제2 마스터 로봇(1b)이 제1 마스터 로봇(1a)의 암 조작부(330) 조작에 따른 가상 수술도구(610)를 화면 표시부(320)에 출력하지 않고, 슬레이브 로봇(2)으로부터 수신되는 복강경 영상을 통해 실제 수술도구(460) 조작 상황을 확인하도록 하는 경우라면, 단계 2050은 생략될 수 있고, 단계 2070에서는 수신된 복강경 영상만이 출력될 것이다.If the second master robot 1b is received from the slave robot 2 without outputting the virtual surgical tool 610 according to the operation of the arm operation unit 330 of the first master robot 1a to the screen display unit 320. In the case of confirming the actual operating condition of the surgical tool 460 through the laparoscopic image, step 2050 may be omitted, and in step 2070, only the received laparoscopic image will be output.

단계 2080에서 제2 마스터 로봇(1b)은 사용자로부터 제1 마스터 로봇(1a)에 부여한 수술권한의 회수 요청이 입력되는지 여부를 판단한다. 여기서, 사용자는 예를 들어 실습 학생일 수 있으며, 제1 마스터 로봇(1a)의 사용자에 의해 정상적인 수술이 이루어지지 못하는 경우 등에 수술권한을 회수할 수 있다.In operation 2080, the second master robot 1b determines whether a request for retrieving the surgery authority granted to the first master robot 1a is input from the user. Here, the user may be, for example, a training student, and may recover the operation right when the normal surgery is not performed by the user of the first master robot 1a.

만일 수술권한 회수 요청이 입력되지 않은 경우라면 단계 2050으로 다시 진행하여 사용자가 제1 마스터 로봇(1a)에 의한 실제 수술도구(460) 조작 상황을 관찰할 수 있도록 한다.If the request for retrieval authority has not been entered, the process proceeds to step 2050 again to allow the user to observe the actual operation of the surgical tool 460 by the first master robot 1a.

그러나, 만일 수술권환 회수 요청이 입력된 경우라면 단계 2090에서 제2 마스터 로봇(1b)은 제1 마스터 로봇(1a)으로 통신망을 통해 수술권한 종료명령을 전송한다. However, if the operation right recovery request is input, in step 2090, the second master robot 1b transmits the operation right termination command to the first master robot 1a through the communication network.

수술권한 종료명령의 전송에 의해 제1 마스터 로봇(1a)은 제2 마스터 로봇(1b)에 의한 실제 수술도구(460)의 조작 상황을 관찰할 수 있는 교육 모드로 전환할 수 있다(단계 2095).By transmitting the operation authority end command, the first master robot 1a may switch to an education mode in which the operation state of the actual surgical tool 460 by the second master robot 1b may be observed (step 2095). .

이제까지 도 20을 참조하여 제1 마스터 로봇(1a)에 대한 제어 권한을 제2 마스터 로봇(1b)이 가지는 경우를 중심으로 설명하였다. 그러나, 이와 반대의 경우로서, 제1 마스터 로봇(1a)이 제2 마스터 로봇(1b)으로 수술권한 종료요청을 전송할 수도 있을 것이다. 이는, 제2 마스터 로봇(1b)의 사용자에 의해 실제 수술도구(460) 조작이 이루어질 수 있도록 권한을 이전하기 위한 것으로서, 예를 들어 해당 수술부위의 수술이 쉽지 않거나 해당 수술부위의 수술이 매우 용이한 경우로서 교육상 필요한 경우 등에서 이용될 수 있을 것이다.Up to now, the second master robot 1b has a control authority over the first master robot 1a with reference to FIG. 20. However, in the opposite case, the first master robot 1a may transmit a request for terminating the surgery right to the second master robot 1b. This is to transfer the authority to operate the actual surgical tool 460 by the user of the second master robot (1b), for example, the operation of the operation site is not easy or the operation of the operation site is very easy. As one case, it may be used when necessary for education.

이외에도 복수의 마스터 로봇간에 수술권한이나 제어권한을 상호간에 이전 하거나 하나의 마스터 로봇이 주도적인 권한 부여/회수가 가능하도록 하는 다양한 방안이 제한없이 고려 및 적용될 수 있다.In addition, various methods for transferring surgical or control rights among a plurality of master robots or allowing one master robot to proactively grant / recover can be considered and applied without limitation.

이제까지 관련도면을 참조하여 본 발명의 다양한 실시예들에 대해 설명하였다. 그러나 본 발명이 상술한 실시예들에 의해 제한되지 않으며, 보다 다양한 실시예들이 추가적으로 제시될 수 있다.So far, various embodiments of the present invention have been described with reference to the accompanying drawings. However, the present invention is not limited by the above-described embodiments, and more various embodiments may further be presented.

일 실시예로, 복수의 마스터 로봇이 통신망을 통해 연결되고, 교육 모드인 제4 모드에서 기능하는 경우, 학습자의 마스터 로봇(1) 제어 능력 또는 수술 능력에 대한 평가 기능이 수행될 수도 있다.In an embodiment, when a plurality of master robots are connected through a communication network and function in a fourth mode, which is an education mode, an evaluation function of a learner's master robot 1 control ability or surgical ability may be performed.

교육 모드의 평가 기능은 실습 교사가 제1 마스터 로봇(1a)을 이용하여 수술을 진행하는 동안, 실습 학생은 제2 마스터 로봇(1b)의 암 조작부(330)를 조작하여 가상 수술도구(610)를 제어하는 과정에서 실행된다. 제2 마스터 로봇(1b)은 슬레이브 로봇(2)으로부터 복강경 영상을 수신하여 실제 수술도구(460)에 관한 특성값이나 특징 정보를 해석하고, 또한 실습 학생의 암 조작부(330) 조작에 따른 가상 수술도구(610)의 제어 과정을 해석한다. 이어서, 제2 마스터 로봇(1b)은 복강경 영상에 포함된 실제 수술도구(460)의 이동궤적 및 조작 형태와 실습 학생에 의한 가상 수술도구(610)의 이동 궤적 및 조작 형태의 유사성을 분석함으로써 실습 학생에 대한 평가 점수를 산출할 수 있다. The evaluation function of the education mode is a virtual surgery tool 610 by training the arm operation unit 330 of the second master robot 1b while the training teacher is performing the operation using the first master robot 1a. It is executed in the process of controlling. The second master robot 1b receives the laparoscope image from the slave robot 2, interprets the characteristic value or the characteristic information about the actual surgical tool 460, and also performs the virtual surgery according to the operation of the arm operation unit 330 of the training student. Analyze the control process of the tool 610. Subsequently, the second master robot 1b is trained by analyzing the similarity between the movement trajectory and the operation form of the actual surgical tool 460 included in the laparoscopic image and the movement trajectory and the operation form of the virtual surgical tool 610 by the student. Evaluate scores for students.

다른 실시예로서, 가상 모드를 보다 개량한 시뮬레이션 모드인 제5 모드에서 마스터 로봇(1)은 입체내시경을 이용하여 얻은 3차원 형상에 장기의 특성을 결 합하여 수술 시뮬레이터로 동작할 수도 있다. In another embodiment, in the fifth mode, which is a simulation mode in which the virtual mode is further improved, the master robot 1 may operate as a surgical simulator by combining the characteristics of an organ with a three-dimensional shape obtained by using a stereoscopic endoscope.

예를 들어, 화면 표시부(320)를 통해 출력되는 복강경 영상 또는 가상 화면상에 간이 포함된 경우, 마스터 로봇(1)은 저장부에 저장된 간의 특성 정보를 추출하여 화면 표시부(320)에 출력된 간과 매칭시킴으로써 수술 도중 또는 수술과 별개로 가상 모드에서 수술 시뮬레이션이 수행되도록 할 수도 있다. 복강경 영상 등에 어떤 장기가 포함되었는지 여부는 예를 들어 통상의 영상 처리 및 인식 기술을 이용하여 해당 장기의 색상, 형상 등을 인식하고, 인식된 정보를 미리 저장된 장기의 특성 정보들과 비교함으로써 해석될 수 있다. 물론, 어떤 장기가 포함되었는지 및/또는 어떤 장기에 대한 수술 시뮬레이션을 수행할 것인지는 수술자에 의해 선택될 수도 있을 것이다.For example, when liver is included in a laparoscopic image or a virtual screen output through the screen display unit 320, the master robot 1 extracts the liver liver information stored in the storage unit and is output to the screen display unit 320. The matching may also allow the surgical simulation to be performed during the surgery or in a virtual mode separately from the surgery. Which organs are included in the laparoscopic image can be interpreted by, for example, recognizing the color, shape, etc. of the corresponding organs using conventional image processing and recognition techniques, and comparing the recognized information with characteristics information of previously stored organs. Can be. Of course, which organs are included and / or which organs to perform a surgical simulation may be chosen by the operator.

이를 이용하여, 수술자는 실제로 간을 절제 또는 절단하기 전에 특성 정보와 매칭된 간의 형상을 이용하여 어떤 방향에서 어떻게 간을 절제하여야 하는지에 대한 사전수술 시뮬레이션을 진행할 수 있다. 수술 시뮬레이션 과정에서 마스터 로봇(1)은 특성 정보(예를 들어 수학적 모델링 정보 등)를 바탕으로 수술조작(예를 들어, 절제, 절단, 꿰맴, 당김, 누름 등 중 하나 이상)이 이루어지는 부분이 단단한지 또는 연한지 등에 대한 촉감이 수술자에게 전달되도록 할 수도 있다. Using this, the operator can perform a pre-surgical simulation of how and in what direction the liver should be excised using the shape of the liver matched with the characteristic information before actually cutting or cutting the liver. In the surgical simulation process, the master robot 1 has a hard part in which a surgical operation (for example, one or more of ablation, cutting, stitching, pulling, pressing, etc.) is performed based on characteristic information (for example, mathematical modeling information). Paper or soft paper may be transmitted to the operator.

해당 촉감을 전달하는 방법으로는 예를 들어 포스 피드백 처리를 수행하거나 암 조작부(330)의 조작 민감도나 조작시 저항력(예를 들어 암 조작부(330)를 앞쪽으로 밀고자 할 때 이를 저지하는 저항력 등)을 조정하는 방법 등이 있다. As a method of transmitting the touch, for example, the force feedback processing or the sensitivity of the operation of the arm operation unit 330 or the resistance during operation (for example, the resistance force to block when pushing the arm operation unit 330 forward) ), Etc.).

또한, 수술자의 조작에 의해 가상으로 절제 또는 절단된 장기의 단면이 화 면 표시부(320)를 통해 출력되도록 함으로써 수술자에게 실제적인 절제 또는 절단의 결과를 예측하도록 할 수도 있다.In addition, the section of the organ virtually cut or cut by the operator's operation may be output through the screen display unit 320 to allow the operator to predict the result of actual cutting or cutting.

또한, 마스터 로봇(1)은 수술 시뮬레이터로 기능함에 있어 화면 표시부(320)를 통해 입체 내시경을 이용하여 3차원적으로 얻은 장기의 표면 형상 정보와 CT, MRI 등의 참조 영상으로부터 재구성한 장기 표면의 3차원 형상과 정합하고, 참조 영상으로부터 재구성한 장기 내부의 3차원 형상과 특성 정보(예를 들어 수학적 모델링 정보)를 정합함으로써, 수술자에게 보다 사실적인 수술 시뮬레이션이 가능하도록 할 수도 있을 것이다. 상기 특성 정보는 해당 환자에 특화된 특성 정보일 수도 있으며, 범용으로 이용하기 위해 생성된 특성 정보일 수도 있다.In addition, the master robot 1 functions as a surgical simulator in order to reconstruct the organ surface surface information reconstructed from reference image such as CT, MRI, and the like by using the stereoscopic endoscope through the screen display unit 320. By matching the three-dimensional shape and matching the three-dimensional shape and characteristic information (for example, mathematical modeling information) inside the organ reconstructed from the reference image, it may be possible for the operator to perform more realistic surgical simulation. The characteristic information may be characteristic information specific to the patient, or may be characteristic information generated for general use.

상술한 증강현실을 이용한 수술 로봇 시스템의 제어 방법은 소프트웨어 프로그램 등으로 구현될 수도 있다. 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 프로그램은 컴퓨터가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 컴퓨터에 의하여 읽혀지고 실행됨으로써 상기 방법을 구현한다. 정보저장매체는 자기 기록매체, 광 기록매체 및 캐리어 웨이브 매체를 포함한다.The control method of the surgical robot system using the augmented reality described above may be implemented as a software program. Codes and code segments constituting a program can be easily inferred by a computer programmer in the art. The program is also stored in a computer readable media, and read and executed by a computer to implement the method. The information storage medium includes a magnetic recording medium, an optical recording medium and a carrier wave medium.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention as defined in the appended claims. It will be understood that the invention may be varied and varied without departing from the scope of the invention.

도 1은 본 발명의 일 실시예에 따른 수술용 로봇의 전체구조를 나타낸 평면도.1 is a plan view showing the overall structure of a surgical robot according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 수술용 로봇의 마스터 인터페이스를 나타낸 개념도. 2 is a conceptual diagram showing a master interface of a surgical robot according to an embodiment of the present invention.

도 3은 본 발명의 일 실시예에 따른 마스터 로봇과 슬레이브 로봇의 구성을 개략적으로 나타낸 블록 구성도.Figure 3 is a block diagram schematically showing the configuration of a master robot and a slave robot according to an embodiment of the present invention.

도 4a는 본 발명의 일 실시예에 따른 수술 로봇 시스템의 구동모드를 예시한 도면.Figure 4a is a diagram illustrating a driving mode of the surgical robot system according to an embodiment of the present invention.

도 4b는 본 발명의 일 실시예에 따른 실행중인 구동모드를 나타내는 모드 표시자를 예시한 도면.4B illustrates a mode indicator indicative of a running drive mode in accordance with one embodiment of the present invention.

도 5는 본 발명의 일 실시예에 따른 제1 모드와 제2 모드의 구동모드 선택 과정을 나타낸 순서도.5 is a flowchart illustrating a driving mode selection process of a first mode and a second mode according to an embodiment of the present invention.

도 6은 본 발명의 일 실시예에 따른 제2 모드에서 모니터부를 통해 출력되는 화면 표시의 예시도.6 is an exemplary view of a screen display output through the monitor unit in the second mode according to an embodiment of the present invention.

도 7은 본 발명의 일 실시예에 따른 증강현실 구현부(350)의 세부 구성을 나타낸 도면.7 is a view showing a detailed configuration of the augmented reality implementation unit 350 according to an embodiment of the present invention.

도 8은 본 발명의 일 실시예에 따른 제2 모드에서의 마스터 로봇의 구동방법을 나타낸 순서도.8 is a flowchart illustrating a method of driving a master robot in a second mode according to an embodiment of the present invention.

도 9는 본 발명의 다른 실시예에 따른 증강현실 구현부(350)의 세부 구성을 나타낸 도면.9 is a view showing a detailed configuration of the augmented reality implementation unit 350 according to another embodiment of the present invention.

도 10 및 도 11은 각각 본 발명의 다른 실시예에 따른 제2 모드에서의 마스터 로봇의 구동방법을 나타낸 순서도.10 and 11 are flowcharts illustrating a method of driving a master robot in a second mode according to another embodiment of the present invention, respectively.

도 12는 본 발명의 또 다른 실시예에 따른 마스터 로봇과 슬레이브 로봇의 구성을 개략적으로 나타낸 블록 구성도.12 is a block diagram schematically showing the configuration of a master robot and a slave robot according to another embodiment of the present invention.

도 13은 본 발명의 또 다른 실시예에 따른 수술 로봇 시스템의 정상 구동을 검증하는 방법을 나타낸 순서도.13 is a flow chart illustrating a method for verifying normal operation of a surgical robot system according to another embodiment of the present invention.

도 14는 본 발명의 또 다른 실시예에 따른 증강현실 구현부의 세부 구성을 나타낸 도면.14 is a view showing a detailed configuration of the augmented reality implementation unit according to another embodiment of the present invention.

도 15 및 도 16은 각각 본 발명의 또 다른 실시예에 따른 가상 수술도구를 출력하기 위한 마스터 로봇의 구동방법을 나타낸 순서도.15 and 16 are flowcharts showing a method of driving a master robot for outputting a virtual surgical tool according to another embodiment of the present invention, respectively.

도 17은 본 발명의 또 다른 실시예에 따른 참조 이미지 제공 방법을 나타낸 순서도.17 is a flowchart illustrating a method of providing a reference image according to another embodiment of the present invention.

도 18은 본 발명의 또 다른 실시예에 따른 수술용 로봇의 전체구조를 나타낸 평면도. 18 is a plan view showing the overall structure of a surgical robot according to another embodiment of the present invention.

도 19는 본 발명의 또 다른 실시예에 따른 교육 모드에서의 수술 로봇 시스템의 동작 방법을 나타낸 도면.19 illustrates a method of operating a surgical robot system in an educational mode according to another embodiment of the present invention.

도 20은 본 발명의 또 다른 실시예에 따른 교육 모드에서의 수술 로봇 시스템의 동작 방법을 나타낸 도면. 20 illustrates a method of operating a surgical robot system in a training mode according to another embodiment of the present invention.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for main parts of the drawings>

1, 1a, 1b: 마스터 로봇 2: 슬레이브 로봇1, 1a, 1b: master robot 2: slave robot

3: 로봇 암 4: 마스터 인터페이스3: robot arm 4: master interface

5: 복강경 6: 모니터부5: Laparoscope 6: Monitor

10: 핸들 14: 클러치 버튼10: handle 14: clutch button

310: 영상 입력부 320: 화면 표시부310: image input unit 320: screen display unit

330: 암 조작부 340: 조작신호 생성부330: arm operation unit 340: operation signal generation unit

350: 증강현실 구현부 360: 제어부350: augmented reality implementation unit 360: control unit

710: 특성값 연산부 720: 가상 수술도구 생성부710: characteristic value calculator 720: virtual surgical tool generation unit

730: 테스트 신호 처리부 740: 지연시간 산출부730: test signal processing unit 740: delay time calculation unit

910: 간격 연산부 920: 영상 해석부910: interval calculation unit 920: image analysis unit

1210: 네트워크 검증부 1410: 중첩 처리부1210: network verification unit 1410: overlapping processing unit

1420: 접촉 인식부 1420: contact recognition unit

Claims (70)

로봇 암을 포함하는 슬레이브(slave) 로봇을 제어하는 마스터(master) 로봇에 장착되는 인터페이스(interface)로서,An interface mounted on a master robot that controls a slave robot including a robot arm, 수술용 내시경으로부터 제공되는 영상 신호에 상응하는 내시경 영상을 디스플레이하는 화면 표시부; A screen display unit displaying an endoscope image corresponding to an image signal provided from a surgical endoscope; 상기 로봇 암을 각각 제어하기 위해 구비되는 하나 이상의 암 조작부; 및One or more arm manipulation units provided to control the robot arms, respectively; And 상기 화면 표시부를 통해 가상 수술도구가 디스플레이되도록 하기 위해 상기 암 조작부를 이용한 사용자 조작에 따른 가상 수술도구 정보를 생성하는 증강현실 구현부를 포함하는 수술용 로봇의 마스터 인터페이스.Master interface of the surgical robot including an augmented reality implementation unit for generating virtual surgical tool information according to a user operation using the cancer operation unit to display the virtual surgical tool through the screen display. 제1항에 있어서,The method of claim 1, 상기 수술용 내시경은 복강경, 흉강경, 관절경, 비경, 방광경, 직장경, 십이지장경, 종격경, 심장경 중 하나 이상인 것을 특징으로 하는 수술용 로봇의 마스터 인터페이스.The surgical endoscope is a master interface of the surgical robot, characterized in that at least one of the laparoscope, thoracoscopic, arthroscopy, parenteral, bladder, rectal, duodenum, mediastinoscope, cardiac. 제1항에 있어서,The method of claim 1, 상기 로봇 암의 제어를 위한 상기 사용자 조작에 따른 조작신호를 생성하여 상기 슬레이브 로봇으로 전송하는 조작신호 생성부를 더 포함하는 수술용 로봇의 마스터 인터페이스.And a manipulation signal generator for generating a manipulation signal according to the user manipulation for controlling the robot arm and transmitting the manipulation signal to the slave robot. 제1항에 있어서,The method of claim 1, 상기 마스터 로봇의 구동모드를 지정하기 위한 구동모드 선택부; 및A drive mode selection unit for designating a drive mode of the master robot; And 상기 구동모드 선택부를 통해 선택된 구동모드에 상응하여 상기 화면 표시부를 통해 상기 내시경 영상 및 상기 가상 수술도구 중 하나 이상이 디스플레이되도록 제어하는 제어부를 더 포함하는 수술용 로봇의 마스터 인터페이스.And a control unit for controlling one or more of the endoscope image and the virtual surgical tool to be displayed through the screen display unit in correspondence with the driving mode selected by the driving mode selecting unit. 제4항에 있어서,The method of claim 4, wherein 상기 제어부는 상기 선택된 구동모드에 상응하는 모드 표시자가 상기 화면 표시부를 통해 디스플레이되도록 제어하는 것을 특징으로 하는 수술용 로봇의 마스터 인터페이스.The control unit is a master interface of the surgical robot, characterized in that for controlling the mode indicator corresponding to the selected driving mode is displayed on the screen display. 제5항에 있어서,The method of claim 5, 상기 모드 표시자는 텍스트 메시지, 테두리 색상, 아이콘, 배경 색상 등 중 하나 이상으로 미리 지정되는 것을 특징으로 하는 수술용 로봇의 마스터 인터페이 스.The mode indicator is a master interface of a surgical robot, characterized in that predetermined in at least one of a text message, a border color, an icon, a background color. 제1항에 있어서,The method of claim 1, 상기 슬레이브 로봇은 생체 정보 측정 유닛을 더 포함하고,The slave robot further includes a biometric information measuring unit, 상기 생체 정보 측정 유닛에 의해 측정된 생체 정보는 상기 화면 표시부를 통해 디스플레이되는 것을 특징으로 하는 수술용 로봇의 마스터 인터페이스.The biometric information measured by the biometric information measuring unit is displayed on the screen display unit, the master interface of the surgical robot. 제1항에 있어서,The method of claim 1, 상기 증강현실 구현부는,The augmented reality implementation unit, 상기 내시경 영상 및 하나 이상의 로봇 암에 결합된 실제 수술도구의 위치 좌표정보 중 하나 이상을 이용하여 특성값을 연산하는 특성값 연산부; 및A characteristic value calculator configured to calculate characteristic values using at least one of the endoscope image and position coordinate information of an actual surgical tool coupled to at least one robot arm; And 상기 암 조작부를 이용한 사용자 조작에 따른 가상 수술도구 정보를 생성하는 가상 수술도구 생성부를 포함하는 것을 특징으로 하는 수술용 로봇의 마스터 인터페이스.Master interface of the surgical robot, characterized in that it comprises a virtual surgical tool generating unit for generating virtual surgical tool information according to the user operation using the arm operation unit. 제8항에 있어서,The method of claim 8, 상기 특성값 연산부에 의해 연산되는 상기 특성값은 상기 수술용 내시경의 화각(FOV), 확대율, 관점(viewpoint), 보는 깊이, 상기 실제 수술도구의 종류, 방향, 깊이, 꺽인 각도 중 하나 이상을 포함하는 것을 특징으로 하는 수술용 로봇의 마스터 인터페이스.The characteristic value calculated by the characteristic value calculator includes one or more of an angle of view (FOV), an enlargement ratio, a viewpoint, a viewing depth, a type of the actual surgical tool, a direction, a depth, and a bending angle of the surgical endoscope. Master interface of the surgical robot, characterized in that. 제8항에 있어서,The method of claim 8, 상기 증강현실 구현부는,The augmented reality implementation unit, 테스트 신호를 상기 슬레이브 로봇으로 전송하고, 상기 슬레이브 로봇으로부터 상기 테스트 신호에 따른 응답 신호를 수신하는 테스트 신호 처리부; 및A test signal processor which transmits a test signal to the slave robot and receives a response signal according to the test signal from the slave robot; And 상기 테스트 신호의 전송 시각 및 상기 응답 신호의 수신 시각을 이용하여 상기 마스터 로봇과 상기 슬레이브 로봇간의 네트워크 통신 속도 및 네트워크 통신상의 지연시간 중 하나 이상에 대한 지연값을 산출하는 지연시간 산출부를 더 포함하는 것을 특징으로 하는 수술용 로봇의 마스터 인터페이스.And a delay time calculator configured to calculate a delay value for at least one of a network communication speed between the master robot and the slave robot and a delay time in network communication using the transmission time of the test signal and the reception time of the response signal. Master interface of the surgical robot, characterized in that. 제10항에 있어서,The method of claim 10, 상기 화면 표시부를 통해 상기 내시경 영상 및 상기 가상 수술도구 중 하나 이상이 디스플레이되도록 제어하는 제어부를 더 포함하되,Further comprising a control unit for controlling one or more of the endoscope image and the virtual surgical tool to be displayed through the screen display, 상기 제어부는 상기 지연값이 미리 설정된 지연 임계값 이하인 경우에는 상기 내시경 영상만이 상기 화면 표시부를 통해 디스플레이되도록 제어하는 것을 특 징으로 하는 수술용 로봇의 마스터 인터페이스.And the control unit controls to display only the endoscope image through the screen display unit when the delay value is less than or equal to a preset delay threshold. 제8항에 있어서,The method of claim 8, 상기 증강현실 구현부는,The augmented reality implementation unit, 상기 화면 표시부를 통해 디스플레이되는 실제 수술도구와 가상 수술도구의 위치 좌표를 이용하여 각 수술도구간의 간격값을 연산하는 간격 연산부를 더 포함하는 수술용 로봇의 마스터 인터페이스.The master interface of the surgical robot further comprises an interval calculating unit for calculating the interval value between each surgical tool using the position coordinates of the actual surgical tool and the virtual surgical tool displayed through the screen display. 제12항에 있어서,The method of claim 12, 상기 가상 수술도구 생성부는 상기 간격 연산부에 의해 연산된 상기 간격값이 미리 설정된 간격 임계값 이하인 경우 상기 가상 수술도구가 상기 화면 표시부를 통해 표시되지 않도록 처리하는 것을 특징으로 하는 수술용 로봇의 마스터 인터페이스.And the virtual surgical tool generating unit processes the virtual surgical tool not to be displayed through the screen display unit when the interval value calculated by the interval calculating unit is equal to or less than a preset interval threshold value. 제12항에 있어서,The method of claim 12, 상기 가상 수술도구 생성부는 상기 간격 연산부에 의해 연산된 상기 간격값에 비례하여 상기 가상 수술도구에 대한 반투명도 조절, 색상 변경 및 외곽선 두께 변경 중 하나 이상에 대한 처리를 수행하는 것을 특징으로 하는 수술용 로봇의 마스터 인터페이스.The virtual surgical tool generating unit for the surgical operation, characterized in that for processing at least one of semi-transparency adjustment, color change and outline thickness change for the virtual surgical tool in proportion to the interval value calculated by the interval calculating unit The master interface of the robot. 제8항에 있어서,The method of claim 8, 상기 증강현실 구현부는,The augmented reality implementation unit, 상기 화면 표시부를 통해 디스플레이되는 내시경 영상에 대한 이미지 처리를 통해 특징 정보를 추출하는 영상 해석부를 더 포함하는 수술용 로봇의 마스터 인터페이스.The master interface of the surgical robot further comprises an image analysis unit for extracting feature information through the image processing for the endoscope image displayed through the screen display. 제15항에 있어서,The method of claim 15, 상기 특징 정보는 상기 내시경 영상의 픽셀별 색상값, 실제 수술도구의 위치좌표 및 조작 형상 중 하나 이상인 것을 특징으로 하는 수술용 로봇의 마스터 인터페이스.The characteristic information is a master interface of the surgical robot, characterized in that at least one of the color value of each pixel of the endoscope image, the position coordinates and the operation shape of the actual surgical tool. 제16항에 있어서,The method of claim 16, 상기 영상 해석부는 상기 내시경 영상 내에 미리 설정된 색상값 범위에 포함되는 색상값을 가지는 픽셀의 면적 또는 수량이 임계값을 초과하는 경우 경고 요 청을 출력하되,The image analyzer outputs a warning request when an area or quantity of pixels having a color value included in a preset color value range in the endoscope image exceeds a threshold value. 상기 경고 요청에 따라 상기 화면 표시부를 통한 경고 메시지 디스플레이, 스피커부를 통한 경고 음향 출력 및 가상 수술도구에 대한 디스플레이 중지 중 하나 이상이 수행되는 것을 특징으로 하는 수술용 로봇의 마스터 인터페이스.According to the warning request, the master interface of the surgical robot, characterized in that one or more of the warning message display through the screen display unit, the warning sound output through the speaker unit and the display stop for the virtual surgical tool is performed. 제8항에 있어서,The method of claim 8, 상기 특성값 연산부에 의해 연산된 특성값에 포함된 상기 실제 수술도구의 위치 좌표정보 및 상기 가상 수술도구 생성부에 의해 생성된 가상 수술도구 정보에 포함된 상기 가상 수술도구의 위치 좌표정보를 이용하여 상기 마스터 로봇과 상기 슬레이브 로봇간의 네트워크 통신 상태를 검증하는 네트워크 검증부를 더 포함하는 수술용 로봇의 마스터 인터페이스.By using the position coordinate information of the actual surgical tool included in the characteristic value calculated by the characteristic value calculator and the position coordinate information of the virtual surgical tool included in the virtual surgical tool information generated by the virtual surgical tool generating unit. The master interface of the surgical robot further comprises a network verification unit for verifying the network communication state between the master robot and the slave robot. 제15항에 있어서,The method of claim 15, 상기 영상 해석부에 의해 추출된 특징 정보에 포함된 상기 실제 수술도구 및 가상 수술도구의 각 위치 좌표정보를 이용하여 상기 마스터 로봇과 상기 슬레이브 로봇간의 네트워크 통신 상태를 검증하는 네트워크 검증부를 더 포함하는 수술용 로봇의 마스터 인터페이스.And further comprising a network verification unit for verifying a network communication state between the master robot and the slave robot by using the position coordinate information of the real surgical tool and the virtual surgical tool included in the feature information extracted by the image analyzer. Master interface of the robot. 제18항 또는 제19항 중 어느 한 항에 있어서,The method according to any one of claims 18 or 19, 상기 네트워크 검증부는 네트워크 통신 상태의 검증을 위해 각 수술도구의 이동궤적 및 조작형태 중 하나 이상을 더 이용하는 것을 특징으로 하는 수술용 로봇의 마스터 인터페이스.The network verification unit master interface of the surgical robot, characterized in that further using at least one of the movement trajectory and operation form of each surgical tool for verification of the network communication state. 제18항 또는 제19항 중 어느 한 항에 있어서,The method according to any one of claims 18 or 19, 상기 네트워크 검증부는 상기 가상 수술도구의 위치 좌표정보가 앞서 저장된 상기 실제 수술도구의 위치 좌표정보와 오차범위 내에서 일치하는지 여부의 판단으로서 네트워크 통신 상태를 검증하는 것을 특징으로 하는 수술용 로봇의 마스터 인터페이스.The network verification unit is a master interface of the surgical robot, characterized in that for verifying whether the position coordinate information of the virtual surgical tool is matched with the position coordinate information of the actual surgical tool previously stored within the error range . 제18항 또는 제19항에 있어서,The method of claim 18 or 19, 상기 네트워크 검증부는 상기 실제 수술도구의 위치 좌표정보와 상기 가상 수술도구의 위치 좌표정보가 오차범위 내에서 일치하지 않는 경우 경고 요청을 출력하되,The network verification unit outputs a warning request if the position coordinate information of the actual surgical tool and the position coordinate information of the virtual surgical tool do not match within an error range, 상기 경고 요청에 따라 상기 화면 표시부를 통한 경고 메시지 디스플레이, 스피커부를 통한 경고 음향 출력 및 가상 수술도구에 대한 디스플레이 중지 중 하 나 이상이 수행되는 것을 특징으로 하는 수술용 로봇의 마스터 인터페이스.According to the warning request, one or more of the warning message display through the screen display unit, the warning sound output through the speaker unit and the display stop for the virtual surgical tool is performed. 제8항에 있어서,The method of claim 8, 상기 증강현실 구현부는,The augmented reality implementation unit, 상기 화면 표시부를 통해 디스플레이되는 내시경 영상에 대한 이미지 처리를 통해 수술부위 또는 상기 내시경 영상을 통해 디스플레이되는 장기(臟器)의 영역 좌표정보를 포함하는 특징 정보를 추출하는 영상 해석부; 및An image analyzer extracting feature information including region coordinate information of a surgical site or an organ displayed through the endoscope image through image processing of the endoscope image displayed through the screen display unit; And 상기 가상 수술도구 정보 및 상기 영역 좌표정보를 이용하여 상기 가상 수술도구가 상기 영역 좌표정보와 중첩이 발생되어 뒤쪽에 위치하는 여부를 판단하고, 중첩이 발생되는 경우 가상 수술도구의 형상 중 중첩이 발생된 영역을 은폐 처리하는 중첩 처리부를 더 포함하는 수술용 로봇의 마스터 인터페이스.Using the virtual surgical tool information and the area coordinate information, it is determined whether the virtual surgical tool is located behind the area by generating overlap with the area coordinate information. When the overlap occurs, the overlap of the shape of the virtual surgical tool occurs. The master interface of the surgical robot further comprises an overlapping processing unit for concealing the closed area. 제8항에 있어서,The method of claim 8, 상기 증강현실 구현부는,The augmented reality implementation unit, 상기 화면 표시부를 통해 디스플레이되는 내시경 영상에 대한 이미지 처리를 통해 수술부위 또는 상기 내시경 영상을 통해 디스플레이되는 장기(臟器)의 영역 좌표정보를 포함하는 특징 정보를 추출하는 영상 해석부; 및An image analyzer extracting feature information including region coordinate information of a surgical site or an organ displayed through the endoscope image through image processing of the endoscope image displayed through the screen display unit; And 상기 가상 수술도구 정보 및 상기 영역 좌표정보를 이용하여 상기 가상 수 술도구가 상기 영역 좌표정보와 접촉이 발생되었는지 여부를 판단하고, 접촉이 발생되는 경우 접촉 경고 처리를 수행하는 접촉 인식부를 더 포함하는 수술용 로봇의 마스터 인터페이스.The virtual surgical tool further includes a contact recognition unit configured to determine whether contact with the region coordinate information is generated using the virtual surgical tool information and the region coordinate information, and to perform a contact warning process when a contact is generated. Master interface for surgical robots. 제24항에 있어서,The method of claim 24, 상기 접촉 경고 처리는 포스 피드백(force feedback) 처리, 암 조작부의 조작 제한, 상기 화면 표시부를 통한 경고 메시지 디스플레이 및 스피커부를 통한 경고 음향 출력 중 하나 이상인 것을 특징으로 하는 수술용 로봇의 마스터 인터페이스.The touch alert processing is at least one of a force feedback process, an operation restriction of the arm operation unit, a warning message display through the screen display unit and a warning sound output through the speaker unit. 제1항에 있어서,The method of claim 1, 엑스-레이(X-Ray) 영상, 컴퓨터단층촬영(CT) 영상 및 자기공명영상촬영(MRI) 영상 중 하나 이상인 참조 영상을 저장하는 저장부; 및A storage unit for storing a reference image which is one or more of an X-ray image, a computed tomography (CT) image, and a magnetic resonance imaging (MRI) image; And 상기 화면 표시부를 통해 디스플레이되는 내시경 영상에 대한 이미지 처리를 통해 수술부위 또는 상기 내시경 영상을 통해 디스플레이되는 장기(臟器)를 인식하는 영상 해석부를 더 포함하되,Further comprising an image analysis unit for recognizing the surgical site or the organ displayed through the endoscope image through the image processing for the endoscope image displayed through the screen display, 상기 영상 해석부에 의해 인식된 장기의 명칭에 상응하여 상기 참조 영상이 상기 내시경 영상이 표시되는 표시 화면과 독립된 표시 화면을 통해 디스플레이되 는 것을 특징으로 하는 수술용 로봇의 마스터 인터페이스.And the reference image is displayed on a display screen independent of a display screen on which the endoscope image is displayed, corresponding to a name of an organ recognized by the image analyzer. 제8항에 있어서,The method of claim 8, 엑스-레이(X-Ray) 영상, 컴퓨터단층촬영(CT) 영상 및 자기공명영상촬영(MRI) 영상 중 하나 이상인 참조 영상을 저장하는 저장부를 더 포함하되,Further comprising a storage unit for storing a reference image of at least one of an X-ray image, a computed tomography (CT) image and a magnetic resonance imaging (MRI) image, 상기 특성값 연산부에 의해 연산된 상기 실제 수술도구의 위치 좌표정보에 상응하여 상기 참조 영상이 상기 내시경 영상이 표시되는 표시 화면에 함께 표시되거나 상기 표시 화면과 독립된 표시 화면을 통해 디스플레이되는 것을 특징으로 하는 수술용 로봇의 마스터 인터페이스.The reference image is displayed together on a display screen on which the endoscope image is displayed or on a display screen independent of the display screen, corresponding to the position coordinate information of the actual surgical tool calculated by the characteristic value calculator. Master interface for surgical robots. 제26항 또는 제27항 중 어느 한 항에 있어서,The method of claim 26 or 27, wherein 상기 참조 영상은 MPR(Multi Planner Reformat)을 이용한 3차원 영상으로 디스플레이되는 것을 특징으로 하는 수술용 로봇의 마스터 인터페이스.The reference image is a master interface of a surgical robot, characterized in that displayed as a three-dimensional image using the Multi Planner Reformat (MPR). 수술 로봇 시스템으로서,As a surgical robotic system, 상호간에 통신망을 통해 결합된 둘 이상의 마스터(master) 로봇; 및Two or more master robots coupled to one another via a communication network; And 임의의 마스터 로봇으로부터 수신되는 조작신호에 따라 제어되는 하나 이상 의 로봇 암을 포함하는 슬레이브(slave) 로봇을 포함하는 수술 로봇 시스템.Surgical robot system including a slave (slave) robot including one or more robot arms controlled in accordance with the operation signal received from any master robot. 제29항에 있어서,30. The method of claim 29, 상기 마스터 로봇 각각은, Each of the master robot, 수술용 내시경으로부터 제공되는 영상 신호에 상응하는 내시경 영상을 디스플레이하는 화면 표시부; A screen display unit displaying an endoscope image corresponding to an image signal provided from a surgical endoscope; 하나 이상의 로봇 암을 각각 제어하기 위해 구비되는 하나 이상의 암 조작부; 및One or more arm manipulation units provided for respectively controlling one or more robot arms; And 상기 화면 표시부를 통해 가상 수술도구가 디스플레이되도록 하기 위해 상기 암 조작부를 이용한 사용자 조작에 따른 가상 수술도구 정보를 생성하는 증강현실 구현부를 포함하는 것을 특징으로 하는 수술 로봇 시스템.Surgical robot system comprising augmented reality implementation for generating a virtual surgical tool information according to a user operation using the cancer operation unit to display the virtual surgical tool through the screen display. 제29항에 있어서,30. The method of claim 29, 상기 둘 이상의 마스터 로봇 중 어느 하나인 제1 마스터 로봇의 암 조작부 조작은 상기 가상 수술도구 정보의 생성을 위해서 기능하고, 상기 둘 이상의 마스터 로봇 중 다른 하나인 제2 마스터 로봇의 암 조작부 조작은 상기 로봇 암의 제어를 위해 기능하는 것을 특징으로 하는 수술 로봇 시스템.The operation of the arm operation unit of the first master robot, which is one of the at least two master robots, functions to generate the virtual surgical tool information, and the operation of the arm operation unit of the second master robot, which is the other of the at least two master robots, is the robot. Surgical robot system, characterized in that it functions for the control of cancer. 제31항에 있어서,The method of claim 31, wherein 상기 제1 마스터 로봇의 암 조작부 조작에 따른 가상 수술도구 정보에 상응하는 가상 수술도구가 상기 제2 마스터 로봇의 화면 표시부를 통해 디스플레이되는 것을 특징으로 하는 수술 로봇 시스템.And a virtual surgical tool corresponding to the virtual surgical tool information according to the operation of the arm manipulation unit of the first master robot is displayed on the screen display of the second master robot. 로봇 암을 포함하는 슬레이브 로봇을 제어하는 마스터 로봇에서 수행되는 수술 로봇 시스템의 제어 방법으로서,A control method of a surgical robot system performed in a master robot for controlling a slave robot including a robot arm, 수술용 내시경으로부터 입력되는 영상 신호에 상응하는 내시경 영상을 디스플레이하는 단계;Displaying an endoscope image corresponding to an image signal input from a surgical endoscope; 암 조작부의 조작에 따른 가상 수술도구 정보를 생성하는 단계; 및Generating virtual surgical tool information according to manipulation of the arm manipulation unit; And 상기 가상 수술도구 정보에 상응하는 가상 수술도구가 상기 내시경 영상과 함께 디스플레이되도록 하는 단계를 포함하는 수술 로봇 시스템의 제어 방법.And controlling the virtual surgical tool corresponding to the virtual surgical tool information to be displayed together with the endoscope image. 제33항에 있어서,34. The method of claim 33, 상기 수술용 내시경은 복강경, 흉강경, 관절경, 비경, 방광경, 직장경, 십이지장경, 종격경, 심장경 중 하나 이상인 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.The surgical endoscope is a control method of a surgical robot system, characterized in that at least one of the laparoscope, thoracoscopic, arthroscopy, parenteral, bladder, rectal, duodenum, mediastinoscope, cardiac. 제33항에 있어서,34. The method of claim 33, 상기 가상 수술도구 정보를 생성하는 단계는,Generating the virtual surgical tool information, 상기 암 조작부의 조작에 따른 조작 정보를 입력받는 단계; 및Receiving manipulation information according to manipulation of the arm manipulation unit; And 상기 조작 정보에 따라 상기 가상 수술도구 정보 및 상기 로봇 암의 제어를 위한 조작신호를 생성하는 단계를 포함하되,Generating an operation signal for controlling the virtual surgical tool information and the robot arm according to the operation information, 상기 조작신호는 상기 로봇 암의 제어를 위해 상기 슬레이브 로봇으로 전송되는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.And the manipulation signal is transmitted to the slave robot for controlling the robot arm. 제33항에 있어서,34. The method of claim 33, 상기 마스터 로봇의 구동모드를 지정하기 위한 구동모드 선택 명령을 입력받는 단계; 및Receiving a driving mode selection command for designating a driving mode of the master robot; And 상기 구동모드 선택 명령에 따라 화면 표시부를 통해 상기 내시경 영상 및 상기 가상 수술도구 중 하나 이상이 디스플레이되도록 제어하는 단계를 더 포함하는 수술 로봇 시스템의 제어 방법.And controlling one or more of the endoscope image and the virtual surgical tool to be displayed through a screen display according to the driving mode selection command. 제36항에 있어서,The method of claim 36, 상기 구동모드 선택 명령의 의해 지정된 구동모드에 상응하는 모드 표시자가 상기 화면 표시부를 통해 디스플레이되도록 제어하는 단계를 더 포함하는 수술 로봇 시스템의 제어 방법.And controlling a mode indicator corresponding to the drive mode designated by the drive mode selection command to be displayed on the screen display unit. 제37항에 있어서,The method of claim 37, 상기 모드 표시자는 텍스트 메시지, 테두리 색상, 아이콘, 배경 색상 등 중 하나 이상으로 미리 지정되는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.The mode indicator is a control method of a surgical robot system, characterized in that predetermined in at least one of a text message, a border color, an icon, a background color. 제33항에 있어서,34. The method of claim 33, 상기 슬레이브 로봇으로부터 측정된 생체 정보를 수신하는 단계; 및Receiving biometric information measured from the slave robot; And 상기 생체 정보를 상기 내시경 영상이 디스플레이되는 표시 영역과 독립된 표시 영역에 디스플레이하는 단계를 더 포함하는 수술 로봇 시스템의 제어 방법.And displaying the biometric information in a display area independent of the display area in which the endoscope image is displayed. 제33항에 있어서,34. The method of claim 33, 상기 내시경 영상 및 상기 로봇 암에 결합된 실제 수술도구의 위치 좌표정보 중 하나 이상을 이용하여 특성값을 연산하는 단계를 더 포함하되,Computing a characteristic value using at least one of the endoscope image and the position coordinate information of the actual surgical tool coupled to the robot arm, 상기 특성값은 상기 수술용 내시경의 화각(FOV), 확대율, 관점(viewpoint), 보는 깊이, 상기 실제 수술도구의 종류, 방향, 깊이, 꺽인 각도 중 하나 이상을 포함하는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.The characteristic value may include at least one of a field of view (FOV), an enlargement ratio, a viewpoint, a viewing depth, a type, a direction, a depth, and a bending angle of the surgical endoscope. Control method. 제33항에 있어서,34. The method of claim 33, 테스트 신호를 상기 슬레이브 로봇으로 전송하는 단계;Transmitting a test signal to the slave robot; 상기 슬레이브 로봇으로부터 상기 테스트 신호에 따른 응답 신호를 수신하는 단계; 및Receiving a response signal according to the test signal from the slave robot; And 상기 테스트 신호의 전송 시각 및 상기 응답 신호의 수신 시각을 이용하여 상기 마스터 로봇과 상기 슬레이브 로봇간의 네트워크 통신 속도 및 네트워크 통신상의 지연시간 중 하나 이상에 대한 지연값을 산출하는 단계를 더 포함하는 수술 로봇 시스템의 제어 방법.And calculating a delay value for at least one of a network communication speed between the master robot and the slave robot and a delay time in network communication using the transmission time of the test signal and the reception time of the response signal. How to control the system. 제41항에 있어서,The method of claim 41, wherein 상기 가상 수술도구가 상기 내시경 영상과 함께 디스플레이되도록 하는 단계는,The step of displaying the virtual surgical tool with the endoscope image, 상기 지연값이 미리 설정된 지연 임계값 이하인지 여부를 판단하는 단계; Determining whether the delay value is equal to or less than a preset delay threshold value; 지연 임계값을 초과하는 경우, 상기 가상 수술도구가 상기 내시경 영상과 함께 디스플레이되도록 처리하는 단계; 및If the delay threshold is exceeded, processing the virtual surgical instrument to be displayed together with the endoscope image; And 지연 임계값 이하인 경우, 상기 내시경 영상만이 표시되도록 처리하는 단계를 포함하는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.And controlling the endoscope image to display only the endoscope image when the delay threshold is less than or equal to the delay threshold value. 제33항에 있어서,34. The method of claim 33, 실제 수술도구가 포함되어 디스플레이되는 상기 내시경 영상 및 디스플레이되는 가상 수술도구의 위치 좌표를 연산하는 단계; 및Calculating a position coordinate of the displayed endoscope image and the displayed virtual surgical tool including an actual surgical tool; And 각 수술도구의 위치 좌표를 이용하여 각 수술도구간의 간격값을 연산하는 단계를 더 포함하는 수술 로봇 시스템의 제어 방법.Comprising a step of calculating the interval value between each surgical tool using the position coordinates of each surgical tool. 제43항에 있어서,The method of claim 43, 상기 가상 수술도구가 상기 내시경 영상과 함께 디스플레이되도록 하는 단계는,The step of displaying the virtual surgical tool with the endoscope image, 상기 간격값이 미리 설정된 간격 임계값 이하인지 여부를 판단하는 단계; 및Determining whether the interval value is equal to or less than a preset interval threshold value; And 이하인 경우에만 상기 가상 수술도구가 상기 내시경 영상과 함께 디스플레이되도록 처리하는 단계를 포함하는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.And controlling the virtual surgical tool to be displayed together with the endoscope image only in the following cases. 제43항에 있어서,The method of claim 43, 상기 가상 수술도구가 상기 내시경 영상과 함께 디스플레이되도록 하는 단계는,The step of displaying the virtual surgical tool with the endoscope image, 상기 간격값이 미리 설정된 간격 임계값을 초과하는지 여부를 판단하는 단계; 및Determining whether the interval value exceeds a preset interval threshold; And 초과하는 경우, 반투명도 조절, 색상 변경 및 외곽선 두께 변경 중 하나 이상이 처리된 상기 가상 수술도구가 상기 내시경 영상과 함께 디스플레이되도록 처리하는 단계를 포함하는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.If exceeding, the method of controlling the surgical robot system characterized in that it comprises the step of displaying the virtual surgical tool is processed with one or more of the semi-transparency control, color change and outline thickness change is displayed with the endoscope image. 제43항에 있어서,The method of claim 43, 각 수술도구의 위치 좌표가 미리 설정된 오차 범위 내에서 일치하는지 여부를 판단하는 단계; 및Determining whether or not the position coordinates of the respective surgical instruments coincide within a preset error range; And 상기 판단의 결과에 의해 상기 마스터 로봇과 상기 슬레이브 로봇간의 통신 상태를 검증하는 단계를 더 포함하는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.And verifying a communication state between the master robot and the slave robot based on a result of the determination. 제46항에 있어서,47. The method of claim 46 wherein 상기 판단하는 단계에서, 가상 수술도구에 대한 현재의 위치 좌표와 실제 수술도구에 대한 이전의 위치 좌표가 오차 범위 내에서 일치하는지 여부가 판단되는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.In the determining step, it is determined whether the current position coordinates for the virtual surgical tool and the previous position coordinates for the actual surgical tool is within the error range is determined. 제46항에 있어서,47. The method of claim 46 wherein 상기 판단하는 단계에서, 각 수술도구의 이동궤적 및 조작형태 중 하나 이상이 오차 범위 내에서 일치하는지 여부가 더 판단되는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.In the determining step, the control method of the surgical robot system, characterized in that it is further determined whether one or more of the movement trajectory and operation form of each surgical tool is within the error range. 제33항에 있어서,34. The method of claim 33, 상기 디스플레이되는 내시경 영상에서 픽셀별 색상값을 포함하는 특징 정보를 추출하는 단계;Extracting feature information including color values of pixels from the displayed endoscope image; 상기 내시경 영상 내에 미리 설정된 색상값 범위에 포함되는 색상값을 가지는 픽셀의 면적 또는 수량이 임계값을 초과하는지 여부를 판단하는 단계; 및Determining whether an area or a quantity of pixels having a color value included in a preset color value range in the endoscope image exceeds a threshold value; And 초과하는 경우 경고 정보를 출력하는 단계를 더 포함하는 수술 로봇 시스템의 제어 방법.If exceeded, the control method of the surgical robot system further comprising the step of outputting warning information. 제49항에 있어서,The method of claim 49, 상기 경고 요청에 따라 경고 메시지 디스플레이, 경고 음향 출력 및 가상 수술도구에 대한 디스플레이 중지 중 하나 이상이 수행되는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.And controlling at least one of displaying a warning message, outputting a warning sound, and stopping the display of the virtual surgical tool according to the warning request. 제33항에 있어서,34. The method of claim 33, 상기 가상 수술도구가 상기 내시경 영상과 함께 디스플레이되도록 하는 단계는,The step of displaying the virtual surgical tool with the endoscope image, 상기 내시경 영상에 대한 이미지 처리를 통해, 수술부위 또는 상기 내시경 영상을 통해 디스플레이되는 장기(臟器)의 영역 좌표정보를 추출하는 단계; Extracting region coordinate information of an organ displayed through a surgical site or the endoscope image through image processing of the endoscope image; 상기 가상 수술도구 정보 및 상기 영역 좌표정보를 이용하여 상기 가상 수술도구가 상기 영역 좌표정보와 중첩이 발생되어 뒤쪽에 위치하는 여부를 판단하는 단계; 및Determining whether the virtual surgical tool is located behind the virtual surgical tool by using the virtual surgical tool information and the region coordinate information and overlapping the region coordinate information; And 중첩이 발생되는 경우 가상 수술도구의 형상 중 중첩이 발생된 영역을 은폐 처리하는 단계를 포함하는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.If the overlap is generated, the control method of the surgical robot system comprising the step of concealing the area in which the overlap occurs in the shape of the virtual surgical tool. 제33항에 있어서,34. The method of claim 33, 상기 내시경 영상에 대한 이미지 처리를 통해, 수술부위 또는 상기 내시경 영상을 통해 디스플레이되는 장기(臟器)의 영역 좌표정보를 추출하는 단계;Extracting region coordinate information of an organ displayed through a surgical site or the endoscope image through image processing of the endoscope image; 상기 가상 수술도구 정보 및 상기 영역 좌표정보를 이용하여 상기 가상 수술도구가 상기 영역 좌표정보와 접촉이 발생되었는지 여부를 판단하는 단계; 및Determining whether the virtual surgical tool is in contact with the area coordinate information by using the virtual surgical tool information and the area coordinate information; And 접촉이 발생되는 경우 접촉 경고 처리를 수행하는 단계를 더 포함하는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.And performing contact warning processing when a contact is generated. 제52항에 있어서,The method of claim 52, wherein 상기 접촉 경고 처리는 포스 피드백(force feedback) 처리, 암 조작부의 조작 제한, 경고 메시지 디스플레이 및 경고 음향 출력 중 하나 이상인 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.And the contact warning processing is at least one of a force feedback processing, an operation restriction of the arm manipulation unit, a warning message display, and a warning sound output. 제33항에 있어서,34. The method of claim 33, 상기 내시경 영상에 대한 이미지 처리를 통해, 수술부위 또는 상기 내시경 영상을 통해 디스플레이되는 장기(臟器)를 인식하는 단계; 및Recognizing an organ displayed on the surgical site or the endoscope image through image processing of the endoscope image; And 미리 저장된 참조 영상에서 상기 인식된 장기의 명칭에 상응하는 위치의 참조 영상을 추출하여 디스플레이하는 단계를 포함하되, Extracting and displaying a reference image of a position corresponding to the recognized name of the organ from a pre-stored reference image, 상기 참조 영상은 엑스-레이(X-Ray) 영상, 컴퓨터단층촬영(CT) 영상 및 자기공명영상촬영(MRI) 영상 중 하나 이상인 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.The reference image is a control method of a surgical robot system, characterized in that at least one of the X-ray (X-ray) image, computed tomography (CT) image and magnetic resonance imaging (MRI) image. 제40항에 있어서,The method of claim 40, 미리 저장된 참조 영상에서 상기 실제 수술도구의 위치 좌표에 상응하는 참조 영상을 추출하는 단계; 및Extracting a reference image corresponding to the position coordinates of the actual surgical instrument from a pre-stored reference image; And 상기 추출된 참조 영상을 추출하여 디스플레이하는 단계를 포함하되, Extracting and displaying the extracted reference image, 상기 참조 영상은 엑스-레이(X-Ray) 영상, 컴퓨터단층촬영(CT) 영상 및 자기공명영상촬영(MRI) 영상 중 하나 이상인 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.The reference image is a control method of a surgical robot system, characterized in that at least one of the X-ray (X-ray) image, computed tomography (CT) image and magnetic resonance imaging (MRI) image. 제54항 또는 제55항 중 어느 한 항에 있어서,The method of claim 54 or 55, wherein 상기 참조 영상은 상기 내시경 영상이 표시되는 표시 화면에 함께 표시되거나 상기 표시 화면과 독립된 표시 화면을 통해 디스플레이되는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.And the reference image is displayed together on a display screen on which the endoscope image is displayed or is displayed through a display screen independent of the display screen. 제54항 또는 제55항 중 어느 한 항에 있어서,The method of claim 54 or 55, wherein 상기 참조 영상은 MPR(Multi Planner Reformat)을 이용한 3차원 영상으로 디스플레이되는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.The reference image is a control method of a surgical robot system, characterized in that displayed as a three-dimensional image using a multi-plane reformat (MPR). 제33항 내지 제55항 중 어느 하나에 기재된 수술 로봇 시스템의 제어 방법을 수행하기 위하여 디지털 처리 장치에 의해 실행될 수 있는 명령어들의 프로그램이 유형적으로 구현되어 있으며 디지털 처리 장치에 의해 판독될 수 있는 프로그램을 기록한 기록매체.A program of instructions that can be executed by a digital processing apparatus is tangibly embodied in order to perform the control method of the surgical robot system according to any one of claims 33 to 55, and a program that can be read by the digital processing apparatus. Recorded media. 로봇 암을 포함하는 슬레이브 로봇 및 상기 슬레이브 로봇을 제어하는 마스터 로봇을 포함하는 수술 로봇 시스템의 동작 방법으로서,A method of operation of a surgical robot system comprising a slave robot including a robot arm and a master robot controlling the slave robot, 제1 마스터 로봇이 암 조작부 조작에 상응하여 가상 수술도구를 디스플레이하기 위한 가상 수술도구 정보 및 상기 로봇 암을 제어하기 위한 조작신호를 생성하는 단계; 및Generating, by a first master robot, virtual surgical tool information for displaying a virtual surgical tool and an operation signal for controlling the robot arm according to an operation of the arm manipulation unit; And 상기 제1 마스터 로봇이 상기 조작신호를 상기 슬레이브 로봇으로 전송하고, 상기 조작신호 또는 상기 가상 수술도구 정보 중 하나 이상을 제2 마스터 로봇으로 전송하는 단계를 포함하되,And transmitting, by the first master robot, the manipulation signal to the slave robot, and transmitting one or more of the manipulation signal or the virtual surgical tool information to a second master robot. 상기 제2 마스터 로봇은 상기 조작신호 또는 상기 가상 수술도구 정보 중 하나 이상에 상응하는 가상 수술도구를 화면 표시부를 통해 디스플레이하는 것을 특징으로 하는 수술 로봇 시스템의 동작 방법.And the second master robot displays a virtual surgical tool corresponding to at least one of the manipulation signal and the virtual surgical tool information through a screen display. 제59항에 있어서,The method of claim 59, 상기 제1 마스터 로봇 및 상기 제2 마스터 로봇 각각은 상기 슬레이브 로봇으로부터 수신되는 내시경 영상을 화면 표시부를 통해 디스플레이하고, 상기 가상 수술도구는 상기 내시경 영상과 함께 디스플레이되는 것을 특징으로 하는 수술 로봇 시스템의 동작 방법.Each of the first master robot and the second master robot displays an endoscope image received from the slave robot through a screen display unit, and the virtual surgical tool is displayed together with the endoscope image. Way. 제59항에 있어서,The method of claim 59, 상기 제1 마스터 로봇은 상기 제2 마스터 로봇으로부터 수술권한 회수 명령이 수신되었는지 여부를 판단하는 단계; 및Determining, by the first master robot, whether an operation right recovery command has been received from the second master robot; And 수술권한 회수 명령이 수신된 경우, 상기 제1 마스터 로봇은 암 조작부 조작이 가상 수술도구 정보의 생성을 위해서만 기능되도록 제어하는 단계를 더 포함하는 수술 로봇 시스템의 동작 방법.And when the surgical authority recovery command is received, the first master robot controlling the operation of the arm manipulation unit so that the operation only functions for generation of the virtual surgical tool information. 로봇 암을 포함하는 슬레이브 로봇을 제어하는 마스터 로봇에서 수행되는 수술 시뮬레이션 방법으로서,A surgical simulation method performed in a master robot for controlling a slave robot including a robot arm, 장기(臟器) 선택 정보를 인식하는 단계; 및Recognizing organ selection information; And 미리 저장된 장기 모델링 정보를 이용하여 상기 장기 선택 정보에 상응하는 3차원 장기 이미지를 디스플레이하는 단계를 포함하되,And displaying a 3D organ image corresponding to the organ selection information by using previously stored organ modeling information. 상기 장기 모델링 정보는 상응하는 장기의 내부 및 외부 각 지점의 형상, 색상 및 촉감 중 하나 이상을 포함하는 특성 정보를 가지는 것을 특징으로 하는 수술 시뮬레이션 방법.And the organ modeling information has characteristic information including one or more of the shape, color, and feel of each point of the inside and outside of the corresponding organ. 제62항에 있어서,The method of claim 62, 상기 장기 선택 정보를 인식하기 위하여,In order to recognize the organ selection information, 수술용 내시경으로부터 입력되는 영상 신호를 이용하여 수술 부위 내에 포함된 장기의 색상 및 외형 중 하나 이상에 대한 정보를 해석하는 단계; 및Interpreting information on at least one of color and appearance of an organ included in a surgical site by using an image signal input from a surgical endoscope; And 미리 저장된 장기 모델링 정보 중 상기 해석된 정보에 매치되는 장기를 인식하는 단계를 수행하는 것을 특징으로 하는 수술 시뮬레이션 방법.And a step of recognizing organs matching the interpreted information among pre-stored organ modeling information. 제62항에 있어서,The method of claim 62, 상기 장기 선택 정보는 하나 이상의 장기로서 수술자에 의해 선택 입력되는 것을 특징으로 하는 수술 시뮬레이션 방법.And the organ selection information is input by the operator as one or more organs. 제62항에 있어서,The method of claim 62, 암 조작부 조작에 따른 상기 3차원 장기 이미지에 대한 수술조작 명령을 입력받는 단계; 및Receiving a surgical operation command on the 3D organ image according to an operation of an arm manipulation unit; And 상기 장기 모델링 정보를 이용하여 상기 수술조작 명령에 따른 촉감 정보를 출력하는 단계를 더 포함하는 수술 시뮬레이션 방법.And outputting the tactile information according to the surgical operation command by using the long-term modeling information. 제65항에 있어서,66. The method of claim 65, 상기 촉감 정보는 상기 암 조작부 조작에 따른 조작 민감도 및 조작 저항감 중 하나 이상을 제어하기 위한 제어 정보이거나 포스 피드백 처리를 위한 제어 정보인 것을 특징으로 하는 수술 시뮬레이션 방법.And the tactile information is control information for controlling at least one of manipulation sensitivity and manipulation resistance according to manipulation of the arm manipulation unit, or control information for force feedback processing. 제62항에 있어서,The method of claim 62, 암 조작부 조작에 따른 상기 3차원 장기 이미지에 대한 수술조작 명령을 입력받는 단계; 및Receiving a surgical operation command on the 3D organ image according to an operation of an arm manipulation unit; And 상기 장기 모델링 정보를 이용하여 상기 수술조작 명령에 따른 조작 결과 이미지를 디스플레이하는 단계를 더 포함하는 수술 시뮬레이션 방법.And displaying a manipulation result image according to the surgery manipulation command using the organ modeling information. 제65항 및 제67항 중 어느 한 항에 있어서,The method of any one of claims 65 and 67, 상기 수술조작 명령은 절단, 꿰맴, 당김, 누름, 접촉에 따른 장기 변형, 전기수술에 의한 장기 손상, 혈관에서의 출혈 중 하나 이상인 것을 특징으로 하는 수술 시뮬레이션 방법.The surgical operation command is a surgical simulation method, characterized in that at least one of cutting, stitching, pulling, pressing, long-term deformation due to contact, organ damage by electrosurgery, bleeding in the blood vessels. 제62항에 있어서,The method of claim 62, 상기 장기 선택 정보에 따른 장기를 인식하는 단계; 및Recognizing an organ according to the organ selection information; And 미리 저장된 참조 영상에서 상기 인식된 장기의 명칭에 상응하는 위치의 참조 영상을 추출하여 디스플레이하는 단계를 더 포함하되, The method may further include extracting and displaying a reference image of a position corresponding to the recognized name of the organ from a pre-stored reference image. 상기 참조 영상은 엑스-레이(X-Ray) 영상, 컴퓨터단층촬영(CT) 영상 및 자기공명영상촬영(MRI) 영상 중 하나 이상인 것을 특징으로 하는 수술 시뮬레이션 방법.And the reference image is at least one of an X-ray image, a computed tomography (CT) image, and a magnetic resonance imaging (MRI) image. 제62항 내지 제69항 중 어느 하나에 기재된 수술 시뮬레이션 방법을 수행하기 위하여 디지털 처리 장치에 의해 실행될 수 있는 명령어들의 프로그램이 유형적으로 구현되어 있으며 디지털 처리 장치에 의해 판독될 수 있는 프로그램을 기록한 기록매체.70. A recording medium on which a program of instructions that can be executed by a digital processing apparatus is tangibly implemented to perform the surgical simulation method according to any one of claims 62 to 69, and which records a program that can be read by the digital processing apparatus. .
KR1020090025067A 2009-03-24 2009-03-24 Surgical robot system using augmented reality and control method thereof KR101108927B1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020090025067A KR101108927B1 (en) 2009-03-24 2009-03-24 Surgical robot system using augmented reality and control method thereof
CN201710817544.0A CN107510506A (en) 2009-03-24 2010-03-22 Utilize the surgical robot system and its control method of augmented reality
CN201080010742.2A CN102341046B (en) 2009-03-24 2010-03-22 Utilize surgical robot system and the control method thereof of augmented reality
PCT/KR2010/001740 WO2010110560A2 (en) 2009-03-24 2010-03-22 Surgical robot system using augmented reality, and method for controlling same
US13/203,180 US20110306986A1 (en) 2009-03-24 2010-03-22 Surgical robot system using augmented reality, and method for controlling same
CN201510802654.0A CN105342705A (en) 2009-03-24 2010-03-22 Surgical robot system using augmented reality, and method for controlling same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090025067A KR101108927B1 (en) 2009-03-24 2009-03-24 Surgical robot system using augmented reality and control method thereof

Related Child Applications (2)

Application Number Title Priority Date Filing Date
KR1020090080199A Division KR100957470B1 (en) 2009-08-28 2009-08-28 Surgical robot system using augmented reality and control method thereof
KR1020110033649A Division KR101447931B1 (en) 2011-04-12 2011-04-12 Surgical robot system using augmented reality and control method thereof

Publications (2)

Publication Number Publication Date
KR20100106834A true KR20100106834A (en) 2010-10-04
KR101108927B1 KR101108927B1 (en) 2012-02-09

Family

ID=43128853

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090025067A KR101108927B1 (en) 2009-03-24 2009-03-24 Surgical robot system using augmented reality and control method thereof

Country Status (1)

Country Link
KR (1) KR101108927B1 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013129895A1 (en) * 2012-03-02 2013-09-06 포항공과대학교 산학협력단 Three-dimensional virtual liver surgery planning system
KR101407249B1 (en) * 2013-05-16 2014-06-13 한밭대학교 산학협력단 Method and apparatus for controlling augmented reality-based presentation
WO2015030455A1 (en) * 2013-08-26 2015-03-05 주식회사 고영테크놀러지 Method for operating surgical navigation system and surgical navigation system
KR20150135752A (en) * 2015-11-16 2015-12-03 (주)미래컴퍼니 Apparatus and Method for processing surgical image based on motion
WO2017043926A1 (en) * 2015-09-09 2017-03-16 울산대학교 산학협력단 Guiding method of interventional procedure using medical images, and system for interventional procedure therefor
WO2017151999A1 (en) * 2016-03-04 2017-09-08 Covidien Lp Virtual and/or augmented reality to provide physical interaction training with a surgical robot
KR20190099999A (en) * 2018-02-20 2019-08-28 (주)휴톰 Method, apparatus and program for constructing surgical simulation information
WO2019164278A1 (en) * 2018-02-20 2019-08-29 (주)휴톰 Method and device for providing surgical information using surgical image
WO2019164272A1 (en) * 2018-02-20 2019-08-29 (주)휴톰 Method and device for providing surgical image
GB2577714A (en) * 2018-10-03 2020-04-08 Cmr Surgical Ltd Automatic endoscope video augmentation
WO2020138671A1 (en) * 2018-12-27 2020-07-02 주식회사 홀로웍스 Virtual reality-based surgery assessment system, using simulator, for otolaryngology and neurosurgery
EP3744283A4 (en) * 2018-02-20 2022-02-23 Hutom Co., Ltd. Surgery optimization method and device
KR20220079112A (en) * 2020-12-04 2022-06-13 한국해양과학기술원 Cyber Physical Operation System for Real Time Mode Transformation of Marine Robot
CN115462907A (en) * 2022-09-15 2022-12-13 吉林大学 Remote open surgical robot system based on virtual reality technology
US11559898B2 (en) 2017-10-06 2023-01-24 Moog Inc. Teleoperation system, method, apparatus, and computer-readable medium
CN117221177A (en) * 2023-11-08 2023-12-12 湖南省华芯医疗器械有限公司 Image transmission delay monitoring method and system
US11957415B2 (en) 2018-02-20 2024-04-16 Hutom Co., Ltd. Method and device for optimizing surgery

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101652888B1 (en) 2014-08-20 2016-09-01 재단법인 아산사회복지재단 Method for displaying a surgery instrument by surgery navigation
KR102046351B1 (en) 2018-03-12 2019-12-02 한국기계연구원 Wearable robot control system using augmented reality and method for controlling wearable robot using the same
KR102578596B1 (en) 2021-08-13 2023-09-15 한국과학기술원 Methods and Systems for Handwriting Signature and Digital Contract By Using Meta-verse
KR20230168826A (en) * 2022-06-08 2023-12-15 오스템임플란트 주식회사 Neural Tube Display Method, Computing Device and a Computer-readable Recording Medium therefor

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6810281B2 (en) 2000-12-21 2004-10-26 Endovia Medical, Inc. Medical mapping system
WO2002086797A1 (en) 2001-03-06 2002-10-31 The John Hopkins University School Of Medicine Simulation method for designing customized medical devices
JP2007136133A (en) 2005-11-18 2007-06-07 Toshio Fukuda System for presenting augmented reality
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013129895A1 (en) * 2012-03-02 2013-09-06 포항공과대학교 산학협력단 Three-dimensional virtual liver surgery planning system
KR101407249B1 (en) * 2013-05-16 2014-06-13 한밭대학교 산학협력단 Method and apparatus for controlling augmented reality-based presentation
WO2015030455A1 (en) * 2013-08-26 2015-03-05 주식회사 고영테크놀러지 Method for operating surgical navigation system and surgical navigation system
KR101536115B1 (en) * 2013-08-26 2015-07-14 재단법인대구경북과학기술원 Method for operating surgical navigational system and surgical navigational system
WO2017043926A1 (en) * 2015-09-09 2017-03-16 울산대학교 산학협력단 Guiding method of interventional procedure using medical images, and system for interventional procedure therefor
KR20150135752A (en) * 2015-11-16 2015-12-03 (주)미래컴퍼니 Apparatus and Method for processing surgical image based on motion
WO2017151999A1 (en) * 2016-03-04 2017-09-08 Covidien Lp Virtual and/or augmented reality to provide physical interaction training with a surgical robot
US11559898B2 (en) 2017-10-06 2023-01-24 Moog Inc. Teleoperation system, method, apparatus, and computer-readable medium
KR102013837B1 (en) * 2018-02-20 2019-10-21 (주)휴톰 Method and apparatus for providing surgical video
KR20190099999A (en) * 2018-02-20 2019-08-28 (주)휴톰 Method, apparatus and program for constructing surgical simulation information
WO2019164278A1 (en) * 2018-02-20 2019-08-29 (주)휴톰 Method and device for providing surgical information using surgical image
US11957415B2 (en) 2018-02-20 2024-04-16 Hutom Co., Ltd. Method and device for optimizing surgery
WO2019164272A1 (en) * 2018-02-20 2019-08-29 (주)휴톰 Method and device for providing surgical image
EP3744283A4 (en) * 2018-02-20 2022-02-23 Hutom Co., Ltd. Surgery optimization method and device
US10977495B2 (en) 2018-10-03 2021-04-13 Cmr Surgical Limited Automatic endoscope video augmentation
GB2577714B (en) * 2018-10-03 2023-03-22 Cmr Surgical Ltd Automatic endoscope video augmentation
GB2577714A (en) * 2018-10-03 2020-04-08 Cmr Surgical Ltd Automatic endoscope video augmentation
KR20200080534A (en) * 2018-12-27 2020-07-07 가톨릭대학교 산학협력단 System for estimating otorhinolaryngology and neurosurgery surgery based on simulator of virtual reality
WO2020138671A1 (en) * 2018-12-27 2020-07-02 주식회사 홀로웍스 Virtual reality-based surgery assessment system, using simulator, for otolaryngology and neurosurgery
KR20220079112A (en) * 2020-12-04 2022-06-13 한국해양과학기술원 Cyber Physical Operation System for Real Time Mode Transformation of Marine Robot
CN115462907A (en) * 2022-09-15 2022-12-13 吉林大学 Remote open surgical robot system based on virtual reality technology
CN117221177A (en) * 2023-11-08 2023-12-12 湖南省华芯医疗器械有限公司 Image transmission delay monitoring method and system
CN117221177B (en) * 2023-11-08 2024-01-09 湖南省华芯医疗器械有限公司 Image transmission delay monitoring method and system

Also Published As

Publication number Publication date
KR101108927B1 (en) 2012-02-09

Similar Documents

Publication Publication Date Title
KR101108927B1 (en) Surgical robot system using augmented reality and control method thereof
JP6916322B2 (en) Simulator system for medical procedure training
US20230190392A1 (en) Apparatus and method for using a remote control system in surgical procedures
AU2019352792B2 (en) Indicator system
KR101447931B1 (en) Surgical robot system using augmented reality and control method thereof
US20110306986A1 (en) Surgical robot system using augmented reality, and method for controlling same
US8834170B2 (en) Devices and methods for utilizing mechanical surgical devices in a virtual environment
US20090263775A1 (en) Systems and Methods for Surgical Simulation and Training
KR100957470B1 (en) Surgical robot system using augmented reality and control method thereof
Long et al. Integrating artificial intelligence and augmented reality in robotic surgery: An initial dvrk study using a surgical education scenario
US20240071243A1 (en) Training users using indexed to motion pictures
KR101114226B1 (en) Surgical robot system using history information and control method thereof
KR20110059587A (en) Surgical robot system and motion restriction control method thereof
KR100956762B1 (en) Surgical robot system using history information and control method thereof

Legal Events

Date Code Title Description
A201 Request for examination
A107 Divisional application of patent
E902 Notification of reason for refusal
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20141231

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160104

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170103

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180103

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190103

Year of fee payment: 8