KR20150135752A - Apparatus and Method for processing surgical image based on motion - Google Patents

Apparatus and Method for processing surgical image based on motion Download PDF

Info

Publication number
KR20150135752A
KR20150135752A KR1020150160376A KR20150160376A KR20150135752A KR 20150135752 A KR20150135752 A KR 20150135752A KR 1020150160376 A KR1020150160376 A KR 1020150160376A KR 20150160376 A KR20150160376 A KR 20150160376A KR 20150135752 A KR20150135752 A KR 20150135752A
Authority
KR
South Korea
Prior art keywords
image
surgical
endoscope
endoscopic image
endoscopic
Prior art date
Application number
KR1020150160376A
Other languages
Korean (ko)
Other versions
KR101713836B1 (en
Inventor
민동명
최승욱
이민규
Original Assignee
(주)미래컴퍼니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)미래컴퍼니 filed Critical (주)미래컴퍼니
Priority to KR1020150160376A priority Critical patent/KR101713836B1/en
Publication of KR20150135752A publication Critical patent/KR20150135752A/en
Application granted granted Critical
Publication of KR101713836B1 publication Critical patent/KR101713836B1/en

Links

Images

Classifications

    • A61B19/5225
    • A61B19/2203
    • A61B19/56
    • A61B2019/2223
    • A61B2019/5289
    • A61B2019/5291

Abstract

Disclosed are an apparatus and a method for processing a tangible surgical image. The apparatus for processing the tangible surgical image comprises: an image input unit for receiving an input of an endoscopic image provided from a surgical endoscopic instrument; a screen display unit for outputting the endoscopic image on a specific region; and a screen display control unit for changing the specific region of the screen display unit for outputting the endoscopic image corresponding to the viewpoint of the surgical endoscopic instrument. The apparatus enables a user to feel the sense of reality during an actual surgical situation, by changing an output position of the endoscopic image outputted to a monitor and watched by the user corresponding to the motion of the surgical endoscopic instrument.

Description

체감형 수술용 영상 처리 장치 및 방법{Apparatus and Method for processing surgical image based on motion}Technical Field [0001] The present invention relates to an image processing apparatus and method for a tactile type surgical operation,

본 발명은 영상 처리 장치에 관한 것으로, 특히 체감형 수술용 영상 처리 장치 및 방법에 관한 것이다.
The present invention relates to an image processing apparatus, and more particularly, to an image processing apparatus and method for a tactile type surgical operation.

수술 로봇은 외과의사에 의해 시행되던 수술 행위를 대신할 수 있는 기능을 가지는 로봇을 말한다. 이러한 수술 로봇은 사람에 비하여 정확하고 정밀한 동작을 할 수 있으며 원격 수술이 가능하다는 장점을 가진다.The surgical robot refers to a robot having a function of substituting surgical operation performed by a surgeon. Such a surgical robot has an advantage that it can perform accurate and precise operation compared to a human and can perform a remote operation.

현재 전세계적으로 개발되고 있는 수술 로봇은 뼈 수술 로봇, 복강경(復腔鏡) 수술 로봇, 정위 수술 로봇 등이 있다. 여기서 복강경 수술 로봇은 복강경과 소형 수술도구를 이용하여 최소 침습적 수술을 시행하는 로봇이다.Surgical robots currently being developed around the world include bone surgery robots, laparoscopic surgery robots, and stereotactic robots. Here, a laparoscopic surgical robot is a robot that performs minimally invasive surgery using laparoscopic and small surgical instruments.

복강경 수술은 배꼽 부위에 1cm 정도의 구멍을 뚫고 배 안을 들여다보는 내시경인 복강경을 집어넣은 후 수술하는 첨단 수술기법으로서 향후 많은 발전이 기대되는 분야이다.Laparoscopic surgery is an advanced surgical technique that inserts a laparoscope, which is an endoscope that penetrates a 1 cm hole in the umbilicus and looks into the abdomen.

최근의 복강경은 컴퓨터칩이 장착되어 육안으로 보는 것보다도 더 선명하면서도 확대된 영상을 얻을 수 있으며, 또 모니터를 통해 화면을 보면서 특별히 고안된 복강경용 수술 기구들을 사용하면 어떠한 수술도 가능할 정도로 발전되었다.A recent laparoscope is equipped with a computer chip that provides a sharper, larger image than what the naked eye can see, and the laparoscopic surgical instruments specially designed for viewing through the monitor have been developed to allow any surgery.

더욱이 복강경 수술은 그 수술 범위가 개복 수술과 거의 같으면서도, 개복수술에 비해 합병증이 적고, 시술 후 훨씬 빠른 시간 안에 치료를 시작할 수 있으며, 수술 환자의 체력이나 면역기능을 유지시키는 능력이 우수한 이점이 있다. 이로 인해 미국과 유럽 등지에서는 대장암 치료 등에 있어서는 복강경 수술이 점차 표준 수술로 인식되어 가는 추세이다.In addition, laparoscopic surgery is similar to laparotomy, but it has fewer complications than laparotomy, can start treatment within a short time after surgery, and has the advantage of maintaining the patient's physical strength and immune function have. Therefore, in the United States and Europe, laparoscopic surgery is becoming increasingly recognized as a standard surgery for colorectal cancer treatment and the like.

수술 로봇 시스템은 일반적으로 마스터 로봇과 슬레이브 로봇으로 구성된다. 사용자가 마스터 로봇에 구비된 조종기(예를 들어 핸들)를 조작하면, 슬레이브 로봇의 로봇 암에 결합되거나 로봇 암이 파지하고 있는 수술도구가 조작되어 수술이 수행된다. 마스터 로봇과 슬레이브 로봇은 통신망을 통해 결합되어 네트워크 통신을 하게 된다.
Surgical robot systems generally consist of a master robot and a slave robot. When the user manipulates a manipulator (e.g., a handle) provided in the master robot, the surgical tool that is coupled to the robot arm of the slave robot or held by the robot arm is operated to perform the operation. The master robot and the slave robot are connected through a communication network to perform network communication.

현재 복강경 수술 시 복강경에 의해 촬영된 수술 영상이 사용자에게 출력되어 사용자가 이를 보며 수술하고 있으나 직접 개복하여 수행하는 수술보다는 실제감이 다소 떨어지는 문제점이 있다. 이러한 문제점은 복강경이 복강내에서 이동 및 회전하여 다른 부위를 비추는 경우에도 사용자가 보는 영상은 동일한 위치 및 크기의 모니터에서 출력되기 때문에 상술한 바와 같은 조종기와 영상과의 상대적인 거리감 및 움직임이 실제 복강내의 수술도구와 장기과의 상대적인 거리감 및 움직임과 다르게 되기 때문에 발생될 수 있다. Currently, laparoscopic surgery images are output to the user during the laparoscopic surgery, which causes the user to feel the actual feeling rather than the operation performed directly by the user. The problem is that even when the laparoscope moves and revolves in the abdominal cavity to illuminate other areas, the image that the user sees is output from the monitor of the same position and size, so that the relative distance and movement between the controller and the image, Which is different from the relative distance and motion between the surgical instrument and the organ.

또한, 복강경에 의해 촬영된 수술 영상은 수술 도구의 일부 형상만을 포함하고 있으므로, 사용자는 이들이 서로 충돌하거나 중첩되는 경우 조작이 어렵거나 시야가 가려서 원활히 수술을 진행하지 못하는 경우가 발생할 수 있다. In addition, since the surgical image taken by the laparoscope includes only a part of the surgical tool, the user may not be able to perform the operation smoothly due to the difficulty of manipulation or the visual field when they collide or overlap with each other.

전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
The above-described background technology is technical information that the inventor holds for the derivation of the present invention or acquired in the process of deriving the present invention, and can not necessarily be a known technology disclosed to the general public prior to the filing of the present invention.

본 발명은 수술용 내시경의 움직임에 따라 변화하는 내시경의 관점에 상응하여, 사용자가 보는 모니터에 출력되는 내시경 영상의 출력 위치를 변화시킴으로써, 사용자가 실제 수술 상황을 보다 현실감 있게 느낄 수 있도록 하는 체감형 수술용 영상 처리 장치 및 방법을 제공하기 위한 것이다. The present invention relates to a bodily-sensible type which allows a user to feel an actual operation situation more realistically by changing an output position of an endoscopic image output to a monitor viewed by a user in accordance with the viewpoint of an endoscope which changes according to the motion of the endoscope for surgery. And a surgical image processing apparatus and method.

또한, 본 발명은 현재 시점에서, 이전에 입력되어 저장된 내시경 영상을 추출하여 현재의 내시경 영상과 함께 화면 표시부에 출력함으로써, 내시경 영상의 변화에 대한 정보를 사용자에게 알려 줄 수 있는 체감형 수술용 영상 처리 장치 및 방법을 제공하기 위한 것이다. In addition, the present invention extracts an endoscopic image previously input and stored at the current time point, and outputs the endoscopic image together with the current endoscopic image to a screen display unit, thereby enabling a user to inform the user about the change of the endoscopic image. Processing apparatus and method.

또한, 본 발명은 수술시 내시경을 이용하여 실제 촬영한 내시경 영상과 미리 수술 도구에 대해 생성하여 영상 저장부에 저장한 모델링 영상을 각각 또는 서로 정합하거나 그 크기를 조절하는 등 영상을 수정하여 사용자가 관찰가능한 모니터에 출력할 수 있는 체감형 수술용 영상 처리 장치 및 방법을 제공하기 위한 것이다. In addition, the present invention can be applied to an endoscopic endoscopic surgery using an endoscope, and a method of correcting an endoscopic image that has been actually photographed and a modeling image stored in an image storage unit, And to provide an image processing apparatus and method for a tactile type surgical operation capable of outputting images to an observable monitor.

또한, 본 발명은 다양하게 변화하는 내시경의 관점에 상응하여 모니터를 회전 및 이동시킴으로써, 사용자가 수술에 대한 현실감을 보다 생생하게 느끼게 할 수 있는 체감형 수술용 영상 처리 장치 및 방법을 제공하기 위한 것이다. It is another object of the present invention to provide an image processing apparatus and method for a tactile type surgical operation which enables a user to feel the reality of a surgery more vividly by rotating and moving the monitor in accordance with various aspects of the endoscope.

본 발명이 제시하는 이외의 기술적 과제들은 하기의 설명을 통해 쉽게 이해될 수 있을 것이다.
The technical problems other than the present invention can be easily understood from the following description.

본 발명의 일 측면에 따르면, 수술용 내시경으로부터 제공되는 내시경 영상을 입력받는 영상 입력부와, 내시경 영상을 특정 영역에 출력하는 화면 표시부와, 수술용 내시경의 관점에 상응하여 내시경 영상을 출력하는 화면 표시부의 특정 영역을 변경하는 화면 표시 제어부를 포함하는 체감형 수술용 영상 처리 장치가 제공된다. According to an aspect of the present invention, there is provided an endoscopic image display apparatus including an image input unit for receiving an endoscopic image provided from a surgical endoscope, a screen display unit for outputting the endoscopic image to a specific region, a screen display unit for outputting an endoscopic image in accordance with the viewpoint of the surgical endoscope, And a screen display control unit for changing a specific area of the screen.

여기서, 수술용 내시경은 복강경, 흉강경, 관절경, 비경, 방광경, 직장경, 십이지장경, 종격경, 심장경 중 하나 이상이 될 수 있으며, 입체 내시경이 될 수도 있다.Herein, the surgical endoscope may be at least one of a laparoscope, a thoracoscopic, an arthroscope, a nystagmus, a cystoscope, a rectum, a duodenal, a mediastinoscope, and a heart, and may be a stereoscopic endoscope.

여기서, 화면 표시 제어부는, 수술용 내시경의 이동 및 회전에 상응하여 수술용 내시경의 관점 정보를 추적하는 내시경 관점 추적부와, 수술용 내시경의 관점 정보를 이용하여 내시경 영상의 이동 정보를 추출하는 영상 이동 정보 추출부와, 이동 정보를 이용하여 내시경 영상이 출력되는 화면 표시부의 특정 영역을 설정하는 영상 위치 설정부를 포함할 수 있다.Here, the screen display control unit may include an endoscopic viewpoint tracking unit that tracks the viewpoint information of the surgical endoscope in accordance with the movement and rotation of the endoscopic endoscope, and a display unit that extracts movement information of the endoscopic image using the viewpoint information of the endoscopic endoscope A movement information extracting unit and an image position setting unit for setting a specific area of the screen display unit on which the endoscopic image is output using the movement information.

또한, 화면 표시 제어부는, 내시경 영상의 중심점을 수술용 내시경의 관점의 좌표 변화값에 상응하여 이동시킬 수 있다. Further, the screen display control section can move the center point of the endoscopic image in accordance with the coordinate change value of the viewpoint of the surgical endoscope.

본 발명의 다른 측면에 따르면, 수술용 내시경으로부터 서로 다른 시점에 제공되는 제1 내시경 영상 및 제2 내시경 영상을 입력받는 영상 입력부와, 제1 내시경 영상과 제2 내시경 영상을 서로 다른 영역에 출력하는 화면 표시부와, 제1 내시경 영상과 제2 내시경 영상을 저장하는 영상 저장부와, 수술용 내시경의 서로 다른 관점에 상응하여 제1 내시경 영상과 제2 내시경 영상을 서로 다른 영역에 출력하도록 화면 표시부를 제어하는 화면 표시 제어부를 포함하는 체감형 수술용 영상 처리 장치가 제공된다. According to another aspect of the present invention, there is provided a stereoscopic image display apparatus including an image input unit that receives a first endoscopic image and a second endoscopic image provided at different times from a surgical endoscope, and a second endoscopic image output unit that outputs the first endoscopic image and the second endoscopic image, An image storage unit for storing the first endoscopic image and the second endoscopic image and a display unit for outputting the first endoscopic image and the second endoscopic image to different areas in accordance with different viewpoints of the surgical endoscope, And an image display control unit for controlling the image display unit.

여기서, 영상 입력부는 제1 내시경 영상을 제2 내시경 영상보다 먼저 입력받을 수 있으며, 화면 표시부는 제1 내시경 영상과 제2 내시경 영상을 채도, 명도, 색상 및 화면 패턴 중 어느 하나 이상을 다르게 출력할 수 있다. Here, the image input unit may receive the first endoscopic image before the second endoscopic image, and the display unit may output at least one of saturation, lightness, color, and screen pattern differently from the first endoscopic image and the second endoscopic image .

또한, 화면 표시 제어부는, 화면 표시부가 실시간으로 입력된 제2 내시경 영상을 출력하는 동안 영상 저장부에 저장된 제1 내시경 영상을 추출하여 화면 표시부에 출력하는 저장 영상 표시부를 더 포함할 수 있다. The screen display control unit may further include a stored image display unit for extracting the first endoscopic image stored in the image storage unit and outputting the extracted first endoscopic image to the screen display unit while the second display unit displays the second endoscopic image input in real time.

본 발명의 또 다른 측면에 따르면, 수술용 내시경으로부터 제공되는 내시경 영상을 입력받는 영상 입력부와, 내시경 영상을 특정 영역에 출력하는 화면 표시부와, 수술용 내시경이 촬영하는 수술 대상을 수술하는 수술 도구에 관한 모델링 영상을 저장하는 영상 저장부와, 내시경 영상과 모델링 영상을 서로 정합하여 출력 영상을 생성하는 영상 정합부와, 수술용 내시경의 관점에 상응하여 내시경 영상을 출력하는 화면 표시부의 특정 영역을 변경하며, 정합된 내시경 영상과 모델링 영상을 화면 표시부에 출력하는 화면 표시 제어부를 포함하는 체감형 수술용 영상 처리 장치가 제공된다. According to another aspect of the present invention, there is provided a surgical instrument comprising: an image input unit for receiving an endoscopic image provided from a surgical endoscope; a screen display unit for outputting an endoscopic image to a specific area; An image matching unit for generating an output image by matching the endoscopic image and the modeling image with each other, and a specific area of the screen display unit for outputting the endoscopic image corresponding to the viewpoint of the surgical endoscope is changed And a screen display control unit for outputting the matched endoscopic image and the modeling image to a screen display unit.

여기서, 영상 정합부는 내시경 영상에 포함되는 실제 수술 도구 영상과 모델링 영상에 포함되는 모델링 수술 도구 영상을 서로 정합하여 출력 영상을 생성할 수 있다. Here, the image matching unit can generate an output image by matching the actual surgical tool image included in the endoscopic image and the modeling operation tool image included in the modeling image with each other.

또한, 영상 정합부는, 내시경 영상 및 하나 이상의 로봇 암에 결합된 실제 수술 도구의 위치 좌표정보 중 하나 이상을 이용하여 특성값을 연산하는 특성값 연산부와, 특성값 연산부에서 연산된 특성값에 상응하는 모델링 영상을 구현하는 모델링 영상 구현부를 더 포함할 수 있다. The image matching unit may further include a feature value calculation unit that calculates a feature value using at least one of an endoscopic image and positional coordinate information of an actual surgical tool coupled to the at least one robot arm; And a modeling image implementing unit for implementing the modeling image.

여기서, 영상 정합부는, 모델링 수술 도구 영상으로부터 모델링 수술 도구 영상과 실제 수술 도구 영상의 중첩 영역을 제거하는 중첩 영상 처리부를 더 포함할 수 있으며, 또한, 모델링 영상에 출력되는 모델링 수술 도구 영상의 위치는 수술 도구의 조작정보를 이용하여 설정될 수 있다. Here, the image matching unit may further include an overlapping image processing unit for removing the overlapping area between the modeling operation tool image and the actual operation tool image from the modeling operation tool image, and the position of the modeling operation tool image output to the modeling image may be And can be set using manipulation information of the surgical tool.

본 발명의 또 다른 측면에 따르면, 수술용 내시경으로부터 제공되는 내시경 영상을 입력받는 영상 입력부와, 내시경 영상을 출력하는 화면 표시부와, 화면 표시부를 회전 및 이동시키는 화면 구동부와, 수술용 내시경의 관점에 상응하여 화면 구동부가 화면 표시부를 회전 및 이동시키도록 화면 구동부를 제어하는 화면 구동 제어부를 포함하는 체감형 수술용 영상 처리 장치가 제공된다. According to another aspect of the present invention, there is provided an endoscopic endoscope system including an image input unit for receiving an endoscopic image provided from a surgical endoscope, a screen display unit for outputting an endoscopic image, a screen driving unit for rotating and moving the screen display unit, And a screen driving control unit for controlling the screen driving unit so that the screen driving unit rotates and moves the screen display unit correspondingly.

여기서, 화면 구동 제어부는, 수술용 내시경의 이동 및 회전에 상응하여 수술용 내시경의 관점 정보를 추적하는 내시경 관점 추적부와, 수술용 내시경의 관점 정보를 이용하여 내시경 영상의 이동 정보를 추출하는 영상 이동 정보 추출부와, 이동 정보를 이용하여 화면 표시부의 화면 구동 정보를 생성하는 구동 정보 생성부를 포함할 수 있다. Here, the screen drive control unit includes an endoscopic viewpoint tracking unit that tracks the viewpoint of the surgical endoscope in accordance with the movement and rotation of the endoscopic endoscope, and a display unit that extracts movement information of the endoscopic image using the perspective information of the endoscopic endoscope A movement information extracting unit and a drive information generating unit for generating screen drive information of the screen display unit using the movement information.

여기서, 화면 구동부는 일단이 상기 화면 표시부에 결합하여 소정의 이동 홈을 따라 상기 화면 표시부를 이동시키거나 또는 상기 화면 구동부는 일단이 상기 화면 표시부에 결합하여 상기 화면 표시부를 공간상에 이동 및 회전시키는 로봇 암 형태의 공간상 이동 구동부가 될 수 있다.Here, the screen driving unit may be configured such that one end of the screen driving unit is coupled to the screen display unit to move the screen display unit along a predetermined moving groove, or the screen driving unit is coupled to the screen display unit to move and rotate the screen display unit And can be a space-shaped movement driving unit in the form of a robot arm.

여기서, 화면 표시부는, 돔 형상의 스크린과, 돔 형상의 스크린에 내시경 영상을 투사하는 프로젝터를 포함할 수 있다. Here, the screen display section may include a dome-shaped screen and a projector for projecting an endoscope image on a dome-shaped screen.

본 발명의 또 다른 측면에 따르면, 수술용 영상 처리 장치가 내시경 영상을 출력하는 방법에 있어서, 수술용 내시경으로부터 제공되는 내시경 영상을 입력받는 단계, 내시경 영상을 화면 표시부의 특정 영역에 출력하는 단계 및 수술용 내시경의 관점에 상응하여 내시경 영상을 출력하는 화면 표시부의 특정 영역을 변경하는 단계를 포함하는 체감형 수술용 영상 처리 방법이 제공된다. According to another aspect of the present invention, there is provided a method of outputting an endoscopic image, the method comprising: receiving an endoscopic image provided from a surgical endoscope; outputting an endoscopic image to a specific area of the screen display; There is provided an image processing method for a haptic surgical operation including a step of changing a specific area of a screen display unit outputting an endoscopic image in accordance with the viewpoint of the surgical endoscope.

여기서, 수술용 내시경은 복강경, 흉강경, 관절경, 비경, 방광경, 직장경, 십이지장경, 종격경, 심장경 중 하나 이상이 될 수 있으며, 입체 내시경이 될 수도 있다.Herein, the surgical endoscope may be at least one of a laparoscope, a thoracoscopic, an arthroscope, a nystagmus, a cystoscope, a rectum, a duodenal, a mediastinoscope, and a heart, and may be a stereoscopic endoscope.

또한, 화면 표시부의 특정 영역을 변경하는 단계는, 수술용 내시경의 이동 및 회전에 상응하여 수술용 내시경의 관점 정보를 추적하는 단계, 수술용 내시경의 관점 정보를 이용하여 내시경 영상의 이동 정보를 추출하는 단계 및 이동 정보를 이용하여 내시경 영상이 출력되는 화면 표시부의 특정 영역을 설정하는 단계를 포함할 수 있다. The step of changing the specific area of the screen display section may include the steps of tracking the perspective information of the surgical endoscope corresponding to the movement and rotation of the surgical endoscope, extracting movement information of the endoscopic image using the perspective information of the surgical endoscope, And setting a specific region of the screen display unit on which the endoscopic image is output using the movement information.

여기서, 화면 표시부의 특정 영역을 변경하는 단계는, 내시경 영상의 중심점을 수술용 내시경의 관점의 좌표 변화값에 상응하여 이동시키는 단계를 포함할 수 있다. Here, the step of changing the specific area of the screen display part may include a step of moving the center point of the endoscopic image in accordance with the coordinate change value of the viewpoint of the operation endoscope.

본 발명의 또 다른 측면에 따르면, 수술용 영상 처리 장치가 내시경 영상을 출력하는 방법에 있어서, 수술용 내시경으로부터 서로 다른 시점에 제공되는 제1 내시경 영상 및 제2 내시경 영상을 입력받는 단계, 제1 내시경 영상과 제2 내시경 영상을 화면 표시부의 서로 다른 영역에 출력하는 단계, 제1 내시경 영상과 제2 내시경 영상을 저장하는 단계 및 수술용 내시경의 서로 다른 관점에 상응하여 제1 내시경 영상과 제2 내시경 영상을 서로 다른 영역에 출력하도록 화면 표시부를 제어하는 단계를 포함하는 체감형 수술용 영상 처리 방법이 제공된다. According to another aspect of the present invention, there is provided a method of outputting an endoscopic image, the method comprising: receiving a first endoscopic image and a second endoscopic image provided at different points in time from a surgical endoscope; Outputting the endoscopic image and the second endoscopic image to different areas of the screen display section; storing the first endoscopic image and the second endoscopic image; and storing the first endoscopic image and the second endoscopic image in accordance with different viewpoints of the surgical endoscope, And controlling the screen display unit to output the endoscopic images to different areas.

여기서, 내시경 영상을 입력받는 단계는, 제1 내시경 영상을 제2 내시경 영상보다 먼저 입력받을 수 있으며, 출력 단계는, 제1 내시경 영상과 제2 내시경 영상을 채도, 명도, 색상 및 화면 패턴 중 어느 하나 이상을 다르게 출력할 수 있다. Herein, in the step of receiving the endoscopic image, the first endoscopic image may be input before the second endoscopic image, and the outputting step may output the first endoscopic image and the second endoscopic image in any of saturation, brightness, One or more can be output differently.

또한, 화면 표시부 제어 단계는, 화면 표시부가 실시간으로 입력된 제2 내시경 영상을 출력하는 동안 영상 저장부에 저장된 제1 내시경 영상을 추출하여 화면 표시부에 출력하는 단계를 더 포함할 수 있다. The screen display unit control step may further include extracting a first endoscopic image stored in the image storage unit and outputting the first endoscopic image to the screen display unit while the second display unit displays the second endoscopic image input in real time.

본 발명의 또 다른 측면에 따르면, 수술용 영상 처리 장치가 내시경 영상을 출력하는 방법에 있어서, 수술용 내시경으로부터 제공되는 내시경 영상을 입력받는 단계, 내시경 영상을 화면 표시부의 특정 영역에 출력하는 단계, 수술용 내시경이 촬영하는 수술 대상을 수술하는 수술 도구에 관한 모델링 영상을 저장하는 단계, 내시경 영상과 모델링 영상을 서로 정합하여 출력 영상을 생성하는 단계 및 수술용 내시경의 관점에 상응하여 내시경 영상을 출력하는 화면 표시부의 특정 영역을 변경하며, 정합된 내시경 영상과 모델링 영상을 화면 표시부에 출력하는 단계를 포함하는 체감형 수술용 영상 처리 방법이 제공된다. According to another aspect of the present invention, there is provided a method of outputting an endoscopic image, the method comprising: inputting an endoscopic image provided from a surgical endoscope; outputting an endoscopic image to a specific area of the screen display; A step of storing a modeling image related to a surgical tool to be operated by a surgical endoscope, a step of generating an output image by matching an endoscopic image with a modeling image, and a step of outputting an endoscopic image corresponding to the viewpoint of the surgical endoscope And outputting a matching endoscopic image and a modeling image to a screen display unit.

여기서, 출력 영상을 생성하는 단계는, 내시경 영상에 포함되는 실제 수술 도구 영상과 모델링 영상에 포함되는 모델링 수술 도구 영상을 서로 정합하여 출력 영상을 생성할 수 있다. Here, in the step of generating an output image, an output image may be generated by matching the actual surgical tool image included in the endoscopic image and the modeling and surgical tool image included in the modeling image with each other.

또한, 출력 영상을 생성하는 단계는, 내시경 영상 및 하나 이상의 로봇 암에 결합된 실제 수술 도구의 위치 좌표정보 중 하나 이상을 이용하여 특성값을 연산하는 단계 및 연산된 특성값에 상응하는 모델링 영상을 구현하는 단계를 더 포함할 수 있다. The generating of the output image may include calculating a characteristic value using at least one of an endoscopic image and positional coordinate information of an actual surgical tool coupled to the at least one robot arm, And may further comprise a step of implementing.

여기서, 출력 영상을 생성하는 단계는, 모델링 수술 도구 영상으로부터 모델링 수술 도구 영상과 실제 수술 도구 영상의 중첩 영역을 제거하는 단계를 더 포함할 수 있다. Here, the step of generating an output image may further include removing an overlapping area between the modeling operation tool image and the actual operation tool image from the modeling operation tool image.

또한, 모델링 영상에 출력되는 모델링 수술 도구 영상의 위치는 수술 도구의 조작정보를 이용하여 설정될 수 있다. In addition, the position of the modeling surgical tool image output to the modeling image can be set using operation information of the surgical tool.

본 발명의 또 다른 측면에 따르면, 수술용 영상 처리 장치가 내시경 영상을 출력하는 방법에 있어서, 수술용 내시경으로부터 제공되는 내시경 영상을 입력받는 단계, 내시경 영상을 화면 표시부에 출력하는 단계 및 수술용 내시경의 관점에 상응하여 화면 표시부를 회전 및 이동시키는 단계를 포함하는 체감형 수술용 영상 처리 방법이 제공된다. According to another aspect of the present invention, there is provided a method of outputting an endoscopic image by a surgical image processing apparatus, comprising: receiving an endoscopic image provided from a surgical endoscope; outputting an endoscopic image to a screen display; And a step of rotating and moving the screen display unit in accordance with the viewpoint of the user.

여기서, 화면 표시부를 회전 및 이동시키는 단계는, 수술용 내시경의 이동 및 회전에 상응하여 수술용 내시경의 관점 정보를 추적하는 단계, 수술용 내시경의 관점 정보를 이용하여 내시경 영상의 이동 정보를 추출하는 단계, 이동 정보를 이용하여 화면 표시부의 모션 정보를 생성하는 단계를 포함할 수 있다. The step of rotating and moving the screen display unit may include the steps of tracking the perspective information of the surgical endoscope in accordance with the movement and rotation of the surgical endoscope, extracting movement information of the endoscopic image using the perspective information of the surgical endoscope, And generating motion information of the screen display unit using the motion information, the step, and the movement information.

여기서, 화면 표시부는, 돔 형상의 스크린과, 돔 형상의 스크린에 내시경 영상을 투사하는 프로젝터를 포함할 수 있다. Here, the screen display section may include a dome-shaped screen and a projector for projecting an endoscope image on a dome-shaped screen.

본 발명의 또 다른 측면에 따르면, 상술한 체감형 수술용 영상 처리 방법을 수행하기 위하여 디지털 처리 장치에 의해 실행될 수 있는 명령어들의 프로그램이 유형적으로 구현되어 있으며 디지털 처리 장치에 의해 판독될 수 있는 프로그램을 기록한 기록매체가 제공된다.According to another aspect of the present invention, there is provided a program for tangibly embodying an image processing method for a tactile surgical operation, the program of instructions executable by the digital processing apparatus being tangibly embodied and readable by the digital processing apparatus, There is provided a recording medium on which recorded information is recorded.

본 발명의 또 다른 측면에 따르면, 일단이 회전하는 수술용 내시경으로부터 서로 다른 시점에 제공되는 제1 내시경 영상 및 제2 내시경 영상을 입력받는 영상 입력부와, 제1 내시경 영상과 제2 내시경 영상을 서로 다른 영역에 출력하는 화면 표시부와, 수술용 내시경의 서로 다른 관점에 상응하여 제1 내시경 영상과 제2 내시경 영상을 서로 다른 영역에 출력하도록 화면 표시부를 제어하는 화면 표시 제어부를 포함하는 체감형 수술용 영상 처리 장치가 제공된다. According to yet another aspect of the present invention, there is provided a stereoscopic image display apparatus including an image input unit receiving a first endoscopic image and a second endoscopic image provided at different points in time from a surgical endoscope rotating at one end, And a screen display control section for controlling the screen display section to output the first endoscopic image and the second endoscopic image to different areas in accordance with different viewpoints of the surgical endoscope, An image processing apparatus is provided.

여기서, 수술용 내시경은 주기적으로 회전할 수 있으며, 본 실시예는 수술용 내시경의 일단의 회전과 관련된 회전 방향, 회전 각속도, 가감속 형태, 회전 속력, 회전 시간 시점, 회전 시간 종점, 회전 시간 길이 및 회전 반경 중 어느 하나 이상의 회전 관련 정보를 설정하는 회전 조작부를 더 포함할 수 있다.Here, the surgical endoscope may be periodically rotated. In this embodiment, the rotation direction, the rotational angular velocity, the acceleration / deceleration type, the rotational speed, the rotational time point, the rotational end point, And a turning radius setting unit that sets at least one of rotation-related information among the rotation-related information.

여기서, 수술용 내시경은 일단이 폐도형을 형성하도록 회전할 수 있고, 원뿔 또는 각뿔 형상으로 회전할 수 있으며, 수술용 내시경의 회전 궤적은 원, 타원, 삼각형 및 사각형 중 어느 하나가 될 수 있다. Here, the surgical endoscope may be rotated to form a closed figure, and may be rotated in the shape of a cone or pyramid, and the rotational locus of the surgical endoscope may be any one of a circle, an ellipse, a triangle and a rectangle.

또한, 화면 표시 제어부는, 제1 내시경 영상과 제2 내시경 영상의 중첩 영역을 추출하여 연속 영상을 생성하는 연속 영상 생성부와, 제1 내시경 영상과 제2 내시경 영상의 비중첩 영역을 추출하여 주변 영상을 생성하는 주변 영상 생성부를 포함할 수 있다. In addition, the screen display control unit may include a continuous image generation unit that extracts overlapping regions of the first endoscopic image and the second endoscopic image to generate a continuous image, and a non-overlap region of the first endoscopic image and the second endoscopic image, And a peripheral image generating unit for generating an image.

본 발명의 또 다른 측면에 따르면, 수술용 내시경으로부터 제1 내시경 영상을 입력받는 제1 영상 입력부와, 수술용 내시경의 일측에 결합하여 수술용 내시경을 중심으로 회전하는 보조 내시경으로부터 서로 다른 시점에 제공되는 복수의 제2 내시경 영상을 입력받는 제2 영상 입력부와, 제1 내시경 영상과 제2 내시경 영상을 서로 다른 영역에 출력하는 화면 표시부와, 수술용 내시경과 보조 내시경의 서로 다른 관점에 상응하여 제1 내시경 영상과 제2 내시경 영상을 서로 다른 영역에 출력하도록 화면 표시부를 제어하는 화면 표시 제어부를 포함하는 체감형 수술용 영상 처리 장치가 제공된다. According to another aspect of the present invention, there is provided an endoscope system including: a first image input unit that receives a first endoscopic image from a surgical endoscope; and a second image input unit that is provided at different points of time from an auxiliary endoscope that is coupled to one side of the endoscope, A second display unit for displaying the first endoscopic image and the second endoscopic image in different areas and a second display unit for displaying the first endoscopic image and the second endoscopic image in accordance with different views of the surgical endoscope and the endoscopic endoscope, And a screen display control unit for controlling the screen display unit to output the first endoscopic image and the second endoscopic image to different areas.

여기서, 보조 내시경은 주기적으로 회전할 수 있으며, 본 실시예는 보조 내시경의 일단의 회전과 관련된 회전 방향, 회전 각속도, 가감속 형태, 회전 속력, 회전 시간 시점, 회전 시간 종점, 회전 시간 길이 및 회전 반경 중 어느 하나 이상의 회전 관련 정보를 설정하는 회전 조작부를 더 포함할 수 있다.Here, the auxiliary endoscope can be periodically rotated, and the present embodiment can be applied to a case where the rotation direction, the rotational angular velocity, the acceleration / deceleration type, the rotational speed, the rotation time point, the rotation time end point, And a rotation operation section for setting at least one of the rotation related information among the plurality of rotation related information.

또한, 화면 표시 제어부는, 제1 내시경 영상과 제2 내시경 영상의 중첩 영역을 추출하여 연속 영상을 생성하는 연속 영상 생성부와, 제1 내시경 영상과 제2 내시경 영상의 비중첩 영역을 추출하여 주변 영상을 생성하는 주변 영상 생성부를 포함할 수 있다. In addition, the screen display control unit may include a continuous image generation unit that extracts overlapping regions of the first endoscopic image and the second endoscopic image to generate a continuous image, and a non-overlap region of the first endoscopic image and the second endoscopic image, And a peripheral image generating unit for generating an image.

또한, 화면 표시 제어부는, 제1 내시경 영상으로부터 연속 영상을 생성하는 연속 영상 생성부와, 제2 내시경 영상을 추출하여 연속 영상의 주변 영상을 생성하는 주변 영상 생성부를 포함할 수 있다. The screen display control unit may include a continuous image generating unit for generating a continuous image from the first endoscopic image and a peripheral image generating unit for extracting the second endoscopic image to generate a peripheral image of the continuous image.

또한, 보조 내시경은 수술용 내시경에 탈부착 가능하도록 결합할 수 있다. Further, the auxiliary endoscope can be detachably coupled to the surgical endoscope.

본 발명의 또 다른 측면에 따르면, 수술용 영상 처리 장치가 내시경 영상을 출력하는 방법에 있어서, 일단이 회전하는 수술용 내시경으로부터 서로 다른 시점에 제공되는 제1 내시경 영상 및 제2 내시경 영상을 입력받는 단계, 제1 내시경 영상과 제2 내시경 영상을 화면 표시부의 서로 다른 영역에 출력하는 단계 및 수술용 내시경의 서로 다른 관점에 상응하여 제1 내시경 영상과 제2 내시경 영상을 서로 다른 영역에 출력하도록 화면 표시부를 제어하는 단계를 포함하는 체감형 수술용 영상 처리 방법이 제공된다. According to another aspect of the present invention, there is provided a method for outputting an endoscopic image by a surgical image processing apparatus, the method comprising: receiving a first endoscopic image and a second endoscopic image provided at different points in time from a surgical endoscope, Outputting the first endoscopic image and the second endoscopic image to different areas of the screen display unit and outputting the first endoscopic image and the second endoscopic image to different areas in accordance with different viewpoints of the surgical endoscope, And a step of controlling the display unit.

여기서, 수술용 내시경은 주기적으로 회전할 수 있으며, 본 실시예는 수술용 내시경의 일단의 회전과 관련된 회전 방향, 회전 각속도, 가감속 형태, 회전 속력, 회전 시간 시점, 회전 시간 종점, 회전 시간 길이 및 회전 반경 중 어느 하나 이상의 회전 관련 정보를 설정하는 단계를 더 포함할 수 있다.Here, the surgical endoscope may be periodically rotated. In this embodiment, the rotation direction, the rotational angular velocity, the acceleration / deceleration type, the rotational speed, the rotational time point, the rotational end point, And a rotation radius of the at least one rotation-related information.

수술용 내시경은 일단이 폐도형을 형성하도록 회전할 수 있고, 원뿔 또는 각뿔 형상으로 회전할 수 있으며, 수술용 내시경의 회전 궤적은 원, 타원, 삼각형 및 사각형 중 어느 하나가 될 수 있다. The endoscope for surgery can be rotated to form a closed shape at one end, and can be rotated in the shape of a cone or pyramid, and the rotation locus of the endoscope for surgery can be any one of a circle, an ellipse, a triangle and a rectangle.

여기서, 화면 표시부 제어 단계는, 제1 내시경 영상과 제2 내시경 영상의 중첩 영역을 추출하여 연속 영상을 생성하는 단계 및 제1 내시경 영상과 제2 내시경 영상의 비중첩 영역을 추출하여 주변 영상을 생성하는 단계를 포함할 수 있다. Here, the screen display unit control step may include a step of generating a continuous image by extracting an overlapping area between the first endoscopic image and the second endoscopic image, and a step of extracting a non-overlapping area between the first endoscopic image and the second endoscopic image to generate a surrounding image .

본 발명의 또 다른 측면에 따르면, 수술용 내시경으로부터 제1 내시경 영상을 입력받는 단계, 수술용 내시경의 일측에 결합하여 수술용 내시경을 중심으로 회전하는 보조 내시경으로부터 서로 다른 시점에 제공되는 복수의 제2 내시경 영상을 입력받는 단계, 제1 내시경 영상과 제2 내시경 영상을 서로 다른 영역에 출력하는 단계, 수술용 내시경과 보조 내시경의 서로 다른 관점에 상응하여 제1 내시경 영상과 제2 내시경 영상을 서로 다른 영역에 출력하도록 화면 표시부를 제어하는 단계를 포함하는 체감형 수술용 영상 처리 방법이 제공된다. According to still another aspect of the present invention, there is provided a method of operating an endoscope, including the steps of receiving a first endoscopic image from a surgical endoscope, inputting a plurality of images from an auxiliary endoscope, A step of outputting the first endoscopic image and the second endoscopic image to different areas, a step of outputting the first endoscopic image and the second endoscopic image to each other in accordance with different views of the surgical endoscope and the endoscopic endoscope, And controlling the screen display unit to output the image data to another area.

여기서, 보조 내시경은 주기적으로 회전할 수 있으며, 본 실시예는 보조 내시경의 일단의 회전과 관련된 회전 방향, 회전 각속도, 가감속 형태, 회전 속력, 회전 시간 시점, 회전 시간 종점, 회전 시간 길이 및 회전 반경 중 어느 하나 이상의 회전 관련 정보를 설정하는 단계를 더 포함할 수 있다.Here, the auxiliary endoscope can be periodically rotated, and the present embodiment can be applied to a case where the rotation direction, the rotational angular velocity, the acceleration / deceleration type, the rotational speed, the rotation time point, the rotation time end point, And setting the rotation-related information of any one or more of the radiuses.

또한, 화면 표시부 제어 단계는, 제1 내시경 영상과 제2 내시경 영상의 중첩 영역을 추출하여 연속 영상을 생성하는 단계, 제1 내시경 영상과 제2 내시경 영상의 비중첩 영역을 추출하여 주변 영상을 생성하는 단계를 포함할 수 있다.In addition, the screen display unit control step may include a step of generating a continuous image by extracting overlapping regions of the first endoscopic image and the second endoscopic image, extracting a non-overlapping region between the first endoscopic image and the second endoscopic image, .

또한, 화면 표시부 제어 단계는, 제1 내시경 영상으로부터 연속 영상을 생성하는 단계, 제2 내시경 영상을 추출하여 연속 영상의 주변 영상을 생성하는 단계를 포함할 수 있다. In addition, the screen display unit control step may include a step of generating a continuous image from the first endoscopic image, and a step of extracting the second endoscopic image to generate a surrounding image of the continuous image.

또한, 본 실시예는 보조 내시경을 수술용 내시경에 탈부착 가능하도록 결합하는 단계를 더 포함할 수 있다. In addition, the present embodiment may further include a step of detachably coupling the auxiliary endoscope to the surgical endoscope.

여기서, 화면 표시부는, 돔 형상의 스크린과, 돔 형상의 스크린에 내시경 영상을 투사하는 프로젝터를 포함할 수 있다. Here, the screen display section may include a dome-shaped screen and a projector for projecting an endoscope image on a dome-shaped screen.

또한, 본 실시예의 또 다른 측면에 따르면, 상술한 체감형 수술용 영상 처리 방법을 수행하기 위하여 디지털 처리 장치에 의해 실행될 수 있는 명령어들의 프로그램이 유형적으로 구현되어 있으며 디지털 처리 장치에 의해 판독될 수 있는 프로그램을 기록한 기록매체가 제공된다.According to still another aspect of the present invention, there is provided a computer readable recording medium having a program of tangibly embodied program executable by a digital processing apparatus for performing the above-described tactile surgical image processing method, A recording medium on which a program is recorded is provided.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.
Other aspects, features, and advantages will become apparent from the following drawings, claims, and detailed description of the invention.

본 발명에 따른 체감형 수술용 영상 처리 장치 및 방법은 수술용 내시경의 움직임에 따라 변화하는 내시경의 관점에 상응하여, 사용자가 보는 모니터에 출력되는 내시경 영상의 출력 위치를 변화시킴으로써, 사용자가 실제 수술 상황을 보다 현실감 있게 느낄 수 있도록 하는 효과가 있다. The image processing apparatus and method according to the present invention can change an output position of an endoscopic image output to a monitor viewed by a user in accordance with the viewpoint of an endoscope that changes according to the motion of the endoscope for surgery, There is an effect that makes the situation feel more realistic.

또한, 본 발명에 따른 체감형 수술용 영상 처리 장치 및 방법은 현재 시점에서, 이전에 입력되어 저장된 내시경 영상을 추출하여 현재의 내시경 영상과 함께 화면 표시부에 출력함으로써, 내시경 영상의 변화에 대한 정보를 사용자에게 알려 줄 수 있는 효과가 있다. In addition, the present invention provides an image processing apparatus and method for a sensible-type surgical operation, which extracts an endoscopic image previously input and stored and outputs the same to a screen display unit together with a current endoscopic image to obtain information on a change in an endoscopic image There is an effect that can inform the user.

또한, 본 발명에 따른 체감형 수술용 영상 처리 장치 및 방법은 수술시 내시경을 이용하여 실제 촬영한 내시경 영상과 미리 수술 도구에 대해 생성하여 영상 저장부에 저장한 모델링 영상을 각각 또는 서로 정합하거나 그 크기를 조절하는 등 영상을 수정하여 사용자가 관찰가능한 모니터에 출력할 수 있는 효과가 있다. In addition, the image processing apparatus and method according to the present invention can be applied to an endoscopic image obtained by using an endoscope during surgery and a modeling image stored in an image storage unit, It is possible to modify the image by adjusting the size and output it to the monitor which the user can observe.

또한, 본 발명에 따른 체감형 수술용 영상 처리 장치 및 방법은 다양하게 변화하는 내시경의 관점에 상응하여 모니터를 회전 및 이동시킴으로써, 사용자가 수술에 대한 현실감을 보다 생생하게 느끼게 할 수 있는 효과가 있다.
In addition, the image processing apparatus and method according to the present invention can rotate and move the monitor according to the viewpoints of various endoscopes, so that the user can feel the reality of surgery more vividly.

도 1은 본 발명의 실시예에 따른 수술용 로봇의 전체구조를 나타낸 평면도.
도 2는 본 발명의 제1 실시예에 따른 수술용 로봇의 마스터 인터페이스를 나타낸 개념도.
도 3은 본 발명의 제1 실시예에 따른 수술용 로봇의 블록 구성도.
도 4는 본 발명의 제1 실시예에 따른 체감형 수술용 영상 처리 장치의 블록 구성도.
도 5는 본 발명의 제1 실시예에 따른 체감형 수술용 영상 처리 방법의 흐름도.
도 6은 본 발명의 제1 실시예에 따른 체감형 수술용 영상 처리 방법에 따른 출력 영상의 구성도.
도 7은 본 발명의 제2 실시예에 따른 수술용 로봇의 블록 구성도.
도 8은 본 발명의 제2 실시예에 따른 체감형 수술용 영상 처리 장치의 블록 구성도.
도 9는 본 발명의 제2 실시예에 따른 체감형 수술용 영상 처리 방법의 흐름도.
도 10은 본 발명의 제2 실시예에 따른 체감형 수술용 영상 처리 방법에 따른 출력 영상의 구성도.
도 11은 본 발명의 제3 실시예에 따른 수술용 로봇의 블록 구성도.
도 12는 본 발명의 제3 실시예에 따른 체감형 수술용 영상 처리 장치의 블록 구성도.
도 13은 본 발명의 제3 실시예에 따른 체감형 수술용 영상 처리 방법의 흐름도.
도 14는 본 발명의 제3 실시예에 따른 체감형 수술용 영상 처리 방법에 따른 출력 영상의 구성도.
도 15는 본 발명의 제4 실시예에 따른 수술용 로봇의 마스터 인터페이스를 나타낸 개념도.
도 16은 본 발명의 제4 실시예에 따른 수술용 로봇의 블록 구성도.
도 17은 본 발명의 제4 실시예에 따른 체감형 수술용 영상 처리 장치의 블록 구성도.
도 18은 본 발명의 제4 실시예에 따른 체감형 수술용 영상 처리 방법의 흐름도.
도 19는 본 발명의 제5 실시예에 따른 수술용 로봇의 마스터 인터페이스를 나타낸 개념도.
도 20은 본 발명의 제6 실시예에 따른 체감형 수술용 영상 처리 장치의 블록 구성도.
도 21은 본 발명의 제6 실시예에 따른 체감형 수술용 영상 처리 방법의 흐름도.
도 22a는 본 발명의 제6 실시예에 따른 수술용 내시경의 회전 동작을 도시한 도면.
도 22b는 본 발명의 제6 실시예에 따른 수술용 내시경의 회전 동작을 도시한 도면.
도 23a 및 도 23b는 본 발명의 제6 실시예에 따른 내시경 영상을 도시한 도면.
도 24는 본 발명의 제7 실시예에 따른 보조 내시경의 회전 동작을 도시한 도면.
도 25는 본 발명의 제8 실시예에 따른 수술용 로봇의 마스터 인터페이스를 나타낸 개념도.
1 is a plan view showing the entire structure of a surgical robot according to an embodiment of the present invention.
2 is a conceptual diagram showing a master interface of a surgical robot according to the first embodiment of the present invention;
FIG. 3 is a block diagram of a surgical robot according to a first embodiment of the present invention; FIG.
FIG. 4 is a block diagram of an image processing apparatus for a sensible-type surgery according to a first embodiment of the present invention; FIG.
FIG. 5 is a flow chart of a method for image processing for a sensible type surgical operation according to the first embodiment of the present invention. FIG.
FIG. 6 is a block diagram of an output image according to an image processing method for a sensible type surgical operation according to a first embodiment of the present invention; FIG.
FIG. 7 is a block diagram of a surgical robot according to a second embodiment of the present invention; FIG.
FIG. 8 is a block diagram of an image processing apparatus for a sensible-type surgery according to a second embodiment of the present invention; FIG.
FIG. 9 is a flow chart of a method for image processing for a sensible-type surgery according to a second embodiment of the present invention.
FIG. 10 is a block diagram of an output image according to an image processing method for a sensible type surgical operation according to a second embodiment of the present invention. FIG.
11 is a block diagram of a surgical robot according to a third embodiment of the present invention.
FIG. 12 is a block diagram of an image processing apparatus for a sensible-type surgery according to a third embodiment of the present invention; FIG.
13 is a flowchart of a method of image processing for a sensible-type surgical operation according to a third embodiment of the present invention.
FIG. 14 is a block diagram of an output image according to an image processing method for a sensible type surgical operation according to a third embodiment of the present invention; FIG.
15 is a conceptual diagram showing a master interface of a surgical robot according to a fourth embodiment of the present invention;
16 is a block diagram of a surgical robot according to a fourth embodiment of the present invention.
17 is a block diagram of an image processing apparatus for a tactile sensation type according to a fourth embodiment of the present invention.
FIG. 18 is a flowchart of a method for image processing for a tactile sense according to a fourth embodiment of the present invention; FIG.
FIG. 19 is a conceptual view showing a master interface of a surgical robot according to a fifth embodiment of the present invention; FIG.
20 is a block diagram of an image processing apparatus for a tactile sensation type according to a sixth embodiment of the present invention;
FIG. 21 is a flowchart of a method for image processing for a tactile sense according to a sixth embodiment of the present invention; FIG.
22A is a view showing a rotation operation of the surgical endoscope according to the sixth embodiment of the present invention.
FIG. 22B is a view showing a rotation operation of the surgical endoscope according to the sixth embodiment of the present invention; FIG.
23A and 23B are views showing an endoscopic image according to the sixth embodiment of the present invention.
24 is a view showing a rotating operation of the auxiliary endoscope according to the seventh embodiment of the present invention;
25 is a conceptual diagram illustrating a master interface of a surgical robot according to an eighth embodiment of the present invention;

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, .

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises" or "having" and the like refer to the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
In the following description of the present invention with reference to the accompanying drawings, the same components are denoted by the same reference numerals regardless of the reference numerals, and redundant explanations thereof will be omitted. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

도 1은 본 발명의 실시예에 따른 수술용 로봇의 전체구조를 나타낸 평면도이고, 도 2는 본 발명의 제1 실시예에 따른 수술용 로봇의 마스터 인터페이스를 나타낸 개념도이다.FIG. 1 is a plan view showing an overall structure of a surgical robot according to an embodiment of the present invention, and FIG. 2 is a conceptual view illustrating a master interface of a surgical robot according to the first embodiment of the present invention.

본 실시예는 수술용 내시경의 움직임에 따라 변화하는 내시경의 관점에 상응하여, 사용자가 보는 모니터에 출력되는 내시경 영상(9)의 출력 위치를 변화시킴으로써, 사용자가 실제 수술 상황을 보다 현실감 있게 느낄 수 있도록 하는 특징이 있다. 즉, 내시경의 관점은 수술을 수행하는 사용자의 관점과 일치할 수 있으므로, 본 실시예는 복강 내의 내시경의 관점과 외부 수술 현장에서 내시경 영상(9)을 출력하는 모니터의 위치 및 출력 방향을 일치시킴으로써, 외부 수술 현장에 위치한 시스템의 모션이 실제 환자 내부에서 움직이는 내시경의 모션을 반영하여 보다 현실감을 줄 수 있는 특징이 있다. The present embodiment changes the output position of the endoscopic image 9 outputted to the monitor viewed by the user in accordance with the viewpoint of the endoscope which changes according to the motion of the endoscope for operation so that the user can feel the actual operation situation more realistically . That is, since the viewpoint of the endoscope can coincide with the viewpoint of the user performing the operation, the present embodiment can be realized by matching the position of the endoscope within the abdominal cavity with the position and the direction of the output of the monitor outputting the endoscope image 9 at the external surgery site , The motion of the system located at the external surgical site reflects the motion of the endoscope moving inside the patient, thereby providing a more realistic feeling.

본 실시예에 따른 수술용 내시경은 복강경뿐만 아니라 흉강경, 관절경, 비경, 방광경, 직장경, 십이지장경, 종격경, 심장경 등과 같이 수술시 촬영 도구로 사용되는 다양한 종류의 도구가 될 수 있다. 또한, 본 실시예에 따른 수술용 내시경은 입체 내시경이 될 수 있다. 즉, 본 실시예에 따른 수술용 내시경은 입체 영상 정보를 생성하는 입체 내시경이 될 수 있으며, 이러한 입체 영상 정보 생성 방식은 다양한 기술로 구현될 수 있다. 예를 들면, 본 실시예에 따른 수술용 내시경이 입체 정보를 가지는 복수의 영상을 획득하기 위해서 복수의 카메라를 구비하거나 또는 하나의 카메라를 이용하여 복수의 영상을 획득하는 등 다양한 방식을 이용하여 입체 영상을 획득할 수 있다. 이러한 방식 이외에도 본 실시예에 따른 수술용 내시경은 기타 다양한 방식에 의해 입체 영상을 생성할 수 있음은 물론이다.The surgical endoscope according to the present embodiment may be various kinds of instruments used as an imaging tool in surgery such as a laparoscope, a thoracoscopic, an arthroscope, a non-diameter, a cystoscope, a rectoscope, a duodenoscope, a mediastinoscope, In addition, the surgical endoscope according to the present embodiment may be a stereoscopic endoscope. That is, the surgical endoscope according to the present embodiment may be a stereoscopic endoscope for generating stereoscopic image information, and the stereoscopic image information generating method may be implemented by various techniques. For example, the surgical endoscope according to the present embodiment may include a plurality of cameras to acquire a plurality of images having stereoscopic information, or may acquire a plurality of images using one camera, Images can be acquired. In addition to this method, it is needless to say that the surgical endoscope according to the present embodiment can generate a stereoscopic image by various other methods.

또한, 본 실시예에 따른 체감형 수술용 영상 처리 장치는 반드시 도시된 바와 같은 수술용 로봇 시스템에 한정되어 구현되지 않으며, 수술시 내시경 영상(9)을 출력하며 수술 도구를 이용하여 수술하는 시스템이라면 적용가능하다. 이하에서는 수술용 로봇 시스템에 본 실시예에 따른 수술용 영상 처리 장치가 적용된 경우를 중심으로 설명한다. Further, the haptic surgical image processing apparatus according to the present embodiment is not necessarily implemented in the surgical robot system as shown in the drawing, and is a system that outputs an endoscopic image 9 during surgery and performs surgery using surgical instruments Applicable. Hereinafter, the case in which the surgical image processing apparatus according to the present embodiment is applied to the surgical robot system will be described.

도 1 및 도 2를 참조하면, 수술용 로봇 시스템은 수술대에 누워있는 환자에게 수술을 행하는 슬레이브 로봇(2)과 슬레이브 로봇(2)을 수술자가 원격 조종하는 마스터 로봇(1)을 포함하여 구성된다. 마스터 로봇(1)과 슬레이브 로봇(2)이 반드시 물리적으로 독립된 별도의 장치로 분리되어야 하는 것은 아니며, 하나로 통합되어 일체형으로 구성될 수 있으며, 이 경우 마스터 인터페이스(4)는 예를 들어 일체형 로봇의 인터페이스 부분에 상응할 수 있다. 1 and 2, the surgical robot system includes a slave robot 2 for performing surgery on a patient lying on the operating table and a master robot 1 for remotely controlling the slave robot 2 . The master robot 1 and the slave robot 2 are not necessarily separated from each other by a separate device that is physically independent and can be integrated into one unit. In this case, the master interface 4 is, for example, It can correspond to the interface part.

마스터 로봇(1)의 마스터 인터페이스(4)는 모니터부(6) 및 마스터 조종기를 포함하고, 슬레이브 로봇(2)은 로봇 암(3) 및 인스트루먼트(5)를 포함한다. 인스트루먼트(5)는 복강경 등과 같은 내시경, 환부에 직접 조작을 가하는 수술용 인스트루먼트 등과 같은 수술 도구이다. The master interface 4 of the master robot 1 includes a monitor unit 6 and a master controller and the slave robot 2 includes a robot arm 3 and an instrument 5. The instrument 5 is a surgical instrument such as an endoscope such as a laparoscope or a surgical instrument for directly manipulating the affected part.

마스터 인터페이스(4)는 수술자가 양손에 각각 파지되어 조작할 수 있도록 마스터 조종기를 구비한다. 마스터 조종기는 도 1 및 2에 예시된 바와 같이 두 개의 핸들(10)로 구현될 수 있으며, 수술자의 핸들(10) 조작에 따른 조작신호가 슬레이브 로봇(2)으로 전송되어 로봇 암(3)이 제어된다. 수술자의 핸들(10) 조작에 의해 로봇 암(3) 및/또는 인스트루먼트(5)의 위치 이동, 회전, 절단 작업 등이 수행될 수 있다.The master interface 4 is provided with a master controller so that the operator can be grasped by both hands and operated. The master manipulator can be implemented with two handles 10 as illustrated in Figures 1 and 2, and an operation signal according to operation of the operating handle 10 is transmitted to the slave robot 2, Respectively. The robot arm 3 and / or the instrument 5 can be moved, rotated, cut, or the like by operating the handle 10 of the operator.

예를 들어, 핸들(10)은 메인 핸들(main handle)과 서브 핸들(sub handle)로 구성될 수 있다. 하나의 핸들만으로 슬레이브 로봇 암(3)이나 인스트루먼트(5) 등을 조작할 수도 있고, 서브 핸들을 추가하여 동시에 복수의 수술 장비를 실시간으로 조작할 수도 있다. 메인 핸들 및 서브 핸들은 그 조작방식에 따라 다양한 기구적 구성을 가질 수 있으며, 예를 들면, 조이스틱 형태, 키패드, 트랙볼, 터치스크린 등 슬레이브 로봇(2)의 로봇 암(3) 및/또는 기타 수술 장비를 작동시키기 위한 다양한 입력수단이 사용될 수 있다.For example, the handle 10 may comprise a main handle and a sub handle. The slave robot arm 3 or the instrument 5 can be operated with only one handle or a plurality of surgical instruments can be operated simultaneously in real time by adding a sub handle. The main handle and the sub handle may have various mechanical configurations according to their operation modes. For example, a robot arm 3 of a slave robot 2 such as a joystick type, a keypad, a trackball, a touch screen, Various input means for operating the equipment can be used.

마스터 조종기는 핸들(10)의 형상으로 제한되지 않으며, 네트워크를 통해 로봇 암(3)의 동작을 제어할 수 있는 형태이면 아무런 제한없이 적용될 수 있다.The master manipulator is not limited to the shape of the handle 10, and can be applied without any limitation as long as it can control the operation of the robot arm 3 via the network.

마스터 인터페이스(4)의 모니터부(6)에는 인스트루먼트(5)에 의해 입력되는 내시경 영상(9), 카메라 영상 및 모델링 영상이 화상 이미지로 표시된다. 또한, 모니터부(6)에 표시되는 정보는 선택된 영상의 종류에 의해 다양할 수 있을 것이다. The endoscope image 9, the camera image, and the modeling image input by the instrument 5 are displayed as image images on the monitor unit 6 of the master interface 4. [ In addition, the information displayed on the monitor unit 6 may vary depending on the type of the selected image.

모니터부(6)는 하나 이상의 모니터들로 구성될 수 있으며, 각 모니터에 수술시 필요한 정보들이 개별적으로 표시되도록 할 수 있다. 도 1 및 2에는 모니터부(6)가 세 개의 모니터를 포함하는 경우가 예시되었으나, 모니터의 수량은 표시를 요하는 정보의 유형이나 종류 등에 따라 다양하게 결정될 수 있다. 또한, 모니터부(6)가 복수의 모니터를 포함하는 경우 화면이 서로 연동되어 확장될 수 있다. 즉, 내시경 영상(9)은 하나의 모니터에 출력되는 윈도우(window)와 같이 각 모니터를 자유롭게 이동할 수 있으며, 각 모니터에 서로 연결되는 일부 영상이 출력됨으로써 전체 영상이 출력될 수도 있다. The monitor unit 6 may be constituted by one or more monitors, and information necessary for operation may be individually displayed on each monitor. 1 and 2 illustrate the case where the monitor unit 6 includes three monitors, but the number of monitors can be variously determined according to the type and kind of information required to be displayed. Also, when the monitor unit 6 includes a plurality of monitors, the screens can be interlocked and expanded. That is, the endoscopic image 9 can freely move each monitor like a window output to one monitor, and a whole image may be outputted by outputting some images connected to each monitor.

슬레이브 로봇(2)과 마스터 로봇(1)은 유선 또는 무선을 통해 상호 결합되어, 마스터 로봇(1)이 슬레이브 로봇(2)에게 조작신호를 전송하고, 슬레이브 로봇(2)은 마스터 로봇(1)에게 인스트루먼트(5)를 통해 입력된 내시경 영상(9)을 전송할 수 있다. 만일, 마스터 인터페이스(4)에 구비된 두 개의 핸들(10)에 의한 두 개의 조작신호 및/또는 인스트루먼트(5)의 위치 조정을 위한 조작신호가 동시에 및/또는 유사한 시점에서 전송될 필요가 있는 경우, 각 조작신호는 상호 독립적으로 슬레이브 로봇(2)으로 전송될 수 있다. 여기서 각 조작신호가 '독립적으로' 전송된다는 것은, 조작신호 간에 서로 간섭을 주지 않으며, 어느 하나의 조작신호가 다른 하나의 신호에 영향을 미치지 않음을 의미한다. 이처럼, 복수의 조작신호가 서로 독립적으로 전송되도록 하기 위해서는, 각 조작신호의 생성 단계에서 각 조작신호에 대한 헤더 정보를 부가하여 전송시키거나, 각 조작신호가 그 생성 순서에 따라 전송되도록 하거나, 또는 각 조작신호의 전송 순서에 관하여 미리 우선순위를 정해 놓고 그에 따라 전송되도록 하는 등 다양한 방식이 이용될 수 있다. 이 경우, 각 조작신호가 전송되는 전송 경로가 독립적으로 구비되도록 함으로써 각 조작신호간에 간섭이 근본적으로 방지되도록 할 수도 있을 것이다.The slave robot 2 and the master robot 1 are coupled to each other via a wired or wireless communication so that the master robot 1 transmits an operation signal to the slave robot 2. The slave robot 2 transmits the operation signal to the slave robot 2, The endoscopic image 9 inputted through the instrument 5 can be transmitted to the endoscope apparatus. If two operation signals by the two handles 10 provided in the master interface 4 and / or operation signals for adjusting the position of the instrument 5 need to be transmitted at the same time and / , The respective operation signals can be transmitted to the slave robot 2 independently of each other. Here, the fact that each operation signal is transmitted 'independently' means that the operation signals do not interfere with each other, and that any one operation signal does not affect the other. In order to allow a plurality of operation signals to be independently transmitted, header information for each operation signal is added and transmitted in the generation of each operation signal, or each operation signal is transmitted in accordance with the generation order, or A variety of schemes may be used, such that priorities are given in advance regarding the transmission order of each operation signal and are transmitted in accordance with the priorities. In this case, the transmission path through which each operation signal is transmitted may be provided independently so that interference between each operation signal may be fundamentally prevented.

슬레이브 로봇(2)의 로봇 암(3)은 다자유도를 가지며 구동되도록 구현될 수 있다. 로봇 암(3)은 예를 들어 환자의 수술 부위에 삽입되는 수술 도구, 수술 도구를 수술 위치에 따라 요(yaw)방향으로 회전시키는 요동 구동부, 요동 구동부의 회전 구동과 직교하는 피치(pitch) 방향으로 수술 도구를 회전시키는 피치 구동부, 수술 도구를 길이 방향으로 이동시키는 이송 구동부와, 수술 도구를 회전시키는 회전 구동부, 수술 도구의 끝단에 설치되어 수술 병변을 절개 또는 절단하는 수술 도구 구동부를 포함하여 구성될 수 있다. 다만, 로봇 암(3)의 구성이 이에 제한되지 않으며, 이러한 예시가 본 발명의 권리범위를 제한하지 않는 것으로 이해되어야 한다. 또한, 수술자가 핸들(10)을 조작함에 의해 로봇 암(3)이 상응하는 방향으로 회전, 이동하는 등의 실제적인 제어 과정은 본 발명의 요지와 다소 거리감이 있으므로 이에 대한 구체적인 설명은 생략한다.The robot arm 3 of the slave robot 2 can be implemented to be driven with multiple degrees of freedom. The robot arm 3 includes, for example, a surgical tool inserted into a surgical site of a patient, a swinging drive unit for rotating the surgical tool in a yaw direction according to a surgical position, a pitch direction , A pitch driving part for rotating the surgical tool, a feed driving part for moving the surgical tool in the longitudinal direction, a rotation driving part for rotating the surgical tool, and a surgical tool driving part for cutting or cutting the surgical lesion, . However, it should be understood that the configuration of the robot arm 3 is not limited thereto, and that these examples do not limit the scope of the present invention. The actual control process of rotating or moving the robot arm 3 in the corresponding direction by operating the handle 10 by the surgeon is somewhat distant from the gist of the present invention, and a detailed description thereof will be omitted.

슬레이브 로봇(2)은 환자를 수술하기 위하여 하나 이상으로 이용될 수 있으며, 수술 부위가 모니터부(6)를 통해 화상 이미지로 표시되도록 하기 위한 인스트루먼트(5)는 독립된 슬레이브 로봇(2)으로 구현될 수도 있으며, 마스터 로봇(1)도 슬레이브 로봇(2)과 일체화되어 구현될 수도 있다. The slave robot 2 can be used more than one to perform surgery on the patient and the instrument 5 for displaying the surgical site through the monitor unit 6 as an image image can be implemented as an independent slave robot 2 And the master robot 1 may also be integrated with the slave robot 2.

도 3은 본 발명의 제1 실시예에 따른 수술용 로봇의 블록 구성도이다. 도 3을 참조하면, 영상 입력부(310), 화면 표시부(320), 암 조작부(330), 조작신호 생성부(340), 화면 표시 제어부(350), 제어부(370)를 포함하는 마스터 로봇(1) 및 로봇 암(3), 내시경(8)을 포함하는 슬레이브 로봇(2)이 도시된다. 3 is a block diagram of a surgical robot according to a first embodiment of the present invention. 3, the master robot 1 includes an image input unit 310, a screen display unit 320, a dark operation unit 330, an operation signal generation unit 340, a screen display control unit 350, and a control unit 370. [ And a slave robot 2 including a robot arm 3 and an endoscope 8 are shown.

본 실시예에 따른 체감형 수술용 영상 처리 장치는 영상 입력부(310), 화면 표시부(320), 화면 표시 제어부(350)를 포함하는 모듈로 구현될 수 있으며, 물론, 이러한 모듈은 암 조작부(330), 조작신호 생성부(340), 제어부(370)를 포함할 수도 있다. The haptic surgical image processing apparatus according to the present embodiment may be implemented as a module including an image input unit 310, a screen display unit 320 and a screen display control unit 350. Of course, An operation signal generating unit 340, and a control unit 370.

영상 입력부(310)는 슬레이브 로봇(2)의 내시경(8)을 통해 입력된 영상을 유선 또는 무선 전송을 통해 수신한다. 내시경(8)도 본 실시예에 따른 수술 도구의 한 종류가 될 수 있으며, 그 개수는 하나 이상이 될 수 있다.The image input unit 310 receives the image input through the endoscope 8 of the slave robot 2 through wired or wireless transmission. The endoscope 8 may also be one kind of surgical instruments according to the present embodiment, and the number thereof may be one or more.

화면 표시부(320)는 영상 입력부(310)를 통해 수신된 영상에 상응하는 화상 이미지를 시각(視覺)적 정보로 출력한다. 화면 표시부(320)는 내시경 영상을 크기 그대로 또는 줌인(Zoom In)/줌아웃(Zoom Out)하여 출력하거나 또는 내시경 영상과 후술할 모델링 영상을 서로 정합하거나 각각 별도의 영상으로 출력할 수 있다. The screen display unit 320 outputs visual images corresponding to the images received through the image input unit 310 as visual information. The screen display unit 320 may output the endoscopic image as it is in size or zoom in / zoom out, or may output the endoscopic image and the modeling image, which will be described later, as a separate image.

또한, 화면 표시부(320)는 내시경 영상과 전체 수술 상황을 비추는 영상, 예를 들면, 수술 대상의 외부를 카메라가 촬영하여 생성하는 카메라 영상을 동시 및/또는 서로 정합하여 출력하여 수술시 상황 파악을 용이하게 할 수도 있다. In addition, the screen display unit 320 may simultaneously output an endoscopic image and an image that illuminates the entire operation situation, for example, a camera image generated by the camera by photographing the outside of the operation target, It may be facilitated.

또한, 화면 표시부(320)는 출력 영상의 일부분 또는 별도의 화면에 생성된 창(window)에 전체 영상(내시경 영상, 모델링 영상 및 카메라 영상 등)에 대한 축소된 영상을 출력하고, 수술자가 상술한 마스터 조종기를 이용하여 출력된 축소된 영상 중 특정 지점을 선택하거나 회전시키는 경우 출력 영상 전체가 이동 또는 회전하는 기능, 이른바, 캐드 프로그램의 조감뷰(bird's eye view) 기능을 수행할 수도 있다. 상술한 바와 같은 화면 표시부(320)에 출력되는 영상의 줌인/줌아웃, 이동, 회전 등과 같은 기능은 마스터 조종기의 조작에 상응하여 제어부(370)에서 제어할 수 있다. The screen display unit 320 outputs a reduced image of the entire image (endoscopic image, modeling image, camera image, etc.) to a window created on a part of the output image or on a separate screen, A function of moving or rotating the entire output image when selecting or rotating a specific point out of the reduced image output by using the master controller, that is, a so-called bird's eye view function of the CAD program. Functions such as zooming in / zooming out, moving, rotating, etc. of the image outputted to the screen display unit 320 as described above can be controlled by the control unit 370 in accordance with the operation of the master controller.

화면 표시부(320)는 모니터부(6) 등의 형태로 구현될 수 있으며, 수신된 영상이 화면 표시부(320)를 통해 화상 이미지로 출력되도록 하기 위한 영상 처리 프로세스가 제어부(370), 화면 표시 제어부(350) 또는 별도의 영상 처리부(도시되지 않음)에 의해 수행될 수 있다. 본 실시예에 따른 화면 표시부(320)는 다양한 기술로 구현되는 디스플레이어가 될 수 있으며, 예를 들면, 멀티비젼, UHDTV(7380x4320)와 같은 초고해상도 모니터가 될 수 있다. 또한, 본 실시예에 따른 화면 표시부(320)는 3D 디스플레이가 될 수 있다. 예를 들면, 본 실시예에 따른 화면 표시부(320)는 양안시차의 원리를 이용하여 사용자로 하여금 좌안용과 우안용 영상을 분리하여 인식하도록 할 수 있다. 이러한 3D 영상 구현 방식은 안경식(예를 들면, 적청안경방식(애너글리프), 편광안경방식(패시브 글라스), 셔터안경방식(액티브 글라스) 등), 렌티큘러 방식, 배리어 방식 등 다양한 방식으로 구현될 수 있다.The screen display unit 320 may be implemented in the form of a monitor unit 6 and the like. The image processing process for causing the received image to be output as an image through the screen display unit 320 may include a control unit 370, (350) or a separate image processing unit (not shown). The screen display unit 320 according to the present exemplary embodiment may be a display implemented by various technologies, for example, an ultra high resolution monitor such as a multivision UHDTV (7380x4320). Also, the screen display unit 320 according to the present embodiment may be a 3D display. For example, the screen display unit 320 according to the present embodiment can allow the user to recognize the left eye image and the right eye image separately by using the principle of binocular parallax. Such a 3D image realization method can be implemented in various ways such as a spectacle type (for example, a red-eyeglass type (anaglyph), a polarized glasses type (passive glass), a shutter type glasses (active glass), etc.), a lenticular method, have.

화면 표시부(320)는 입력된 내시경 영상을 특정 영역에 출력한다. 여기서 특정 영역은 소정의 크기 및 위치를 가지는 화면 상의 영역이 될 수 있다. 이러한 특정 영역은 상술한 바와 같이 내시경(8)의 관점의 변화에 상응하여 결정될 수 있다.The screen display unit 320 outputs the input endoscopic image to a specific area. Here, the specific area may be a screen area having a predetermined size and position. This specific area can be determined corresponding to the change of the viewpoint of the endoscope 8 as described above.

화면 표시 제어부(350)는 내시경(8)의 관점에 상응하여 이러한 특정 영역을 설정할 수 있다. 즉, 화면 표시 제어부(350)는 내시경(8)의 회전, 이동 등 모션에 상응하여 그 관점을 추적하고, 이를 반영하여 화면 표시부(320)에서 내시경 영상을 출력하는 특정 영역을 설정한다.The screen display control section 350 can set this specific area in accordance with the viewpoint of the endoscope 8. [ That is, the screen display control unit 350 tracks the viewpoint corresponding to the motion of the endoscope 8, such as the rotation and the movement, and sets a specific area for outputting the endoscope image on the screen display unit 320,

암 조작부(330)는 슬레이브 로봇(2)의 로봇 암(3)의 위치 및 기능을 수술자가 조작할 수 있도록 하는 수단이다. 암 조작부(330)는 도 2에 예시된 바와 같이 핸들(10)의 형상으로 형성될 수 있으나, 그 형상이 이에 제한되지 않으며 동일한 목적 달성을 위한 다양한 형상으로 변형 구현될 수 있다. 또한, 예를 들어 일부는 핸들 형상으로, 다른 일부는 클러치 버튼 등의 다른 형상으로 형성될 수도 있으며, 수술 도구의 조작을 용이하도록 하기 위해 수술자의 손가락을 삽입 고정할 수 있도록 하는 손가락 삽입관 또는 삽입 고리가 더 형성될 수도 있다.The arm control unit 330 is a means for enabling the operator to operate the position and function of the robot arm 3 of the slave robot 2. [ 2, a shape of the handle 10 is not limited to the shape of the handle 10, but may be modified into various shapes to achieve the same purpose. In addition, for example, a part may be formed in a handle shape and the other part may be formed in another shape such as a clutch button or the like. In order to facilitate manipulation of the surgical tool, a finger insertion tube or insertion More rings may be formed.

조작신호 생성부(340)는 로봇 암(3) 및/또는 내시경(8)의 위치 이동 또는 수술을 위한 조작을 위해 수술자가 암 조작부(330)를 조작하는 경우 이에 상응하는 조작신호를 생성하여 슬레이브 로봇(2)으로 전송한다. 조작신호는 유선 또는 무선 통신망을 통해 송수신될 수 있다.The operation signal generator 340 generates a corresponding operation signal when the operator operates the arm control unit 330 to move the robot arm 3 and / or the endoscope 8 or to operate the robot arm 3 and / To the robot (2). The operation signal may be transmitted or received via a wired or wireless communication network.

조작신호 생성부(340)는 수술자의 암 조작부(340) 조작에 따른 조작 정보를 이용하여 조작신호를 생성하고, 생성한 조작신호를 슬레이브 로봇(2)으로 전송하여 결과적으로 실제 수술 도구가 조작 정보에 상응하도록 조작되도록 한다. 아울러, 조작신호에 의해 조작된 실제 수술 도구의 위치 및 조작 형상은 내시경(8)에 의해 입력된 영상에 의해 수술자의 확인이 가능하다. The operation signal generating unit 340 generates an operation signal by using the operation information according to the operation of the operation member 340 of the operator and transmits the generated operation signal to the slave robot 2. As a result, As shown in FIG. In addition, the position and manipulation shape of the actual surgical tool manipulated by the manipulation signal can be confirmed by the operator through the image input by the endoscope 8. [

도 4는 본 발명의 제1 실시예에 따른 체감형 수술용 영상 처리 장치의 블록 구성도이다. 도 4를 참조하면, 화면 표시 제어부(350)는 내시경 관점 추적부(351), 영상 이동 정보 추출부(353), 영상 위치 설정부(355)를 포함할 수 있다. 4 is a block diagram of an image processing apparatus for a haptic surgical method according to a first embodiment of the present invention. 4, the screen display control unit 350 may include an endoscopic viewpoint tracking unit 351, an image movement information extracting unit 353, and an image position setting unit 355.

내시경 관점 추적부(351)는 내시경(8)의 이동 및 회전에 상응하여 내시경(8)의 관점 정보를 추적한다. 여기서, 관점 정보는 내시경(8)이 바라보는 관점(view point)을 의미하며, 이러한 관점 정보는 상술한 수술용 로봇 시스템에서 내시경(8)을 조작하는 신호로부터 추출될 수 있다. 즉, 관점 정보는 내시경(8)의 이동 및 회전 운동을 조작하는 신호에 의해 특정될 수 있다. 이러한 내시경(8) 조작 신호는 수술용 로봇 시스템에서 생성되어 내시경(8)을 조작하는 로봇 암(3)에 전달되기 때문에 이러한 신호를 이용하면 내시경(8)이 바라보는 방향을 추적할 수 있다. The endoscope viewpoint tracking unit 351 tracks the viewpoint information of the endoscope 8 in accordance with the movement and rotation of the endoscope 8. [ Here, the point of view information means a view point viewed by the endoscope 8, and such point of view information can be extracted from the signal for operating the endoscope 8 in the above-described surgical robot system. In other words, the point of view information can be specified by a signal that manipulates the movement and rotational motion of the endoscope 8. [ The manipulation signal of the endoscope 8 is generated in the surgical robot system and transmitted to the robot arm 3 that manipulates the endoscope 8. Therefore, the direction of the endoscope 8 can be tracked using such a signal.

영상 이동 정보 추출부(353)는 내시경(8)의 관점 정보를 이용하여 내시경 영상의 이동 정보를 추출한다. 즉, 내시경(8)의 관점 정보는 취득되는 내시경 영상의 촬영 대상의 위치 변화량에 대한 정보를 포함할 수 있으며, 이러한 정보로부터 내시경 영상의 이동 정보가 추출될 수 있다. The image movement information extracting unit 353 extracts movement information of the endoscopic image using the perspective information of the endoscope 8. [ That is, the viewpoint information of the endoscope 8 may include information on the position change amount of the object to be captured of the obtained endoscopic image, and movement information of the endoscopic image can be extracted from this information.

영상 위치 설정부(355)는 추출된 이동 정보를 이용하여 내시경 영상이 출력되는 화면 표시부(320)의 특정 영역을 설정한다. 예를 들면, 내시경(8)의 관점 정보가 소정의 벡터(A)만큼 변화하였다면, 환자의 내부 장기에 대한 내시경 영상은 해당 벡터에 상응하여 그 이동 정보가 특정되며, 이러한 이동 정보를 이용하여 화면 표시부(320)의 특정 영역이 설정된다. 내시경 영상이 소정의 벡터(B) 만큼 변화하였다면, 이러한 정보와 화면 표시부(320)의 크기, 형상, 해상도를 이용하여 내시경 영상이 화면 표시부(320)에 실제 출력될 특정 영역이 설정될 수 있다. The image position setting unit 355 sets a specific region of the screen display unit 320 on which the endoscopic image is output by using the extracted movement information. For example, if the point of view information of the endoscope 8 is changed by a predetermined vector A, the movement information of the endoscopic image of the patient's internal organs corresponding to the vector is specified, A specific area of the display unit 320 is set. If the endoscopic image has changed by a predetermined vector B, a specific area to be actually output from the endoscopic image to the screen display unit 320 may be set using this information and the size, shape, and resolution of the screen display unit 320.

도 5는 본 발명의 제1 실시예에 따른 체감형 수술용 영상 처리 방법의 흐름도이다. 이하에서 수행할 각 단계는 화면 표시 제어부(350)가 주체가 되어 실행할 수 있으며, 각 단계가 반드시 기술된 순서로 시계열적으로 실행될 필요가 없음은 물론이다.FIG. 5 is a flowchart of a method for image processing for a sensible type surgical operation according to the first embodiment of the present invention. It is needless to say that each step to be performed below can be performed by the screen display control unit 350 as a subject, and that the steps need not always be executed in a time sequence in the described order.

단계 S511에서, 내시경(8)의 이동 및 회전에 상응하여 내시경(8)이 바라보는 관점에 대한 정보인 내시경(8)의 관점 정보를 추적한다. 관점 정보는 내시경(8)의 이동 및 회전 운동을 조작하는 신호에 의해 특정됨으로써 내시경(8)이 바라보는 방향은 추적될 수 있다. In step S511, the viewpoint information of the endoscope 8, which is information on the viewpoint of the endoscope 8 in accordance with the movement and rotation of the endoscope 8, is tracked. The direction of the endoscope 8 can be tracked by specifying the point of view information by a signal that manipulates the movement and rotation of the endoscope 8. [

단계 S513에서, 내시경(8)의 관점 정보를 이용하여 내시경 영상의 촬영 대상의 위치 변화량에 대응되는 내시경 영상의 이동 정보를 추출한다. In step S513, the movement information of the endoscopic image corresponding to the positional change amount of the object of the endoscopic image is extracted using the viewpoint information of the endoscope 8. [

단계 S515에서, 추출된 이동 정보를 이용하여 내시경 영상이 출력되는 화면 표시부(320)의 특정 영역을 설정한다. 즉, 내시경(8)의 관점 정보 및 내시경 영상의 이동 정보가 상술한 바와 같이 특정되면, 이러한 이동 정보를 이용하여 화면 표시부(320)에서 내시경 영상이 출력될 특정 영역이 설정된다. In step S515, a specific area of the screen display unit 320 on which the endoscopic image is output is set by using the extracted movement information. That is, when the view information of the endoscope 8 and the movement information of the endoscope image are specified as described above, the specific region to which the endoscope image is to be output is set on the screen display unit 320 using this movement information.

단계 S517에서, 화면 표시부(320)에서 설정된 특정 영역에 내시경 영상을 출력한다. In step S517, the endoscope image is output to the specific area set by the screen display unit 320. [

도 6은 본 발명의 제1 실시예에 따른 체감형 수술용 영상 처리 방법에 따른 출력 영상의 구성도이다. 화면 표시부(320)는 전체 화면이 될 수 있으며, 내시경(8)에서 취득된 내시경 영상(620)이 화면 표시부(320)의 특정 위치, 예를 들면, 좌표(X,Y)에 내시경 영상(620)의 중심점을 둔 위치에 출력될 수 있다. 좌표(X,Y)는 내시경(8)의 관점의 변화량에 상응하여 설정될 수 있다. 예를 들면, 내시경(8)의 관점 정보 및 내시경 영상의 이동량이 좌로 +1, 세로로 -1만큼 변화하면, 내시경 영상(620)의 중심점은 좌표(X+1,Y-1)의 위치로 이동할 수 있다.6 is a configuration diagram of an output image according to the image processing method for a tactile sense according to the first embodiment of the present invention. The screen display unit 320 may be a full screen and the endoscope image 620 acquired by the endoscope 8 may be displayed on the endoscopic image 620 at a specific position of the screen display unit 320, ) At the center point of the image. The coordinates (X, Y) may be set corresponding to the amount of change of the viewpoint of the endoscope 8. [ For example, when the perspective information of the endoscope 8 and the amount of movement of the endoscopic image are changed by +1 and -1 vertically, the center point of the endoscopic image 620 is positioned at the position of the coordinates (X + 1, Y-1) Can be moved.

도 7은 본 발명의 제2 실시예에 따른 수술용 로봇의 블록 구성도이다. 도 7을 참조하면, 영상 입력부(310), 화면 표시부(320), 암 조작부(330), 조작신호 생성부(340), 화면 표시 제어부(350), 영상 저장부(360), 제어부(370)를 포함하는 마스터 로봇(1) 및 로봇 암(3), 내시경(8)을 포함하는 슬레이브 로봇(2)이 도시된다. 상술한 바와의 차이점을 위주로 설명한다. 7 is a block diagram of a surgical robot according to a second embodiment of the present invention. 7, an image input unit 310, a screen display unit 320, a dark operation unit 330, an operation signal generation unit 340, a screen display control unit 350, an image storage unit 360, a control unit 370, A slave robot 2 including a robot arm 3 and an endoscope 8 is shown. The differences from the above will be mainly described.

본 실시예는 현재 시점에서, 이전에 입력되어 저장된 내시경 영상을 추출하여 현재의 내시경 영상과 함께 화면 표시부(320)에 출력함으로써, 내시경 영상의 변화에 대한 정보를 사용자에게 알려 줄 수 있는 특징이 있다. The present embodiment is characterized in that at this point in time, an endoscopic image previously inputted and stored is extracted and output to the screen display unit 320 together with the current endoscopic image, thereby informing the user of the change in the endoscopic image .

영상 입력부(310)는 수술용 내시경으로부터 서로 다른 시점에 제공되는 제1 내시경 영상 및 제2 내시경 영상을 입력받는다. 여기서, 제1, 제2 등과 같은 서수는 서로 다른 내시경 영상을 구분하기 위한 식별자가 될 수 있으며, 제1 내시경 영상 및 제2 내시경 영상은 내시경(8)이 서로 다른 시점 및 관점에서 촬영한 영상이 될 수 있다. 또한, 영상 입력부(310)는 제1 내시경 영상을 제2 내시경 영상보다 먼저 입력받을 수 있다. The image input unit 310 receives the first endoscopic image and the second endoscopic image provided at different points in time from the surgical endoscope. Here, the ordinal numbers such as first, second, etc. may be identifiers for distinguishing between different endoscopic images, and the first endoscopic image and the second endoscopic image may be images obtained by the endoscope 8 at different viewpoints and points of view . In addition, the image input unit 310 may receive the first endoscopic image before the second endoscopic image.

영상 저장부(360)는 이러한 제1 내시경 영상과 제2 내시경 영상을 저장한다. 영상 저장부(360)는 제1 내시경 영상과 제2 내시경 영상의 실제 영상 내용인 영상 정보뿐만 아니라 화면 표시부(320)에 출력될 특정 영역에 대한 정보도 저장한다. The image storage unit 360 stores the first endoscopic image and the second endoscopic image. The image storage unit 360 stores not only image information that is the actual image content of the first endoscopic image and the second endoscopic image, but also information about a specific region to be output to the screen display unit 320.

화면 표시부(320)는 제1 내시경 영상과 제2 내시경 영상을 서로 다른 영역에 출력하며, 화면 표시 제어부(350)는 내시경(8)의 서로 다른 관점에 상응하여 제1 내시경 영상과 제2 내시경 영상을 서로 다른 영역에 출력하도록 화면 표시부(320)를 제어할 수 있다.The screen display unit 320 outputs the first endoscopic image and the second endoscopic image to different areas and the display control unit 350 displays the first endoscopic image and the second endoscopic image in accordance with different viewpoints of the endoscope 8. [ To the different areas.

여기서, 화면 표시부(320)는 제1 내시경 영상과 제2 내시경 영상을 채도, 명도, 색상 및 화면 패턴 중 어느 하나 이상을 다르게 출력할 수 있다. 예를 들면, 화면 표시부(320)는 현재 입력되는 제2 내시경 영상은 컬러 영상으로 출력하고, 과거 영상인 제1 내시경 영상은 흑백 영상 등으로 출력함으로써, 사용자가 영상을 서로 구분하도록 할 수 있다. 도 10을 참조하면, 현재 입력된 영상인 제2 내시경 영상(622)은 컬러 영상으로 좌표(X1,Y1)에 출력되며, 과거 입력된 영상인 제1 내시경 영상(621)은 화면 패턴, 즉, 빗금 패턴이 형성되어 좌표(X2,Y2)에 출력되는 예가 도시된다. Here, the screen display unit 320 may output at least one of saturation, lightness, color, and screen pattern differently from the first endoscopic image and the second endoscopic image. For example, the screen display unit 320 may output a second endoscopic image, which is currently input, as a color image, and a first endoscopic image, which is a past image, as a monochrome image or the like. 10, the second endoscopic image 622, which is the currently input image, is output as the color image at coordinates (X1, Y1), and the first endoscopic image 621, which is a previously input image, An example is shown in which a hatched pattern is formed and output to the coordinates (X2, Y2).

또한, 이전 영상인 제1 내시경 영상은 계속 또는 미리 설정된 시간동안만 출력될 수 있다. 후자의 경우 과거 영상은 화면 표시부(320)에 소정 시간동안만 출력됨으로써, 화면 표시부(320)에는 새로운 내시경 영상이 지속적으로 업데이트될 수 있다. Also, the first endoscopic image, which is the previous image, can be continuously output or only for a predetermined time. In the latter case, the past image is output to the screen display unit 320 only for a predetermined time, so that the new endoscope image can be continuously updated on the screen display unit 320. [

도 8은 본 발명의 제2 실시예에 따른 체감형 수술용 영상 처리 장치의 블록 구성도이다. 도 8을 참조하면, 화면 표시 제어부(350)는 내시경 관점 추적부(351), 영상 이동 정보 추출부(353), 영상 위치 설정부(355), 저장 영상 표시부(357)를 포함할 수 있다. FIG. 8 is a block diagram of a haptic surgical image processor according to a second embodiment of the present invention. 8, the screen display control unit 350 may include an endoscopic viewpoint tracking unit 351, an image movement information extraction unit 353, an image position setting unit 355, and a stored image display unit 357.

내시경 관점 추적부(351)는 내시경(8)의 이동 및 회전에 상응하여 내시경(8)의 관점 정보를 추적하며, 영상 이동 정보 추출부(353)는 내시경(8)의 관점 정보를 이용하여 상술한 바와 같이 내시경 영상의 이동 정보를 추출한다.The endoscopic viewpoint tracking section 351 tracks the viewpoint information of the endoscope 8 in accordance with the movement and rotation of the endoscope 8. The image movement information extracting section 353 extracts, The movement information of the endoscopic image is extracted as described above.

영상 위치 설정부(355)는 추출된 이동 정보를 이용하여 내시경 영상이 출력되는 화면 표시부(320)의 특정 영역을 설정한다.The image position setting unit 355 sets a specific region of the screen display unit 320 on which the endoscopic image is output by using the extracted movement information.

저장 영상 표시부(357)는 화면 표시부(320)가 실시간으로 입력된 제2 내시경 영상을 출력하는 동안 영상 저장부(360)에 저장된 제1 내시경 영상을 추출하여 화면 표시부(320)에 출력한다. 제1 내시경 영상과 제2 내시경 영상은 그 출력되는 영역 및 영상 정보가 서로 다르므로, 저장 영상 표시부(357)는 이러한 정보를 영상 저장부(360)에서 추출하여 저장된 과거 영상인 제1 내시경 영상을 화면 표시부(320)에 출력하도록 한다. The storage image display unit 357 extracts the first endoscopic image stored in the image storage unit 360 and outputs the first endoscopic image to the screen display unit 320 while the screen display unit 320 outputs the second endoscopic image input in real time. Since the first endoscopic image and the second endoscopic image have different output regions and image information, the stored image display unit 357 extracts the information from the image storage unit 360 and stores the first endoscopic image, And outputs it to the screen display unit 320.

도 9는 본 발명의 제2 실시예에 따른 체감형 수술용 영상 처리 방법의 흐름도이다. 이하에서 설명될 각 단계는 화면 표시 제어부(350)가 주체가 되어 실행할 수 있으며, 크게 제1 내시경 영상을 출력하는 단계와 제2 내시경 영상을 출력하는 단계로 구분될 수 있고, 상술한 바와 같이 제1 내시경 영상은 제2 내시경 영상과 함께 출력될 수 있다.FIG. 9 is a flowchart of a method for image processing for a sensible type surgical operation according to a second embodiment of the present invention. Each of the steps to be described below can be executed by the screen display control unit 350 as a subject and can be roughly divided into a step of outputting a first endoscopic image and a step of outputting a second endoscopic image, 1 endoscopic image may be output together with the second endoscopic image.

단계 S511에서는, 내시경(8)의 제1 이동 및 회전 정보에 상응하여 내시경(8)이 바라보는 관점에 대한 정보인 내시경(8)의 관점 정보를 추적한다. In step S511, the perspective information of the endoscope 8, which is information on the viewpoint of the endoscope 8 in accordance with the first movement and rotation information of the endoscope 8, is tracked.

단계 S513에서는, 제1 내시경 영상의 이동 정보가 추출되며, 단계 S515에서는, 추출된 이동 정보를 이용하여 내시경 영상이 출력되는 화면 표시부(320)의 특정 영역을 설정하고, 단계 S517에서는, 설정된 위치에 제1 내시경 영상을 출력한다.In step S513, movement information of the first endoscopic image is extracted. In step S515, a specific area of the screen display unit 320 on which the endoscopic image is output is set using the extracted movement information. In step S517, And outputs the first endoscopic image.

단계 S519에서는, 출력된 제1 내시경 영상에 대한 정보 및 제1 화면 위치를 영상 저장부(360)에 저장한다.In step S519, the information on the output endoscopic image and the first screen position are stored in the image storage unit 360. [

단계 S521에서는, 내시경(8)의 제2 이동 및 회전 정보에 상응하여 내시경(8)이 바라보는 관점에 대한 정보인 내시경(8)의 관점 정보를 추적한다. In step S521, the perspective information of the endoscope 8, which is information on the viewpoint of the endoscope 8 in accordance with the second movement and rotation information of the endoscope 8, is tracked.

단계 S522에서는, 제2 내시경 영상의 이동 정보가 추출되며, 단계 S523에서는, 추출된 이동 정보를 이용하여 내시경 영상이 출력되는 화면 표시부(320)의 특정 영역을 설정하고, 단계 S524에서는, 설정된 위치에 제2 내시경 영상을 출력한다.In step S522, movement information of the second endoscopic image is extracted. In step S523, a specific area of the screen display unit 320 on which the endoscopic image is output is set using the extracted movement information. In step S524, And outputs a second endoscopic image.

단계 S525에서는, 출력된 제2 내시경 영상에 대한 정보 및 제2 화면 위치를 영상 저장부(360)에 저장한다. 단계 S526에서는, 제2 내시경 영상과 함께 영상 저장부(360)에 저장된 제1 내시경 영상을 제1 화면 위치에 출력한다. 여기서, 제1 내시경 영상은 제2 내시경 영상과 채도, 명도, 색상 및 화면 패턴 중 어느 하나 이상을 다르게 하여 출력할 수 있다.In step S525, the information on the output second endoscopic image and the second screen position are stored in the image storage unit 360. [ In step S526, the first endoscopic image stored in the image storage unit 360 together with the second endoscopic image is output to the first screen position. Here, the first endoscopic image may output at least one of saturation, brightness, color, and screen pattern with the second endoscopic image.

도 11은 본 발명의 제3 실시예에 따른 수술용 로봇의 블록 구성도이다. 도 11을 참조하면, 영상 입력부(310), 화면 표시부(320), 암 조작부(330), 조작신호 생성부(340), 화면 표시 제어부(350), 제어부(370), 영상 정합부(450)를 포함하는 마스터 로봇(1) 및 로봇 암(3), 내시경(8)을 포함하는 슬레이브 로봇(2)이 도시된다. 상술한 바와의 차이점을 위주로 설명한다.11 is a block diagram of a surgical robot according to a third embodiment of the present invention. 11, an image input unit 310, a screen display unit 320, a dark operation unit 330, an operation signal generation unit 340, a screen display control unit 350, a control unit 370, an image matching unit 450, A slave robot 2 including a robot arm 3 and an endoscope 8 is shown. The differences from the above will be mainly described.

본 실시예는 수술시 내시경을 이용하여 실제 촬영한 내시경 영상과 미리 수술 도구에 대해 생성하여 영상 저장부(360)에 저장한 모델링 영상을 각각 또는 서로 정합하거나 그 크기를 조절하는 등 영상을 수정하여 사용자가 관찰가능한 화면 표시부(320)에 출력할 수 있는 특징이 있다. In the present embodiment, an endoscopic image actually photographed using an endoscope during surgery and a modeling image stored in the image storage unit 360 are generated for the surgical tool in advance, There is a feature that the user can output to the observable screen display unit 320.

영상 정합부(450)는 영상 입력부(310)를 통해 수신된 내시경 영상과 상술한 영상 저장부(360)에 저장된 수술 도구에 대한 모델링 영상을 서로 정합하여 출력 영상을 생성하고 이를 화면 표시부(320)에 출력한다. 내시경 영상은 내시경을 이용하여 환자의 몸속 내부를 촬영한 영상으로서 제한된 영역만을 촬영하여 획득된 영상이므로, 수술 도구의 일부 모습에 대한 영상을 포함한다. The image matching unit 450 generates an output image by matching the endoscopic image received through the image input unit 310 with the modeling image of the surgical tool stored in the image storage unit 360, . The endoscopic image is an image obtained by photographing the inside of the patient's body using an endoscope and capturing only a limited area, and thus includes an image of a part of the surgical tool.

모델링 영상은 전체 수술 도구에 대한 형상을 2D 또는 3D 영상으로 구현하여 생성한 영상이다. 모델링 영상은 수술 개시 시점 전 특정 시점, 예를 들면, 초기 설정 상태에 촬영한 수술 도구에 관한 영상이 될 수 있다. 모델링 영상은 수술 도구를 컴퓨터 시뮬레이션 기법에 의해 생성된 영상이므로 영상 정합부(450)는 실제 내시경 영상에 도시된 수술 도구와 모델링 영상을 정합하여 출력할 수 있다. 실제 물체를 모델링하여 영상을 획득하는 기술은 본 발명의 요지와 다소 거리감이 있으므로 이에 대한 구체적인 설명은 생략한다. 또한, 영상 정합부(450)의 구체적인 기능, 다양한 세부 구성 등은 이후 관련 도면을 참조하여 상세히 설명한다. The modeling image is the image generated by implementing the shape of the whole surgical tool as 2D or 3D image. The modeling image may be an image relating to a surgical tool photographed at a specific time point before the start of surgery, for example, in an initial setting state. Since the modeling image is an image generated by the computer simulation technique, the image matching unit 450 may output the matching result of the surgical tool and the modeling image shown in the actual endoscopic image. The technique of acquiring an image by modeling an actual object is somewhat distant from the gist of the present invention, so a detailed description thereof will be omitted. The specific functions, various detailed configurations, and the like of the image matching unit 450 will be described in detail below with reference to related drawings.

제어부(370)는 상술한 기능이 수행될 수 있도록 각 구성 요소들의 동작을 제어한다. 제어부(370)는 영상 입력부(310)를 통해 입력되는 영상이 화면 표시부(320)를 통해 표시될 화상 이미지로 변환하는 기능을 수행할 수도 있다. 또한, 제어부(360)는 암 조작부(330)의 조작에 따른 조작 정보가 입력되면 이에 상응하여 모델링 영상이 화면 표시부(320)를 통해 출력되도록 영상 정합부(450)를 제어한다. The control unit 370 controls the operation of each component so that the above-described functions can be performed. The control unit 370 may perform a function of converting an image input through the image input unit 310 into an image image to be displayed through the screen display unit 320. [ The control unit 360 controls the image matching unit 450 so that the modeling image is output through the screen display unit 320 when the operation information according to the operation of the dark operation unit 330 is input.

내시경 영상에 포함되는 실제 수술 도구는 내시경(8)에 의해 입력되어 마스터 로봇(1)으로 전송된 영상에 포함된 수술 도구로서 환자의 신체에 직접적인 수술 행위를 가하는 수술 도구이다. 이에 비해, 모델링 영상에 포함되는 모델링 수술 도구는 수술 도구 전체에 대해 미리 수학적으로 모델링되어 2D 또는 3D 영상으로 영상 저장부(360)에 저장된다. 내시경 영상의 수술 도구 및 모델링 영상의 모델링 수술 도구는 수술자가 암 조작부(330)를 조작함에 따라 마스터 로봇(1)이 인식하는 조작 정보(즉, 수술 도구의 이동, 회전 등에 관한 정보)에 의해 제어될 수 있다. 실제 수술 도구 및 모델링 수술 도구는 그 위치 및 조작 형상이 조작 정보에 의해 결정될 수 있다. 도 14를 참조하면, 내시경 영상(620)은 모델링 영상(610)과 서로 정합되어 화면 표시부(320)의 좌표(X,Y)에 출력된다. The actual surgical tool included in the endoscopic image is a surgical tool included in the image input by the endoscope 8 and transmitted to the master robot 1, and is a surgical tool that directly applies a surgical operation to the patient's body. In contrast, the modeling and surgical tools included in the modeling image are mathematically modeled in advance for the entire surgical tool and stored in the image storage unit 360 as a 2D or 3D image. Modeling of Surgical Tool and Modeling Image of Endoscopic Image The surgical tool is controlled by operating information of the master robot 1 (that is, information about movement, rotation, etc. of the surgical tool) . The actual operation tool and the modeling operation tool can determine the position and the operation shape by the operation information. 14, the endoscopic image 620 is matched with the modeling image 610 and output to the coordinates (X, Y) of the screen display unit 320.

또한, 모델링 영상은 수술 도구뿐만 아니라 환자의 장기(臟器)에 대해서도 모델링하여 재구성한 영상을 포함할 수 있다. 즉, 모델링 영상은 CT(Computer Tomography, 컴퓨터단층촬영검사), MR(Magnetic Resonance, 자기공명), PET(Positron Emission Tomography, 양전자방출단층촬영술), SPECT(Single Photon Emission Computed Tomography, 단광자방출단층검사), US(Ultrasonography, 초음파촬영술) 등의 영상 장비로부터 획득한 영상을 참조하여 재구성한 환자의 장기 표면의 2D 또는 3D 영상을 포함할 수 있으며, 이 경우 실제 내시경 영상과 컴퓨터적 모델링 영상을 정합하면 보다 수술자에게 수술 부위를 포함한 전체 영상을 제공할 수 있는 효과가 있다. In addition, the modeling image can include reconstructed images by modeling not only the surgical tools but also the patient's organs. That is, the modeling image can be classified into CT (Computer Tomography), MR (Magnetic Resonance), PET (Positron Emission Tomography), SPECT (Single Photon Emission Computed Tomography) ), US (Ultrasonography, Ultrasound), and the reconstructed 2D or 3D image of the long-term surface of the patient. In this case, matching the actual endoscopic image with the computer modeling image It is possible to provide the operator with the entire image including the surgical site.

도 12는 본 발명의 제3 실시예에 따른 체감형 수술용 영상 처리 장치의 블록 구성도이다. 도 12를 참조하면, 영상 정합부(450)는 특성값 연산부(451), 모델링 영상 구현부(453), 중첩 영상 처리부(455)를 포함할 수 있다. 12 is a block diagram of an image processing apparatus for a haptic surgical method according to a third embodiment of the present invention. 12, the image matching unit 450 may include a feature value calculation unit 451, a modeling image implementation unit 453, and a superimposed image processing unit 455. FIG.

특성값 연산부(451)는 슬레이브 로봇(2)의 복강경(8)에 의해 입력되어 제공되는 영상 및/또는 로봇 암(3)에 결합된 실제 수술 도구의 위치에 대한 좌표정보 등을 이용하여 특성값을 연산한다. 실제 수술 도구의 위치는 슬레이브 로봇(2)의 로봇 암(3)의 위치값을 참조하여 인식할 수 있으며, 해당 위치에 대한 정보는 슬레이브 로봇(2)으로부터 마스터 로봇(1)으로 제공될 수도 있다.The characteristic value calculating unit 451 calculates the characteristic value of the slave robot 2 based on the image input by the laparoscope 8 of the slave robot 2 and / or the coordinate information on the position of the actual surgical tool coupled to the robot arm 3, . The position of the actual surgical tool can be recognized by referring to the position value of the robot arm 3 of the slave robot 2 and information on the position can be provided from the slave robot 2 to the master robot 1 .

특성값 연산부(451)는 예를 들어 복강경(8)에 의한 영상 등을 이용하여 복강경(8)의 화각(FOV, Field of View), 확대율, 관점(예를 들어, 보는 방향), 보는 깊이 등과, 실제 수술 도구의 종류, 방향, 깊이, 꺽인 정도 등의 특성값을 연산할 수 있다. 복강경(8)에 의한 영상을 이용하여 특성값을 연산하는 경우, 해당 영상에 포함된 피사체의 외곽선 추출, 형상 인식, 기울어진 각도 등을 인식하기 위한 영상 인식 기술이 이용될 수도 있다. 또한, 실제 수술 도구의 종류 등은 로봇 암(3)에 해당 수술 도구를 결합하는 과정 등에서 미리 입력될 수도 있다.The characteristic value calculation unit 451 calculates the characteristic value of the laparoscope 8 based on the image of the laparoscope 8 using the image of the laparoscope 8, for example, the field of view of the laparoscope 8, the magnification, the viewpoint , The type of the actual surgical tool, the direction, the depth, and the degree of deflection. In the case of calculating the characteristic value using the image by the laparoscope 8, an image recognition technique for recognizing the contour extraction, shape recognition, tilted angle, etc. of the subject included in the image may be used. In addition, the type of the actual surgical tool and the like may be input in advance in the process of coupling the surgical tool to the robot arm 3 or the like.

모델링 영상 구현부(453)는 특성값 연산부(451)에서 연산된 특성값에 상응하는 모델링 영상을 구현한다. 모델링 영상과 관련된 데이터는 영상 저장부(360)로부터 추출될 수 있다. 즉, 모델링 영상 구현부(453)는 복강경(8)의 특성값(화각(FOV, Field of View), 확대율, 관점, 보는 깊이 등과, 실제 수술 도구의 종류, 방향, 깊이, 꺽인 정도 등)에 상응하는 수술 도구 등에 대한 모델링 영상 데이터를 추출하여 내시경 영상의 수술 도구 등과 정합되도록 모델링 영상을 구현한다. The modeling image implementing unit 453 implements a modeling image corresponding to the characteristic value calculated by the characteristic value calculating unit 451. [ Data related to the modeling image can be extracted from the image storage unit 360. [ That is, the modeling image implementing unit 453 may be configured to classify the characteristic values of the laparoscope 8 (FOV, field of view, enlargement ratio, perspective, viewing depth, and the type, direction, depth, Modeling image data for the corresponding surgical tool is extracted and the modeling image is implemented so as to be matched with the surgical tool of the endoscopic image.

모델링 영상 구현부(453)가 특성값 연산부(451)에서 연산된 특성값에 상응하여 영상을 추출하는 방법은 다양하게 구현될 수 있다. 예를 들면, 모델링 영상 구현부(453)는 복강경(8)의 특성값을 직접 이용하여 이에 상응하는 모델링 영상을 추출할 수 있다. 즉, 모델링 영상 구현부(453)는 상술한 복강경(8)의 화각, 확대율 등의 데이터를 참조하여 이에 상응하는 2D 또는 3D 모델링 수술 도구 영상을 추출하고 이를 내시경 영상과 정합하도록 할 수 있다. 여기서, 화각, 확대율과 같은 특성값은 최초 설정값에 따른 기준 영상과의 비교를 통해서 산출되거나 순차적으로 생성되는 복강경(8)의 영상을 서로 비교 분석하여 연산될 수 있다. The modeling image implementation unit 453 may extract the image corresponding to the characteristic value calculated by the characteristic value calculation unit 451 in various ways. For example, the modeling image implementation unit 453 can directly extract the modeling image corresponding to the characteristic value of the laparoscope 8. That is, the modeling image implementing unit 453 can refer to the data of the angle of view and the enlargement ratio of the laparoscope 8, and extract the 2D or 3D modeling operation tool image corresponding to the data, and match the obtained image with the endoscopic image. Here, the characteristic values such as the angle of view and the enlargement ratio can be calculated by comparing and analyzing the images of the laparoscope 8, which are calculated through comparison with the reference image according to the initial setting value or sequentially generated.

또한, 다른 실시예에 따르면, 모델링 영상 구현부(453)는 복강경(8) 및 로봇 암(3)에 대한 위치 및 조작 형상을 결정하는 조작 정보를 이용하여 모델링 영상을 추출할 수 있다. 즉, 상술한 바와 같이 내시경 영상의 수술 도구는 수술자가 암 조작부(330)를 조작함에 따라 마스터 로봇(1)이 인식하는 조작 정보에 의해 제어될 수 있으므로, 내시경 영상의 특성값에 상응하는 모델링 수술 도구의 위치 및 조작 형상은 조작 정보에 의해 결정될 수 있다. According to another embodiment, the modeling image implementing unit 453 can extract the modeling image using the operation information for determining the position and the operation shape for the laparoscope 8 and the robot arm 3. That is, as described above, since the surgical tool of the endoscopic image can be controlled by operation information recognized by the master robot 1 as the operator manipulates the operation unit 330, the modeling operation corresponding to the characteristic value of the endoscopic image The position and manipulation shape of the tool can be determined by the manipulation information.

이러한 조작 정보는 시간적 순서에 따라 별도의 데이터베이스에 저장될 수 있으며, 모델링 영상 구현부(453)는 이러한 데이터베이스를 참조하여 실제 수술 도구의 특성값을 인식할 수 있으며, 이에 상응하여 모델링 영상에 대한 정보를 추출할 수 있다. 즉, 모델링 영상에 출력되는 수술 도구의 위치는 수술 도구의 위치 변경 신호의 누적 데이터를 이용하여 설정될 수 있다. 예를 들면, 수술 도구 중의 하나인 수술용 인스트루먼트에 대한 조작 정보가 시계방향으로 90도 회전 및 연장방향으로 1cm 이동이라는 정보를 포함하고 있으면, 모델링 영상 구현부(453)는 이러한 조작 정보에 상응하여 모델링 영상에 포함되는 수술용 인스트루먼트의 영상을 변환하여 추출할 수 있다. The manipulation information may be stored in a separate database according to a temporal order, and the modeling image implementing unit 453 can recognize a characteristic value of the actual surgical tool by referring to the database, and correspondingly, Can be extracted. That is, the position of the surgical tool output to the modeling image can be set using the cumulative data of the position change signal of the surgical tool. For example, if the manipulation information for the surgical instrument, which is one of the surgical tools, includes information such as 90 degrees rotation in the clockwise direction and 1 cm movement in the extension direction, the modeling image implementation unit 453 calculates The image of the surgical instrument included in the modeling image can be converted and extracted.

여기서, 수술용 인스트루먼트는 액추에이터가 구비된 수술용 로봇 암의 선단부에 장착되고, 액추에이터로부터 구동력을 전달받아 구동부(미도시)에 구비되는 구동휠(미도시)이 작동하며, 구동휠과 연결되고 수술 환자의 체내로 삽입되는 조작자가 소정의 작동을 함으로써, 수술을 하게 된다. 구동휠은 원판형으로 형성되며, 액추에이터에 클러칭되어 구동력을 전달받을 수 있다. 또한, 구동휠의 개수는 제어 대상의 개수에 상응하여 결정될 수 있으며, 이러한 구동휠에 대한 기술은 수술용 인스트루먼트와 관련된 기술자에게 자명한 사항이므로 자세한 설명은 생략한다. Here, the surgical instrument is mounted on a distal end portion of a surgical robot arm provided with an actuator, and a driving wheel (not shown) provided to a driving unit (not shown) is actuated by receiving a driving force from an actuator, The operator who is inserted into the patient's body performs a predetermined operation to perform the operation. The driving wheel is formed in a disc shape and can be transmitted to the actuator in a clutched manner. Further, the number of driving wheels may be determined in accordance with the number of control objects, and the description of such driving wheels is obvious to those skilled in the art relating to surgical instruments.

중첩 영상 처리부(455)는 실제 촬영된 내시경 영상과 모델링 영상이 중첩되지 않기 위해 모델링 영상의 일부 영상을 출력한다. 즉, 내시경 영상이 수술 도구의 일부 형상을 포함하고 모델링 영상 구현부(453)가 이에 상응하는 모델링 수술 도구를 출력하는 경우 중첩 영상 처리부(455)는 내시경 영상의 실제 수술 도구 영상과 모델링 수술 도구 영상의 중첩 영역을 확인하고, 모델링 수술 도구 영상에서 중첩 부분을 삭제함으로써 두 영상이 서로 매칭될 수 있도록 한다. 중첩 영상 처리부(455)는 모델링 수술 도구 영상과 실제 수술 도구 영상의 중첩 영역을 모델링 수술 도구 영상으로부터 제거함으로써 중첩 영역을 처리할 수 있다. The superimposed image processor 455 outputs a partial image of the modeling image in order to prevent the endoscopic image and the modeling image from overlapping with each other. That is, when the endoscopic image includes a part of the shape of the surgical tool and the modeling image implementing unit 453 outputs the corresponding modeling and operation tool, the superimposed image processing unit 455 displays the actual operation tool image of the endoscopic image, And deleting the overlapped portion from the modeling operation tool image so that the two images can be matched with each other. The overlapping image processing unit 455 can process the overlapping region by removing the overlapping region between the modeling and surgical tool image and the actual surgical tool image from the modeling and operation tool image.

예를 들면, 실제 수술 도구의 전체 길이가 20cm이고, 특성값(화각(FOV, Field of View), 확대율, 관점, 보는 깊이 등과, 실제 수술 도구의 종류, 방향, 깊이, 꺽인 정도 등)을 고려할 때 내시경 영상의 실제 수술 도구 영상의 길이가 3cm인 경우 중첩 영상 처리부(455)는 특성값을 이용하여 내시경 영상에 출력되지 않은 모델링 수술 도구 영상을 모델링 영상에 포함하여 출력하도록 한다. For example, if the overall length of the surgical tool is 20 cm and the characteristics (FOV, Field of View, magnification, viewpoint, depth of view, and type, direction, depth, When the length of the actual surgical instrument image of the endoscopic image is 3 cm, the superimposed image processing unit 455 outputs the modeling operation tool image that has not been output to the endoscopic image, using the characteristic value, in the modeling image.

도 13은 본 발명의 제3 실시예에 따른 체감형 수술용 영상 처리 방법의 흐름도이다. 상술한 바와의 차이점을 위주로 설명한다. FIG. 13 is a flowchart of a method of image processing for a sensible type surgical operation according to a third embodiment of the present invention. The differences from the above will be mainly described.

단계 S131에서, 수술 대상 및/또는 수술 도구에 관해 미리 모델링 영상을 생성하여 저장한다. 모델링 영상은 컴퓨터 시뮬레이션에 의해 모델링될 수 있으며, 본 실시예는 별도의 모델링 영상 생성 장치를 이용하여 모델링 영상을 생성할 수도 있다. In step S131, a modeling image is generated and stored in advance regarding the object to be operated and / or the surgical tool. The modeling image may be modeled by computer simulation, and the present embodiment may generate a modeling image using a separate modeling image generating apparatus.

단계 S132에서, 특성값 연산부(351)는 내시경 영상의 특성값을 연산한다. 상술한 바와 같이 특성값 연산부(351)는 슬레이브 로봇(2)의 복강경(8)에 의해 입력되어 제공되는 영상 및/또는 로봇 암(3)에 결합된 실제 수술 도구의 위치에 대한 좌표정보 등을 이용하여 특성값을 연산하며, 특성값은 복강경(8)의 화각(FOV, Field of View), 확대율, 관점(예를 들어, 보는 방향), 보는 깊이 등과, 실제 수술 도구의 종류, 방향, 깊이, 꺽인 정도 등이 될 수 있다. In step S132, the characteristic value computing section 351 computes a characteristic value of the endoscopic image. As described above, the characteristic value calculator 351 calculates the characteristic value of the slave robot 2 based on the image input by the laparoscope 8 and / or coordinate information on the position of the actual surgical tool coupled to the robot arm 3 And the characteristic value is calculated based on the field of view (FOV) of the laparoscope 8, the magnification, the viewpoint (for example, the viewing direction), the viewing depth, , Degree of bending, and the like.

단계 S133에서, 영상 정합부(450)는 내시경 영상에 상응하여 모델링 영상을 추출하고, 중첩 영역을 처리하여 두 영상을 서로 정합하여 화면 표시부(320)에 출력되도록 한다. 여기서, 내시경 영상과 모델링 영상이 서로 동일한 시점에 최초 출력되거나 또는 내시경 영상이 출력된 후 모델링 영상이 함께 출력되는 등 그 출력 시점은 다양하게 설정될 수 있음은 물론이다.In step S133, the image matching unit 450 extracts a modeling image corresponding to the endoscopic image, processes the overlapping area, and aligns the two images to output the same to the screen display unit 320. [ It is needless to say that the output timing of the endoscopic image and the modeling image may be variously set such that the endoscopic image and the modeling image are outputted first at the same time, or after the endoscopic image is output, and then the modeling image is output together.

도 15는 본 발명의 제4 실시예에 따른 수술용 로봇의 마스터 인터페이스를 나타낸 개념도이다. 도 15를 참조하면, 마스터 인터페이스(4)는 모니터부(6), 핸들(10), 모니터 구동 수단(12), 이동홈(13)을 포함할 수 있다. 상술한 바와의 차이점을 위주로 설명한다. 15 is a conceptual diagram illustrating a master interface of a surgical robot according to a fourth embodiment of the present invention. 15, the master interface 4 may include a monitor unit 6, a handle 10, a monitor driving means 12, and a moving groove 13. The differences from the above will be mainly described.

본 실시예는 상술한 바와 같이 다양하게 변화하는 내시경(8)의 관점에 상응하여 마스터 인터페이스(4)의 모니터부(6)를 회전 및 이동시킴으로써, 사용자가 수술에 대한 현실감을 보다 생생하게 느끼게 할 수 있는 특징이 있다. The present embodiment rotates and moves the monitor unit 6 of the master interface 4 in accordance with the viewpoint of the endoscope 8 varying as described above so that the user can feel the reality of the operation more vividly There are features.

모니터 구동 수단(12)은 일단이 모니터부(6)에 결합하고, 타단이 마스터 인터페이스(4)의 본체부에 결합하여, 모니터부(6)에 구동력을 가함으로써 모니터부(6)를 회전 및 이동시킨다. 여기서, 회전은 다양한 축(X,Y,Z) 중심의 회전, 즉, 피치(pitch), 롤(roll), 요(yaw) 축에 의한 회전을 포함할 수 있다. 도 15를 참조하면, 요 축에 의한 회전(A)이 도시된다. The monitor driving means 12 is configured such that one end is coupled to the monitor portion 6 and the other end is coupled to the main body portion of the master interface 4 to apply a driving force to the monitor portion 6, . Here, the rotation may include rotation about various axes (X, Y, Z), i.e., rotation by pitch, roll, yaw axis. Referring to Fig. 15, rotation (A) by the yaw axis is shown.

또한, 모니터 구동 수단(12)은 모니터부(6)의 하단에 위치한 마스터 인터페이스(4)의 본체부에 형성된 이동홈(13)을 따라 이동(B방향)함으로써 모니터부(6)를 내시경(8)의 관점에 따라 이동시킬 수 있다. 이동홈(13)은 사용자를 향한 방향이 오목하게 형성되어 모니터부(6)가 이동홈(13)을 따라 이동시 모니터부(6)의 전면이 항상 사용자를 향하도록 할 수 있다. The monitor driving unit 12 moves the monitor unit 6 along the moving groove 13 formed in the main body of the master interface 4 located at the lower end of the monitor unit 6 to move the monitor unit 6 toward the endoscope 8 ). ≪ / RTI > The moving groove 13 may be formed in a concave direction toward the user so that the front face of the monitor unit 6 always faces the user when the monitor unit 6 moves along the moving groove 13. [

도 16은 본 발명의 제4 실시예에 따른 수술용 로봇의 블록 구성도이다. 도 16을 참조하면, 영상 입력부(310), 화면 표시부(320), 암 조작부(330), 조작신호 생성부(340), 제어부(370), 화면 구동 제어부(380), 화면 구동부(390)를 포함하는 마스터 로봇(1) 및 로봇 암(3), 내시경(8)을 포함하는 슬레이브 로봇(2)이 도시된다. 상술한 바와의 차이점을 위주로 설명한다. 16 is a block diagram of a surgical robot according to a fourth embodiment of the present invention. 16, an image input unit 310, a screen display unit 320, a dark operation unit 330, an operation signal generation unit 340, a control unit 370, a screen drive control unit 380, and a screen drive unit 390 A master robot 1 and a slave robot 2 including a robot arm 3 and an endoscope 8 are shown. The differences from the above will be mainly described.

화면 구동부(390)는 상술한 모니터부(6)와 같은 화면 표시부(320)를 회전 및 이동시키는 수단으로서, 예를 들면, 모터, 모니터부(6) 지지 수단 등을 포함할 수 있다. 화면 구동 제어부(380)는 내시경(8)의 관점에 상응하여 화면 구동부(390)가 화면 표시부(320)를 회전 및 이동시키도록 화면 구동부(390)를 제어할 수 있다. 화면 구동부(390)는 상술한 모니터 구동 수단(12)을 포함할 수 있으며, 이동홈(13)에 따라 모니터부(6)를 이동시킬 수 있다. The screen driving unit 390 may include a motor, a monitor unit 6 holding means, and the like as means for rotating and moving the screen display unit 320, such as the monitor unit 6 described above. The screen drive control unit 380 may control the screen drive unit 390 to rotate and move the screen display unit 320 in accordance with the viewpoint of the endoscope 8. [ The screen driving unit 390 may include the monitor driving unit 12 described above and may move the monitor unit 6 according to the moving groove 13. [

도 17을 참조하면, 화면 구동 제어부(380)는, 내시경(8)의 이동 및 회전에 상응하여 내시경(8)의 관점 정보를 추적하는 내시경 관점 추적부(381)와, 내시경(8)의 관점 정보를 이용하여 내시경 영상의 이동 정보를 추출하는 영상 이동 정보 추출부(383)와, 이동 정보를 이용하여 화면 표시부(320)의 모션 정보(화면 구동 정보)를 생성하는 구동 정보 생성부(385)를 포함할 수 있다. 화면 구동부(390)는 구동 정보 생성부(385)에서 생성된 화면 표시부(320)의 모션 정보를 이용하여 화면 표시부(320)를 상술한 바와 같이 구동할 수 있다. 17, the screen drive control unit 380 includes an endoscope viewpoint tracking unit 381 that tracks the viewpoint information of the endoscope 8 in accordance with the movement and rotation of the endoscope 8, A motion information generation unit 385 that generates motion information (screen drive information) of the screen display unit 320 using the movement information, a motion information generation unit 385 that generates movement information of the endoscope image using motion information, . ≪ / RTI > The screen driving unit 390 can drive the screen display unit 320 as described above using the motion information of the screen display unit 320 generated by the driving information generating unit 385. [

또한, 다른 실시예에 따르면, 화면 구동부(390)는 사용자의 명령에 의해 구동될 수도 있다. 예를 들면, 화면 구동 제어부(380)는 사용자 인터페이스, 예를 들면, 사용자가 조작가능한 스위치(ex. 발판 스위치)로 대체 가능하며, 이 경우 사용자의 조작에 의해 화면 구동부(390)의 회전 및 이동이 제어될 수도 있다. Further, according to another embodiment, the screen driving unit 390 may be driven by a user's command. For example, the screen driving control unit 380 can be replaced with a user interface, for example, a switch (e.g., a foot switch) that can be operated by a user. In this case, May be controlled.

이러한 화면 구동부(390)의 모션은 터치 스크린에 의해서도 제어가능하다. 예를 들면, 화면 표시부(320)는 터치 스크린으로 구현되며, 사용자가 손가락 등을 이용하여 화면 표시부(320)를 터치한 상태에서 소정 방향으로 드래그하면, 화면 표시부(320)가 이에 상응하여 회전 및 이동할 수도 있다. 또한, 사용자의 눈동자를 추적하거나 안면접촉부의 이동 방향에 따라 생성한 회전/이동 신호 또는 음성명령에 따라 생성한 회전/이동 신호 등을 이용하여 화면 표시부(320)의 모션을 제어할 수도 있다.The motion of the screen driver 390 can also be controlled by a touch screen. For example, the screen display unit 320 is implemented as a touch screen. When the user touches the screen display unit 320 using a finger or the like and drags the screen display unit 320 in a predetermined direction, the screen display unit 320 rotates and It can also be moved. In addition, the motion of the screen display unit 320 may be controlled by using a rotation / movement signal generated according to the direction of movement of the face contact unit, a rotation / movement signal generated according to a voice command, or the like.

도 18은 본 발명의 제4 실시예에 따른 체감형 수술용 영상 처리 방법의 흐름도이다. 이하에서 수행할 각 단계는 화면 구동 제어부(380)가 주체가 되어 실행할 수 있다.18 is a flowchart of a method for image processing for a sensible-type surgical operation according to the fourth embodiment of the present invention. Each of the steps to be performed below may be executed by the screen drive control unit 380 as a subject.

단계 S181에서는, 내시경(8)의 이동 및 회전에 상응하여 내시경(8)이 바라보는 관점에 대한 정보인 내시경(8)의 관점 정보를 추적한다. In step S181, the perspective information of the endoscope 8, which is information on the viewpoint of the endoscope 8 in accordance with the movement and rotation of the endoscope 8, is tracked.

단계 S182에서, 내시경(8)의 관점 정보를 이용하여 내시경 영상의 촬영 대상의 위치 변화량에 대응되는 내시경 영상의 이동 정보를 추출한다. In step S182, the movement information of the endoscopic image corresponding to the positional change amount of the object of the endoscopic image is extracted using the viewpoint information of the endoscope 8. [

단계 S183에서, 내시경(8)의 관점 정보 및/또는 추출된 이동 정보를 이용하여 상술한 화면 구동 정보를 생성한다. 즉, 내시경(8)의 관점 정보 및 내시경 영상의 이동 정보가 상술한 바와 같이 특정되면, 이러한 이동 정보를 이용하여 화면 표시부(320)를 이동 및 회전시키는 정보를 생성한다.In step S183, the above-described screen driving information is generated using the perspective information of the endoscope 8 and / or the extracted movement information. That is, when the view information of the endoscope 8 and the movement information of the endoscopic image are specified as described above, information for moving and rotating the screen display unit 320 is generated using the movement information.

단계 S184에서, 화면 구동 정보에 상응하여 화면 표시부(320)를 이동 및 회전시킨다. In step S184, the screen display unit 320 is moved and rotated in accordance with the screen drive information.

도 19는 본 발명의 제5 실시예에 따른 수술용 로봇의 마스터 인터페이스를 나타낸 개념도이다. 도 19를 참조하면, 돔 스크린(191), 프로젝터(192), 작업대(193), 제1 내시경 영상(621), 제2 내시경 영상(622)이 도시된다. 19 is a conceptual diagram illustrating a master interface of a surgical robot according to a fifth embodiment of the present invention. 19, a dome screen 191, a projector 192, a workbench 193, a first endoscopic image 621, and a second endoscopic image 622 are shown.

본 실시예는 상술한 바와 같이 화면 표시부(320)의 특정 영역에 내시경 영상을 출력하는 기능을 돔 스크린(191) 및 프로젝터(192)를 이용하여 구현함으로써, 사용자가 넓은 스크린에서 수술 상황을 보다 빠르고 편리하게 확인할 수 있는 특징이 있다. As described above, the present embodiment implements the function of outputting an endoscopic image to a specific area of the screen display section 320 using the dome screen 191 and the projector 192, There is a feature that can be confirmed easily.

프로젝터(520)는 내시경 영상을 돔 스크린(510)에 투사한다. 여기서, 내시경 영상은 투사되는 영상의 전단부의 형상이 구형인 구형의 영상이 될 수 있다. 여기서, 구형은 수학적으로 엄밀하게 구의 형태를 가지는 형상만을 의미하지 않으며, 타원형, 단면이 곡선인 형태, 일부 구형 등 다양한 형태를 포함할 수 있다. The projector 520 projects the endoscopic image on the dome screen 510. Here, the endoscopic image may be a spherical image having a spherical shape at the front end of the projected image. Here, the spherical shape does not mean only a shape having a strictly spherical shape mathematically, and may include various shapes such as an elliptical shape, a curved shape, and a partially spherical shape.

돔 스크린(510)은 개방된 전면 단부와 프로젝터(520)에서 투사된 영상을 반사하는 반구 형상의 내부 돔면을 가진다. 돔 스크린(510)의 크기는 사용자가 보기 편한 정도의 크기, 예를 들면, 그 지름이 1m ~ 2m 정도가 될 수 있다. 돔 스크린(510)의 내부 돔면은 블록별로 면처리되거나 반구 형상을 가질 수 있다. 또한, 돔 스크린(510)은 그 중심축을 중심으로 축상 대칭으로 형성되고, 사용자의 시선은 돔 스크린(510)의 중심축에 위치할 수 있다. The dome screen 510 has an open front end and a hemispherical inner dome surface that reflects the image projected from the projector 520. The size of the dome screen 510 may be as large as the user can see, for example, the diameter of the dome screen 510 may be about 1 m to 2 m. The internal dome surface of the dome screen 510 may be surface-treated or semi-spherical. Also, the dome screen 510 may be formed axially symmetrically about its central axis, and the user's line of sight may be located on the central axis of the dome screen 510.

프로젝터(520)는 수술을 수행하는 사용자와 돔 스크린(510) 사이에 위치하여 사용자에 의해 투사되는 영상이 가리지 않도록 할 수 있다. 또한, 사용자의 작업시 투사된 영상을 가리지 않고, 작업대의 공간 확보를 위해서 프로젝터(520)는 작업대(530)의 밑면에 부착될 수 있다. 내부 돔면은 반사율이 높은 물질로 형성되거나 이러한 물질로 도포될 수 있다. The projector 520 is positioned between the dome screen 510 and the user performing surgery, so that the image projected by the user can be blocked. In addition, the projector 520 may be attached to the underside of the work table 530 in order to secure the space of the work table without blocking the projected image at the time of the user's work. The inner dome may be formed of a highly reflective material or may be coated with such a material.

이러한 돔 스크린(191) 및 프로젝터(192)를 이용하는 경우 상술한 바와 같이 내시경(8)의 다양한 관점에 상응하여 돔 스크린(191)의 특정 영역에 제1 내시경 영상(621) 및 제2 내시경 영상(622)을 투사할 수 있다. In the case where the dome screen 191 and the projector 192 are used, the first endoscope image 621 and the second endoscope image 621 are displayed in a specific area of the dome screen 191 in accordance with various aspects of the endoscope 8, 622).

도 20은 본 발명의 제6 실시예에 따른 체감형 수술용 영상 처리 장치의 블록 구성도이다. 도 20을 참조하면, 화면 표시 제어부(350)는 내시경 관점 추적부(351), 영상 이동 정보 추출부(353), 영상 위치 설정부(355), 저장 영상 표시부(357), 연속 영상 생성부(352) 및 주변 영상 생성부(354)를 포함할 수 있다. 상술한 바와의 차이점을 위주로 설명한다. 20 is a block diagram of an image processing apparatus for a sensible-type surgery according to a sixth embodiment of the present invention. 20, the screen display control unit 350 includes an endoscope viewpoint tracking unit 351, an image movement information extracting unit 353, an image position setting unit 355, a stored image display unit 357, a continuous image generating unit 352 and a peripheral image generating unit 354. The differences from the above will be mainly described.

본 실시예는 수술용 내시경의 일단을 회전시킴으로써 복수의 영상을 획득하여 사용자의 시야를 넓게 확보할 수 있는 특징이 있다. 즉, 본 실시예는 수술용 내시경의 일단을 소정의 궤적을 형성하도록 회전시킴으로써 수술 부위뿐만 아니라 주변 영상까지 획득하여 사용자가 보다 넓은 부위를 볼 수 있도록 하는 특징이 있다.The present embodiment is characterized in that a plurality of images are acquired by rotating one end of the surgical endoscope so that a wide field of view of the user can be ensured. That is, in this embodiment, one end of the endoscope for surgery is rotated to form a predetermined locus, thereby acquiring not only a surgical site but also a peripheral image, thereby allowing a user to view a wider area.

연속 영상 생성부(352)는 수술용 내시경으로부터 획득된 제1 내시경 영상과 제2 내시경 영상의 중첩 영역을 추출하여 연속 영상을 생성한다. 제1 내시경 영상과 제2 내시경 영상은 회전하는 수술용 내시경으로부터 서로 다른 시점에 제공되는 영상이 될 수 있다. 도 22a를 참조하면, 수술용 내시경(221)은 회전축(A)을 중심으로 기울어져 회전함으로써 복수의 내시경 영상을 획득할 수 있다. The continuous image generation unit 352 extracts the overlap region between the first endoscopic image and the second endoscopic image acquired from the surgical endoscope to generate a continuous image. The first endoscopic image and the second endoscopic image may be images provided at different points in time from the rotating endoscope for surgery. Referring to FIG. 22A, the surgical endoscope 221 can be rotated by tilting about the rotational axis A to obtain a plurality of endoscopic images.

수술용 내시경(221)은 일단이 다양한 궤적을 형성하며 회전할 수 있으며, 예를 들면, 소정의 길이로 연장된 수술용 내시경(221)은 일단인 광 입사부(렌즈 부분)가 회전 궤적을 형성하고, 타단은 회전축 상에 위치함으로써 전체적으로 원뿔 형상 또는 각뿔 형상을 따라 회전하여, 일단의 회전 궤적은 원, 타원, 삼각형, 사각형, 기타 다각형, 폐곡선, 폐도형(closed figure) 등과 같이 다양한 형상이 될 수 있다. 여기서, 폐도형은 폐곡선을 포함하는 개념으로 이해될 수도 있다.For example, the surgical endoscope 221, which is extended to a predetermined length, has a light incident portion (lens portion), which is a single end, forms a rotational locus And the other end rotates along the conical shape or the pyramid shape as a whole by being positioned on the rotary shaft so that the one rotary trajectory can be various shapes such as circle, ellipse, triangle, quadrangle, other polygon, closed curve, closed figure . Here, the closed figure may be understood as a concept including a closed curve.

또한, 수술용 내시경(221)이 회전하는 속도 및 시간은 필요에 따라 결정될 수 있다. 예를 들면, 수술용 내시경(221)의 일단은 주기적으로 회전하거나 또는 사용자가 조작하는 임의적 방식에 상응하여 회전할 수 있다. 여기서, 주기적이라는 의미는, 수술용 내시경(221)이 같은 속력으로 원운동을 하는 경우를 포함할 수 있다. 또한, 주기적이라는 의미는, 회전을 하는 상태와 회전을 하지 않는 상태가 주기적으로 반복되는 경우도 포함할 수 있다. In addition, the speed and time at which the surgical endoscope 221 rotates can be determined as needed. For example, one end of the surgical endoscope 221 may be rotated periodically or in accordance with an arbitrary method operated by a user. Here, the term " periodic " may include a case where the surgical endoscope 221 performs circular motion at the same speed. Also, the term " periodic " may include a case in which the rotating state and the non-rotating state are periodically repeated.

또한, 도 22b에 도시된 실시예에 따르면, 수술용 내시경(221)은 굴곡된 형상으로 구현되어, 회전축(A)을 중심으로 회전하는 경우 수술용 내시경(221)의 일단이 소정의 궤적을 형성하며 회전할 수 있다. 이 경우, 수술용 내시경(221)은 회전축(A)과 겹쳐진 상태로 연장되는 제1 샤프트(222), 일단에 광 입사부가 결합하며 제1 샤프트(222)와 이격된 상태에서 회전축(A) 방향으로 연장된 제2 샤프트(223), 회전축(A) 방향과 평행하지 않게 연장되며 제1 샤프트(222)의 일단과 제2 샤프트(223)의 타단을 연결하는 샤프트 연결부(224)를 포함할 수 있다. According to the embodiment shown in FIG. 22B, the surgical endoscope 221 is embodied in a curved shape so that when one end of the surgical endoscope 221 rotates about the rotation axis A, a predetermined locus is formed And rotate. In this case, the endoscope for surgery 221 includes a first shaft 222 extending in a state of overlapping with the rotation axis A, a first light- And a shaft connecting portion 224 extending in parallel with the direction of the rotational axis A and connecting one end of the first shaft 222 to the other end of the second shaft 223 have.

또한, 광 입사부의 회전 궤적은 원, 타원, 삼각형, 사각형, 기타 다각형, 폐곡선, 폐도형(closed figure) 등과 같이 다양한 형상이 될 수 있다. In addition, the rotation locus of the light incidence portion may be various shapes such as circle, ellipse, triangle, quadrangle, other polygon, closed curve, closed figure, and the like.

여기서, 수술용 내시경(221)의 회전 방향, 회전 정도, 회전 궤적의 형상, 회전 궤적의 크기, 회전 속도 등과 같은 회전 관련 속성은 미리 프로그램되어 저장부(미도시)에 저장될 수 있다. Here, the rotation-related attributes such as the rotation direction, the degree of rotation, the shape of the rotation locus, the size of the rotation locus, the rotation speed, and the like of the operation endoscope 221 may be previously programmed and stored in a storage unit (not shown).

화면 표시 제어부(350)는 미리 저장된 회전 관련 속성을 참조하여, 복수의 영상의 중첩 영역을 추출하고, 이러한 영역을 연속 영상으로 생성할 수 있다. 예를 들면, 수술용 내시경(221)의 화각이 70도, 회전 궤적은 원형, 회전 궤적의 반경은 2cm인 경우 촬영되는 영상의 중첩 부분이 추출되며, 추출된 중첩 영상은 계속 보이는 연속 영상이 될 수 있다. The screen display control unit 350 can extract an overlapping area of a plurality of images by referring to the previously stored rotation related property and generate such a region as a continuous image. For example, when the angle of view of the endoscope for surgery 221 is 70 degrees, the circular locus is circular, and the radius of the locus of rotation is 2 centimeters, overlapping portions of images to be photographed are extracted, .

주변 영상 생성부(354)는 제1 내시경 영상과 제2 내시경 영상의 비중첩 영역을 추출하여 주변 영상을 생성한다. 비중첩 영역은 상술한 제1 내시경 영상과 제2 내시경 영상이 서로 중첩되지 않은 영역이 될 수 있다. 또한, 이러한 영역은 미리 설정된 영역이 될 수 있다. 예를 들면, 도 23a에서 미리 설정된 연속 영상(232) 이외의 영역의 영상은 비중첩 영역인 주변 영상(231)으로 설정될 수 있다. The peripheral image generating unit 354 extracts non-overlapping regions of the first endoscopic image and the second endoscopic image to generate a surrounding image. The non-overlapping region may be an area in which the first endoscopic image and the second endoscopic image do not overlap with each other. Also, this area can be a preset area. For example, an image of an area other than the continuous image 232 set in advance in FIG. 23A can be set as the surrounding image 231, which is a non-overlapping area.

도 23a를 참조하면, 중첩되어 연속으로 촬영됨으로써, 계속 보이는 연속 영상(232)과 중첩되지 않아서 주변 영상으로 처리되는 영상(231)이 도시된다. 각 원은 서로 다른 내시경 영상을 나타내며, 서로 구분하기 위해 제1 내시경 영상 또는 제2 내시경 영상으로 지칭될 수 있다. 연속 영상(232)은 화면상에 연속적으로 계속 보이는 영상이며, 주변 영상(231)은 비연속적으로 촬영될 때에만 보이는 영상이다. 이들을 구분하여 표시하기 위해 연속 영상(232)은 밝고 선명하게 표현하고, 주변 영상(231)은 이와 달리 표현할 수 있다. 즉, 연속 영상(232)과 주변 영상(231)은 명도, 채도 및 색상 등이 서로 다르게 표현될 수 있다. Referring to FIG. 23A, an image 231 is shown which is superimposed and continuously shot so that it is not overlapped with a continuous image 232 that is continuously viewed and processed as a surrounding image. Each circle represents different endoscopic images and may be referred to as a first endoscopic image or a second endoscopic image to distinguish them from each other. The continuous image 232 is an image continuously and continuously displayed on the screen, and the peripheral image 231 is an image that is displayed only when the image is continuously captured. In order to display them separately, the continuous image 232 can be expressed brightly and clearly, and the peripheral image 231 can be expressed differently. That is, the continuous image 232 and the surrounding image 231 may be expressed differently in brightness, saturation, and color.

도 23b를 참조하면, 연속 영상(232)은 미리 설정된 영역의 영상이 될 수 있다. 즉, 도 23a와 같이 모든 주변 영상(231)이 중첩되는 영역에 대한 영상만을 연속 영상(232)으로 설정하는 경우 주로 보이는 연속 영상(232)의 크기가 작아질 수 있으므로, 복수의 주변 영상(231), 예를 들면, 2~3개 정도의 주변 영상(231)이 겹치는 영역의 영상을 연속 영상(232)으로 설정할 수도 있다. 이 경우 연속 영상(232)은 주변 영상(231)에 비해 상대적으로 연속적인 영상에 대한 정보를 포함하게 되며, 촬영하는 영역의 크기는 모든 주변 영상(231)이 중첩되는 영역의 크기보다 커질 수 있는 장점이 있다.
Referring to FIG. 23B, the continuous image 232 may be an image of a predetermined area. 23A, when the continuous image 232 is set to only the image of the area in which all the surrounding images 231 are overlapped, the size of the continuous image 232 that is mainly visible can be reduced. Therefore, ), For example, an image of an area in which about two to three peripheral images 231 overlap, may be set as the continuous image 232. In this case, the continuous image 232 includes information about a continuous image relative to the surrounding image 231, and the size of the area to be photographed may be larger than the size of the area in which all the surrounding images 231 overlap There are advantages.

도 21은 본 발명의 제6 실시예에 따른 체감형 수술용 영상 처리 방법의 흐름도이다. 이하에서 수행할 각 단계는 화면 표시 제어부(350)가 주로 주체가 되어 실행할 수 있다.FIG. 21 is a flowchart of a method of image processing for a sensible-type surgery according to a sixth embodiment of the present invention. Each step to be performed below can be executed mainly by the screen display control unit 350 as a main body.

단계 S211에서는, 영상 입력부(310)는 회전하는 수술용 내시경(221)으로부터 서로 다른 시점에 제공되는 제1 내시경 영상 및 제2 내시경 영상을 입력받는다. 여기서, 화면 표시 제어부(350)는 상술한 바와 같이 수술용 내시경(221) 일단의 이동 및 회전에 상응하여 수술용 내시경(221)이 바라보는 관점에 대한 정보인 수술용 내시경(221)의 관점 정보를 추적한다. In step S211, the image input unit 310 receives the first endoscopic image and the second endoscopic image, which are provided at different points in time from the rotating surgical endoscope 221. Here, the screen display control unit 350 displays the viewpoint information of the operation endoscope 221, which is information on the viewpoint of the operation endoscope 221, in accordance with the movement and rotation of the endoscope 221, ≪ / RTI >

단계 S212에서, 수술용 내시경(221)의 관점 정보를 이용하여 내시경 영상의 촬영 대상의 위치 변화량에 대응되는 내시경 영상의 이동 정보를 추출한다.
In step S212, the movement information of the endoscopic image corresponding to the position change amount of the object to be imaged of the endoscopic image is extracted using the perspective information of the operation endoscope 221. [

단계 S213에서, 수술용 내시경(221)의 관점 정보 및/또는 추출된 이동 정보를 이용하여 제1 내시경 영상 및 제2 내시경 영상이 출력될 화면 위치를 설정한다. 즉, 수술용 내시경(221)의 관점 정보 및 내시경 영상의 이동 정보가 상술한 바와 같이 특정되면, 이러한 이동 정보를 이용하여 화면 표시부(320)에 제1 내시경 영상 및 제2 내시경 영상이 출력될 화면 위치를 설정한다. In step S213, the screen position at which the first endoscopic image and the second endoscopic image are to be output is set using the perspective information of the surgical endoscope 221 and / or the extracted movement information. That is, when the viewpoint information of the operation endoscope 221 and the movement information of the endoscopic image are specified as described above, the screen display unit 320 displays the first endoscopic image and the second endoscopic image on the screen Set the position.

단계 S214에서, 제1 내시경 영상 및 제2 내시경 영상을 화면 표시부(320)의 설정된 위치인 서로 다른 영역에 출력한다.
In step S214, the first endoscopic image and the second endoscopic image are output to different areas, which are set positions on the screen display unit 320. [

도 24는 본 발명의 제7 실시예에 따른 보조 내시경의 회전 동작을 도시한 도면이다. 도 24를 참조하면, 수술용 내시경(241), 보조 내시경(242), 결합부(243)가 도시된다. 24 is a view showing a rotating operation of the auxiliary endoscope according to the seventh embodiment of the present invention. 24, a surgical endoscope 241, an auxiliary endoscope 242, and a coupling portion 243 are shown.

본 실시예는 수술용 내시경(241) 주위를 회전하는 보조 내시경(242)을 더 마련하여 복수의 내시경 영상을 획득함으로써, 상술한 바와 같은 연속 영상 및 주변 영상을 생성할 수 있다. 즉, 보조 내시경(242)은 수술용 내시경(241) 주위를 회전하면서 내시경 영상을 획득함으로써, 중첩 영상 및 비중첩 영상으로부터 연속 영상 및 주변 영상을 획득할 수 있다. The present embodiment can further provide the auxiliary endoscope 242 that rotates around the surgical endoscope 241 to acquire a plurality of endoscope images to thereby generate the continuous image and the surrounding image as described above. That is, the auxiliary endoscope 242 acquires an endoscopic image while rotating around the surgical endoscope 241, thereby obtaining a continuous image and a surrounding image from the superimposed image and the non-superimposed image.

보조 내시경(242)은 수술용 내시경(241)의 일측, 예를 들면, 측면에 회동가능하도록 결합한다. 보조 내시경(242)에도 렌즈를 통해 수광하여 영상을 획득하는 일반적인 내시경 구조가 적용될 수 있다. 여기서, 수술용 내시경(241)이 획득하는 영상을 제1 내시경 영상, 보조 내시경(242)이 획득하는 영상을 제2 내시경 영상으로 지칭할 수 있다. The auxiliary endoscope 242 is rotatably coupled to one side of the surgical endoscope 241, for example, a side surface. A general endoscope structure in which an image is acquired by receiving light through the lens can also be applied to the auxiliary endoscope 242 as well. Here, the image acquired by the surgical endoscope 241 may be referred to as a first endoscopic image, and the image acquired by the auxiliary endoscope 242 may be referred to as a second endoscopic image.

또한, 보조 내시경(242)은 중심축(A)을 중심으로 수술용 내시경(241)과 착탈가능한 형태로 결합되거나 수술용 내시경(241)과 일체로 결합될 수 있다. 전자의 경우 보조 내시경(242)은 환자의 몸밖에서 수술용 내시경(241)에 결합하거나 또는 수술용 내시경(241)과 별도로 환자의 몸안에 삽입된 후 그 안에서 수술용 내시경(241)에 결합하여 상술한 제1 내시경 영상 및 제2 내시경 영상을 획득할 수 있는 장점이 있다.The auxiliary endoscope 242 may be detachably coupled to the surgical endoscope 241 around the central axis A or may be integrally coupled to the surgical endoscope 241. [ In the former case, the auxiliary endoscope 242 is coupled to the surgical endoscope 241 outside the patient's body, or inserted into the patient's body separately from the surgical endoscope 241, and then coupled to the surgical endoscope 241, There is an advantage that a first endoscopic image and a second endoscopic image can be obtained.

또한, 다른 실시예에 따르면, 수술용 내시경(241)의 제1 내시경 영상은 연속 영상으로 설정되고, 보조 내시경(242)의 제2 내시경 영상은 주변 영상으로 설정될 수 있다. 즉, 본 실시예는 중첩 영역을 추출하지 않고 연속 영상과 주변 영상을 생성하여 영성 처리 시간을 줄일 수 있는 장점이 있다.
According to another embodiment, the first endoscopic image of the surgical endoscope 241 may be set as a continuous image, and the second endoscopic image of the auxiliary endoscope 242 may be set as a peripheral image. That is, this embodiment has an advantage that the spirituality processing time can be reduced by generating the continuous image and the surrounding image without extracting the overlapping area.

도 25는 본 발명의 제8 실시예에 따른 수술용 로봇의 마스터 인터페이스를 나타낸 개념도이다. 도 25를 참조하면, 상술한 마스터 인터페이스(4)는 모니터부(6), 핸들(10), 공간상 이동 구동부(25)를 포함할 수 있다. 상술한 바와의 차이점을 위주로 설명한다. 25 is a conceptual diagram illustrating a master interface of a surgical robot according to an eighth embodiment of the present invention. 25, the master interface 4 described above may include a monitor unit 6, a handle 10, and a spatial motion driver 25. The differences from the above will be mainly described.

본 실시예는 모니터부(6)를 공간상에서 자유롭게 회전 및 이동시킬 수 있도록 모니터부(6)를 공간상 자유롭게 움직일 수 있는 공간상 이동 구동부(25)에 결합하는 특징이 있다. 여기서, 모니터부(6)는 상술한 화면 표시부(320)가 될 수 있다.The present embodiment is characterized in that the monitor unit 6 is coupled to a spatial motion drive unit 25 that can freely move the monitor unit 6 so that the monitor unit 6 can freely rotate and move in space. Here, the monitor unit 6 may be the screen display unit 320 described above.

공간상 이동 구동부(25)는 일단이 모니터부(6)에 결합하고, 타단이 마스터 인터페이스(4)의 본체부에 결합하여, 모니터부(6)에 구동력을 가함으로써 모니터부(6)를 공간상에서 회전 및 이동시킨다. 여기서, 회전은 공간상 이동 구동부(25)에 구비된 다수의 관절 수에 상응하여 다양한 축(X,Y,Z) 중심의 회전, 즉, 피치(pitch), 롤(roll), 요(yaw) 축에 의한 회전을 포함할 수 있다. The spatial movement drive unit 25 has one end coupled to the monitor unit 6 and the other end coupled to the main body of the master interface 4 to apply a driving force to the monitor unit 6, Lt; / RTI > In this case, the rotation is performed by rotating the center of the various axes X, Y, Z corresponding to the number of joints provided in the spatial motion drive unit 25, that is, pitch, roll, yaw, And may include rotation by an axis.

공간상 이동 구동부(25)는 로봇 암 형태로 구현될 수 있으며, 핸들(10)에 의해 조작되거나 또는 상술한 바와 같이 다양하게 변화하는 수술용 내시경의 관점에 상응하여 마스터 인터페이스(4)의 모니터부(6)를 회전 및 이동시킴으로써, 사용자가 수술에 대한 현실감을 보다 생생하게 느끼게 할 수 있는 특징이 있다. The spatial movement drive unit 25 may be embodied in the form of a robot arm and may be mounted on the monitor unit 4 of the master interface 4 in accordance with the viewpoint of the surgical endoscope operated by the handle 10 or variously changed as described above. The user can feel the reality of the operation more vividly by rotating and moving the camera 6.

또한, 본 발명의 다른 실시예는 상술한 수술용 내시경(221) 및/또는 보조 내시경(242)을 회전시키는 회전 조작부(미도시)를 더 포함할 수 있다. 회전 조작부는 사용자가 내시경의 회전에 대한 정보, 예를 들면, 회전 방향, 회전 각속도, 가감속 형태, 회전 속력, 회전 시간 시점, 회전 시간 종점, 회전 시간 길이, 회전 방향, 회전 반경 등과 같은 회전 관련 정보를 결정하는 조작부가 될 수 있다. Further, another embodiment of the present invention may further include a rotation operation unit (not shown) for rotating the surgical endoscope 221 and / or the auxiliary endoscope 242 described above. The rotation operation unit is a rotation operation unit that allows the user to rotate the endoscope in accordance with information about rotation of the endoscope such as rotation direction, rotational angular velocity, acceleration / deceleration type, rotational speed, rotation time point, rotation time end point, rotation time length, rotation direction, And may be an operation unit for determining information.

여기서, 회전 방향은 시계 방향 또는 반시계 방향과 같이 내시경이 회전하는 방향이며, 가감속 형태는 직선, S커브, 지수 함수 형태 등 다양한 형태로 내시경이 회전하는 형태를 의미한다. 또한, 회전 각속도 및 회전 속력은 수술용 내시경(221) 또는 보조 내시경(242)의 일단이 회전하는 속력이며, 회전 시간 시점은 회전을 시작하는 시간 정보이고, 회전 시간 종점은 회전을 종료하는 시간 정보이다. 또한, 회전 반경은 수술용 내시경(221)이 원뿔 형상으로 회전하는 경우 회전축과 수술용 내시경(221)의 일단과의 거리, 굴곡된 내시경인 경우 샤프트 연결부(224)의 길이, 보조 내시경(242)과 수술용 내시경(241)의 이격 거리가 될 수 있다. Here, the rotation direction is a direction in which the endoscope rotates, such as clockwise or counterclockwise, and the acceleration / deceleration type means a shape in which the endoscope rotates in various forms such as a straight line, an S curve, and an exponential function type. The rotational angular velocity and the rotational speed are the speed at which one end of the surgical endoscope 221 or the auxiliary endoscope 242 rotates. The rotational time point is time information for starting rotation, and the rotational end point is time information to be. The radius of rotation is determined by the distance between the rotation axis and one end of the surgical endoscope 221 when the endoscope 221 is rotated in a conical shape, the length of the shaft connection portion 224 when the endoscope is a curved endoscope, And the endoscope for surgery 241 may be spaced apart from each other.

회전 조작부는 사용자가 조작 가능한 인터페이스를 포함할 수 있으며, 예를 들면, 인터페이스는 조이스틱 형태, 버튼 형태, 키패드, 트랙볼, 터치스크린 등 로봇 암 및/또는 기타 수술 장비를 작동시키기 위한 다양한 형태로 구현될 수 있다. 사용자가 해당 인터페이스를 이용하여 회전 관련 정보를 설정하고 이를 입력하는 경우 수술용 내시경(221)은 원뿔 형상으로 회전하거나 제1 샤프트(222)를 중심으로 회전하면서 그 일단이 회전되도록 할 수 있으며, 또한, 보조 내시경(242)도 수술용 내시경(241)을 중심축으로 하여 회전할 수 있다.The rotating operation portion may include a user-operable interface, for example, the interface may be implemented in various forms for operating a robot arm and / or other surgical equipment, such as a joystick form, a button form, a keypad, a trackball, . When the user sets and inputs rotation related information using the interface, the surgical endoscope 221 can be rotated in a conical shape or rotated around the first shaft 222, , And the auxiliary endoscope 242 can also rotate around the surgical endoscope 241 as a center axis.

그 외 본 발명의 실시예에 따른 체감형 수술용 영상 처리 장치에 대한 구체적인 규격, 임베디드 시스템, O/S 등의 공통 플랫폼 기술과 통신 프로토콜, I/O 인터페이스 등 인터페이스 표준화 기술 및 엑추에이터, 배터리, 카메라, 센서 등 부품 표준화 기술 등에 대한 구체적인 설명은 본 발명이 속하는 기술 분야의 통상의 지식을 가진자에게 자명한 사항이므로 생략하기로 한다.Other standard specifications for the haptic surgical image processing device according to the embodiment of the present invention, an interface standard technology such as an embedded system, a common platform technology such as O / S, a communication protocol, an I / O interface, and an actuator, , Sensors, and other parts standardization techniques are obvious to those skilled in the art and will not be described here.

본 발명에 따른 체감형 수술용 영상 처리 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 즉, 기록 매체는 컴퓨터에 상술한 각 단계를 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 될 수 있다.The sensory processing image processing method according to the present invention may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer readable medium. That is, the recording medium may be a computer-readable recording medium having recorded thereon a program for causing a computer to execute the steps described above.

상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합한 형태로 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM, DVD와 같은 광기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. The program instructions recorded on the medium may be those specially designed and configured for the present invention or may be available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic recording media such as magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magnetic recording media such as floppy disks, Optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.

상기 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있다.
The medium may be a transmission medium such as an optical or metal line, a wave guide, or the like, including a carrier wave for transmitting a signal designating a program command, a data structure, or the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention.

해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined in the appended claims.

1 : 마스터 로봇 2 : 슬레이브 로봇
3 : 로봇 암 4 : 마스터 인터페이스
5 : 인스트루먼트 6 : 모니터부
8 : 내시경 9 : 내시경 영상
10 : 핸들 12 : 모니터 구동 수단
13 : 이동홈 25 : 공간상 이동 구동부
191 : 돔 스크린 192 : 프로젝터
193 : 작업대 221 : 수술용 내시경
222 : 제1 샤프트 223 : 제2 샤프트
224 : 샤프트 연결부 231 : 주변 영상
232 : 연속 영상 241 : 수술용 내시경
242 : 보조 내시경 243 : 결합부
310 : 영상 입력부 320 : 화면 표시부
330 : 암 조작부 340 : 조작신호 생성부
350 : 화면 표시 제어부 351 : 내시경 관점 추적부
352 : 연속 영상 생성부 353 : 영상 이동 정보 추출부
354 : 주변 영상 생성부 355 : 영상 위치 설정부
357 : 저장 영상 표시부 360 : 영상 저장부
380 : 화면 구동 제어부 381 : 내시경 관점 추적부
383 : 영상 이동 정보 추출부 385 : 구동 정보 생성부
390 : 화면 구동부 450 : 영상 정합부
451 : 특성값 연산부 453 : 모델링 영상 구현부
455 : 중첩 영상 처리부 610 : 모델링 영상
620 : 내시경 영상 621 : 제1 내시경 영상
622 : 제2 내시경 영상
1: Master robot 2: Slave robot
3: Robot arm 4: Master interface
5: Instrument 6: Monitor section
8: ENDOSCOPY 9: ENDOSCOPE IMAGING
10: Handle 12: Monitor driving means
13: moving groove 25:
191: Dome screen 192: Projector
193: Work table 221: Surgical endoscope
222: first shaft 223: second shaft
224: shaft connecting portion 231: peripheral image
232: continuous image 241: surgical endoscope
242: auxiliary endoscope 243:
310: image input unit 320:
330: Cancer control unit 340: Operation signal generation unit
350: screen display control unit 351: endoscope viewpoint tracking unit
352: Continuous image generation unit 353: Image movement information extraction unit
354: peripheral image generating unit 355: image position setting unit
357: Storage image display unit 360: Image storage unit
380: Screen drive control unit 381: Endoscope viewpoint tracking unit
383: image movement information extracting unit 385: drive information generating unit
390: Screen driving unit 450:
451: characteristic value computing unit 453: modeling image implementing unit
455: Overlaid image processor 610: Modeling image
620: endoscopic image 621: first endoscopic image
622: second endoscopic image

Claims (14)

수술용 영상 처리 장치가 내시경 영상을 출력하는 방법에 있어서,
수술용 내시경으로부터 제공되는 상기 내시경 영상을 입력받는 단계;
상기 내시경 영상을 화면 표시부의 특정 영역에 출력하는 단계; 및
상기 수술용 내시경의 관점에 상응하여 상기 내시경 영상을 출력하는 상기 화면 표시부의 특정 영역을 변경하는 단계를 포함하는 체감형 수술용 영상 처리 방법.
A method for outputting an endoscopic image by a surgical image processing apparatus,
Receiving an endoscopic image provided from a surgical endoscope;
Outputting the endoscopic image to a specific area of the screen display unit; And
And changing a specific area of the screen display unit that outputs the endoscopic image in accordance with the viewpoint of the surgical endoscope.
제1항에 있어서,
상기 수술용 내시경은 복강경, 흉강경, 관절경, 비경, 방광경, 직장경, 십이지장경, 종격경, 심장경 중 하나 이상인 것을 특징으로 하는 체감형 수술용 영상 처리 방법.
The method according to claim 1,
Wherein the surgical endoscope is at least one of a laparoscope, a thoracoscopic, an arthroscope, a nystagmus, a cystoscope, a rectum, a duodenal, a mediastinum, and a heart.
제1항에 있어서,
상기 수술용 내시경은 입체 내시경인 것을 특징으로 하는 체감형 수술용 영상 처리 방법.
The method according to claim 1,
Wherein the surgical endoscope is a stereoscopic endoscope.
제1항에 있어서,
상기 화면 표시부의 특정 영역을 변경하는 단계는,
상기 수술용 내시경의 이동 및 회전에 상응하여 상기 수술용 내시경의 관점 정보를 추적하는 단계;
상기 수술용 내시경의 관점 정보를 이용하여 상기 내시경 영상의 이동 정보를 추출하는 단계; 및
상기 이동 정보를 이용하여 상기 내시경 영상이 출력되는 상기 화면 표시부의 특정 영역을 설정하는 단계를 포함하는 체감형 수술용 영상 처리 방법.
The method according to claim 1,
The step of changing a specific area of the screen display unit includes:
Tracking perspective information of the surgical endoscope corresponding to movement and rotation of the surgical endoscope;
Extracting movement information of the endoscopic image using the perspective information of the operation endoscope; And
And setting a specific region of the screen display unit to which the endoscopic image is output using the movement information.
제1항에 있어서,
상기 화면 표시부의 특정 영역을 변경하는 단계는,
상기 내시경 영상의 중심점을 상기 수술용 내시경의 관점의 좌표 변화값에 상응하여 이동시키는 단계를 포함하는 것을 특징으로 하는 체감형 수술용 영상 처리 방법.
The method according to claim 1,
The step of changing a specific area of the screen display unit includes:
And moving the center point of the endoscopic image in accordance with a coordinate change value of the viewpoint of the surgical endoscope.
수술용 영상 처리 장치가 내시경 영상을 출력하는 방법에 있어서,
수술용 내시경으로부터 제공되는 내시경 영상을 입력받는 단계;
상기 내시경 영상을 화면 표시부의 특정 영역에 출력하는 단계;
상기 수술용 내시경이 촬영하는 수술 대상을 수술하는 수술 도구에 관한 모델링 영상을 저장하는 단계;
상기 내시경 영상과 상기 모델링 영상을 서로 정합하여 출력 영상을 생성하는 단계; 및
상기 수술용 내시경의 관점에 상응하여 상기 내시경 영상을 출력하는 상기 화면 표시부의 특정 영역을 변경하며, 상기 정합된 내시경 영상과 모델링 영상을 상기 화면 표시부에 출력하는 단계를 포함하는 체감형 수술용 영상 처리 방법.
A method for outputting an endoscopic image by a surgical image processing apparatus,
Receiving an endoscopic image provided from a surgical endoscope;
Outputting the endoscopic image to a specific area of the screen display unit;
Storing a modeling image related to a surgical tool for operating a surgical target taken by the surgical endoscope;
Generating an output image by matching the endoscopic image and the modeling image with each other; And
Changing a specific region of the screen display unit outputting the endoscopic image in accordance with the viewpoint of the surgical endoscope and outputting the registered endoscopic image and the modeling image to the screen display unit, Way.
제6항에 있어서,
상기 출력 영상을 생성하는 단계는,
상기 내시경 영상에 포함되는 실제 수술 도구 영상과 상기 모델링 영상에 포함되는 모델링 수술 도구 영상을 서로 정합하여 상기 출력 영상을 생성하는 것을 특징으로 하는 체감형 수술용 영상 처리 방법.
The method according to claim 6,
Wherein the generating the output image comprises:
Wherein the output image is generated by matching the actual surgical tool image included in the endoscopic image and the modeling surgical tool image included in the modeling image with each other.
제7항에 있어서,
상기 출력 영상을 생성하는 단계는,
상기 내시경 영상 및 하나 이상의 로봇 암에 결합된 실제 수술 도구의 위치 좌표정보 중 하나 이상을 이용하여 특성값을 연산하는 단계; 및
상기 연산된 특성값에 상응하는 모델링 영상을 구현하는 단계를 더 포함하는 체감형 수술용 영상 처리 방법.
8. The method of claim 7,
Wherein the generating the output image comprises:
Computing a characteristic value using at least one of an endoscopic image and positional coordinate information of an actual surgical tool coupled to the at least one robot arm; And
And implementing a modeling image corresponding to the calculated characteristic value.
제7항에 있어서,
상기 출력 영상을 생성하는 단계는,
상기 모델링 수술 도구 영상으로부터 상기 모델링 수술 도구 영상과 상기 실제 수술 도구 영상의 중첩 영역을 제거하는 단계를 더 포함하는 체감형 수술용 영상 처리 방법.
8. The method of claim 7,
Wherein the generating the output image comprises:
Further comprising the step of removing an overlapping area between the modeling operation tool image and the actual operation tool image from the modeling operation tool image.
제7항에 있어서,
상기 모델링 영상에 출력되는 상기 모델링 수술 도구 영상의 위치는 상기 수술 도구의 조작정보를 이용하여 설정되는 것을 특징으로 하는 체감형 수술용 영상 처리 방법.
8. The method of claim 7,
Wherein the position of the modeling and operation tool image output to the modeling image is set using operation information of the surgical tool.
수술용 영상 처리 장치가 내시경 영상을 출력하는 방법에 있어서,
수술용 내시경으로부터 제공되는 내시경 영상을 입력받는 단계;
상기 내시경 영상을 화면 표시부에 출력하는 단계; 및
상기 수술용 내시경의 관점에 상응하여 상기 화면 표시부를 회전 및 이동시키는 단계를 포함하는 체감형 수술용 영상 처리 방법.
A method for outputting an endoscopic image by a surgical image processing apparatus,
Receiving an endoscopic image provided from a surgical endoscope;
Outputting the endoscopic image to a screen display unit; And
And rotating and moving the screen display unit in accordance with the viewpoint of the surgical endoscope.
제11항에 있어서,
상기 화면 표시부를 회전 및 이동시키는 단계는,
상기 수술용 내시경의 이동 및 회전에 상응하여 상기 수술용 내시경의 관점 정보를 추적하는 단계;
상기 수술용 내시경의 관점 정보를 이용하여 상기 내시경 영상의 이동 정보를 추출하는 단계;
상기 이동 정보를 이용하여 상기 화면 표시부의 모션 정보를 생성하는 단계를 포함하는 체감형 수술용 영상 처리 방법.
12. The method of claim 11,
The step of rotating and moving the screen display unit includes:
Tracking perspective information of the surgical endoscope corresponding to movement and rotation of the surgical endoscope;
Extracting movement information of the endoscopic image using the perspective information of the operation endoscope;
And generating motion information of the screen display unit using the movement information.
제1항, 제6항 및 제11항 중 어느 한 항에 있어서,
상기 화면 표시부는,
돔 형상의 스크린과;
상기 돔 형상의 스크린에 상기 내시경 영상을 투사하는 프로젝터를 포함하는 체감형 수술용 영상 처리 방법.
The method according to any one of claims 1, 6, and 11,
The screen display unit displays,
A dome-shaped screen;
And a projector for projecting the endoscope image onto the dome-shaped screen.
제1항 내지 제12항 중 어느 하나에 기재된 체감형 수술용 영상 처리 방법을 수행하기 위하여 디지털 처리 장치에 의해 실행될 수 있는 명령어들의 프로그램이 유형적으로 구현되어 있으며 디지털 처리 장치에 의해 판독될 수 있는 프로그램을 기록한 기록매체.A program for a tactile sensation surgical image processing method according to any one of claims 1 to 12, wherein a program of instructions executable by the digital processing apparatus is tangibly embodied and readable by a digital processing apparatus Is recorded.
KR1020150160376A 2015-11-16 2015-11-16 Apparatus and Method for processing surgical image based on motion KR101713836B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150160376A KR101713836B1 (en) 2015-11-16 2015-11-16 Apparatus and Method for processing surgical image based on motion

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150160376A KR101713836B1 (en) 2015-11-16 2015-11-16 Apparatus and Method for processing surgical image based on motion

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020100117546A Division KR20110114421A (en) 2010-04-13 2010-11-24 Apparatus and method for processing surgical image based on motion

Publications (2)

Publication Number Publication Date
KR20150135752A true KR20150135752A (en) 2015-12-03
KR101713836B1 KR101713836B1 (en) 2017-03-10

Family

ID=54872033

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150160376A KR101713836B1 (en) 2015-11-16 2015-11-16 Apparatus and Method for processing surgical image based on motion

Country Status (1)

Country Link
KR (1) KR101713836B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3632294A1 (en) * 2018-10-03 2020-04-08 Karl Storz SE & Co. KG System and method for holding an image reproduction device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6947786B2 (en) * 2002-02-28 2005-09-20 Surgical Navigation Technologies, Inc. Method and apparatus for perspective inversion
KR20060037671A (en) * 2004-10-28 2006-05-03 김재황 Monitering apparatus for laparoscopice surgery and disply method thereof
KR100980247B1 (en) * 2008-05-27 2010-09-06 (주)미래컴퍼니 Laparoscope and image processing system using the same
KR20100106834A (en) * 2009-03-24 2010-10-04 주식회사 이턴 Surgical robot system using augmented reality and control method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6947786B2 (en) * 2002-02-28 2005-09-20 Surgical Navigation Technologies, Inc. Method and apparatus for perspective inversion
KR20060037671A (en) * 2004-10-28 2006-05-03 김재황 Monitering apparatus for laparoscopice surgery and disply method thereof
KR100980247B1 (en) * 2008-05-27 2010-09-06 (주)미래컴퍼니 Laparoscope and image processing system using the same
KR20100106834A (en) * 2009-03-24 2010-10-04 주식회사 이턴 Surgical robot system using augmented reality and control method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3632294A1 (en) * 2018-10-03 2020-04-08 Karl Storz SE & Co. KG System and method for holding an image reproduction device
US10769471B2 (en) 2018-10-03 2020-09-08 Karl Storz Se & Co. Kg System and method for holding an image display apparatus

Also Published As

Publication number Publication date
KR101713836B1 (en) 2017-03-10

Similar Documents

Publication Publication Date Title
US11638615B2 (en) Intelligent surgical tool control system for laparoscopic surgeries
CN107613897B (en) Augmented reality surgical navigation
KR101374709B1 (en) Surgical tool position and identification indicator displayed in a boundary area of a computer display screen
KR101536115B1 (en) Method for operating surgical navigational system and surgical navigational system
EP2043499B1 (en) Endoscopic vision system
KR101598774B1 (en) Apparatus and Method for processing surgical image
CN103188987B (en) Surgical robot system and laparoscopic procedure method thereof and human body temperature type operation image processing apparatus and method thereof
CN105078580B (en) Surgical robot system and its laparoscopic procedure method and human body temperature type operation image processing apparatus and its method
KR20080089376A (en) Medical robotic system providing three-dimensional telestration
US11478140B1 (en) Wireless laparoscopic device with gimballed camera
US10955657B2 (en) Endoscope with dual image sensors
KR101447931B1 (en) Surgical robot system using augmented reality and control method thereof
WO2020054566A1 (en) Medical observation system, medical observation device and medical observation method
US20210145523A1 (en) Robotic surgery depth detection and modeling
JP2023509321A (en) Guided anatomical manipulation for endoscopic procedures
EP3870021B1 (en) Mixed reality systems and methods for indicating an extent of a field of view of an imaging device
US10772701B2 (en) Method and apparatus to project light pattern to determine distance in a surgical scene
KR101114232B1 (en) Surgical robot system and motion restriction control method thereof
KR101713836B1 (en) Apparatus and Method for processing surgical image based on motion
US20220096164A1 (en) Systems and methods for facilitating optimization of an imaging device viewpoint during an operating session of a computer-assisted operation system
KR101114237B1 (en) Apparatus and method for processing surgical image based on motion
KR20110114421A (en) Apparatus and method for processing surgical image based on motion
TWM484404U (en) Imaging projection system equipment application
KR20110047929A (en) Surgical robot system and motion restriction control method thereof
KR101715026B1 (en) Surgical robot system and motion restriction control method thereof

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20200302

Year of fee payment: 4