KR20100123160A - Method of detection for surgical instruments, recording media of the same, surgical system of using the same and surgical subsystem of using the same - Google Patents

Method of detection for surgical instruments, recording media of the same, surgical system of using the same and surgical subsystem of using the same Download PDF

Info

Publication number
KR20100123160A
KR20100123160A KR1020090042216A KR20090042216A KR20100123160A KR 20100123160 A KR20100123160 A KR 20100123160A KR 1020090042216 A KR1020090042216 A KR 1020090042216A KR 20090042216 A KR20090042216 A KR 20090042216A KR 20100123160 A KR20100123160 A KR 20100123160A
Authority
KR
South Korea
Prior art keywords
surgical
image
surgical tool
value
tool
Prior art date
Application number
KR1020090042216A
Other languages
Korean (ko)
Other versions
KR101159469B1 (en
Inventor
김광기
임혜원
박준우
남경원
조영호
김영우
Original Assignee
국립암센터
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국립암센터 filed Critical 국립암센터
Priority to KR1020090042216A priority Critical patent/KR101159469B1/en
Publication of KR20100123160A publication Critical patent/KR20100123160A/en
Application granted granted Critical
Publication of KR101159469B1 publication Critical patent/KR101159469B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis

Abstract

PURPOSE: A method of detection for surgical instruments, recording media of the same, a surgical system of using the same and the surgical subsystem of using the same are provided to maintain a surgical instrument optimum by minimize an effect due to a foreign material. CONSTITUTION: An image is generated by using a surgical image(S310). A surgical instrument is distinguished from a surgical image by using the generated image(S320). The surgical instrument is selected from the surgical image(S321). A background image is removed from the surgical image(S322). The surgical instrument is detected by using the generated image(S330).

Description

수술도구 검출 방법, 수술도구 검출 방법을 기록한 기록매체, 수술도구 검출 방법을 수행하는 수술 시스템 및 수술도구 검출 방법을 수행하는 수술 보조시스템{Method of Detection for Surgical Instruments, Recording Media of the same, Surgical System of using the same and Surgical Subsystem of using the same}Surgical system for detecting surgical instruments, recording media recording surgical instrument detection methods, surgical systems for performing surgical instrument detection methods, and surgical auxiliary systems for performing surgical instrument detection methods of using the same and Surgical Subsystem of using the same}

본 발명은 수술도구 검출 방법, 수술도구 검출 방법을 기록한 기록매체, 수술도구 검출 방법을 수행하는 수술 시스템 및 수술도구 검출 방법을 수행하는 수술 보조시스템에 관한 것으로서, 더욱 상세하게는 수술용 영상을 이용하는 수술도구 검출 방법, 수술도구 검출 방법을 기록한 기록매체 및 수술도구 검출 방법을 수행하는 수술 시스템 및 수술도구 검출 방법을 수행하는 수술 보조시스템에 관한 것이다.The present invention relates to a surgical tool detection method, a recording medium recording a surgical tool detection method, a surgical system for performing a surgical tool detection method and a surgical auxiliary system for performing a surgical tool detection method, in more detail using a surgical image The present invention relates to a surgical instrument for performing a surgical instrument detection method, a recording medium recording the surgical instrument detection method, a surgical system for performing the surgical instrument detection method, and a surgical auxiliary system for performing the surgical instrument detection method.

침입을 최소화하는 수술 기법은 전통적인 개복 수술 기법에 비하여 최소한의 흉터, 환자의 고통 감소, 회복시간의 단축, 입원기간의 단축, 신속한 정상 생활로의 복귀 등의 장점을 가진다.Surgical techniques that minimize invasion have advantages such as minimal scarring, reduced patient pain, shorter recovery time, shorter hospital stay, and rapid return to normal life compared to traditional open surgery techniques.

복강경 수술은 침입을 최소화하는 수술 기법의 하나로, 복부 내의 해부학적 구조와 골반이 보이도록 복강경이라고 부르는 도구를 이용한다. 복강은 이산화탄소 와 같은 흡수 가능한 가스의 주입에 의해 팽창되어 복강경의 시야를 확보한다. 더불어 피부에 최소한의 절개로 프로브 또는 다른 수술도구가 수술부위에 도입될 수 있다. 따라서 수술자는 복강경 영상을 통하여 복강을 보며 수술도구를 이용하여 절개 등의 수술을 시행할 수 있게 된다.Laparoscopic surgery is a surgical technique that minimizes invasion and uses a tool called a laparoscope to show the anatomy and pelvis in the abdomen. The abdominal cavity is expanded by the injection of an absorbable gas, such as carbon dioxide, to secure the view of the laparoscope. In addition, with minimal incisions into the skin, probes or other surgical instruments can be introduced into the surgical site. Therefore, the operator can see the abdominal cavity through the laparoscopic image and can perform surgery such as incision using the surgical tool.

종래에 복강경 수술 시에는 수술 보조자가 복강경 영상을 제어하는 역할을 하였고, 이에 따라 수술자는 수술 보조자에게 복강경 영상을 어떤 방향으로 조작할 것인지의 제어 명령을 해야 했다. 즉, 수술자는 수술에만 집중할 수 없으며, 수술 이외의 복강경 영상의 조작에 주의를 분산시켜야만 했다. 또한, 수술 보조자는 복강경 영상을 흔들림 없이 유지해야 하는 어려움이 있었다.Conventionally, in the case of laparoscopic surgery, the surgical assistant played a role of controlling the laparoscopic image, and accordingly, the operator had to give the surgical assistant a control command of which direction to operate the laparoscopic image. In other words, the operator could not concentrate on the operation only, and had to distract his attention to the manipulation of the laparoscopic image. In addition, the surgical assistant had a difficulty in maintaining laparoscopic images without shaking.

이러한 문제점을 해결하고자 수술 로봇과 수술 보조로봇이 등장하게 되었으며, 이러한 로봇에 의하여 복강경 영상을 고정 및 제어할 수 있으므로 보다 안정된 복강경 영상을 제공할 수 있었다. 다만, 로봇에 의한 복강경 영상의 제어에도 수술자의 수동 명령이 필요한 문제점이 있었다. 즉, 수술자는 음성 명령을 로봇에게 전달하거나 페달을 이용한 명령 전달 또는 시각을 통한 명령 전달 등의 추가적인 동작이 여전히 필요하게 되었다.In order to solve this problem, a surgical robot and a surgical assistant robot have appeared, and since the laparoscope image can be fixed and controlled by such a robot, a more stable laparoscope image can be provided. However, there was a problem that a manual command of an operator is required even for the control of laparoscopic images by a robot. That is, the operator still needs additional operations such as delivering a voice command to the robot, using a pedal to transmit a command, or transmitting a command through vision.

도 1은 종래 수술 로봇을 도입한 복강경을 이용한 수술 시스템의 개념도이다.1 is a conceptual diagram of a surgical system using a laparoscope incorporating a conventional surgical robot.

도 1을 참조하면, 수술 보조자를 대신하여 수술 로봇이 복강경 영상을 고정시키고 수술자의 명령에 따라 복강경 영상의 위치를 제어할 수 있다. 촬영부(120)에 의하여 복강의 영상이 영상 신호로 전달되고, 전달된 영상 신호를 디스플레이 부(130)에서 출력하여, 수술자는 복강경 영상을 디스플레이부(130)를 통하여 눈으로 확인할 수 있다. 또한, 수술자는 수술 장치(110)를 이용하여 수술도구를 조작할 수 있으며, 이에 따라 수술을 시행할 수 있다. 여기에서 수술도구는 수술용 메스(mess), 수술용 갈고리(hook), 수술용 핀셋(pincette), 수술용 가위(scissors) 등의 도구를 말한다. 더불어 촬영부(120)를 조작할 수 있도록 촬영 위치 조절부(150)가 존재하며, 수술자가 디스플레이부(130)로부터 확인한 복강경 영상의 위치를 조절하기 위해 촬영 위치 조절부(150)에 조작 명령을 전달할 수 있도록 명령 입력부(160)를 구성하였다. 상기 명령 입력부(160)는 다양한 형태로 존재할 수 있다. 즉, 음성 인식 장치로서 수술자의 음성 명령을 인식하는 형태일 수 있으며, 수술자의 발을 이용하여 명령을 전달 받는 페달일 수 있다. 또한, 수술자의 동공 등을 인식하여 눈의 움직임 명령을 전달 받는 형태일 수 있다. 다만, 상기와 같은 명령 입력부(160) 등의 조작 필요성으로 수술자는 수술에만 전념하기 힘든 문제점이 여전히 존재한다.Referring to FIG. 1, in place of a surgical assistant, a surgical robot may fix a laparoscopic image and control a position of the laparoscopic image according to an operator's command. The image of the abdominal cavity is transmitted as an image signal by the photographing unit 120, and the transmitted image signal is output from the display unit 130 so that the operator may visually confirm the laparoscope image through the display unit 130. In addition, the operator can operate the surgical tool by using the surgical device 110, thereby performing the surgery. Here, the surgical tool refers to a tool such as a surgical scalpel, a surgical hook, a surgical pincette, a surgical scissor, and the like. In addition, there is a photographing position adjusting unit 150 to manipulate the photographing unit 120, the operation command to the photographing position adjusting unit 150 to adjust the position of the laparoscopic image confirmed by the operator from the display unit 130 The command input unit 160 is configured to be delivered. The command input unit 160 may exist in various forms. That is, the voice recognition device may be in a form of recognizing the operator's voice command, it may be a pedal that receives the command using the operator's foot. In addition, it may be in the form of receiving the movement command of the eye by recognizing the pupil of the operator. However, there is still a problem that it is difficult for the operator to concentrate on the surgery due to the necessity of manipulation of the command input unit 160 as described above.

도 2는 종래 수술 보조로봇을 도입한 복강경을 이용한 수술 보조시스템의 개념도이다.2 is a conceptual diagram of a surgical assistance system using a laparoscope incorporating a conventional surgical assistant robot.

도 2를 참조하면, 수술 보조자를 대신하여 수술 보조로봇이 복강경 영상을 고정시키고 수술자의 명령에 따라 복강경 영상의 위치를 제어할 수 있다는 것과 수술자가 직접 수술도구(210)를 제어하여 수술을 수행한다는 것을 제외한 다른 구성요소의 역할은 도 1에서 상술한 바와 동일할 수 있다. 수술도구는 복강경 수술용 메스(mess), 복강경 수술용 갈고리(hook), 복강경 수술용 핀셋(pincette), 복강경 수술용 가위(scissors) 등의 도구일 수 있다. 그러나 수술 보조시스템의 경우에도 상기와 같은 명령 입력부(260) 등의 조작 필요성으로 수술자는 수술에만 전념하기 힘든 문제점이 여전히 존재한다.Referring to Figure 2, in place of the surgical assistant, the surgical assistant robot to fix the laparoscopic image and to control the position of the laparoscopic image according to the operator's command and that the operator directly controls the surgical tool 210 to perform the operation Except for the role of other components may be the same as described above in FIG. The surgical tool may be a tool such as a laparoscopic mess, a laparoscopic hook, a laparoscopic pincette, a laparoscopic scissor, and the like. However, even in the case of the surgical assistance system, there is still a problem that it is difficult for the operator to concentrate solely on the surgery due to the necessity of manipulation of the command input unit 260 as described above.

본 발명의 목적은 수술용 영상을 이용하는 수술도구 검출 방법을 제공하는 것이다.An object of the present invention is to provide a surgical tool detection method using a surgical image.

본 발명의 다른 목적은 수술용 영상을 이용하는 수술도구 검출 방법을 기록한 기록매체를 제공하는 것이다.Another object of the present invention is to provide a recording medium recording a method for detecting a surgical tool using a surgical image.

본 발명의 또 다른 목적은 수술용 영상을 이용하는 수술도구 검출 방법을 수행하는 수술 시스템에 관한 것이다.Another object of the present invention relates to a surgical system for performing a surgical tool detection method using a surgical image.

본 발명의 또 다른 목적은 수술용 영상을 이용하는 수술도구 검출 방법을 수행하는 수술 보조시스템에 관한 것이다.Another object of the present invention relates to a surgical assistance system for performing a surgical tool detection method using a surgical image.

상술한 본 발명의 목적을 달성하기 위한 본 발명의 일 실시예에 따른 수술도구 검출 방법은 수술용 영상에서 수술도구를 검출하는 방법에 있어서, 상기 수술용 영상을 이용하여 상기 수술용 영상의 픽셀 정보를 표현하는 RGB 값 및 HSI 값 중의 적어도 하나를 포함하는 이미지 정보를 생성하는 단계; 상기 생성된 이미지 정보를 이용하여 상기 수술용 영상에서 상기 수술도구를 구분하는 단계; 및 상기 생성된 이미지 정보를 이용하여 상기 수술도구를 구분한 영상에서 상기 수술도구를 검사하 는 단계;를 포함하여 구성될 수 있다.Surgical tool detection method according to an embodiment of the present invention for achieving the above object of the present invention in the method for detecting a surgical tool in the surgical image, using the surgical image pixel information of the surgical image Generating image information including at least one of an RGB value and an HSI value representing an HSI value; Classifying the surgical tool in the surgical image by using the generated image information; And inspecting the surgical tool in an image in which the surgical tool is divided using the generated image information.

여기에서, 상기 수술용 영상은 상기 수술도구 및 수술부위를 표현하는 영상인 것일 수 있다.Here, the surgical image may be an image representing the surgical tool and the surgical site.

여기에서, 상기 수술용 영상은 복강경(Laparoscope) 영상 및 내시경(endoscope) 영상 중 어느 하나인 것일 수 있다.Here, the surgical image may be any one of a laparoscope image and an endoscope image.

여기에서, 상기 이미지 정보를 생성하는 단계는 상기 수술용 영상에 대하여 노이즈(noise)를 제거하는 것을 더 포함하는 것일 수 있다.The generating of the image information may further include removing noise with respect to the surgical image.

여기에서, 상기 생성된 이미지 정보를 이용하여 상기 수술용 영상에서 상기 수술도구를 구분하는 단계는 상기 수술용 영상에서 수술도구를 선택하는 단계 및 상기 수술용 영상에서 배경구역을 제거하는 단계 중 적어도 하나를 포함하여 구성되는 것일 수 있다.Here, the step of distinguishing the surgical tool from the surgical image by using the generated image information is at least one of selecting a surgical tool from the surgical image and removing the background area from the surgical image It may be configured to include.

여기에서, 상기 수술용 영상에서 수술도구를 선택하는 단계는 상기 HSI 값을 이용한

Figure 112009029022930-PAT00001
값 및
Figure 112009029022930-PAT00002
값 중의 어느 하나에 대하여 이진(binary)화를 수행하는 방법, 상기 RGB 값의 R, G 및 B 간의 차이값을 이용하여 이진(binary)화를 수행하는 방법 및 상기 RGB 값을 이용한 RGB 표준편차값(standard deviation)을 이용하여 이진(binary)화를 수행하는 방법 중 적어도 하나를 적용하여 상기 수술도구를 선택하는 것일 수 있다.Here, the step of selecting a surgical tool in the surgical image using the HSI value
Figure 112009029022930-PAT00001
Value and
Figure 112009029022930-PAT00002
A method of performing binarization on any one of the values, a method of performing binarization using difference values between R, G, and B of the RGB value, and an RGB standard deviation value using the RGB value It may be to select the surgical tool by applying at least one method of performing binarization using a standard deviation.

여기에서, 상기 수술용 영상에서 배경구역을 제거하는 단계는 상기 RGB 값을 이용하는 피부색 검출(Skin Color Detection) 방법, 상기 RGB 값을 이용하는 붉은 색 검출(Reddish Color Detection) 방법 및 상기 RGB 값의 R, G 및 B에서 최소값과 최대값을 비교하는 최소 최대 비교(min max RGB Comparison) 방법 중 적어도 하나를 적용하여 배경구역을 제거하는 것일 수 있다.The removing of the background area from the surgical image may include skin color detection method using the RGB value, red color detection method using the RGB value, R of the RGB value, The background area may be removed by applying at least one of a min max RGB comparison method of comparing the minimum value and the maximum value in G and B. FIG.

여기에서, 상기 생성된 이미지 정보를 이용하여 상기 수술도구를 구분한 영상에서 상기 수술도구를 검사하는 단계는 상기 수술도구를 구분한 영상에 팽창(dilation), 침식(erosion), 열림(opening) 및 닫힘(closing) 중의 적어도 하나의 영상 처리를 적용하는 방법 및 상기 수술도구가 상기 수술용 영상의 경계를 지나는 조건을 적용하는 방법 중 적어도 하나를 이용하는 것일 수 있다.Here, the step of inspecting the surgical tool in the image divided by the surgical tool by using the generated image information, the separation (erosion), opening (opening) and It may be to use at least one of a method of applying at least one image processing of the closing (closing) and a method of applying a condition that the surgical tool passes the boundary of the surgical image.

상술한 본 발명의 다른 목적을 달성하기 위한 본 발명의 일 실시예에 따른 수술도구 검출 방법을 기록한 기록매체는 수술용 영상에서 수술도구를 검출하는 방법을 기록한 기록매체에 있어서, 상기 수술용 영상을 이용하여 상기 수술용 영상의 픽셀 정보를 표현하는 RGB 값 및 HSI 값 중의 적어도 하나를 포함하는 이미지 정보를 생성하는 단계; 상기 생성된 이미지 정보를 이용하여 상기 수술용 영상에서 상기 수술도구를 구분하는 단계; 및 상기 생성된 이미지 정보를 이용하여 상기 수술도구를 구분한 영상에서 상기 수술도구를 검사하는 단계;를 포함하여 구성될 수 있다.In the recording medium recording the surgical tool detection method according to an embodiment of the present invention for achieving another object of the present invention described above in the recording medium recording the method for detecting the surgical tool in the surgical image, Generating image information including at least one of an RGB value and an HSI value representing pixel information of the surgical image using the image; Classifying the surgical tool in the surgical image by using the generated image information; And inspecting the surgical tool in an image of the surgical tool by using the generated image information.

상술한 본 발명의 또 다른 목적을 달성하기 위한 본 발명의 일 실시예에 따른 수술도구 검출 방법을 수행하는 수술 시스템은 수술용 영상을 이용한 수술 시스템에 있어서, 수술도구 및 상기 수술도구를 제어하기 위한 수술도구 제어기를 포함하는 수술 장치부; 상기 수술도구 및 수술부위에 대한 수술용 영상을 생성하기 위 한 촬영부; 상기 촬영부로부터 수술용 영상을 제공받아 출력하기 위한 디스플레이부; 상기 촬영부로부터 수술용 영상을 제공받아 상기 수술용 영상에서 수술도구를 검출하기 위한 검출부; 및 상기 검출부의 상기 수술도구 검출 결과를 이용하여 상기 촬영부의 촬영 위치를 제어하기 위한 촬영 위치 제어부;를 포함하여 구성될 수 있다.Surgical system for performing a surgical tool detection method according to an embodiment of the present invention for achieving another object of the present invention described above in the surgical system using a surgical image, for controlling the surgical tool and the surgical tool A surgical device unit including a surgical tool controller; A photographing unit for generating a surgical image for the surgical tool and the surgical site; A display unit for receiving and outputting a surgical image from the photographing unit; A detection unit for receiving a surgical image from the photographing unit and detecting a surgical tool in the surgical image; And a photographing position controller for controlling a photographing position of the photographing unit by using the detection result of the surgical tool of the detecting unit.

여기에서, 상기 촬영부의 촬영 위치를 제어하기 위한 제어 명령을 상기 촬영 위치 제어부에 입력하기 위한 명령 입력부를 더 포함하는 것일 수 있다.The apparatus may further include a command input unit for inputting a control command for controlling the photographing position of the photographing unit to the photographing position controller.

여기에서, 상기 촬영 위치 제어부는 상기 명령 입력부에 의하여 입력된 제어 명령을 우선적으로 처리하는 것일 수 있다.In this case, the photographing position controller may preferentially process a control command input by the command input unit.

여기에서, 상기 명령 입력부는 페달(pedal)인 것일 수 있다.Here, the command input unit may be a pedal.

여기에서, 상기 촬영부에서 촬영되는 수술용 영상은 2차원 영상 및 3차원 영상 중 어느 하나인 것일 수 있다.Here, the surgical image taken by the imaging unit may be any one of a two-dimensional image and a three-dimensional image.

여기에서, 상기 검출부는 상기 수술용 영상을 이용하여 상기 수술용 영상의 픽셀 정보를 표현하는 RGB 값 및 HSI 값 중의 적어도 하나를 포함하는 이미지 정보를 생성하는 단계, 상기 생성된 이미지 정보를 이용하여 상기 수술용 영상에서 상기 수술도구를 구분하는 단계 및 상기 생성된 이미지 정보를 이용하여 상기 수술도구를 구분한 영상에서 상기 수술도구를 검사하는 단계를 포함하여 구성되는 수술도구 검출 방법을 수행하는 것일 수 있다.The detecting unit may generate image information including at least one of an RGB value and an HSI value representing pixel information of the surgical image using the surgical image, and using the generated image information. Distinguishing the surgical tool from a surgical image and inspecting the surgical tool on the image of the surgical tool by using the generated image information. .

여기에서, 상기 검출부의 상기 생성된 이미지 정보를 이용하여 상기 수술용 영상에서 상기 수술도구를 구분하는 단계는 상기 수술용 영상에서 수술도구를 선택 하는 단계 및 상기 수술용 영상에서 배경구역을 제거하는 단계 중 적어도 하나를 포함하여 구성되는 것일 수 있다.Here, the step of separating the surgical tool from the surgical image by using the generated image information of the detection unit selecting a surgical tool from the surgical image and removing the background area from the surgical image It may be configured to include at least one of.

여기에서, 상기 수술용 영상에서 수술도구를 선택하는 단계는 상기 HSI 값을 이용한

Figure 112009029022930-PAT00003
값 및
Figure 112009029022930-PAT00004
값 중의 어느 하나에 대하여 이진(binary)화를 수행하는 방법, 상기 RGB 값의 R, G 및 B 간의 차이값을 이용하여 이진(binary)화를 수행하는 방법 및 상기 RGB 값을 이용한 RGB 표준편차값(standard deviation)을 이용하여 이진(binary)화를 수행하는 방법 중 적어도 하나를 적용하여 상기 수술도구를 선택하는 것일 수 있다.Here, the step of selecting a surgical tool in the surgical image using the HSI value
Figure 112009029022930-PAT00003
Value and
Figure 112009029022930-PAT00004
A method of performing binarization on any one of the values, a method of performing binarization using difference values between R, G, and B of the RGB value, and an RGB standard deviation value using the RGB value It may be to select the surgical tool by applying at least one method of performing binarization using a standard deviation.

여기에서, 상기 수술용 영상에서 배경구역을 제거하는 단계는 상기 RGB 값을 이용하는 피부색 검출(Skin Color Detection) 방법, 상기 RGB 값을 이용하는 붉은색 검출(Reddish Color Detection) 방법 및 상기 RGB 값의 R, G 및 B에서 최소값과 최대값을 비교하는 최소 최대 비교(min max RGB Comparison) 방법 중 적어도 하나를 적용하여 배경구역을 제거하는 것일 수 있다.The removing of the background area from the surgical image may include skin color detection method using the RGB value, redish color detection method using the RGB value, R of the RGB value, The background area may be removed by applying at least one of a min max RGB comparison method of comparing the minimum value and the maximum value in G and B. FIG.

여기에서, 상기 생성된 이미지 정보를 이용하여 상기 수술도구를 구분한 영상에서 상기 수술도구를 검사하는 단계는 상기 수술도구를 구분한 영상에 팽창(dilation), 침식(erosion), 열림(opening) 및 닫힘(closing) 중의 적어도 하나의 영상 처리를 적용하는 방법 및 상기 수술도구가 상기 수술용 영상의 경계를 지나는 조건을 적용하는 방법 중 적어도 하나를 이용하는 것일 수 있다.Here, the step of inspecting the surgical tool in the image divided by the surgical tool by using the generated image information, the separation (erosion), opening (opening) and It may be to use at least one of a method of applying at least one image processing of the closing (closing) and a method of applying a condition that the surgical tool passes the boundary of the surgical image.

여기에서, 상기 촬영 위치 제어부는 상기 수술도구가 상기 수술용 영상의 내 부에 위치하도록 상기 촬영부의 촬영 위치를 제어하는 것일 수 있다.Here, the photographing position controller may control the photographing position of the photographing unit so that the surgical tool is located inside the surgical image.

상술한 본 발명의 또 다른 목적을 달성하기 위한 본 발명의 일 실시예에 따른 수술도구 검출 방법을 수행하는 수술 보조시스템은 수술용 영상을 이용한 수술 보조시스템에 있어서, 수술을 수행하기 위한 수술도구; 상기 수술도구 및 수술부위에 대한 수술용 영상을 생성하기 위한 촬영부; 상기 촬영부로부터 수술용 영상을 제공받아 출력하기 위한 디스플레이부; 상기 촬영부로부터 수술용 영상을 제공받아 상기 수술용 영상에서 수술도구를 검출하기 위한 검출부; 및 상기 검출부의 상기 수술도구 검출 결과를 이용하여 상기 촬영부의 촬영 위치를 제어하기 위한 촬영 위치 제어부;를 포함하여 구성될 수 있다.Surgical assistant system for performing a surgical tool detection method according to an embodiment of the present invention for achieving another object of the present invention described above, Surgical assistant system using a surgical image, a surgical tool for performing surgery; A photographing unit for generating a surgical image for the surgical tool and the surgical site; A display unit for receiving and outputting a surgical image from the photographing unit; A detection unit for receiving a surgical image from the photographing unit and detecting a surgical tool in the surgical image; And a photographing position controller for controlling a photographing position of the photographing unit by using the detection result of the surgical tool of the detecting unit.

여기에서, 상기 촬영부의 촬영 위치를 제어하기 위한 제어 명령을 상기 촬영 위치 제어부에 입력하기 위한 명령 입력부를 더 포함하는 것일 수 있다.The apparatus may further include a command input unit for inputting a control command for controlling the photographing position of the photographing unit to the photographing position controller.

본 발명에 따른 수술도구 검출 방법, 수술도구 검출 방법을 기록한 기록매체, 수술도구 검출 방법을 수행하는 수술 시스템 및 수술도구 검출 방법을 수행하는 수술 보조시스템에 따르면, 수술도구가 수술용 영상 내에 위치하도록 자동으로 제어할 수 있으며, 계속적으로 수술도구가 수술용 영상 내에 위치하도록 자동으로 추적할 수 있다. 결국, 수술자는 수술용 영상에 대한 추가적인 조작을 최소화하면서 수술에 임할 수 있다. 또한, 수술도구가 수술용 영상 내에 위치하도록 수술도구에 추가적인 마커(marker) 등을 사용하지 아니하므로 수술도구에 대한 소독의 편의성이 증대되고, 수술도구에 대한 이물질의 영향을 최소화할 수 있으므로 수술도구 를 최적의 상태로 유지할 수 있다.According to the surgical tool detection method according to the invention, the recording medium recording the surgical tool detection method, the surgical system for performing the surgical tool detection method and the surgical auxiliary system for performing the surgical tool detection method, so that the surgical tool is located in the surgical image It can be controlled automatically and continuously tracked so that surgical instruments can be placed within the surgical image. As a result, the operator can perform surgery while minimizing further manipulation of the surgical image. In addition, since the surgical tool does not use additional markers such as to place the surgical tool within the surgical image, the convenience of disinfection for the surgical tool is increased and the influence of foreign substances on the surgical tool can be minimized. Can be maintained in an optimal state.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.As the present invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description.

그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art, and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention. In the following description of the present invention, the same reference numerals are used for the same elements in the drawings and redundant descriptions of the same elements will be omitted.

도 3은 본 발명의 일 실시예에 따른 수술도구 검출 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a surgical tool detection method according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시예에 따른 수술도구 검출 방법은 수술용 영상에서 수술도구를 검출하는 방법에 있어서, 상기 수술용 영상을 이용하여 상기 수술용 영상의 픽셀 정보를 표현하는 RGB 값 및 HSI 값 중의 적어도 하나를 포함하는 이미지 정보를 생성하는 단계; 상기 생성된 이미지 정보를 이용하여 상기 수술용 영상에서 상기 수술도구를 구분하는 단계; 및 상기 생성된 이미지 정보를 이용하여 상기 수술도구를 구분한 영상에서 상기 수술도구를 검사하는 단계;를 포함하여 구성될 수 있다.Referring to FIG. 3, in the method for detecting a surgical tool according to an embodiment of the present invention, in the method for detecting a surgical tool in a surgical image, using the surgical image, RGB representing pixel information of the surgical image is used. Generating image information comprising at least one of a value and an HSI value; Classifying the surgical tool in the surgical image by using the generated image information; And inspecting the surgical tool in an image of the surgical tool by using the generated image information.

먼저, 상기 수술용 영상은 상기 수술도구 및 수술부위를 표현하는 영상일 수 있다. 즉, 상기 수술용 영상이란 수술도구 및 수술부위를 표현하는 영상으로서 어떠한 촬영장치에 의하여 촬영된 영상인지를 불문하는 것이다. 특히, 상기 수술용 영상은 복강경(Laparoscope) 영상 및 내시경(endoscope) 영상 중 어느 하나일 수 있으나, 이에 제한되지 아니할 것이다.First, the surgical image may be an image representing the surgical tool and the surgical site. In other words, the surgical image is an image representing the surgical tool and the surgical site, regardless of what kind of image is taken by the imaging device. In particular, the surgical image may be any one of a laparoscope image and an endoscope image, but the present invention is not limited thereto.

다음으로, 상기 수술용 영상을 이용하여 상기 수술용 영상의 픽셀 정보를 표현하는 RGB 값 및 HSI 값 중의 적어도 하나를 포함하는 이미지 정보를 생성하는 단계(S310)는 제공된 수술용 영상을 이용하여 RGB 값으로 표현되는 영상 정보를 포함하는 이미지 정보를 생성하거나, 제공된 수술용 영상을 이용하여 HSI 값으로 표현되는 영상 정보를 포함하는 이미지 정보를 생성하거나, 상기 RGB 값 및 HSI 값을 모두 포함하는 이미지 정보가 생성될 수 있다. 여기에서 R은 빨간색(Red), G는 초록색(Green) 및 B는 파란색(Blue)을 표현하는 것으로 각각의 성분을 수치화하여 나타낸 것으로 수치 범위는 자유롭게 정할 수 있으며, 일반적으로 정규화(normalization)하여 0 내지 1 사이의 값을 가지도록 수치 범위를 정하거나, 0 내지 255 사이의 값을 가지도록 정할 수 있다. 또한, H는 색상(Hue), S는 채도(Saturation) 및 I는 명도(Intensity)를 표현하는 것으로, HSI 값은 RGB 값이 0 내지 1 사이의 값을 가질 때,

Figure 112009029022930-PAT00005
를 이용하여 계산될 수 있으며, RGB 값과 마찬가지로 수치 범위는 자유롭게 정할 수 있으나, 일반적으로 H는 0o 내지 360o의 각도(degree) 값으로 표현될 수 있으며, S는 하얀색이 100%인 0에서 하얀색이 전혀 섞이지 않은 1 사이의 값으로 표현될 수 있으며, I는 검은색인 0 내지 하얀색인 1의 값을 가지는 것으로 표현될 수 있다. 즉, H(색상)는 관측자에 의하여 인지되는 지배적인 색이고, S(채도)는 색의 순수도 또는 순수한 색이 흰 빛에 의해 희석된 정도이고, I(명도)는 색의 밝기의 척도에 해당한다. 더불어 상기 S에 대신하여 S를 수정한
Figure 112009029022930-PAT00006
을 사용할 수 있다.
Figure 112009029022930-PAT00007
Figure 112009029022930-PAT00008
으로 계산될 수 있을 것이다.Next, the generating of the image information including at least one of the RGB value and the HSI value representing the pixel information of the surgical image by using the surgical image (S310) using the provided surgical image RGB value Generating image information including the image information represented by or generating image information including the image information represented by the HSI value using the provided surgical image, or image information including both the RGB value and the HSI value Can be generated. Here, R is red, G is green, and B is blue, and each component is expressed numerically, and the numerical range can be freely defined. In general, it is normalized to 0 The numerical range may be set to have a value between 1 and 1, or may be set to have a value between 0 and 255. In addition, H represents Hue, S represents Saturation, and I represents Intensity. When the HSI value has an RGB value between 0 and 1,
Figure 112009029022930-PAT00005
It can be calculated using, and the numerical range can be set freely like the RGB value, but in general, H can be expressed as a degree value of 0 o to 360 o , and S is at 0 with 100% white color. White may be expressed as a value between 1 that is not mixed at all, and I may be expressed as having a value of 0, which is black, to 1, which is white. That is, H (color) is the dominant color perceived by the observer, S (saturation) is the purity of the color or the degree to which the pure color is diluted by white light, and I (brightness) is a measure of the brightness of the color. Corresponding. In addition to modifying S instead of S
Figure 112009029022930-PAT00006
Can be used.
Figure 112009029022930-PAT00007
silver
Figure 112009029022930-PAT00008
It can be calculated as

상기 이미지 정보를 생성하는 단계(S310)는 상기 수술용 영상에 대하여 노이즈(noise)를 제거하는 것을 더 포함하여 구성될 수 있다. 상기 노이즈의 제거는 블러링(Blurring)을 이용하거나 블러링을 대신하여 가우시안 필터(Gaussian Filter) 또는 평균화 필터(Averaging Filter)를 이용할 수 있을 것이다. 더불어 이와 유사한 효과를 나타내는 영상 처리를 모두 이용할 수 있음은 당업자에게 있어서 자명할 것이다.The generating of the image information (S310) may further include removing noise with respect to the surgical image. The noise may be removed by using blurring or by using a Gaussian filter or an averaging filter instead of blurring. In addition, it will be apparent to those skilled in the art that all image processing showing similar effects can be used.

도 4는 본 발명의 일 실시예에 따른 수술도구 검출 방법에서 RGB 값 및 HSI 값을 설명하기 위한 예시도이다.Figure 4 is an exemplary view for explaining the RGB value and HSI value in the surgical tool detection method according to an embodiment of the present invention.

도 4 및 도 3을 병행하여 참조하면, 본 발명의 일 실시예에 따른 수술도구 검출 방법에 따르면, 제공받은 수술용 영상(도 4(a))을 이용하여 RGB 값 또는 HSI 값으로 표현되는 이미지 정보를 생성할 수 있다. 즉, RGB 값 또는 HSI 값 전부를 이용하면 제공받은 수술용 영상(도 4(a))과 동일한 화면으로 표현될 수 있으며, HSI 값 중에서 H 값만을 이용하여 입력받은 수술용 영상을 표현하면 도 4(b)로 표현될 수 있으며, S 값만을 이용하여 복강경 화면을 표현하면 도 4(c)로 표현될 수 있을 것이다.Referring to FIGS. 4 and 3 in parallel, according to the method for detecting a surgical tool according to an embodiment of the present invention, an image represented by an RGB value or an HSI value using a provided surgical image (FIG. 4A). Information can be generated. That is, using all of the RGB value or the HSI value can be represented on the same screen as the provided surgical image (FIG. 4 (a)), and if the surgical image received using only the H value among the HSI values is represented, Fig. 4 It may be represented by (b), and if the laparoscopic screen is expressed using only the S value, it may be represented by FIG. 4 (c).

다음으로, 상기 생성된 이미지 정보를 이용하여 상기 수술용 영상에서 상기 수술도구를 구분하는 단계(S320)는 상기 수술용 영상에서 수술도구를 선택하는 단계(S321) 및 상기 수술용 영상에서 배경구역을 제거하는 단계(S322) 중 적어도 하나를 포함하여 구성될 수 있다. 즉, 상기 생성된 이미지 정보를 이용하여 상기 수술용 영상에서 상기 수술도구를 구분하는 단계(S320)는 상기 수술용 영상에서 수술도구를 선택하는 단계(S321)만을 포함하여 구성될 수 있으며, 상기 수술용 영상에서 배경구역을 제거하는 단계(S322)만을 포함하여 구성될 수 있고, 더불어 상기 수술용 영상에서 수술도구를 선택하는 단계(S321) 및 상기 수술용 영상에서 배경구역 을 제거하는 단계(S322)를 모두 포함하여 구성될 수 있다.Next, the step of classifying the surgical tool in the surgical image by using the generated image information (S320) selecting a surgical tool in the surgical image (S321) and the background area in the surgical image It may be configured to include at least one of the step (S322). That is, the step (S320) of distinguishing the surgical tool from the surgical image by using the generated image information may be configured to include only the step (S321) of selecting a surgical tool from the surgical image, the surgery It may be configured to include only the step (S322) to remove the background area from the image, and in addition to selecting a surgical tool in the surgical image (S321) and removing the background area from the surgical image (S322) It can be configured to include all.

여기에서, 상기 수술용 영상에서 수술도구를 선택하는 단계(S321)는 상기 HSI 값을 이용한

Figure 112009029022930-PAT00009
값 및
Figure 112009029022930-PAT00010
값 중의 어느 하나에 대하여 이진(binary)화를 수행하는 방법을 적용하여 상기 수술도구를 선택하는 것일 수 있다.Here, the step (S321) of selecting a surgical tool in the surgical image using the HSI value
Figure 112009029022930-PAT00009
Value and
Figure 112009029022930-PAT00010
The surgical tool may be selected by applying a method of performing binarization on any one of the values.

도 5는 본 발명의 일 실시예에 따른 수술도구 검출 방법에서

Figure 112009029022930-PAT00011
값 및
Figure 112009029022930-PAT00012
값에 대하여 이진화를 수행하는 방법을 설명하기 위한 예시도이다.5 is a surgical tool detection method according to an embodiment of the present invention
Figure 112009029022930-PAT00011
Value and
Figure 112009029022930-PAT00012
An example diagram for explaining a method of performing binarization on a value.

도 5 및 도 3을 병행하여 참조하면, 제공받은 수술용 영상을 HSI 값으로 표현한 경우에

Figure 112009029022930-PAT00013
값으로 표현되는 영상(도 5(a))을 고려해보면 수술도구를 제외한 배경구역은 흰색 구역으로 표현되는 것을 알 수 있고,
Figure 112009029022930-PAT00014
값으로 표현되는 영상(도 5(b))을 고려해보면 수술도구를 제외한 배경구역은 검은색 구역으로 표현되는 것을 알 수 있다. 이와 같은 특징을 고려하여 각 픽셀의
Figure 112009029022930-PAT00015
값을 그래프로 표현하면 도 5(c)와 같은 그래프를 구성할 수 있다. 이 경우에 수술도구는 0 내지 0.4 사이의
Figure 112009029022930-PAT00016
값을 가지며, 수술도구를 제외한 배경구역은 0.9 내지 1 사이의
Figure 112009029022930-PAT00017
값을 가짐을 알 수 있으므로, 상기 그래프(도 5(c))에서 수술도구를 제외한 구역은 높은
Figure 112009029022930-PAT00018
값을 갖는 특징을 이용하여, 두 개의 그룹으로 분리하기 위한 임계치를 찾아내는 이진화를 수행하는 방법을 적용할 수 있을 것이다. 이진화 방법은 다양하게 존재할 수 있음은 당업자에게 있어서 자명할 것이다. 여기에서는 이진화 방법 중의 하나인 오추 알고리즘(Otsu Algorithm)을 적용하여 도 5(c)에서 화살표로 표시되는 임계치(Threshold)를 얻을 수 있다. 상기 얻어진 임계치를 이용하여 수술도구를 선택할 수 있을 것이다. 도 5(d)는
Figure 112009029022930-PAT00019
영상에 대하여 이진화를 수행하는 방법을 적용한 것으로서,
Figure 112009029022930-PAT00020
영상이 임계치보다 큰 배경구역을 초록색으로 표현한 것이다.Referring to FIG. 5 and FIG. 3 in parallel, when the provided surgical image is expressed as an HSI value
Figure 112009029022930-PAT00013
Considering the image represented by the value (FIG. 5 (a)), it can be seen that the background area except the surgical tool is represented by the white area.
Figure 112009029022930-PAT00014
Considering the image represented by the value (FIG. 5 (b)), it can be seen that the background area except the surgical tool is represented by the black area. Considering these features, each pixel
Figure 112009029022930-PAT00015
If the value is expressed as a graph, a graph as shown in FIG. 5 (c) can be configured. In this case the surgical tool is between 0 and 0.4
Figure 112009029022930-PAT00016
Value and the background area excluding surgical instruments is between 0.9 and 1.
Figure 112009029022930-PAT00017
Since it can be seen that the value, the area except the surgical instruments in the graph (Fig. 5 (c)) is high
Figure 112009029022930-PAT00018
Using a feature with a value, one could apply a method of performing binarization to find a threshold for splitting into two groups. It will be apparent to those skilled in the art that there may be a variety of binarization methods. In this case, a threshold indicated by an arrow in FIG. 5C may be obtained by applying an Otsu algorithm, which is one of binarization methods. The obtained threshold may be used to select a surgical instrument. 5 (d) is
Figure 112009029022930-PAT00019
As a method of performing binarization on an image,
Figure 112009029022930-PAT00020
The background area where the image is larger than the threshold is expressed in green.

여기에서, 상기 수술용 영상에서 수술도구를 선택하는 단계(S321)는 상기 RGB 값의 R, G 및 B 간의 차이값을 이용하여 이진(binary)화를 수행하는 방법을 적용하여 상기 수술도구를 선택하는 것일 수 있다.Here, in the selecting of the surgical tool in the surgical image (S321), the surgical tool is selected by applying a method of performing binarization using a difference value between R, G, and B of the RGB value. It may be.

도 6은 본 발명의 일 실시예에 따른 수술도구 검출 방법에서 R, G 및 B 간의 차이값을 이용하여 이진(binary)화를 수행하는 방법을 설명하기 위한 예시도이다.6 is an exemplary view for explaining a method of performing binarization using difference values between R, G, and B in a surgical tool detection method according to an embodiment of the present invention.

도 6 및 도 3을 병행하여 참조하면, 수술도구를 검출하기 위하여 수술도구의 일반적인 특징을 이용하는 것으로서, 일반적으로 수술도구의 끝부분은 금속 성분으로 구성되며, 수술도구의 자루부분은 검은 색으로 구성되므로 R 값, G 값 및 B 값 각각은 서로 같거나 비슷한 값을 갖는 특징을 이용할 수 있다. 도 6(a)는

Figure 112009029022930-PAT00021
값에 대하여 이진화를 수행한 결과를 이용하여 상기 수술용 영상에서 각 픽셀의 R, G 및 B 간의 차이값의 한 형태인 차이평균(
Figure 112009029022930-PAT00022
) 값을 색 분포를 이용하여 표현한 것이다. 그러나
Figure 112009029022930-PAT00023
값에 대하여 이진화를 수행한 결과를 이용하지 아니하고, 상기 이미지 정보를 생성하는 단계(S310)에서 생성된 이미지 정보를 이용하는 것도 가능함은 당업자에게 있어서 자명할 것이다. 붉은 색으로 표현된 영역은 RGB 값의 차이평균(
Figure 112009029022930-PAT00024
) 값이 큰 것을 나타내며, 파란 색으로 표현된 영역은 RGB 값의 차이평균(
Figure 112009029022930-PAT00025
) 값이 작은 것을 나타낸다. 즉, 수술도구 영역은 파란 색으로 표현되고 있는 것을 알 수 있다. RGB 값의 차이평균(
Figure 112009029022930-PAT00026
) 값을 계산하기 위하여,
Figure 112009029022930-PAT00027
와 같은 계산식을 적용하였다. 그러나 상기 RGB 값의 R, G 및 B 간의 차이값을 이용하는 방법에는 다양한 형태가 존재할 수 있으며, 상기 RGB 값의 R, G 및 B 간의 차이값을 이용하는 개념이 동일하다면, 당업자에게 있어서 R, G 및 B 간의 차이값을 이용하는 다양한 형태 는 모두 동일한 목적과 효과를 나타냄을 알 수 있을 것이다. 도 6(b)는 RGB 값의 차이평균(
Figure 112009029022930-PAT00028
) 값에 대하여 이진(binary)화를 수행하는 방법 중의 하나인 오추 알고리즘(Otsu Algorithm)을 적용한 그래프이다. 상술한 바와 같이 이진화를 수행하는 방법 중의 하나인 오추 알고리즘에 의하여 수술도구 영역을 구분하기 위해 최적의 임계치(Threshold)를 찾고 이를 경계로 하여 RGB 값의 차이평균(
Figure 112009029022930-PAT00029
) 값이 작은 영역인 파란 색으로 표현된 영역을 검출할 수 있을 것이다. 여기에서 이진화를 수행하는 방법은 오추 알고리즘이 아닌 다양한 방법도 가능할 것이다.Referring to Figure 6 and 3 in parallel, to use the general features of the surgical tool to detect the surgical tool, the end of the surgical tool is generally composed of a metal component, the bag of the surgical tool is composed of black Therefore, each of the R, G, and B values may use features having the same or similar values. 6 (a) is
Figure 112009029022930-PAT00021
Using the result of performing binarization on the value, the difference average, which is a form of difference value between R, G, and B of each pixel in the surgical image (
Figure 112009029022930-PAT00022
) Values are expressed using color distribution. But
Figure 112009029022930-PAT00023
It will be apparent to those skilled in the art that it is possible to use the image information generated in the step S310 of generating the image information without using the result of performing the binarization on the value. The red area shows the difference average of RGB values (
Figure 112009029022930-PAT00024
) Indicates a large value, and the area represented in blue is the difference average of the RGB values (
Figure 112009029022930-PAT00025
) Indicates a small value. In other words, it can be seen that the surgical tool region is represented in blue. Mean difference of RGB values (
Figure 112009029022930-PAT00026
) To calculate the value,
Figure 112009029022930-PAT00027
The following formula was applied. However, various methods may exist in a method of using the difference between R, G, and B of the RGB values, and if the concept of using the difference between R, G, and B of the RGB values is the same, those skilled in the art will appreciate R, G, and It will be appreciated that the various forms using the difference between B all serve the same purpose and effect. 6 (b) shows the difference average of RGB values (
Figure 112009029022930-PAT00028
This graph is applied to Otsu Algorithm, which is one of the methods of performing binarization on. As described above, the optimal threshold is found to distinguish the surgical instrument region by the Ochu algorithm, which is one of the methods for performing binarization, and the difference average of RGB values is defined as the boundary.
Figure 112009029022930-PAT00029
The area represented by the blue color, which is a small value of), may be detected. Here, the binarization may be performed in various ways other than the Otsu algorithm.

여기에서, 상기 수술용 영상에서 수술도구를 선택하는 단계(S321)는 상기 RGB 값을 이용한 RGB 표준편차값(standard deviation)을 이용하여 이진(binary)화를 수행하는 방법을 적용하여 상기 수술도구를 선택하는 것일 수 있다.Here, in the selecting of the surgical tool in the surgical image (S321), the surgical tool is applied by applying a method of performing binarization using an RGB standard deviation value using the RGB value. It may be to choose.

도 7은 본 발명의 일 실시예에 따른 수술도구 검출 방법에서 RGB 표준편차값(standard deviation)을 이용하여 이진(binary)화를 수행하는 방법을 설명하기 위한 예시도이다.FIG. 7 is an exemplary diagram for describing a method of performing binarization using a standard deviation of RGB in a surgical tool detection method according to an exemplary embodiment of the present invention.

도 7 및 도 3을 병행하여 참조하면, 상술한 바와 같이 수술도구를 검출하기 위하여 수술도구의 R 값, G 값 및 B 값 각각은 서로 같거나 비슷한 값을 갖는 특징을 이용하는 것으로서, 도 7(a)는 상기 생성된 이미지 정보를 이용하여 상기 수술용 영상에서 각 픽셀의 RGB 표준편차값(

Figure 112009029022930-PAT00030
)과 최대 RGB 표준편차 값(
Figure 112009029022930-PAT00031
) 간의 비율값(
Figure 112009029022930-PAT00032
)을 색 분포를 이용하여 표현한 것이다. 붉은 색으로 표현된 영역은 비율값(
Figure 112009029022930-PAT00033
)이 큰 것을 나타내며, 파란 색으로 표현된 영역은 비율값(
Figure 112009029022930-PAT00034
)이 작은 것을 나타낸다. 즉, 수술도구 영역은 파란 색으로 표현되고 있는 것을 알 수 있다. RGB 표준편차값(
Figure 112009029022930-PAT00035
)은
Figure 112009029022930-PAT00036
로 계산되며, 최대 RGB 표준편차값(
Figure 112009029022930-PAT00037
)은 상기 수술용 영상 내에서 가장 큰 RGB 표준편차값(
Figure 112009029022930-PAT00038
)을 말하는 것이다.Referring to FIG. 7 and FIG. 3 in parallel, in order to detect a surgical tool as described above, each of the R, G and B values of the surgical tool uses a feature having the same or similar values, as shown in FIG. ) Is an RGB standard deviation value of each pixel in the surgical image using the generated image information.
Figure 112009029022930-PAT00030
) And the maximum RGB standard deviation value (
Figure 112009029022930-PAT00031
Ratio between
Figure 112009029022930-PAT00032
) Is expressed using color distribution. The area represented in red is the ratio value (
Figure 112009029022930-PAT00033
) Is large, and the area shown in blue is the ratio value (
Figure 112009029022930-PAT00034
) Is small. In other words, it can be seen that the surgical tool region is represented in blue. RGB standard deviation value (
Figure 112009029022930-PAT00035
)silver
Figure 112009029022930-PAT00036
Calculated using the maximum RGB standard deviation (
Figure 112009029022930-PAT00037
) Is the largest RGB standard deviation value () in the surgical image.
Figure 112009029022930-PAT00038
).

도 7(b)는 RGB 표준편차값(standard deviation)과 최대 RGB 표준편차값 간의 비율값(

Figure 112009029022930-PAT00039
)에 대하여 이진(binary)화를 수행하는 방법 을 적용한 것으로서, 비율값(
Figure 112009029022930-PAT00040
)이 임계치보다 큰 배경영역을 초록색으로 표현한 것이다. 도 7(c)는 이진화를 수행한 후의 결과를 RGB 표준편차값(standard deviation)과 최대 RGB 표준편차값 간의 비율값(
Figure 112009029022930-PAT00041
)으로 다시 표현한 것으로 임계치를 0.5로 설정하여 이 진화를 수행한 후의 결과이다. 즉, RGB 표준편차값(standard deviation)과 최대 RGB 표준편차값 간의 비율값(
Figure 112009029022930-PAT00042
)에 대하여 이진(binary)화를 수행하면 수술용 영상에서 수술도구를 효율적으로 선택할 수 있을 것이다. 여기에서, 상기 임계치로 0.5가 아닌 다른 값을 적용할 수 있음은 자명할 것이다.7 (b) shows the ratio value between the RGB standard deviation value and the maximum RGB standard deviation value (
Figure 112009029022930-PAT00039
The method of performing binarization on) is applied.
Figure 112009029022930-PAT00040
) Represents the background area larger than the threshold in green. 7 (c) shows the result after performing binarization and shows the ratio value between the RGB standard deviation value and the maximum RGB standard deviation value (
Figure 112009029022930-PAT00041
This is the result after this evolution with the threshold set to 0.5. That is, the ratio between the RGB standard deviation and the maximum RGB standard deviation value (
Figure 112009029022930-PAT00042
Performing binarization on) will allow efficient selection of surgical instruments in surgical images. Here, it will be apparent that a value other than 0.5 may be applied as the threshold.

더불어, RGB 표준편차값(standard deviation)을 이용하여 이진(binary)화를 수행하는 방법은 RGB 표준편차값(standard deviation)과 최대 RGB 표준편차값 간의 비율값 및 상기 HSI 값 중의 S값의 합에 대하여 이진(binary)화를 수행하는 것일 수 있다. 이것은 상술한 방법에서 S값을 추가로 합하여 이진화를 수행하는 것으로서, 수술도구 구역과 배경구역의 차이를 보다 크게 할 수 있는 것으로 이진화를 통하여 수술도구 구역과 배경구역을 보다 명확하게 구분할 수 있는 것이다. 여기에서 S값을 이용하는 것을 대신하여 상술한

Figure 112009029022930-PAT00043
값을 이용할 수도 있을 것이다.
Figure 112009029022930-PAT00044
값은
Figure 112009029022930-PAT00045
으로 계산될 수 있을 것이다. 상술한 RGB 표준편차값을 이용하여 이진화하는 방법 외에도 다양하게 변형된 RGB 표준편차값을 이용하는 이진화 방법이 있음은 당업자에게 있어서 자명할 것이다.In addition, a method of performing binarization using an RGB standard deviation may be performed by adding a ratio value between an RGB standard deviation value and a maximum RGB standard deviation value and an S value in the HSI value. It may be to perform binarization (binary) for. This is to perform the binarization by additionally adding the S value in the above-described method, so that the difference between the surgical tool zone and the background zone can be made larger, so that the surgical tool zone and the background zone can be more clearly distinguished through the binarization. Instead of using the S value here,
Figure 112009029022930-PAT00043
You can also use the value.
Figure 112009029022930-PAT00044
The value is
Figure 112009029022930-PAT00045
It can be calculated as It will be apparent to those skilled in the art that there are binarization methods using various modified RGB standard deviation values in addition to the binarization method using the above-described RGB standard deviation values.

여기에서, 상기 수술용 영상에서 배경구역을 제거하는 단계(S322)는 상기 RGB 값을 이용하는 피부색 검출(Skin Color Detection) 방법을 적용하여 배경구역을 제거하는 것일 수 있다.Here, the step of removing the background area from the surgical image (S322) may be to remove the background area by applying a skin color detection method using the RGB value.

도 8은 본 발명의 일 실시예에 따른 수술도구 검출 방법에서 피부색 검출 방 법을 설명하기 위한 예시도이다.8 is an exemplary view for explaining a skin color detection method in the surgical tool detection method according to an embodiment of the present invention.

도 8 및 도 3을 병행하여 참조하면, 상기 제공받은 수술용 영상은 수술도구 구역과 수술도구를 제외한 배경구역으로 구분할 수 있으며, 이 경우에 수술도구를 제외한 배경구역은 피부색으로 표현될 수 있음을 알 수 있다. 따라서 제공받은 수술용 영상에 피부색 검출(Skin Color Detection) 방법을 적용하면 수술도구를 제외한 배경구역을 제거할 수 있음을 알 수 있다. 도 8(a)는 상기 수술용 영상에서 수술도구를 선택하는 단계(S321)를 적용한 영상을 표현하고 있다. 그러나 1차적으로 상기 수술용 영상에서 수술도구를 선택하는 단계(S321)를 적용하지 아니한 영상을 이용할 수도 있을 것이다. 도 8(b)는 피부색 검출 방법으로서 RGB 값에 대하여 일반적으로 피부색을 표현하는 RGB 값의 범위를 설정하여 피부색을 검출하는 방법을 이용하여 피부색으로 검출된 구역을 분홍색으로 표현한 것으로서, 여기서는

Figure 112009029022930-PAT00046
의 조건을 만족하는 픽셀을 분홍색 영역으로 표현한 것이다.("A Survey on Pixel-Based Skin Color Detection Techniques", by Vladimir Vezhnevets, Vassili Sazonov, Alla Andreeva) 즉, 수술도구를 제외한 배경구역은 피부색 검출 방법을 이용하여 제거할 수 있을 것이다. 더불어, 상기 수술용 영상에서 수술도구를 선택하는 단계(S321)를 적용하는 것과 상기 RGB 값을 이용하는 피부색 검출(Skin Color Detection) 방법을 적용하는 것을 동시에 적용하면 보다 향상된 수술도구를 제외한 배경구역 제거의 효과를 거둘 수 있을 것이다.Referring to FIG. 8 and FIG. 3 in parallel, the provided surgical image may be divided into a surgical tool zone and a background zone except for the surgical tool, and in this case, the background zone except for the surgical tool may be represented by a skin color. Able to know. Therefore, it can be seen that applying the skin color detection method to the provided surgical image can remove the background area except for the surgical tool. 8 (a) represents an image to which the step (S321) of selecting a surgical tool in the surgical image is applied. However, it may be possible to use an image that does not apply the step (S321) of selecting the surgical tool from the surgical image first. FIG. 8 (b) shows a skin color detection method in which pink is expressed as a skin color using a method of detecting skin color by setting a range of RGB values representing skin color in general with respect to RGB values.
Figure 112009029022930-PAT00046
Pixels that satisfy the conditions of the image are expressed as pink areas ("A Survey on Pixel-Based Skin Color Detection Techniques", by Vladimir Vezhnevets, Vassili Sazonov, Alla Andreeva). Can be removed. In addition, applying the step of selecting a surgical tool in the surgical image (S321) and applying the skin color detection method using the RGB value at the same time to remove the background area except for improved surgical tools It will work.

여기에서, 상기 수술용 영상에서 배경구역을 제거하는 단계(S322)는 상기 RGB 값을 이용하는 붉은색 검출(Reddish Color Detection) 방법을 적용하여 배경구역을 제거하는 것일 수 있다.Here, the step of removing the background area from the surgical image (S322) may be to remove the background area by applying a red color detection method using the RGB value.

도 9는 본 발명의 일 실시예에 따른 수술도구 검출 방법에서 붉은색 검출 방법을 설명하기 위한 예시도이다.9 is an exemplary view for explaining a red color detection method in the surgical tool detection method according to an embodiment of the present invention.

도 9 및 도 3을 병행하여 참조하면, 붉은색 검출(Reddish Color Detection) 방법은 피부색 검출(Skin color detection) 방법과 비슷한 배경 이론을 가지고 있다고 볼 수 있다. 수술용 영상에서 수술도구를 제외한 배경구역은 대부분 장기(분홍색), 피(빨간색), 장기표면의 지방(노란색) 으로 구성되어 있으며, 이 3가지 색은 R 값이 G 값 및 B 값보다 훨씬 크다는 특징이 있다.9 and 3, the red color detection method has a background theory similar to the skin color detection method. In the surgical images, most of the background areas except for the surgical instruments consist of organs (pink), blood (red), and fat (yellow) on the surface of organs. These three colors indicate that R values are much higher than G and B values. There is a characteristic.

도 9(a)는 상기 수술용 영상에서 수술도구를 선택하는 단계(S321)를 적용한 영상을 표현하고 있다. 그러나 1차적으로 상기 수술용 영상에서 수술도구를 선택하는 단계(S321)를 적용하지 아니한 영상을 이용할 수도 있을 것이다. 도 9(b)는 붉은색 검출 방법으로서 RGB 값에 대하여 일반적으로 장기, 피 및 장기 표면의 지방을 표현하는 RGB 값의 범위를 설정하여 붉은색으로 검출된 구역을 분홍색으로 표현한 것으로서, 여기서는

Figure 112009029022930-PAT00047
의 조건을 만족하는 픽셀을 분홍 색 영역으로 표현한 것이다. 즉, 상기와 같은 붉은색 검출 방법을 만족할 경우도 수술도구 구역이 아닌 배경구역이라고 분리할 수 있을 것이다. 상기 수식 조건에서 2배의 경우를 이용하였으나, 2배의 경우에 한정되는 것은 아니므로 다양한 값이 이용될 수 있을 것이다.9 (a) represents an image to which the step (S321) of selecting a surgical tool in the surgical image is applied. However, it may be possible to use an image that does not apply the step (S321) of selecting the surgical tool from the surgical image first. FIG. 9 (b) shows a red color detection method in which a red color detection area is expressed in pink by setting a range of RGB values representing fats of organs, blood, and organ surface with respect to RGB values.
Figure 112009029022930-PAT00047
The pixel that satisfies the condition is expressed in pink area. That is, even if the red detection method as described above is satisfied, it may be separated into a background region rather than a surgical instrument region. Although the case of 2 times is used in the above formula condition, various values may be used since the case is not limited to 2 times.

여기에서, 상기 수술용 영상에서 배경구역을 제거하는 단계(S322)는 상기 RGB 값의 R, G 및 B에서 최소값과 최대값을 비교하는 최소 최대 비교(min max RGB Comparison) 방법을 적용하여 배경구역을 제거하는 것일 수 있다.Here, the step of removing the background area from the surgical image (S322) is a background area by applying a min max RGB Comparison method that compares the minimum value and the maximum value in the R, G and B of the RGB value It may be to remove the.

도 10은 본 발명의 일 실시예에 따른 수술도구 검출 방법에서 R값, G값 및 B값에서 최소값과 최대값을 비교하는 최소 최대 비교 방법을 설명하기 위한 예시도이다.10 is an exemplary view for explaining a minimum maximum comparison method for comparing the minimum value and the maximum value in the R, G and B values in the surgical tool detection method according to an embodiment of the present invention.

도 10 및 도 3을 병행하여 참조하면, 상술한 바와 같이 수술도구를 검출하기 위하여 수술도구의 R 값, G 값 및 B 값 각각은 서로 같거나 비슷한 값을 갖는 특징을 이용하는 것으로서, 수술도구 구역에 속하는 픽셀의

Figure 112009029022930-PAT00048
값과
Figure 112009029022930-PAT00049
값은 서로 비슷한 값을 가진다는 특징을 이용하는 것이다. 도 10(a)는 상기 수술용 영상에서 수술도구를 선택하는 단계(S321)를 적용한 영상을 표현하고 있다. 그러나 1차적으로 상기 수술용 영상에서 수술도구를 선택하는 단계(S321)를 적용하지 아니한 영상을 이용할 수도 있을 것이다. 도 10(b)은 상기 RGB 값의 R, G 및 B에서 최소값과 최대값을 비교하는 최소 최대 비교(min max RGB Comparison) 방법을 적용한 것으로서
Figure 112009029022930-PAT00050
인 경우에는 분홍색으로 표현하고 있다. 결국, 분홍색으로 표현된 영역은 배경구역으로 판단할 수 있는 것이다. 또한, 여기에서,
Figure 112009029022930-PAT00051
값이
Figure 112009029022930-PAT00052
값의 2배 이상인 영역을 배경구역으로 판단하였으나, 배율은 상황에 따라 다르게 적용할 수 있을 것이다.Referring to FIG. 10 and FIG. 3 in parallel, in order to detect a surgical tool as described above, each of the R, G and B values of the surgical tool uses features having the same or similar values to each other. Of belonging pixels
Figure 112009029022930-PAT00048
Value and
Figure 112009029022930-PAT00049
Values use the feature that they have similar values. 10 (a) represents an image to which the step (S321) of selecting a surgical tool in the surgical image is applied. However, it may be possible to use an image that does not apply the step (S321) of selecting the surgical tool from the surgical image first. FIG. 10 (b) illustrates a method of applying a min max RGB comparison method for comparing the minimum and maximum values of R, G, and B of the RGB values.
Figure 112009029022930-PAT00050
If is expressed in pink. After all, the area represented by pink can be judged as the background area. Also, here,
Figure 112009029022930-PAT00051
Value is
Figure 112009029022930-PAT00052
The area that is more than twice the value is determined as the background area, but the magnification may be applied differently depending on the situation.

다음으로, 상기 생성된 이미지 정보를 이용하여 상기 수술도구를 구분한 영상에서 상기 수술도구를 검사하는 단계(S330)는 상기 수술도구를 구분한 영상에 팽창(dilation), 침식(erosion), 열림(opening) 및 닫힘(closing) 중의 적어도 하나의 영상 처리를 적용하는 방법 및 상기 수술도구가 상기 수술용 영상의 경계를 지나는 조건을 적용하는 방법 중 적어도 하나를 이용하는 것일 수 있다.Next, the step (S330) of inspecting the surgical tool in the image divided by the surgical tool by using the generated image information (dilation), erosion, opening ( At least one of the method of applying the image processing of at least one of the opening (closing) and the closing (closing) and the method of applying a condition that crosses the boundary of the surgical image may be used.

여기에서, 상기 수술도구를 구분한 영상에 팽창(dilation), 침식(erosion), 열림(opening) 및 닫힘(closing) 중의 적어도 하나의 영상 처리를 적용하는 방법은 상기 생성된 이미지 정보를 이용하여 상기 수술용 영상에서 상기 수술도구를 구분하는 단계(S320)를 적용한 후에 수술도구 구역에 존재할 수 있는 오류를 보완하기 위한 영상처리를 적용하는 것일 수 있다.Here, the method of applying at least one image processing of dilation, erosion, opening and closing to the image divided by the surgical instruments using the generated image information After applying the step S320 of distinguishing the surgical tool from the surgical image may be to apply an image processing to compensate for errors that may exist in the surgical tool zone.

도 11은 본 발명의 일 실시예에 따른 수술도구 검출 방법에서 팽창, 침식, 열림 및 닫힘 등의 영상 처리를 설명하기 위한 예시도이다.11 is an exemplary view for explaining image processing such as expansion, erosion, opening and closing in the surgical tool detection method according to an embodiment of the present invention.

도 11를 참조하면, 도 11(a)는 상기 생성된 이미지 정보를 이용하여 상기 수술용 영상에서 상기 수술도구를 구분하는 단계(S320)에 의하여 이진화된 영상으로 서 수술도구 영역을 흰색으로 표현하고, 수술도구를 제외한 배경구역을 검은색으로 표현한 영상이다. 상기 영상을 통하여 약간의 노이즈 등에 의한 오류가 아직까지 제거되지 않고 남아 있는 것을 알 수 있다. 도 11(a)와 같은 영상에 팽창(dilation), 침식(erosion), 열림(opening) 및 닫힘(closing) 중의 적어도 하나의 영상 처리를 이용하면 도 11(b)와 같은 영상을 얻을 수 있을 것이다. 더불어, 영상 처리에는 수술도구의 영역에 생성된 홀(hole)을 채워 넣는 방식의 영상처리도 이용될 수 있을 것이다. 상기와 같은 추가적인 영상 처리를 적용하여 수술도구를 오류 없이 검출할 수 있음을 알 수 있을 것이다.Referring to FIG. 11, FIG. 11 (a) represents a surgical tool region in white as a binarized image by the step (S320) of distinguishing the surgical tool from the surgical image by using the generated image information. This is a black image of the background area except for surgical instruments. It can be seen from the image that an error due to some noise or the like has not yet been removed. By using at least one image processing among dilation, erosion, opening and closing in an image as shown in FIG. 11 (a), an image as shown in FIG. 11 (b) may be obtained. . In addition, the image processing method of filling a hole (hole) generated in the region of the surgical tool may be used for the image processing. It will be appreciated that surgical tools can be detected without error by applying such additional image processing.

여기에서, 상기 수술도구가 상기 수술용 영상의 경계를 지나는 조건을 적용하는 방법은 상기 생성된 이미지 정보를 이용하여 상기 수술용 영상에서 상기 수술도구를 구분하는 단계(S320)를 적용한 후에 수술도구 구역에 존재할 수 있는 오류를 보완하기 위한 처리를 적용하는 것일 수 있다. 즉, 수술도구가 필연적으로 수술용 영상의 밖까지 존재하는 특징을 이용하여 수술도구를 오류 없이 검출하기 위한 것이다.Here, the method for applying the condition that the surgical tool crosses the boundary of the surgical image is a surgical tool zone after applying the step (S320) to distinguish the surgical tool from the surgical image using the generated image information It may be to apply a process to compensate for errors that may exist in. In other words, the surgical tool is inevitably used to detect the surgical tool without error by using a feature existing to the outside of the surgical image.

추가적으로, 상기 생성된 이미지 정보를 이용하여 상기 수술도구를 구분한 영상에서 상기 수술도구를 검사하는 단계(S330)에서 수술도구를 검출하였으나 일반적인 수술도구의 크기에 비하여 현저히 작은 경우에는 수술도구로 검출하지 아니하는 방법을 추가적으로 적용할 수도 있을 것이다.In addition, the surgical tool was detected in the step S330 of inspecting the surgical tool from the image of the surgical tool using the generated image information, but not significantly smaller than the size of the general surgical tool. Another method may be applied.

도 12는 본 발명의 일 실시예에 따른 수술도구 검출 방법의 수행 결과를 설명하기 위한 예시도이다.12 is an exemplary view for explaining a result of performing a surgical tool detection method according to an embodiment of the present invention.

도 12를 참조하면, 도 12(a)의 제공받은 수술용 영상에 대하여 본 발명의 일 실시예에 따른 수술도구 검출 방법을 수행한 결과를 도 12(b)에 표현하고 있다. 도 12(b)에서 수술도구 경계를 빨간 색의 선으로 표현하고 있음을 볼 수 있는데, 이는 상기 수술도구 검출 방법의 수행 결과에 따른 수술도구 검출 위치를 표현하고 있는 것이다. 즉, 도 12(a)의 제공받은 수술용 영상에 수술도구 검출 방법을 수행한 결과를 동시에 도 12(b)에 표현한 것이다. 결국, 본 발명에 따른 수술도구 검출 방법에 따르면 정확하게 수술도구를 검출할 수 있음을 알려주고 있는 것이다.Referring to FIG. 12, a result of performing a surgical tool detection method according to an exemplary embodiment of the present invention with respect to the surgical image provided in FIG. 12 (a) is represented in FIG. 12 (b). In Figure 12 (b) it can be seen that the boundary of the surgical tool is represented by a red line, which represents the position of the surgical tool detection according to the result of performing the surgical tool detection method. That is, the results of performing the surgical tool detection method on the provided surgical image of Figure 12 (a) is shown in Figure 12 (b) at the same time. After all, according to the surgical tool detection method according to the present invention is to inform that the surgical tool can be detected accurately.

도 13은 본 발명의 일 실시예에 따른 수술 시스템을 설명하기 위한 블록도이다.13 is a block diagram illustrating a surgical system according to an embodiment of the present invention.

도 13을 참조하면, 본 발명의 일 실시예에 따른 수술 시스템은 수술용 영상을 이용한 수술 시스템에 있어서, 수술도구 및 상기 수술도구를 제어하기 위한 수술도구 제어기를 포함하는 수술 장치부; 상기 수술도구 및 수술부위에 대한 수술용 영상을 생성하기 위한 촬영부; 상기 촬영부로부터 수술용 영상을 제공받아 출력하기 위한 디스플레이부; 상기 촬영부로부터 수술용 영상을 제공받아 상기 수술용 영상에서 수술도구를 검출하기 위한 검출부; 및 상기 검출부의 상기 수술도구 검출 결과를 이용하여 상기 촬영부의 촬영 위치를 제어하기 위한 촬영 위치 제어부;를 포함하여 구성될 수 있다.Referring to Figure 13, the surgical system according to an embodiment of the present invention is a surgical system using a surgical image, a surgical device unit including a surgical tool and a surgical tool controller for controlling the surgical tool; A photographing unit for generating a surgical image for the surgical tool and the surgical site; A display unit for receiving and outputting a surgical image from the photographing unit; A detection unit for receiving a surgical image from the photographing unit and detecting a surgical tool in the surgical image; And a photographing position controller for controlling a photographing position of the photographing unit by using the detection result of the surgical tool of the detecting unit.

먼저, 수술도구 및 상기 수술도구를 제어하기 위한 수술도구 제어기를 포함하는 수술 장치부(1310)는 수술자에 의하여 수술도구를 제어하기 위한 명령을 입력받고, 상기 명령을 수술도구에 전달하여 수술자의 의도에 따라 수술을 시행할 수 있는 장치일 수 있다. 수술도구와 수술도구를 제어하기 위한 수술도구 제어부로 일반적으로 구성되며 추가적인 구성성분이 포함될 수 있음은 당업자에게 있어서 자명할 것이다.First, a surgical device unit 1310 including a surgical tool and a surgical tool controller for controlling the surgical tool receives a command for controlling the surgical tool by the operator, and transfers the command to the surgical tool to the operator's intention. It may be a device that can perform the operation according to. It will be apparent to those skilled in the art that the surgical tool and the surgical tool control unit for controlling the surgical tool are generally configured and additional components may be included.

다음으로, 상기 수술도구 및 수술부위에 대한 수술용 영상을 생성하기 위한 촬영부(1320)는 수술도구 및 수술부위를 촬영할 수 있는 렌즈와 빛을 방출할 수 있는 조명을 포함하여 구성될 수 있다. 즉, 조명을 통하여 원하는 위치에 빛을 비추게 되면 원하는 위치로부터 반사되는 빛을 활용하여 렌즈로부터 수술도구 및 수술부위를 촬영한 수술용 영상을 획득할 수 있을 것이다. 또한, 상기 촬영부(1320)에서 촬영되는 수술용 영상은 2차원 영상 및 3차원 영상 중 어느 하나일 수 있다.Next, the photographing unit 1320 for generating a surgical image for the surgical tool and the surgical site may be configured to include a lens and a light that can emit light to photograph the surgical tool and the surgical site. That is, when the light shines at the desired position through the illumination, it will be possible to obtain a surgical image of the surgical tool and the surgical site by using the light reflected from the desired position. In addition, the surgical image photographed by the photographing unit 1320 may be any one of a two-dimensional image and a three-dimensional image.

다음으로, 상기 촬영부(1320)로부터 수술용 영상을 제공받아 출력하기 위한 디스플레이부(1330)는 상기 촬영부의 렌즈를 통하여 입력받은 수술용 영상을 수술자가 시각으로 인식할 수 있도록 모니터 등의 장치를 통하여 출력하는 장치일 수 있다. 모니터 이외에도 스크린으로 구성된 디스플레이 장치일 수 있다.Next, the display unit 1330 for receiving and outputting a surgical image from the photographing unit 1320 may provide a device such as a monitor so that the operator may recognize the surgical image received through the lens of the photographing unit. It may be a device for outputting through. In addition to the monitor may be a display device consisting of a screen.

다음으로, 상기 촬영부(1320)로부터 수술용 영상을 제공받아 상기 수술용 영상에서 수술도구를 검출하기 위한 검출부(1340)는 상기 수술용 영상을 이용하여 상기 수술용 영상의 픽셀 정보를 표현하는 RGB 값 및 HSI 값 중의 적어도 하나를 포함하는 이미지 정보를 생성하는 단계, 상기 생성된 이미지 정보를 이용하여 상기 수술용 영상에서 상기 수술도구를 구분하는 단계 및 상기 생성된 이미지 정보를 이용하여 상기 수술도구를 구분한 영상에서 상기 수술도구를 검사하는 단계를 포함하여 구성되는 수술도구 검출 방법을 수행하는 것일 수 있다.Next, a detection unit 1340 for receiving a surgical image from the photographing unit 1320 and detecting a surgical tool in the surgical image is an RGB for representing pixel information of the surgical image by using the surgical image. Generating image information including at least one of a value and an HSI value, separating the surgical tool from the surgical image using the generated image information, and generating the surgical tool using the generated image information. It may be to perform a surgical tool detection method comprising the step of examining the surgical tool in the divided image.

상기 검출부의 상기 수술용 영상을 이용하여 상기 수술용 영상의 픽셀 정보를 표현하는 RGB 값 및 HSI 값 중의 적어도 하나를 포함하는 이미지 정보를 생성하는 단계는 제공된 수술용 영상을 이용하여 RGB 값으로 표현되는 영상 정보를 포함하는 이미지 정보를 생성하거나, 제공된 수술용 영상을 이용하여 HSI 값으로 표현되는 영상 정보를 포함하는 이미지 정보를 생성하거나, 상기 RGB 값 및 HSI 값을 모두 포함하는 이미지 정보가 생성될 수 있다. 또한, 상기 이미지 정보를 생성하는 단계는 상기 수술용 영상에 대하여 노이즈(noise)를 제거하는 것을 더 포함하여 구성될 수 있다. 상기 노이즈의 제거는 블러링(Blurring)을 이용하거나 블러링을 대신하여 가우시안 필터(Gaussian Filter) 또는 평균화 필터(Averaging Filter)를 이용할 수 있을 것이다. 더불어 이와 유사한 효과를 나타내는 영상 처리를 모두 이용할 수 있음은 당업자에게 있어서 자명할 것이다.Generating image information including at least one of an RGB value and an HSI value representing pixel information of the surgical image by using the surgical image of the detection unit may be represented by an RGB value using the provided surgical image. Generate image information including image information, generate image information including image information expressed as HSI values using the provided surgical image, or generate image information including both the RGB value and the HSI value. have. The generating of the image information may further include removing noise with respect to the surgical image. The noise may be removed by using blurring or by using a Gaussian filter or an averaging filter instead of blurring. In addition, it will be apparent to those skilled in the art that all image processing showing similar effects can be used.

상기 검출부의 상기 생성된 이미지 정보를 이용하여 상기 수술용 영상에서 상기 수술도구를 구분하는 단계는 상기 수술용 영상에서 수술도구를 선택하는 단계 및 상기 수술용 영상에서 배경구역을 제거하는 단계 중 적어도 하나를 포함하여 구성되는 것일 수 있다. 먼저, 상기 수술용 영상에서 수술도구를 선택하는 단계는 상기 HSI 값을 이용한

Figure 112009029022930-PAT00053
값 및
Figure 112009029022930-PAT00054
값 중의 어느 하나에 대하여 이진(binary)화를 수행하는 방법, 상기 RGB 값의 R, G 및 B 간의 차이값을 이용하여 이진(binary)화를 수행하는 방법 및 상기 RGB 값을 이용한 RGB 표준편차값(standard deviation)을 이용하여 이진(binary)화를 수행하는 방법 중 적어도 하나를 적용하 여 상기 수술도구를 선택하는 것일 수 있다. 다음으로, 상기 수술용 영상에서 배경구역을 제거하는 단계는 상기 RGB 값을 이용하는 피부색 검출(Skin Color Detection) 방법, 상기 RGB 값을 이용하는 붉은색 검출(Reddish Color Detection) 방법 및 상기 RGB 값의 R, G 및 B에서 최소값과 최대값을 비교하는 최소 최대 비교(min max RGB Comparison) 방법 중 적어도 하나를 적용하여 배경구역을 제거하는 것일 수 있다.The step of distinguishing the surgical tool from the surgical image by using the generated image information of the detection unit is at least one of selecting a surgical tool from the surgical image and removing the background area from the surgical image It may be configured to include. First, selecting a surgical tool in the surgical image using the HSI value
Figure 112009029022930-PAT00053
Value and
Figure 112009029022930-PAT00054
A method of performing binarization on any one of the values, a method of performing binarization using difference values between R, G, and B of the RGB value, and an RGB standard deviation value using the RGB value It may be to select the surgical tool by applying at least one method of performing binarization using a standard deviation. Next, the step of removing the background area from the surgical image may include a skin color detection method using the RGB value, a red color detection method using the RGB value, R of the RGB value, The background area may be removed by applying at least one of a min max RGB comparison method of comparing the minimum value and the maximum value in G and B. FIG.

상기 생성된 이미지 정보를 이용하여 상기 수술도구를 구분한 영상에서 상기 수술도구를 검사하는 단계는 상기 수술도구를 구분한 영상에 팽창(dilation), 침식(erosion), 열림(opening) 및 닫힘(closing) 중의 적어도 하나의 영상 처리를 적용하는 방법 및 상기 수술도구가 상기 수술용 영상의 경계를 지나는 조건을 적용하는 방법 중 적어도 하나를 이용하는 것일 수 있다.Examining the surgical tool in the image divided by the surgical tool using the generated image information, the separation (erosion), opening (opening) and closing (closing) And at least one of a method of applying at least one image processing and a method of applying a condition that the surgical tool crosses a boundary of the surgical image.

다음으로, 상기 검출부(1340)의 상기 수술도구 검출 결과를 이용하여 상기 촬영부(1320)의 촬영 위치를 제어하기 위한 촬영 위치 제어부(1350)는 상기 수술도구가 상기 수술용 영상의 내부에 위치하도록 상기 촬영부의 촬영 위치를 제어하는 것일 수 있다. 일반적으로 상기 수술도구는 수술용 영상의 중심에 위치할 것이나, 수술도구가 두 개 이상인 경우에는 수술도구 위치의 평균값이 수술용 영상의 중심에 위치하도록 제어할 수 있을 것이며, 수술도구가 수술용 영상의 중심이 아닌 특정한 곳에 위치하도록 제어할 수도 있을 것이다.Next, the photographing position controller 1350 for controlling the photographing position of the photographing unit 1320 using the surgical tool detection result of the detector 1340 is such that the surgical tool is located inside the surgical image. It may be to control the photographing position of the photographing unit. In general, the surgical tool will be located in the center of the surgical image, if there are two or more surgical tools will be able to control the average value of the surgical tool position to be located in the center of the surgical image, the surgical tool is a surgical image You might want to control it so that it's in a specific place instead of the center of the.

도 13을 다시 참조하면, 본 발명의 일 실시예에 따른 수술 시스템은 상기 촬영부의 촬영 위치를 제어하기 위한 제어 명령을 상기 촬영 위치 제어부에 입력하기 위한 명령 입력부(1360)를 더 포함하는 것일 수 있다.Referring back to FIG. 13, the surgical system according to an exemplary embodiment may further include a command input unit 1360 for inputting a control command for controlling the photographing position of the photographing unit to the photographing position controller. .

상기 촬영부(1320)의 촬영 위치를 제어하기 위한 제어 명령을 상기 촬영 위치 제어부(1350)에 입력하기 위한 명령 입력부(1360)는 상술한 수술도구 검출 방법에 따라 검출된 수술용 영상 내에서의 수술도구의 위치를 자동 조절함에 있어서, 수술자가 이를 변경하거나 추가적인 미세 조정을 하고자 할 때 수동으로 조정할 수 있는 명령 입력 장치일 수 있다. 상기 명령 입력부(1360)는 수술자의 발로 조절이 가능한 페달일 수 있으며, 수술자의 음성을 인식하여 명령을 입력받는 장치일 수 있으며, 수술자의 시각을 인식하여 명령을 입력받는 장치일 수 있다. 더불어, 상기 촬영 위치 제어부(1350)는 상기 명령 입력부(1360)에 의하여 입력된 제어 명령을 우선적으로 처리하는 것일 수 있다. 이는 수술자가 자동 제어에도 불구하고 추가적인 제어를 하고자 하는 것이므로 수술자의 수동 제어에 우선권을 주기 위한 것이다.The command input unit 1360 for inputting a control command for controlling the photographing position of the photographing unit 1320 to the photographing position controller 1350 may operate in the surgical image detected according to the surgical tool detecting method described above. In automatically adjusting the position of the tool, it may be a command input device that can be manually adjusted when the operator wants to change it or make additional fine adjustments. The command input unit 1360 may be a pedal which can be adjusted by the operator's foot, may be a device that receives a command by recognizing the operator's voice, or may be a device that receives a command by recognizing the operator's time. In addition, the photographing position controller 1350 may preferentially process a control command input by the command input unit 1360. This is to give priority to the operator's manual control because the operator wants to perform additional control despite the automatic control.

도 14는 본 발명의 일 실시예에 따른 수술 보조시스템을 설명하기 위한 블록도이다.14 is a block diagram illustrating a surgical assistance system according to an embodiment of the present invention.

도 14를 참조하면, 본 발명의 일 실시예에 따른 수술 보조시스템은 수술용 영상을 이용한 수술 보조시스템에 있어서, 수술을 수행하기 위한 수술도구; 상기 수술도구 및 수술부위에 대한 수술용 영상을 생성하기 위한 촬영부; 상기 촬영부로부터 수술용 영상을 제공받아 출력하기 위한 디스플레이부; 상기 촬영부로부터 수술용 영상을 제공받아 상기 수술용 영상에서 수술도구를 검출하기 위한 검출부; 및 상기 검출부의 상기 수술도구 검출 결과를 이용하여 상기 촬영부의 촬영 위치를 제 어하기 위한 촬영 위치 제어부;를 포함하여 구성될 수 있다.Referring to FIG. 14, a surgical assistant system according to an embodiment of the present invention includes a surgical tool for performing a surgery in a surgical assistant system using a surgical image; A photographing unit for generating a surgical image for the surgical tool and the surgical site; A display unit for receiving and outputting a surgical image from the photographing unit; A detection unit for receiving a surgical image from the photographing unit and detecting a surgical tool in the surgical image; And a photographing position control unit for controlling a photographing position of the photographing unit by using the detection result of the surgical tool of the detecting unit.

또한, 상기 촬영부의 촬영 위치를 제어하기 위한 제어 명령을 상기 촬영 위치 제어부에 입력하기 위한 명령 입력부를 더 포함하는 것일 수 있다.The apparatus may further include a command input unit for inputting a control command for controlling the photographing position of the photographing unit to the photographing position controller.

여기에서, 상기 수술도구 및 수술부위에 대한 수술용 영상을 생성하기 위한 촬영부(1420), 상기 촬영부로부터 수술용 영상을 제공받아 출력하기 위한 디스플레이부(1430), 상기 촬영부로부터 수술용 영상을 제공받아 상기 수술용 영상에서 수술도구를 검출하기 위한 검출부(1440), 상기 검출부의 상기 수술도구 검출 결과를 이용하여 상기 촬영부의 촬영 위치를 제어하기 위한 촬영 위치 제어부(1450) 및 상기 촬영부의 촬영 위치를 제어하기 위한 제어 명령을 상기 촬영 위치 제어부에 입력하기 위한 명령 입력부(1460)는 상술한 바와 같다.Here, a photographing unit 1420 for generating a surgical image for the surgical tool and the surgical site, a display unit 1430 for receiving and outputting a surgical image from the photographing unit, the surgical image from the photographing unit A detection unit 1440 for detecting a surgical tool in the surgical image, a photographing position controller 1450 for controlling a photographing position of the photographing unit using the detection result of the surgical tool of the detecting unit, and photographing of the photographing unit The command input unit 1460 for inputting a control command for controlling the position to the photographing position controller is as described above.

수술 보조시스템(1400)은 수술 보조자를 대신하여 수술 보조로봇이 수술용 영상을 고정시키고 수술자의 명령에 따라 수술용 영상의 위치를 제어할 수 있다는 것으로서, 수술 시스템에 비하여 수술자가 직접 수술도구(1410)를 제어하여 수술을 수행한다는 차이점이 있다. 수술을 수행하기 위한 수술도구(1410)는 복강경 수술용 메스(mess), 복강경 수술용 갈고리(hook), 복강경 수술용 핀셋(pincette), 복강경 수술용 가위(scissors) 등의 도구일 수 있다.The surgical assistant system 1400 is a surgical assistant robot in place of the surgical assistant to fix the surgical image and control the position of the surgical image according to the operator's command, compared to the surgical system, the operator directly operating tools (1410) The difference is that surgery is performed by controlling). The surgical tool 1410 for performing the surgery may be a tool such as a laparoscopy mes., A laparoscopy hook, a laparoscopic pincette, a laparoscopy scissor, or the like.

이상 실시예를 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자는 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described with reference to the above embodiments, those skilled in the art can understand that the present invention can be variously modified and changed without departing from the spirit and scope of the invention described in the claims below. There will be.

도 1은 종래 수술 로봇을 도입한 복강경을 이용한 수술 시스템의 개념도이다.1 is a conceptual diagram of a surgical system using a laparoscope incorporating a conventional surgical robot.

도 2는 종래 수술 보조로봇을 도입한 복강경을 이용한 수술 보조시스템의 개념도이다.2 is a conceptual diagram of a surgical assistance system using a laparoscope incorporating a conventional surgical assistant robot.

도 3은 본 발명의 일 실시예에 따른 수술도구 검출 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a surgical tool detection method according to an embodiment of the present invention.

도 4는 본 발명의 일 실시예에 따른 수술도구 검출 방법에서 RGB 값 및 HSI 값을 설명하기 위한 예시도이다.Figure 4 is an exemplary view for explaining the RGB value and HSI value in the surgical tool detection method according to an embodiment of the present invention.

도 5는 본 발명의 일 실시예에 따른 수술도구 검출 방법에서

Figure 112009029022930-PAT00059
값 및
Figure 112009029022930-PAT00060
값에 대하여 이진화를 수행하는 방법을 설명하기 위한 예시도이다.5 is a surgical tool detection method according to an embodiment of the present invention
Figure 112009029022930-PAT00059
Value and
Figure 112009029022930-PAT00060
An example diagram for explaining a method of performing binarization on a value.

도 6은 본 발명의 일 실시예에 따른 수술도구 검출 방법에서 R 값, G 값 및 B 값 간의 차이값을 이용하여 이진화를 수행하는 방법을 설명하기 위한 예시도이다.6 is an exemplary view for explaining a method of performing binarization using a difference value between an R value, a G value, and a B value in a surgical tool detection method according to an exemplary embodiment of the present invention.

도 7은 본 발명의 일 실시예에 따른 수술도구 검출 방법에서 RGB 표준편차값을 이용하여 이진화를 수행하는 방법을 설명하기 위한 예시도이다.7 is an exemplary view for explaining a method for performing binarization using an RGB standard deviation value in a surgical tool detection method according to an embodiment of the present invention.

도 8은 본 발명의 일 실시예에 따른 수술도구 검출 방법에서 피부색 검출 방법을 설명하기 위한 예시도이다.8 is an exemplary view for explaining a skin color detection method in the surgical tool detection method according to an embodiment of the present invention.

도 9는 본 발명의 일 실시예에 따른 수술도구 검출 방법에서 붉은색 검출 방 법을 설명하기 위한 예시도이다.9 is an exemplary view for explaining a red color detection method in the surgical tool detection method according to an embodiment of the present invention.

도 10은 본 발명의 일 실시예에 따른 수술도구 검출 방법에서 R값, G값 및 B값에서 최소값과 최대값을 비교하는 최소 최대 비교 방법을 설명하기 위한 예시도이다.10 is an exemplary view for explaining a minimum maximum comparison method for comparing the minimum value and the maximum value in the R, G and B values in the surgical tool detection method according to an embodiment of the present invention.

도 11은 본 발명의 일 실시예에 따른 수술도구 검출 방법에서 팽창, 침식, 열림 및 닫힘 등의 영상 처리를 설명하기 위한 예시도이다.11 is an exemplary view for explaining image processing such as expansion, erosion, opening and closing in the surgical tool detection method according to an embodiment of the present invention.

도 12는 본 발명의 일 실시예에 따른 수술도구 검출 방법의 수행 결과를 설명하기 위한 예시도이다.12 is an exemplary view for explaining a result of performing a surgical tool detection method according to an embodiment of the present invention.

도 13은 본 발명의 일 실시예에 따른 수술 시스템을 설명하기 위한 블록도이다.13 is a block diagram illustrating a surgical system according to an embodiment of the present invention.

도 14는 본 발명의 일 실시예에 따른 수술 보조시스템을 설명하기 위한 블록도이다.14 is a block diagram illustrating a surgical assistance system according to an embodiment of the present invention.

< 도면의 주요부분에 대한 부호의 설명 >Description of the Related Art

1310: 수술 장치 1410: 수술도구1310: surgical device 1410: surgical instruments

1320, 1420: 촬영부 1330, 1430: 디스플레이부1320 and 1420: photographing unit 1330 and 1430: display unit

1340, 1440: 검출부 1350, 1450: 촬영위치 제어부1340 and 1440: detection unit 1350 and 1450: shooting position control unit

1360, 1460: 명령 입력부1360, 1460: command input

Claims (22)

수술용 영상에서 수술도구를 검출하는 방법에 있어서,In the method for detecting a surgical tool in the surgical image, 상기 수술용 영상을 이용하여 상기 수술용 영상의 픽셀 정보를 표현하는 RGB 값 및 HSI 값 중의 적어도 하나를 포함하는 이미지 정보를 생성하는 단계;Generating image information including at least one of an RGB value and an HSI value representing pixel information of the surgical image using the surgical image; 상기 생성된 이미지 정보를 이용하여 상기 수술용 영상에서 상기 수술도구를 구분하는 단계; 및Classifying the surgical tool in the surgical image by using the generated image information; And 상기 생성된 이미지 정보를 이용하여 상기 수술도구를 구분한 영상에서 상기 수술도구를 검사하는 단계;를 포함하여 구성되는 수술도구 검출 방법.And inspecting the surgical tool in an image of the surgical tool by using the generated image information. 제1항에 있어서,The method of claim 1, 상기 수술용 영상은 상기 수술도구 및 수술부위를 표현하는 영상인 것을 특징으로 하는 수술도구 검출 방법.The surgical image is a surgical tool detection method, characterized in that the image representing the surgical tool and the surgical site. 제2항에 있어서,The method of claim 2, 상기 수술용 영상은 복강경(Laparoscope) 영상 및 내시경(endoscope) 영상 중 어느 하나인 것을 특징으로 하는 수술도구 검출 방법.The surgical image is a surgical tool detection method, characterized in that any one of a laparoscope image and an endoscope image. 제1항에 있어서,The method of claim 1, 상기 이미지 정보를 생성하는 단계는 상기 수술용 영상에 대하여 노이 즈(noise)를 제거하는 것을 더 포함하는 것을 특징으로 하는 수술도구 검출 방법.The generating of the image information may further include removing noise from the surgical image. 제1항에 있어서,The method of claim 1, 상기 생성된 이미지 정보를 이용하여 상기 수술용 영상에서 상기 수술도구를 구분하는 단계는 상기 수술용 영상에서 수술도구를 선택하는 단계 및 상기 수술용 영상에서 배경구역을 제거하는 단계 중 적어도 하나를 포함하여 구성되는 것을 특징으로 하는 수술도구 검출 방법.The step of classifying the surgical tool in the surgical image by using the generated image information includes selecting at least one surgical tool from the surgical image and removing the background area from the surgical image; Surgical tool detection method, characterized in that configured. 제5항에 있어서,The method of claim 5, 상기 수술용 영상에서 수술도구를 선택하는 단계는 상기 HSI 값을 이용한
Figure 112009029022930-PAT00055
값 및
Figure 112009029022930-PAT00056
값 중의 어느 하나에 대하여 이진(binary)화를 수행하는 방법, 상기 RGB 값의 R, G 및 B 간의 차이값을 이용하여 이진(binary)화를 수행하는 방법 및 상기 RGB 값을 이용한 RGB 표준편차값(standard deviation)을 이용하여 이진(binary)화를 수행하는 방법 중 적어도 하나를 적용하여 상기 수술도구를 선택하는 것을 특징으로 하는 수술도구 검출 방법.
Selecting a surgical tool in the surgical image using the HSI value
Figure 112009029022930-PAT00055
Value and
Figure 112009029022930-PAT00056
A method of performing binarization on any one of the values, a method of performing binarization using difference values between R, G, and B of the RGB value, and an RGB standard deviation value using the RGB value A surgical tool detection method comprising selecting the surgical tool by applying at least one method of performing binarization using a standard deviation.
제5항에 있어서,The method of claim 5, 상기 수술용 영상에서 배경구역을 제거하는 단계는 상기 RGB 값을 이용하는 피부색 검출(Skin Color Detection) 방법, 상기 RGB 값을 이용하는 붉은색 검 출(Reddish Color Detection) 방법 및 상기 RGB 값의 R, G 및 B에서 최소값과 최대값을 비교하는 최소 최대 비교(min max RGB Comparison) 방법 중 적어도 하나를 적용하여 배경구역을 제거하는 것을 특징으로 하는 수술도구 검출 방법.The removing of the background area from the surgical image may include a skin color detection method using the RGB value, a red color detection method using the RGB value, and R, G, and the RGB value. The method of detecting a surgical tool, characterized in that to remove the background area by applying at least one of the min max RGB Comparison method comparing the minimum value and the maximum value in B. 제1항에 있어서,The method of claim 1, 상기 생성된 이미지 정보를 이용하여 상기 수술도구를 구분한 영상에서 상기 수술도구를 검사하는 단계는 상기 수술도구를 구분한 영상에 팽창(dilation), 침식(erosion), 열림(opening) 및 닫힘(closing) 중의 적어도 하나의 영상 처리를 적용하는 방법 및 상기 수술도구가 상기 수술용 영상의 경계를 지나는 조건을 적용하는 방법 중 적어도 하나를 이용하는 것을 특징으로 하는 수술도구 검출 방법.Examining the surgical tool in the image divided by the surgical tool using the generated image information, the separation (erosion), opening (opening) and closing (closing) And at least one of a method of applying at least one image processing and a method of applying a condition that the surgical tool crosses a boundary of the surgical image. 수술용 영상에서 수술도구를 검출하는 방법을 기록한 기록매체에 있어서,In a recording medium recording a method for detecting a surgical tool in the surgical image, 상기 수술용 영상을 이용하여 상기 수술용 영상의 픽셀 정보를 표현하는 RGB 값 및 HSI 값 중의 적어도 하나를 포함하는 이미지 정보를 생성하는 단계;Generating image information including at least one of an RGB value and an HSI value representing pixel information of the surgical image using the surgical image; 상기 생성된 이미지 정보를 이용하여 상기 수술용 영상에서 상기 수술도구를 구분하는 단계; 및Classifying the surgical tool in the surgical image by using the generated image information; And 상기 생성된 이미지 정보를 이용하여 상기 수술도구를 구분한 영상에서 상기 수술도구를 검사하는 단계;를 포함하여 구성되는 수술도구 검출 방법을 기록한 기록매체.And inspecting the surgical tool in the image of the surgical tool by using the generated image information. 수술용 영상을 이용한 수술 시스템에 있어서,In a surgical system using a surgical image, 수술도구 및 상기 수술도구를 제어하기 위한 수술도구 제어기를 포함하는 수술 장치부;A surgical device unit including a surgical tool and a surgical tool controller for controlling the surgical tool; 상기 수술도구 및 수술부위에 대한 수술용 영상을 생성하기 위한 촬영부;A photographing unit for generating a surgical image for the surgical tool and the surgical site; 상기 촬영부로부터 수술용 영상을 제공받아 출력하기 위한 디스플레이부;A display unit for receiving and outputting a surgical image from the photographing unit; 상기 촬영부로부터 수술용 영상을 제공받아 상기 수술용 영상에서 수술도구를 검출하기 위한 검출부; 및A detection unit for receiving a surgical image from the photographing unit and detecting a surgical tool in the surgical image; And 상기 검출부의 상기 수술도구 검출 결과를 이용하여 상기 촬영부의 촬영 위치를 제어하기 위한 촬영 위치 제어부;를 포함하여 구성되는 수술 시스템.And a photographing position control unit for controlling a photographing position of the photographing unit by using the detection result of the surgical tool of the detecting unit. 제10항에 있어서,The method of claim 10, 상기 촬영부의 촬영 위치를 제어하기 위한 제어 명령을 상기 촬영 위치 제어부에 입력하기 위한 명령 입력부를 더 포함하는 것을 특징으로 하는 수술 시스템.And a command input unit for inputting a control command for controlling a photographing position of the photographing unit to the photographing position controller. 제11항에 있어서,The method of claim 11, 상기 촬영 위치 제어부는 상기 명령 입력부에 의하여 입력된 제어 명령을 우선적으로 처리하는 것을 특징으로 하는 수술 시스템.And the photographing position controller preferentially processes a control command input by the command input unit. 제11항에 있어서,The method of claim 11, 상기 명령 입력부는 페달(pedal)인 것을 특징으로 하는 수술 시스템.And the command input unit is a pedal. 제10항에 있어서,The method of claim 10, 상기 촬영부에서 촬영되는 수술용 영상은 2차원 영상 및 3차원 영상 중 어느 하나인 것을 특징으로 하는 수술 시스템.Surgical image taken by the imaging unit is a surgical system, characterized in that any one of a two-dimensional image and a three-dimensional image. 제10항에 있어서,The method of claim 10, 상기 검출부는 상기 수술용 영상을 이용하여 상기 수술용 영상의 픽셀 정보를 표현하는 RGB 값 및 HSI 값 중의 적어도 하나를 포함하는 이미지 정보를 생성하는 단계, 상기 생성된 이미지 정보를 이용하여 상기 수술용 영상에서 상기 수술도구를 구분하는 단계 및 상기 생성된 이미지 정보를 이용하여 상기 수술도구를 구분한 영상에서 상기 수술도구를 검사하는 단계를 포함하여 구성되는 수술도구 검출 방법을 수행하는 것을 특징으로 하는 수술 시스템.The detection unit generating image information including at least one of an RGB value and an HSI value representing pixel information of the surgical image by using the surgical image, and using the generated image information The surgical system characterized in that for performing a surgical tool detection method comprising the step of distinguishing the surgical tool and the surgical tool in the image divided by the surgical tool using the generated image information . 제15항에 있어서,The method of claim 15, 상기 검출부의 상기 생성된 이미지 정보를 이용하여 상기 수술용 영상에서 상기 수술도구를 구분하는 단계는 상기 수술용 영상에서 수술도구를 선택하는 단계 및 상기 수술용 영상에서 배경구역을 제거하는 단계 중 적어도 하나를 포함하여 구성되는 것을 특징으로 하는 수술 시스템.The step of distinguishing the surgical tool from the surgical image by using the generated image information of the detection unit is at least one of selecting a surgical tool from the surgical image and removing the background area from the surgical image Surgical system, characterized in that comprises a. 제16항에 있어서,The method of claim 16, 상기 수술용 영상에서 수술도구를 선택하는 단계는 상기 HSI 값을 이용한
Figure 112009029022930-PAT00057
값 및
Figure 112009029022930-PAT00058
값 중의 어느 하나에 대하여 이진(binary)화를 수행하는 방법, 상기 RGB 값의 R, G 및 B 간의 차이값을 이용하여 이진(binary)화를 수행하는 방법 및 상기 RGB 값을 이용한 RGB 표준편차값(standard deviation)을 이용하여 이진(binary)화를 수행하는 방법 중 적어도 하나를 적용하여 상기 수술도구를 선택하는 것을 특징으로 하는 수술 시스템.
Selecting a surgical tool in the surgical image using the HSI value
Figure 112009029022930-PAT00057
Value and
Figure 112009029022930-PAT00058
A method of performing binarization on any one of the values, a method of performing binarization using difference values between R, G, and B of the RGB value, and an RGB standard deviation value using the RGB value A surgical system, characterized in that for selecting the surgical instrument by applying at least one method of performing a binarization (binary) using a (standard deviation).
제16항에 있어서,The method of claim 16, 상기 수술용 영상에서 배경구역을 제거하는 단계는 상기 RGB 값을 이용하는 피부색 검출(Skin Color Detection) 방법, 상기 RGB 값을 이용하는 붉은색 검출(Reddish Color Detection) 방법 및 상기 RGB 값의 R, G 및 B에서 최소값과 최대값을 비교하는 최소 최대 비교(min max RGB Comparison) 방법 중 적어도 하나를 적용하여 배경구역을 제거하는 것을 특징으로 하는 수술 시스템.The step of removing the background area from the surgical image includes a skin color detection method using the RGB value, a red color detection method using the RGB value, and R, G, and B of the RGB value. A surgical system comprising removing a background area by applying at least one of a min max RGB Comparison method that compares a minimum value with a maximum value. 제15항에 있어서,The method of claim 15, 상기 생성된 이미지 정보를 이용하여 상기 수술도구를 구분한 영상에서 상기 수술도구를 검사하는 단계는 상기 수술도구를 구분한 영상에 팽창(dilation), 침식(erosion), 열림(opening) 및 닫힘(closing) 중의 적어도 하나의 영상 처리를 적용하는 방법 및 상기 수술도구가 상기 수술용 영상의 경계를 지나는 조건을 적용하 는 방법 중 적어도 하나를 이용하는 것을 특징으로 하는 수술 시스템.Examining the surgical tool in the image divided by the surgical tool using the generated image information, the separation (erosion), opening (opening) and closing (closing) And at least one of a method of applying at least one image processing and a method of applying a condition that the surgical tool crosses a boundary of the surgical image. 제10항에 있어서,The method of claim 10, 상기 촬영 위치 제어부는 상기 수술도구가 상기 수술용 영상의 내부에 위치하도록 상기 촬영부의 촬영 위치를 제어하는 것을 특징으로 하는 수술 시스템.And the photographing position controller controls the photographing position of the photographing unit so that the surgical tool is positioned inside the surgical image. 수술용 영상을 이용한 수술 보조시스템에 있어서,In the surgical assistance system using the surgical image, 수술을 수행하기 위한 수술도구;Surgical instruments for performing surgery; 상기 수술도구 및 수술부위에 대한 수술용 영상을 생성하기 위한 촬영부;A photographing unit for generating a surgical image for the surgical tool and the surgical site; 상기 촬영부로부터 수술용 영상을 제공받아 출력하기 위한 디스플레이부;A display unit for receiving and outputting a surgical image from the photographing unit; 상기 촬영부로부터 수술용 영상을 제공받아 상기 수술용 영상에서 수술도구를 검출하기 위한 검출부; 및A detection unit for receiving a surgical image from the photographing unit and detecting a surgical tool in the surgical image; And 상기 검출부의 상기 수술도구 검출 결과를 이용하여 상기 촬영부의 촬영 위치를 제어하기 위한 촬영 위치 제어부;를 포함하여 구성되는 수술 보조시스템.And a photographing position controller for controlling a photographing position of the photographing unit by using the detection result of the surgical tool of the detecting unit. 제20항에 있어서,21. The method of claim 20, 상기 촬영부의 촬영 위치를 제어하기 위한 제어 명령을 상기 촬영 위치 제어부에 입력하기 위한 명령 입력부를 더 포함하는 것을 특징으로 하는 수술 보조시스템.And a command input unit for inputting a control command for controlling a photographing position of the photographing unit to the photographing position controller.
KR1020090042216A 2009-05-14 2009-05-14 Method of Detection for Surgical Instruments, Recording Media of the same, Surgical System of using the same and Surgical Subsystem of using the same KR101159469B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090042216A KR101159469B1 (en) 2009-05-14 2009-05-14 Method of Detection for Surgical Instruments, Recording Media of the same, Surgical System of using the same and Surgical Subsystem of using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090042216A KR101159469B1 (en) 2009-05-14 2009-05-14 Method of Detection for Surgical Instruments, Recording Media of the same, Surgical System of using the same and Surgical Subsystem of using the same

Publications (2)

Publication Number Publication Date
KR20100123160A true KR20100123160A (en) 2010-11-24
KR101159469B1 KR101159469B1 (en) 2012-06-25

Family

ID=43407868

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090042216A KR101159469B1 (en) 2009-05-14 2009-05-14 Method of Detection for Surgical Instruments, Recording Media of the same, Surgical System of using the same and Surgical Subsystem of using the same

Country Status (1)

Country Link
KR (1) KR101159469B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016028095A1 (en) * 2014-08-20 2016-02-25 재단법인 아산사회복지재단 Tool location tracking apparatus
US9314309B2 (en) 2013-03-13 2016-04-19 Samsung Electronics Co., Ltd. Surgical robot and method of controlling the same
KR20190130310A (en) * 2018-05-14 2019-11-22 재단법인대구경북과학기술원 Catheter tracking system and controlling method thereof
KR20210008404A (en) * 2018-06-14 2021-01-21 소니 주식회사 Dominant Tool Detection System for Surgical Videos
WO2022035137A1 (en) * 2020-08-13 2022-02-17 주식회사 메디픽셀 Surgical tool control system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230151642A (en) 2022-04-26 2023-11-02 주식회사 디지트랙 System and Method for 3D Position Analysis of Operation Tool

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3552300B2 (en) * 1994-09-30 2004-08-11 株式会社島津製作所 Surgical instrument position display device
JP2003153876A (en) 2001-11-22 2003-05-27 Ichiro Komada Medical operation support apparatus
FR2897703B1 (en) * 2006-02-20 2008-04-25 Univ Grenoble 1 AUTOMATIC DETECTION OF A SURGICAL TOOL ON AN IMAGE PROVIDED BY A MEDICAL IMAGING SYSTEM
US7794396B2 (en) 2006-11-03 2010-09-14 Stryker Corporation System and method for the automated zooming of a surgical camera

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9314309B2 (en) 2013-03-13 2016-04-19 Samsung Electronics Co., Ltd. Surgical robot and method of controlling the same
WO2016028095A1 (en) * 2014-08-20 2016-02-25 재단법인 아산사회복지재단 Tool location tracking apparatus
KR20190130310A (en) * 2018-05-14 2019-11-22 재단법인대구경북과학기술원 Catheter tracking system and controlling method thereof
KR20210008404A (en) * 2018-06-14 2021-01-21 소니 주식회사 Dominant Tool Detection System for Surgical Videos
WO2022035137A1 (en) * 2020-08-13 2022-02-17 주식회사 메디픽셀 Surgical tool control system

Also Published As

Publication number Publication date
KR101159469B1 (en) 2012-06-25

Similar Documents

Publication Publication Date Title
US11759092B2 (en) Endoscope system, processor device, and method of operating endoscope system
KR101159469B1 (en) Method of Detection for Surgical Instruments, Recording Media of the same, Surgical System of using the same and Surgical Subsystem of using the same
JP6355875B2 (en) Endoscope system
KR102028780B1 (en) Video endoscopic system
US11123150B2 (en) Information processing apparatus, assistance system, and information processing method
US10849712B2 (en) Image processing device, image processing method, surgery system, and surgical thread
US20210153730A1 (en) Endoscope system
WO2020194942A1 (en) Blood vessel recognition device, blood vessel recognition method, and blood vessel recognition system
US11457876B2 (en) Diagnosis assisting apparatus, storage medium, and diagnosis assisting method for displaying diagnosis assisting information in a region and an endoscopic image in another region
JPWO2018084003A1 (en) Medical image processing apparatus, medical image processing method, and program
US20220246307A1 (en) Surgery support system, surgery support method, information processing apparatus, and information processing program
US20220000351A1 (en) Control apparatus, diagnosis support method, and recording medium
US20210169305A1 (en) Image processing apparatus, image processing method, and image processing system
JP7194889B2 (en) Computer program, learning model generation method, surgery support device, and information processing method
US20220015616A1 (en) Combining near-infrared information with colored images in image-guided surgery
US20230039047A1 (en) Image processing apparatus, image processing method, navigation method and endoscope system
JP7387859B2 (en) Medical image processing device, processor device, endoscope system, operating method and program for medical image processing device
US20210327037A1 (en) Image correction of a surgical endoscope video stream
WO2020008920A1 (en) Medical observation system, medical observation device, and medical observation device driving method
US20210369080A1 (en) Medical observation system, medical signal processing device, and medical signal processing device driving method
US20220151467A1 (en) Medical image processing apparatus, endoscope system, medical image processing method, and program
WO2022014235A1 (en) Image analysis processing device, endoscopy system, operation method for image analysis processing device, and program for image analysis processing device
WO2021140923A1 (en) Medical image generation device, medical image generation method, and medical image generation program
JPWO2022071413A5 (en)
WO2024034253A1 (en) Endoscope system and method for operating same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150603

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160608

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170613

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180612

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190429

Year of fee payment: 8