KR102013806B1 - Method and apparatus for generating artificial data - Google Patents

Method and apparatus for generating artificial data Download PDF

Info

Publication number
KR102013806B1
KR102013806B1 KR1020180122949A KR20180122949A KR102013806B1 KR 102013806 B1 KR102013806 B1 KR 102013806B1 KR 1020180122949 A KR1020180122949 A KR 1020180122949A KR 20180122949 A KR20180122949 A KR 20180122949A KR 102013806 B1 KR102013806 B1 KR 102013806B1
Authority
KR
South Korea
Prior art keywords
image
artificial data
surgical
background
data
Prior art date
Application number
KR1020180122949A
Other languages
Korean (ko)
Inventor
이경문
Original Assignee
(주)휴톰
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)휴톰 filed Critical (주)휴톰
Priority to PCT/KR2019/002092 priority Critical patent/WO2019164274A1/en
Application granted granted Critical
Publication of KR102013806B1 publication Critical patent/KR102013806B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/76Manipulators having means for providing feel, e.g. force or tactile feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/0068Geometric image transformation in the plane of the image for image registration, e.g. elastic snapping
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/252User interfaces for surgical systems indicating steps of a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body

Abstract

Provided is a method for generating artificial data performed by a computer. The method comprises steps of: obtaining a background image and an object image; and generating artificial data by combining the background image and the object image, wherein the background image comprises a specific area inside the body photographed by an endoscope camera, and the object image comprises a surgical tool or blood. In addition, the artificial data is generated to approximate an actual surgical image based on a placement relationship between the surgical tool or blood in the object image and the specific area inside the body in the background image.

Description

인공데이터 생성 방법 및 장치{METHOD AND APPARATUS FOR GENERATING ARTIFICIAL DATA}Artificial data generation method and apparatus {METHOD AND APPARATUS FOR GENERATING ARTIFICIAL DATA}

본 발명은 인공데이터 생성 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for generating artificial data.

수술과정에서, 의사의 수술을 보조하기 위한 정보를 제공할 수 있는 기술들의 개발이 요구되고 있다. 수술을 보조하기 위한 정보를 제공하기 위해서는, 수술 행위를 인식할 수 있어야 한다.In the surgical procedure, there is a need for the development of technologies that can provide information to assist the surgeon's surgery. In order to provide information to assist the operation, the operation should be recognizable.

따라서, 컴퓨터가 수술영상으로부터 수술행위를 인식할 수 있는 기술의 개발이 요구된다. Therefore, there is a need for the development of a technology that allows a computer to recognize surgical behavior from a surgical image.

또한, 최근에는 의료영상의 분석에 딥 러닝이 널리 이용되고 있다. 딥 러닝은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions, 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능을 요약하는 작업)를 시도하는 기계학습 알고리즘의 집합으로 정의된다. 딥 러닝은 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야로 볼 수 있다.In recent years, deep learning has been widely used to analyze medical images. Deep learning is defined as a set of machine learning algorithms that attempts to achieve high levels of abstraction (summarizing key content or functions in large amounts of data or complex data) through a combination of several nonlinear transformations. Deep learning can be seen as a field of machine learning that teaches computers how people think in a large framework.

이러한 딥러닝, 기계학습 등을 이용하여 학습을 수행하는 경우, 대량의 학습 데이터가 필요하다. 그러나, 수술영상의 경우는 실제 수술과정에서 획득되기 때문에 데이터의 양이 적고 다양한 유형의 수술영상을 확보하기 힘들다. When learning using such deep learning and machine learning, a large amount of learning data is required. However, since the surgical image is obtained during the actual surgical procedure, the amount of data is small and it is difficult to secure various types of surgical images.

본 발명이 해결하고자 하는 과제는 인공데이터 생성 방법 및 장치를 제공하는 것이다.The problem to be solved by the present invention is to provide an artificial data generating method and apparatus.

본 발명이 해결하고자 하는 과제는 실제수술영상으로부터 인공데이터를 생성하는 방법 및 장치를 제공하는 것이다. An object of the present invention is to provide a method and apparatus for generating artificial data from an actual surgical image.

본 발명이 해결하고자 하는 과제는 학습을 통해 실제수술영상과 가까운 인공데이터를 생성하는 방법 및 장치를 제공하는 것이다. The problem to be solved by the present invention is to provide a method and apparatus for generating artificial data close to the actual surgical image through learning.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Problems to be solved by the present invention are not limited to the above-mentioned problems, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 일 실시예에 따른 컴퓨터가 수행하는 인공데이터를 생성하는 방법은, 배경이미지 및 객체이미지를 획득하는 단계, 및 상기 배경이미지 및 상기 객체이미지를 결합하여 인공데이터를 생성하는 단계를 포함하며, 상기 배경이미지는, 내시경 카메라에 의해 촬영된 신체내부의 특정 영역을 포함하며, 상기 객체이미지는, 수술도구 또는 혈액을 포함하며, 상기 인공데이터는, 상기 객체이미지 내 수술도구 또는 혈액, 및 상기 배경이미지 내 신체내부의 특정 영역 사이의 배치 관계를 기반으로 실제수술영상과 근사하게 생성되는 것을 특징으로 한다. A method of generating artificial data performed by a computer according to an embodiment of the present invention includes obtaining a background image and an object image, and generating artificial data by combining the background image and the object image. The background image includes a specific area inside the body taken by the endoscope camera, and the object image includes a surgical tool or blood, and the artificial data includes a surgical tool or blood in the object image, and the It is characterized in that it is generated to approximate the actual surgical image based on the arrangement relationship between specific regions within the body in the background image.

본 발명의 일 실시예에 있어서, 상기 인공데이터를 생성하는 단계는, 실제수술영상을 기초로 학습된 생성모델(Generative Model)을 이용하여 상기 인공데이터를 생성할 수 있다. In an embodiment of the present invention, the generating of the artificial data may generate the artificial data by using a generational model trained on the basis of the actual surgical image.

본 발명의 일 실시예에 있어서, 상기 인공데이터를 생성하는 단계는, 실제데이터인지 인공데이터인지 감별하도록 학습된 감별모델(Discriminative Model)을 이용하여 상기 인공데이터가 실제데이터인지 인공데이터인지를 판단하는 단계, 및 상기 판단 결과에 따라 상기 생성모델을 다시 학습시키는 단계를 포함할 수 있다.In an embodiment of the present invention, the generating of the artificial data may include determining whether the artificial data is real data or artificial data by using a discriminative model trained to discriminate whether the artificial data is real data or artificial data. And re-learning the generation model according to the determination result.

본 발명의 일 실시예에 있어서, 상기 감별모델은, 상기 인공데이터 및 상기 인공데이터에 대응하는 실제수술영상 내 객체 세그먼테이션(segmentation)을 이용하여 학습될 수 있다.In one embodiment of the present invention, the differential model may be learned using the artificial data and the object segmentation in the actual surgical image corresponding to the artificial data.

본 발명의 일 실시예에 있어서, 상기 다시 학습된 생성모델로부터 생성된 새로운 인공데이터를 기초로 수술영상 인식을 위한 학습 데이터 세트를 구성하는 단계를 더 포함할 수 있다.In one embodiment of the present invention, the method may further include constructing a training data set for surgical image recognition based on new artificial data generated from the retrained generation model.

본 발명의 일 실시예에 있어서, 상기 배경이미지 및 상기 객체이미지를 획득하는 단계는, 객체 및 배경을 포함하는 제1 실제수술영상으로부터 상기 객체이미지를 획득하고, 객체 및 배경을 포함하는 제2 실제수술영상으로부터 상기 배경이미지를 획득할 수 있다.In an embodiment of the present disclosure, the acquiring of the background image and the object image may include obtaining the object image from a first real surgery image including an object and a background, and including a second real image including an object and a background. The background image may be obtained from a surgical image.

본 발명의 일 실시예에 있어서, 상기 배경이미지 및 상기 객체이미지를 획득하는 단계는, 객체를 포함하는 제1 실제수술영상으로부터 상기 객체이미지를 획득하고, 객체 및 배경을 포함하는 제2 실제수술영상으로부터 상기 배경이미지를 획득할 수 있다.In an embodiment of the present disclosure, the acquiring of the background image and the object image may include obtaining the object image from a first real surgery image including an object and a second real surgery image including an object and a background. The background image can be obtained from the.

본 발명의 일 실시예에 있어서, 상기 배경이미지 및 상기 객체이미지를 획득하는 단계는, 객체 및 배경을 포함하는 제1 실제수술영상으로부터 상기 객체이미지를 획득하고, 배경을 포함하는 제2 실제수술영상으로부터 상기 배경이미지를 획득할 수 있다.In an embodiment of the present disclosure, the obtaining of the background image and the object image may include obtaining the object image from a first real surgery image including an object and a background, and including a background. The background image can be obtained from the.

본 발명의 일 실시예에 있어서, 상기 배경이미지 및 상기 객체이미지를 획득하는 단계는, 객체를 포함하는 제1 실제수술영상으로부터 상기 객체이미지를 획득하고, 배경을 포함하는 제2 실제수술영상으로부터 상기 배경이미지를 획득할 수 있다.In an embodiment of the present disclosure, the acquiring of the background image and the object image may include obtaining the object image from a first real surgery image including an object and from the second real surgery image including a background. A background image can be obtained.

본 발명의 일 실시예에 따른 장치는, 하나 이상의 인스트럭션을 저장하는 메모리, 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하며, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 배경이미지 및 객체이미지를 획득하는 단계, 및 상기 배경이미지 및 상기 객체이미지를 결합하여 인공데이터를 생성하는 단계를 수행하되, 상기 배경이미지는, 내시경 카메라에 의해 촬영된 신체내부의 특정 영역을 포함하며, 상기 객체이미지는, 수술도구 또는 혈액을 포함하며, 상기 인공데이터는, 상기 객체이미지 내 수술도구 또는 혈액, 및 상기 배경이미지 내 신체내부의 특정 영역 사이의 배치 관계를 기반으로 실제수술영상과 근사하게 생성되는 것을 특징으로 한다. An apparatus according to an embodiment of the present invention includes a memory for storing one or more instructions, and a processor for executing the one or more instructions stored in the memory, wherein the processor executes the one or more instructions, thereby executing a background image and Acquiring an object image, and generating artificial data by combining the background image and the object image, wherein the background image includes a specific area inside the body photographed by an endoscope camera, and the object The image may include a surgical instrument or blood, and the artificial data may be generated to approximate an actual surgical image based on an arrangement relationship between the surgical instrument or blood in the object image and a specific region inside the body in the background image. It is characterized by.

본 발명의 일 실시예에 따른 컴퓨터프로그램은 하드웨어인 컴퓨터와 결합되어, 상기 인공데이터 생성 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된다.A computer program according to an embodiment of the present invention is combined with a computer, which is hardware, and stored in a computer-readable recording medium to perform the artificial data generation method.

본 발명에 따르면, 학습을 통해 실제수술영상과 가까운 인공데이터를 생성할 수 있다. According to the present invention, artificial data close to the actual surgical image can be generated through learning.

본 발명에 따르면, 인공데이터를 이용하여 학습 데이터를 구축할 수 있다. According to the present invention, learning data can be constructed using artificial data.

본 발명에 따르면, 대량의 학습 데이터가 필요한 인공지능, 딥러닝, 기계학습 등에 실제수술영상과 함께 인공으로 생성된 수술영상을 제공함으로써, 충분한 학습 효과를 얻을 수 있도록 한다.According to the present invention, a sufficient learning effect can be obtained by providing artificially generated surgical images together with actual surgical images, such as artificial intelligence, deep learning, and machine learning, which require a large amount of learning data.

본 발명에 따르면, 실제 수술 시에는 획득할 수 없는 다양한 수술 정보를 포함하는 인공으로 생성된 수술영상을 확보할 수 있다.According to the present invention, an artificially generated surgical image including various surgical information that cannot be obtained during actual surgery can be secured.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 인공데이터를 생성하는 방법을 도시한 흐름도이다.
도 2는 본 발명의 일 실시예에 따른 학습을 기반으로 인공데이터를 생성하는 방법을 설명하기 위한 도면이다.
도 3 내지 도 6은 본 발명의 일 실시예에 따른 학습을 기반으로 인공데이터를 생성하는 방법의 실시예들을 설명하기 위해 도시된 도면이다.
도 7은 본 발명의 일 실시예에 따라 로봇수술을 수행할 수 있는 시스템을 간략하게 도식화한 도면이다.
도 8은 본 발명의 일 실시예에 따른 인공데이터 생성 방법을 수행하는 장치(700)의 구성을 개략적으로 나타내는 도면이다.
1 is a flowchart illustrating a method of generating artificial data according to an embodiment of the present invention.
2 is a view for explaining a method of generating artificial data based on learning according to an embodiment of the present invention.
3 to 6 are diagrams for explaining embodiments of a method for generating artificial data based on learning according to an embodiment of the present invention.
7 is a schematic diagram of a system capable of performing robotic surgery in accordance with one embodiment of the present invention.
8 is a diagram schematically illustrating a configuration of an apparatus 700 for performing an artificial data generating method according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but can be embodied in various different forms, and the present embodiments only make the disclosure of the present invention complete, and those of ordinary skill in the art to which the present invention belongs. It is provided to fully inform the skilled worker of the scope of the invention, which is defined only by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, "comprises" and / or "comprising" does not exclude the presence or addition of one or more other components in addition to the mentioned components. Like reference numerals refer to like elements throughout, and "and / or" includes each and all combinations of one or more of the mentioned components. Although "first", "second", etc. are used to describe various components, these components are of course not limited by these terms. These terms are only used to distinguish one component from another. Therefore, of course, the first component mentioned below may be a second component within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms used in the present specification (including technical and scientific terms) may be used in a sense that can be commonly understood by those skilled in the art. In addition, terms that are defined in a commonly used dictionary are not ideally or excessively interpreted unless they are specifically defined clearly.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.As used herein, the term "part" or "module" refers to a hardware component such as software, FPGA, or ASIC, and the "part" or "module" plays certain roles. However, "part" or "module" is not meant to be limited to software or hardware. The “unit” or “module” may be configured to be in an addressable storage medium or may be configured to play one or more processors. Thus, as an example, a "part" or "module" may include components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, Procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. Functions provided within components and "parts" or "modules" may be combined into smaller numbers of components and "parts" or "modules" or into additional components and "parts" or "modules". Can be further separated.

본 명세서에서 "컴퓨터"는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 헤드마운트 디스플레이(Head Mounted Display; HMD) 장치가 컴퓨팅 기능을 포함하는 경우, HMD장치가 컴퓨터가 될 수 있다. 또한, 컴퓨터는 클라이언트로부터 요청을 수신하여 정보처리를 수행하는 서버가 해당될 수 있다.As used herein, the term "computer" includes all the various devices capable of performing arithmetic processing to provide a result to a user. For example, a computer can be a desktop PC, a notebook, as well as a smartphone, a tablet PC, a cellular phone, a PCS phone (Personal Communication Service phone), synchronous / asynchronous The mobile terminal of the International Mobile Telecommunication-2000 (IMT-2000), a Palm Personal Computer (PC), a Personal Digital Assistant (PDA), and the like may also be applicable. In addition, when a head mounted display (HMD) device includes a computing function, the HMD device may be a computer. Also, the computer may correspond to a server that receives a request from a client and performs information processing.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 인공데이터를 생성하는 방법을 도시한 흐름도이다. 1 is a flowchart illustrating a method of generating artificial data according to an embodiment of the present invention.

도 1의 방법은 설명의 편의를 위하여 컴퓨터에 의하여 수행되는 것으로 서술하나, 각 단계의 수행주체가 특정 장치에 제한되는 것은 아니고 컴퓨팅 처리를 수행할 수 있는 장치를 포괄하는 의미로 사용될 수 있다. 즉, 본 실시예에서 컴퓨터는 본 발명의 실시예에 따른 인공데이터 생성 방법을 수행할 수 있는 장치를 의미할 수 있다.Although the method of FIG. 1 is described as being performed by a computer for convenience of description, the subject of each step is not limited to a specific device but may be used to encompass a device capable of performing computing processing. That is, in the present embodiment, the computer may mean an apparatus capable of performing the artificial data generating method according to the embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 인공데이터 생성 방법은, 배경이미지 및 객체이미지를 획득하는 단계(S100)와, 배경이미지 및 객체이미지를 결합하여 인공데이터를 생성하는 단계(S110)를 포함할 수 있다. 이하, 각 단계에 대한 상세한 설명을 기재한다.Referring to FIG. 1, in the method of generating artificial data according to an embodiment of the present invention, obtaining a background image and an object image (S100), and combining the background image and an object image to generate artificial data (S110). ) May be included. Hereinafter, a detailed description of each step will be described.

컴퓨터는 배경이미지 및 객체이미지를 획득할 수 있다(S100). The computer may acquire a background image and an object image (S100).

배경이미지 및 객체이미지는 실제수술영상에 포함된 일부 또는 전체 이미지 영역일 수 있다. 실제수술영상은 실제 의료진이 수술을 수행함에 따라 획득되는 데이터일 수 있다. 예를 들어, 의료진들은 환자에 대해 직접 수술을 수행할 수도 있고, 수술로봇, 복강경, 내시경 등을 이용하는 최소침습수술을 수행할 수도 있다. 이때, 이러한 수술 과정에서 행해진 수술동작이나 수술동작과 관련된 수술도구, 수술부위 등에 관한 다양한 정보를 얻을 수 있다. 예컨대, 수술과정에서 수술부위를 중심으로 신체내부의 장기, 수술도구 등을 촬영한 실제수술영상을 획득할 수도 있고, 수술과정에서 수행된 수술동작에 대해 기록된 데이터를 획득할 수도 있다. The background image and the object image may be part or the entire image area included in the actual surgery image. The actual surgery image may be data obtained by the actual medical staff performing the surgery. For example, medical staff may perform surgery directly on a patient, or perform minimally invasive surgery using a surgical robot, a laparoscope, an endoscope, or the like. At this time, it is possible to obtain a variety of information about the surgical operation performed in such a surgical process or surgical instruments, surgical sites related to the surgical operation. For example, an actual surgical image obtained by photographing organs, surgical instruments, and the like in the body may be obtained in a surgical procedure, or data recorded on a surgical operation performed in the surgical procedure may be acquired.

일 실시예로, 배경이미지는 내시경 카메라에 의해 촬영된 신체내부의 특정 영역을 포함할 수 있다. 예를 들어, 신체내부의 장기(예: 간, 심장, 자궁, 뇌, 유방, 복부 등), 혈관, 조직 등을 포함하는 특정 영역을 촬영한 영상데이터일 수 있다. In one embodiment, the background image may include a specific area inside the body taken by the endoscope camera. For example, the image data may be image data obtained by photographing a specific region including organs (eg, liver, heart, uterus, brain, breast, abdomen, etc.), blood vessels, and tissues in the body.

일 실시예로, 객체이미지는 수술도구 또는 혈액(혈관 손상에 의해 혈액이 혈관 밖으로 나와 있는 출혈을 포함)을 포함하는 영상데이터일 수 있다. In one embodiment, the object image may be image data including surgical instruments or blood (including bleeding out of the blood vessels due to blood vessel damage).

실시예에 따라, 컴퓨터는 객체 및 배경(즉, 신체내부의 특정 영역을 포함하는 배경)을 포함하는 실제수술영상으로부터 객체이미지 또는 배경이미지를 획득할 수 있다. 또는, 컴퓨터는 객체만 포함하고 있는 실제수술영상으로부터 객체이미지를 획득하거나, 배경만 포함하고 있는 실제수술영상으로부터 배경이미지를 획득할 수 있다. 이후, 컴퓨터는 실제수술영상으로부터 획득된 객체이미지 또는 배경이미지를 이용하여 다양한 인공데이터를 생성할 수 있다. 이에 대한 구체적인 실시예는 도 3 내지 도 6을 참조하여 설명하도록 한다. According to an embodiment, the computer may acquire an object image or a background image from an actual surgical image including an object and a background (ie, a background including a specific area inside the body). Alternatively, the computer may acquire the object image from the actual surgical image including only the object or the background image from the actual surgical image including only the background. Thereafter, the computer may generate various artificial data using the object image or the background image obtained from the actual surgical image. Specific embodiments thereof will be described with reference to FIGS. 3 to 6.

또한 실시예에 따라, 컴퓨터는 실제수술영상을 프레임 단위로 획득할 수도 있고, 또는 연속된 프레임들의 집합인 시퀀스 단위로 획득할 수도 있다. 예를 들어, 수술도구를 포함하는 객체에 대한 인공데이터를 생성하는 경우, 컴퓨터는 하나의 프레임 단위로 실제수술영상을 획득하고 이로부터 수술도구를 포함하는 객체이미지를 추출하여 인공데이터를 생성할 수 있다. 또는, 혈액이나 출혈을 포함하는 객체에 대한 인공데이터를 생성하는 경우, 컴퓨터는 복수개의 프레임들로 이루어지는 시퀀스 단위로 실제수술영상을 획득하고 이들로부터 혈액이나 출혈을 포함하는 객체이미지를 추출하여 인공데이터를 생성할 수 있다. 이 경우, 컴퓨터는 후술할 생성기에 시퀀스 단위(즉, 연속된 프레임들)로 객체이미지를 포함하는 실제수술영상을 입력하고, 이에 따라 생성기에서는 시퀀스 단위(즉, 연속된 프레임들)로 인공데이터를 생성하여 출력할 수 있다. 혈액이나 출혈과 같은 객체의 경우에는 하나의 프레임 영상만 보고 객체의 의미를 파악하기 힘들기 때문에, 하나의 프레임이 아닌 연속된 프레임의 집합으로 생성되어야 의미를 가질 수 있다. 이에, 본 발명에서는 객체의 종류에 따라 프레임 단위 또는 시퀀스 단위로 인공데이터를 생성할 수 있다. 또한, 본 발명에 따르면 특정 수술동작(예: 자르기, 잡기 등)에 대응하는 인공데이터를 생성할 경우에도 혈액이나 출혈을 포함하는 인공데이터를 생성하는 경우와 동일하게 시퀀스 단위로 객체이미지를 획득하고 인공데이터를 생성할 수 있다.In addition, according to an embodiment, the computer may acquire the actual surgical image in units of frames or in units of sequences, which are sets of consecutive frames. For example, when generating artificial data about an object including a surgical tool, the computer may generate an artificial data by acquiring an actual surgical image by one frame and extracting an object image including the surgical tool therefrom. have. Alternatively, when generating artificial data about an object including blood or bleeding, the computer acquires an actual surgical image in a sequence unit consisting of a plurality of frames and extracts an object image including blood or bleeding from the artificial data. Can be generated. In this case, the computer inputs the actual surgical image including the object image in sequence units (ie, continuous frames) to the generator to be described later, and accordingly, the generator inputs artificial data in sequence units (ie, continuous frames). Can be generated and printed. In the case of an object such as blood or bleeding, it is difficult to see the meaning of the object by looking at only one frame image, and thus it may be meaningful to be generated as a set of consecutive frames instead of one frame. Accordingly, in the present invention, artificial data may be generated in units of frames or sequences according to the type of object. In addition, according to the present invention, even when generating artificial data corresponding to a specific surgical operation (for example, cutting, grabbing, etc.), object images are acquired in sequence units as in the case of generating artificial data including blood or bleeding. Artificial data can be generated.

또한, 본 발명에서는 객체의 변화가 발생함에 따라 프레임 단위 또는 시퀀스 단위로 실제수술영상을 획득하여 인공데이터를 생성할 수도 있다. 일 실시예로, 컴퓨터가 특정 객체에 변화가 발생하는 실제수술영상을 획득할 경우, 예컨대 수술도구의 움직임이나 수술도구의 움직임에 따라 특정 수술동작을 수행하는 실제수술영상을 연속된 프레임으로 획득하는 경우, 컴퓨터는 연속된 프레임으로부터 특정 객체(예: 수술도구)를 포함하는 객체이미지를 연속적으로 추출하여 특정 객체(예: 수술도구)의 움직임 변화를 반영한 인공데이터를 생성할 수 있다. 이때, 인공데이터는 특정 객체의 변화에 따라 연속된 프레임으로 생성된 것일 수 있다. 또한, 컴퓨터는 특정 객체(예: 수술도구)의 움직임 변화에 대응하여 실제수술영상으로부터 배경이미지를 추출할 수 있다. 예컨대, 컴퓨터는 특정 객체(예: 수술도구)의 움직임 변화에 따라 추출된 객체이미지와 이에 따라 배경이미지도 연속적으로 추출하여, 연속된 객체이미지와 배경이미지를 순차적으로 결합하여 연속된 인공데이터를 생성할 수도 있다. 따라서, 객체의 변화에 대응하여 배경이미지도 추출하여 반영함으로써 보다 실제에 가까운 인공데이터를 생성할 수 있다.In addition, according to the present invention, artificial data may be generated by acquiring an actual surgical image in a frame unit or a sequence unit as a change of an object occurs. In one embodiment, when the computer acquires a real surgery image that changes in a specific object, for example, to acquire a real surgery image performing a specific surgery operation according to the movement of the surgical tool or the surgical tool in a continuous frame In this case, the computer may continuously extract an object image including a specific object (eg, a surgical tool) from consecutive frames to generate artificial data reflecting a change in movement of the specific object (eg, a surgical tool). In this case, the artificial data may be generated in a continuous frame according to a change of a specific object. In addition, the computer may extract a background image from the actual surgical image in response to the movement change of a specific object (eg, a surgical tool). For example, the computer continuously extracts the object image and the background image according to the change of the movement of a specific object (for example, a surgical tool), and generates continuous artificial data by sequentially combining the continuous object image and the background image. You may. Therefore, by extracting and reflecting the background image corresponding to the change of the object, it is possible to generate more artificial data.

컴퓨터는 배경이미지 및 객체이미지를 결합하여 인공데이터를 생성할 수 있다(S110). The computer may generate artificial data by combining the background image and the object image (S110).

일 실시예로, 컴퓨터는 객체이미지 내 객체(예: 수술도구, 혈액, 출혈 등)와 배경이미지 내 신체내부의 특정 영역(예: 신체내부의 장기, 혈관, 조직 등) 사이의 배치 관계를 기반으로, 실제수술영상과 근사하게 객체이미지 및 배경이미지를 결합하여 인공데이터를 생성할 수 있다. In one embodiment, the computer is based on the placement relationship between objects in the object image (e.g. surgical instruments, blood, bleeding, etc.) and specific areas within the body (e.g. organs, blood vessels, tissues, etc.) within the background image. As such, artificial data may be generated by combining the object image and the background image to approximate the actual surgical image.

배치 관계는 각각의 이미지 내 배경과 객체가 배치된 형태, 위치, 방향이나 카메라 촬영 방향, 각각의 이미지 내 배경과 객체의 종류, 개수 등의 정보를 기초로 도출되는 정보일 수 있다. The arrangement relationship may be information derived based on information such as a shape, a location, a direction or a camera photographing direction, a type and a number of backgrounds and objects in each image.

인공데이터를 생성함에 있어서, 컴퓨터는 생성기(Generator) 및 감별기(Discriminator)를 이용하여 학습을 통해 인공데이터를 생성할 수 있다. 이에 관해서는 도 2를 참조하여 구체적으로 설명하도록 한다. In generating artificial data, the computer may generate artificial data through learning by using a generator and a discriminator. This will be described in detail with reference to FIG. 2.

도 2는 본 발명의 일 실시예에 따른 학습을 기반으로 인공데이터를 생성하는 방법을 설명하기 위한 도면이다. 2 is a view for explaining a method of generating artificial data based on learning according to an embodiment of the present invention.

일 실시예로, 객체이미지 내 객체와 배경이미지 내 배경 사이의 배치 관계를 기초로 객체와 배경을 결합하여 인공데이터를 생성함에 있어서, 컴퓨터는 인공데이터가 보다 실제수술영상에 근접하게 생성될 수 있도록 학습을 수행할 수 있다. 이때, 컴퓨터는 생성기(200) 및 감별기(210)를 이용하여 학습을 수행할 수 있다. 예를 들어, 생성기(200) 및 감별기(210)는 생성적 적대 신경망(GAN; Generative Adversarial Network) 기반의 학습 방식을 이용하여 상호 간의 경쟁을 통해 동작할 수 있다. In an embodiment, in generating artificial data by combining the object and the background based on the arrangement relationship between the object in the object image and the background in the background image, the computer may generate the artificial data closer to the actual surgical image. Learning can be done. In this case, the computer may perform the learning by using the generator 200 and the discriminator 210. For example, the generator 200 and the discriminator 210 may operate by competing with each other using a generative adversarial network (GAN) based learning scheme.

도 2를 참조하면, 생성기(200)는 실제수술영상을 이용하여 생성모델(Generative Model)을 학습시키고, 학습된 생성모델을 기반으로 입력 데이터(실제수술영상)(220)를 실제에 가까운 인공데이터(230)로 생성할 수 있다. Referring to FIG. 2, the generator 200 trains a generation model using a real surgery image, and based on the learned generation model, artificial data close to the actual input data (actual surgery image) 220. And 230.

일 실시예로, 생성기(200)는 생성모델을 이용하여 각각의 실제수술영상으로부터 획득된 배경이미지 및 객체이미지를 결합하여 인공데이터를 생성할 수 있다. In an embodiment, the generator 200 may generate artificial data by combining a background image and an object image obtained from each actual surgical image using a generation model.

감별기(210)는 생성기(200)에 의해 생성된 인공데이터(230)가 실제데이터인지 인공데이터인지를 감별하도록 감별모델(Discriminative Model)을 학습시킨다. 이 때, 감별기(210)는 인공데이터에 대응하는 실제수술영상(240)을 기반으로 인공데이터(230)의 진위여부를 감별하도록 감별모델을 학습시킬 수 있다. 감별기(210)는 학습된 감별모델을 기반으로 생성모델을 다시 학습시킬 수 있다. The discriminator 210 trains a discrimination model to discriminate whether the artificial data 230 generated by the generator 200 is real data or artificial data. At this time, the discriminator 210 may train the discrimination model to discriminate the authenticity of the artificial data 230 based on the actual surgical image 240 corresponding to the artificial data. The discriminator 210 may retrain the generated model based on the learned discrimination model.

일 실시예로, 감별기(210)는 감별모델을 이용하여 생성기(200)에 의해 생성된 인공데이터(230)가 실제데이터인지 인공데이터인지를 판단할 수 있다. 감별기(210)의 판단 결과 실제가 아닌 인공데이터인 것으로 판단한 경우, 즉 생성기(200)가 감별기(210)를 속이지 못한 경우, 생성기(200)는 감별기(210)를 속이지 못한만큼의 에러를 줄이는 방향으로 생성모델을 다시 학습시킬 수 있다. 생성기(200)는 생성모델의 재학습을 통해 개선된 인공데이터를 생성할 수 있도록 한다. 이와 반대로, 감별기(210)의 판단 결과 실제데이터인 것으로 판단한 경우, 즉 감별기(210)가 생성기(200)에게 속은 경우, 감별기(210)는 오답률(에러)을 줄이는 방향으로 감별모델을 다시 학습시킬 수 있다. 생성기(200)와 감별기(210)에서 이러한 과정이 반복되면서 실제에 가까운 인공데이터를 만들 수 있다. In one embodiment, the discriminator 210 may determine whether the artificial data 230 generated by the generator 200 is real data or artificial data using the discrimination model. If the discriminator 210 determines that the artificial data is not real, that is, the generator 200 does not deceive the discriminator 210, the generator 200 may not deceive the discriminator 210. You can retrain the generation model in a way that reduces. The generator 200 may generate improved artificial data through relearning the generation model. On the contrary, in the case where it is determined that the discriminator 210 is the actual data, that is, when the discriminator 210 is deceived by the generator 200, the discriminator 210 reduces the discrimination model in the direction of reducing the error rate (error). You can relearn. This process is repeated in the generator 200 and the discriminator 210, thereby making artificial data close to reality.

따라서, 컴퓨터는 생성기(200)와 감별기(210) 간의 상호 학습을 통해 실제수술영상에 근사한 인공데이터가 생성되면 이를 기초로 수술영상 인식을 위한 학습모델을 학습시킬 학습 데이터 세트를 구성할 수 있다. Therefore, when the artificial data approximating the actual surgical image is generated through the mutual learning between the generator 200 and the discriminator 210, the computer may construct a training data set for learning a learning model for recognizing a surgical image. .

수술영상은 실제 수술과정을 통해서만 획득될 수 있고, 그 특성 상 제한적인 장면만 포함하고 있는 경우가 많다. 실제 수술시에는 특정 수술부위를 대상으로 수술을 수행하며, 또한 수술부위나 수술목적에 따라 정해진 수술도구를 이용해서 수술을 수행하게 되므로, 다양한 수술도구나 수술부위를 포함하고 있는 수술영상을 확보하기 힘들다. 따라서, 이러한 수술영상을 이용하여 학습을 수행하는 경우, 실제 수술시에 획득되는 실제수술영상만으로는 충분한 학습 데이터를 구축하기 힘들다. 이에, 본 발명에서는 실제수술영상과 거의 차이가 없는 인공데이터를 생성함으로써, 수술영상을 이용하여 학습을 수행하는 학습모델의 학습 데이터로 제공할 수 있다. Surgical images can only be obtained through actual surgical procedures, and often contain only limited scenes. In actual operation, surgery is performed on a specific surgical site, and since surgery is performed using a surgical tool determined according to the surgical site or the surgical purpose, it is difficult to secure a surgical image including various surgical tools or surgical sites. . Therefore, when learning is performed using such a surgical image, it is difficult to construct sufficient learning data using only the actual surgical image obtained during the actual surgery. Thus, in the present invention, by generating artificial data almost no difference from the actual surgical image, it can be provided as the learning data of the learning model to perform the learning using the surgical image.

도 3 내지 도 6은 본 발명의 일 실시예에 따른 학습을 기반으로 인공데이터를 생성하는 방법의 실시예들을 설명하기 위해 도시된 도면이다. 3 to 6 are diagrams for explaining embodiments of a method for generating artificial data based on learning according to an embodiment of the present invention.

도 3 내지 도 6을 참조하여, 컴퓨터가 배경이미지 및 객체이미지를 획득하여 인공데이터를 생성하는 다양한 실시예들을 설명한다. 3 to 6, various embodiments in which a computer acquires a background image and an object image to generate artificial data will be described.

도 3은 객체 및 배경을 포함하는 제1, 2 실제수술영상을 이용하여 인공데이터를 생성하는 제1 실시예이다. 3 is a first embodiment of generating artificial data using first and second actual surgical images including an object and a background.

도 3을 참조하면, 컴퓨터는 객체 및 배경을 포함하는 제1 실제수술영상(300)과, 객체 및 배경을 포함하는 제2 실제수술영상(310)을 획득할 수 있다. 이때, 컴퓨터는 제1 실제수술영상(300)과 제2 실제수술영상(310) 각각에 포함된 객체이미지 또는 배경이미지를 추출하고, 이들을 조합하여 인공데이터를 생성할 수 있다. Referring to FIG. 3, the computer may acquire a first real surgery image 300 including an object and a background, and a second real surgery image 310 including an object and a background. In this case, the computer may extract the object image or the background image included in each of the first real surgery image 300 and the second real surgery image 310, and combine them to generate artificial data.

일 실시예로, 컴퓨터는 제1 실제수술영상(300) 내 배경이미지를 추출하고, 제2 실제수술영상(310) 내 객체이미지를 추출할 수 있다. 컴퓨터는 추출한 배경이미지 및 객체이미지를 생성모델(즉, 생성기)(320)을 이용하여 실제수술영상에 가까운 인공데이터(330)를 생성할 수 있다. 예를 들어, 컴퓨터는 생성모델(320)에서의 학습을 바탕으로 배경이미지 내 배경(즉, 신체내부의 특정 영역에 존재하는 장기, 혈관, 조직 등)과, 객체이미지 내 객체(즉, 수술도구, 혈액, 출혈 등) 간의 배치 관계를 기초로 배경이미지와 객체이미지를 결합시킬 수 있다. 이때, 컴퓨터는 제2 실제수술영상(310)과 함께 제2 실제수술영상(310) 내 객체 세그먼테이션(segmentation)(311)을 정답으로서 생성모델(320)에 제공할 수 있다. 생성모델(320)은 정답인 객체 세그먼테이션(311)을 통해 학습되므로, 보다 실제수술영상에 가까운 인공데이터를 생성할 수 있다. In an embodiment, the computer may extract the background image in the first real surgery image 300 and the object image in the second real surgery image 310. The computer may generate artificial data 330 close to the actual surgical image by using the generated model (ie, the generator) 320 to extract the extracted background image and the object image. For example, based on the learning in the generation model 320, the computer may use the background in the background image (ie, organs, blood vessels, tissues, etc., present in a specific area of the body) and the objects in the object image (ie, surgical instruments). Background image and object image can be combined based on the arrangement relationship between the blood, blood, and bleeding. In this case, the computer may provide an object segmentation 311 in the second real surgery image 310 to the generation model 320 together with the second real surgery image 310 as a correct answer. Since the generation model 320 is trained through the object segmentation 311 which is the correct answer, it is possible to generate artificial data closer to the actual surgical image.

컴퓨터는 생성모델(320)에 의해 생성된 인공데이터(330)를 감별모델(즉, 감별기)(350)에 제공할 수 있다. 감별모델(350)은 인공데이터(330)에 대응하는 실제수술영상(340)을 기반으로 인공데이터(330)의 진위여부를 판단할 수 있다. 이때, 컴퓨터는 감별모델(350)의 학습을 위해 인공데이터(330) 내 객체 세그먼테이션(331)과, 실제수술영상(340) 내 객체 세그먼테이션(341)을 추가적으로 제공할 수 있다. The computer may provide the artificial data 330 generated by the generation model 320 to the discrimination model (ie, the discriminator) 350. The differential model 350 may determine the authenticity of the artificial data 330 based on the actual surgical image 340 corresponding to the artificial data 330. In this case, the computer may additionally provide the object segmentation 331 in the artificial data 330 and the object segmentation 341 in the actual surgical image 340 to learn the differential model 350.

컴퓨터는 감별모델(350)의 판단 결과에 따라 생성모델(320) 또는 감별모델(350)을 재학습시킬 수 있다. 예를 들어, 감별모델(350)의 판단 결과, 인공데이터(330)가 실제가 아닌 인공데이터인 것으로 판단된 경우, 컴퓨터는 생성모델(320)을 다시 학습시킬 수 있다. 이와 반대로, 인공데이터(330)가 실제데이터인 것으로 판단된 경우, 컴퓨터는 감별모델(350)을 다시 학습시킬 수 있다. The computer may relearn the generation model 320 or the differential model 350 according to the determination result of the differential model 350. For example, when it is determined that the artificial data 330 is artificial data rather than actual data, the computer may relearn the generated model 320. On the contrary, when it is determined that the artificial data 330 is real data, the computer may relearn the differential model 350.

다른 실시예로, 컴퓨터는 제1 실제수술영상(300) 내 객체이미지를 추출하고, 제2 실제수술영상(310) 내 배경이미지를 추출하여, 인공데이터를 생성할 수 있다. 이에 대한 구체적인 과정은 도 3을 참조하여 설명한 바와 유사하므로, 본 실시예에서는 설명을 생략하도록 한다. In another embodiment, the computer may extract the object image in the first real surgery image 300, extract the background image in the second real surgery image 310, and generate artificial data. Since a detailed process thereof is similar to that described with reference to FIG. 3, the description thereof will be omitted.

상술한 실시예에 따르면, 서로 다른 객체가 포함된 실제수술영상을 활용하여 인공데이터를 생성하는 것으로, 이는 수술시에 잘 등장하지 않는 희귀한 객체(예컨대, 수술도구, 혈액이나 출혈)에 대한 수술영상을 축적할 수 있다. 또한, 수동으로 레이블링을 수행하는 경우 비용이 비싼 세그먼테이션 데이터를 인공데이터로 대체할 수 있으므로, 비용을 절약할 수 있다. According to the above-described embodiment, artificial data is generated by using an actual surgical image including different objects, which is performed on rare objects (eg, surgical instruments, blood or bleeding) that do not appear well at the time of surgery. You can accumulate images. In addition, manual labeling can replace expensive segmentation data with artificial data, thereby saving costs.

도 4는 객체만 포함하는 제1 실제수술영상과 객체 및 배경을 모두 포함하는 제2 실제수술영상을 이용하여 인공데이터를 생성하는 제2 실시예이다. 4 is a second embodiment of generating artificial data using a first real surgery image including only an object and a second real surgery image including both an object and a background.

도 4를 참조하면, 컴퓨터는 객체만 포함하는 제1 실제수술영상(400)과, 객체 및 배경을 모두 포함하는 제2 실제수술영상(410)을 획득할 수 있다. 이때, 컴퓨터는 제1 실제수술영상(400)에서는 객체이미지를 추출하고, 제2 실제수술영상(410)에서는 배경이미지를 추출할 수 있다. 컴퓨터는 추출한 배경이미지 및 객체이미지를 생성모델(즉, 생성기)(420)을 이용하여 실제수술영상에 가까운 인공데이터(430)를 생성할 수 있다.Referring to FIG. 4, the computer may acquire a first real surgery image 400 including only an object and a second real surgery image 410 including both an object and a background. In this case, the computer may extract the object image from the first real surgery image 400 and the background image from the second real surgery image 410. The computer may generate artificial data 430 close to the actual surgical image by using the generation model (ie, the generator) 420 of the extracted background image and the object image.

예를 들어, 컴퓨터는 생성모델(420)에서의 학습을 바탕으로 배경이미지 내 배경(즉, 신체내부의 특정 영역에 존재하는 장기, 혈관, 조직 등)과, 객체이미지 내 객체(즉, 수술도구, 혈액, 출혈 등) 간의 배치 관계를 기초로 배경이미지와 객체이미지를 결합시킬 수 있다.For example, based on the training in the generation model 420, the computer may use the background in the background image (ie, organs, blood vessels, tissues, etc., present in a specific area of the body) and the objects in the object image (ie, surgical instruments). Background image and object image can be combined based on the arrangement relationship between the blood, blood, and bleeding.

컴퓨터는 생성모델(420)에 의해 생성된 인공데이터(430)를 감별모델(즉, 감별기)(450)에 제공할 수 있다. 감별모델(450)은 인공데이터(430)에 대응하는 실제수술영상(440)을 기반으로 인공데이터(430)의 진위여부를 판단할 수 있다. 이때, 컴퓨터는 감별모델(450)의 학습을 위해 인공데이터(430) 내 객체 세그먼테이션(431)과, 실제수술영상(440) 내 객체 세그먼테이션(441)을 추가적으로 제공할 수 있다. The computer may provide the artificial data 430 generated by the generation model 420 to the discrimination model (ie, the discriminator) 450. The differential model 450 may determine the authenticity of the artificial data 430 based on the actual surgical image 440 corresponding to the artificial data 430. In this case, the computer may additionally provide the object segmentation 431 in the artificial data 430 and the object segmentation 441 in the actual surgical image 440 to learn the differential model 450.

컴퓨터는 감별모델(450)의 판단 결과에 따라 생성모델(420) 또는 감별모델(450)을 재학습시킬 수 있다. 예를 들어, 감별모델(450)의 판단 결과, 인공데이터(430)가 실제가 아닌 인공데이터인 것으로 판단된 경우, 컴퓨터는 생성모델(320)을 다시 학습시킬 수 있다. 이와 반대로, 인공데이터(430)가 실제데이터인 것으로 판단된 경우, 컴퓨터는 감별모델(450)을 다시 학습시킬 수 있다. The computer may relearn the generation model 420 or the differential model 450 according to the determination result of the differential model 450. For example, when it is determined that the artificial data 430 is artificial data rather than real data, the computer may relearn the generated model 320. On the contrary, when it is determined that the artificial data 430 is real data, the computer may relearn the differential model 450.

상술한 실시예에 따르면, 인공데이터 생성에 대한 유연성을 높일 수 있고, 다양한 객체에 대한 수술영상을 축적할 수 있다. 예컨대 다양한 유형의 수술도구 영상, 수술도구의 위치, 방향, 배치 등을 각기 다르게 설정한 수술영상 등을 확보할 수 있다. According to the embodiment described above, flexibility for generating artificial data can be increased, and surgical images for various objects can be accumulated. For example, various types of surgical tool images, surgical images with different positions, directions, and arrangements of surgical tools can be obtained.

도 5는 배경만 포함하는 제1 실제수술영상과 객체 및 배경을 모두 포함하는 제2 실제수술영상을 이용하여 인공데이터를 생성하는 제3 실시예이다. FIG. 5 is a third embodiment of generating artificial data using a first real surgery image including only a background and a second real surgery image including both an object and a background.

도 5를 참조하면, 컴퓨터는 배경만 포함하는 제1 실제수술영상(500)과, 객체 및 배경을 모두 포함하는 제2 실제수술영상(510)을 획득할 수 있다. 이때, 컴퓨터는 제1 실제수술영상(500)에서는 배경이미지를 추출하고, 제2 실제수술영상(510)에서는 객체이미지를 추출할 수 있다. 컴퓨터는 추출한 배경이미지 및 객체이미지를 생성모델(즉, 생성기)(520)을 이용하여 실제수술영상에 가까운 인공데이터(530)를 생성할 수 있다.Referring to FIG. 5, the computer may acquire a first real surgery image 500 including only a background and a second real surgery image 510 including both an object and a background. In this case, the computer may extract the background image from the first real surgery image 500 and the object image from the second real surgery image 510. The computer may generate artificial data 530 close to the actual surgical image by using the generated model (ie, generator) 520 of the extracted background image and the object image.

예를 들어, 컴퓨터는 생성모델(520)에서의 학습을 바탕으로 배경이미지 내 배경(즉, 신체내부의 특정 영역에 존재하는 장기, 혈관, 조직 등)과, 객체이미지 내 객체(즉, 수술도구, 혈액, 출혈 등) 간의 배치 관계를 기초로 배경이미지와 객체이미지를 결합시킬 수 있다.For example, based on the learning in the generation model 520, the computer may use the background in the background image (ie, organs, blood vessels, tissues, etc., present in a specific area of the body) and the objects in the object image (ie, surgical instruments). Background image and object image can be combined based on the arrangement relationship between the blood, blood, and bleeding.

이때, 컴퓨터는 제2 실제수술영상(510)과 함께 제2 실제수술영상(510) 내 객체 세그먼테이션(511)을 정답으로서 생성모델(520)에 제공할 수 있다. 생성모델(520)은 정답인 객체 세그먼테이션(511)을 통해 학습되므로, 보다 실제수술영상에 가까운 인공데이터를 생성할 수 있다. In this case, the computer may provide the object segmentation 511 in the second actual surgery image 510 with the second actual surgery image 510 as a correct answer to the generation model 520. Since the generation model 520 is trained through the object segmentation 511 which is the correct answer, the generation model 520 may generate artificial data closer to the actual surgical image.

컴퓨터는 생성모델(520)에 의해 생성된 인공데이터(530)를 감별모델(즉, 감별기)(550)에 제공할 수 있다. 감별모델(550)은 인공데이터(530)에 대응하는 실제수술영상(540)을 기반으로 인공데이터(530)의 진위여부를 판단할 수 있다. 이때, 컴퓨터는 감별모델(550)의 학습을 위해 인공데이터(530) 내 객체 세그먼테이션(531)과, 실제수술영상(540) 내 객체 세그먼테이션(541)을 추가적으로 제공할 수 있다. The computer may provide the artificial data 530 generated by the generation model 520 to the discrimination model (ie, discriminator) 550. The differential model 550 may determine the authenticity of the artificial data 530 based on the actual surgical image 540 corresponding to the artificial data 530. In this case, the computer may additionally provide an object segmentation 531 in the artificial data 530 and an object segmentation 541 in the actual surgical image 540 to learn the differential model 550.

컴퓨터는 감별모델(550)의 판단 결과에 따라 생성모델(520) 또는 감별모델(550)을 재학습시킬 수 있다. 예를 들어, 감별모델(550)의 판단 결과, 인공데이터(530)가 실제가 아닌 인공데이터인 것으로 판단된 경우, 컴퓨터는 생성모델(520)을 다시 학습시킬 수 있다. 이와 반대로, 인공데이터(530)가 실제데이터인 것으로 판단된 경우, 컴퓨터는 감별모델(550)을 다시 학습시킬 수 있다. The computer may relearn the generation model 520 or the differential model 550 according to the determination result of the differential model 550. For example, when it is determined that the artificial data 530 is artificial data rather than actual data, the computer may relearn the generated model 520. On the contrary, if it is determined that the artificial data 530 is real data, the computer may relearn the differential model 550.

상술한 실시예에 따르면, 인공데이터 생성에 대한 유연성을 높일 수 있고, 특정 객체(예컨대, 수술도구)에 대해서 다양한 유형의 신체내부 장기, 혈관, 조직 등을 수술하는 영상을 확보할 수 있다. 예컨대, 하나의 수술도구에 대해 각기 다른 신체부위를 수술하고 있는 수술영상을 확보할 수 있다. According to the above-described embodiments, it is possible to increase flexibility for generating artificial data and to obtain an image of operating various types of internal organs, blood vessels, tissues, etc. on a specific object (eg, a surgical tool). For example, it is possible to obtain a surgical image for operating different body parts for one surgical tool.

도 6은 배경만 포함하는 제1 실제수술영상과 객체만 포함하는 제2 실제수술영상을 이용하여 인공데이터를 생성하는 제4 실시예이다.FIG. 6 is a fourth embodiment of generating artificial data using a first real surgery image including only a background and a second real surgery image including only an object.

도 6을 참조하면, 컴퓨터는 배경만 포함하는 제1 실제수술영상(600)과, 객체만 포함하는 제2 실제수술영상(610)을 획득할 수 있다. 이때, 컴퓨터는 제1 실제수술영상(600)에서는 배경이미지를 추출하고, 제2 실제수술영상(610)에서는 객체이미지를 추출할 수 있다. 컴퓨터는 추출한 배경이미지 및 객체이미지를 생성모델(즉, 생성기)(620)을 이용하여 실제수술영상에 가까운 인공데이터(630)를 생성할 수 있다.Referring to FIG. 6, the computer may acquire a first real surgery image 600 including only a background and a second real surgery image 610 including only an object. In this case, the computer may extract the background image from the first real surgery image 600 and the object image from the second real surgery image 610. The computer may generate artificial data 630 close to the actual surgical image by using the generated model (ie, generator) 620 of the extracted background image and the object image.

예를 들어, 컴퓨터는 생성모델(620)에서의 학습을 바탕으로 배경이미지 내 배경(즉, 신체내부의 특정 영역에 존재하는 장기, 혈관, 조직 등)과, 객체이미지 내 객체(즉, 수술도구, 혈액, 출혈 등) 간의 배치 관계를 기초로 배경이미지와 객체이미지를 결합시킬 수 있다.For example, based on the learning in the generation model 620, the computer may use the background in the background image (ie, organs, blood vessels, tissues, etc., present in a specific area of the body) and the objects in the object image (ie, surgical instruments). Background image and object image can be combined based on the arrangement relationship between the blood, blood, and bleeding.

컴퓨터는 생성모델(620)에 의해 생성된 인공데이터(630)를 감별모델(즉, 감별기)(650)에 제공할 수 있다. 감별모델(650)은 인공데이터(630)에 대응하는 실제수술영상(640)을 기반으로 인공데이터(630)의 진위여부를 판단할 수 있다. 이때, 컴퓨터는 감별모델(650)의 학습을 위해 인공데이터(630) 내 객체 세그먼테이션(631)과, 실제수술영상(640) 내 객체 세그먼테이션(641)을 추가적으로 제공할 수 있다. The computer may provide the artificial data 630 generated by the generation model 620 to the discrimination model (ie, discriminator) 650. The differential model 650 may determine the authenticity of the artificial data 630 based on the actual surgical image 640 corresponding to the artificial data 630. In this case, the computer may additionally provide the object segmentation 631 in the artificial data 630 and the object segmentation 641 in the actual surgical image 640 to learn the differential model 650.

컴퓨터는 감별모델(650)의 판단 결과에 따라 생성모델(620) 또는 감별모델(650)을 재학습시킬 수 있다. 예를 들어, 감별모델(650)의 판단 결과, 인공데이터(630)가 실제가 아닌 인공데이터인 것으로 판단된 경우, 컴퓨터는 생성모델(620)을 다시 학습시킬 수 있다. 이와 반대로, 인공데이터(630)가 실제데이터인 것으로 판단된 경우, 컴퓨터는 감별모델(650)을 다시 학습시킬 수 있다. The computer may relearn the generation model 620 or the differential model 650 according to the determination result of the differential model 650. For example, when it is determined that the artificial data 630 is artificial data rather than real data, the computer may relearn the generated model 620. On the contrary, when it is determined that the artificial data 630 is real data, the computer may relearn the differential model 650.

상술한 실시예에 따르면, 다양한 객체 및 다양한 신체내부 공간을 포함하는 수술영상을 획득할 수 있다. 예컨대, 필요한 수술도구 또는 필요한 신체내부의 장기, 혈관, 조직 등에 대한 정보를 자유롭게 배치하여 다양한 유형의 수술영상을 확보할 수 있다. According to the above-described embodiment, a surgical image including various objects and various internal body spaces may be acquired. For example, various types of surgical images may be obtained by freely arranging information on necessary surgical tools or organs, blood vessels, tissues, and the like.

상술한 도 5 및 도 6의 실시예에서는, 배경만 포함하는 실제수술영상(배경이미지)을 획득하여 인공데이터를 생성한다. 이때, 배경만 포함하는 실제수술영상에는 수술도구 등과 같은 객체를 포함하지 않고 단지 배경이미지만 포함하고 있다. 이 경우, 컴퓨터는 내시경 카메라에 의해 신체 내부의 특정 위치에서 촬영된 영상프레임들을 획득하고, 이 영상프레임들로부터 수술도구 등과 같은 객체이미지를 제거하여 배경 영역만 포함하는 배경이미지를 생성할 수 있다. 또는, 컴퓨터는 내시경을 이용한 수술 시에 신체 내부로 진입하는 내시경에 의해 획득된 영상프레임을 사용할 수 있다. 이 경우, 수술도구 등의 객체를 포함하지 않는 배경이미지만 존재하는 영상프레임을 획득할 수 있다. 또는, 컴퓨터는 복강경이나 로봇수술과 같은 최소침습수술 시에 신체내부로 진입하는 카메라에 의해 획득된 영상프레임으로부터 배경만 포함하는 영상프레임을 추출할 수 있다. 최소침습수술의 경우, 제1 영역의 수술동작이 완료되고 제2 영역으로 이동하여 수술을 수행할 시에 카메라와 수술도구도 제1 영역에서 제2 영역으로 이동하게 된다. 이때, 수술의 특성상 카메라가 이동할 때 수술도구는 움직이지 않는 제약사항이 있다. 따라서, 제1 영역에서 제2 영역으로 이동할 때, 카메라가 먼저 이동을 한 다음 수술도구가 이동하게 되므로, 제2 영역으로 먼저 이동한 카메라가 수술도구 없는 영상프레임을 획득할 수 있다. 5 and 6, the artificial data is generated by acquiring an actual surgical image (background image) including only a background. In this case, the actual surgical image including only the background does not include an object such as a surgical tool and includes only a background image. In this case, the computer may acquire image frames photographed at a specific position inside the body by the endoscope camera, and remove the object image such as a surgical tool from the image frames to generate a background image including only the background area. Alternatively, the computer may use an image frame obtained by the endoscope entering the body during the operation using the endoscope. In this case, an image frame having only a background image not including an object such as a surgical tool may be obtained. Alternatively, the computer may extract an image frame including only a background from an image frame obtained by a camera entering the body during minimally invasive surgery such as laparoscopic or robotic surgery. In the case of minimally invasive surgery, the operation of the first area is completed and the camera and the surgical tool are also moved from the first area to the second area when the operation is performed by moving to the second area. At this time, there is a constraint that the surgical tool does not move when the camera moves due to the nature of the surgery. Accordingly, when moving from the first area to the second area, the camera moves first and then the surgical tool moves, so that the camera moved first to the second area may acquire an image frame without the surgical tool.

컴퓨터는 상술한 실시예들로부터 생성된 인공데이터를 이용하여 학습 데이터를 구축할 수 있다. 예를 들어, 영상인식을 위한 학습모델을 학습시키기 위한 학습 데이터로 인공데이터를 활용할 수 있다. 따라서, 본 발명의 실시예에 따르면 대량의 학습 데이터가 필요한 인공지능, 딥러닝, 기계학습 등에 실제수술영상과 함께 인공으로 생성된 수술영상을 제공함으로써, 충분한 학습 효과를 얻을 수 있도록 한다. The computer may construct the training data using artificial data generated from the above embodiments. For example, artificial data may be used as training data for training a training model for image recognition. Therefore, according to an embodiment of the present invention, by providing artificial surgical images generated with artificial surgery, deep learning, machine learning, etc. which requires a large amount of learning data together with the actual surgical images, sufficient learning effects can be obtained.

도 7은 본 발명의 일 실시예에 따라 로봇수술을 수행할 수 있는 시스템을 간략하게 도식화한 도면이다. 7 is a schematic diagram of a system capable of performing robotic surgery in accordance with one embodiment of the present invention.

도 7에 따르면, 로봇수술 시스템은 의료영상 촬영장비(10), 서버(100) 및 수술실에 구비된 제어부(30), 디스플레이(32) 및 수술로봇(34)을 포함한다. 실시 예에 따라서, 의료영상 촬영장비(10)는 개시된 실시 예에 따른 로봇수술 시스템에서 생략될 수 있다.According to FIG. 7, the robotic surgical system includes a medical imaging apparatus 10, a server 100, a control unit 30 provided in an operating room, a display 32, and a surgical robot 34. According to an embodiment, the medical imaging apparatus 10 may be omitted in the robot surgery system according to the disclosed embodiment.

일 실시 예에서, 수술로봇(34)은 촬영장치(36) 및 수술도구(38)를 포함한다.In one embodiment, surgical robot 34 includes imaging device 36 and surgical instrument 38.

일 실시 예에서, 로봇수술은 사용자가 제어부(30)를 이용하여 수술용 로봇(34)을 제어함으로써 수행된다. 일 실시 예에서, 로봇수술은 사용자의 제어 없이 제어부(30)에 의하여 자동으로 수행될 수도 있다.In one embodiment, the robot surgery is performed by the user controlling the surgical robot 34 using the control unit 30. In one embodiment, the robot surgery may be automatically performed by the controller 30 without the user's control.

서버(100)는 적어도 하나의 프로세서와 통신부를 포함하는 컴퓨팅 장치이다.The server 100 is a computing device including at least one processor and a communication unit.

제어부(30)는 적어도 하나의 프로세서와 통신부를 포함하는 컴퓨팅 장치를 포함한다. 일 실시 예에서, 제어부(30)는 수술용 로봇(34)을 제어하기 위한 하드웨어 및 소프트웨어 인터페이스를 포함한다.The controller 30 includes a computing device including at least one processor and a communication unit. In one embodiment, the control unit 30 includes hardware and software interfaces for controlling the surgical robot 34.

촬영장치(36)는 적어도 하나의 이미지 센서를 포함한다. 즉, 촬영장치(36)는 적어도 하나의 카메라 장치를 포함하여, 대상체, 즉 수술부위를 촬영하는 데 이용된다. 일 실시 예에서, 촬영장치(36)는 수술로봇(34)의 수술 암(arm)과 결합된 적어도 하나의 카메라를 포함한다.The imaging device 36 includes at least one image sensor. That is, the imaging device 36 includes at least one camera device and is used to photograph an object, that is, a surgical site. In one embodiment, the imaging device 36 includes at least one camera coupled with a surgical arm of the surgical robot 34.

일 실시 예에서, 촬영장치(36)에서 촬영된 영상은 디스플레이(340)에 표시된다.In an embodiment, the image photographed by the photographing apparatus 36 is displayed on the display 340.

일 실시 예에서, 수술로봇(34)은 수술부위의 절단, 클리핑, 고정, 잡기 동작 등을 수행할 수 있는 하나 이상의 수술도구(38)를 포함한다. 수술도구(38)는 수술로봇(34)의 수술 암과 결합되어 이용된다.In one embodiment, surgical robot 34 includes one or more surgical tools 38 that can perform cutting, clipping, fixing, grabbing operations, and the like, of the surgical site. Surgical tool 38 is used in conjunction with the surgical arm of the surgical robot 34.

제어부(30)는 서버(100)로부터 수술에 필요한 정보를 수신하거나, 수술에 필요한 정보를 생성하여 사용자에게 제공한다. 예를 들어, 제어부(30)는 생성 또는 수신된, 수술에 필요한 정보를 디스플레이(32)에 표시한다.The controller 30 receives information necessary for surgery from the server 100 or generates information necessary for surgery and provides the information to the user. For example, the controller 30 displays the information necessary for surgery, generated or received, on the display 32.

예를 들어, 사용자는 디스플레이(32)를 보면서 제어부(30)를 조작하여 수술로봇(34)의 움직임을 제어함으로써 로봇수술을 수행한다.For example, the user performs the robot surgery by controlling the movement of the surgical robot 34 by manipulating the control unit 30 while looking at the display 32.

서버(100)는 의료영상 촬영장비(10)로부터 사전에 촬영된 대상체의 의료영상데이터를 이용하여 로봇수술에 필요한 정보를 생성하고, 생성된 정보를 제어부(30)에 제공한다. The server 100 generates information necessary for robotic surgery using medical image data of an object previously photographed from the medical image photographing apparatus 10, and provides the generated information to the controller 30.

제어부(30)는 서버(100)로부터 수신된 정보를 디스플레이(32)에 표시함으로써 사용자에게 제공하거나, 서버(100)로부터 수신된 정보를 이용하여 수술로봇(34)을 제어한다.The controller 30 displays the information received from the server 100 on the display 32 to provide the user, or controls the surgical robot 34 by using the information received from the server 100.

일 실시 예에서, 의료영상 촬영장비(10)에서 사용될 수 있는 수단은 제한되지 않으며, 예를 들어 CT, X-Ray, PET, MRI 등 다른 다양한 의료영상 획득수단이 사용될 수 있다. In one embodiment, the means that can be used in the medical imaging apparatus 10 is not limited, for example, other various medical image acquisition means such as CT, X-Ray, PET, MRI may be used.

상술한 바와 같이 로봇수술을 수행할 경우, 수술 과정에서 촬영된 수술영상 또는 수술로봇의 제어과정에서 다양한 수술정보를 포함하는 데이터를 획득할 수 있다. 일 실시예로, 본 발명에서는 이와 같은 로봇수술 과정에서 획득된 수술정보(즉, 수술영상)를 기초로 상술한 바와 같은 객체이미지 또는 배경이미지를 획득하여 인공데이터를 생성할 수 있다. 물론, 본 발명의 실시예에 따른 인공데이터를 생성함에 있어서, 로봇수술 과정에서 획득된 수술영상을 활용하는 것은 하나의 예시일 뿐이며, 본 발명이 이에 한정되는 것은 아니다. 다른 실시예로, 복강경, 내시경 등을 이용한 최소침습수술이나, 의료진들이 직접 환자에 대해 수술을 하는 경우 획득되는 수술영상 역시 인공데이터를 생성하는데 활용될 수 있다. As described above, when performing a robotic operation, data including various surgical information may be acquired in a surgical image photographed in a surgical process or a control process of a surgical robot. In one embodiment, in the present invention, artificial data may be generated by acquiring the object image or the background image as described above based on the surgical information (ie, the surgical image) obtained in the robot surgery. Of course, in generating artificial data according to an embodiment of the present invention, utilizing the surgical image obtained in the robot surgery process is just one example, the present invention is not limited thereto. In another embodiment, minimally invasive surgery using a laparoscope, endoscope, or the like, and a surgical image obtained when a medical staff directly operates on a patient may also be used to generate artificial data.

도 8은 본 발명의 일 실시예에 따른 인공데이터 생성 방법을 수행하는 장치(700)의 구성을 개략적으로 나타내는 도면이다. 8 is a diagram schematically illustrating a configuration of an apparatus 700 for performing an artificial data generating method according to an embodiment of the present invention.

도 8을 참조하면, 프로세서(710)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.Referring to FIG. 8, the processor 710 may include a connection passage (eg, a bus or the like) that transmits and receives signals with one or more cores (not shown) and a graphic processor (not shown) and / or other components. ) May be included.

일 실시예에 따른 프로세서(710)는 메모리(720)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 도 1 내지 도 6과 관련하여 설명된 인공데이터 생성 방법을 수행한다.The processor 710 according to an embodiment executes one or more instructions stored in the memory 720 to perform the artificial data generation method described with reference to FIGS. 1 to 6.

예를 들어, 프로세서(710)는 메모리(720)에 저장된 하나 이상의 인스트럭션을 실행함으로써 배경이미지 및 객체이미지를 획득하고, 배경이미지 및 객체이미지를 결합하여 인공데이터를 생성할 수 있다.For example, the processor 710 may acquire a background image and an object image by executing one or more instructions stored in the memory 720, and generate artificial data by combining the background image and the object image.

한편, 프로세서(710)는 프로세서(710) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(710)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.Meanwhile, the processor 710 may include random access memory (RAM) and read-only memory (ROM) for temporarily and / or permanently storing a signal (or data) processed in the processor 710. , Not shown) may be further included. In addition, the processor 710 may be implemented in the form of a system on chip (SoC) including at least one of a graphic processor, a RAM, and a ROM.

메모리(720)에는 프로세서(710)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(720)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.The memory 720 may store programs (one or more instructions) for processing and controlling the processor 710. Programs stored in the memory 720 may be divided into a plurality of modules according to their functions.

이상에서 전술한 본 발명의 일 실시예에 따른 인공데이터 생성 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The artificial data generation method according to an embodiment of the present invention described above may be implemented as a program (or an application) and stored in a medium to be executed in combination with a computer which is hardware.

상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.The above-described program includes C, C ++, JAVA, machine language, etc. which can be read by the computer's processor (CPU) through the computer's device interface so that the computer reads the program and executes the methods implemented as the program. Code may be coded in the computer language of. Such code may include functional code associated with a function or the like that defines the necessary functions for executing the methods, and includes control procedures related to execution procedures necessary for the computer's processor to execute the functions according to a predetermined procedure. can do. In addition, the code may further include memory reference code for additional information or media required for the computer's processor to execute the functions at which location (address address) of the computer's internal or external memory should be referenced. have. Also, if the processor of the computer needs to communicate with any other computer or server remotely in order to execute the functions, the code may be used to communicate with any other computer or server remotely using the communication module of the computer. It may further include a communication related code for whether to communicate, what information or media should be transmitted and received during communication.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The stored medium is not a medium for storing data for a short time such as a register, a cache, a memory, but semi-permanently, and means a medium that can be read by the device. Specifically, examples of the storage medium include, but are not limited to, a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like. That is, the program may be stored in various recording media on various servers to which the computer can access or various recording media on the computer of the user. The media may also be distributed over network coupled computer systems so that the computer readable code is stored in a distributed fashion.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, in a software module executed by hardware, or by a combination thereof. The software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing the technical spirit or essential features. I can understand that. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.

Claims (11)

컴퓨터가 수행하는 인공데이터를 생성하는 방법에 있어서,
배경이미지 및 객체이미지를 획득하는 단계; 및
상기 배경이미지 및 상기 객체이미지를 결합하여 인공데이터를 생성하는 단계를 포함하며,
상기 배경이미지는, 내시경 카메라에 의해 촬영된 신체내부의 특정 영역을 포함하며,
상기 객체이미지는, 수술도구 또는 혈액을 포함하며,
상기 인공데이터는, 상기 객체이미지 내 수술도구 또는 혈액, 및 상기 배경이미지 내 신체내부의 특정 영역 사이의 배치 관계를 기반으로 실제수술영상과 근사하게 생성되며, 학습모델을 학습시키기 위한 학습 데이터로 사용되는 것을 특징으로 하는 인공데이터 생성 방법.
In the method for generating artificial data performed by a computer,
Obtaining a background image and an object image; And
Generating artificial data by combining the background image and the object image;
The background image includes a specific area inside the body taken by the endoscope camera,
The object image includes a surgical instrument or blood,
The artificial data is generated to approximate the actual surgical image based on the arrangement relationship between the surgical tool or blood in the object image and a specific region inside the body in the background image, and is used as learning data for learning a learning model. Artificial data generation method characterized in that the.
제1항에 있어서,
상기 인공데이터를 생성하는 단계는,
실제수술영상을 기초로 학습된 생성모델(Generative Model)을 이용하여 상기 인공데이터를 생성하는 것을 특징으로 하는 인공데이터 생성 방법.
The method of claim 1,
Generating the artificial data,
Artificial data generation method characterized in that to generate the artificial data using a generation model (Generative Model) learned based on the actual surgical image.
제2항에 있어서,
상기 인공데이터를 생성하는 단계는,
실제데이터인지 인공데이터인지 감별하도록 학습된 감별모델(Discriminative Model)을 이용하여 상기 인공데이터가 실제데이터인지 인공데이터인지를 판단하는 단계; 및
상기 판단 결과에 따라 상기 인공데이터가 실제데이터가 아닌 경우로 판단한 경우, 상기 생성모델을 다시 학습시키는 단계를 포함하는 것을 특징으로 하는 인공데이터 생성 방법.
The method of claim 2,
Generating the artificial data,
Determining whether the artificial data is real data or artificial data by using a discrimination model trained to discriminate whether the actual data is artificial data or artificial data; And
And if it is determined that the artificial data is not the actual data according to the determination result, re-learning the generation model.
제3항에 있어서,
상기 감별모델은,
상기 인공데이터 및 상기 인공데이터에 대응하는 실제수술영상 내 객체 세그먼테이션(segmentation)을 이용하여 학습되는 것을 특징으로 하는 인공데이터 생성 방법.
The method of claim 3,
The differentiation model,
The artificial data generation method characterized in that the learning using the artificial data and the object segmentation (segmentation) in the actual surgical image corresponding to the artificial data.
제3항에 있어서,
상기 다시 학습된 생성모델로부터 생성된 새로운 인공데이터를 기초로 수술영상 인식을 위한 학습 데이터 세트를 구성하는 단계를 더 포함하는 것을 특징으로 하는 인공데이터 생성 방법.
The method of claim 3,
And constructing a training data set for surgical image recognition based on the new artificial data generated from the retrained generation model.
제1항에 있어서,
상기 배경이미지 및 상기 객체이미지를 획득하는 단계는,
객체 및 배경을 포함하는 제1 실제수술영상으로부터 상기 객체이미지를 획득하고, 객체 및 배경을 포함하는 제2 실제수술영상으로부터 상기 배경이미지를 획득하는 것을 특징으로 하는 인공데이터 생성 방법.
The method of claim 1,
Acquiring the background image and the object image,
And obtaining the object image from the first real surgical image including an object and a background, and obtaining the background image from a second real surgical image including an object and a background.
제1항에 있어서,
상기 배경이미지 및 상기 객체이미지를 획득하는 단계는,
객체를 포함하는 제1 실제수술영상으로부터 상기 객체이미지를 획득하고, 객체 및 배경을 포함하는 제2 실제수술영상으로부터 상기 배경이미지를 획득하는 것을 특징으로 하는 인공데이터 생성 방법.
The method of claim 1,
Acquiring the background image and the object image,
And obtaining the object image from the first real surgical image including an object, and obtaining the background image from a second real surgical image including an object and a background.
제1항에 있어서,
상기 배경이미지 및 상기 객체이미지를 획득하는 단계는,
객체 및 배경을 포함하는 제1 실제수술영상으로부터 상기 객체이미지를 획득하고, 배경을 포함하는 제2 실제수술영상으로부터 상기 배경이미지를 획득하는 것을 특징으로 하는 인공데이터 생성 방법.
The method of claim 1,
Acquiring the background image and the object image,
And obtaining the object image from the first real surgery image including an object and a background, and obtaining the background image from a second real surgery image including a background.
제1항에 있어서,
상기 배경이미지 및 상기 객체이미지를 획득하는 단계는,
객체를 포함하는 제1 실제수술영상으로부터 상기 객체이미지를 획득하고, 배경을 포함하는 제2 실제수술영상으로부터 상기 배경이미지를 획득하는 것을 특징으로 하는 인공데이터 생성 방법.
The method of claim 1,
Acquiring the background image and the object image,
And obtaining the object image from the first real surgical image including an object, and obtaining the background image from the second real surgical image including a background.
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하며,
상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
배경이미지 및 객체이미지를 획득하는 단계; 및
상기 배경이미지 및 상기 객체이미지를 결합하여 인공데이터를 생성하는 단계를 수행하되,
상기 배경이미지는, 내시경 카메라에 의해 촬영된 신체내부의 특정 영역을 포함하며,
상기 객체이미지는, 수술도구 또는 혈액을 포함하며,
상기 인공데이터는, 상기 객체이미지 내 수술도구 또는 혈액, 및 상기 배경이미지 내 신체내부의 특정 영역 사이의 배치 관계를 기반으로 실제수술영상과 근사하게 생성되며, 학습모델을 학습시키기 위한 학습 데이터로 사용되는 것을 특징으로 하는 장치.
Memory for storing one or more instructions; And
A processor for executing the one or more instructions stored in the memory,
The processor executes the one or more instructions,
Obtaining a background image and an object image; And
Performing artificial data by combining the background image and the object image;
The background image includes a specific area inside the body taken by the endoscope camera,
The object image includes a surgical instrument or blood,
The artificial data is generated to approximate the actual surgical image based on the arrangement relationship between the surgical tool or blood in the object image and a specific region inside the body in the background image, and is used as learning data for learning a learning model. Apparatus characterized in that the.
하드웨어인 컴퓨터와 결합되어, 제1항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.A computer program, coupled to a computer, which is hardware, stored on a recording medium readable by a computer so as to perform the method of claim 1.
KR1020180122949A 2018-02-20 2018-10-16 Method and apparatus for generating artificial data KR102013806B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/002092 WO2019164274A1 (en) 2018-02-20 2019-02-20 Training data generation method and device

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR20180019867 2018-02-20
KR1020180019867 2018-02-20
KR1020180019866 2018-02-20
KR20180019868 2018-02-20
KR1020180019868 2018-02-20
KR20180019866 2018-02-20

Publications (1)

Publication Number Publication Date
KR102013806B1 true KR102013806B1 (en) 2019-08-23

Family

ID=67763730

Family Applications (21)

Application Number Title Priority Date Filing Date
KR1020180098413A KR102018565B1 (en) 2018-02-20 2018-08-23 Method, apparatus and program for constructing surgical simulation information
KR1020180098360A KR102014355B1 (en) 2018-02-20 2018-08-23 Method and apparatus for calculating location information of surgical device
KR1020180098358A KR102014385B1 (en) 2018-02-20 2018-08-23 Method and apparatus for learning surgical image and recognizing surgical action based on learning
KR1020180098359A KR102014359B1 (en) 2018-02-20 2018-08-23 Method and apparatus for providing camera location using surgical video
KR1020180109204A KR102014377B1 (en) 2018-02-20 2018-09-12 Method and apparatus for surgical action recognition based on learning
KR1020180115328A KR102013868B1 (en) 2018-02-20 2018-09-27 Method and apparatus for optimization of surgical process
KR1020180122454A KR102014351B1 (en) 2018-02-20 2018-10-15 Method and apparatus for constructing surgical information
KR1020180122949A KR102013806B1 (en) 2018-02-20 2018-10-16 Method and apparatus for generating artificial data
KR1020180129709A KR102014364B1 (en) 2018-02-20 2018-10-29 Method and apparatus for evaluating bleeding using surgical video
KR1020180130229A KR102013866B1 (en) 2018-02-20 2018-10-29 Method and apparatus for calculating camera location using surgical video
KR1020180131478A KR102013837B1 (en) 2018-02-20 2018-10-31 Method and apparatus for providing surgical video
KR1020180135590A KR102016959B1 (en) 2018-02-20 2018-11-07 Method and apparatus for generating blood vessel model
KR1020180135578A KR20190100004A (en) 2018-02-20 2018-11-07 Method and apparatus for using surgical information
KR1020180140050A KR20190100009A (en) 2018-02-20 2018-11-14 Method and apparatus for providing surgical video
KR1020180143367A KR102013857B1 (en) 2018-02-20 2018-11-20 Method and apparatus for generating learning data based on surgical video
KR1020180145177A KR20190100011A (en) 2018-02-20 2018-11-22 Method and apparatus for providing surgical information using surgical video
KR1020180145157A KR102013828B1 (en) 2018-02-20 2018-11-22 Method and apparatus for predicting surgical duration based on surgical video
KR1020180147015A KR102014371B1 (en) 2018-02-20 2018-11-26 Method and apparatus for estimating recognition of surgical video
KR1020180149293A KR102013848B1 (en) 2018-02-20 2018-11-28 Method and apparatus for providing blood vessel information using blood vessel model
KR1020180153569A KR102013814B1 (en) 2018-02-20 2018-12-03 Method and apparatus for generating virtual model using surgical video
KR1020180155562A KR102013863B1 (en) 2018-02-20 2018-12-05 Method and program for creating a virtual body model

Family Applications Before (7)

Application Number Title Priority Date Filing Date
KR1020180098413A KR102018565B1 (en) 2018-02-20 2018-08-23 Method, apparatus and program for constructing surgical simulation information
KR1020180098360A KR102014355B1 (en) 2018-02-20 2018-08-23 Method and apparatus for calculating location information of surgical device
KR1020180098358A KR102014385B1 (en) 2018-02-20 2018-08-23 Method and apparatus for learning surgical image and recognizing surgical action based on learning
KR1020180098359A KR102014359B1 (en) 2018-02-20 2018-08-23 Method and apparatus for providing camera location using surgical video
KR1020180109204A KR102014377B1 (en) 2018-02-20 2018-09-12 Method and apparatus for surgical action recognition based on learning
KR1020180115328A KR102013868B1 (en) 2018-02-20 2018-09-27 Method and apparatus for optimization of surgical process
KR1020180122454A KR102014351B1 (en) 2018-02-20 2018-10-15 Method and apparatus for constructing surgical information

Family Applications After (13)

Application Number Title Priority Date Filing Date
KR1020180129709A KR102014364B1 (en) 2018-02-20 2018-10-29 Method and apparatus for evaluating bleeding using surgical video
KR1020180130229A KR102013866B1 (en) 2018-02-20 2018-10-29 Method and apparatus for calculating camera location using surgical video
KR1020180131478A KR102013837B1 (en) 2018-02-20 2018-10-31 Method and apparatus for providing surgical video
KR1020180135590A KR102016959B1 (en) 2018-02-20 2018-11-07 Method and apparatus for generating blood vessel model
KR1020180135578A KR20190100004A (en) 2018-02-20 2018-11-07 Method and apparatus for using surgical information
KR1020180140050A KR20190100009A (en) 2018-02-20 2018-11-14 Method and apparatus for providing surgical video
KR1020180143367A KR102013857B1 (en) 2018-02-20 2018-11-20 Method and apparatus for generating learning data based on surgical video
KR1020180145177A KR20190100011A (en) 2018-02-20 2018-11-22 Method and apparatus for providing surgical information using surgical video
KR1020180145157A KR102013828B1 (en) 2018-02-20 2018-11-22 Method and apparatus for predicting surgical duration based on surgical video
KR1020180147015A KR102014371B1 (en) 2018-02-20 2018-11-26 Method and apparatus for estimating recognition of surgical video
KR1020180149293A KR102013848B1 (en) 2018-02-20 2018-11-28 Method and apparatus for providing blood vessel information using blood vessel model
KR1020180153569A KR102013814B1 (en) 2018-02-20 2018-12-03 Method and apparatus for generating virtual model using surgical video
KR1020180155562A KR102013863B1 (en) 2018-02-20 2018-12-05 Method and program for creating a virtual body model

Country Status (1)

Country Link
KR (21) KR102018565B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210144049A (en) * 2020-05-21 2021-11-30 주식회사 누아 Device, method, system and computer readable storage medium for generating training data of machine learing model and generating fake image using machine learning model

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102301234B1 (en) * 2019-09-20 2021-09-09 울산대학교 산학협력단 System for providing surgical video and method thereof
US20210169578A1 (en) * 2019-12-10 2021-06-10 Globus Medical, Inc. Augmented reality headset with varied opacity for navigated robotic surgery
KR102246966B1 (en) * 2020-01-29 2021-04-30 주식회사 아티큐 Method for Recognizing Object Target of Body
KR102321157B1 (en) * 2020-04-10 2021-11-04 (주)휴톰 Method and system for analysing phases of surgical procedure after surgery
WO2021235804A1 (en) * 2020-05-18 2021-11-25 주식회사 루닛 Method and system for determining abnormality of medical device
KR102395873B1 (en) * 2020-06-02 2022-05-10 주식회사 메디픽셀 Method and apparatus for processing vascular image automatically
KR102426925B1 (en) * 2020-06-23 2022-07-29 (주)휴톰 Method and program for acquiring motion information of a surgical robot using 3d simulation
KR102505016B1 (en) * 2020-08-03 2023-03-02 (주)휴톰 System for generating descriptive information of unit movement in surgical images and method thereof
WO2022035237A1 (en) * 2020-08-11 2022-02-17 (주)휴톰 Learning data collection apparatus and method for training surgical tool and organ recognition learning
KR102517398B1 (en) * 2020-11-20 2023-04-04 주식회사 엔가든 Lock screw insertion hole detection method
CN112712878A (en) * 2020-12-30 2021-04-27 四川桑瑞思环境技术工程有限公司 Digital operating room system and control method
KR102464091B1 (en) * 2021-01-14 2022-11-04 고지환 Apparatus and Method for Large Intestine Examination Using an Endoscope
US11883245B2 (en) * 2021-03-22 2024-01-30 Verb Surgical Inc. Deep-learning-based real-time remaining surgery duration (RSD) estimation
KR102640314B1 (en) 2021-07-12 2024-02-23 (주)휴톰 Artificial intelligence surgery system amd method for controlling the same
KR102606249B1 (en) * 2021-07-15 2023-11-24 사회복지법인 삼성생명공익재단 Lesion analysis method using cerebrovascular modeling and apparatus thereof
KR20230014495A (en) * 2021-07-21 2023-01-30 (주)휴톰 Apparatus and Method for Determining the Insertion Position of a Trocar on a Patient's three-dimensional Virtual Pneumoperitoneum Model
KR102628325B1 (en) * 2021-07-29 2024-01-24 (주)휴톰 Apparatus and Method for matching the Real Surgical Image with the 3D based Virtual Simulated Surgical Image based on POI Definition and Phase Recognition
KR20230023876A (en) * 2021-08-10 2023-02-20 (주)휴톰 Apparatus and Method for Generating a Virtual Pneumoperitoneum Model
KR20230039932A (en) 2021-09-15 2023-03-22 안명천 System and method for detecting bleeding
CN113813053A (en) * 2021-09-18 2021-12-21 长春理工大学 Operation process analysis method based on laparoscope endoscopic image
KR20230089469A (en) 2021-12-13 2023-06-20 (주)휴톰 Method and apparatus for providing virtual blood vessel model based on artificial intelligence
CN114391947B (en) * 2021-12-15 2024-03-01 深圳爱博合创医疗机器人有限公司 Hierarchical control type interventional operation robot
KR20230111043A (en) * 2022-01-17 2023-07-25 (주)휴톰 Apparatus and method for generating a virtual lung model of a patient
WO2023172109A1 (en) * 2022-03-11 2023-09-14 주식회사 림사이언스 Method and system for managing path of needle by using digital twin, and non-transitory computer-readable recording medium
KR20240022047A (en) * 2022-08-10 2024-02-20 주식회사 엠티이지 A methods and a device for providing scenarios for surgery
KR102628690B1 (en) * 2023-07-04 2024-01-25 주식회사 클레버러스 A system of detecting abnormal action

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100112309A (en) * 2009-04-09 2010-10-19 의료법인 우리들의료재단 Method and system for automatic leading surgery position and apparatus having surgery position leading function
KR101049507B1 (en) * 2009-02-27 2011-07-15 한국과학기술원 Image-guided Surgery System and Its Control Method
JP2016039874A (en) * 2014-08-13 2016-03-24 富士フイルム株式会社 Endoscopic image diagnosis support device, system, method, and program
KR20160086629A (en) * 2015-01-12 2016-07-20 한국전자통신연구원 Method and Apparatus for Coordinating Position of Surgery Region and Surgical Tool During Image Guided Surgery

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002207832A (en) * 2000-12-28 2002-07-26 Atsushi Takahashi Distribution system of internet technology instruction education, and instruction system using communication network
JP4708368B2 (en) * 2005-01-19 2011-06-22 オリンパス株式会社 Surgery data management device
JP4767591B2 (en) * 2005-06-01 2011-09-07 オリンパスメディカルシステムズ株式会社 Endoscope diagnosis support method, endoscope diagnosis support device, and endoscope diagnosis support program
JP4781085B2 (en) * 2005-10-25 2011-09-28 オリンパスメディカルシステムズ株式会社 Surgical schedule display system
US9718190B2 (en) * 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
JP4762160B2 (en) * 2007-01-16 2011-08-31 株式会社日立メディコ Surgery support system
CN102098967A (en) * 2008-08-14 2011-06-15 韩商未来股份有限公司 Robot system for performing surgery using a client server method
KR101114226B1 (en) * 2009-05-19 2012-03-05 주식회사 이턴 Surgical robot system using history information and control method thereof
KR101108927B1 (en) * 2009-03-24 2012-02-09 주식회사 이턴 Surgical robot system using augmented reality and control method thereof
GB0913930D0 (en) * 2009-08-07 2009-09-16 Ucl Business Plc Apparatus and method for registering two medical images
JP2011036371A (en) * 2009-08-10 2011-02-24 Tohoku Otas Kk Medical image recording apparatus
KR101235044B1 (en) * 2010-11-02 2013-02-21 서울대학교병원 (분사무소) Method of operation simulation and automatic operation device using 3d modelling
KR101181613B1 (en) * 2011-02-21 2012-09-10 윤상진 Surgical robot system for performing surgery based on displacement information determined by user designation and control method therefor
KR20120111871A (en) * 2011-03-29 2012-10-11 삼성전자주식회사 Method and apparatus for creating medical image using 3d deformable model
KR101795720B1 (en) * 2011-05-12 2017-11-09 주식회사 미래컴퍼니 Control method of surgical robot system, recording medium thereof, and surgical robot system
KR20130015146A (en) * 2011-08-02 2013-02-13 삼성전자주식회사 Method and apparatus for processing medical image, robotic surgery system using image guidance
WO2013031744A1 (en) * 2011-08-26 2013-03-07 イービーエム株式会社 System for diagnosing bloodflow characteristics, method thereof, and computer software program
KR101175065B1 (en) * 2011-11-04 2012-10-12 주식회사 아폴로엠 Method for bleeding scanning during operation using image processing apparatus for surgery
KR101302595B1 (en) * 2012-07-03 2013-08-30 한국과학기술연구원 System and method for predict to surgery progress step
KR101997566B1 (en) * 2012-08-07 2019-07-08 삼성전자주식회사 Surgical robot system and control method thereof
EP3679881A1 (en) * 2012-08-14 2020-07-15 Intuitive Surgical Operations, Inc. Systems and methods for registration of multiple vision systems
KR20140112207A (en) * 2013-03-13 2014-09-23 삼성전자주식회사 Augmented reality imaging display system and surgical robot system comprising the same
KR101572487B1 (en) * 2013-08-13 2015-12-02 한국과학기술연구원 System and Method For Non-Invasive Patient-Image Registration
KR101538041B1 (en) * 2013-10-15 2015-07-23 한국과학기술원 Device for positioning of surgical tool and sergical robot system including the same
KR20160118295A (en) * 2014-02-04 2016-10-11 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 Systems and methods for non-rigid deformation of tissue for virtual navigation of interventional tools
JP6104288B2 (en) * 2015-01-06 2017-03-29 三菱プレシジョン株式会社 Method for generating surgical simulation model, surgical simulation method, and surgical simulator
JP6594133B2 (en) * 2015-09-16 2019-10-23 富士フイルム株式会社 Endoscope position specifying device, operation method of endoscope position specifying device, and endoscope position specifying program
US20170132510A1 (en) * 2015-11-05 2017-05-11 Facebook, Inc. Identifying Content Items Using a Deep-Learning Model
KR101740286B1 (en) * 2015-12-17 2017-05-29 (주)미래컴퍼니 Surgical robot system and adaptive control method thereof
KR20180010721A (en) * 2016-07-22 2018-01-31 한국전자통신연구원 System for supporting intelligent surgery and method for using the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101049507B1 (en) * 2009-02-27 2011-07-15 한국과학기술원 Image-guided Surgery System and Its Control Method
KR20100112309A (en) * 2009-04-09 2010-10-19 의료법인 우리들의료재단 Method and system for automatic leading surgery position and apparatus having surgery position leading function
JP2016039874A (en) * 2014-08-13 2016-03-24 富士フイルム株式会社 Endoscopic image diagnosis support device, system, method, and program
KR20160086629A (en) * 2015-01-12 2016-07-20 한국전자통신연구원 Method and Apparatus for Coordinating Position of Surgery Region and Surgical Tool During Image Guided Surgery

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210144049A (en) * 2020-05-21 2021-11-30 주식회사 누아 Device, method, system and computer readable storage medium for generating training data of machine learing model and generating fake image using machine learning model
KR102348368B1 (en) 2020-05-21 2022-01-11 주식회사 누아 Device, method, system and computer readable storage medium for generating training data of machine learing model and generating fake image using machine learning model

Also Published As

Publication number Publication date
KR102013828B1 (en) 2019-08-23
KR102014364B1 (en) 2019-08-26
KR102018565B1 (en) 2019-09-05
KR102014371B1 (en) 2019-08-26
KR20190100009A (en) 2019-08-28
KR102013848B1 (en) 2019-08-23
KR102016959B1 (en) 2019-09-02
KR20190099999A (en) 2019-08-28
KR102013868B1 (en) 2019-08-23
KR102013814B1 (en) 2019-08-23
KR102014351B1 (en) 2019-08-26
KR20190100004A (en) 2019-08-28
KR102014359B1 (en) 2019-08-26
KR20190100011A (en) 2019-08-28
KR102013863B1 (en) 2019-08-23
KR102014385B1 (en) 2019-08-26
KR102014355B1 (en) 2019-08-26
KR102013837B1 (en) 2019-10-21
KR102013857B1 (en) 2019-08-23
KR20190100005A (en) 2019-08-28
KR102014377B1 (en) 2019-08-26
KR102013866B1 (en) 2019-08-23

Similar Documents

Publication Publication Date Title
KR102013806B1 (en) Method and apparatus for generating artificial data
KR102298412B1 (en) Surgical image data learning system
KR101926123B1 (en) Device and method for segmenting surgical image
US20180108138A1 (en) Method and system for semantic segmentation in laparoscopic and endoscopic 2d/2.5d image data
US20230238109A1 (en) Method and program for providing feedback on surgical outcome
KR102146672B1 (en) Program and method for providing feedback about result of surgery
KR102628324B1 (en) Device and method for analysing results of surgical through user interface based on artificial interlligence
EP4309075A1 (en) Prediction of structures in surgical data using machine learning
CN113813053A (en) Operation process analysis method based on laparoscope endoscopic image
KR102213412B1 (en) Method, apparatus and program for generating a pneumoperitoneum model
KR102276862B1 (en) Method, apparatus and program for controlling surgical image play
CN115311317A (en) Laparoscope image segmentation method and system based on ScaleFormer algorithm
CN114037830A (en) Training method for enhanced image generation model, image processing method and device
Hanif et al. Upper airway classification in sleep endoscopy examinations using convolutional recurrent neural networks
KR20190133424A (en) Program and method for providing feedback about result of surgery
US20230031396A1 (en) Apparatus and method for matching the real surgical image with the 3d-based virtual simulated surgical image based on poi definition and phase recognition
EP4353178A1 (en) Artificial intelligence surgical system and control method therefor
Pan et al. Nasopharyngeal Organ Segmentation Algorithm Based on Dilated Convolution Feature Pyramid
WO2021103316A1 (en) Method, device, and system for determining target region of image
CN114972881A (en) Image segmentation data labeling method and device
Böszörmenyi Content-based processing and analysis of endoscopic images and videos: A survey
CN116912938A (en) Organism key point detection method, device, equipment and storage medium
KR20230023876A (en) Apparatus and Method for Generating a Virtual Pneumoperitoneum Model
CN116472565A (en) Multi-view medical activity recognition system and method
JP2004326245A (en) Electronic medical record system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant