KR102298412B1 - Surgical image data learning system - Google Patents
Surgical image data learning system Download PDFInfo
- Publication number
- KR102298412B1 KR102298412B1 KR1020180055105A KR20180055105A KR102298412B1 KR 102298412 B1 KR102298412 B1 KR 102298412B1 KR 1020180055105 A KR1020180055105 A KR 1020180055105A KR 20180055105 A KR20180055105 A KR 20180055105A KR 102298412 B1 KR102298412 B1 KR 102298412B1
- Authority
- KR
- South Korea
- Prior art keywords
- model
- learning
- server
- client
- surgical
- Prior art date
Links
- 238000001356 surgical procedure Methods 0.000 claims abstract description 31
- 238000012360 testing method Methods 0.000 claims description 41
- 238000012549 training Methods 0.000 claims description 31
- 238000000034 method Methods 0.000 claims description 24
- 230000011218 segmentation Effects 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 238000002432 robotic surgery Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 4
- 238000002059 diagnostic imaging Methods 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/76—Manipulators having means for providing feel, e.g. force or tactile feedback
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/0068—Geometric image transformation in the plane of the image for image registration, e.g. elastic snapping
-
- G06T3/14—
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/20—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
Abstract
수술 가이드 정보를 제공하는 하나 이상의 모델을 학습시키는 서버 및 상기 서버에서 학습된 적어도 하나의 모델을 저장 하고, 상기 저장된 모델을 이용하여 수술 중에 획득되는 수술 영상을 인식하고, 인식된 수술 영상에 대응하는 수술 가이드 정보를 제공하는 클라이언트를 포함하고, 상기 클라이언트는, 상기 수술 중에 획득된 수술 영상으로부터 획득되는 제1 학습용 데이터를 상기 서버에 전송하고, 상기 서버로부터 상기 저장된 모델을 업데이트하기위한 정보를 수신하고, 상기 수신된 정보에 기초하여 상기 저장된 모델을 업데이트하는, 수술영상데이터 학습시스템이 개시된다.A server that trains one or more models that provide surgical guide information and stores at least one model learned in the server, recognizes a surgical image obtained during surgery using the stored model, and responds to the recognized surgical image A client for providing surgical guide information, wherein the client transmits first learning data obtained from a surgical image obtained during the operation to the server, and receives information for updating the stored model from the server, , for updating the stored model based on the received information, a surgical image data learning system is disclosed.
Description
본 발명은 수술영상데이터 학습시스템에 관한 것이다. The present invention relates to a surgical image data learning system.
수술과정에서, 의사의 수술을 보조하기 위한 정보를 제공할 수 있는 기술들의 개발이 요구되고 있다. 수술을 보조하기 위한 정보를 제공하기 위해서는, 수술행위를 인식할 수 있어야 한다.In the course of surgery, the development of technologies capable of providing information for assisting a surgeon's operation is required. In order to provide information to assist the operation, it must be able to recognize the operation.
따라서, 컴퓨터가 수술영상으로부터 수술행위를 인식할 수 있는 기술의 개발이 요구된다.Therefore, it is required to develop a technology that allows a computer to recognize a surgical action from a surgical image.
또한, 최근에는 의료영상의 분석에 딥 러닝이 널리 이용되고 있다. 딥 러닝은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions, 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능을 요약하는 작업)를 시도하는 기계학습 알고리즘의 집합으로 정의된다. 딥 러닝은 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야로 볼 수 있다.In addition, recently, deep learning has been widely used in the analysis of medical images. Deep learning is defined as a set of machine learning algorithms that attempt high-level abstractions (summarizing key contents or functions in large amounts of data or complex data) through a combination of several nonlinear transformation methods. Deep learning can be viewed as a field of machine learning that teaches computers to think in a broad framework.
본 발명이 해결하고자 하는 과제는 수술영상데이터 학습시스템을 제공하는 것이다.The problem to be solved by the present invention is to provide a surgical image data learning system.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 수술영상데이터 학습시스템은, 수술 가이드 정보를 제공하는 하나 이상의 모델을 학습시키는 서버 및 상기 서버에서 학습된 적어도 하나의 모델을 저장하고, 상기 저장된 모델을 이용하여 수술 중에 획득되는 수술 영상을 인식하고, 인식된 수술 영상에 대응하는 수술 가이드 정보를 제공하는 클라이언트를 포함하고, 상기 클라이언트는, 상기 수술 중에 획득된 수술 영상으로부터 획득되는 제1 학습용 데이터를 상기 서버에 전송하고, 상기 서버로부터 상기 저장된 모델을 업데이트하기위한 정보를 수신하고, 상기 수신된 정보에 기초하여 상기 저장된 모델을 업데이트한다.Surgical image data learning system according to an aspect of the present invention for solving the above-described problems, a server for learning one or more models providing surgical guide information, and at least one model learned from the server, and storing the stored Recognizing a surgical image obtained during surgery using a model, and comprising a client providing surgical guide information corresponding to the recognized surgical image, wherein the client is first learning data obtained from the surgical image acquired during the operation to the server, receive information for updating the stored model from the server, and update the stored model based on the received information.
또한, 상기 하나 이상의 모델은, 수술 영상을 분할(segmentation)하여 인식하는 제1 모델 및 최적화된 수술방법을 산출하는 제2 모델을 포함하고, 상기 제1 학습용 데이터는 상기 제1 모델 및 상기 제2 모델 중 적어도 하나를 학습시키는 데 이용되고, 상기 클라이언트에 저장되는 적어도 하나의 모델은 상기 제1 모델을 포함할 수 있다.In addition, the one or more models include a first model for recognizing a surgical image by segmentation and a second model for calculating an optimized surgical method, and the first learning data includes the first model and the second model. At least one model used to train at least one of the models and stored in the client may include the first model.
또한, 상기 클라이언트는, 상기 수술 중에 획득된 수술 영상을 하나 이상의 수술단계로 분할(segmentation)하고, 상기 분할된 하나 이상의 수술단계를 인식하고, 상기 인식 결과를 상기 제1 학습용 데이터로서 상기 서버에 전송할 수 있다.In addition, the client segments the surgical image acquired during the operation into one or more surgical steps, recognizes the divided one or more surgical steps, and transmits the recognition result to the server as the first learning data. can
또한, 상기 클라이언트는, 상기 분할된 하나 이상의 수술단계 각각에 대하여 기 설정된 코드를 부여하고, 상기 분할된 하나 이상의 수술단계 각각에 대하여 부여된 상기 기 설정된 코드를 상기 서버에 전송할 수 있다.In addition, the client may assign a preset code to each of the divided one or more surgical steps, and transmit the preset code assigned to each of the divided one or more surgical steps to the server.
또한, 상기 클라이언트는, 상기 클라이언트에 저장된 모델과 상기 서버에 저장된 모델을 비교하고, 상기 서버에 저장된 모델이 상기 클라이언트에 저장된 모델보다 업데이트된 모델인 경우, 상기 서버로부터 상기 클라이언트에 저장된 모델을 업데이트하기위한 정보를 수신하고, 상기 수신된 정보에 기초하여 상기 클라이언트에 저장된 모델을 업데이트할 수 있다.In addition, the client compares the model stored in the client with the model stored in the server, and when the model stored in the server is a more updated model than the model stored in the client, updating the model stored in the client from the server may receive information for, and update a model stored in the client based on the received information.
또한, 상기 서버는, 하나 이상의 수술 영상 및 상기 하나 이상의 수술 영상을 분할하는 정보를 획득하고, 상기 획득된 정보를 이용하여 제2 학습용 데이터를 생성할 수 있다.Also, the server may acquire one or more surgical images and information for dividing the one or more surgical images, and generate second learning data by using the acquired information.
또한, 상기 서버는, 학습조건을 입력받고, 상기 제2 학습용 데이터로부터 상기 입력된 학습조건에 대응하는 데이터셋을 추출하고, 상기 추출된 데이터셋을 이용하여 상기 적어도 하나의 모델에 대한 학습을 수행할 수 있다.In addition, the server receives a learning condition, extracts a dataset corresponding to the input learning condition from the second learning data, and performs learning on the at least one model using the extracted dataset can do.
또한, 상기 서버는, 상기 입력된 학습조건에 대응하는 테스트용 데이터셋을 생성하고, 상기 생성된 테스트용 데이터셋을 이용하여 상기 적어도 하나의 모델에 대한 학습 테스트를 수행하고, 상기 학습 테스트 수행결과에 따른 피드백을 제공할 수 있다.In addition, the server generates a test data set corresponding to the input learning condition, performs a learning test on the at least one model using the generated test data set, and performs the learning test result feedback can be provided.
또한, 상기 서버는, 하나 이상의 새로운 제2 학습용 데이터를 수신하고, 적어도 하나의 상기 새로운 제2 학습용 데이터를 포함하는 데이터셋을 생성하고, 상기 생성된 데이터셋을 이용하여 상기 적어도 하나의 모델에 대한 학습을 수행할 수 있다.In addition, the server receives one or more new second training data, generates a dataset including at least one new second training data, and uses the generated dataset for the at least one model. learning can be performed.
또한, 상기 서버는, 테스트용 데이터셋을 획득하고, 상기 테스트용 데이터셋을 이용하여 상기 생성된 데이터셋을 이용하여 학습된 상기 적어도 하나의 모델에 대한 학습 테스트를 수행하고, 상기 학습 테스트 수행결과에 따른 피드백을 제공할 수 있다.In addition, the server acquires a test dataset, performs a learning test on the at least one model learned using the generated dataset using the test dataset, and performs the learning test result feedback can be provided.
또한, 상기 서버는, 상기 새로운 제2 학습용 데이터 및 소정의 기준에 따라 선정된 기존 제2 학습용 데이터를 포함하는 상기 데이터셋을 생성하고, 상기 생성된 데이터셋을 이용하여 상기 적어도 하나의 모델에 대한 학습을 수행할 수 있다.In addition, the server generates the dataset including the new second training data and the existing second training data selected according to a predetermined criterion, and uses the generated dataset for the at least one model. learning can be performed.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 수술영상데이터 학습방법은, 서버가 수술 가이드 정보를 제공하는 하나 이상의 모델을 학습시키는 단계, 클라이언트에 상기 학습된 적어도 하나의 모델에 대한 정보를 전송하는 단계, 상기 클라이언트가 수술 중에 획득한 수술 영상으로부터 획득되는 학습용 데이터를 상기 클라이언트로부터 수신하는 단계, 상기 학습된 하나 이상의 모델을 업데이트하는 단계 및 상기 클라이언트에 업데이트된 상기 적어도 하나의 모델에 대한 정보를 전송하는 단계를 포함한다.Surgical image data learning method according to an aspect of the present invention for solving the above-described problems, the server learning one or more models that provide surgical guide information, information on the learned at least one model to the client transmitting, receiving, by the client, learning data obtained from a surgical image obtained during surgery, from the client, updating the learned one or more models, and information on the at least one model updated to the client including sending
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 서버는, 하나 이상의 인스트럭션을 저장하는 메모리 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 수술 가이드 정보를 제공하는 하나 이상의 모델을 학습시키는 단계, 클라이언트에 상기 학습된 적어도 하나의 모델에 대한 정보를 전송하는 단계, 상기 클라이언트가 수술 중에 획득한 수술 영상으로부터 획득되는 학습용 데이터를 상기 클라이언트로부터 수신하는 단계, 상기 학습된 하나 이상의 모델을 업데이트하는 단계 및 상기 클라이언트에 업데이트된 상기 적어도 하나의 모델에 대한 정보를 전송하는 단계를 수행한다.A server according to an aspect of the present invention for solving the above problems includes a memory for storing one or more instructions and a processor for executing the one or more instructions stored in the memory, wherein the processor executes the one or more instructions By doing so, the steps of: learning one or more models that provide surgical guide information, transmitting information about the learned at least one model to the client, and transmitting the learning data obtained from the surgical image obtained by the client during surgery to the client Receiving from, updating the learned one or more models, and transmitting information on the at least one updated model to the client are performed.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따라 하드웨어인 컴퓨터와 결합되어, 개시된 실시 예에 따른 수술영상데이터 학습방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램이 제공된다.In accordance with an aspect of the present invention for solving the above problems, a computer program stored in a computer-readable recording medium is provided so as to be combined with a computer as hardware to perform the surgical image data learning method according to the disclosed embodiment.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.
개시된 실시 예에 따르면, 서버 및 클라이언트 기반의 수술영상데이터 학습시스템을 제공함으로써, 수술 중에는 빠른 데이터 처리 및 수술가이드 정보 제공이 가능하게 하고, 수술이 수행되지 않을 때에는 서버와의 통신을 통해 학습데이터를 전송하고, 클라이언트에 저장된 모델을 업데이트할 수 있는 효과가 있다.According to the disclosed embodiment, by providing a server- and client-based surgical image data learning system, it is possible to quickly process data and provide surgical guide information during surgery, and when surgery is not performed, learning data is transmitted through communication with the server. It has the effect of sending and updating the model stored in the client.
또한, 개시된 실시 예에 따르면 사람의 지시 없이도 자동으로 학습계획을 수립하고, 학습을 수행하는 스케줄러가 제공되어, 모델의 학습과 업데이트를 용이하게 할 수 있는 효과가 있다.In addition, according to the disclosed embodiment, a scheduler for automatically establishing a learning plan and performing learning without human instruction is provided, thereby facilitating learning and updating of the model.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 개시된 실시 예에 따라 로봇수술을 수행할 수 있는 시스템을 간략하게 도식화한 도면이다.
도 2는 일 실시 예에 따른 수술영상데이터 학습시스템을 도시한 도면이다.
도 3은 일 실시 예에 따른 수술영상데이터 학습시스템의 동작을 간략히 도시한 흐름도이다.
도 4는 일 실시 예에 따른 수술영상데이터 학습시스템의 동작을 도시한 흐름도이다.
도 5는 일 실시 예에 따라 학습을 스케줄링하는 방법을 개념적으로 도시한 구성도이다.
도 6은 일 실시 예에 따른 서버의 구성도이다.1 is a schematic diagram of a system capable of performing robotic surgery according to an embodiment disclosed herein.
2 is a diagram illustrating a surgical image data learning system according to an embodiment.
3 is a flowchart schematically illustrating the operation of the surgical image data learning system according to an embodiment.
4 is a flowchart illustrating the operation of the surgical image data learning system according to an embodiment.
5 is a configuration diagram conceptually illustrating a method of scheduling learning according to an embodiment.
6 is a configuration diagram of a server according to an embodiment.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and those of ordinary skill in the art to which the present invention pertains. It is provided to fully understand the scope of the present invention to those skilled in the art, and the present invention is only defined by the scope of the claims.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. As used herein, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components. Like reference numerals refer to like elements throughout, and "and/or" includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first component mentioned below may be the second component within the spirit of the present invention.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein will have the meaning commonly understood by those of ordinary skill in the art to which this invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.
명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.As used herein, the term “unit” or “module” refers to a hardware component such as software, FPGA, or ASIC, and “unit” or “module” performs certain roles. However, “part” or “module” is not meant to be limited to software or hardware. A “unit” or “module” may be configured to reside on an addressable storage medium or to reproduce one or more processors. Thus, by way of example, “part” or “module” refers to components such as software components, object-oriented software components, class components and task components, processes, functions, properties, Includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Components and functionality provided within “parts” or “modules” may be combined into a smaller number of components and “parts” or “modules” or as additional components and “parts” or “modules”. can be further separated.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1을 참조하면, 개시된 실시 예에 따라 로봇수술을 수행할 수 있는 시스템을 간략하게 도식화한 도면이 도시되어 있다.Referring to Figure 1, a schematic diagram of a system capable of performing robotic surgery according to the disclosed embodiment is shown.
도 1에 따르면, 로봇수술 시스템은 의료영상 촬영장비(10), 서버(20) 및 수술실에 구비된 제어부(30), 디스플레이(32) 및 수술로봇(34)을 포함한다. 실시 예에 따라서, 의료영상 촬영장비(10)는 개시된 실시 예에 따른 로봇수술 시스템에서 생략될 수 있다.Referring to FIG. 1 , the robotic surgery system includes a
일 실시 예에서, 수술로봇(34)은 촬영장치(36) 및 수술도구(38)를 포함한다.In one embodiment, the
일 실시 예에서, 로봇수술은 사용자가 제어부(30)를 이용하여 수술용 로봇(34)을 제어함으로써 수행된다. 일 실시 예에서, 로봇수술은 사용자의 제어 없이 제어부(30)에 의하여 자동으로 수행될 수도 있다.In one embodiment, the robotic surgery is performed by the user using the
서버(20)는 적어도 하나의 프로세서와 통신부를 포함하는 컴퓨팅 장치이다.The
제어부(30)는 적어도 하나의 프로세서와 통신부를 포함하는 컴퓨팅 장치를 포함한다. 일 실시 예에서, 제어부(30)는 수술용 로봇(34)을 제어하기 위한 하드웨어 및 소프트웨어 인터페이스를 포함한다.The
촬영장치(36)는 적어도 하나의 이미지 센서를 포함한다. 즉, 촬영장치(36)는 적어도 하나의 카메라 장치를 포함하여, 대상체의 신체부위, 즉 수술부위를 촬영하는 데 이용된다. 일 실시 예에서, 촬영장치(36)는 수술로봇(34)의 수술 암(arm)과 결합된 적어도 하나의 카메라를 포함한다.The photographing
일 실시 예에서, 촬영장치(36)에서 촬영된 영상은 디스플레이(340)에 표시된다.In an embodiment, the image captured by the photographing
일 실시 예에서, 수술로봇(34)은 수술부위의 절단, 클리핑, 고정, 잡기 동작 등을 수행할 수 있는 하나 이상의 수술도구(38)를 포함한다. 수술도구(38)는 수술로봇(34)의 수술 암과 결합되어 이용된다.In one embodiment, the
제어부(30)는 서버(20)로부터 수술에 필요한 정보를 수신하거나, 수술에 필요한 정보를 생성하여 사용자에게 제공한다. 예를 들어, 제어부(30)는 생성 또는 수신된, 수술에 필요한 정보를 디스플레이(32)에 표시한다.The
예를 들어, 사용자는 디스플레이(32)를 보면서 제어부(30)를 조작하여 수술로봇(34)의 움직임을 제어함으로써 로봇수술을 수행한다.For example, the user performs robotic surgery by controlling the movement of the
서버(20)는 의료영상 촬영장비(10)로부터 사전에 촬영된 대상체(환자)의 의료영상데이터를 이용하여 로봇수술에 필요한 정보를 생성하고, 생성된 정보를 제어부(30)에 제공한다. The
제어부(30)는 서버(20)로부터 수신된 정보를 디스플레이(32)에 표시함으로써 사용자에게 제공하거나, 서버(20)로부터 수신된 정보를 이용하여 수술로봇(34)을 제어한다.The
일 실시 예에서, 의료영상 촬영장비(10)에서 사용될 수 있는 수단은 제한되지 않으며, 예를 들어 CT, X-Ray, PET, MRI 등 다른 다양한 의료영상 획득수단이 사용될 수 있다. In one embodiment, the means that can be used in the
개시된 실시 예에서, 촬영장치(36)에서 획득되는 수술영상은 제어부(30)로 전달된다.In the disclosed embodiment, the surgical image acquired by the
일 실시 예에서, 제어부(30)는 수술 중에 획득되는 수술영상을 실시간으로 분할(segmentation)할 수 있다.In an embodiment, the
일 실시 예에서, 제어부(30)는 수술 중 또는 수술이 완료된 후 수술영상을 서버(20)에 전송한다.In one embodiment, the
서버(20)는 수술영상을 분할하여 분석할 수 있다.The
도 2는 일 실시 예에 따른 수술영상데이터 학습시스템을 도시한 도면이다.2 is a diagram illustrating a surgical image data learning system according to an embodiment.
도 2를 참조하면, 수술영상데이터 학습시스템은 클라이언트(100) 및 서버(200)를 포함한다.Referring to FIG. 2 , the surgical image data learning system includes a
일 실시 예에서, 클라이언트(100) 및 서버(200)는 적어도 하나의 프로세서를 포함하는 컴퓨팅 장치이다.In one embodiment, the
일 실시 예에서, 클라이언트(100)는 수술실(수술현장)에 구비된 컴퓨팅 장치일 수 있다. 예를 들어, 클라이언트(100)는 도 1에 도시된 제어부(30)에 대응할 수 있다. 다른 예로, 클라이언트(100)는 제어부(30)와 별도의 컴퓨팅 장치로서 수술실에 구비되고, 제어부(30)와 연결될 수 있다. 본 명세서에서, 연결은 물리적 연결뿐 아니라 전자적인 연결 개념을 포함하며, 서로 통신가능한 상태에 놓이는 것 또한 연결의 개념으로 이해될 수 있다. 예를 들어, 클라이언트(100)는 제어부(30)와 유선 또는 무선으로 연결될 수 있고, 근거리 무선 통신이나 네트워크 통신을 이용하여 상호 통신가능한 상태가 될 수 있다.In an embodiment, the
일 실시 예에서, 클라이언트(100)는 수술실에서 수술상황을 판단하고, 이에 대응하는 수술 가이드 정보를 제공한다. 클라이언트(100)는 수술상황을 판단하고, 이에 대응하는 수술 가이드 정보를 제공하기 위하여 학습된 모델을 이용한다.In one embodiment, the
일 실시 예에서, 학습된 모델은 기계학습(머신러닝)을 이용하여 학습된 모델일 수 있다. 기계학습은 딥 러닝을 의미할 수 있으나, 이에 제한되지 않는다. In an embodiment, the trained model may be a model trained using machine learning (machine learning). Machine learning may mean, but is not limited to, deep learning.
일 실시 예에서, 클라이언트(100)는 수술영상을 획득하고, 서버(200)는 획득된 수술영상을 이용하여 학습을 수행한다. 기계학습은 많은 리소스를 요하는 작업이므로, 클라이언트(100)에서는 수행되기 어려울 수 있다. 또한, 기계학습에는 많은 학습 데이터가 필요하므로, 클라이언트(100)에서 수집되는 정보만으로는 충분한 학습 데이터가 확보되기 어려울 수 있다.In one embodiment, the
따라서, 서버(200)는 서로 다른 출처로부터 수집되는 정보들을 이용하여 학습 데이터를 구성하고, 이에 기초하여 수술 상황을 판단하고, 수술 가이드 정보를 제공할 수 있는 모델을 학습시킨다.Accordingly, the
클라이언트(100)는 수술상황을 실시간으로 판단하고, 필요한 수술 가이드 정보를 제공하여야 한다. 따라서, 서버(200)와의 통신에 필요한 시간을 절약하고, 통신 이상에 따른 오류를 방지하기 위하여, 서버(200)에서 학습된 모델에 대한 정보는 사전에 클라이언트(100)에 저장된다.The
클라이언트(100)는 서버(200)로부터 획득되는 정보를 이용하여 서버(200)에서 학습된 모델을 복원하고, 이를 이용하여 실시간으로 수술 가이드 정보를 제공할 수 있다.The
도 3은 일 실시 예에 따른 수술영상데이터 학습시스템의 동작을 간략히 도시한 흐름도이다.3 is a flowchart schematically illustrating the operation of the surgical image data learning system according to an embodiment.
도 2와 관련하여 설명된 클라이언트(100) 및 서버(200)는 도 3의 클라이언트(100) 및 서버(200)에 각각 대응한다.The
단계 S210에서, 서버(200)는 수술 영상으로부터 획득되는 학습용 데이터를 이용하여 수술 가이드 정보를 제공하는 모델을 학습시킨다.In step S210, the
개시된 실시 예에서, 수술 가이드 정보를 제공하는 모델은, 수술 영상을 분할하여 인식하는 제1 모델과, 최적화된 수술방법을 산출하는 제2 모델을 포함한다.In the disclosed embodiment, the model for providing the surgical guide information includes a first model for dividing and recognizing a surgical image, and a second model for calculating an optimized surgical method.
일 실시 예에서, 학습용 데이터는 수술 영상 자체를 의미할 수도 있고, 수술 영상을 분석함으로써 획득되는 데이터를 의미할 수도 있다. 예를 들어, 학습용 데이터는 수술 영상을 기 설정된 동작 단위로 분할한 데이터를 포함할 수 있다. 또한, 학습용 데이터는 수술 영상을 라벨링한 데이터를 포함할 수 있다. 학습용 데이터의 종류는 이에 제한되지 않는다.In an embodiment, the learning data may refer to the surgical image itself, or may refer to data obtained by analyzing the surgical image. For example, the learning data may include data obtained by dividing a surgical image into preset motion units. In addition, the learning data may include data labeled with a surgical image. The type of training data is not limited thereto.
단계 S220에서, 서버(200)는 학습된 모델에 대한 정보를 클라이언트(100)에 전송한다. 예를 들어, 학습된 모델에 대한 정보는 학습된 신경망의 가중치에 대한 정보를 포함할 수 있다. 일 실시 예에서, 클라이언트(100)에 제공되는 정보는 수술 영상을 분할하여 인식하는, 상기 제1 모델에 대한 정보를 포함한다.In step S220 , the
일 실시 예에서, 서버(200)는 클라이언트(100)를 이용하는 수술이 수행되지 않을 때, 즉 클라이언트(100)가 수술을 보조하고 있지 않을 때 학습된 모델에 대한 정보를 클라이언트(100)에 전송한다. 즉, 수술이 수행되는 중에는 클라이언트(100)에 기 저장된 정보에 기초하여 수술 가이드 정보가 제공되며, 수술이 수행되지 않을 때(예를 들어, 수술이 수행되기 전) 수술 준비단계로서 학습된 모델에 대한 정보가 미리 서버(200)로부터 클라이언트(100)로 전달될 수 있다.In one embodiment, the
도 4를 참조하면, 서버(200)는 의료영상 촬영장비(10)로부터 환자의 수술부위를 포함하는 의료영상을 획득한다. 서버(200)는 획득된 의료영상에 기초하여 환자의 수술부위에 대한 3D 모델링을 수행한다(단계 S222).Referring to FIG. 4 , the
환자의 수술부위에 대한 3D 모델링 정보는 수술 중에 카메라의 각도에 따른 각 장기의 위치와 모양을 판단하고, 카메라로는 보이지 않는 신체부위에 대한 정보를 제공하는 데 이용된다.The 3D modeling information on the patient's surgical site is used to determine the position and shape of each organ according to the angle of the camera during surgery, and to provide information on body parts that are not visible with the camera.
서버(200)는 단계 S222에서 생성된 3D 모델링 정보를 클라이언트(100)에 전송한다(단계 S224). 클라이언트(100)는 서버(200)로부터 전송된 3D 모델링 정보를 저장한다. The
클라이언트(100)는 서버(200)로부터 전송된 정보에 기초하여 학습된 모델을 획득 및 저장한다. 단계 S110에서, 클라이언트(100)는 수술 중에 클라이언트(100)에 저장된 모델을 이용하여 수술 중에 획득되는 수술 영상에 대응하는 수술 가이드 정보를 제공한다. 예를 들어, 클라이언트(100)는 저장된 모델을 이용하여 수술영상을 분할 및 인식함으로써 수술상황을 판단하고, 이에 기초하여 수술 가이드 정보를 제공할 수 있다.The
일 실시 예에서, 서버(200)는 특정 환자에 대한 수술이 시작되기 전에 미리 클라이언트(100)에 해당 환자의 수술부위를 포함하는 3D 모델링 정보를 전송한다. 클라이언트(100)는 서버(200)로부터 전송된 3D 모델링 정보를 저장하고, 수술 중에는 클라이언트(100)에 저장된 3D 모델링 정보와, 학습된 모델에 대한 정보를 이용하여 수술 중에 획득되는 수술 영상에 대응하는 수술 가이드 정보를 제공한다.In one embodiment, the
예를 들어, 수술 가이드 정보는 현재 수술상황에 대응하는 최적의 수술방법을 포함할 수 있다. 또한, 수술 가이드 정보는 카메라로 확인되지 않는(예를 들어, 다른 장기에 가려져 보이지 않는) 환자의 신체부위에 대한 정보를 포함할 수 있다. 또한, 수술 가이드 정보는 혈관이나 신경 등 수술과정에서 손상되지 않아야 하는 신체부위의 위치에 대한 정보를 포함할 수 있다. 또한, 수술 가이드 정보는 수술 중에 발생하는 이벤트 또는 수술오류(surgicalerror) 상황을 인식하고, 인식된 상황에 대한 정보 또는 인식된 상황에 따른 알림을 제공하는 정보를 포함할 수 있다.For example, the surgical guide information may include an optimal surgical method corresponding to the current surgical situation. In addition, the surgical guide information may include information on a body part of the patient that is not confirmed by the camera (eg, hidden by other organs). In addition, the surgical guide information may include information on the location of a body part that should not be damaged in the surgical process, such as blood vessels or nerves. In addition, the surgical guide information may include information for recognizing an event or surgical error situation occurring during surgery, and providing information about the recognized situation or a notification according to the recognized situation.
단계 S120에서, 클라이언트(100)는 수술이 종료된 후, 수술 중에 획득된 수술 영상으로부터 획득되는 학습용 데이터를 서버에 전송한다. 일 실시 예에서, 학습용 데이터는 수술 영상을 포함한다. 일 실시 예에서, 학습용 데이터는 수술 중에 획득되는 수술 영상을 하나 이상의 수술단계로 분할하고, 분할된 하나 이상의 수술단계를 인식한 정보를 포함한다.In step S120 , the
일 실시 예에서, 클라이언트(100)는 수술 중에 획득된 수술 영상을 하나 이상의 수술단계로 분할(segmentation)한다. 클라이언트(100)는 학습된 모델을 이용하여 수술 영상을 하나 이상의 기 설정된 수술단계로 분할할 수 있다. 예를 들어, 기 설정된 수술단계는 장기의 위치 및 변화와, 수술도구의 위치 및 움직임에 기초하여 수술에 포함된 각 동작들을 소정의 기준에 따라 분할하고, 분할된 각각의 동작에 대하여 표준화된 명칭이 부여된 것일 수 있다.In an embodiment, the
일 실시 예에서, 분할된 각각의 동작에 대해서 기 설정된 코드가 부여되어 있을 수 있다. 클라이언트(100)는 분할된 하나 이상의 수술단계 각각에 대하여 기 설정된 코드를 부여한다.In an embodiment, a preset code may be assigned to each divided operation. The
일 실시 예에서, 클라이언트(100)는 수술영상 대신 분할된 하나 이상의 수술단계 각각에 대하여 부여된 기 설정된 코드를 서버(100)에 전송할 수 있다. 서버(100)는 수신된 코드에 기초하여 각 수술단계 및 전체적인 수술동작의 순서에 대한 정보를 획득할 수 있다. 이 경우, 수술영상을 서버(200)에 전송하는 것에 비하여 데이터 전송량이 크게 감소한다. 따라서, 필요한 경우 수술 중에도, 즉 클라이언트(100)가 수술 가이드 정보를 제공하는 중에도(단계 S110) 실시간으로 학습용 데이터를 서버(200)로 전송하는 것(단계 S120)이 가능하다.In an embodiment, the
단계 S230에서, 서버(200)는 클라이언트(100)로부터 수신된 정보에 기초하여 학습된 모델을 업데이트한다. 예를 들어, 서버(200)는 클라이언트(100)로부터 수신된 정보를 이용하여 모델을 다시 학습시키거나, 미세조정(fine tuning)할 수 있다. 일 실시 에에서, 서버(200)는 클라이언트(100)로부터 수신된 정보에 기초하여 최적화된 수술방법을 산출하는 제2 모델을 학습시킨다. 일 실시 예에서, 서버(200)는 클라이언트(100)로부터 수신된 정보에 기초하여 수술 영상을 분할하여 인식하는 제1 모델을 학습시킬 수 있다. 예를 들어, 서버(200)는 클라이언트(100)로부터 수신된 정보에 기초하여 수술 도구의 움직임을 인식하는 모델을 학습시킬 수 있다.In step S230 , the
또한, 서버(200)는 외부로부터 획득되는 하나 이상의 수술 영상 및 하나 이상의 수술 영상을 분할하는 정보에 기초하여 수술 영상을 분할하여 인식하는 제1 모델을 학습시킬 수 있다.In addition, the
단계 S240에서, 서버(200)는 단계 S230을 통하여 업데이트된 모델을 클라이언트(100)에 전송한다. 클라이언트(100)는 수술이 수행되지 않을 때 서버(200)로부터 업데이트된 모델에 대한 정보, 즉 클라이언트(100)에 저장된 모델을 업데이트하기 위한 정보를 수신하고, 수신된 정보에 기초하여 클라이언트(100)에 저장된, 학습된 모델을 업데이트한다.In step S240 , the
도 4를 참조하면, 클라이언트(100)는 서버(200)에 모델의 업데이트 상태를 확인한다(단계 S130).Referring to FIG. 4 , the
예를 들어, 클라이언트(100)는 클라이언트(100)에 저장된 학습된 모델과, 서버(200)에 저장된 학습된 모델을 비교하고, 서버(200)에 저장된, 학습된 모델이 클라이언트(100)에 저장된 학습된 모델보다 업데이트된 모델인 경우, 클라이언트(100)는 서버(200)로부터 학습된 모델을 업데이트하기위한 정보를 수신하고, 수신된 정보에 기초하여 클라이언트(100)에 저장된, 학습된 모델을 업데이트한다.For example, the
도 5는 일 실시 예에 따라 학습을 스케줄링하는 방법을 개념적으로 도시한 구성도이다.5 is a configuration diagram conceptually illustrating a method of scheduling learning according to an embodiment.
일 실시 예에서, 스케줄러(300), 데이터베이스(320), 학습부(330), 테스트부(340) 및 모델(350)은 각각 서버(200)에서 하드웨어 또는 소프트웨어적으로 구현되는 모듈, 하나 이상의 인스트럭션의 집합, 메모리에 저장되는 데이터 또는 서버(200)에 의하여 수행되는 동작을 개념적으로 도시한 것이다.In one embodiment, the
일 실시 예에서, 학습정보 입력부(310)는 서버(200) 또는 서버(200)와 직간접적으로 통신할 수 있는 컴퓨팅 장치를 의미한다.In an embodiment, the learning
예를 들어, 학습정보 입력부(310)는 서버(200)가 획득한 수술 영상을 분할하는 정보를 입력할 수 있다. 예를 들어, 학습정보 입력부(310)는 의사가 수술 영상을 보고 직접 수술 영상을 기 설정된 동작 단위로 분할하는 정보를 입력하는 컴퓨팅 장치일 수 있다. 학습에 이용되는 수술 영상의 출처는 제한되지 않는다. 서버(200)는 애플리케이션 또는 웹페이지를 이용하여 학습정보 입력부(310)가 수술 영상을 분할하는 정보를 입력하기 용이한 다양한 사용자 인터페이스를 제공할 수 있다.For example, the learning
수술영상 및 수술영상을 분할하는 정보는 데이터베이스(320)에 저장된다. Information for dividing the surgical image and the surgical image is stored in the database (320).
스케줄러(300)는 서버(200)의 학습과정을 제어하는 역할을 수행한다. 기존에는 개발자가 직접 학습용 데이터셋을 세팅하고, 학습명령을 하여 모델을 학습시키는 것이 일반적이었다. The
개시된 실시 예에 따르면, 스케줄러(300)는 자동으로 학습용 데이터셋을 생성하고, 학습을 수행하며, 학습 결과를 테스트함으로써 자동으로 모델을 학습시키는 역할을 수행한다.According to the disclosed embodiment, the
일 실시 예에서, 스케줄러(300)는 학습 계획을 설정하고, 학습의 진행수준에 따라 다음 학습의 계획여부를 결정할 수 있다.In an embodiment, the
예를 들어, 스케줄러(300)는 소정의 학습용 데이터에 기초하여 학습을 수행하고, 학습 결과에 대한 테스트를 수행하여, 소정의 임계치(예를 들어, 80% 이상의 정확도) 이상의 학습이 완료되면, 학습을 종료하고 다음 학습을 계획할 수 있다. 예를 들어, 스케줄러(300)는 소정의 학습용 데이터에 대한 학습이 종료되면, 새롭게 획득되는 학습용 데이터에 기초하여 다음 학습을 계획 및 수행할 수 있다.For example, the
데이터베이스(320)에 소정의 학습용 데이터가 저장되면, 스케줄러(300)는 데이터베이스(320)에 저장된 학습용 데이터로부터 학습용 데이터셋을 추출한다. 스케줄러(300)는 학습부(330)에 추출된 학습용 데이터셋을 입력하여, 학습을 수행한다.When predetermined training data is stored in the
일 실시 예에서, 스케줄러(300)는 학습을 위한 소정의 학습조건을 입력받고, 데이터베이스(320)에 저장된 학습용 데이터로부터 입력된 학습조건에 대응하는 학습용 데이터셋을 추출하고, 추출된 데이터셋을 학습부(330)에 입력하여 학습을 수행한다.In an embodiment, the
예를 들어, 학습조건은 학습대상 성별, 연령대, 질병의 종류 등을 포함할 수 있으나, 이에 제한되지 않는다.For example, the learning condition may include, but is not limited to, the learning target gender, age group, and type of disease.
일 실시 예에서, 스케줄러(300)는 학습이 완료되면 테스트부(340)를 이용하여 학습된 모델을 테스트한다. 예를 들어, 스케줄러(300)는 소정의 테스트용 데이터셋을 생성하고, 생성된 테스트용 데이터셋을 이용하여 학습된 모델에 대한 학습 테스트를 수행한다. 스케줄러(300)는 학습 테스트 수행결과에 따른 피드백을 제공한다. 또한, 스케줄러(300)는 학습 결과에 따라 상술한 바와 같이 학습 종료여부 및 다음 학습의 계획여부를 결정한다.In an embodiment, the
예를 들어, 학습 테스트 결과 정확도가 소정의 기준값 이상이면 테스트를 통과한 것으로 하여, 학습된 모델(350)의 생성을 종료할 수 있다. 또한, 학습된 모델(350)에 대한 다음 학습을 계획 및 실행할 수 있다.For example, if the learning test result accuracy is greater than or equal to a predetermined reference value, it is assumed that the test has passed, and the generation of the trained
또한, 학습 테스트 결과 정확도가 소정의 기준값 이하이면 테스트를 통과하지 못한 것으로 하여, 학습부(330)를 통해 다시 학습을 수행하도록 하거나, 학습조건을 재설정할 수 있다.In addition, if the accuracy of the learning test result is less than or equal to a predetermined reference value, it is assumed that the test has not been passed, so that learning is performed again through the
다른 예로, 이미 학습된 모델에 새로운 데이터를 이용하여 추가 학습을 수행한 경우, 기존의 학습된 모델의 정확도와 새로운 데이터를 이용하여 추가 학습이 수행된 모델의 정확도를 비교할 수 있다. 추가 학습이 수행된 모델의 정확도가 더 높은 경우, 스케줄러(300)는 학습된 모델을 업데이트할 수 있다.As another example, when additional learning is performed on an already trained model using new data, the accuracy of the previously trained model may be compared with the accuracy of the model on which additional learning has been performed using the new data. When the accuracy of the model on which additional learning is performed is higher, the
일 실시 예에서, 소정의 학습조건에 기초하여 학습이 수행된 경우, 테스트부(340)는 소정의 학습조건에 대응하는 테스트용 데이터셋을 생성하고, 생성된 테스트용 데이터셋을 이용하여 학습된 모델을 테스트한다.In an embodiment, when learning is performed based on a predetermined learning condition, the
일 실시 예에서, 스케줄러(300)는 서버(200)에 새로운 학습용 데이터가 수신되면, 새로운 학습용 데이터를 포함하는 학습용 데이터셋을 생성하고, 생성된 데이터셋을 학습부(330)에 입력하여 학습을 수행한다. In one embodiment, when new learning data is received from the
일 실시 예에서, 스케줄러(300)는 새로운 학습용 데이터가 수신될때마다 학습을 수행할 수도 있고, 학습용 데이터가 소정의 분량 이상 누적될때마다 학습용 데이터셋을 생성하여 학습을 수행할 수도 있으나, 이에 제한되는 것은 아니다.In an embodiment, the
일 실시 예에서, 테스트부(340)는 새로운 학습용 데이터를 이용하여 학습된 모델을 테스트하기 위한 테스트용 데이터셋을 생성하고, 학습된 모델을 테스트할 수 있다. 새로운 학습용 데이터를 이용하여 학습된 모델의 정확도가 기존 모델의 정확도보다 높으면, 스케줄러(300)는 학습된 모델을 업데이트할 수 있다.In an embodiment, the
일 실시 예에서, 스케줄러(300)는 새로운 학습용 데이터를 포함하는 학습용 데이터셋을 생성하여 학습을 수행하되, 기존에 학습된 결과를 잊어버리지 않도록 하기 위한 규칙에 기초하여 학습을 수행할 수 있다.In an embodiment, the
예를 들어, 학습부(330)가 심층 신경망을 이용하는 학습을 수행하는 경우, 새로운 학습용 데이터를 이용하여 학습을 수행할 때, 기존 학습용 데이터를 이용하여 학습을 수행할 때에 비하여 심층 신경망의 결정경계가 달라지지 않도록 한다. For example, when the
또한, 새로운 학습용 데이터를 이용하여 학습된 모델을 이용하여 기존의 학습용 데이터로부터 추출되는 특징은, 기존의 학습된 모델을 이용하여 기존의 학습용 데이터로부터 추출되는 특징과 가깝도록 하여야 한다.In addition, the features extracted from the existing learning data using the model learned using the new learning data should be close to the features extracted from the existing learning data using the existing learned model.
일 실시 예에서, 스케줄러(300)는 새로운 학습용 데이터와, 소정의 기준에 따라 선정된 기존의 학습용 데이터를 포함하는 학습용 데이터셋을 생성하고, 생성된 학습용 데이터셋을 이용하여 학습부(330)를 학습시킨다. In one embodiment, the
기존의 학습용 데이터를 선정할 때, 스케줄러(300)는 새로운 학습용 데이터셋에 의하여 학습된 모델이 기존에 학습된 정보를 잊지 않도록 할 수 있는 기존의 학습용 데이터를 선정한다.When selecting the existing training data, the
일 실시 예에서, 클라이언트(100)는 학습된 모델(350)을 클라이언트(100)에 저장된 모델과 비교하고, 학습된 모델(350)이 클라이언트(100)에 저장된 모델보다 업데이트된 모델인 경우, 학습된 모델(350)에 대한 정보를 수신하여 클라이언트(100)에 저장된 모델을 업데이트한다.In one embodiment, the
도 6은 일 실시 예에 따른 서버(200)의 구성도이다.6 is a block diagram of the
프로세서(202)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.The
일 실시예에 따른 프로세서(202)는 메모리(204)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 도 1 내지 도 5와 관련하여 설명된 수술영상데이터 학습방법을 수행한다.The
예를 들어, 프로세서(202)는 메모리에 저장된 하나 이상의 인스트럭션을 실행함으로써 수술 가이드 정보를 제공하는 하나 이상의 모델을 학습시키고, 클라이언트에 상기 학습된 적어도 하나의 모델에 대한 정보를 전송하고, 상기 클라이언트가 수술 중에 획득한 수술 영상으로부터 획득되는 학습용 데이터를 상기 클라이언트로부터 수신하고, 상기 학습된 하나 이상의 모델을 업데이트하고, 상기 클라이언트에 업데이트된 상기 적어도 하나의 모델에 대한 정보를 전송한다. For example, the
한편, 프로세서(202)는 프로세서(202) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(202)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다. On the other hand, the
메모리(204)에는 프로세서(202)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(204)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.The
이상에서 전술한 본 발명의 일 실시예에 따른 수술영상 분할방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The surgical image segmentation method according to an embodiment of the present invention described above may be implemented as a program (or application) to be executed in combination with a computer, which is hardware, and stored in a medium.
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다. The above-described program is C, C++, JAVA, machine language, etc. that a processor (CPU) of the computer can read through a device interface of the computer in order for the computer to read the program and execute the methods implemented as a program It may include code (Code) coded in the computer language of Such code may include functional code related to functions defining functions necessary for executing the methods, etc. can do. In addition, the code may further include additional information necessary for the processor of the computer to execute the functions or code related to memory reference for which location (address address) in the internal or external memory of the computer to be referenced. have. In addition, when the processor of the computer needs to communicate with any other computer or server located remotely in order to execute the above functions, the code uses the communication module of the computer to determine how to communicate with any other computer or server remotely. It may further include a communication-related code for whether to communicate and what information or media to transmit and receive during communication.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The storage medium is not a medium that stores data for a short moment, such as a register, a cache, a memory, etc., but a medium that stores data semi-permanently and can be read by a device. Specifically, examples of the storage medium include, but are not limited to, ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. That is, the program may be stored in various recording media on various servers accessible by the computer or in various recording media on the computer of the user. In addition, the medium may be distributed in a computer system connected by a network, and a computer readable code may be stored in a distributed manner.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in relation to an embodiment of the present invention may be implemented directly in hardware, as a software module executed by hardware, or by a combination thereof. A software module may contain random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any type of computer-readable recording medium well known in the art to which the present invention pertains.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.As mentioned above, although embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains can realize that the present invention can be embodied in other specific forms without changing its technical spirit or essential features. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.
100 : 클라이언트
200 : 서버100 : client
200 : server
Claims (14)
상기 서버로부터 수신되는 상기 모델을 저장하고, 상기 저장된 모델을 이용하여 수술 중에 획득되는 수술 영상을 인식하고, 상기 인식된 수술 영상에 대응하는 수술 가이드 정보를 제공하는 클라이언트;를 포함하고,
상기 클라이언트에 저장된 모델은, 상기 서버로부터 수신되는 업데이트 정보에 기초하여 업데이트되고,
상기 서버는,
상기 수술 영상과 관련된 학습용 데이터로부터 기 설정된 학습조건에 대응하는 데이터셋을 추출하고, 상기 추출된 데이터셋을 이용하여 상기 모델에 대한 학습을 수행하고,
상기 기 설정된 학습조건에 대응하는 테스트용 데이터셋을 생성하고, 상기 생성된 테스트용 데이터셋을 이용하여 상기 학습된 모델에 대한 학습 테스트를 수행하고, 상기 학습 테스트의 수행 결과에 따른 피드백을 제공하는, 수술영상데이터 학습시스템.a server for training at least one model that provides surgical guide information; and
A client that stores the model received from the server, recognizes a surgical image obtained during surgery using the stored model, and provides surgical guide information corresponding to the recognized surgical image; includes,
The model stored in the client is updated based on the update information received from the server,
The server is
extracting a dataset corresponding to a preset learning condition from the training data related to the surgical image, and performing learning on the model using the extracted dataset,
generating a test data set corresponding to the preset learning condition, performing a learning test on the learned model using the generated test data set, and providing feedback according to a result of the learning test , Surgical image data learning system.
상기 적어도 하나의 모델은, 수술 영상을 분할(segmentation)하여 인식하는 제1 모델 및 최적화된 수술 방법을 산출하는 제2 모델을 포함하고,
상기 학습용 데이터는, 상기 제1 모델 및 상기 제2 모델 중 적어도 하나를 학습시키는 데 이용되며,
상기 클라이언트에는, 상기 제1 모델이 저장되는, 수술영상데이터 학습시스템.According to claim 1,
The at least one model includes a first model for recognizing a surgical image by segmentation and a second model for calculating an optimized surgical method,
The training data is used to train at least one of the first model and the second model,
The client, the first model is stored, surgical image data learning system.
상기 클라이언트는,
상기 클라이언트에 저장된 모델과 상기 서버에 저장된 모델을 비교하고,
상기 서버에 저장된 모델이 상기 클라이언트에 저장된 모델보다 업데이트된 모델인 경우에 상기 서버로부터 상기 클라이언트에 저장된 모델을 업데이트하기위한 정보를 수신하고,
상기 수신된 정보에 기초하여 상기 클라이언트에 저장된 모델을 업데이트하는, 수술영상데이터 학습시스템.According to claim 1,
the client,
comparing the model stored in the client with the model stored in the server,
When the model stored in the server is an updated model than the model stored in the client, receiving information for updating the model stored in the client from the server,
Based on the received information to update the model stored in the client, surgical image data learning system.
상기 서버는,
하나 이상의 수술 영상 및 상기 하나 이상의 수술 영상을 분할하는 정보를 획득하고,
상기 획득된 정보를 이용하여 상기 학습용 데이터를 생성하는, 수술영상데이터 학습시스템.According to claim 1,
The server is
Obtaining one or more surgical images and information for segmenting the one or more surgical images,
Using the obtained information to generate the learning data, surgical image data learning system.
상기 학습용 데이터는, 상기 클라이언트에 의해 상기 수술 영상으로부터 획득되는, 수술영상데이터 학습시스템.According to claim 1,
The learning data is obtained from the surgical image by the client, surgical image data learning system.
상기 클라이언트는,
상기 수술 영상을 하나 이상의 수술 단계로 분할(segmentation)하여 인식하고,
상기 인식된 결과를 상기 학습용 데이터로서 상기 서버에 전송하는, 수술영상데이터 학습시스템.6. The method of claim 5,
the client,
Recognizing the surgical image by segmentation into one or more surgical steps,
Transmitting the recognized result to the server as the learning data, surgical image data learning system.
상기 클라이언트는,
상기 분할된 하나 이상의 수술 단계 각각에 대하여 기 설정된 코드를 부여하고,
상기 학습용 데이터로써, 상기 부여된 코드를 상기 서버로 전송하는, 수술영상데이터 학습시스템.7. The method of claim 6,
the client,
Giving a preset code to each of the divided one or more surgical steps,
As the learning data, for transmitting the given code to the server, surgical image data learning system.
상기 서버가 클라이언트에 상기 학습된 모델이 저장되도록 상기 학습된 모델에 대한 정보를 전송하는 단계;
상기 서버가 상기 학습된 모델을 업데이트하는 단계; 및
상기 클라이언트에 상기 업데이트된 모델에 대한 업데이트 정보를 전송하는 단계;를 포함하고,
상기 클라이언트에 저장된 모델은, 상기 서버로부터 수신되는 업데이트 정보에 기초하여 업데이트되며,
상기 업데이트 단계는,
상기 서버가 상기 클라이언트가 상기 저장된 모델을 이용하여 수술 중에 획득되는 수술 영상과 관련된 학습용 데이터로부터 기 설정된 학습조건에 대응하는 데이터셋을 추출하는 단계;
상기 서버가 상기 추출된 데이터셋을 이용하여 상기 모델에 대한 학습을 수행하는 단계;
상기 서버가 상기 기 설정된 학습조건에 대응하는 테스트용 데이터셋을 생성하는 단계;
상기 서버가 상기 생성된 테스트용 데이터셋을 이용하여 상기 학습된 모델에 대한 학습 테스트를 수행하는 단계; 및
상기 서버가 상기 학습 테스트의 수행 결과에 따른 피드백을 제공하는 단계;를 포함하는, 수술영상데이터 학습방법.training, by the server, at least one model for providing surgical guide information;
transmitting, by the server, information about the learned model to the client so that the learned model is stored;
updating the learned model by the server; and
Including; transmitting update information on the updated model to the client;
The model stored in the client is updated based on the update information received from the server,
The update step is
extracting, by the server, a dataset corresponding to a preset learning condition from training data related to a surgical image obtained during surgery by the client using the stored model;
performing, by the server, learning on the model using the extracted dataset;
generating, by the server, a test data set corresponding to the preset learning condition;
performing, by the server, a learning test on the learned model using the generated test dataset; and
Providing, by the server, feedback according to the result of the learning test; Containing, surgical image data learning method.
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서;를 포함하고,
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
수술 가이드 정보를 제공하는 적어도 하나의 모델을 학습시키는 단계;
클라이언트에 상기 학습된 모델이 저장되도록 상기 학습된 모델에 대한 정보를 전송하는 단계;
상기 학습된 모델을 업데이트하는 단계; 및
상기 클라이언트에 상기 업데이트된 모델에 대한 업데이트 정보를 전송하는 단계;를 수행하고,
상기 클라이언트에 저장된 모델은, 상기 서버로부터 수신되는 업데이트 정보에 기초하여 업데이트되며,
상기 업데이트 단계는,
상기 클라이언트가 상기 저장된 모델을 이용하여 수술 중에 획득되는 수술 영상과 관련된 학습용 데이터로부터 기 설정된 학습조건에 대응하는 데이터셋을 추출하는 단계;
상기 추출된 데이터셋을 이용하여 상기 모델에 대한 학습을 수행하는 단계;
상기 기 설정된 학습조건에 대응하는 테스트용 데이터셋을 생성하는 단계;
상기 생성된 테스트용 데이터셋을 이용하여 상기 학습된 모델에 대한 학습 테스트를 수행하는 단계; 및
상기 학습 테스트의 수행 결과에 따른 피드백을 제공하는 단계;를 포함하는, 서버.a memory storing one or more instructions; and
a processor that executes the one or more instructions stored in the memory;
The processor, by executing the one or more instructions,
training at least one model for providing surgical guide information;
transmitting information about the learned model to a client so that the learned model is stored;
updating the learned model; and
transmitting update information on the updated model to the client; and
The model stored in the client is updated based on the update information received from the server,
The update step is
extracting, by the client, a dataset corresponding to a preset learning condition from training data related to a surgical image acquired during surgery by using the stored model;
performing learning on the model using the extracted dataset;
generating a test dataset corresponding to the preset learning condition;
performing a learning test on the learned model using the generated test dataset; and
A server comprising a; providing feedback according to a result of the learning test.
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170182899 | 2017-12-28 | ||
KR1020170182900 | 2017-12-28 | ||
KR1020170182898 | 2017-12-28 | ||
KR20170182899 | 2017-12-28 | ||
KR20170182898 | 2017-12-28 | ||
KR20170182900 | 2017-12-28 | ||
KR1020180026572A KR101864380B1 (en) | 2017-12-28 | 2018-03-06 | Surgical image data learning system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180026572A Division KR101864380B1 (en) | 2017-12-28 | 2018-03-06 | Surgical image data learning system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190088375A KR20190088375A (en) | 2019-07-26 |
KR102298412B1 true KR102298412B1 (en) | 2021-09-06 |
Family
ID=63058435
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180026574A KR101880246B1 (en) | 2017-12-28 | 2018-03-06 | Method, apparatus and program for controlling surgical image play |
KR1020180055097A KR20190080702A (en) | 2017-12-28 | 2018-05-14 | Method, apparatus and program for rendering 3d elastic model |
KR1020180055105A KR102298412B1 (en) | 2017-12-28 | 2018-05-14 | Surgical image data learning system |
KR1020180055116A KR20190080703A (en) | 2017-12-28 | 2018-05-14 | System, method and program for calculating the optimum entering position of surgical equipment |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180026574A KR101880246B1 (en) | 2017-12-28 | 2018-03-06 | Method, apparatus and program for controlling surgical image play |
KR1020180055097A KR20190080702A (en) | 2017-12-28 | 2018-05-14 | Method, apparatus and program for rendering 3d elastic model |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180055116A KR20190080703A (en) | 2017-12-28 | 2018-05-14 | System, method and program for calculating the optimum entering position of surgical equipment |
Country Status (2)
Country | Link |
---|---|
KR (4) | KR101880246B1 (en) |
WO (1) | WO2019132169A1 (en) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102172258B1 (en) * | 2018-12-05 | 2020-10-30 | 쓰리디메디비젼 주식회사 | Surgical video procution system and surgical video procution method |
KR102361219B1 (en) * | 2019-09-09 | 2022-02-11 | (주)미래컴퍼니 | Method and apparatus for obtaining surgical data in units of sub blocks |
KR102315212B1 (en) * | 2019-10-14 | 2021-10-20 | 경상국립대학교산학협력단 | Hook device for removal of broken intramedullary nail |
KR102180921B1 (en) * | 2019-10-18 | 2020-11-19 | 주식회사 엠티이지 | Apparatus and method for inserting annotation on surgery video based on artificial intelligence |
CN110840534B (en) * | 2019-12-19 | 2022-05-17 | 上海钛米机器人科技有限公司 | Puncture speed planning method and device, puncture equipment and computer storage medium |
KR20210130041A (en) * | 2020-04-21 | 2021-10-29 | 사회복지법인 삼성생명공익재단 | System for providing educational information of surgical techniques and skills and surgical guide system based on machine learning using 3 dimensional image |
KR102426925B1 (en) * | 2020-06-23 | 2022-07-29 | (주)휴톰 | Method and program for acquiring motion information of a surgical robot using 3d simulation |
KR102407531B1 (en) * | 2020-08-05 | 2022-06-10 | 주식회사 라온메디 | Apparatus and method for tooth segmentation |
KR102427171B1 (en) * | 2020-09-14 | 2022-07-29 | (주)휴톰 | Method and Apparatus for providing object labeling within Video |
KR102619729B1 (en) * | 2020-11-20 | 2023-12-28 | 서울대학교산학협력단 | Apparatus and method for generating clinical record data |
CN112891685B (en) * | 2021-01-14 | 2022-07-01 | 四川大学华西医院 | Method and system for intelligently detecting position of blood vessel |
KR102640314B1 (en) * | 2021-07-12 | 2024-02-23 | (주)휴톰 | Artificial intelligence surgery system amd method for controlling the same |
CN113616336B (en) * | 2021-09-13 | 2023-04-14 | 上海微创微航机器人有限公司 | Surgical robot simulation system, simulation method, and readable storage medium |
KR102405647B1 (en) * | 2022-03-15 | 2022-06-08 | 헬리오센 주식회사 | Space function system using 3-dimensional point cloud data and mesh data |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009237923A (en) | 2008-03-27 | 2009-10-15 | Nec Corp | Learning method and system |
JP2010092266A (en) | 2008-10-08 | 2010-04-22 | Nec Corp | Learning device, learning method and program |
KR101302595B1 (en) | 2012-07-03 | 2013-08-30 | 한국과학기술연구원 | System and method for predict to surgery progress step |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101235044B1 (en) * | 2010-11-02 | 2013-02-21 | 서울대학교병원 (분사무소) | Method of operation simulation and automatic operation device using 3d modelling |
KR101795720B1 (en) * | 2011-05-12 | 2017-11-09 | 주식회사 미래컴퍼니 | Control method of surgical robot system, recording medium thereof, and surgical robot system |
KR101175065B1 (en) * | 2011-11-04 | 2012-10-12 | 주식회사 아폴로엠 | Method for bleeding scanning during operation using image processing apparatus for surgery |
KR102239714B1 (en) * | 2014-07-24 | 2021-04-13 | 삼성전자주식회사 | Neural network training method and apparatus, data processing apparatus |
KR101655940B1 (en) * | 2015-02-06 | 2016-09-08 | 경희대학교 산학협력단 | Apparatus for generating guide for surgery design information and method of the same |
-
2018
- 2018-03-06 KR KR1020180026574A patent/KR101880246B1/en active IP Right Grant
- 2018-05-14 KR KR1020180055097A patent/KR20190080702A/en active Application Filing
- 2018-05-14 KR KR1020180055105A patent/KR102298412B1/en active IP Right Grant
- 2018-05-14 KR KR1020180055116A patent/KR20190080703A/en active Application Filing
- 2018-09-05 WO PCT/KR2018/010334 patent/WO2019132169A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009237923A (en) | 2008-03-27 | 2009-10-15 | Nec Corp | Learning method and system |
JP2010092266A (en) | 2008-10-08 | 2010-04-22 | Nec Corp | Learning device, learning method and program |
KR101302595B1 (en) | 2012-07-03 | 2013-08-30 | 한국과학기술연구원 | System and method for predict to surgery progress step |
Also Published As
Publication number | Publication date |
---|---|
KR101880246B1 (en) | 2018-07-19 |
KR20190080702A (en) | 2019-07-08 |
KR20190080703A (en) | 2019-07-08 |
WO2019132169A1 (en) | 2019-07-04 |
KR20190088375A (en) | 2019-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102298412B1 (en) | Surgical image data learning system | |
KR101864380B1 (en) | Surgical image data learning system | |
KR102014385B1 (en) | Method and apparatus for learning surgical image and recognizing surgical action based on learning | |
EP3477589B1 (en) | Method of processing medical image, and medical image processing apparatus performing the method | |
JP2021536057A (en) | Lesion detection and positioning methods, devices, devices, and storage media for medical images | |
KR101926123B1 (en) | Device and method for segmenting surgical image | |
KR20190028422A (en) | Systems and methods for automatic detection, localization, and semantic segmentation of anatomical objects | |
JP2021535484A (en) | System for automatic tumor detection and classification | |
CN112101162A (en) | Image recognition model generation method and device, storage medium and electronic equipment | |
EP3819911A2 (en) | Bioimage diagnosis system, bioimage diagnosis method, and terminal for executing same | |
US20240078676A1 (en) | Interactive coronary labeling using interventional x-ray images and deep learning | |
WO2023134071A1 (en) | Person re-identification method and apparatus, electronic device and storage medium | |
US20240028798A1 (en) | Predictive modeling platform for serial casting to correct orthopedic deformities | |
CN113393417A (en) | System and method for detecting laterality of medical images | |
KR102146672B1 (en) | Program and method for providing feedback about result of surgery | |
KR102628324B1 (en) | Device and method for analysing results of surgical through user interface based on artificial interlligence | |
CN113192175A (en) | Model training method and device, computer equipment and readable storage medium | |
KR102276862B1 (en) | Method, apparatus and program for controlling surgical image play | |
US20210166351A1 (en) | Systems and methods for detecting and correcting orientation of a medical image | |
EP4353178A1 (en) | Artificial intelligence surgical system and control method therefor | |
KR20190133424A (en) | Program and method for providing feedback about result of surgery | |
US20230045686A1 (en) | Fusion of spatial and temporal context for location determination for visualization systems | |
KR102433054B1 (en) | Apparatus for predicting metadata of medical image and method thereof | |
Diao | A survey on deep learning for surgical planning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |