KR101864412B1 - Data managing method, apparatus and program for machine learning - Google Patents

Data managing method, apparatus and program for machine learning Download PDF

Info

Publication number
KR101864412B1
KR101864412B1 KR1020180026575A KR20180026575A KR101864412B1 KR 101864412 B1 KR101864412 B1 KR 101864412B1 KR 1020180026575 A KR1020180026575 A KR 1020180026575A KR 20180026575 A KR20180026575 A KR 20180026575A KR 101864412 B1 KR101864412 B1 KR 101864412B1
Authority
KR
South Korea
Prior art keywords
learning data
data
computer
existing
new
Prior art date
Application number
KR1020180026575A
Other languages
Korean (ko)
Inventor
정희철
Original Assignee
(주)휴톰
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)휴톰 filed Critical (주)휴톰
Application granted granted Critical
Publication of KR101864412B1 publication Critical patent/KR101864412B1/en
Priority to PCT/KR2018/010335 priority Critical patent/WO2019132170A1/en

Links

Images

Classifications

    • G06N99/005
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/0068Geometric image transformation in the plane of the image for image registration, e.g. elastic snapping
    • G06T3/14
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Robotics (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

The present invention discloses a method, a device and a program for managing learning data, which can reduce a time required for learning and a storage space for storing learning data. The method for managing learning data comprises the following steps of: a computer obtaining new learning data; the computer performing a test with respect to the obtained new learning data by using a learned model; the computer extracting first learning data in which labeled information is obtained with an accuracy of a predetermined first reference value or more, as a result of the test; the computer deleting the extracted first learning data from the new learning data; and the computer learning again the learned model by using the new learning data in which the extracted learning data is deleted.

Description

학습용 데이터 관리방법, 장치 및 프로그램 {DATA MANAGING METHOD, APPARATUS AND PROGRAM FOR MACHINE LEARNING}DATA MANAGEMENT METHOD, APPARATUS AND PROGRAM FOR MACHINE LEARNING,

본 발명은 학습용 데이터 관리방법, 장치 및 프로그램에 관한 것이다. The present invention relates to a learning data management method, apparatus, and program.

인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 Rule 기반 스마트 시스템과 달리 기계가 스스로 학습하고 판단하며 똑똑해지는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 사용자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 Rule 기반 스마트 시스템은 점차 딥러닝 기반 인공지능 시스템으로 대체되고 있다.Artificial intelligence (AI) system is a computer system that implements human-level intelligence. Unlike existing Rule-based smart systems, AI is a system in which machines learn, judge and become smart. Artificial intelligence systems are increasingly recognized and improving their understanding of user preferences as they are used, and existing rule-based smart systems are gradually being replaced by deep-run-based artificial intelligence systems.

인공지능 기술은 기계학습(딥러닝) 및 기계학습을 활용한 요소 기술들로 구성된다.Artificial intelligence technology consists of element technologies that utilize deep learning and machine learning.

기계학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 딥러닝 등의 기계학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.Machine learning is an algorithm technology that classifies / learns the characteristics of input data by itself. Element technology is a technology that simulates functions such as recognition and judgment of human brain using machine learning algorithms such as deep learning. Understanding, reasoning / prediction, knowledge representation, and motion control.

심층 신경망(DNN: Deep Neural Network)은 기계학습에 널리 사용되며, 객체, 얼굴 및 발화(음성)인식에 있어서 인간의 수준에 근접한 것으로 판단된다. 심층 신경망을 학습시키는 데 있어, 우선 기본 데이터셋을 이용하여 학습시킨 후 특정 분야의 데이터셋을 이용하여 미세 조정(fine tuning)하는 방식이 빈번하게 이용된다. Deep Neural Network (DNN) is widely used for machine learning and is considered to be close to human level in object, face, and speech recognition. In order to learn the neural network, a method of fine tuning by using a basic data set and then using a data set of a specific field is frequently used.

본 발명이 해결하고자 하는 과제는 학습용 데이터 관리방법, 장치 및 프로그램을 제공하는 것이다.A problem to be solved by the present invention is to provide a learning data management method, an apparatus, and a program.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the above-mentioned problems, and other problems which are not mentioned can be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 학습용 데이터 관리방법은, 컴퓨터가 신규 학습용 데이터를 획득하는 단계, 학습된 모델을 이용하여, 상기 획득된 신규 학습용 데이터에 대한 테스트를 수행하는 단계, 상기 테스트 결과, 라벨링된 정보가 소정의 제1 기준값 이상의 정확도로 획득되는 제1 학습용 데이터를 추출하는 단계, 상기 추출된 제1 학습용 데이터를 상기 신규 학습용 데이터로부터 삭제하는 단계 및 상기 추출된 학습용 데이터가 삭제된 상기 신규 학습용 데이터를 이용하여 상기 학습된 모델을 다시 학습시키는 단계를 포함한다.According to one aspect of the present invention, there is provided a learning data management method comprising the steps of: acquiring new learning data from a computer; performing a test on the acquired new learning data using the learned model; , Extracting first learning data in which the labeled information is acquired with an accuracy of at least a first reference value, extracting the extracted first learning data from the new learning data, and extracting the extracted learning data And re-learning the learned model using the deleted new learning data.

또한, 상기 소정의 제1 기준값은, 상기 신규 학습용 데이터의 양이 기 설정된 범위를 넘지 않도록 조정되는 것을 특징으로 할 수 있다.The predetermined first reference value may be adjusted such that the amount of the new learning data does not exceed a predetermined range.

또한, 상기 학습된 모델의 학습에 기 이용된, 기존 학습용 데이터를 획득하는 단계, 상기 다시 학습된 모델을 이용하여, 상기 기존 학습용 데이터에 대한 테스트를 수행하는 단계 및 상기 테스트 결과, 라벨링된 정보가 소정의 제2 기준값 이상의 정확도로 획득되는 제2 학습용 데이터를 추출하는 단계 및 상기 추출된 제2 학습용 데이터를 상기 기존 학습용 데이터로부터 삭제하는 단계를 더 포함할 수 있다.The method may further comprise the steps of: acquiring existing learning data used for learning the learned model; performing a test on the existing learning data using the re-learned model; Extracting second learning data obtained with an accuracy equal to or higher than a predetermined second reference value, and deleting the extracted second learning data from the existing learning data.

또한, 상기 소정의 제2 기준값은, 상기 신규 학습용 데이터 및 상기 기존 학습용 데이터의 양이 기 설정된 범위를 넘지 않도록 조정되는 것을 특징으로 할 수 있다.The predetermined second reference value may be adjusted such that the amounts of the new learning data and the existing learning data do not exceed a predetermined range.

또한, 상기 테스트를 수행하는 단계는, 상기 테스트를 수행하는 시점을 결정하되, 상기 신규 학습용 데이터의 양이 소정의 기준값을 초과하는 경우 상기 테스트를 수행하는, 단계를 포함할 수 있다.The testing may include determining when to perform the test, and performing the test if the amount of the new learning data exceeds a predetermined reference value.

또한, 상기 테스트를 수행하는 단계는, 상기 신규 학습용 데이터에 포함된, 라벨링된 제3 학습용 데이터를 상기 학습된 모델에 입력하는 단계, 상기 학습된 모델의 출력을 획득하는 단계 및 상기 획득된 출력과 상기 제3 학습용 데이터에 라벨링된 정보를 비교하는 단계를 포함할 수 있다.The step of performing the test may further include the steps of: inputting the labeled third learning data included in the new learning data into the learned model; obtaining an output of the learned model; And comparing the information labeled with the third learning data.

또한, 상기 학습된 모델을 다시 학습시키는 단계는, 다시 학습된 모델과, 상기 학습된 모델의 결정경계(decision boundary)가 동일하도록 상기 학습된 모델을 다시 학습시키는 단계를 포함할 수 있다.The step of re-learning the learned model may include re-learning the learned model so that the decision boundary of the learned model is the same as the learned model again.

또한, 상기 학습된 모델의 학습에 기 이용된, 기존 학습용 데이터를 획득하는 단계를 더 포함하고, 상기 학습된 모델을 다시 학습시키는 단계는, 상기 다시 학습된 모델을 이용하여 상기 기존 학습용 데이터로부터 추출되는 특징이 상기 학습된 모델을 이용하여 상기 기존 학습용 데이터로부터 추출되는 특징과 가까이 위치하도록 상기 학습된 모델을 다시 학습시키는 단계를 포함할 수 있다.The method may further include acquiring existing learning data used for learning of the learned model, and the step of re-learning the learned model further comprises: extracting from the existing learning data using the re-learned model And re-learning the learned model so as to be located near the feature extracted from the existing learning data using the learned model.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 학습용 데이터 관리장치는, 하나 이상의 인스트럭션을 저장하는 메모리 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 신규 학습용 데이터를 획득하는 단계, 학습된 모델을 이용하여, 상기 획득된 신규 학습용 데이터에 대한 테스트를 수행하는 단계, 상기 테스트 결과, 라벨링된 정보가 소정의 제1 기준값 이상의 정확도로 획득되는 제1 학습용 데이터를 추출하는 단계, 상기 추출된 제1 학습용 데이터를 상기 신규 학습용 데이터로부터 삭제하는 단계 및 상기 추출된 학습용 데이터가 삭제된 상기 신규 학습용 데이터를 이용하여 상기 학습된 모델을 다시 학습시키는 단계를 수행한다.According to an aspect of the present invention, there is provided a learning data management apparatus including a memory for storing one or more instructions and a processor for executing the one or more instructions stored in the memory, Executing an instruction to acquire new learning data; performing a test on the acquired new learning data using the learned model; and a step of performing a test on the acquired new learning data using the learned model, Extracting the first learning data to be acquired, deleting the extracted first learning data from the new learning data, and re-learning the learned model using the new learning data from which the extracted learning data has been deleted .

상술한 과제를 해결하기 위한 본 발명의 일 면에 따라 하드웨어인 컴퓨터와 결합되어, 개시된 실시 예에 따른 학습용 데이터 관리방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램이 제공된다.According to an aspect of the present invention, there is provided a computer program stored in a recording medium readable by a computer to perform a learning data management method according to an embodiment of the present invention in combination with a hardware computer.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

개시된 실시 예에 따르면, 학습에 소요되는 시간과, 학습용 데이터를 저장하기 위한 저장공간을 감축할 수 있는 효과가 있다.According to the disclosed embodiment, it is possible to reduce the time required for learning and the storage space for storing learning data.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description.

도 1은 개시된 실시 예에 따라 로봇수술을 수행할 수 있는 시스템을 간략하게 도식화한 도면이다.
도 2는 일 실시 예에 따라 학습용 데이터를 관리하는 방법을 도시한 흐름도이다.
도 3은 일 실시 예에 따라 기존 학습 데이터 및 기 학습된 모델을 포함하는 저장공간을 도시한 도면이다.
도 4는 신규 학습용 데이터를 선별하는 일 예를 도시한 도면이다.
도 5는 학습된 모델을 다시 학습시키는 일 예를 도시한 도면이다.
도 6은 일 실시 예에 따라 기존 학습용 데이터를 관리 및 활용하는 방법을 도시한 흐름도이다.
도 7은 기존 학습용 데이터를 관리하는 방법의 일 예를 도시한 도면이다.
도 8은 신규 및 기존 학습용 데이터가 저장된 저장공간을 도시한 도면이다.
도 9는 일 실시 예에 따른 장치의 구성도이다.
1 is a simplified schematic diagram of a system capable of performing robotic surgery in accordance with the disclosed embodiments.
2 is a flowchart illustrating a method of managing learning data according to an embodiment.
3 is a view showing a storage space including existing learning data and a previously learned model according to an embodiment.
4 is a diagram showing an example of selecting new learning data.
5 is a diagram showing an example in which the learned model is re-learned.
FIG. 6 is a flowchart illustrating a method of managing and utilizing existing training data according to an embodiment.
7 is a diagram showing an example of a method of managing existing learning data.
8 is a view showing a storage space in which new and existing learning data are stored.
9 is a block diagram of an apparatus according to an embodiment.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. It should be understood, however, that the invention is not limited to the disclosed embodiments, but may be embodied in many different forms and should not be construed as limited to the embodiments set forth herein, Is provided to fully convey the scope of the present invention to a technician, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. The terms " comprises "and / or" comprising "used in the specification do not exclude the presence or addition of one or more other elements in addition to the stated element. Like reference numerals refer to like elements throughout the specification and "and / or" include each and every combination of one or more of the elements mentioned. Although "first "," second "and the like are used to describe various components, it is needless to say that these components are not limited by these terms. These terms are used only to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical scope of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense that is commonly understood by one of ordinary skill in the art to which this invention belongs. In addition, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.As used herein, the term "part" or "module" refers to a hardware component, such as a software, FPGA, or ASIC, and a "component" or "module" performs certain roles. However, "part" or " module " is not meant to be limited to software or hardware. A "module " or " module " may be configured to reside on an addressable storage medium and configured to play back one or more processors. Thus, by way of example, "a" or " module " is intended to encompass all types of elements, such as software components, object oriented software components, class components and task components, Microcode, circuitry, data, databases, data structures, tables, arrays, and variables, as used herein. Or " modules " may be combined with a smaller number of components and "parts " or " modules " Can be further separated.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 개시된 실시 예에 따라 로봇수술을 수행할 수 있는 시스템을 간략하게 도식화한 도면이다.1 is a simplified schematic diagram of a system capable of performing robotic surgery in accordance with the disclosed embodiments.

도 1에 따르면, 로봇수술 시스템은 의료영상 촬영장비(10), 서버(100) 및 수술실에 구비된 제어부(30), 디스플레이(32) 및 수술로봇(34)을 포함한다. 실시 예에 따라서, 의료영상 촬영장비(10)는 개시된 실시 예에 따른 로봇수술 시스템에서 생략될 수 있다.1, the robot surgery system includes a medical imaging apparatus 10, a server 100, a control unit 30 provided in an operating room, a display 32, and a surgical robot 34. Depending on the embodiment, the medical imaging equipment 10 may be omitted from the robotic surgery system according to the disclosed embodiment.

일 실시 예에서, 수술로봇(34)은 촬영장치(36) 및 수술도구(38)를 포함한다.In one embodiment, the surgical robot 34 includes a photographing device 36 and a surgical tool 38.

일 실시 예에서, 로봇수술은 사용자가 제어부(30)를 이용하여 수술용 로봇(34)을 제어함으로써 수행된다. 일 실시 예에서, 로봇수술은 사용자의 제어 없이 제어부(30)에 의하여 자동으로 수행될 수도 있다.In one embodiment, robotic surgery is performed by the user controlling the surgical robot 34 using the control unit 30. [ In one embodiment, robot surgery may be performed automatically by the control unit 30 without user control.

서버(100)는 적어도 하나의 프로세서와 통신부를 포함하는 컴퓨팅 장치이다.The server 100 is a computing device that includes at least one processor and a communication unit.

제어부(30)는 적어도 하나의 프로세서와 통신부를 포함하는 컴퓨팅 장치를 포함한다. 일 실시 예에서, 제어부(30)는 수술용 로봇(34)을 제어하기 위한 하드웨어 및 소프트웨어 인터페이스를 포함한다.The control unit 30 includes a computing device including at least one processor and a communication unit. In one embodiment, the control unit 30 includes hardware and software interfaces for controlling the surgical robot 34.

촬영장치(36)는 적어도 하나의 이미지 센서를 포함한다. 즉, 촬영장치(36)는 적어도 하나의 카메라 장치를 포함하여, 대상체, 즉 수술부위를 촬영하는 데 이용된다. 일 실시 예에서, 촬영장치(36)는 수술로봇(34)의 수술 암(arm)과 결합된 적어도 하나의 카메라를 포함한다.The photographing apparatus 36 includes at least one image sensor. That is, the photographing device 36 includes at least one camera device and is used to photograph a target object, that is, a surgical site. In one embodiment, the imaging device 36 includes at least one camera coupled with a surgical arm of the surgical robot 34.

일 실시 예에서, 촬영장치(36)에서 촬영된 영상은 디스플레이(340)에 표시된다.In one embodiment, the image photographed at the photographing device 36 is displayed on the display 340. [

일 실시 예에서, 수술로봇(34)은 수술부위의 절단, 클리핑, 고정, 잡기 동작 등을 수행할 수 있는 하나 이상의 수술도구(38)를 포함한다. 수술도구(38)는 수술로봇(34)의 수술 암과 결합되어 이용된다.In one embodiment, the surgical robot 34 includes one or more surgical tools 38 that can perform cutting, clipping, anchoring, grabbing, etc., of the surgical site. The surgical tool 38 is used in combination with the surgical arm of the surgical robot 34.

제어부(30)는 서버(100)로부터 수술에 필요한 정보를 수신하거나, 수술에 필요한 정보를 생성하여 사용자에게 제공한다. 예를 들어, 제어부(30)는 생성 또는 수신된, 수술에 필요한 정보를 디스플레이(32)에 표시한다.The control unit 30 receives information necessary for surgery from the server 100 or generates information necessary for surgery and provides the information to the user. For example, the control unit 30 displays on the display 32 information necessary for surgery, which is generated or received.

예를 들어, 사용자는 디스플레이(32)를 보면서 제어부(30)를 조작하여 수술로봇(34)의 움직임을 제어함으로써 로봇수술을 수행한다.For example, the user operates the control unit 30 while viewing the display 32 to perform the robot surgery by controlling the movement of the surgical robot 34.

서버(100)는 의료영상 촬영장비(10)로부터 사전에 촬영된 대상체의 의료영상데이터를 이용하여 로봇수술에 필요한 정보를 생성하고, 생성된 정보를 제어부(30)에 제공한다. The server 100 generates information necessary for robot surgery using the medical image data of the object photographed beforehand from the medical imaging equipment 10 and provides the generated information to the control unit 30. [

제어부(30)는 서버(100)로부터 수신된 정보를 디스플레이(32)에 표시함으로써 사용자에게 제공하거나, 서버(100)로부터 수신된 정보를 이용하여 수술로봇(34)을 제어한다.The control unit 30 provides the information received from the server 100 to the user by displaying the information on the display 32 or controls the surgical robot 34 using the information received from the server 100. [

일 실시 예에서, 의료영상 촬영장비(10)에서 사용될 수 있는 수단은 제한되지 않으며, 예를 들어 CT, X-Ray, PET, MRI 등 다른 다양한 의료영상 획득수단이 사용될 수 있다. In one embodiment, the means that can be used in the medical imaging equipment 10 is not limited, and various other medical imaging acquiring means such as CT, X-Ray, PET, MRI and the like may be used.

개시된 실시 예에서, 촬영장치(36)에서 획득되는 수술영상은 제어부(30)로 전달된다.In the disclosed embodiment, the surgical image obtained in the photographing device 36 is transmitted to the control section 30. [

일 실시 예에서, 제어부(30)는 수술 중에 획득되는 수술영상을 실시간으로 분할(segmentation)할 수 있다.In one embodiment, the control unit 30 may segment the surgical image obtained during the operation in real time.

일 실시 예에서, 제어부(30)는 수술 중 또는 수술이 완료된 후 수술영상을 서버(100)에 전송한다.In one embodiment, the control unit 30 transmits a surgical image to the server 100 during or after surgery.

서버(100)는 수술영상을 분할하여 분석할 수 있다.The server 100 can divide and analyze the surgical image.

서버(100)는 수술영상을 분할하여 분석하기 위한 적어도 하나의 모델을 학습 및 저장한다. 또한, 서버(100)는 최적화된 수술 프로세스를 생성하기 위한 적어도 하나의 모델을 학습 및 저장한다.The server 100 learns and stores at least one model for dividing and analyzing a surgical image. In addition, the server 100 learns and stores at least one model for generating an optimized surgical process.

서버(100)는 적어도 하나의 모델을 학습하기 위하여 학습 데이터를 이용하며, 학습 데이터는 수술 영상 및 수술 영상에 대한 라벨링 정보를 포함하나, 이에 제한되지 않는다. The server 100 uses learning data to learn at least one model, and the learning data includes, but is not limited to, surgical and surgical image labeling information.

이하에서는, 서버(100)가 수집되는 학습 데이터를 관리하고, 모델을 학습시키는 방법에 대하여 설명한다. 단, 이하에서 개시되는 실시 예들은 도 1에 도시된 로봇수술 시스템과 연관되어서만 적용될 수 있는 것은 아니고, 학습 데이터를 수집, 저장 및 관리하며, 이를 이용하여 학습을 수행하고, 학습된 모델을 업데이트하는 모든 종류의 실시 예들에도 적용될 수 있다.Hereinafter, a method of managing the learning data collected by the server 100 and learning the model will be described. However, the embodiments described below can be applied not only in connection with the robot surgery system shown in FIG. 1, but also collect, store and manage learning data, perform learning using the learned data, and update the learned model The present invention can be applied to all kinds of embodiments.

도 2는 일 실시 예에 따라 학습용 데이터를 관리하는 방법을 도시한 흐름도이다.2 is a flowchart illustrating a method of managing learning data according to an embodiment.

도 2에 도시된 실시 예는 도 1에 도시된 서버(100)에 의하여 시계열적으로 수행되는 하나 이상의 단계를 포함한다. The embodiment shown in FIG. 2 includes one or more steps performed in time series by the server 100 shown in FIG.

단계 S110에서, 서버(100)는 신규 학습용 데이터를 획득한다. In step S110, the server 100 acquires new learning data.

일 실시 예에서, 신규 학습용 데이터는 학습에 이용될 수 있는 라벨링된 데이터를 포함한다. 학습용 데이터를 라벨링하는 주체는 제한되지 않으며, 예를 들어 라벨링은 사람에 의하여 수행될 수도 있고, 컴퓨터에 의하여 자동으로 수행될 수도 있다.In one embodiment, the new learning data includes labeled data that can be used for learning. The subject for labeling the training data is not limited. For example, the labeling may be performed by a person or automatically by a computer.

도 3을 참조하면, 저장공간(200)에는 기존 학습 데이터(210) 및 기 학습된 모델(220)에 대한 정보가 저장된다. 실시 예에 따라서, 저장공간(200)은 서버(100)에 포함된 메모리를 의미할 수도 있고, 서버(100)와 유선 또는 무선으로 통신가능한 외부 저장공간이나 클라우드 저장공간을 의미할 수도 있다. 또한, 기존 학습 데이터(210) 및 학습된 모델(220)에 대한 정보는 같은 저장공간에 저장될 수도 있고, 서로 다른 저장공간에 분할되어 저장될 수도 있다.Referring to FIG. 3, information on existing learning data 210 and previously learned model 220 is stored in the storage space 200. According to an embodiment, the storage space 200 may mean a memory included in the server 100 or an external storage space or a cloud storage space that can communicate with the server 100 in a wired or wireless manner. In addition, information on the existing learning data 210 and the learned model 220 may be stored in the same storage space or may be divided and stored in different storage spaces.

일 실시 예에서, 학습된 모델(220)에 대한 정보는 학습된 모델(220)의 신경망을 구성하기 위한 적어도 하나의 파라미터에 대한 정보를 포함할 수 있으나, 이에 제한되지 않는다.In one embodiment, the information about the learned model 220 may include, but is not limited to, information about at least one parameter for constructing the neural network of the learned model 220.

일 실시 예에서, 서버(100)는 신규 학습 데이터(300)를 획득한다. 신규 학습 데이터(300)는 저장공간(200)에 저장될 수도 있고, 별도의 데이터베이스에 저장될 수도 있다. 신규 학습 데이터(300)는 기존 학습 데이터(210)와 같은 공간에 저장될 수도 있고, 다른 공간에 별도로 저장될 수도 있다.In one embodiment, the server 100 acquires new learning data 300. The new learning data 300 may be stored in the storage space 200 or may be stored in a separate database. The new learning data 300 may be stored in the same space as the existing learning data 210 or may be separately stored in another space.

단계 S120에서, 서버(100)는 학습된 모델(220)을 이용하여, 단계 S110에서 획득된 신규 학습용 데이터에 대한 테스트를 수행한다.In step S120, the server 100 performs a test on the new learning data acquired in step S110, using the learned model 220. [

일 실시 예에서, 서버(100)는 테스트를 수행하는 시점을 결정하되, 획득된 신규 학습용 데이터(300)의 양이 소정의 기준값을 초과하는 경우 테스트를 수행할 수 있다.In one embodiment, the server 100 determines when to perform the test, and may perform a test if the amount of new learning data 300 obtained exceeds a predetermined reference value.

또한, 서버(100)는 저장공간(200)에 저장된 학습용 데이터들 또는 신규 학습용 데이터(300)의 엔트로피가 소정의 기준값을 초과하는 경우 테스트를 수행할 수 있으나, 이에 제한되지 않는다.The server 100 may perform the test when the entropy of the learning data or the new learning data 300 stored in the storage space 200 exceeds a predetermined reference value, but the present invention is not limited thereto.

일 실시 예에서, 서버(100)는 신규 학습용 데이터(300)에 포함된, 하나 이상의 라벨링된 학습용 데이터를 학습된 모델(220)에 입력한다.In one embodiment, the server 100 enters one or more labeled learning data contained in the new learning data 300 into the learned model 220.

서버(100)는 학습된 모델(220)의 출력을 획득하고, 획득된 출력과, 학습된 모델(220)에 입력된 학습용 데이터에 라벨링된 정보를 비교한다. 예를 들어, 서버(100)는 획득된 출력과 라벨링된 정보가 소정의 기준값 이상 유사한 것으로 판단되면, 해당 학습용 데이터에 대한 테스트를 통과한 것으로 판단할 수 있다.The server 100 acquires the output of the learned model 220 and compares the obtained output with the information labeled with the learning data input to the learned model 220. [ For example, if it is determined that the obtained output and the labeled information are similar to each other by a predetermined reference value or more, the server 100 can determine that the test for the corresponding learning data has been passed.

단계 S130에서, 서버(100)는 테스트 결과, 라벨링된 정보가 소정의 기준값 이상의 정확도로 획득되는 학습용 데이터를 추출하고, 추출된 학습용 데이터를 신규 학습용 데이터로부터 삭제한다.In step S130, the server 100 extracts learning data for which the labeled information is acquired with an accuracy of at least a predetermined reference value, and deletes the extracted learning data from the new learning data.

일 실시 예에서, 서버(100)는 학습된 모델에 대하여 신규 학습용 데이터(300)가 획득되면, 획득된 데이터에 기초하여 학습된 모델(220)을 다시 학습시킴으로써, 학습된 모델(220)의 정확도를 높이거나, 적용가능한 범위를 넓힐 수 있다. In one embodiment, when the new learning data 300 is acquired for the learned model, the server 100 re-learns the learned model 220 based on the acquired data, so that the accuracy of the learned model 220 , Or broaden the applicable range.

하지만, 모델을 학습시키기 위한 신규 학습용 데이터(300)가 많아질수록 학습에 오랜 시간이 필요하고, 누적되는 학습용 데이터를 모두 저장하기에는 많은 저장공간이 필요하므로, 서버(100)는 학습용 데이터를 선별하고, 선별된 학습용 데이터만을 남겨서 저장하고, 모델의 학습에 활용할 수 있다.However, as the number of new learning data 300 for learning a model increases, a longer time is required for learning, and a larger storage space is required for storing all accumulated learning data. Therefore, the server 100 selects training data , It is possible to store only the selected learning data and to use it for learning of the model.

도 4를 참조하면, 신규 학습용 데이터를 선별하는 일 예가 도시되어 있다.Referring to Fig. 4, an example of selecting new learning data is shown.

일 실시 예로서, 서버(100)는 신규 학습용 데이터(300)를 테스트용 데이터셋으로 하여 학습된 모델(220)에 대한 테스트를 수행할 수 있다. 학습된 모델(220)이 특정 학습용 데이터를 입력받아, 해당 학습용 데이터에 라벨링된 정보를 소정의 기준값 이상의 정확도로 획득할 수 있는 경우, 서버(100)는 해당 학습용 데이터에 대해서는 이미 학습이 잘 된 것으로 판단하고, 해당 학습용 데이터는 학습에 이용하지 않을 수 있다. In one embodiment, the server 100 may perform a test on the learned model 220 using the new learning data 300 as a test data set. When the learned model 220 receives the specific learning data and can obtain the information labeled with the learning data with an accuracy of a predetermined reference value or more, the server 100 has already learned the learning data And the corresponding learning data may not be used for learning.

따라서, 서버(100)는 신규 학습용 데이터(300)로부터 라벨링된 정보가 소정의 기준값 이상의 정확도로 획득되는 학습용 데이터(310)를 추출하고, 추출된 학습용 데이터(310)를 신규 학습용 데이터(300)로부터 삭제한다. 서버(100)는 추출된 학습용 데이터(310)를 삭제한 후 남은 학습용 데이터(320)를 저장공간(200)에 저장하고, 학습에 활용한다.Therefore, the server 100 extracts the learning data 310 from which the information labeled from the new learning data 300 is acquired with an accuracy of at least a predetermined reference value, and extracts the extracted learning data 310 from the new learning data 300 . The server 100 stores the remaining learning data 320 after deleting the extracted learning data 310 in the storage space 200 and utilizes the data for learning.

일 실시 예에서, 소정의 기준값은, 신규 학습용 데이터(320)의 양이 기 설정된 범위를 넘지 않도록 조정될 수 있다. 예를 들어, 소정의 기준값은, 신규 학습용 데이터(320)의 양이 획득된 신규 학습용 데이터(300)의 50%를 넘지 않도록 조정될 수 있으나, 이에 제한되는 것은 아니다.In one embodiment, the predetermined reference value can be adjusted such that the amount of new learning data 320 does not exceed a predetermined range. For example, the predetermined reference value may be adjusted so that the amount of new learning data 320 does not exceed 50% of the acquired new learning data 300, but is not limited thereto.

단계 S140에서, 서버(100)는 추출된 학습용 데이터(310)가 삭제된 신규 학습용 데이터(320)를 이용하여 학습된 모델(220)을 다시 학습시킨다.In step S140, the server 100 re-learns the learned model 220 using the new learning data 320 from which the extracted learning data 310 has been deleted.

도 5를 참조하면, 학습된 모델(220)을 다시 학습시키는 일 예가 도시되어 있다.Referring to FIG. 5, an example of re-learning the learned model 220 is shown.

일 실시 예에서, 서버(100)는 학습된 모델(220)을 신규 학습 데이터(320)를 이용하여 다시 학습시키고, 그 결과로서 다시 학습된 모델(400)을 획득한다.In one embodiment, the server 100 re-learns the learned model 220 using the new learning data 320 and obtains the re-learned model 400 as a result.

일 실시 예에서, 서버(100)는 신규 학습 데이터(320)를 이용하여 학습된 모델(220)을 다시 학습시키되, 학습된 모델(220)이 기존 학습 데이터(210)에 기초한 학습결과를 잊지 않도록 할 수 있다. In one embodiment, the server 100 re-learns the learned model 220 using the new learning data 320 so that the learned model 220 does not forget the learning results based on the existing learning data 210 can do.

즉, 학습된 모델(220)은 심층 신경망(DNN: Deep Neural Network)을 포함하고, 신규 학습 데이터(320)를 이용하여 학습된 모델(220)을 다시 학습시키는 것은 심층 신경망을 미세 조정(fine tuning)하는 것으로 이해될 수 있다. 다만, 과정에서 기존에 학습된 정보를 잊어버리는 경향이 있다.That is, the learned model 220 includes a Deep Neural Network (DNN), and re-learning of the learned model 220 using the new learning data 320 can be performed by fine tuning ). ≪ / RTI > However, there is a tendency to forget previously learned information in the process.

따라서, 심층 신경망의 영역(domain)을 확장시키는 과정에서 기존에 학습된 정보를 덜 잊어버리도록 하는 학습방식(less-forgetful learning method)이 적용될 수 있다.Therefore, a less-forgetful learning method can be applied in the process of expanding the domain of the neural network, in which less learned information is less forgotten.

이 경우, 서버(100)는 기존 학습용 데이터(210)들에 접근할 수 없는 상황에서도 기존에 학습된 정보를 유지할 수 있도록 하여, 기존 학습용 데이터(210)를 저장하기 위한 저장공간의 낭비를 막을 수 있고, 학습과정에서 기존 학습용 데이터(210)를 다시 학습하는 등의 학습시간 낭비를 막을 수 있다.In this case, the server 100 can keep the previously learned information even in the case where the existing learning data 210 can not be accessed, thereby preventing the waste of the storage space for storing the existing learning data 210 And it is possible to prevent a waste of learning time such as re-learning existing learning data 210 in a learning process.

실시 예에 따라서, 서버(100)는 기존 학습용 데이터(210)를 활용하되, 기존 학습용 데이터(210)를 소정의 기준에 따라 선별하고, 선별된 학습용 데이터(210)만을 활용할 수 있다. 기존 학습용 데이터(210)를 선별 및 활용하는 방법에 대해서는 후술한다.According to the embodiment, the server 100 may utilize the existing learning data 210, but may select existing learning data 210 according to a predetermined criterion, and utilize the selected learning data 210 only. A method of selecting and utilizing existing learning data 210 will be described later.

심층 신경망의 하위 계층은 특징 추출기로서 인식되고, 최상위 계층은 선형 분류기의 특징을 갖는 것으로 인식된다. 즉, 소프트맥스 분류기의 가중치는 특징을 분류하기 위한 결정경계(decision boundary)를 나타낸다.The lower layer of the neural network is recognized as a feature extractor, and the highest layer is recognized as having characteristics of a linear classifier. That is, the weight of the soft max classifier represents a decision boundary for classifying the feature.

최상위 계층의 분류기의 선형적 특성에 기인하여, 최상위 은닉층에서 추출된 특징은 일반적으로 선형으로 분리될 수 있다. 이로부터, 개시된 실시 예에 따라 심층 신경망의 기존 영역에서 학습한 정보를 잊는 경향성을 줄일 수 있는 학습방법의 두 가지 특성을 제시한다.Due to the linear nature of the classifier at the top level, features extracted from the top level hidden layer can generally be linearly separated. From this, we present two characteristics of a learning method that can reduce the tendency to forget information learned in the existing domain of the neural network according to the disclosed embodiment.

첫째, 결정경계는 변하지 않아야 한다.First, the decision boundaries should not change.

둘째, 새로운 신경망을 이용하여 기존 영역의 데이터로부터 추출한 특징은 기존 신경망이 기존 영역의 데이터로부터 추출한 특징과 가까이 위치하여야 한다.Second, the feature extracted from the data of the existing region using the new neural network should be located close to the feature extracted from the data of the existing region.

서버(100)는 상기한 두 가지 특성에 기초하여 학습된 모델(220)의 재학습을 수행한다The server 100 performs re-learning of the learned model 220 based on the above two characteristics

첫 번째 특성, 즉 결정경계는 변하지 않아야 한다는 특성은, 경계(boundary)의 학습률(learning rate)을 0으로 설정함으로써 적용할 수 있다.The property that the first characteristic, that is, the decision boundary, should not be changed can be applied by setting the learning rate of the boundary to zero.

하지만, 두 번째 특성의 경우 기존 영역의 데이터에 접근할 수 없다는 전제 하에서는 간단히 적용될 수 없다.However, the second characteristic can not be applied simply because it is impossible to access the data of the existing region.

개시된 실시 예에서, 기존 영역의 데이터 대신 새로운 영역의 학습데이터를 이용하여 상기한 두 번째 특성을 만족시킬 수 있다.In the disclosed embodiment, the second characteristic can be satisfied by using the learning data of the new area instead of the data of the existing area.

우선, 서버(100)는 전통적인 미세조정 방법과 마찬가지로, 최초에 기존 신경망의 가중치를 재활용한다. 즉, 기존 신경망의 가중치를 새로운 신경망의 최초 가중치로 사용한다.First, the server 100 first recycles the weight of the existing neural network, as in the conventional fine adjustment method. That is, the weight of the existing neural network is used as the initial weight of the new neural network.

이후, 서버(100)는 분류기의 경계를 동결하기 위해 소프트맥스 분류기의 가중치를 동결한다. 이후, 서버(100)는 총 손실함수(loss function)를 최소화할 수 있는 방향으로 심층 신경망을 훈련시킬 수 있다.Thereafter, the server 100 freezes the weight of the soft max classifier to freeze the boundary of the classifier. The server 100 may then train the in-depth network in a direction that minimizes the total loss function.

실시 예에 따라서, 기존 영역의 학습 데이터 일부에 접근함으로써 상기한 두 번째 특성을 달성하는 방법도 고려될 수 있다. 예를 들어, 기존 영역의 학습 데이터 중 일부를 선택적으로 접근가능하도록 함으로써 학습효율을 높일 수 있다. According to the embodiment, a method of achieving the above-mentioned second characteristic by accessing a part of the learning data of the existing area can also be considered. For example, by making some of the learning data of the existing area selectively accessible, the learning efficiency can be increased.

도 6은 일 실시 예에 따라 기존 학습용 데이터를 관리 및 활용하는 방법을 도시한 흐름도이다.FIG. 6 is a flowchart illustrating a method of managing and utilizing existing training data according to an embodiment.

단계 S150에서, 서버(100)는 학습된 모델(220)의 학습에 기 이용된, 기존 학습용 데이터(210)를 획득한다.In step S150, the server 100 acquires existing learning data 210 used for learning of the learned model 220. [

단계 S160에서, 서버(100)는 다시 학습된 모델(400)을 이용하여, 기존 학습용 데이터(210)에 대한 테스트를 수행한다.In step S160, the server 100 performs the test on the existing training data 210 using the learned model 400 again.

일 실시 예에서, 서버(100)는 기존 학습용 데이터(210)에 포함된, 하나 이상의 라벨링된 학습용 데이터를 다시 학습된 모델(400)에 입력한다.In one embodiment, the server 100 inputs one or more labeled training data contained in the existing training data 210 into the re-learned model 400. [

서버(100)는 다시 학습된 모델(400)의 출력을 획득하고, 획득된 출력과, 다시 학습된 모델(400)에 입력된 학습용 데이터에 라벨링된 정보를 비교한다. 예를 들어, 서버(100)는 획득된 출력과 라벨링된 정보가 소정의 기준값 이상 유사한 것으로 판단되면, 해당 학습용 데이터에 대한 테스트를 통과한 것으로 판단할 수 있다.The server 100 acquires the output of the learned model 400 again and compares the obtained output with the information labeled with the learning data input to the re-learned model 400 again. For example, if it is determined that the obtained output and the labeled information are similar to each other by a predetermined reference value or more, the server 100 can determine that the test for the corresponding learning data has been passed.

단계 S170에서, 서버(100)는 테스트 결과, 라벨링된 정보가 소정의 기준값 이상의 정확도로 획득되는 학습용 데이터를 추출하고, 추출된 학습용 데이터를 기존 학습용 데이터(210)로부터 삭제할 수 있다.In step S170, the server 100 may extract learning data for which the labeled information is acquired with an accuracy of a predetermined reference value or more, and delete the extracted learning data from the existing learning data 210 as a result of the test.

도 7을 참조하면, 기존 학습용 데이터(210)를 관리하는 방법의 일 예가 도시되어 있다.Referring to FIG. 7, an example of a method of managing existing training data 210 is shown.

서버(100)는 기존 학습용 데이터(210)에 포함된, 하나 이상의 라벨링된 학습용 데이터를 다시 학습된 모델(400)에 입력하고, 라벨링된 정보가 소정의 기준값 이상의 정확도로 획득되는 학습용 데이터(212)를 추출하고, 추출된 학습용 데이터(212)를 기존 학습용 데이터(210)로부터 삭제할 수 있다. 즉, 기존 학습용 데이터(210)로부터 추출된 학습용 데이터(212)가 삭제되고 남은 기존 학습용 데이터(214)가 저장공간(200)에 저장된다. The server 100 inputs one or more labeled learning data included in the existing learning data 210 into the re-learned model 400 and outputs the learning data 212, which is obtained at an accuracy of a predetermined reference value or more, And the extracted learning data 212 can be deleted from the existing learning data 210. [ That is, the learning data 212 extracted from the existing learning data 210 is deleted, and the remaining existing learning data 214 is stored in the storage space 200.

즉, 신규 학습용 데이터를 이용하여 학습이 수행되었음에도 특정 기존 학습용 데이터를 잘 처리한다면, 해당 기존 학습용 데이터는 삭제함으로써, 학습 속도를 높이고 저장공간을 절약할 수 있다.That is, if the existing learning data is well processed even though the learning has been performed using the new learning data, the existing learning data is deleted, so that the learning speed can be increased and the storage space can be saved.

일 실시 예에서, 소정의 기준값은, 기존 학습용 데이터의 양이 기 설정된 범위를 넘지 않도록 조정될 수 있다. 마찬가지로, 소정의 기준값은, 신규 학습용 데이터와 기존 학습용 데이터의 양이 기 설정된 범위를 넘지 않도록 조정될 수 있다. In one embodiment, the predetermined reference value may be adjusted such that the amount of existing training data does not exceed a predetermined range. Likewise, the predetermined reference value can be adjusted such that the amount of new learning data and existing learning data does not exceed a predetermined range.

도 8을 참조하면, 신규 및 기존 학습용 데이터가 저장된 저장공간이 도시되어 있다. Referring to FIG. 8, a storage space storing new and existing learning data is shown.

일 실시 예에서, 서버(100)는 신규 학습용 데이터 중 일부가 삭제된 데이터(214) 및 기존 학습용 데이터 중 일부가 삭제된 데이터(320)를 저장공간(200)에 저장한다. In one embodiment, the server 100 stores the data 214 in which some of the new learning data has been deleted and the data 320 in which some of the existing learning data has been deleted, in the storage space 200. [

일 실시 예에서, 기존 학습용 데이터(214)와 신규 학습용 데이터(320)는 함께 기존 학습용 데이터(210)로서 저장공간(200)에 저장될 수 있다. 이 경우, 소정의 기준값은, 기존 학습용 데이터(214)와 신규 학습용 데이터(320)의 양이 기존 학습용 데이터(210)의 양을 초과하지 않도록 설정될 수 있다. In one embodiment, the existing learning data 214 and the new learning data 320 can be stored together in the storage space 200 as existing learning data 210 together. In this case, the predetermined reference value may be set such that the amount of the existing learning data 214 and the amount of the new learning data 320 does not exceed the amount of the existing learning data 210. [

따라서, 서버(100)는 새로운 학습 데이터가 추가되면 재학습을 수행하지만, 전체 학습용 데이터의 양은 일정하게 유지될 수 있다.Therefore, the server 100 performs re-learning when new learning data is added, but the amount of the entire learning data can be kept constant.

도 9는 일 실시 예에 따른 장치의 구성도이다.9 is a block diagram of an apparatus according to an embodiment.

프로세서(102)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.The processor 102 may include one or more cores (not shown) and a connection path (e.g., a bus, etc.) to transmit and receive signals to and / or from a graphics processing unit (not shown) .

일 실시예에 따른 프로세서(102)는 메모리(104)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 도 1 내지 도 8과 관련하여 설명된 학습용 데이터 관리방법을 수행한다.The processor 102 in accordance with one embodiment performs one or more instructions stored in the memory 104 to perform the training data management method described with reference to Figures 1-8.

예를 들어, 프로세서(102)는 메모리에 저장된 하나 이상의 인스트럭션을 실행함으로써 컴퓨터가 신규 학습용 데이터를 획득하고, 학습된 모델을 이용하여, 상기 획득된 신규 학습용 데이터에 대한 테스트를 수행하고, 상기 테스트 결과, 라벨링된 정보가 소정의 제1 기준값 이상의 정확도로 획득되는 제1 학습용 데이터를 추출하고, 상기 추출된 제1 학습용 데이터를 상기 신규 학습용 데이터로부터 삭제하고, 상기 추출된 학습용 데이터가 삭제된 상기 신규 학습용 데이터를 이용하여 상기 학습된 모델을 다시 학습시킬 수 있다. For example, the processor 102 may perform one or more instructions stored in a memory to allow the computer to acquire new learning data, perform a test on the acquired new learning data using the learned model, Extracts first learning data in which the labeled information is acquired with an accuracy of a predetermined first reference value or more, deletes the extracted first learning data from the new learning data, and deletes the extracted first learning data from the new learning data The learned model can be re-learned using data.

한편, 프로세서(102)는 프로세서(102) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(102)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다. The processor 102 may include a random access memory (RAM) (not shown) and a read-only memory (ROM) for temporarily and / or permanently storing signals (or data) , Not shown). In addition, the processor 102 may be implemented as a system-on-chip (SoC) including at least one of a graphics processing unit, a RAM, and a ROM.

메모리(104)에는 프로세서(102)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(104)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.The memory 104 may store programs (one or more instructions) for processing and control of the processor 102. Programs stored in the memory 104 may be divided into a plurality of modules according to functions.

이상에서 전술한 본 발명의 일 실시예에 따른 학습용 데이터 관리방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.As described above, the learning data management method according to an embodiment of the present invention can be implemented as a program (or an application) to be executed in combination with a computer, which is hardware, and can be stored in a medium.

상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다. The above-described program may be stored in a computer-readable medium such as C, C ++, JAVA, machine language, or the like that can be read by the processor (CPU) of the computer through the device interface of the computer, And may include a code encoded in a computer language of the computer. Such code may include a functional code related to a function or the like that defines necessary functions for executing the above methods, and includes a control code related to an execution procedure necessary for the processor of the computer to execute the functions in a predetermined procedure can do. Further, such code may further include memory reference related code as to whether the additional information or media needed to cause the processor of the computer to execute the functions should be referred to at any location (address) of the internal or external memory of the computer have. Also, when the processor of the computer needs to communicate with any other computer or server that is remote to execute the functions, the code may be communicated to any other computer or server remotely using the communication module of the computer A communication-related code for determining whether to communicate, what information or media should be transmitted or received during communication, and the like.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The medium to be stored is not a medium for storing data for a short time such as a register, a cache, a memory, etc., but means a medium that semi-permanently stores data and is capable of being read by a device. Specifically, examples of the medium to be stored include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, but are not limited thereto. That is, the program may be stored in various recording media on various servers to which the computer can access, or on various recording media on the user's computer. In addition, the medium may be distributed to a network-connected computer system so that computer-readable codes may be stored in a distributed manner.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with the embodiments of the present invention may be embodied directly in hardware, in software modules executed in hardware, or in a combination of both. The software module may be a random access memory (RAM), a read only memory (ROM), an erasable programmable ROM (EPROM), an electrically erasable programmable ROM (EEPROM), a flash memory, a hard disk, a removable disk, a CD- May reside in any form of computer readable recording medium known in the art to which the invention pertains.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. Therefore, it should be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

100 : 장치
102 : 프로세서
104 : 메모리
100: Device
102: Processor
104: Memory

Claims (10)

컴퓨터가 제1 신규 학습용 데이터를 획득하는 단계;
컴퓨터가 이미 학습된 1차 모델을 이용하여, 상기 획득된 제1 신규 학습용 데이터에 대한 테스트를 수행하는, 신규 학습용 데이터 테스트 단계;
컴퓨터가, 상기 제1 신규 학습용 데이터에 대한 테스트 결과, 라벨링된 정보가 소정의 제1 기준값 이상의 정확도로 획득되는 제1 추출데이터를 추출하는 단계;
컴퓨터가 상기 제1 추출데이터를 상기 제1 신규 학습용 데이터로부터 삭제하는 단계;
컴퓨터가 상기 추출데이터가 삭제된 제2 신규 학습용 데이터를 이용하여 상기 1차 모델을 다시 학습시켜 2차 모델로 생성하는 단계;
컴퓨터가 상기 학습된 1차 모델의 학습에 기 이용된, 제1 기존 학습용 데이터를 획득하는 단계;
컴퓨터가 상기 2차 모델을 이용하여, 상기 제1 기존 학습용 데이터에 대한 테스트를 수행하는, 기존 학습용 데이터 테스트 단계;
컴퓨터가, 상기 제1 기존 학습용 데이터에 대한 테스트 결과, 라벨링된 정보가 소정의 제2 기준값 이상의 정확도로 획득되는 제2 추출데이터를 추출하는 단계; 및
컴퓨터가 상기 추출된 제2 추출데이터를 상기 제1 기존 학습용 데이터로부터 삭제하여, 제2 기존 학습용 데이터를 형성하는 단계;를 포함하는, 학습용 데이터 관리방법.
The computer acquiring the first new learning data;
A new learning data test step of performing a test on the acquired first new learning data using a primary model in which the computer has already been learned;
The computer extracting first extraction data in which the labeled information obtained by the test result for the first new learning data is acquired with an accuracy of a predetermined first reference value or more;
The computer deleting the first extracted data from the first new learning data;
The computer re-learning the primary model using the second new learning data from which the extracted data is deleted to generate a secondary model;
Acquiring first existing learning data, in which the computer is used for learning of the learned primary model;
An existing training data test step in which a computer performs a test on the first existing training data using the secondary model;
Extracting second extracted data in which the computer obtains the test result of the first existing learning data and the labeled information is acquired with an accuracy of a predetermined second reference value or more; And
And the computer deletes the extracted second extracted data from the first existing learning data to form second existing learning data.
제1 항에 있어서,
상기 소정의 제1 기준값은,
상기 제2 신규 학습용 데이터의 양이 기 설정된 범위를 넘지 않도록 조정되는 것을 특징으로 하는, 학습용 데이터 관리방법.
The method according to claim 1,
The predetermined first reference value is a value
And the amount of the second new learning data is adjusted so as not to exceed a preset range.
삭제delete 제1 항에 있어서,
상기 소정의 제2 기준값은,
상기 제2 신규 학습용 데이터 및 상기 제2 기존 학습용 데이터의 양이 기 설정된 범위를 넘지 않도록 조정되는 것을 특징으로 하는, 학습용 데이터 관리방법.
The method according to claim 1,
Wherein the predetermined second reference value is a predetermined reference value,
The amount of the second new learning data and the amount of the second existing learning data is adjusted so as not to exceed a predetermined range.
제1 항에 있어서,
상기 신규 학습용 데이터 테스트 단계는,
컴퓨터가 상기 테스트를 수행하는 시점을 결정하되, 상기 신규 학습용 데이터의 양이 소정의 기준값을 초과하는 경우 상기 테스트를 수행하는, 단계; 를 포함하는, 학습용 데이터 관리방법.
The method according to claim 1,
The new learning data test step includes:
Determining when the computer performs the test, and performing the test if the amount of the new learning data exceeds a predetermined reference value; Wherein the learning data management method comprises:
제1 항에 있어서,
상기 신규 학습용 데이터 테스트 단계는,
컴퓨터가 상기 제1 신규 학습용 데이터에 포함된, 라벨링된 학습용 데이터를 상기 학습된 1차 모델에 입력하는 단계;
컴퓨터가 상기 학습된 1차 모델의 출력을 획득하는 단계; 및
컴퓨터가 상기 획득된 출력과 상기 라벨링된 학습용 데이터에 포함된 라벨 정보를 비교하는 단계;를 포함하는, 학습용 데이터 관리방법.
The method according to claim 1,
The new learning data test step includes:
Inputting labeled learning data included in the first new learning data to the learned primary model by the computer;
The computer acquiring the output of the learned primary model; And
And the computer comparing the obtained output with the label information included in the labeled learning data.
제1 항에 있어서,
상기 2차 모델 생성 단계는,
컴퓨터가 상기 다시 학습된 2차 모델과, 상기 1차 모델의 결정 경계(decision boundary)가 동일하도록 상기 1차 모델을 다시 학습시키는 단계; 를 포함하는, 학습용 데이터 관리방법.
The method according to claim 1,
Wherein the secondary model generation step comprises:
Re-learning the primary model so that a decision boundary of the primary model is the same as a secondary model of the re-learned model; Wherein the learning data management method comprises:
컴퓨터가 제1 신규 학습용 데이터를 획득하는 단계;
컴퓨터가 이미 학습된 1차 모델을 이용하여, 상기 획득된 제1 신규 학습용 데이터에 대한 테스트를 수행하는, 신규 학습용 데이터 테스트 단계;
컴퓨터가, 상기 제1 신규 학습용 데이터에 대한 테스트 결과, 라벨링된 정보가 소정의 제1 기준값 이상의 정확도로 획득되는 제1 추출데이터를 추출하는 단계;
컴퓨터가 상기 제1 추출데이터를 상기 제1 신규 학습용 데이터로부터 삭제하는 단계;
컴퓨터가 상기 1차 모델의 학습에 기 이용된, 제1 기존 학습용 데이터를 획득하는 단계; 및
컴퓨터가 상기 제1 추출데이터가 삭제된 제2 신규 학습용 데이터를 이용하여 상기 학습된 1차 모델을 다시 학습시켜 2차 모델로 생성하는 단계;를 포함하고,
상기 2차 모델 생성 단계는,
컴퓨터가 상기 2차 모델을 이용하여 상기 제1 기존 학습용 데이터로부터 추출되는 특징이 상기 1차 모델을 이용하여 상기 제1 기존 학습용 데이터로부터 추출되는 특징과 가까이 위치하도록 상기 1차 모델을 다시 학습시키는 단계;를 포함하는, 학습용 데이터 관리방법.
The computer acquiring the first new learning data;
A new learning data test step of performing a test on the acquired first new learning data using a primary model in which the computer has already been learned;
The computer extracting first extraction data in which the labeled information obtained by the test result for the first new learning data is acquired with an accuracy of a predetermined first reference value or more;
The computer deleting the first extracted data from the first new learning data;
Acquiring first existing learning data, in which the computer is used for learning of the primary model; And
And a step in which the computer again learns the learned primary model using the second new learning data from which the first extracted data has been deleted to generate a secondary model,
Wherein the secondary model generation step comprises:
The computer re-learning the primary model so that the feature extracted from the first existing learning data using the secondary model is located close to the feature extracted from the first existing learning data using the primary model ; And a learning data management method.
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
제1 신규 학습용 데이터를 획득하는 단계;
이미 학습된 1차 모델을 이용하여, 상기 획득된 제1 신규 학습용 데이터에 대한 테스트를 수행하는, 신규 학습용 데이터 테스트 단계;
상기 제1 신규 학습용 데이터에 대한 테스트 결과, 라벨링된 정보가 소정의 제1 기준값 이상의 정확도로 획득되는 제1 추출데이터를 추출하는 단계;
상기 제1 추출데이터를 상기 제1 신규 학습용 데이터로부터 삭제하는 단계;
상기 추출데이터가 삭제된 제2 신규 학습용 데이터를 이용하여 상기 학습된 1차 모델을 다시 학습시켜 2차 모델로 생성하는 단계;
상기 학습된 1차 모델의 학습에 기 이용된, 제1 기존 학습용 데이터를 획득하는 단계;
상기 다시 학습된 2차 모델을 이용하여, 상기 제1 기존 학습용 데이터에 대한 테스트를 수행하는, 기존 학습용 데이터 테스트 단계;
상기 제1 기존 학습용 데이터에 대한 테스트 결과, 라벨링된 정보가 소정의 제2 기준값 이상의 정확도로 획득되는 제2 추출데이터를 추출하는 단계; 및
상기 추출된 제2 추출데이터를 상기 제1 기존 학습용 데이터로부터 삭제하여, 제2 기존 학습용 데이터를 형성하는 단계;를 수행하는, 학습용 데이터 관리장치.
A memory for storing one or more instructions; And
And a processor executing the one or more instructions stored in the memory,
The processor executing the one or more instructions,
Acquiring first new learning data;
A new learning data testing step of performing a test on the acquired first new learning data using the already learned primary model;
Extracting first extracted data in which the labeled information is obtained with an accuracy of a predetermined first reference value or more as a result of the test for the first new learning data;
Deleting the first extracted data from the first new learning data;
Generating the secondary model by re-learning the learned primary model using the second new learning data from which the extracted data is deleted;
Acquiring first existing learning data used for learning of the learned primary model;
An existing learning data test step of performing a test on the first existing learning data using the re-learned quadratic model;
Extracting second extracted data in which the labeled information is obtained with an accuracy of a predetermined second reference value or more as a result of the test on the first existing learning data; And
And deleting the extracted second extracted data from the first existing learning data to form second existing learning data.
하드웨어인 컴퓨터와 결합되어, 제1 항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.A computer program stored in a computer-readable recording medium in combination with a computer which is hardware.
KR1020180026575A 2017-12-28 2018-03-06 Data managing method, apparatus and program for machine learning KR101864412B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2018/010335 WO2019132170A1 (en) 2017-12-28 2018-09-05 Learning data management method, device, and program

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
KR20170182900 2017-12-28
KR1020170182898 2017-12-28
KR20170182898 2017-12-28
KR20170182899 2017-12-28
KR1020170182899 2017-12-28
KR1020170182900 2017-12-28
KR1020180013580 2018-02-02
KR1020180013580 2018-02-02

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020180061323A Division KR20190088376A (en) 2017-12-28 2018-05-29 Data managing method, apparatus and program for machine learning

Publications (1)

Publication Number Publication Date
KR101864412B1 true KR101864412B1 (en) 2018-06-04

Family

ID=62628386

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020180026572A KR101864380B1 (en) 2017-12-28 2018-03-06 Surgical image data learning system
KR1020180026575A KR101864412B1 (en) 2017-12-28 2018-03-06 Data managing method, apparatus and program for machine learning
KR1020180061323A KR20190088376A (en) 2017-12-28 2018-05-29 Data managing method, apparatus and program for machine learning

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020180026572A KR101864380B1 (en) 2017-12-28 2018-03-06 Surgical image data learning system

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020180061323A KR20190088376A (en) 2017-12-28 2018-05-29 Data managing method, apparatus and program for machine learning

Country Status (2)

Country Link
KR (3) KR101864380B1 (en)
WO (2) WO2019132168A1 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020076135A1 (en) * 2018-10-11 2020-04-16 (주)제이엘케이인스펙션 Deep learning model learning device and method for cancer region
KR20200071269A (en) * 2018-12-11 2020-06-19 시너지에이아이 주식회사 Method for determine progress of polycystic kidney or polycystic liver and medical electronic device thereof
KR20200075074A (en) * 2018-12-07 2020-06-26 서울대학교산학협력단 Apparatus and Method for Generating Medical Image Segmentation Deep-Learning Model, Medical Image Segmentation Deep-Learning Model Generated Therefrom
KR20200084411A (en) * 2018-12-21 2020-07-13 주식회사 엘지씨엔에스 Method and server for learning deep learning
KR20200092466A (en) * 2019-01-07 2020-08-04 재단법인대구경북과학기술원 Device for training analysis model of medical image and training method thereof
KR102168558B1 (en) * 2019-10-24 2020-10-21 서울대학교산학협력단 Training data selection method for active learning, training data selection device for active learning and image analysis method using active learning
WO2021040192A1 (en) * 2019-08-30 2021-03-04 삼성전자 주식회사 System and method for training artificial intelligence model
KR20210036840A (en) * 2019-09-26 2021-04-05 주식회사 루닛 Training method for specializing artificial intelligence model in deployed institution, and apparatus for training the artificial intelligence model
KR20210056598A (en) * 2019-11-11 2021-05-20 주식회사 테서 Method and system for providing medical data collection and analyzing service based on machine learning
KR20210066534A (en) * 2019-11-28 2021-06-07 한국전자기술연구원 Method for nonintrusive load monitoring of energy usage data
KR102296274B1 (en) * 2020-10-26 2021-09-01 주식회사 보고넷 Method for providing object recognition with deep learning using fine tuning by user
KR102336500B1 (en) * 2021-03-02 2021-12-07 국방과학연구소 Method and apparatus for generating pseudo-label data, method and apparatus for learning deep neural network using pseudo-label data
WO2022107910A1 (en) * 2020-11-18 2022-05-27 한국전자기술연구원 Mobile deep learning hardware device capable of retraining

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020159276A1 (en) * 2019-02-01 2020-08-06 주식회사 아이버티 Surgical analysis apparatus, and system, method, and program for analyzing and recognizing surgical image
US10791301B1 (en) 2019-06-13 2020-09-29 Verb Surgical Inc. Method and system for synchronizing procedure videos for comparative learning
EP4020380A4 (en) * 2019-08-19 2023-05-10 LG Electronics Inc. Ai-based new learning model generation system for vision inspection on product production line
KR102119056B1 (en) * 2019-10-08 2020-06-05 (주)제이엘케이 Method for learning medical image based on generative adversarial network and apparatus for the same
KR102334923B1 (en) * 2019-11-06 2021-12-03 주식회사 에이젠글로벌 Loan expansion hypothesis testing system using artificial intelligence and method using the same
EP3847588A1 (en) * 2019-11-27 2021-07-14 Google LLC Personalized data model utilizing closed data
KR102356263B1 (en) * 2020-02-12 2022-01-28 한전케이디엔주식회사 Power facility management system and method
KR102273494B1 (en) * 2020-11-05 2021-07-06 주식회사 카비랩 System to automatically generate design of medical device for fracture surgery
KR102287762B1 (en) * 2020-11-05 2021-08-10 주식회사 카비랩 Ensemble learning based surgical simulator system for bone fracture and its driving method
KR102467047B1 (en) * 2020-11-18 2022-11-15 (주)휴톰 Method and Apparatus for Estimating Annotation
KR102515081B1 (en) * 2022-03-22 2023-03-29 한화시스템 주식회사 Apparatus and method for learning object detection software

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1049509A (en) * 1996-08-07 1998-02-20 Kokusai Denshin Denwa Co Ltd <Kdd> Neural network learning system
JP2004536367A (en) * 2001-01-23 2004-12-02 バイオウルフ テクノロジーズ エルエルスィー Computer-based image analysis
JP2009075737A (en) * 2007-09-19 2009-04-09 Nec Corp Semi-supervised learning method, device, and program
JP2014059754A (en) * 2012-09-18 2014-04-03 Hitachi Ltd Information processing system, and information processing method

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4766560B2 (en) * 2006-08-11 2011-09-07 Kddi株式会社 Moving image topic segmentation device
KR100918361B1 (en) * 2008-02-26 2009-09-22 엔에이치엔(주) System and method for high-speed search modeling
JP2009237923A (en) * 2008-03-27 2009-10-15 Nec Corp Learning method and system
JP2010092266A (en) * 2008-10-08 2010-04-22 Nec Corp Learning device, learning method and program
KR101049507B1 (en) * 2009-02-27 2011-07-15 한국과학기술원 Image-guided Surgery System and Its Control Method
KR101302595B1 (en) * 2012-07-03 2013-08-30 한국과학기술연구원 System and method for predict to surgery progress step
US9324022B2 (en) * 2014-03-04 2016-04-26 Signal/Sense, Inc. Classifying data with deep learning neural records incrementally refined through expert input
US9864485B2 (en) * 2014-03-21 2018-01-09 Biolase, Inc. Dental laser interface system and method
KR102239714B1 (en) * 2014-07-24 2021-04-13 삼성전자주식회사 Neural network training method and apparatus, data processing apparatus
US10223635B2 (en) * 2015-01-22 2019-03-05 Qualcomm Incorporated Model compression and fine-tuning
US20160358099A1 (en) * 2015-06-04 2016-12-08 The Boeing Company Advanced analytical infrastructure for machine learning
KR102601848B1 (en) * 2015-11-25 2023-11-13 삼성전자주식회사 Device and method of data recognition model construction, and data recognition devicce
JP6182242B1 (en) * 2016-06-13 2017-08-16 三菱電機インフォメーションシステムズ株式会社 Machine learning method, computer and program related to data labeling model

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1049509A (en) * 1996-08-07 1998-02-20 Kokusai Denshin Denwa Co Ltd <Kdd> Neural network learning system
JP2004536367A (en) * 2001-01-23 2004-12-02 バイオウルフ テクノロジーズ エルエルスィー Computer-based image analysis
JP2009075737A (en) * 2007-09-19 2009-04-09 Nec Corp Semi-supervised learning method, device, and program
JP2014059754A (en) * 2012-09-18 2014-04-03 Hitachi Ltd Information processing system, and information processing method

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11769594B2 (en) 2018-10-11 2023-09-26 Jlk Inc. Deep learning model learning device and method for cancer region
WO2020076135A1 (en) * 2018-10-11 2020-04-16 (주)제이엘케이인스펙션 Deep learning model learning device and method for cancer region
KR20200075074A (en) * 2018-12-07 2020-06-26 서울대학교산학협력단 Apparatus and Method for Generating Medical Image Segmentation Deep-Learning Model, Medical Image Segmentation Deep-Learning Model Generated Therefrom
US11321589B2 (en) 2018-12-07 2022-05-03 Seoul National University R&Db Foundation Apparatus and method for generating medical image segmentation deep-learning model, and medical image segmentation deep-learning model generated therefrom
KR102243644B1 (en) 2018-12-07 2021-04-23 서울대학교 산학협력단 Apparatus and Method for Generating Medical Image Segmentation Deep-Learning Model, Medical Image Segmentation Deep-Learning Model Generated Therefrom
KR102237009B1 (en) * 2018-12-11 2021-04-08 시너지에이아이 주식회사 Method for determine progress of polycystic kidney or polycystic liver and medical electronic device thereof
KR20200071269A (en) * 2018-12-11 2020-06-19 시너지에이아이 주식회사 Method for determine progress of polycystic kidney or polycystic liver and medical electronic device thereof
KR20200084411A (en) * 2018-12-21 2020-07-13 주식회사 엘지씨엔에스 Method and server for learning deep learning
KR102189761B1 (en) 2018-12-21 2020-12-11 주식회사 엘지씨엔에스 Method and server for learning deep learning
KR102186632B1 (en) * 2019-01-07 2020-12-02 재단법인대구경북과학기술원 Device for training analysis model of medical image and training method thereof
KR20200092466A (en) * 2019-01-07 2020-08-04 재단법인대구경북과학기술원 Device for training analysis model of medical image and training method thereof
WO2021040192A1 (en) * 2019-08-30 2021-03-04 삼성전자 주식회사 System and method for training artificial intelligence model
KR20210036840A (en) * 2019-09-26 2021-04-05 주식회사 루닛 Training method for specializing artificial intelligence model in deployed institution, and apparatus for training the artificial intelligence model
KR102542037B1 (en) * 2019-09-26 2023-06-12 주식회사 루닛 Training method for specializing artificial intelligence model in deployed institution, and apparatus for training the artificial intelligence model
KR102168558B1 (en) * 2019-10-24 2020-10-21 서울대학교산학협력단 Training data selection method for active learning, training data selection device for active learning and image analysis method using active learning
KR102328154B1 (en) * 2019-11-11 2021-11-18 주식회사 테서 Method and system for providing medical data collection and analyzing service based on machine learning
KR20210056598A (en) * 2019-11-11 2021-05-20 주식회사 테서 Method and system for providing medical data collection and analyzing service based on machine learning
KR102272573B1 (en) 2019-11-28 2021-07-05 한국전자기술연구원 Method for nonintrusive load monitoring of energy usage data
KR20210066534A (en) * 2019-11-28 2021-06-07 한국전자기술연구원 Method for nonintrusive load monitoring of energy usage data
KR102296274B1 (en) * 2020-10-26 2021-09-01 주식회사 보고넷 Method for providing object recognition with deep learning using fine tuning by user
WO2022107910A1 (en) * 2020-11-18 2022-05-27 한국전자기술연구원 Mobile deep learning hardware device capable of retraining
KR102336500B1 (en) * 2021-03-02 2021-12-07 국방과학연구소 Method and apparatus for generating pseudo-label data, method and apparatus for learning deep neural network using pseudo-label data

Also Published As

Publication number Publication date
KR101864380B1 (en) 2018-06-04
KR20190088376A (en) 2019-07-26
WO2019132170A1 (en) 2019-07-04
WO2019132168A1 (en) 2019-07-04

Similar Documents

Publication Publication Date Title
KR101864412B1 (en) Data managing method, apparatus and program for machine learning
KR102013828B1 (en) Method and apparatus for predicting surgical duration based on surgical video
KR102298412B1 (en) Surgical image data learning system
US20210110196A1 (en) Deep Learning Network for Salient Region Identification in Images
US20230033601A1 (en) Dynamic self-learning medical image method and system
CN112102237A (en) Brain tumor recognition model training method and device based on semi-supervised learning
JP2015087903A (en) Apparatus and method for information processing
CN110462645A (en) Sensor data processor with updating ability
KR20190080736A (en) Device and method for segmenting surgical image
WO2020038974A1 (en) Salient visual explanations of feature assessments by machine learning models
KR102328198B1 (en) Method and apparatus for measuring volume of organ using artificial neural network
US20220366244A1 (en) Modeling Human Behavior in Work Environment Using Neural Networks
KR101653505B1 (en) Computing apparatus and method for diagnosing status of health based on image
CN115719334A (en) Medical image evaluation method, device, equipment and medium based on artificial intelligence
KR102276862B1 (en) Method, apparatus and program for controlling surgical image play
JP6622150B2 (en) Information processing apparatus and information processing method
US20220319002A1 (en) Tumor cell isolines
EP3848939A1 (en) Processing a classifier
CN117083632A (en) Method and system for visualizing information on a gigapixel full slice image
Chan et al. Segmentation of Spinal MRI Images and New Compression Fracture Detection
EP4283529A1 (en) Method for training an object recognition model in a computing device
EP4353178A1 (en) Artificial intelligence surgical system and control method therefor
US20230359927A1 (en) Dynamic user-interface comparison between machine learning output and training data
KR20230047238A (en) Method for segmenting meniscus in knee magnetic resonance image based on deep learning, program and apparatus therefor
WO2021124417A1 (en) Foreground extraction device, foreground extraction method, and recording medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant