KR20220161597A - Apparatus and method for predicting position informaiton according to movement of tool - Google Patents

Apparatus and method for predicting position informaiton according to movement of tool Download PDF

Info

Publication number
KR20220161597A
KR20220161597A KR1020210068467A KR20210068467A KR20220161597A KR 20220161597 A KR20220161597 A KR 20220161597A KR 1020210068467 A KR1020210068467 A KR 1020210068467A KR 20210068467 A KR20210068467 A KR 20210068467A KR 20220161597 A KR20220161597 A KR 20220161597A
Authority
KR
South Korea
Prior art keywords
image
location information
processor
machine learning
learning model
Prior art date
Application number
KR1020210068467A
Other languages
Korean (ko)
Other versions
KR102600615B1 (en
Inventor
박상민
박세훈
Original Assignee
자이메드 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 자이메드 주식회사 filed Critical 자이메드 주식회사
Priority to KR1020210068467A priority Critical patent/KR102600615B1/en
Publication of KR20220161597A publication Critical patent/KR20220161597A/en
Application granted granted Critical
Publication of KR102600615B1 publication Critical patent/KR102600615B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00057Operational features of endoscopes provided with means for testing or calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • General Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Databases & Information Systems (AREA)
  • Optics & Photonics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

Provided is a computing device, which includes: a processor; and a memory comprising one or more instructions implemented to be executed by the processor. The processor performs image processing on a first image having a point reached as the object moves to generate first location information of the point, and extracts second location information of a point to be reached as the object moves in a second image paired with the first image based on the first location information based on a machine learning model.

Description

대상체의 움직임에 따른 위치정보 예측 방법 및 장치 {APPARATUS AND METHOD FOR PREDICTING POSITION INFORMAITON ACCORDING TO MOVEMENT OF TOOL} Location information prediction method and apparatus according to object movement

본 출원은 대상체의 위치를 예측하는 방법에 관한 것으로, 더욱 자세하게는 대상체의 움직임에 따라 대상체가 추후 도달되는 위치를 정확히 예측할 수 있는 방법 및 장치에 관한 것이다.The present application relates to a method for predicting a location of an object, and more particularly, to a method and apparatus capable of accurately predicting a location to which an object will later arrive according to the movement of the object.

최근 인공지능 학습모델이 발달함에 따라 의료분야에서 이미지를 판독함에 많은 기계 학습모델을 이용하고 있다. 예를들어, 합성곱 신경망(Convolutional Neural Networks, 심층 신경망(Deep neural networks), 순환 신경망(Recurrent Neural Network), 심층 신뢰 신경망(Deep Belief Networks)과 같은 학습모델은 의료 이미지에 대해 detection, classification, feature learning을 하는데 적용되고 있다.Recently, with the development of artificial intelligence learning models, many machine learning models are being used to read images in the medical field. For example, learning models such as Convolutional Neural Networks, Deep neural networks, Recurrent Neural Networks, and Deep Belief Networks are used for detection, classification, and feature detection of medical images. It is applied to learning.

한편, 내시경을 이용한 조직 검사 혹은 시술 등을 시행하는 의료분야에서, 내시경의 카메라로 인체 내부의 병변의 위치를 인식하고 포셉(forceps)과 같은 내시경 기구를 이용하여 병변을 적출 혹은 절제시, 병변의 위치에 내시경 기구가 제대로 가이드되지 않아 검사 대상의 내벽에 천공을 발생시키는 경우가 발생한다. On the other hand, in the medical field where a biopsy or procedure using an endoscope is performed, the position of the lesion inside the human body is recognized by the camera of the endoscope, and when the lesion is extracted or excised using an endoscopic instrument such as forceps, Endoscopic instruments are not properly guided to the location, causing a perforation in the inner wall of the object to be examined.

이에 대해 내시경 기구 사용시 병변의 정확한 위치에 가이드될 수 있는 기구적 설계 혹은 기계 학습모델에 기초하여 내시경 기구 움직임에 따른 정확한 위치 예측이 필요하다. In contrast, when an endoscopic instrument is used, it is necessary to accurately predict the position according to the movement of the endoscopic instrument based on a mechanical design or a machine learning model that can guide the precise position of the lesion.

대한민국 특허 10-2167655호Korean Patent No. 10-2167655

본 출원은 이미지내에서 기구의 움직임에 따라 추후 기구가 도달하는 위치정보를 예측할 수 있는 장치 및 방법을 제공하고자 한다.An object of the present application is to provide an apparatus and method capable of predicting positional information to be reached by a mechanism in the future according to the movement of the mechanism in an image.

본 출원의 과제는 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않는 또 다른 과제는 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The objects of the present application are not limited to the tasks mentioned above, and other tasks not mentioned will be clearly understood by those skilled in the art from the description below.

본 발명의 일측면에 따른 컴퓨팅 장치는, 프로세서 및 상기 프로세서에 의해 수행되도록 구현된 하나 이상의 명령어(instructions)를 포함하는 메모리를 포함하고, 상기 프로세서는, 대상체가 움직임에 따라 도달되는 지점을 갖는 제1이미지에 대해 이미지 처리하여 상기 지점의 제1위치정보를 생성하고, 기계학습 모델에 기초하여 상기 제1위치정보에 기반으로 상기 제1이미지와 대응하여 쌍을 이루는 제2이미지내에서 상기 대상체가 움직임에 따라 도달할 지점의 제2위치정보를 추출한다.A computing device according to one aspect of the present invention includes a processor and a memory including one or more instructions implemented to be executed by the processor, wherein the processor has a point reached by a movement of an object. Image processing is performed on one image to generate first location information of the point, and based on a machine learning model, based on the first location information, the object is displayed in a second image paired with the first image. According to the movement, second location information of a point to be reached is extracted.

본 발명의 다른 측면에 따른 컴퓨팅 장치는 프로세서 및 상기 프로세서에 의해 수행되도록 구현된 하나 이상의 명령어(instructions)를 포함하는 메모리를 포함하고, 상기 프로세서는, 입력된 제1이미지와 상기 제1이미지와 쌍을 이루고 대상체가 움직임에 따라 도달되는 지점을 표시하는 제1마커의 픽셀정보를 포함하는 제2이미지를 수집하고, 상기 제1이미지를 이용하여 기계 학습모델에 기초하여 제2마커의 픽셀정보를 포함하는 복원 이미지를 생성하고, 상기 기계학습 모델에 기초하여 상기 복원 이미지의 상기 제2마커의 픽셀정보와 상기 제2이미지의 상기 제1마커의 픽셀정보가 일치되도록 한다.A computing device according to another aspect of the present invention includes a processor and a memory including one or more instructions implemented to be executed by the processor, wherein the processor includes an input first image and a pair of the first image. , and collects a second image including pixel information of a first marker indicating a point reached as the object moves, and includes pixel information of the second marker based on a machine learning model using the first image. generating a reconstructed image, and matching pixel information of the second marker of the reconstructed image with pixel information of the first marker of the second image based on the machine learning model.

본 발명의 일 측면에 따른 대상체 움직임에 따른 위치정보 예측 장치는 프로세서 및 상기 프로세서에 의해 수행되도록 구현된 하나 이상의 명령어(instructions)를 포함하는 메모리를 포함하고, 상기 프로세서는, 기계학습 모델에 기초하여 생체 이미지내에서 대상체가 움직임에 따라 도달할 지점의 위치정보를 추출하고, 상기 위치정보를 상기 생체 이미지내에 표시하여 디스플레이 하는 디스플레이부를 포함한다. An apparatus for predicting location information based on object motion according to an aspect of the present invention includes a processor and a memory including one or more instructions implemented to be executed by the processor, wherein the processor includes a machine learning model based on A display unit extracts positional information of a point to be reached as the object moves in the biometric image, displays the positional information in the biometric image, and displays the location information.

본 발명의 실시예에 따르면, 기계 학습모델에 기초하여 내시경 기구와 같은 대상체의 움직임에 따라 인체 내 조직에 도달되는 지점의 위치정보를 예측할 수 있는 효과가 있다. According to an embodiment of the present invention, there is an effect of predicting positional information of a point reaching a tissue in the human body according to the movement of an object such as an endoscopy instrument based on a machine learning model.

본 출원의 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않는 또 다른 효과는 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present application are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명의 일 실시예에 따른 대상체의 위치정보를 갖는 이미지를 생성하는 장치의 예시적 구성을 개략적으로 나타낸 도이다.
도 2는 본 발명의 일 실시예에 따른 이미지내 대상체의 위치정보를 인식하기 위한 프로세서의 블록도를 나타낸 도이다.
도 3은 본 발명의 일 실시예에 따른 컴퓨팅 장치에 의해 생체 이미지내의 대상체의 위치정보를 추출하는 과정을 예시적으로 나타낸 도이다.
도 4는 본 발명의 일 실시예에 따른 컴퓨팅 장치에 의해 생체 이미지내의 대상체의 위치정보를 추출하는 다른 과정을 예시적으로 나타낸 도이다.
도 5는 본 발명의 일 실시예에 따른 컴퓨팅 장치에 의해 생체 이미지내의 대상체의 위치정보를 추출하는 또 다른 과정을 예시적으로 나타낸 도이다.
도 6은 본 발명의 다른 실시예에 따른 대상체의 움직임에 따른 위치정보 예측 방법을 예시적으로 나타낸 흐름도이다.
1 is a diagram schematically illustrating an exemplary configuration of an apparatus for generating an image having location information of an object according to an embodiment of the present invention.
2 is a block diagram of a processor for recognizing location information of an object in an image according to an embodiment of the present invention.
3 is a diagram illustratively illustrating a process of extracting location information of an object in a biometric image by a computing device according to an embodiment of the present invention.
4 is a diagram illustrating another process of extracting location information of an object in a biometric image by means of a computing device according to an embodiment of the present invention.
5 is a diagram exemplarily illustrating another process of extracting location information of an object in a biometric image by a computing device according to an embodiment of the present invention.
6 is a flowchart exemplarily illustrating a method for predicting location information according to motion of an object according to another embodiment of the present invention.

이하 본 발명의 실시예에 대하여 첨부한 도면을 참조하여 상세하게 설명하기로 한다. 다만, 첨부된 도면은 본 발명의 내용을 보다 쉽게 개시하기 위하여 설명되는 것일 뿐, 본 발명의 범위가 첨부된 도면의 범위로 한정되는 것이 아님은 이 기술분야의 통상의 지식을 가진 자라면 용이하게 알 수 있을 것이다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the accompanying drawings are only described in order to more easily disclose the contents of the present invention, and those skilled in the art can easily understand that the scope of the present invention is not limited to the scope of the accompanying drawings. You will know.

또한, 본 발명의 상세한 설명 및 청구항들에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. In addition, terms used in the detailed description and claims of the present invention are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 발명의 상세한 설명 및 청구항들에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the detailed description and claims of the present invention, terms such as "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, It should be understood that it does not preclude the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.

본 발명의 상세한 설명 및 청구항들에서, "학습", 혹은 "러닝" 등의 용어는 절차에 따른 컴퓨팅(computing)을 통하여 기계학습(machine learning)을 수행함을 일컫는 용어인바, 인간의 교육활동과 같은 정신적 작용을 지칭하도록 의도된 것이 아닌 것으로 이해되어야 한다.In the detailed description and claims of the present invention, terms such as "learning" or "learning" refer to performing machine learning through procedural computing, such as human educational activities. It should be understood that it is not intended to refer to mental processes.

본 발명의 상세한 설명 및 청구항들에서 사용한 "실시간 이미지 데이터"는 단일 이미지(정지영상) 혹은 연속되는 이미지(동영상)을 포함하는 것으로 정의될 수 있고, "이미지" 혹은 "이미지 데이터"와 같은 의미로 표현될 수 있다."Real-time image data" used in the detailed description and claims of the present invention can be defined as including a single image (still image) or continuous images (moving image), and has the same meaning as "image" or "image data". can be expressed

본 발명의 상세한 설명 및 청구항들에서 사용한 "이미지"의 용어는 사람 또는 사물의 형태 또는 그의 구체적인 특성을 디지털 형태로 복제 또는 모방한 것으로 정의될 수 있고, 이미지는 JPEG 이미지, PNG 이미지, GIF 이미지, TIFF 이미지 또는 당 업계에 알려진 임의의 다른 디지털 이미지 형식 일 수 있지만 이에 제한되지는 않는다. 또한, "이미지"는 "사진"과 같은 의미로 사용될 수 있다.The term "image" used in the detailed description and claims of the present invention can be defined as a digital copy or imitation of the shape or specific characteristics of a person or object, and the image is a JPEG image, PNG image, GIF image, It may be, but is not limited to, a TIFF image or any other digital image format known in the art. Also, "image" may be used in the same sense as "photograph".

본 발명의 상세한 설명 침 청구항들에서 사용한 "속성"은 이미지 데이터 내에서 인식될 수 있는 대상체의 라벨 혹은 변위를 인식할 수 있는 대상체의 하나 이상의 설명적 특성의 그룹으로 정의될 수 있고, "속성"은 숫자적 특징으로 표현될 수 있다.The "property" used in the claims of the detailed description of the present invention may be defined as a group of one or more descriptive characteristics of an object capable of recognizing a label or displacement of an object recognizable within image data, and "property" can be expressed as a numerical feature.

본 발명에 개시된 장치, 방법 및 디바이스 등은 복강 내부의 의료 이미지 또는 질병상태의 진단을 지원할 수 있는 실시간 임의의 생물학적 조직 이미지에 적용하여 사용될 수 있지만, 이에 한정되지 않고, 시계열적 컴퓨터 단층 촬영 (CT), 자기 공명 영상 (MRI), 컴퓨터 방사선 촬영, 자기 공명, 혈관 내시경, 광 간섭 단층 촬영, 컬러 플로우 도플러, 방광경 검사, 디아파노그래피(diaphanography), 심장 초음파 검사, 플루오레소신 혈관 조영술(fluoresosin angiography), 복강경 검사, 자기 공명 혈관 조영술, 양전자 방출 단층 촬영(positron emission tomography), 단일 광자 방출 컴퓨터 단층 촬영, X선 혈관 조영술, 핵의학, 생체 자기 영상, culposcopy, 이중 도플러, 디지털 현미경, 내시경, 레이저, 표면 스캔, 자기 공명 분광법, 방사선 그래픽 이미징, 열 화상 촬영 및 방사선 형광 검사에 사용될 수 있다. The apparatus, method, and device disclosed in the present invention may be applied to and used for any real-time biological tissue image capable of supporting diagnosis of a medical image or a disease state of the inside of the abdominal cavity, but is not limited thereto, and is not limited thereto, and time-sequential computed tomography (CT) ), magnetic resonance imaging (MRI), computed radiography, magnetic resonance, vascular endoscopy, optical coherence tomography, color flow Doppler, cystoscopy, diaphanography, echocardiography, fluoresosin angiography ), laparoscopy, magnetic resonance angiography, positron emission tomography, single photon emission computed tomography, X-ray angiography, nuclear medicine, biomagnetic imaging, culposcopy, double Doppler, digital microscope, endoscope, laser , surface scanning, magnetic resonance spectroscopy, radiographic imaging, thermal imaging, and radiofluorescence.

더욱이 본 발명은 본 명세서에 표시된 실시예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나 지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다Moreover, the present invention covers all possible combinations of the embodiments shown herein. It should be understood that the various embodiments of the present invention are different from each other but are not necessarily mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be implemented in one embodiment in another embodiment without departing from the spirit and scope of the invention. Additionally, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. Accordingly, the detailed description set forth below is not to be taken in a limiting sense, and the scope of the present invention, if properly described, is limited only by the appended claims, along with all equivalents as claimed by those claims. Like reference numbers in the drawings indicate the same or similar function throughout the various aspects.

도 1은 본 발명의 일 실시예에 따른 대상체의 위치정보를 갖는 이미지를 생성하는 장치의 예시적 구성을 개략적으로 나타낸 도이다.1 is a diagram schematically illustrating an exemplary configuration of an apparatus for generating an image having location information of an object according to an embodiment of the present invention.

도 1를 참조하면, 본 발명의 일실시예에 따른 장치(100)는 컴퓨팅 장치(Computing Device, 110), 디스플레이 디바이스(Display Device, 130), 내시경과 같은 인체 내부를 검사 또는 시술할 수 있는 검사 디바이스 (150)를 포함할 수 있다. 컴퓨팅 장치(110)는 프로세서(Processor, 111), 메모리부(Memory Unit, 113), 스토리지 디바이스(Storage Device, 115), 입, 출력 인터페이스(117), 네트웍 어뎁터(Network Adapter, 118), 디스플레이 어뎁터(Display Adapter, 119), 및 프로세서를 포함한 다양한 시스템 구성요소를 메모리부(113)에 연결하는 시스템 버스(System bus, 112)를 포함할 수 있지만 이에 한정되지 않는다. 또한, 대상체의 위치정보를 갖는 이미지를 생성하는 장치(100)는 정보를 전달하기 위한 시스템 버스(112)뿐만 아니라 다른 통신 메커니즘을 포함할 수 있다. Referring to FIG. 1, an apparatus 100 according to an embodiment of the present invention is a computing device (Computing Device, 110), a display device (Display Device, 130), an examination capable of inspecting or performing a procedure on the inside of a human body, such as an endoscope. Device 150 may be included. The computing device 110 includes a processor 111, a memory unit 113, a storage device 115, an input/output interface 117, a network adapter 118, and a display adapter. (Display Adapter, 119), and a system bus (System bus, 112) that connects various system components including a processor to the memory unit 113, but is not limited thereto. In addition, the apparatus 100 for generating an image having location information of an object may include a system bus 112 for transferring information as well as other communication mechanisms.

시스템 버스 또는 다른 통신 메커니즘은, 프로세서, 컴퓨터 판독가능한 기록매체인 메모리, 근거리 통신 모듈(예를 들어, 블루투스나 NFC), 네트워크 인터페이스나 이동통신 모듈을 포함하는 네트워크 어뎁터, 디스플레이 디바이스(예를 들면, CRT 또는 LCD 등), 입력장치 (예를 들면, 키보드, 키패드, 가상 키보드, 마우스, 트랙볼, 스타일러스, 터치 감지 수단 등), 및/또는 하위 시스템들을 상호 접속한다. A system bus or other communication mechanism may include a processor, a memory that is a computer-readable recording medium, a short-range communication module (eg, Bluetooth or NFC), a network adapter including a network interface or mobile communication module, and a display device (eg, CRT or LCD, etc.), input devices (eg, keyboard, keypad, virtual keyboard, mouse, trackball, stylus, touch sensing means, etc.), and/or subsystems.

프로세서(111)는 기계 학습모델(13)을 활용하여 자동으로 프로세싱 하는 프로세싱 모듈일 수 있고, CPU, AP(Application Processor), 마이크로 컨트롤러, 등일 수 있으나 이에 한정되는 것은 아니다. The processor 111 may be a processing module that automatically processes using the machine learning model 13, and may be a CPU, an application processor (AP), a microcontroller, etc., but is not limited thereto.

프로세서(111)는 디스플레이 디바이스용 하드웨어 제어기 예를들어, 디스플레이 어뎁터(119)와 통신하여 디스플레이 디바이스(130) 상에 실시간 생체 이미지 조직 인식 장치의 동작 및 유저 인터페이스를 표시할 수 있다.The processor 111 may communicate with the display adapter 119 , for example, a hardware controller for a display device, and display an operation of the real-time bio-image tissue recognition apparatus and a user interface on the display device 130 .

프로세서(111)는 메모리부(113)에 접속하여 메모리부에 저장된 명령들이나 로직의 하나 이상의 시퀀스들을 실행하는 것에 의해 이후 설명될 본 발명의 실시예에 따른 실시간 생체 이미지 조직 인식 장치의 동작을 제어한다. The processor 111 controls the operation of the real-time biometric image tissue recognition device according to an embodiment of the present invention to be described below by accessing the memory unit 113 and executing one or more sequences of instructions or logic stored in the memory unit. .

이러한 명령들은, 정적 저장부(Static storage) 또는 디스크 드라이브와 같은 다른 컴퓨터 판독가능 기록매체로부터 메모리 안에서 판독될 수도 있다. 다른 실시형태들에서, 본 개시를 구현하기 위한 소프트웨어 명령들을 대신하거나 소프트웨어 명령들과 조합된 하드웨어에 내장된 회로부(hard-wired circuitry)가 사용될 수도 있다. 로직은, 프로세서로 명령들을 제공하는 데 참여하는 임의의 매체를 지칭할 수도 있으며, 메모리부(113)에 로딩될 수도 있다. These instructions may be read into memory from static storage or other computer readable media such as a disk drive. In other embodiments, hard-wired circuitry may be used in place of or combined with software instructions to implement the present disclosure. Logic may refer to any medium that participates in providing instructions to the processor and may be loaded into the memory unit 113 .

시스템 버스(System bus, 112)는 다양한 버스 구조(architectures) 중 임의의 것을 사용하는 메모리 버스 또는 메모리 컨트롤러, 주변장치버스, 가속 그래픽 포트 및 프로세서 혹은 로컬 버스를 포함하는 여러 가능한 유형의 버스 구조 중 하나 이상을 나타낸다. 예를 들어, 이런 구조들(architectures)은 ISA (Industry Standard Architecture) 버스, MCA(Micro Channel Architecture) 버스, EISA(Enhanced ISA)버스, VESA(Video Electronics Standard Association) 로컬 버스, AGP(Accelerated Graphics Port) 버스 및 PCI(Peripheral Component Interconnects), PCI-Express 버스, PCMCIA(Personal Computer Memory Card Industry Association), USB(Universal Serial Bus)과 같은 것을 포함할 수 있다. System bus 112 is one of several possible types of bus structures including a memory bus or memory controller, a peripheral bus, an accelerated graphics port, and a processor or local bus using any of a variety of bus architectures. indicates an abnormality. For example, these architectures include Industry Standard Architecture (ISA) bus, Micro Channel Architecture (MCA) bus, Enhanced ISA (EISA) bus, Video Electronics Standard Association (VESA) local bus, Accelerated Graphics Port (AGP) Buses and Peripheral Component Interconnects (PCI), PCI-Express buses, Personal Computer Memory Card Industry Association (PCMCIA), and Universal Serial Bus (USB).

시스템 버스(System bus, 112)는 유, 무선 네트워크 연결로써 실행될 수 있다. 프로세서(Processor, 111), 대용량 스토리지 장치(Mass Storage Device), 오퍼레이팅 시스템(Operating System, 113c, 115a), 이미징 소프트웨어(Imaging Software, 113b, 115b), 이미징 데이터(Imaging Data, 113a, 115c), 네트워크 어뎁터(Network Adapter, 118), 시스템 메모리(System Memory), 입/출력 인터페이스(Input/Output Interface, 117), 디스플레이 어뎁터(Display Adapter, 119), 디스플레이 디바이스(Display Device, 130)를 포함하는 서브 시스템 각각은 물리적으로 분리된 위치에 하나 이상의 원격 컴퓨팅 디바이스(Remote Computing Device) 안에 포함될 수 있고, 분산된 시스템을 효율적으로 실행하는데 있어 이와 같은 형태의 버스들을 통해 연결될 수 있다.The system bus 112 can be implemented as a wired or wireless network connection. Processor (111), mass storage device (Mass Storage Device), operating system (Operating System, 113c, 115a), imaging software (Imaging Software, 113b, 115b), imaging data (Imaging Data, 113a, 115c), network A subsystem including an adapter (Network Adapter, 118), system memory, input/output interface (Input/Output Interface, 117), display adapter (119), and display device (Display Device, 130) Each may be included in one or more remote computing devices at physically separate locations, and may be connected through these types of buses in efficiently executing a distributed system.

버스의 배선들(wires)을 포함하는 송신 매체들은 동축 케이블, 동선(copper wire), 및 광섬유들을 포함할 수 있다. 일 예에서, 송신 매체들은, 라디오 파 통신이나 적외선 데이터 통신 동안 생성된 음파 또는 광파의 형태를 취할 수도 있다.Transmission media including the wires of the bus may include coaxial cable, copper wire, and optical fibers. In one example, transmission media may take the form of acoustic or light waves generated during radio wave communication or infrared data communication.

본 발명의 실시예에 따른 장치(100)는, 네트워크 링크 및 네트워크 어뎁터(Network Adapter, 118)를 통해 메시지들, 데이터, 정보 및 하나 이상의 프로그램들(즉, 애플리케이션 코드)을 포함하는 명령들을 송신하고 수신할 수도 있다. Device 100 according to an embodiment of the present invention transmits messages, data, information, and commands including one or more programs (ie, application code) over a network link and network adapter 118, and may receive.

네트워크 어뎁터(Network Adapter, 118)는, 네트워크 링크를 통한 송수신을 가능하게 하기 위한, 별개의 또는 통합된 안테나를 포함할 수도 있다. 네트워크 어뎁터(118)는 네트워크에 접속하여 원격 컴퓨팅 장치(Remote Computing Device)와 통신할 수 있다. 네트워크는 LAN, WLAN, PSTN, 및 셀룰러 폰 네트워크 중 적어도 하나를 포함할 수 있으나 이에 한정되는 것은 아니다.The network adapter 118 may include a separate or integrated antenna for enabling transmission and reception over a network link. The network adapter 118 may access a network and communicate with a remote computing device. The network may include, but is not limited to, at least one of a LAN, WLAN, PSTN, and cellular phone network.

네트워크 어뎁터(118)는 상기 네트워크에 접속하기 위한 네트워크 인터페이스 및 이동통신 모듈 중 적어도 하나를 포함할 수 있다. 이동통신 모듈은 세대별 이동통신망(예를 들어, 2G 내지 5G 이동통신망)에 접속 가능하다. The network adapter 118 may include at least one of a network interface and a mobile communication module for accessing the network. The mobile communication module can access a mobile communication network for each generation (for example, a 2G to 5G mobile communication network).

프로그램 코드는 수신될 때 프로세서(111)에 의해 실행될 수도 있고/있거나 실행을 위해 메모리부(113)의 디스크 드라이브 또는 디스크 드라이브와는 다른 종류의 비휘발성 메모리에 저장될 수도 있다.The program code may be executed by the processor 111 when received and/or may be stored for execution in a disk drive of the memory unit 113 or in a non-volatile memory of a type other than the disk drive.

컴퓨팅 장치(Computing device, 110)는 다양한 컴퓨터 판독가능한 기록매체일 수 있다. 판독가능한 매체는 컴퓨팅 디바이스에 의해 접근 가능한 임의의 다양한 매체가 될 수 있고, 예를들어, 휘발성(volatile) 또는 비휘발성 매체(non-volatile media), 유동 매체(removable media), 비유동 매체(non-removablemedia)를 포함할 수 있지만 이에 한정되지 않는다. The computing device 110 may be a variety of computer readable recording media. A readable medium can be any of a variety of media that can be accessed by a computing device, including, for example, volatile or non-volatile media, removable media, and non-removable media. removable media), but is not limited thereto.

메모리부(113)는 본 발명의 실시예에 따른 생체 이미지 조직 인식 장치의 동작에 필요한 운영체제, 드라이버, 애플리케이션 프로그램, 데이터 및 데이터 베이스 등을 저장할 수 있으나 이에 한정되는 것은 아니다. 또한, 메모리부(113)는RAM(Random Acces Memory)과 같은 휘발성 메모리, ROM(Read Only Memory) 및 플래시 메모리와 같은 비휘발성 메모리 형태로 컴퓨터 판독 가능한 매체를 포함할 수 있고, 또한, 디스크 드라이브 예를들면, 하드 디스크 드라이브(Hard Disk Drive), 솔리드 스테이트 드라이브(Solid State Drive), 광 디스크 드라이브 등을 포함할 수 있지만 이에 한정되지 않는다. 또한, 메모리부(113)와 스토리지 디바이스(115)는 각각 전형적으로 대상체의 생체 이미지와 같은 이미징 데이터(Imaging Data, 113a, 115a)와 같은 데이터, 프로세서(111)에 의해 동작되도록 즉시 접속될 수 있는 이미징 소프트웨어(113b, 115b)와 오퍼레이팅 시스템(113c, 115c)과 같은 프로그램 모듈을 포함할 수 있다. The memory unit 113 may store an operating system, drivers, application programs, data, and databases necessary for the operation of the biometric tissue recognition device according to an embodiment of the present invention, but is not limited thereto. In addition, the memory unit 113 may include computer readable media in the form of volatile memory such as RAM (Random Access Memory), ROM (Read Only Memory) and non-volatile memory such as flash memory, and may also include a disk drive. For example, it may include, but is not limited to, a hard disk drive, a solid state drive, an optical disk drive, and the like. In addition, the memory unit 113 and the storage device 115 typically store data such as imaging data (Imaging Data, 113a, 115a) such as a biometric image of an object, which can be immediately accessed to be operated by the processor 111. It may include program modules such as imaging software 113b and 115b and operating systems 113c and 115c.

기계학습 모델(Machine Learning Model, 13)은 프로세서, 메모리부(113) 혹은 스토리지 디바이스(115)에 삽입될 수 있다. 이때의 기계학습 모델은 오토인코더 모델(Autoencoder Model)을 포함하고, 오토인코더(Autoencoder)는 신경망을 갖는 변분 오토인코더(Varitional Autoencoder)일수 있다. 또한, 기계학습 모델은 기계학습 알고리즘의 하나인 심층 신경망(Deep Neural Network, DNN), 합성곱 신경망(Convolutional Neural Network, CNN), 순환 신경망(Recurrent Neural Network, RNN) 등을 포함할 수 있고, 이에 한정되지 않는다.The machine learning model 13 may be inserted into the processor, memory unit 113 or storage device 115 . The machine learning model at this time includes an autoencoder model, and the autoencoder may be a variational autoencoder having a neural network. In addition, the machine learning model may include a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network (RNN), etc., which are one of the machine learning algorithms. Not limited.

검사 디바이스(150)는 연성내시경, 경성내시경, 방광경 등 인체 내부를 검사할 수 있는 다양한 디바이스를 포함할 수 있고, 내부에 인체 내부를 시각적으로 촬영 확인할 수 있는 카메라(151)와 조직 검사를 위해 인체 내부의 조직을 적출 혹은 절재하기 위한 내시경 기구(Tool, 153) 및, 내시경 기구(153)가 조직의 정확한 위치에 도달할 수 있도록 내시경 기구(153)에 부착되어 내시경 기구(153)를 가이드하는 광 가이더(Light guider, 155)를 포함할 수 있다.The examination device 150 may include various devices capable of examining the inside of the human body, such as a flexible endoscope, a rigid endoscope, and a cystoscope, and may include a camera 151 capable of visually photographing and confirming the inside of the human body and a human body for tissue examination. An endoscopic instrument (Tool, 153) for excising or excising internal tissue, and a light attached to the endoscopic instrument 153 to guide the endoscopic instrument 153 so that the endoscopic instrument 153 can reach the exact position of the tissue A guider (Light guider, 155) may be included.

실시예에서, 내시경 기구(153)는 사용자의 조작에 의해 인체 내 조직의 특정 위치에 도달하는 지점의 위치정보를 인식하기 위한 대상체로써, 대상체는 내시경 기구를 구성하는 다양한 구성부품으로 이루어질 수 있고, 본 발명의 일 실시예에 따른 장치는 대상체가 움직임에 따라 상기 대상체가 조직에 도달하는 위치를 예측한다.In an embodiment, the endoscopic instrument 153 is an object for recognizing location information of a point reaching a specific position of a tissue in the human body by a user's manipulation, and the object may be composed of various components constituting the endoscopic instrument, According to the movement of the object, the apparatus according to an embodiment of the present invention predicts a position where the object reaches the tissue.

카메라부(151)는 오브젝트의 이미지를 촬상하고 그 이미지를 광전자적으로 이미지 신호로 변환하는 이미지 센서(미도시)를 포함하고, 인체 내의 조직의 생체 이미지를 실시간으로 촬영한다. 촬영된 생체 이미지(이미지 데이터)는 입/출력 인터페이스(117)를 통하여 프로세서(111)에 제공되어 기계 학습모델(13)에 기초하여 처리되거나 메모리부(113) 혹은 스토리지 디바이스(115)에 저장될 수 있다. The camera unit 151 includes an image sensor (not shown) that captures an image of an object and photoelectrically converts the image into an image signal, and captures a biometric image of tissue in the human body in real time. The captured biometric image (image data) is provided to the processor 111 through the input/output interface 117 and processed based on the machine learning model 13 or stored in the memory unit 113 or storage device 115. can

대상체(예, 내시경 기구)는 포셉(Forcep), 클램프(Clamp), 시저(Scissors)등을 포함하고, 이를 이용하여 인체 내부의 조직을 검사 혹은 검사 대상의 조직을 적출 혹은 절제할 수 있다.The target object (eg, an endoscopic instrument) includes forceps, clamps, scissors, and the like, and may be used to examine tissues inside the human body or to excise or excise tissues of a target for examination.

광 가이더(155)는 내시경 기구에 부착되어 내시경 기구의 움직임 방향을 가이드한다. 광 가이더는 내부에 광원(미도시)을 포함하여 광원으로부터 발생된 광이 조직의 병변을 타겟팅하여 내시경 기구가 병변의 위치에 정확히 도달할 수 있도록 한다. 이때, 조직의 병변에는 광에 의해 광점(Light spot)과 같은 마커(X)가 형성된다. 광 가이더에 부착된 광원의 턴온(turn-on)/턴오프(turn-off)에 따라 카메라에 의해 촬영된 생체 이미지는 대상체와 함께 조직의 병변이 나타난 이미지 혹은 대상체와 함께 마커(X)가 형성된 조직의 병변이 나타난 이미지를 포함할 수 있다.The light guider 155 is attached to the endoscopic instrument and guides the movement direction of the endoscopic instrument. The light guider includes a light source (not shown) therein so that the light generated from the light source targets the tissue lesion so that the endoscopic instrument can accurately reach the location of the lesion. At this time, a marker X such as a light spot is formed by light on the tissue lesion. The biometric image taken by the camera according to the turn-on/turn-off of the light source attached to the light guider is an image in which tissue lesions appear along with the object or a marker (X) is formed along with the object. It may include images showing tissue lesions.

본 발명에 따른 대상체의 위치정보를 갖는 이미지를 생성하는 장치(100)는 랩탑 컴퓨터, 데스크탑 컴퓨터 및 서버에 제한되지 않고, 데이터를 처리할 수 있는 임의의 명령을 실행할 수 있는 컴퓨팅 장치 또는 시스템에서 구현될 수 있고, 인터넷 네트웍을 통한 다른 컴퓨팅 장치 및 시스템으로 구현될 수 있다. 또한, 장치(100)는 펌웨어를 포함하는 소프트웨어, 하드웨어 또는 이들의 조합을 포함하는 다양한 방식으로 구현될 수 있다. 예를 들어, 다양한 방식으로 실행하기 위한 기능은 개별로직 구성요소, 하나이상의 ASIC(Application Specific Integrated Circuits) 및/또는 프로그램 제어 프로세서를 포함하는 다양한 방식으로 구현되는 구성요소에 의해 수행될 수 있다.The apparatus 100 for generating an image having location information of an object according to the present invention is not limited to laptop computers, desktop computers, and servers, and is implemented in a computing device or system capable of processing data and executing arbitrary commands. It can be, and can be implemented in other computing devices and systems through the Internet network. Also, the device 100 may be implemented in a variety of ways, including software including firmware, hardware, or a combination thereof. For example, functions to execute in various ways may be performed by components implemented in various ways, including discrete logic components, one or more application specific integrated circuits (ASICs), and/or program control processors.

도 2는 본 발명의 일 실시예에 따른 이미지내 대상체의 위치정보를 인식하기 위한 프로세서의 블록도를 나타낸 도이다. 2 is a block diagram of a processor for recognizing location information of an object in an image according to an embodiment of the present invention.

도 2를 참조하면, 프로세서(600)는 도 1의 프로세서(111)일 수 있고, 기계 학습모델(211a, 213a, 215a, 230a)을 학습시킬 학습 데이터를 수신하고, 수신한 학습 데이터에 기반하여 학습 데이터의 속성정보를 추출할 수 있다. 학습 데이터는 생체 이미지 데이터(복수의 생체 이미지 데이터 혹은 단일 생체 이미지 데이터) 혹은 생체 이미지 데이터에서 추출된 속성정보 데이터일 수 있다. Referring to FIG. 2 , the processor 600 may be the processor 111 of FIG. 1 , receives training data to train machine learning models 211a, 213a, 215a, and 230a, and based on the received training data Attribute information of learning data can be extracted. The learning data may be biometric image data (plural biometric image data or single biometric image data) or attribute information data extracted from biometric image data.

일 실시예에서, 생체 이미지 데이터로부터 추출된 속성정보는 생체 이미지 데이터내에서 인식(detection)된 대상을 분류하는 라벨(Label)정보일 수 있다. 예를 들어, 라벨은 생체 이미지 데이터내에 표현된 간, 이자, 담낭 같은 체내의 장기로 분류된 카테고리일 수 있고, 혈관, 림프, 신경과 같은 체내의 조직으로 분류된 카테고리일 수 있고, 섬유선종, 종양 같은 채내 조직의 병변으로 분류된 카테고리 일수 있다. 일 실시예에서, 라벨 정보는 대상(예, 병변)의 위치정보를 포함할 수 있고, 대상의 위치정보는 2차원 좌표 (x,y) 혹은 3차원 좌표(x,y,z)로 표현될 수 있다. 또한, 라벨 정보는 대상(예, 병변)의 크기정보를 포함할 수 있고, 라벨은 생체 이미지 데이터에서 인식되는 대상의 비중, 의미에 기반하여 가중치나 순서가 부여될 수 있다. In one embodiment, the attribute information extracted from the biometric image data may be label information for classifying objects detected in the biometric image data. For example, the label may be a category classified by organs in the body, such as the liver, pancreas, and gallbladder, represented in the biometric image data, or a category classified by tissues in the body, such as blood vessels, lymph, and nerves. It may be a category classified as a lesion of an internal tissue such as a tumor. In one embodiment, the label information may include location information of an object (eg, lesion), and the location information of the object may be expressed in 2-dimensional coordinates (x,y) or 3-dimensional coordinates (x,y,z). can Also, the label information may include size information of an object (eg, a lesion), and a weight or order may be assigned to the label based on the weight and meaning of the object recognized in the biometric image data.

프로세서(600)는 데이터 처리부(210) 및 속성정보 모델 학습부(230)를 포함할 수 있다. The processor 600 may include a data processing unit 210 and an attribute information model learning unit 230 .

데이터 처리부(210)는 속성정보 모델 학습부(230)를 학습시킬 생체 이미지 데이터와 생체 이미지의 속성정보 데이터를 수신하고, 수신한 생체 이미지 데이터 및 생체 이미지의 속성정보 데이터를 속성정보 모델의 학습에 적합한 데이터로 변환(transforming) 혹은 이미지 처리(processing)할 수 있다. 데이터 처리부(210)는 라벨 정보 생성부(211), 데이터 생성부(213), 특징 추출부(215)를 포함할 수 있다.The data processing unit 210 receives the bio image data and the attribution information data of the bio image for the attribution information model learning unit 230 to learn, and uses the received bio image data and the attribution information data of the bio image to learn the attribution information model. Transforming into suitable data or image processing can be performed. The data processor 210 may include a label information generator 211 , a data generator 213 , and a feature extractor 215 .

라벨 정보 생성부(211)는 제1기계 학습모델(211a)을 이용하여 수신한 생체 이미지 데이터에 대응하는 라벨 정보를 생성할 수 있다. 라벨 정보는 수신한 생체 이미지 데이터내에서 인식되는 대상에 따라 결정된 하나 이상의 카테고리에 대한 정보일 수 있다. 일 실시예에서, 라벨 정보는 라벨정보와 대응하는 생체 이미지 데이터에 대한 정보와 함께 메모리부(113)나 스토리지 디바이스(115)에 저장될 수 있다. The label information generator 211 may generate label information corresponding to the received biometric image data using the first machine learning model 211a. The label information may be information about one or more categories determined according to objects recognized in the received biometric image data. In one embodiment, the label information may be stored in the memory unit 113 or the storage device 115 together with information on biometric image data corresponding to the label information.

데이터 생성부(213)는 기계 학습모델(230a)이 포함된 속성정보 모델 학습부(230)에 입력될 데이터를 생성할 수 있다. 데이터 생성부(213)는 제2기계 학습모델(213a)을 이용하여 수신한 생체 이미지 데이터에 포함된 복수의 프레임 데이터에 기반하여 제3기계 학습모델(230a)에 입력될 입력 데이터를 생성할 수 있다. 프레임 데이터는 생체 이미지를 구성하는 각각의 프레임을 의미할 수 있고, 생체 이미지를 구성하는 각 프레임의 RGB 데이터 혹은 픽셀(Pixel) 데이터를 의미할 수 있으며, 각 프레임의 특징을 추출한 데이터 혹은 각 프레임에 대한 특징을 벡터로 표현한 데이터를 의미할 수 있다. The data generating unit 213 may generate data to be input to the attribute information model learning unit 230 including the machine learning model 230a. The data generator 213 may generate input data to be input to the third machine learning model 230a based on a plurality of frame data included in the received biometric image data using the second machine learning model 213a. have. The frame data may refer to each frame constituting the biometric image, RGB data or pixel data of each frame constituting the biometric image, and data obtained by extracting characteristics of each frame or to each frame. It may refer to data expressing characteristics of a vector.

속성정보 모델 학습부(230)는 제3기계 학습모델(230a)를 포함하고, 라벨 정보 생성부(211), 데이터 생성부(213)에서 생성 및 추출한 이미지 데이터, 라벨 정보를 포함한 데이터를 제3기계 학습모델(230a)에 입력하여 융합 학습(fusion learning)시켜 생체 이미지 데이터에 대한 속성정보를 추출할 수 있다. 속성정보는 상기 생체 이미지 데이터에서 인식되는 대상 이미지의 특징과 관련된 정보를 가리킨다. 예를들어, 속성정보는 생체 이미지 데이터내에서 대상을 분류하는 라벨, 예를들어, 폴립(polyp)과 같은 병변(lesion) 정보 일수 있다. 만약 속성정보 모델 학습부에서 추출된 속성정보가 오류가 생길 경우, 제3기계 학습모델(230a)에서 사용되는 계수 혹은 연결 가중치 값 등을 업데이트 할 수 있다. The attribute information model learning unit 230 includes a third machine learning model 230a, and transmits data including image data and label information generated and extracted by the label information generator 211 and the data generator 213 to the third machine learning model 230a. Attribute information of the biometric image data may be extracted through fusion learning by inputting the data to the machine learning model 230a. Attribute information refers to information related to characteristics of a target image recognized from the biometric image data. For example, the attribute information may be a label for classifying a subject within the biometric image data, for example, lesion information such as a polyp. If an error occurs in the attribute information extracted by the attribute information model learning unit, coefficients or connection weight values used in the third machine learning model 230a may be updated.

도 3은 본 발명의 일 실시예에 따른 컴퓨팅 장치에 의해 생체 이미지내의 대상체의 위치정보를 추출하는 과정을 예시적으로 나타낸 도이다.3 is a diagram illustratively illustrating a process of extracting location information of an object in a biometric image by a computing device according to an embodiment of the present invention.

도 3를 참조하면, 컴퓨팅 장치에 학습되는 이미지 데이터 셋은 대상체(40a)가 움직여 조직의 병변(Lesion)에 도달되는 지점이 표시되는 마크(X)를 갖는 제1이미지(40)와 대상체(10a)가 움직여 조직의 병변에 도달되는 지점이 표시되는 마크를 갖지 않는 제2이미지(10)를 포함할 수 있다. Referring to FIG. 3 , the image data set learned by the computing device includes a first image 40 having a mark X indicating a point at which the object 40a moves and reaches the lesion of the tissue and the object 10a. ) may include a second image 10 that does not have a mark indicating a point at which the tissue lesion is moved.

제1 이미지(40)와 제2이미지(10)는 도1에서 상술한 본 발명의 일실시예 따른 장치(100)에 의해 생성될 수 있다. 예를들어, 시술자가 내시경 기구인 대상체(10a, 40a)를 조작하여 조직의 병변에 도달하고자 할 경우, 대상체의 움직임 경로를 가이드 하기 위하여 부착된 광원이 턴온되어 대상체가 도달되는 지점을 포인팅할 수 있는 마커(X)가 병변에 형성될 수 있다. 이를 카메라가 촬영하게 되면 제1 이미지(40)와 같이 표현된다. 이와는 달리 대상체의 움직임 경로를 가이드 하기 위하여 부착된 광원이 턴온되지 않을 경우, 대상체가 도달되는 지점을 포인팅할 수 있는 마커가 병변에 형성되지 않는다. 이를 카메라가 촬영하게 되면 제2이미지(10)와 같이 표현된다. 이에 따라 제1이미지(40)와 제2이미지(10)는 마커의 차이이외에 다른 이미지는 모두 서로 대응되는 한쌍의 이미지를 형성한다. The first image 40 and the second image 10 may be generated by the device 100 according to one embodiment of the present invention described above with reference to FIG. 1 . For example, when an operator manipulates an object 10a or 40a, which is an endoscopic instrument, to reach a tissue lesion, an attached light source may be turned on to point a point at which the object is reached in order to guide a movement path of the object. A marker (X) may be formed in the lesion. When the camera captures this, it is expressed as the first image 40 . In contrast, when a light source attached to guide a movement path of an object is not turned on, a marker capable of pointing to a point to which the object is reached is not formed on the lesion. When the camera captures this, it is expressed as the second image 10 . Accordingly, the first image 40 and the second image 10 form a pair of images that correspond to each other except for differences in markers.

제1 이미지(40)는 디지털 시그널 프로세서(Digital Signal Processor;DSP)와 같은 프로세서(700)에 의해 이미지 처리(Image processing)되어 제1이미지(40)로부터 라벨정보(50)를 생성할 수 있다. 이때, 라벨정보(50)는 앞서 설명한 생체 이미지내에서 인식되는 마커가 형성된 대상을 분류하는 카테고리, 대상의 위치정보 혹은 대상의 크기 혹은 모양, 제1이미지의 비트맵 정보 등을 포함할 수 있다. 이러한 라벨정보(50)에는 마커가 형성되는 대상의 위치 즉, 대상체(40a)가 향후 조직에 도달하는 지점의 제1위치정보를 포함할 수 있다. The first image 40 may be subjected to image processing by a processor 700 such as a digital signal processor (DSP) to generate label information 50 from the first image 40 . At this time, the label information 50 may include a category for classifying an object having a marker recognized in the biometric image described above, location information of the object, size or shape of the object, bitmap information of the first image, and the like. The label information 50 may include first location information of a location of an object where a marker is formed, that is, a point where the object 40a will reach a tissue in the future.

제 2이미지(10)는 기계 학습 모델(710)에 입력되고, 프로세서(700)는 내부에 포함된 기계 학습모델(710)에 기초하여 입력된 제2이미지의 속성정보(30)를 추출할 수 있다. 이때, 속성정보(30)는 제2이미지(10)에 나타난 대상체(10a)의 위치, 대상체가 포인팅하는 방향 및 각도 등에 따라 대상체가 향후 조직에 도달할 지점의 제2 위치정보를 포함할 수 있다. The second image 10 is input to the machine learning model 710, and the processor 700 may extract attribute information 30 of the input second image based on the machine learning model 710 included therein. have. In this case, the attribute information 30 may include second location information of a point where the object will reach the tissue in the future according to the location of the object 10a shown in the second image 10, the direction and angle the object points, and the like. .

제2 이미지(10)에서 대상체가 조직에 도달할 지점의 제2위치정보는 다양한 방법으로 추출될 수 있다. 예를들어, 제2이미지(10)와 쌍을 이루는 제1이미지(40)내의 대상체가 조직에 도달하는 지점의 제1 위치정보의 위치값(x2, y2)과 기계학습 모델을 이용하여 생성한 제2 이미지(10)내에서 대상체가 조직에 도달할 지점의 제2위치정보의 위치값(x1, y1)를 비교하여 제1위치정보의 위치값과 제2위치정보의 위치값이 차이가 나면 역전파(Back-propagation) 방법으로 기계학습 모델이 반복적으로 학습되어 제2위치정보가 추출될 수 있다. In the second image 10 , the second location information of the point where the object will reach the tissue may be extracted in various ways. For example, using the position values (x 2 , y 2 ) of the first location information of the point where the object in the first image 40 paired with the second image 10 reaches the tissue and the machine learning model In the generated second image 10, the location value of the first location information and the location value of the second location information are compared with the location values (x 1 , y 1 ) of the second location information of the point where the object will reach the tissue When this difference is found, the machine learning model is repeatedly learned using a back-propagation method, and second location information may be extracted.

도 4는 본 발명의 일 실시예에 따른 컴퓨팅 장치에 의해 생체 이미지내의 대상체의 위치정보를 추출하는 다른 과정을 예시적으로 나타낸 도이다.4 is a diagram illustrating another process of extracting location information of an object in a biometric image by means of a computing device according to an embodiment of the present invention.

도4를 참조하면, 컴퓨팅 장치에 학습되는 이미지 데이터 셋은 도3의 이미지 데이터 셋과 유사함으로 이에 대한 설명은 생략하기로 한다. 제2이미지(10)에서 대상체(10a)가 조직에 도달할 지점의 제2위치정보는 제1이미지 및 제2 이미지를 비트맵으로 이미지 처리하여 이를 비교하여 추출할 수 있다. Referring to FIG. 4 , since an image data set learned by a computing device is similar to the image data set of FIG. 3 , a description thereof will be omitted. The second location information of the point where the object 10a will reach the tissue in the second image 10 may be extracted by image processing the first image and the second image as a bitmap and comparing them.

구체적으로, 제2이미지(10)와 쌍을 이루는 제1이미지(40)는 프로세서(700)에 의해 이미지 처리되어 제1비트맵(40b)이 생성되고, 제2이미지(10) 역시 기계학습 모델(710)에 기초하여 프로세서(700)에 의해 이미지 처리되어 제2비트맵(10b)이 생성된다. Specifically, the first image 40 paired with the second image 10 is image-processed by the processor 700 to generate a first bitmap 40b, and the second image 10 is also a machine learning model. Based on step 710, the image is processed by the processor 700 to generate a second bitmap 10b.

프로세서에 의해 생성된 제1 비트맵(40b)과 기계학습 모델에 기초하여 생성된 제2비트맵(10b)의 비트값을 각각 비교하여 손실(Loss or Error)이 발생하면, , 역전파(Backpropagation) 방법으로 기계학습 모델이 반복적으로 학습되어제2 위치정보가 추출될 수 있다.If a loss or error occurs by comparing the bit values of the first bitmap 40b generated by the processor and the second bitmap 10b generated based on the machine learning model, respectively, backpropagation ) method, the machine learning model is repeatedly learned to extract the second location information.

도 3과 도 4에서, 기계 학습모델(710)은 도시되지 않았지만 컴퓨터 판독 가능한 기록매체에 입력되어 실행될 수 있고 메모리부(113)나 스토리지 디바이스(115)에 입력되고, 상기 프로세서(700)에 의해 동작되어 실행될 수 있다.3 and 4, the machine learning model 710, although not shown, can be executed by being input to a computer-readable recording medium, input into the memory unit 113 or storage device 115, and by the processor 700. It can be operated and executed.

이와 같이, 생체 이미지들에서 대상체의 속성정보 추출은 컴퓨팅 장치에 의해 수행될 수 있고, 컴퓨팅 장치는 실시간으로 촬영된 생체 이미지 데이터셋을 학습 데이터로 제공받는 장치로써, 기계 학습모델의 수행결과로 학습된 데이터를 생성할 수 있다. 본 실시예에 따른 방법에 속한 각각의 동작을 설명함에 있어서, 그 주체에 대한 기재가 생략된 경우에는 해당 동작의 주체는 상기 컴퓨팅 장치인 것으로 이해될 수 있을 것이다.In this way, the extraction of attribute information of the object from the biometric images can be performed by a computing device, and the computing device is a device that receives a biometric image dataset captured in real time as learning data and learns as a result of performing a machine learning model. data can be generated. In describing each operation belonging to the method according to the present embodiment, if the description of the subject is omitted, it will be understood that the subject of the corresponding operation is the computing device.

위 실시예에서와 같이, 본 발명의 동작 및 방법은 소프트웨어 및 하드웨어의 결합을 통하여 달성되거나 하드웨어만으로 달성될 수 있다는 점을 명확하게 이해할 수 있다. 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 기계 판독 가능한 기록 매체에 기록될 수 있다. 상기 기계 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기계 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. As in the above embodiments, it can be clearly understood that the operation and method of the present invention can be achieved through a combination of software and hardware or can be achieved only by hardware. Objects of the technical solution of the present invention or parts contributing to the prior art may be implemented in the form of program instructions that can be executed through various computer components and recorded on a machine-readable recording medium. The machine-readable recording medium may include program commands, data files, data structures, etc. alone or in combination. Program instructions recorded on the machine-readable recording medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in the art of computer software.

기계 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다.Examples of machine-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine language codes such as those produced by a compiler.

상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 명령어를 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 명령어들을 실행하도록 구성되는 CPU나 GPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 명령어들을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.The hardware device may be configured to act as one or more software modules to perform processing according to the present invention and vice versa. The hardware device may include a processor such as a CPU or GPU coupled to a memory such as ROM/RAM for storing program instructions and configured to execute instructions stored in the memory, and may transmit and receive signals with external devices. A communication unit may be included. In addition, the hardware device may include a keyboard, mouse, and other external input devices for receiving commands written by developers.

도 5는 본 발명의 일 실시예에 따른 컴퓨팅 장치에 의해 생체 이미지내의 대상체의 위치정보를 추출하는 또 다른 과정을 예시적으로 나타낸 도이다.5 is a diagram exemplarily illustrating another process of extracting location information of an object in a biometric image by a computing device according to an embodiment of the present invention.

도5를 참조하면, 컴퓨팅 장치에 학습되는 이미지 데이터 셋은 대상체(60a)가 움직여 조직의 병변에 도달되는 지점이 표시되는 마크를 갖지 않는 제1이미지(60)와 대상체(70a)가 움직여 조직의 병변(Lesion)에 도달되는 지점이 표시되는 마크(X)를 갖는 제2이미지(70)를 포함할 수 있다. 제1 이미지(60)와 제2이미지(70)는 도3에서 상술한 방법과 같은 방법으로 본 발명의 일실시예 따른 장치(100)에 의해 생성될 수 있다.Referring to FIG. 5, the image data set learned by the computing device includes a first image 60 that does not have a mark indicating a point at which the object 60a moves and reaches the tissue lesion, and the tissue lesion that is moved by the object 70a. A second image 70 having a mark X indicating a point where the lesion is reached may be included. The first image 60 and the second image 70 may be generated by the device 100 according to an embodiment of the present invention in the same way as the method described above with reference to FIG. 3 .

제1 이미지(60)는 프로세서(700)에 입력되어 기계학습 모델(710)에 기초하여 복원 이미지(80)를 생성할 수 있다. 기계학습 모델(710)은 U형 신경망(U-net), 오토인코더(Autoencoder) 혹은 역합성곱 신경망(Deconvolution Neural Network)를 포함할 수 있다. 일 예로, 오토인코더는 변분 오토인코더(Varitional Autoencoder)로써 잠재 공간(latent space)에서 대상을 설명하기 위한 확률적 방법(probabilistic manner)으로 실행될 수 있다.The first image 60 may be input to the processor 700 and a restored image 80 may be generated based on the machine learning model 710 . The machine learning model 710 may include a U-net, an autoencoder, or a deconvolution neural network. As an example, an autoencoder may be implemented in a probabilistic manner to describe an object in a latent space as a Variational Autoencoder.

이에 따라 변분 오토인코더는 각 잠재속성(latent attribute)에 대한 확률 분포(probability distribution)를 설명할 수 있다. 변분 오토인코더는 워크 플로우 동작동안 인코더(11) 및 디코더(13)를 사용할 수 있다. 오토인코더의 인코더(11)에 고차원 데이터가 입력되면 인코더는 고차원 데이터를 저 차원 잠재 변수(Z)로 변환하는 인코딩을 수행한다. 실시예에서 고차원 데이터는 제1이미지(60)일수 있지만 제2이미지의 마크를 복원할 수 있는 데이터이면 어떤 데이터든 이용가능하다. 디코더(13)는 잠재변수(Z)를 복호화하여 복원된 고차원 데이터를 출력할 수 있다. 실시예에서, 복원된 고차원 데이터는 픽셀 정보를 포함하는 복원 이미지일 수 있다. 이때 픽셀 정보는 마커(X)가 생성되는 픽셀의 정보이고, 픽셀정보는 해당 픽셀에서의 계조값(Gray value 1) 혹은 컬러(color 1) 데이터를 포함할 수 있다. Accordingly, the variational autoencoder can describe a probability distribution for each latent attribute. A variational autoencoder may use the encoder 11 and decoder 13 during workflow operation. When high-dimensional data is input to the encoder 11 of the autoencoder, the encoder performs encoding to convert the high-dimensional data into a low-dimensional latent variable (Z). In the embodiment, the high-dimensional data may be the first image 60, but any data may be used as long as it is data capable of restoring the mark of the second image. The decoder 13 may output restored high-dimensional data by decoding the latent variable Z. In an embodiment, the reconstructed high-dimensional data may be a reconstructed image including pixel information. In this case, the pixel information is information of a pixel where the marker X is generated, and the pixel information may include gray value 1 or color 1 data of the corresponding pixel.

손실 계산기(Loss calculator, 710a)는 손실함수(loss function)를 이용하여 메모리(미도시)에 저장된 비교 데이터와 복원된 고차원 데이터의 차이를 계산할 수 있으며, 오토인코더는 역전파(back-propagation)를 이용하여 손실함수를 최소화하도록 반복적으로 학습될 수 있다. 실시예에서 비교 데이터는 제1이미지(60)와 쌍을 이루며, 마커(X)가 형성된 픽셀정보를 포함하는 제2이미지(70)일 수 있다. 비교 데이터와 복원된 고차원의 데이터 차이 계산은 제1이미지에서 생성된 마커 픽셀 정보와 제2이미지의 마커 픽셀 정보를 비교하여 계산하고, 구체적으론 제1이미지 및 제2이미지의 마커 픽셀들에서의 계조값 혹은 컬러 데이터를 비교하여 계산할 수 있다. The loss calculator (710a) can calculate the difference between the comparison data stored in the memory (not shown) and the restored high-dimensional data using a loss function, and the autoencoder uses back-propagation. It can be repeatedly learned to minimize the loss function using In the embodiment, the comparison data may be a pair with the first image 60 and the second image 70 including pixel information on which the marker X is formed. Calculation of the difference between the comparison data and the reconstructed high-dimensional data is calculated by comparing the marker pixel information generated in the first image with the marker pixel information in the second image, and specifically, the gradation in the marker pixels of the first image and the second image. It can be calculated by comparing value or color data.

도 5에서, 기계 학습모델(710)은 도시되지 않았지만 컴퓨터 판독 가능한 기록매체에 입력되어 실행될 수 있고 메모리부(113)나 스토리지 디바이스(115)에 입력되고, 상기 프로세서(700)에 의해 동작되어 실행될 수 있다.In FIG. 5 , although not shown, the machine learning model 710 can be input to and executed on a computer-readable recording medium, input to the memory unit 113 or storage device 115, and operated and executed by the processor 700. can

도 6은 본 발명의 다른 실시예에 따른 대상체의 움직임에 따른 위치정보 예측 방법을 예시적으로 나타낸 흐름도이다.6 is a flowchart exemplarily illustrating a method for predicting location information according to motion of an object according to another embodiment of the present invention.

도6을 참조하면, 대상체가 움직임에 따라 조직의 병변에 도달되는 지점이 표시되는 마크(X)를 갖는 제1이미지와 대상체가 움직임에 따라 조직의 병변에 도달되는 지점이 표시되는 마크를 갖지 않는 제2이미지는 본 발명의 일 실시예에 따른 대상체의 위치정보를 갖는 이미지를 생성하는 장치에 의해 촬영된다.Referring to FIG. 6 , a first image having a mark X indicating a point at which a tissue lesion is reached as an object moves, and a first image having a mark X indicating a point at which a tissue lesion is reached as an object moves The second image is taken by an apparatus for generating an image having location information of an object according to an embodiment of the present invention.

S610단계에서, 제1 이미지와 제1이미지와 쌍을 이루는 제2이미지를 수집할 수 있다. 제1이미지와 제2이미지는 연성 내시경 혹은 복강경 내시경과 같은 카메라를 이용하여 인체 내부의 장기나 조직을 실시간으로 촬영하는 동영상 이미지일 수 있고, 특히, 수술 중 실시간으로 인체 내부를 촬영한 생체 이미지이면 어는 것이든 해당될 수 있다. In step S610, a first image and a second image paired with the first image may be collected. The first image and the second image may be moving image images of organs or tissues inside the human body captured in real time using a camera such as a flexible endoscope or laparoscopic endoscope. Anything can apply.

S630단계에서, 제 1이미지는 프로세서에 의해 이미지 처리되어 마크가 형성된 지점의 제1 위치정보가 생성될 수 있다. 이때 제1위치정보는2차원 평면 좌표값을 포함할 수 있다. 또한, 제 1위치정보는 프로세서에 의해 이미지처리되어 생성된 제1이미지의 비트맵에 기초하여 생성될 수 있다.In step S630, the first image may be image-processed by the processor to generate first location information of a point where a mark is formed. At this time, the first location information may include a two-dimensional plane coordinate value. Also, the first location information may be generated based on a bitmap of the first image generated through image processing by the processor.

S650단계에서, 기계학습 모델에 기초하여 제2이미지내에서 대상체가 움직임에 따라 도달할 지점의 제2위치정보를 추출할 수 있다. 기계 학습모델은 지점의 위치정보를 추출하기 위한 신경망으로 구성될 수 있다. 이때, 제2위치정보는 앞서 생성된 제1위치정보에 기초하여 추출될 수 있다. 또한, 제2 위치정보는 기계학습 모델이 기초하여 프로세서에 의해 이미지처리되어 생성된 제2이미지의 비트맵으로부터 추출될 수 있다. In step S650, based on the machine learning model, second location information of a point to be reached according to the movement of the object in the second image may be extracted. The machine learning model may be composed of a neural network for extracting location information of points. At this time, the second location information may be extracted based on the previously generated first location information. In addition, the second location information may be extracted from a bitmap of a second image generated by image processing by a processor based on a machine learning model.

이에 따라 추출된 제2위치정보를 근거로 이미지내의 대상체가 움직임에 따라 도달할 지점을 예측할 수 있다.Accordingly, based on the extracted second location information, a point to be reached according to the motion of the object in the image may be predicted.

대상체 움직임에 따른 위치정보 추출은 컴퓨팅 장치에 의해 수행될 수 있고, 컴퓨팅 장치는 상술한 제1이미지 및 제2이미지를 학습 데이터로 제공받는 장치로써, 기계 학습모델의 수행결과로 학습된 데이터를 생성할 수 있다. 본 실시예에 따른 방법에 속한 각각의 동작을 설명함에 있어서, 그 주체에 대한 기재가 생략된 경우에는 해당 동작의 주체는 상기 컴퓨팅 장치인 것으로 이해될 수 있을 것이다.Location information extraction according to the movement of the object may be performed by a computing device, which is a device that receives the above-described first image and second image as learning data, and generates learned data as a result of performing the machine learning model. can do. In describing each operation belonging to the method according to the present embodiment, if the description of the subject is omitted, it will be understood that the subject of the corresponding operation is the computing device.

위 실시예에서와 같이, 본 발명의 동작 및 방법은 소프트웨어 및 하드웨어의 결합을 통하여 달성되거나 하드웨어만으로 달성될 수 있다는 점을 명확하게 이해할 수 있다. 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 기계 판독 가능한 기록 매체에 기록될 수 있다. 상기 기계 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기계 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. As in the above embodiments, it can be clearly understood that the operation and method of the present invention can be achieved through a combination of software and hardware or can be achieved only by hardware. Objects of the technical solution of the present invention or parts contributing to the prior art may be implemented in the form of program instructions that can be executed through various computer components and recorded on a machine-readable recording medium. The machine-readable recording medium may include program commands, data files, data structures, etc. alone or in combination. Program instructions recorded on the machine-readable recording medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in the art of computer software.

기계 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다.Examples of machine-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine language codes such as those produced by a compiler.

상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 명령어를 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 명령어들을 실행하도록 구성되는 CPU나 GPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 명령어들을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.The hardware device may be configured to act as one or more software modules to perform processing according to the present invention and vice versa. The hardware device may include a processor such as a CPU or GPU coupled to a memory such as ROM/RAM for storing program instructions and configured to execute instructions stored in the memory, and may transmit and receive signals with external devices. A communication unit may be included. In addition, the hardware device may include a keyboard, mouse, and other external input devices for receiving commands written by developers.

이상과 같이 본 발명에 따른 실시예를 살펴보았으며, 앞서 설명된 실시예 이외에도 본 발명이 그 취지나 범주에서 벗어남이 없이 다른 특정 형태로 구체화될 수 있다는 사실은 해당 기술에 통상의 지식을 가진 이들에게는 자명한 것이다. 그러므로, 상술된 실시예는 제한적인 것이 아니라 예시적인 것으로 여겨져야 하고, 이에 따라 본 발명은 상술한 설명에 한정되지 않고 첨부된 청구항의 범주 및 그 동등 범위 내에서 변경될 수도 있다.As described above, the embodiments according to the present invention have been reviewed, and the fact that the present invention can be embodied in other specific forms in addition to the above-described embodiments without departing from the spirit or scope is apparent to those skilled in the art. It is self-evident to Therefore, the embodiments described above are to be regarded as illustrative rather than restrictive, and thus the present invention is not limited to the above description, but may vary within the scope of the appended claims and their equivalents.

110: 컴퓨팅 장치
111,600,700: 프로세서
113: 메모리부
115: 스토리지 디바이스
117: 입출력 인터페이스
118: 네트웍 어뎁터
119: 디스플레이 어뎁터
130: 디스플레이 디바이스
10,60: 제1이미지
40,80: 제2이미지
110: computing device
111,600,700: processor
113: memory unit
115: storage device
117: I/O interface
118: network adapter
119: display adapter
130: display device
10,60: 1st image
40,80: 2nd image

Claims (10)

프로세서; 및
상기 프로세서에 의해 수행되도록 구현된 하나 이상의 명령어(instructions)를 포함하는 메모리를 포함하고, 상기 프로세서는,
대상체가 움직임에 따라 도달되는 지점을 갖는 제1이미지에 대해 이미지 처리하여 상기 지점의 제1위치정보를 생성하고,
기계학습 모델에 기초하여 상기 제1위치정보에 기반으로 상기 제1이미지와 대응하여 쌍을 이루는 제2이미지내에서 상기 대상체가 움직임에 따라 도달할 지점의 제2위치정보를 추출하는 컴퓨팅 장치.
processor; and
a memory comprising one or more instructions implemented to be executed by the processor, the processor comprising:
image processing of a first image having a point reached as the object moves to generate first location information of the point;
A computing device that extracts second location information of a point to be reached as the object moves in a second image paired with the first image based on the first location information based on a machine learning model.
제1항에 있어서,
상기 지점의 제2위치정보는 상기 제1위치정보의 위치 값과 상기 제2위치정보의 위치 값이 동일하도록 상기 기계학습 모델에 의해 반복 학습되어 추출되는 것을 특징으로 하는 컴퓨팅 장치.
According to claim 1,
The second location information of the point is repeatedly learned and extracted by the machine learning model so that a location value of the first location information and a location value of the second location information are the same.
제1항에 있어서,
상기 대상체가 움직임에 따라 도달되는 지점은 마커가 표시되는 것을 특징으로 하는 컴퓨팅 장치.
According to claim 1,
A computing device characterized in that a marker is displayed at a point reached by the movement of the object.
제1항에 있어서,
상기 제1위치정보 및 상기 제2위치정보는 각각 2차원 좌표값인 것을 특징으로 하는 컴퓨팅 장치.
According to claim 1,
The first location information and the second location information are each a two-dimensional coordinate value, characterized in that the computing device.
제1항에 있어서,
상기 제1위치정보는 상기 프로세서에 의해 이미지처리 되어 생성된 상기 제1이미지의 비트맵에 기초하여 생성되고,
상기 제2위치정보는 상기 기계학습 모델에 기초하여 상기 프로세서에 의해 이미지처리 되어 생성된 상기 제2이미지의 비트맵으로부터 추출되는 것을 특징으로 하는 컴퓨팅 장치.
According to claim 1,
The first location information is generated based on a bitmap of the first image generated through image processing by the processor,
The second location information is extracted from a bitmap of the second image generated by image processing by the processor based on the machine learning model.
제5항에 있어서,
상기 제2위치정보는 상기 제1 이미지의 비트맵과 상기 제2이미지의 비트맵이 동일하도록 상기 기계학습 모델에 의해 반복 학습되어 추출되는 것을 특징으로 하는 컴퓨팅 장치.
According to claim 5,
The second location information is repeatedly learned and extracted by the machine learning model so that the bitmap of the first image and the bitmap of the second image are the same.
프로세서; 및
상기 프로세서에 의해 수행되도록 구현된 하나 이상의 명령어(instructions)를 포함하는 메모리를 포함하고, 상기 프로세서는,
기계학습 모델에 기초하여 생체 이미지내에서 대상체가 움직임에 따라 도달할 지점의 위치정보를 추출하고,
상기 위치정보를 상기 생체 이미지내에 표시하여 디스플레이 하는 디스플레이부를 포함하는
대상체 움직임에 따른 위치정보 예측 장치.
processor; and
a memory comprising one or more instructions implemented to be executed by the processor, the processor comprising:
Based on a machine learning model, extracting positional information of a point to be reached as the object moves within the biometric image;
A display unit for displaying the location information in the biometric image
A device for predicting location information according to object movement.
프로세서; 및
상기 프로세서에 의해 수행되도록 구현된 하나 이상의 명령어(instructions)를 포함하는 메모리를 포함하고, 상기 프로세서는,
입력된 제1이미지와 상기 제1이미지와 쌍을 이루고 대상체가 움직임에 따라 도달되는 지점을 표시하는 제1마커의 픽셀정보를 포함하는 제2이미지를 수집하고,
상기 제1이미지를 이용하여 기계 학습모델에 기초하여 제2마커의 픽셀정보를 포함하는 복원 이미지를 생성하고,
상기 기계학습 모델에 기초하여 상기 복원 이미지의 상기 제2마커의 픽셀정보와 상기 제2이미지의 상기 제1마커의 픽셀정보가 일치되도록 하는 컴퓨팅 장치.
processor; and
a memory comprising one or more instructions implemented to be executed by the processor, the processor comprising:
Collecting an input first image and a second image including pixel information of a first marker that is paired with the first image and indicates a point to be reached as the object moves;
Using the first image, a reconstructed image including pixel information of a second marker is generated based on a machine learning model;
A computing device configured to match pixel information of the second marker of the reconstructed image with pixel information of the first marker of the second image based on the machine learning model.
제8항에 있어서,
상기 기계학습 모델은 U형 신경망(U-net), 오토인코더(Autoencoder), 역합성곱 신경망(Deconvolution Neural Network)를 포함하는 것을 특징으로 하는 컴퓨팅 장치.
According to claim 8,
The machine learning model comprises a U-net, an autoencoder, and a deconvolution neural network.
제 8항에 있어서,
상기 제1 마커 및 제2 마커의 픽셀정보는 상기 마커가 표시된 픽셀에서의 계조값 혹은 컬러 데이터를 포함하는 것을 특징으로 하는 컴퓨팅 장치.

According to claim 8,
The pixel information of the first marker and the second marker includes gradation values or color data of pixels where the markers are displayed.

KR1020210068467A 2021-05-27 2021-05-27 Apparatus and method for predicting position informaiton according to movement of tool KR102600615B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210068467A KR102600615B1 (en) 2021-05-27 2021-05-27 Apparatus and method for predicting position informaiton according to movement of tool

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210068467A KR102600615B1 (en) 2021-05-27 2021-05-27 Apparatus and method for predicting position informaiton according to movement of tool

Publications (2)

Publication Number Publication Date
KR20220161597A true KR20220161597A (en) 2022-12-07
KR102600615B1 KR102600615B1 (en) 2023-11-10

Family

ID=84441061

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210068467A KR102600615B1 (en) 2021-05-27 2021-05-27 Apparatus and method for predicting position informaiton according to movement of tool

Country Status (1)

Country Link
KR (1) KR102600615B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190088165A (en) * 2018-01-18 2019-07-26 삼성메디슨 주식회사 Ultrasound probe and manufacturing method for the same
JP2020036708A (en) * 2018-09-03 2020-03-12 株式会社日立製作所 Surgical operation assistant device and surgical navigation system
KR102167655B1 (en) 2019-11-12 2020-10-19 주식회사 루닛 Neural network training method for utilizing differences between a plurality of images, and method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190088165A (en) * 2018-01-18 2019-07-26 삼성메디슨 주식회사 Ultrasound probe and manufacturing method for the same
JP2020036708A (en) * 2018-09-03 2020-03-12 株式会社日立製作所 Surgical operation assistant device and surgical navigation system
KR102167655B1 (en) 2019-11-12 2020-10-19 주식회사 루닛 Neural network training method for utilizing differences between a plurality of images, and method thereof

Also Published As

Publication number Publication date
KR102600615B1 (en) 2023-11-10

Similar Documents

Publication Publication Date Title
CN108685560B (en) Automated steering system and method for robotic endoscope
Kalinin et al. Medical image segmentation using deep neural networks with pre-trained encoders
KR102531400B1 (en) Artificial intelligence-based colonoscopy diagnosis supporting system and method
US10405832B2 (en) Ultrasound diagnosis apparatus and method
Li et al. Image-guided navigation of a robotic ultrasound probe for autonomous spinal sonography using a shadow-aware dual-agent framework
KR20230165284A (en) Systems and methods for processing electronic medical images for diagnostic or interventional use
CN113662573B (en) Mammary gland focus positioning method, device, computer equipment and storage medium
CN115131290A (en) Image processing method
US20240221154A1 (en) Method and device for displaying bio-image tissue
US12094113B2 (en) Artificial intelligence-based gastroscopic image diagnosis assisting system and method
US20240331354A1 (en) System and method for processing endoscopy images in real time
KR102622932B1 (en) Appartus and method for automated analysis of lower extremity x-ray using deep learning
KR102600615B1 (en) Apparatus and method for predicting position informaiton according to movement of tool
JP7297334B2 (en) REAL-TIME BODY IMAGE RECOGNITION METHOD AND APPARATUS
Song et al. Two-path augmented directional context aware ultrasound image segmentation
EP4407554A1 (en) Medical image diagnostics assistance device, medical image diagnostics assistance method, and program
Lewis et al. Real time localization of cystoscope angulation in 2d bladder phantom for telecystoscopy
CN114650777A (en) Medical image display apparatus and method of displaying medical image using the same
KR20210056884A (en) Medical image displaying apparatus and method of displaying medical image using thereof
US20240005492A1 (en) Method and system for automatic detection of free intra-abdominal air
WO2023075055A1 (en) Deep learning-based pancreatic cancer vascular invasion classification method and analysis device using endoscopic ultrasound image
KR20230129078A (en) Appartus and method for quantifying lesion in biometric image
Du et al. Polyp Size Estimation by Generalizing Metric Depth Estimation And Monocular 3D Reconstruction
KR20240114528A (en) Appartus and method for automated analysis of knee joint space using deep learning
Noh Review of medical imaging systems, medical imaging data problems, and XAI in the medical imaging field

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant