KR20220161597A - Apparatus and method for predicting position informaiton according to movement of tool - Google Patents
Apparatus and method for predicting position informaiton according to movement of tool Download PDFInfo
- Publication number
- KR20220161597A KR20220161597A KR1020210068467A KR20210068467A KR20220161597A KR 20220161597 A KR20220161597 A KR 20220161597A KR 1020210068467 A KR1020210068467 A KR 1020210068467A KR 20210068467 A KR20210068467 A KR 20210068467A KR 20220161597 A KR20220161597 A KR 20220161597A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- location information
- processor
- machine learning
- learning model
- Prior art date
Links
- 230000033001 locomotion Effects 0.000 title claims description 19
- 238000000034 method Methods 0.000 title description 23
- 238000010801 machine learning Methods 0.000 claims abstract description 48
- 238000012545 processing Methods 0.000 claims abstract description 16
- 239000000284 extract Substances 0.000 claims abstract description 4
- 239000003550 marker Substances 0.000 claims description 22
- 238000013528 artificial neural network Methods 0.000 claims description 8
- 210000001519 tissue Anatomy 0.000 description 33
- 230000003902 lesion Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 6
- 238000010295 mobile communication Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000002583 angiography Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000002591 computed tomography Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000001839 endoscopy Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 208000037062 Polyps Diseases 0.000 description 1
- 210000000683 abdominal cavity Anatomy 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000001574 biopsy Methods 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000002574 cystoscopy Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 210000000232 gallbladder Anatomy 0.000 description 1
- 238000002357 laparoscopic surgery Methods 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 210000002751 lymph Anatomy 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 230000003924 mental process Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000009206 nuclear medicine Methods 0.000 description 1
- 238000012014 optical coherence tomography Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 210000000496 pancreas Anatomy 0.000 description 1
- 238000002600 positron emission tomography Methods 0.000 description 1
- 238000002601 radiography Methods 0.000 description 1
- 238000002603 single-photon emission computed tomography Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000004611 spectroscopical analysis Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000002792 vascular Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00057—Operational features of endoscopes provided with means for testing or calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G06N3/0454—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Public Health (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Surgery (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- General Physics & Mathematics (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Databases & Information Systems (AREA)
- Optics & Photonics (AREA)
- Animal Behavior & Ethology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
Description
본 출원은 대상체의 위치를 예측하는 방법에 관한 것으로, 더욱 자세하게는 대상체의 움직임에 따라 대상체가 추후 도달되는 위치를 정확히 예측할 수 있는 방법 및 장치에 관한 것이다.The present application relates to a method for predicting a location of an object, and more particularly, to a method and apparatus capable of accurately predicting a location to which an object will later arrive according to the movement of the object.
최근 인공지능 학습모델이 발달함에 따라 의료분야에서 이미지를 판독함에 많은 기계 학습모델을 이용하고 있다. 예를들어, 합성곱 신경망(Convolutional Neural Networks, 심층 신경망(Deep neural networks), 순환 신경망(Recurrent Neural Network), 심층 신뢰 신경망(Deep Belief Networks)과 같은 학습모델은 의료 이미지에 대해 detection, classification, feature learning을 하는데 적용되고 있다.Recently, with the development of artificial intelligence learning models, many machine learning models are being used to read images in the medical field. For example, learning models such as Convolutional Neural Networks, Deep neural networks, Recurrent Neural Networks, and Deep Belief Networks are used for detection, classification, and feature detection of medical images. It is applied to learning.
한편, 내시경을 이용한 조직 검사 혹은 시술 등을 시행하는 의료분야에서, 내시경의 카메라로 인체 내부의 병변의 위치를 인식하고 포셉(forceps)과 같은 내시경 기구를 이용하여 병변을 적출 혹은 절제시, 병변의 위치에 내시경 기구가 제대로 가이드되지 않아 검사 대상의 내벽에 천공을 발생시키는 경우가 발생한다. On the other hand, in the medical field where a biopsy or procedure using an endoscope is performed, the position of the lesion inside the human body is recognized by the camera of the endoscope, and when the lesion is extracted or excised using an endoscopic instrument such as forceps, Endoscopic instruments are not properly guided to the location, causing a perforation in the inner wall of the object to be examined.
이에 대해 내시경 기구 사용시 병변의 정확한 위치에 가이드될 수 있는 기구적 설계 혹은 기계 학습모델에 기초하여 내시경 기구 움직임에 따른 정확한 위치 예측이 필요하다. In contrast, when an endoscopic instrument is used, it is necessary to accurately predict the position according to the movement of the endoscopic instrument based on a mechanical design or a machine learning model that can guide the precise position of the lesion.
본 출원은 이미지내에서 기구의 움직임에 따라 추후 기구가 도달하는 위치정보를 예측할 수 있는 장치 및 방법을 제공하고자 한다.An object of the present application is to provide an apparatus and method capable of predicting positional information to be reached by a mechanism in the future according to the movement of the mechanism in an image.
본 출원의 과제는 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않는 또 다른 과제는 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The objects of the present application are not limited to the tasks mentioned above, and other tasks not mentioned will be clearly understood by those skilled in the art from the description below.
본 발명의 일측면에 따른 컴퓨팅 장치는, 프로세서 및 상기 프로세서에 의해 수행되도록 구현된 하나 이상의 명령어(instructions)를 포함하는 메모리를 포함하고, 상기 프로세서는, 대상체가 움직임에 따라 도달되는 지점을 갖는 제1이미지에 대해 이미지 처리하여 상기 지점의 제1위치정보를 생성하고, 기계학습 모델에 기초하여 상기 제1위치정보에 기반으로 상기 제1이미지와 대응하여 쌍을 이루는 제2이미지내에서 상기 대상체가 움직임에 따라 도달할 지점의 제2위치정보를 추출한다.A computing device according to one aspect of the present invention includes a processor and a memory including one or more instructions implemented to be executed by the processor, wherein the processor has a point reached by a movement of an object. Image processing is performed on one image to generate first location information of the point, and based on a machine learning model, based on the first location information, the object is displayed in a second image paired with the first image. According to the movement, second location information of a point to be reached is extracted.
본 발명의 다른 측면에 따른 컴퓨팅 장치는 프로세서 및 상기 프로세서에 의해 수행되도록 구현된 하나 이상의 명령어(instructions)를 포함하는 메모리를 포함하고, 상기 프로세서는, 입력된 제1이미지와 상기 제1이미지와 쌍을 이루고 대상체가 움직임에 따라 도달되는 지점을 표시하는 제1마커의 픽셀정보를 포함하는 제2이미지를 수집하고, 상기 제1이미지를 이용하여 기계 학습모델에 기초하여 제2마커의 픽셀정보를 포함하는 복원 이미지를 생성하고, 상기 기계학습 모델에 기초하여 상기 복원 이미지의 상기 제2마커의 픽셀정보와 상기 제2이미지의 상기 제1마커의 픽셀정보가 일치되도록 한다.A computing device according to another aspect of the present invention includes a processor and a memory including one or more instructions implemented to be executed by the processor, wherein the processor includes an input first image and a pair of the first image. , and collects a second image including pixel information of a first marker indicating a point reached as the object moves, and includes pixel information of the second marker based on a machine learning model using the first image. generating a reconstructed image, and matching pixel information of the second marker of the reconstructed image with pixel information of the first marker of the second image based on the machine learning model.
본 발명의 일 측면에 따른 대상체 움직임에 따른 위치정보 예측 장치는 프로세서 및 상기 프로세서에 의해 수행되도록 구현된 하나 이상의 명령어(instructions)를 포함하는 메모리를 포함하고, 상기 프로세서는, 기계학습 모델에 기초하여 생체 이미지내에서 대상체가 움직임에 따라 도달할 지점의 위치정보를 추출하고, 상기 위치정보를 상기 생체 이미지내에 표시하여 디스플레이 하는 디스플레이부를 포함한다. An apparatus for predicting location information based on object motion according to an aspect of the present invention includes a processor and a memory including one or more instructions implemented to be executed by the processor, wherein the processor includes a machine learning model based on A display unit extracts positional information of a point to be reached as the object moves in the biometric image, displays the positional information in the biometric image, and displays the location information.
본 발명의 실시예에 따르면, 기계 학습모델에 기초하여 내시경 기구와 같은 대상체의 움직임에 따라 인체 내 조직에 도달되는 지점의 위치정보를 예측할 수 있는 효과가 있다. According to an embodiment of the present invention, there is an effect of predicting positional information of a point reaching a tissue in the human body according to the movement of an object such as an endoscopy instrument based on a machine learning model.
본 출원의 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않는 또 다른 효과는 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present application are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.
도 1은 본 발명의 일 실시예에 따른 대상체의 위치정보를 갖는 이미지를 생성하는 장치의 예시적 구성을 개략적으로 나타낸 도이다.
도 2는 본 발명의 일 실시예에 따른 이미지내 대상체의 위치정보를 인식하기 위한 프로세서의 블록도를 나타낸 도이다.
도 3은 본 발명의 일 실시예에 따른 컴퓨팅 장치에 의해 생체 이미지내의 대상체의 위치정보를 추출하는 과정을 예시적으로 나타낸 도이다.
도 4는 본 발명의 일 실시예에 따른 컴퓨팅 장치에 의해 생체 이미지내의 대상체의 위치정보를 추출하는 다른 과정을 예시적으로 나타낸 도이다.
도 5는 본 발명의 일 실시예에 따른 컴퓨팅 장치에 의해 생체 이미지내의 대상체의 위치정보를 추출하는 또 다른 과정을 예시적으로 나타낸 도이다.
도 6은 본 발명의 다른 실시예에 따른 대상체의 움직임에 따른 위치정보 예측 방법을 예시적으로 나타낸 흐름도이다.1 is a diagram schematically illustrating an exemplary configuration of an apparatus for generating an image having location information of an object according to an embodiment of the present invention.
2 is a block diagram of a processor for recognizing location information of an object in an image according to an embodiment of the present invention.
3 is a diagram illustratively illustrating a process of extracting location information of an object in a biometric image by a computing device according to an embodiment of the present invention.
4 is a diagram illustrating another process of extracting location information of an object in a biometric image by means of a computing device according to an embodiment of the present invention.
5 is a diagram exemplarily illustrating another process of extracting location information of an object in a biometric image by a computing device according to an embodiment of the present invention.
6 is a flowchart exemplarily illustrating a method for predicting location information according to motion of an object according to another embodiment of the present invention.
이하 본 발명의 실시예에 대하여 첨부한 도면을 참조하여 상세하게 설명하기로 한다. 다만, 첨부된 도면은 본 발명의 내용을 보다 쉽게 개시하기 위하여 설명되는 것일 뿐, 본 발명의 범위가 첨부된 도면의 범위로 한정되는 것이 아님은 이 기술분야의 통상의 지식을 가진 자라면 용이하게 알 수 있을 것이다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the accompanying drawings are only described in order to more easily disclose the contents of the present invention, and those skilled in the art can easily understand that the scope of the present invention is not limited to the scope of the accompanying drawings. You will know.
또한, 본 발명의 상세한 설명 및 청구항들에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. In addition, terms used in the detailed description and claims of the present invention are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise.
본 발명의 상세한 설명 및 청구항들에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the detailed description and claims of the present invention, terms such as "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, It should be understood that it does not preclude the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.
본 발명의 상세한 설명 및 청구항들에서, "학습", 혹은 "러닝" 등의 용어는 절차에 따른 컴퓨팅(computing)을 통하여 기계학습(machine learning)을 수행함을 일컫는 용어인바, 인간의 교육활동과 같은 정신적 작용을 지칭하도록 의도된 것이 아닌 것으로 이해되어야 한다.In the detailed description and claims of the present invention, terms such as "learning" or "learning" refer to performing machine learning through procedural computing, such as human educational activities. It should be understood that it is not intended to refer to mental processes.
본 발명의 상세한 설명 및 청구항들에서 사용한 "실시간 이미지 데이터"는 단일 이미지(정지영상) 혹은 연속되는 이미지(동영상)을 포함하는 것으로 정의될 수 있고, "이미지" 혹은 "이미지 데이터"와 같은 의미로 표현될 수 있다."Real-time image data" used in the detailed description and claims of the present invention can be defined as including a single image (still image) or continuous images (moving image), and has the same meaning as "image" or "image data". can be expressed
본 발명의 상세한 설명 및 청구항들에서 사용한 "이미지"의 용어는 사람 또는 사물의 형태 또는 그의 구체적인 특성을 디지털 형태로 복제 또는 모방한 것으로 정의될 수 있고, 이미지는 JPEG 이미지, PNG 이미지, GIF 이미지, TIFF 이미지 또는 당 업계에 알려진 임의의 다른 디지털 이미지 형식 일 수 있지만 이에 제한되지는 않는다. 또한, "이미지"는 "사진"과 같은 의미로 사용될 수 있다.The term "image" used in the detailed description and claims of the present invention can be defined as a digital copy or imitation of the shape or specific characteristics of a person or object, and the image is a JPEG image, PNG image, GIF image, It may be, but is not limited to, a TIFF image or any other digital image format known in the art. Also, "image" may be used in the same sense as "photograph".
본 발명의 상세한 설명 침 청구항들에서 사용한 "속성"은 이미지 데이터 내에서 인식될 수 있는 대상체의 라벨 혹은 변위를 인식할 수 있는 대상체의 하나 이상의 설명적 특성의 그룹으로 정의될 수 있고, "속성"은 숫자적 특징으로 표현될 수 있다.The "property" used in the claims of the detailed description of the present invention may be defined as a group of one or more descriptive characteristics of an object capable of recognizing a label or displacement of an object recognizable within image data, and "property" can be expressed as a numerical feature.
본 발명에 개시된 장치, 방법 및 디바이스 등은 복강 내부의 의료 이미지 또는 질병상태의 진단을 지원할 수 있는 실시간 임의의 생물학적 조직 이미지에 적용하여 사용될 수 있지만, 이에 한정되지 않고, 시계열적 컴퓨터 단층 촬영 (CT), 자기 공명 영상 (MRI), 컴퓨터 방사선 촬영, 자기 공명, 혈관 내시경, 광 간섭 단층 촬영, 컬러 플로우 도플러, 방광경 검사, 디아파노그래피(diaphanography), 심장 초음파 검사, 플루오레소신 혈관 조영술(fluoresosin angiography), 복강경 검사, 자기 공명 혈관 조영술, 양전자 방출 단층 촬영(positron emission tomography), 단일 광자 방출 컴퓨터 단층 촬영, X선 혈관 조영술, 핵의학, 생체 자기 영상, culposcopy, 이중 도플러, 디지털 현미경, 내시경, 레이저, 표면 스캔, 자기 공명 분광법, 방사선 그래픽 이미징, 열 화상 촬영 및 방사선 형광 검사에 사용될 수 있다. The apparatus, method, and device disclosed in the present invention may be applied to and used for any real-time biological tissue image capable of supporting diagnosis of a medical image or a disease state of the inside of the abdominal cavity, but is not limited thereto, and is not limited thereto, and time-sequential computed tomography (CT) ), magnetic resonance imaging (MRI), computed radiography, magnetic resonance, vascular endoscopy, optical coherence tomography, color flow Doppler, cystoscopy, diaphanography, echocardiography, fluoresosin angiography ), laparoscopy, magnetic resonance angiography, positron emission tomography, single photon emission computed tomography, X-ray angiography, nuclear medicine, biomagnetic imaging, culposcopy, double Doppler, digital microscope, endoscope, laser , surface scanning, magnetic resonance spectroscopy, radiographic imaging, thermal imaging, and radiofluorescence.
더욱이 본 발명은 본 명세서에 표시된 실시예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나 지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다Moreover, the present invention covers all possible combinations of the embodiments shown herein. It should be understood that the various embodiments of the present invention are different from each other but are not necessarily mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be implemented in one embodiment in another embodiment without departing from the spirit and scope of the invention. Additionally, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. Accordingly, the detailed description set forth below is not to be taken in a limiting sense, and the scope of the present invention, if properly described, is limited only by the appended claims, along with all equivalents as claimed by those claims. Like reference numbers in the drawings indicate the same or similar function throughout the various aspects.
도 1은 본 발명의 일 실시예에 따른 대상체의 위치정보를 갖는 이미지를 생성하는 장치의 예시적 구성을 개략적으로 나타낸 도이다.1 is a diagram schematically illustrating an exemplary configuration of an apparatus for generating an image having location information of an object according to an embodiment of the present invention.
도 1를 참조하면, 본 발명의 일실시예에 따른 장치(100)는 컴퓨팅 장치(Computing Device, 110), 디스플레이 디바이스(Display Device, 130), 내시경과 같은 인체 내부를 검사 또는 시술할 수 있는 검사 디바이스 (150)를 포함할 수 있다. 컴퓨팅 장치(110)는 프로세서(Processor, 111), 메모리부(Memory Unit, 113), 스토리지 디바이스(Storage Device, 115), 입, 출력 인터페이스(117), 네트웍 어뎁터(Network Adapter, 118), 디스플레이 어뎁터(Display Adapter, 119), 및 프로세서를 포함한 다양한 시스템 구성요소를 메모리부(113)에 연결하는 시스템 버스(System bus, 112)를 포함할 수 있지만 이에 한정되지 않는다. 또한, 대상체의 위치정보를 갖는 이미지를 생성하는 장치(100)는 정보를 전달하기 위한 시스템 버스(112)뿐만 아니라 다른 통신 메커니즘을 포함할 수 있다. Referring to FIG. 1, an
시스템 버스 또는 다른 통신 메커니즘은, 프로세서, 컴퓨터 판독가능한 기록매체인 메모리, 근거리 통신 모듈(예를 들어, 블루투스나 NFC), 네트워크 인터페이스나 이동통신 모듈을 포함하는 네트워크 어뎁터, 디스플레이 디바이스(예를 들면, CRT 또는 LCD 등), 입력장치 (예를 들면, 키보드, 키패드, 가상 키보드, 마우스, 트랙볼, 스타일러스, 터치 감지 수단 등), 및/또는 하위 시스템들을 상호 접속한다. A system bus or other communication mechanism may include a processor, a memory that is a computer-readable recording medium, a short-range communication module (eg, Bluetooth or NFC), a network adapter including a network interface or mobile communication module, and a display device (eg, CRT or LCD, etc.), input devices (eg, keyboard, keypad, virtual keyboard, mouse, trackball, stylus, touch sensing means, etc.), and/or subsystems.
프로세서(111)는 기계 학습모델(13)을 활용하여 자동으로 프로세싱 하는 프로세싱 모듈일 수 있고, CPU, AP(Application Processor), 마이크로 컨트롤러, 등일 수 있으나 이에 한정되는 것은 아니다. The processor 111 may be a processing module that automatically processes using the
프로세서(111)는 디스플레이 디바이스용 하드웨어 제어기 예를들어, 디스플레이 어뎁터(119)와 통신하여 디스플레이 디바이스(130) 상에 실시간 생체 이미지 조직 인식 장치의 동작 및 유저 인터페이스를 표시할 수 있다.The processor 111 may communicate with the
프로세서(111)는 메모리부(113)에 접속하여 메모리부에 저장된 명령들이나 로직의 하나 이상의 시퀀스들을 실행하는 것에 의해 이후 설명될 본 발명의 실시예에 따른 실시간 생체 이미지 조직 인식 장치의 동작을 제어한다. The processor 111 controls the operation of the real-time biometric image tissue recognition device according to an embodiment of the present invention to be described below by accessing the
이러한 명령들은, 정적 저장부(Static storage) 또는 디스크 드라이브와 같은 다른 컴퓨터 판독가능 기록매체로부터 메모리 안에서 판독될 수도 있다. 다른 실시형태들에서, 본 개시를 구현하기 위한 소프트웨어 명령들을 대신하거나 소프트웨어 명령들과 조합된 하드웨어에 내장된 회로부(hard-wired circuitry)가 사용될 수도 있다. 로직은, 프로세서로 명령들을 제공하는 데 참여하는 임의의 매체를 지칭할 수도 있으며, 메모리부(113)에 로딩될 수도 있다. These instructions may be read into memory from static storage or other computer readable media such as a disk drive. In other embodiments, hard-wired circuitry may be used in place of or combined with software instructions to implement the present disclosure. Logic may refer to any medium that participates in providing instructions to the processor and may be loaded into the
시스템 버스(System bus, 112)는 다양한 버스 구조(architectures) 중 임의의 것을 사용하는 메모리 버스 또는 메모리 컨트롤러, 주변장치버스, 가속 그래픽 포트 및 프로세서 혹은 로컬 버스를 포함하는 여러 가능한 유형의 버스 구조 중 하나 이상을 나타낸다. 예를 들어, 이런 구조들(architectures)은 ISA (Industry Standard Architecture) 버스, MCA(Micro Channel Architecture) 버스, EISA(Enhanced ISA)버스, VESA(Video Electronics Standard Association) 로컬 버스, AGP(Accelerated Graphics Port) 버스 및 PCI(Peripheral Component Interconnects), PCI-Express 버스, PCMCIA(Personal Computer Memory Card Industry Association), USB(Universal Serial Bus)과 같은 것을 포함할 수 있다.
시스템 버스(System bus, 112)는 유, 무선 네트워크 연결로써 실행될 수 있다. 프로세서(Processor, 111), 대용량 스토리지 장치(Mass Storage Device), 오퍼레이팅 시스템(Operating System, 113c, 115a), 이미징 소프트웨어(Imaging Software, 113b, 115b), 이미징 데이터(Imaging Data, 113a, 115c), 네트워크 어뎁터(Network Adapter, 118), 시스템 메모리(System Memory), 입/출력 인터페이스(Input/Output Interface, 117), 디스플레이 어뎁터(Display Adapter, 119), 디스플레이 디바이스(Display Device, 130)를 포함하는 서브 시스템 각각은 물리적으로 분리된 위치에 하나 이상의 원격 컴퓨팅 디바이스(Remote Computing Device) 안에 포함될 수 있고, 분산된 시스템을 효율적으로 실행하는데 있어 이와 같은 형태의 버스들을 통해 연결될 수 있다.The
버스의 배선들(wires)을 포함하는 송신 매체들은 동축 케이블, 동선(copper wire), 및 광섬유들을 포함할 수 있다. 일 예에서, 송신 매체들은, 라디오 파 통신이나 적외선 데이터 통신 동안 생성된 음파 또는 광파의 형태를 취할 수도 있다.Transmission media including the wires of the bus may include coaxial cable, copper wire, and optical fibers. In one example, transmission media may take the form of acoustic or light waves generated during radio wave communication or infrared data communication.
본 발명의 실시예에 따른 장치(100)는, 네트워크 링크 및 네트워크 어뎁터(Network Adapter, 118)를 통해 메시지들, 데이터, 정보 및 하나 이상의 프로그램들(즉, 애플리케이션 코드)을 포함하는 명령들을 송신하고 수신할 수도 있다.
네트워크 어뎁터(Network Adapter, 118)는, 네트워크 링크를 통한 송수신을 가능하게 하기 위한, 별개의 또는 통합된 안테나를 포함할 수도 있다. 네트워크 어뎁터(118)는 네트워크에 접속하여 원격 컴퓨팅 장치(Remote Computing Device)와 통신할 수 있다. 네트워크는 LAN, WLAN, PSTN, 및 셀룰러 폰 네트워크 중 적어도 하나를 포함할 수 있으나 이에 한정되는 것은 아니다.The
네트워크 어뎁터(118)는 상기 네트워크에 접속하기 위한 네트워크 인터페이스 및 이동통신 모듈 중 적어도 하나를 포함할 수 있다. 이동통신 모듈은 세대별 이동통신망(예를 들어, 2G 내지 5G 이동통신망)에 접속 가능하다. The
프로그램 코드는 수신될 때 프로세서(111)에 의해 실행될 수도 있고/있거나 실행을 위해 메모리부(113)의 디스크 드라이브 또는 디스크 드라이브와는 다른 종류의 비휘발성 메모리에 저장될 수도 있다.The program code may be executed by the processor 111 when received and/or may be stored for execution in a disk drive of the
컴퓨팅 장치(Computing device, 110)는 다양한 컴퓨터 판독가능한 기록매체일 수 있다. 판독가능한 매체는 컴퓨팅 디바이스에 의해 접근 가능한 임의의 다양한 매체가 될 수 있고, 예를들어, 휘발성(volatile) 또는 비휘발성 매체(non-volatile media), 유동 매체(removable media), 비유동 매체(non-removablemedia)를 포함할 수 있지만 이에 한정되지 않는다. The
메모리부(113)는 본 발명의 실시예에 따른 생체 이미지 조직 인식 장치의 동작에 필요한 운영체제, 드라이버, 애플리케이션 프로그램, 데이터 및 데이터 베이스 등을 저장할 수 있으나 이에 한정되는 것은 아니다. 또한, 메모리부(113)는RAM(Random Acces Memory)과 같은 휘발성 메모리, ROM(Read Only Memory) 및 플래시 메모리와 같은 비휘발성 메모리 형태로 컴퓨터 판독 가능한 매체를 포함할 수 있고, 또한, 디스크 드라이브 예를들면, 하드 디스크 드라이브(Hard Disk Drive), 솔리드 스테이트 드라이브(Solid State Drive), 광 디스크 드라이브 등을 포함할 수 있지만 이에 한정되지 않는다. 또한, 메모리부(113)와 스토리지 디바이스(115)는 각각 전형적으로 대상체의 생체 이미지와 같은 이미징 데이터(Imaging Data, 113a, 115a)와 같은 데이터, 프로세서(111)에 의해 동작되도록 즉시 접속될 수 있는 이미징 소프트웨어(113b, 115b)와 오퍼레이팅 시스템(113c, 115c)과 같은 프로그램 모듈을 포함할 수 있다. The
기계학습 모델(Machine Learning Model, 13)은 프로세서, 메모리부(113) 혹은 스토리지 디바이스(115)에 삽입될 수 있다. 이때의 기계학습 모델은 오토인코더 모델(Autoencoder Model)을 포함하고, 오토인코더(Autoencoder)는 신경망을 갖는 변분 오토인코더(Varitional Autoencoder)일수 있다. 또한, 기계학습 모델은 기계학습 알고리즘의 하나인 심층 신경망(Deep Neural Network, DNN), 합성곱 신경망(Convolutional Neural Network, CNN), 순환 신경망(Recurrent Neural Network, RNN) 등을 포함할 수 있고, 이에 한정되지 않는다.The
검사 디바이스(150)는 연성내시경, 경성내시경, 방광경 등 인체 내부를 검사할 수 있는 다양한 디바이스를 포함할 수 있고, 내부에 인체 내부를 시각적으로 촬영 확인할 수 있는 카메라(151)와 조직 검사를 위해 인체 내부의 조직을 적출 혹은 절재하기 위한 내시경 기구(Tool, 153) 및, 내시경 기구(153)가 조직의 정확한 위치에 도달할 수 있도록 내시경 기구(153)에 부착되어 내시경 기구(153)를 가이드하는 광 가이더(Light guider, 155)를 포함할 수 있다.The
실시예에서, 내시경 기구(153)는 사용자의 조작에 의해 인체 내 조직의 특정 위치에 도달하는 지점의 위치정보를 인식하기 위한 대상체로써, 대상체는 내시경 기구를 구성하는 다양한 구성부품으로 이루어질 수 있고, 본 발명의 일 실시예에 따른 장치는 대상체가 움직임에 따라 상기 대상체가 조직에 도달하는 위치를 예측한다.In an embodiment, the
카메라부(151)는 오브젝트의 이미지를 촬상하고 그 이미지를 광전자적으로 이미지 신호로 변환하는 이미지 센서(미도시)를 포함하고, 인체 내의 조직의 생체 이미지를 실시간으로 촬영한다. 촬영된 생체 이미지(이미지 데이터)는 입/출력 인터페이스(117)를 통하여 프로세서(111)에 제공되어 기계 학습모델(13)에 기초하여 처리되거나 메모리부(113) 혹은 스토리지 디바이스(115)에 저장될 수 있다. The
대상체(예, 내시경 기구)는 포셉(Forcep), 클램프(Clamp), 시저(Scissors)등을 포함하고, 이를 이용하여 인체 내부의 조직을 검사 혹은 검사 대상의 조직을 적출 혹은 절제할 수 있다.The target object (eg, an endoscopic instrument) includes forceps, clamps, scissors, and the like, and may be used to examine tissues inside the human body or to excise or excise tissues of a target for examination.
광 가이더(155)는 내시경 기구에 부착되어 내시경 기구의 움직임 방향을 가이드한다. 광 가이더는 내부에 광원(미도시)을 포함하여 광원으로부터 발생된 광이 조직의 병변을 타겟팅하여 내시경 기구가 병변의 위치에 정확히 도달할 수 있도록 한다. 이때, 조직의 병변에는 광에 의해 광점(Light spot)과 같은 마커(X)가 형성된다. 광 가이더에 부착된 광원의 턴온(turn-on)/턴오프(turn-off)에 따라 카메라에 의해 촬영된 생체 이미지는 대상체와 함께 조직의 병변이 나타난 이미지 혹은 대상체와 함께 마커(X)가 형성된 조직의 병변이 나타난 이미지를 포함할 수 있다.The
본 발명에 따른 대상체의 위치정보를 갖는 이미지를 생성하는 장치(100)는 랩탑 컴퓨터, 데스크탑 컴퓨터 및 서버에 제한되지 않고, 데이터를 처리할 수 있는 임의의 명령을 실행할 수 있는 컴퓨팅 장치 또는 시스템에서 구현될 수 있고, 인터넷 네트웍을 통한 다른 컴퓨팅 장치 및 시스템으로 구현될 수 있다. 또한, 장치(100)는 펌웨어를 포함하는 소프트웨어, 하드웨어 또는 이들의 조합을 포함하는 다양한 방식으로 구현될 수 있다. 예를 들어, 다양한 방식으로 실행하기 위한 기능은 개별로직 구성요소, 하나이상의 ASIC(Application Specific Integrated Circuits) 및/또는 프로그램 제어 프로세서를 포함하는 다양한 방식으로 구현되는 구성요소에 의해 수행될 수 있다.The
도 2는 본 발명의 일 실시예에 따른 이미지내 대상체의 위치정보를 인식하기 위한 프로세서의 블록도를 나타낸 도이다. 2 is a block diagram of a processor for recognizing location information of an object in an image according to an embodiment of the present invention.
도 2를 참조하면, 프로세서(600)는 도 1의 프로세서(111)일 수 있고, 기계 학습모델(211a, 213a, 215a, 230a)을 학습시킬 학습 데이터를 수신하고, 수신한 학습 데이터에 기반하여 학습 데이터의 속성정보를 추출할 수 있다. 학습 데이터는 생체 이미지 데이터(복수의 생체 이미지 데이터 혹은 단일 생체 이미지 데이터) 혹은 생체 이미지 데이터에서 추출된 속성정보 데이터일 수 있다. Referring to FIG. 2 , the
일 실시예에서, 생체 이미지 데이터로부터 추출된 속성정보는 생체 이미지 데이터내에서 인식(detection)된 대상을 분류하는 라벨(Label)정보일 수 있다. 예를 들어, 라벨은 생체 이미지 데이터내에 표현된 간, 이자, 담낭 같은 체내의 장기로 분류된 카테고리일 수 있고, 혈관, 림프, 신경과 같은 체내의 조직으로 분류된 카테고리일 수 있고, 섬유선종, 종양 같은 채내 조직의 병변으로 분류된 카테고리 일수 있다. 일 실시예에서, 라벨 정보는 대상(예, 병변)의 위치정보를 포함할 수 있고, 대상의 위치정보는 2차원 좌표 (x,y) 혹은 3차원 좌표(x,y,z)로 표현될 수 있다. 또한, 라벨 정보는 대상(예, 병변)의 크기정보를 포함할 수 있고, 라벨은 생체 이미지 데이터에서 인식되는 대상의 비중, 의미에 기반하여 가중치나 순서가 부여될 수 있다. In one embodiment, the attribute information extracted from the biometric image data may be label information for classifying objects detected in the biometric image data. For example, the label may be a category classified by organs in the body, such as the liver, pancreas, and gallbladder, represented in the biometric image data, or a category classified by tissues in the body, such as blood vessels, lymph, and nerves. It may be a category classified as a lesion of an internal tissue such as a tumor. In one embodiment, the label information may include location information of an object (eg, lesion), and the location information of the object may be expressed in 2-dimensional coordinates (x,y) or 3-dimensional coordinates (x,y,z). can Also, the label information may include size information of an object (eg, a lesion), and a weight or order may be assigned to the label based on the weight and meaning of the object recognized in the biometric image data.
프로세서(600)는 데이터 처리부(210) 및 속성정보 모델 학습부(230)를 포함할 수 있다. The
데이터 처리부(210)는 속성정보 모델 학습부(230)를 학습시킬 생체 이미지 데이터와 생체 이미지의 속성정보 데이터를 수신하고, 수신한 생체 이미지 데이터 및 생체 이미지의 속성정보 데이터를 속성정보 모델의 학습에 적합한 데이터로 변환(transforming) 혹은 이미지 처리(processing)할 수 있다. 데이터 처리부(210)는 라벨 정보 생성부(211), 데이터 생성부(213), 특징 추출부(215)를 포함할 수 있다.The
라벨 정보 생성부(211)는 제1기계 학습모델(211a)을 이용하여 수신한 생체 이미지 데이터에 대응하는 라벨 정보를 생성할 수 있다. 라벨 정보는 수신한 생체 이미지 데이터내에서 인식되는 대상에 따라 결정된 하나 이상의 카테고리에 대한 정보일 수 있다. 일 실시예에서, 라벨 정보는 라벨정보와 대응하는 생체 이미지 데이터에 대한 정보와 함께 메모리부(113)나 스토리지 디바이스(115)에 저장될 수 있다. The
데이터 생성부(213)는 기계 학습모델(230a)이 포함된 속성정보 모델 학습부(230)에 입력될 데이터를 생성할 수 있다. 데이터 생성부(213)는 제2기계 학습모델(213a)을 이용하여 수신한 생체 이미지 데이터에 포함된 복수의 프레임 데이터에 기반하여 제3기계 학습모델(230a)에 입력될 입력 데이터를 생성할 수 있다. 프레임 데이터는 생체 이미지를 구성하는 각각의 프레임을 의미할 수 있고, 생체 이미지를 구성하는 각 프레임의 RGB 데이터 혹은 픽셀(Pixel) 데이터를 의미할 수 있으며, 각 프레임의 특징을 추출한 데이터 혹은 각 프레임에 대한 특징을 벡터로 표현한 데이터를 의미할 수 있다. The
속성정보 모델 학습부(230)는 제3기계 학습모델(230a)를 포함하고, 라벨 정보 생성부(211), 데이터 생성부(213)에서 생성 및 추출한 이미지 데이터, 라벨 정보를 포함한 데이터를 제3기계 학습모델(230a)에 입력하여 융합 학습(fusion learning)시켜 생체 이미지 데이터에 대한 속성정보를 추출할 수 있다. 속성정보는 상기 생체 이미지 데이터에서 인식되는 대상 이미지의 특징과 관련된 정보를 가리킨다. 예를들어, 속성정보는 생체 이미지 데이터내에서 대상을 분류하는 라벨, 예를들어, 폴립(polyp)과 같은 병변(lesion) 정보 일수 있다. 만약 속성정보 모델 학습부에서 추출된 속성정보가 오류가 생길 경우, 제3기계 학습모델(230a)에서 사용되는 계수 혹은 연결 가중치 값 등을 업데이트 할 수 있다. The attribute information
도 3은 본 발명의 일 실시예에 따른 컴퓨팅 장치에 의해 생체 이미지내의 대상체의 위치정보를 추출하는 과정을 예시적으로 나타낸 도이다.3 is a diagram illustratively illustrating a process of extracting location information of an object in a biometric image by a computing device according to an embodiment of the present invention.
도 3를 참조하면, 컴퓨팅 장치에 학습되는 이미지 데이터 셋은 대상체(40a)가 움직여 조직의 병변(Lesion)에 도달되는 지점이 표시되는 마크(X)를 갖는 제1이미지(40)와 대상체(10a)가 움직여 조직의 병변에 도달되는 지점이 표시되는 마크를 갖지 않는 제2이미지(10)를 포함할 수 있다. Referring to FIG. 3 , the image data set learned by the computing device includes a
제1 이미지(40)와 제2이미지(10)는 도1에서 상술한 본 발명의 일실시예 따른 장치(100)에 의해 생성될 수 있다. 예를들어, 시술자가 내시경 기구인 대상체(10a, 40a)를 조작하여 조직의 병변에 도달하고자 할 경우, 대상체의 움직임 경로를 가이드 하기 위하여 부착된 광원이 턴온되어 대상체가 도달되는 지점을 포인팅할 수 있는 마커(X)가 병변에 형성될 수 있다. 이를 카메라가 촬영하게 되면 제1 이미지(40)와 같이 표현된다. 이와는 달리 대상체의 움직임 경로를 가이드 하기 위하여 부착된 광원이 턴온되지 않을 경우, 대상체가 도달되는 지점을 포인팅할 수 있는 마커가 병변에 형성되지 않는다. 이를 카메라가 촬영하게 되면 제2이미지(10)와 같이 표현된다. 이에 따라 제1이미지(40)와 제2이미지(10)는 마커의 차이이외에 다른 이미지는 모두 서로 대응되는 한쌍의 이미지를 형성한다. The
제1 이미지(40)는 디지털 시그널 프로세서(Digital Signal Processor;DSP)와 같은 프로세서(700)에 의해 이미지 처리(Image processing)되어 제1이미지(40)로부터 라벨정보(50)를 생성할 수 있다. 이때, 라벨정보(50)는 앞서 설명한 생체 이미지내에서 인식되는 마커가 형성된 대상을 분류하는 카테고리, 대상의 위치정보 혹은 대상의 크기 혹은 모양, 제1이미지의 비트맵 정보 등을 포함할 수 있다. 이러한 라벨정보(50)에는 마커가 형성되는 대상의 위치 즉, 대상체(40a)가 향후 조직에 도달하는 지점의 제1위치정보를 포함할 수 있다. The
제 2이미지(10)는 기계 학습 모델(710)에 입력되고, 프로세서(700)는 내부에 포함된 기계 학습모델(710)에 기초하여 입력된 제2이미지의 속성정보(30)를 추출할 수 있다. 이때, 속성정보(30)는 제2이미지(10)에 나타난 대상체(10a)의 위치, 대상체가 포인팅하는 방향 및 각도 등에 따라 대상체가 향후 조직에 도달할 지점의 제2 위치정보를 포함할 수 있다. The
제2 이미지(10)에서 대상체가 조직에 도달할 지점의 제2위치정보는 다양한 방법으로 추출될 수 있다. 예를들어, 제2이미지(10)와 쌍을 이루는 제1이미지(40)내의 대상체가 조직에 도달하는 지점의 제1 위치정보의 위치값(x2, y2)과 기계학습 모델을 이용하여 생성한 제2 이미지(10)내에서 대상체가 조직에 도달할 지점의 제2위치정보의 위치값(x1, y1)를 비교하여 제1위치정보의 위치값과 제2위치정보의 위치값이 차이가 나면 역전파(Back-propagation) 방법으로 기계학습 모델이 반복적으로 학습되어 제2위치정보가 추출될 수 있다. In the
도 4는 본 발명의 일 실시예에 따른 컴퓨팅 장치에 의해 생체 이미지내의 대상체의 위치정보를 추출하는 다른 과정을 예시적으로 나타낸 도이다.4 is a diagram illustrating another process of extracting location information of an object in a biometric image by means of a computing device according to an embodiment of the present invention.
도4를 참조하면, 컴퓨팅 장치에 학습되는 이미지 데이터 셋은 도3의 이미지 데이터 셋과 유사함으로 이에 대한 설명은 생략하기로 한다. 제2이미지(10)에서 대상체(10a)가 조직에 도달할 지점의 제2위치정보는 제1이미지 및 제2 이미지를 비트맵으로 이미지 처리하여 이를 비교하여 추출할 수 있다. Referring to FIG. 4 , since an image data set learned by a computing device is similar to the image data set of FIG. 3 , a description thereof will be omitted. The second location information of the point where the
구체적으로, 제2이미지(10)와 쌍을 이루는 제1이미지(40)는 프로세서(700)에 의해 이미지 처리되어 제1비트맵(40b)이 생성되고, 제2이미지(10) 역시 기계학습 모델(710)에 기초하여 프로세서(700)에 의해 이미지 처리되어 제2비트맵(10b)이 생성된다. Specifically, the
프로세서에 의해 생성된 제1 비트맵(40b)과 기계학습 모델에 기초하여 생성된 제2비트맵(10b)의 비트값을 각각 비교하여 손실(Loss or Error)이 발생하면, , 역전파(Backpropagation) 방법으로 기계학습 모델이 반복적으로 학습되어제2 위치정보가 추출될 수 있다.If a loss or error occurs by comparing the bit values of the
도 3과 도 4에서, 기계 학습모델(710)은 도시되지 않았지만 컴퓨터 판독 가능한 기록매체에 입력되어 실행될 수 있고 메모리부(113)나 스토리지 디바이스(115)에 입력되고, 상기 프로세서(700)에 의해 동작되어 실행될 수 있다.3 and 4, the
이와 같이, 생체 이미지들에서 대상체의 속성정보 추출은 컴퓨팅 장치에 의해 수행될 수 있고, 컴퓨팅 장치는 실시간으로 촬영된 생체 이미지 데이터셋을 학습 데이터로 제공받는 장치로써, 기계 학습모델의 수행결과로 학습된 데이터를 생성할 수 있다. 본 실시예에 따른 방법에 속한 각각의 동작을 설명함에 있어서, 그 주체에 대한 기재가 생략된 경우에는 해당 동작의 주체는 상기 컴퓨팅 장치인 것으로 이해될 수 있을 것이다.In this way, the extraction of attribute information of the object from the biometric images can be performed by a computing device, and the computing device is a device that receives a biometric image dataset captured in real time as learning data and learns as a result of performing a machine learning model. data can be generated. In describing each operation belonging to the method according to the present embodiment, if the description of the subject is omitted, it will be understood that the subject of the corresponding operation is the computing device.
위 실시예에서와 같이, 본 발명의 동작 및 방법은 소프트웨어 및 하드웨어의 결합을 통하여 달성되거나 하드웨어만으로 달성될 수 있다는 점을 명확하게 이해할 수 있다. 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 기계 판독 가능한 기록 매체에 기록될 수 있다. 상기 기계 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기계 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. As in the above embodiments, it can be clearly understood that the operation and method of the present invention can be achieved through a combination of software and hardware or can be achieved only by hardware. Objects of the technical solution of the present invention or parts contributing to the prior art may be implemented in the form of program instructions that can be executed through various computer components and recorded on a machine-readable recording medium. The machine-readable recording medium may include program commands, data files, data structures, etc. alone or in combination. Program instructions recorded on the machine-readable recording medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in the art of computer software.
기계 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다.Examples of machine-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine language codes such as those produced by a compiler.
상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 명령어를 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 명령어들을 실행하도록 구성되는 CPU나 GPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 명령어들을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.The hardware device may be configured to act as one or more software modules to perform processing according to the present invention and vice versa. The hardware device may include a processor such as a CPU or GPU coupled to a memory such as ROM/RAM for storing program instructions and configured to execute instructions stored in the memory, and may transmit and receive signals with external devices. A communication unit may be included. In addition, the hardware device may include a keyboard, mouse, and other external input devices for receiving commands written by developers.
도 5는 본 발명의 일 실시예에 따른 컴퓨팅 장치에 의해 생체 이미지내의 대상체의 위치정보를 추출하는 또 다른 과정을 예시적으로 나타낸 도이다.5 is a diagram exemplarily illustrating another process of extracting location information of an object in a biometric image by a computing device according to an embodiment of the present invention.
도5를 참조하면, 컴퓨팅 장치에 학습되는 이미지 데이터 셋은 대상체(60a)가 움직여 조직의 병변에 도달되는 지점이 표시되는 마크를 갖지 않는 제1이미지(60)와 대상체(70a)가 움직여 조직의 병변(Lesion)에 도달되는 지점이 표시되는 마크(X)를 갖는 제2이미지(70)를 포함할 수 있다. 제1 이미지(60)와 제2이미지(70)는 도3에서 상술한 방법과 같은 방법으로 본 발명의 일실시예 따른 장치(100)에 의해 생성될 수 있다.Referring to FIG. 5, the image data set learned by the computing device includes a
제1 이미지(60)는 프로세서(700)에 입력되어 기계학습 모델(710)에 기초하여 복원 이미지(80)를 생성할 수 있다. 기계학습 모델(710)은 U형 신경망(U-net), 오토인코더(Autoencoder) 혹은 역합성곱 신경망(Deconvolution Neural Network)를 포함할 수 있다. 일 예로, 오토인코더는 변분 오토인코더(Varitional Autoencoder)로써 잠재 공간(latent space)에서 대상을 설명하기 위한 확률적 방법(probabilistic manner)으로 실행될 수 있다.The
이에 따라 변분 오토인코더는 각 잠재속성(latent attribute)에 대한 확률 분포(probability distribution)를 설명할 수 있다. 변분 오토인코더는 워크 플로우 동작동안 인코더(11) 및 디코더(13)를 사용할 수 있다. 오토인코더의 인코더(11)에 고차원 데이터가 입력되면 인코더는 고차원 데이터를 저 차원 잠재 변수(Z)로 변환하는 인코딩을 수행한다. 실시예에서 고차원 데이터는 제1이미지(60)일수 있지만 제2이미지의 마크를 복원할 수 있는 데이터이면 어떤 데이터든 이용가능하다. 디코더(13)는 잠재변수(Z)를 복호화하여 복원된 고차원 데이터를 출력할 수 있다. 실시예에서, 복원된 고차원 데이터는 픽셀 정보를 포함하는 복원 이미지일 수 있다. 이때 픽셀 정보는 마커(X)가 생성되는 픽셀의 정보이고, 픽셀정보는 해당 픽셀에서의 계조값(Gray value 1) 혹은 컬러(color 1) 데이터를 포함할 수 있다. Accordingly, the variational autoencoder can describe a probability distribution for each latent attribute. A variational autoencoder may use the
손실 계산기(Loss calculator, 710a)는 손실함수(loss function)를 이용하여 메모리(미도시)에 저장된 비교 데이터와 복원된 고차원 데이터의 차이를 계산할 수 있으며, 오토인코더는 역전파(back-propagation)를 이용하여 손실함수를 최소화하도록 반복적으로 학습될 수 있다. 실시예에서 비교 데이터는 제1이미지(60)와 쌍을 이루며, 마커(X)가 형성된 픽셀정보를 포함하는 제2이미지(70)일 수 있다. 비교 데이터와 복원된 고차원의 데이터 차이 계산은 제1이미지에서 생성된 마커 픽셀 정보와 제2이미지의 마커 픽셀 정보를 비교하여 계산하고, 구체적으론 제1이미지 및 제2이미지의 마커 픽셀들에서의 계조값 혹은 컬러 데이터를 비교하여 계산할 수 있다. The loss calculator (710a) can calculate the difference between the comparison data stored in the memory (not shown) and the restored high-dimensional data using a loss function, and the autoencoder uses back-propagation. It can be repeatedly learned to minimize the loss function using In the embodiment, the comparison data may be a pair with the
도 5에서, 기계 학습모델(710)은 도시되지 않았지만 컴퓨터 판독 가능한 기록매체에 입력되어 실행될 수 있고 메모리부(113)나 스토리지 디바이스(115)에 입력되고, 상기 프로세서(700)에 의해 동작되어 실행될 수 있다.In FIG. 5 , although not shown, the
도 6은 본 발명의 다른 실시예에 따른 대상체의 움직임에 따른 위치정보 예측 방법을 예시적으로 나타낸 흐름도이다.6 is a flowchart exemplarily illustrating a method for predicting location information according to motion of an object according to another embodiment of the present invention.
도6을 참조하면, 대상체가 움직임에 따라 조직의 병변에 도달되는 지점이 표시되는 마크(X)를 갖는 제1이미지와 대상체가 움직임에 따라 조직의 병변에 도달되는 지점이 표시되는 마크를 갖지 않는 제2이미지는 본 발명의 일 실시예에 따른 대상체의 위치정보를 갖는 이미지를 생성하는 장치에 의해 촬영된다.Referring to FIG. 6 , a first image having a mark X indicating a point at which a tissue lesion is reached as an object moves, and a first image having a mark X indicating a point at which a tissue lesion is reached as an object moves The second image is taken by an apparatus for generating an image having location information of an object according to an embodiment of the present invention.
S610단계에서, 제1 이미지와 제1이미지와 쌍을 이루는 제2이미지를 수집할 수 있다. 제1이미지와 제2이미지는 연성 내시경 혹은 복강경 내시경과 같은 카메라를 이용하여 인체 내부의 장기나 조직을 실시간으로 촬영하는 동영상 이미지일 수 있고, 특히, 수술 중 실시간으로 인체 내부를 촬영한 생체 이미지이면 어는 것이든 해당될 수 있다. In step S610, a first image and a second image paired with the first image may be collected. The first image and the second image may be moving image images of organs or tissues inside the human body captured in real time using a camera such as a flexible endoscope or laparoscopic endoscope. Anything can apply.
S630단계에서, 제 1이미지는 프로세서에 의해 이미지 처리되어 마크가 형성된 지점의 제1 위치정보가 생성될 수 있다. 이때 제1위치정보는2차원 평면 좌표값을 포함할 수 있다. 또한, 제 1위치정보는 프로세서에 의해 이미지처리되어 생성된 제1이미지의 비트맵에 기초하여 생성될 수 있다.In step S630, the first image may be image-processed by the processor to generate first location information of a point where a mark is formed. At this time, the first location information may include a two-dimensional plane coordinate value. Also, the first location information may be generated based on a bitmap of the first image generated through image processing by the processor.
S650단계에서, 기계학습 모델에 기초하여 제2이미지내에서 대상체가 움직임에 따라 도달할 지점의 제2위치정보를 추출할 수 있다. 기계 학습모델은 지점의 위치정보를 추출하기 위한 신경망으로 구성될 수 있다. 이때, 제2위치정보는 앞서 생성된 제1위치정보에 기초하여 추출될 수 있다. 또한, 제2 위치정보는 기계학습 모델이 기초하여 프로세서에 의해 이미지처리되어 생성된 제2이미지의 비트맵으로부터 추출될 수 있다. In step S650, based on the machine learning model, second location information of a point to be reached according to the movement of the object in the second image may be extracted. The machine learning model may be composed of a neural network for extracting location information of points. At this time, the second location information may be extracted based on the previously generated first location information. In addition, the second location information may be extracted from a bitmap of a second image generated by image processing by a processor based on a machine learning model.
이에 따라 추출된 제2위치정보를 근거로 이미지내의 대상체가 움직임에 따라 도달할 지점을 예측할 수 있다.Accordingly, based on the extracted second location information, a point to be reached according to the motion of the object in the image may be predicted.
대상체 움직임에 따른 위치정보 추출은 컴퓨팅 장치에 의해 수행될 수 있고, 컴퓨팅 장치는 상술한 제1이미지 및 제2이미지를 학습 데이터로 제공받는 장치로써, 기계 학습모델의 수행결과로 학습된 데이터를 생성할 수 있다. 본 실시예에 따른 방법에 속한 각각의 동작을 설명함에 있어서, 그 주체에 대한 기재가 생략된 경우에는 해당 동작의 주체는 상기 컴퓨팅 장치인 것으로 이해될 수 있을 것이다.Location information extraction according to the movement of the object may be performed by a computing device, which is a device that receives the above-described first image and second image as learning data, and generates learned data as a result of performing the machine learning model. can do. In describing each operation belonging to the method according to the present embodiment, if the description of the subject is omitted, it will be understood that the subject of the corresponding operation is the computing device.
위 실시예에서와 같이, 본 발명의 동작 및 방법은 소프트웨어 및 하드웨어의 결합을 통하여 달성되거나 하드웨어만으로 달성될 수 있다는 점을 명확하게 이해할 수 있다. 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 기계 판독 가능한 기록 매체에 기록될 수 있다. 상기 기계 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기계 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. As in the above embodiments, it can be clearly understood that the operation and method of the present invention can be achieved through a combination of software and hardware or can be achieved only by hardware. Objects of the technical solution of the present invention or parts contributing to the prior art may be implemented in the form of program instructions that can be executed through various computer components and recorded on a machine-readable recording medium. The machine-readable recording medium may include program commands, data files, data structures, etc. alone or in combination. Program instructions recorded on the machine-readable recording medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in the art of computer software.
기계 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다.Examples of machine-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine language codes such as those produced by a compiler.
상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 명령어를 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 명령어들을 실행하도록 구성되는 CPU나 GPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 명령어들을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.The hardware device may be configured to act as one or more software modules to perform processing according to the present invention and vice versa. The hardware device may include a processor such as a CPU or GPU coupled to a memory such as ROM/RAM for storing program instructions and configured to execute instructions stored in the memory, and may transmit and receive signals with external devices. A communication unit may be included. In addition, the hardware device may include a keyboard, mouse, and other external input devices for receiving commands written by developers.
이상과 같이 본 발명에 따른 실시예를 살펴보았으며, 앞서 설명된 실시예 이외에도 본 발명이 그 취지나 범주에서 벗어남이 없이 다른 특정 형태로 구체화될 수 있다는 사실은 해당 기술에 통상의 지식을 가진 이들에게는 자명한 것이다. 그러므로, 상술된 실시예는 제한적인 것이 아니라 예시적인 것으로 여겨져야 하고, 이에 따라 본 발명은 상술한 설명에 한정되지 않고 첨부된 청구항의 범주 및 그 동등 범위 내에서 변경될 수도 있다.As described above, the embodiments according to the present invention have been reviewed, and the fact that the present invention can be embodied in other specific forms in addition to the above-described embodiments without departing from the spirit or scope is apparent to those skilled in the art. It is self-evident to Therefore, the embodiments described above are to be regarded as illustrative rather than restrictive, and thus the present invention is not limited to the above description, but may vary within the scope of the appended claims and their equivalents.
110: 컴퓨팅 장치
111,600,700: 프로세서
113: 메모리부
115: 스토리지 디바이스
117: 입출력 인터페이스
118: 네트웍 어뎁터
119: 디스플레이 어뎁터
130: 디스플레이 디바이스
10,60: 제1이미지
40,80: 제2이미지110: computing device
111,600,700: processor
113: memory unit
115: storage device
117: I/O interface
118: network adapter
119: display adapter
130: display device
10,60: 1st image
40,80: 2nd image
Claims (10)
상기 프로세서에 의해 수행되도록 구현된 하나 이상의 명령어(instructions)를 포함하는 메모리를 포함하고, 상기 프로세서는,
대상체가 움직임에 따라 도달되는 지점을 갖는 제1이미지에 대해 이미지 처리하여 상기 지점의 제1위치정보를 생성하고,
기계학습 모델에 기초하여 상기 제1위치정보에 기반으로 상기 제1이미지와 대응하여 쌍을 이루는 제2이미지내에서 상기 대상체가 움직임에 따라 도달할 지점의 제2위치정보를 추출하는 컴퓨팅 장치.processor; and
a memory comprising one or more instructions implemented to be executed by the processor, the processor comprising:
image processing of a first image having a point reached as the object moves to generate first location information of the point;
A computing device that extracts second location information of a point to be reached as the object moves in a second image paired with the first image based on the first location information based on a machine learning model.
상기 지점의 제2위치정보는 상기 제1위치정보의 위치 값과 상기 제2위치정보의 위치 값이 동일하도록 상기 기계학습 모델에 의해 반복 학습되어 추출되는 것을 특징으로 하는 컴퓨팅 장치.According to claim 1,
The second location information of the point is repeatedly learned and extracted by the machine learning model so that a location value of the first location information and a location value of the second location information are the same.
상기 대상체가 움직임에 따라 도달되는 지점은 마커가 표시되는 것을 특징으로 하는 컴퓨팅 장치.According to claim 1,
A computing device characterized in that a marker is displayed at a point reached by the movement of the object.
상기 제1위치정보 및 상기 제2위치정보는 각각 2차원 좌표값인 것을 특징으로 하는 컴퓨팅 장치.According to claim 1,
The first location information and the second location information are each a two-dimensional coordinate value, characterized in that the computing device.
상기 제1위치정보는 상기 프로세서에 의해 이미지처리 되어 생성된 상기 제1이미지의 비트맵에 기초하여 생성되고,
상기 제2위치정보는 상기 기계학습 모델에 기초하여 상기 프로세서에 의해 이미지처리 되어 생성된 상기 제2이미지의 비트맵으로부터 추출되는 것을 특징으로 하는 컴퓨팅 장치.According to claim 1,
The first location information is generated based on a bitmap of the first image generated through image processing by the processor,
The second location information is extracted from a bitmap of the second image generated by image processing by the processor based on the machine learning model.
상기 제2위치정보는 상기 제1 이미지의 비트맵과 상기 제2이미지의 비트맵이 동일하도록 상기 기계학습 모델에 의해 반복 학습되어 추출되는 것을 특징으로 하는 컴퓨팅 장치.According to claim 5,
The second location information is repeatedly learned and extracted by the machine learning model so that the bitmap of the first image and the bitmap of the second image are the same.
상기 프로세서에 의해 수행되도록 구현된 하나 이상의 명령어(instructions)를 포함하는 메모리를 포함하고, 상기 프로세서는,
기계학습 모델에 기초하여 생체 이미지내에서 대상체가 움직임에 따라 도달할 지점의 위치정보를 추출하고,
상기 위치정보를 상기 생체 이미지내에 표시하여 디스플레이 하는 디스플레이부를 포함하는
대상체 움직임에 따른 위치정보 예측 장치.processor; and
a memory comprising one or more instructions implemented to be executed by the processor, the processor comprising:
Based on a machine learning model, extracting positional information of a point to be reached as the object moves within the biometric image;
A display unit for displaying the location information in the biometric image
A device for predicting location information according to object movement.
상기 프로세서에 의해 수행되도록 구현된 하나 이상의 명령어(instructions)를 포함하는 메모리를 포함하고, 상기 프로세서는,
입력된 제1이미지와 상기 제1이미지와 쌍을 이루고 대상체가 움직임에 따라 도달되는 지점을 표시하는 제1마커의 픽셀정보를 포함하는 제2이미지를 수집하고,
상기 제1이미지를 이용하여 기계 학습모델에 기초하여 제2마커의 픽셀정보를 포함하는 복원 이미지를 생성하고,
상기 기계학습 모델에 기초하여 상기 복원 이미지의 상기 제2마커의 픽셀정보와 상기 제2이미지의 상기 제1마커의 픽셀정보가 일치되도록 하는 컴퓨팅 장치.processor; and
a memory comprising one or more instructions implemented to be executed by the processor, the processor comprising:
Collecting an input first image and a second image including pixel information of a first marker that is paired with the first image and indicates a point to be reached as the object moves;
Using the first image, a reconstructed image including pixel information of a second marker is generated based on a machine learning model;
A computing device configured to match pixel information of the second marker of the reconstructed image with pixel information of the first marker of the second image based on the machine learning model.
상기 기계학습 모델은 U형 신경망(U-net), 오토인코더(Autoencoder), 역합성곱 신경망(Deconvolution Neural Network)를 포함하는 것을 특징으로 하는 컴퓨팅 장치.According to claim 8,
The machine learning model comprises a U-net, an autoencoder, and a deconvolution neural network.
상기 제1 마커 및 제2 마커의 픽셀정보는 상기 마커가 표시된 픽셀에서의 계조값 혹은 컬러 데이터를 포함하는 것을 특징으로 하는 컴퓨팅 장치.
According to claim 8,
The pixel information of the first marker and the second marker includes gradation values or color data of pixels where the markers are displayed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210068467A KR102600615B1 (en) | 2021-05-27 | 2021-05-27 | Apparatus and method for predicting position informaiton according to movement of tool |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210068467A KR102600615B1 (en) | 2021-05-27 | 2021-05-27 | Apparatus and method for predicting position informaiton according to movement of tool |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220161597A true KR20220161597A (en) | 2022-12-07 |
KR102600615B1 KR102600615B1 (en) | 2023-11-10 |
Family
ID=84441061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210068467A KR102600615B1 (en) | 2021-05-27 | 2021-05-27 | Apparatus and method for predicting position informaiton according to movement of tool |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102600615B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190088165A (en) * | 2018-01-18 | 2019-07-26 | 삼성메디슨 주식회사 | Ultrasound probe and manufacturing method for the same |
JP2020036708A (en) * | 2018-09-03 | 2020-03-12 | 株式会社日立製作所 | Surgical operation assistant device and surgical navigation system |
KR102167655B1 (en) | 2019-11-12 | 2020-10-19 | 주식회사 루닛 | Neural network training method for utilizing differences between a plurality of images, and method thereof |
-
2021
- 2021-05-27 KR KR1020210068467A patent/KR102600615B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190088165A (en) * | 2018-01-18 | 2019-07-26 | 삼성메디슨 주식회사 | Ultrasound probe and manufacturing method for the same |
JP2020036708A (en) * | 2018-09-03 | 2020-03-12 | 株式会社日立製作所 | Surgical operation assistant device and surgical navigation system |
KR102167655B1 (en) | 2019-11-12 | 2020-10-19 | 주식회사 루닛 | Neural network training method for utilizing differences between a plurality of images, and method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR102600615B1 (en) | 2023-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108685560B (en) | Automated steering system and method for robotic endoscope | |
Kalinin et al. | Medical image segmentation using deep neural networks with pre-trained encoders | |
KR102531400B1 (en) | Artificial intelligence-based colonoscopy diagnosis supporting system and method | |
US10405832B2 (en) | Ultrasound diagnosis apparatus and method | |
Li et al. | Image-guided navigation of a robotic ultrasound probe for autonomous spinal sonography using a shadow-aware dual-agent framework | |
KR20230165284A (en) | Systems and methods for processing electronic medical images for diagnostic or interventional use | |
CN113662573B (en) | Mammary gland focus positioning method, device, computer equipment and storage medium | |
CN115131290A (en) | Image processing method | |
US20240221154A1 (en) | Method and device for displaying bio-image tissue | |
US12094113B2 (en) | Artificial intelligence-based gastroscopic image diagnosis assisting system and method | |
US20240331354A1 (en) | System and method for processing endoscopy images in real time | |
KR102622932B1 (en) | Appartus and method for automated analysis of lower extremity x-ray using deep learning | |
KR102600615B1 (en) | Apparatus and method for predicting position informaiton according to movement of tool | |
JP7297334B2 (en) | REAL-TIME BODY IMAGE RECOGNITION METHOD AND APPARATUS | |
Song et al. | Two-path augmented directional context aware ultrasound image segmentation | |
EP4407554A1 (en) | Medical image diagnostics assistance device, medical image diagnostics assistance method, and program | |
Lewis et al. | Real time localization of cystoscope angulation in 2d bladder phantom for telecystoscopy | |
CN114650777A (en) | Medical image display apparatus and method of displaying medical image using the same | |
KR20210056884A (en) | Medical image displaying apparatus and method of displaying medical image using thereof | |
US20240005492A1 (en) | Method and system for automatic detection of free intra-abdominal air | |
WO2023075055A1 (en) | Deep learning-based pancreatic cancer vascular invasion classification method and analysis device using endoscopic ultrasound image | |
KR20230129078A (en) | Appartus and method for quantifying lesion in biometric image | |
Du et al. | Polyp Size Estimation by Generalizing Metric Depth Estimation And Monocular 3D Reconstruction | |
KR20240114528A (en) | Appartus and method for automated analysis of knee joint space using deep learning | |
Noh | Review of medical imaging systems, medical imaging data problems, and XAI in the medical imaging field |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |