KR102007656B1 - Method for measuring length using motion sensor and apparatus for the same - Google Patents

Method for measuring length using motion sensor and apparatus for the same Download PDF

Info

Publication number
KR102007656B1
KR102007656B1 KR1020170139581A KR20170139581A KR102007656B1 KR 102007656 B1 KR102007656 B1 KR 102007656B1 KR 1020170139581 A KR1020170139581 A KR 1020170139581A KR 20170139581 A KR20170139581 A KR 20170139581A KR 102007656 B1 KR102007656 B1 KR 102007656B1
Authority
KR
South Korea
Prior art keywords
lesion
motion sensor
size
endoscope
sensor data
Prior art date
Application number
KR1020170139581A
Other languages
Korean (ko)
Other versions
KR20190046239A (en
Inventor
심우현
성유섭
양동훈
Original Assignee
재단법인 아산사회복지재단
울산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 아산사회복지재단, 울산대학교 산학협력단 filed Critical 재단법인 아산사회복지재단
Priority to KR1020170139581A priority Critical patent/KR102007656B1/en
Publication of KR20190046239A publication Critical patent/KR20190046239A/en
Application granted granted Critical
Publication of KR102007656B1 publication Critical patent/KR102007656B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)

Abstract

내시경 장치에 의해 수행되는 모션 센서를 활용한 실제 길이 측정 방법이 제공된다. 상기 실제 길이 측정 방법은 내시경 시술 훈련자를 지시하는 제1사용자의 손의 움직임을 기초로 저장된 제1모션 센서 데이터, 가상 병변 영상, 가상 병변 크기를 지시하는 학습 데이터를 획득하는 단계; 상기 학습 데이터를 기초로 병변크기산출모델을 생성하는 단계; 상기 내시경 장치의 모션 센서를 통해 실제 내시경 시술자를 지시하는 제2사용자의 손의 움직임을 기초로 제2모션 센서 데이터를 획득하는 단계; 상기 내시경 장치의 카메라를 통해 병변 영상을 획득하는 단계; 및 상기 제2모션 센서 데이터에 따른 상기 병변 영상을 상기 병변크기산출모델에 입력하여 병변의 크기를 산출하는 단계를 포함한다.An actual length measuring method using a motion sensor performed by an endoscope device is provided. The actual length measuring method may include obtaining first motion sensor data, a virtual lesion image, and training data indicating a virtual lesion size based on a movement of a first user's hand instructing an endoscopy trainer; Generating a lesion size calculation model based on the training data; Acquiring second motion sensor data based on a movement of a second user's hand instructing the actual endoscope operator through the motion sensor of the endoscope device; Acquiring a lesion image through a camera of the endoscope device; And calculating the size of the lesion by inputting the lesion image according to the second motion sensor data to the lesion size calculation model.

Description

모션 센서를 활용한 길이 측정 방법 및 장치{METHOD FOR MEASURING LENGTH USING MOTION SENSOR AND APPARATUS FOR THE SAME}METHOD FOR MEASURING LENGTH USING MOTION SENSOR AND APPARATUS FOR THE SAME}

본 발명은 모션 센서를 활용한 실제 길이 측정 방법 및 장치에 관한 것이다. The present invention relates to an actual length measuring method and apparatus using a motion sensor.

일반적으로 내시경 시술은 인체를 크게 절개하지 않고 작은 구멍을 통해 카메라가 설치된 내시경과 각종 시술 도구를 삽입하여, 내시경을 통해 보이는 영상을 통해 환부를 살피면서 시술을 진행하는 것이다. 이러한 내시경 시술은 대부분 구강, 항문 등을 이용하므로, 개복 시술과 달리 절개 부위 및 흉터가 없고, 회복시간이 빠르다는 장점이 있다. 내시경 및 도구의 개발이 진행됨에 따라서 이전에는 개복 시술이 필요한 질환 중 많은 부분에서 내시경 시술이 가능할 정도로 발전되었으며, 다른 의료분야에서도 내시경 시술을 적용하는 경우가 늘고 있다.In general, endoscopy is performed by inserting an endoscope and various surgical tools installed with a camera through a small hole without largely dissecting the human body, and performing the procedure while looking at the affected part through the image seen through the endoscope. Since the endoscopic procedure mostly uses the oral cavity, anus, etc., unlike the open surgery, there is no incision site and no scar, and the recovery time is fast. As the development of endoscopy and tools has progressed, endoscopy has been developed in many of the diseases requiring open surgery, and endoscopy has been increasingly applied in other medical fields.

일 예로, 내시경을 구강으로 삽입하여, 식도, 십이지장을 관찰하고, 필요 시 소장으로 삽입하여 관찰이 가능하고, 또는 항문을 통해 대장으로 삽입해가면서 내시경에 장착된 카메라를 통해 제공되는 영상을 통해 각 장기의 내부를 관찰, 진단, 또는 치료가 가능하다. 많은 경우에서, 내시경을 통해 장기의 내부에 발생한 여러 질환을 진단하고, 더 나아가서는 치료, 즉 출혈 시 지혈 치료, 조기암이나 폴립 등의 절제, 누공 등의 문합 등의 처치가 가능하게 되었다.For example, the endoscope is inserted into the oral cavity, the esophagus and duodenum are observed, and if necessary, the small intestine can be inserted into the small intestine. Internal organs can be observed, diagnosed, or treated. In many cases, endoscopy has been used to diagnose various diseases occurring inside the organs, and furthermore, treatments such as hemostasis at bleeding, ablation of early cancer or polyps, anastomosis such as fistulas, etc. are possible.

내시경을 통해서 병변을 볼 때 병변의 실제 크기를 측정하는 것이 진단, 치료 및 환자의 예후에 있어서 매우 중요한 항목이다. 현재 대부분의 내시경 장비는 병변의 크기를 실측할 수 있는 방법을 제공하지 않는다. 구체적으로, 대부분의 내시경 장비는 병변의 실제 크기 측정을 위해 시술자의 생검겸자를 완전히 열었을 때의 길이를 이용한다. 일부 내시경 장비에서는 렌즈 옆에 내시경용 자를 붙이는 방법을 사용하기도 하지만, 가격이 비싸서 일반적으로 사용되지 않고, 병변의 크기가 커서 한 번에 계측하기 어려운 경우 또는 영상의 여러 부분을 측정해야 하는 경우 자를 여러 번 대는 것도 쉽지 않아서 잘 사용되지 않고 있다. 정리하면, 종래에는 내시경을 통해서 병변을 볼 때 경험에 의존해서 크기를 예상하는 문제가 있었다.When viewing lesions through endoscopy, measuring the actual size of the lesions is a very important item in diagnosis, treatment, and patient prognosis. Currently, most endoscopy equipment does not provide a way to measure the size of the lesion. Specifically, most endoscopy equipment uses the length of the operator's biopsy forceps fully open to measure the actual size of the lesion. Some endoscopy instruments use a method of attaching an endoscope to the side of the lens, but they are expensive and are not commonly used. If the lesion is large and difficult to measure at once, or if you need to measure different parts of the image, It is not easy to change it, so it is not used well. In summary, conventionally, when viewing a lesion through an endoscope, there was a problem of estimating size depending on experience.

공개특허공보 제10-2017-0078489호, 2017.07.07Publication No. 10-2017-0078489, 2017.07.07

본 발명이 해결하고자 하는 과제는 모션 센서와 이미지 변화의 조합을 통한 병변의 실제 길이 측정 방법 및 장치를 제공하는 것이다.The problem to be solved by the present invention is to provide a method and apparatus for measuring the actual length of the lesion through a combination of motion sensor and image change.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Problems to be solved by the present invention are not limited to the above-mentioned problems, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 내시경 장치에 의해 수행되는 모션 센서를 활용한 길이 측정 방법은, 내시경 시술 훈련자를 지시하는 제1사용자의 손의 움직임을 기초로 저장된 제1모션 센서 데이터, 가상 병변 영상, 가상 병변 크기를 지시하는 학습 데이터를 획득하는 단계; 상기 학습 데이터를 기초로 병변크기산출모델을 생성하는 단계; 상기 내시경 장치의 모션 센서를 통해 내시경 시술자를 지시하는 제2사용자의 손의 움직임을 기초로 제2모션 센서 데이터를 획득하는 단계; 상기 내시경 장치의 카메라를 통해 병변 영상을 획득하는 단계; 및 상기 제2모션 센서 데이터에 따른 상기 병변 영상을 상기 병변크기산출모델에 입력하여 병변의 크기를 산출하는 단계를 포함한다.The length measuring method using a motion sensor performed by the endoscope device according to an embodiment of the present invention for solving the above problems, the first stored based on the movement of the hand of the first user instructing the endoscope training trainer Obtaining training data indicating motion sensor data, virtual lesion image, and virtual lesion size; Generating a lesion size calculation model based on the training data; Acquiring second motion sensor data based on a movement of a hand of a second user instructing an endoscope operator through a motion sensor of the endoscope device; Acquiring a lesion image through a camera of the endoscope device; And calculating the size of the lesion by inputting the lesion image according to the second motion sensor data to the lesion size calculation model.

여기서, 상기 학습 데이터는, 상기 내시경 장치가 가상의 신체 내부 모형을 지시하는 내시경 시술 시뮬레이터 내부를 탐사할 경우, 상기 제1모션 센서 데이터에 따른 상기 내시경 시술 시뮬레이터 내의 상기 병변 영상의 크기 변화와 병변의 크기와의 상관관계에 관한 정보를 포함할 수 있다.Here, the learning data, the size of the lesion image in the endoscope surgical simulator according to the first motion sensor data when the endoscope device to explore the inside of the endoscope surgical simulator indicating a virtual internal model of the lesion It may include information about the correlation with the size.

여기서, 상기 학습 데이터는, 상기 내시경 장치가 신체 내부를 탐사할 경우, 상기 제1모션 센서 데이터에 따른 상기 신체 내의 상기 병변 영상의 크기 변화와 병변의 크기와의 상관관계에 관한 정보를 포함할 수 있다.Here, the learning data may include information about a correlation between the size change of the lesion image and the size of the lesion according to the first motion sensor data when the endoscope device detects the inside of the body. have.

여기서, 상기 병변크기산출모델은, 심층신경망(Deep Neural Network; DNN)을 이용한 딥러닝 알고리즘을 통해 구축될 수 있다.Here, the lesion size calculation model may be constructed through a deep learning algorithm using a deep neural network (DNN).

여기서, 제2사용자로부터 상기 병변의 종류에 대한 정보를 획득할 경우,Here, when obtaining information on the type of the lesion from the second user,

상기 병변의 종류 및 상기 병변의 크기에 따른 치료법을 출력하는 단계를 더 포함할 수 있다.The method may further include outputting a treatment method according to the type of the lesion and the size of the lesion.

여기서, 상기 병변의 크기에 관한 정보를 출력하는 단계;를 더 포함할 수 있다.The method may further include outputting information about the size of the lesion.

여기서, 상기 제2모션 센서 데이터에 따른 상기 병변 영상을 기초로 상기 병변의 3차원 이미지를 추출하여 출력할 수 있다.Here, the 3D image of the lesion may be extracted and output based on the lesion image according to the second motion sensor data.

상술한 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 길이를 측정하는 모션 센서가 탑재된 내시경 장치는, 프로세서(processor); 및 상기 프로세서를 통해 실행되는 적어도 하나의 명령이 저장된 메모리(memory)를 포함하고, 상기 적어도 하나의 명령은, 내시경 시술 훈련자를 지시하는 제1사용자의 손의 움직임을 기초로 저장된 제1모션 센서 데이터, 가상 병변 영상, 가상 병변 크기를 지시하는 학습 데이터를 획득하고, 상기 학습 데이터를 기초로 병변크기산출모델을 생성하고, 상기 내시경 장치의 모션 센서를 통해 내시경 시술자를 지시하는 제2사용자의 손의 움직임을 기초로 제2모션 센서 데이터를 획득하고, 상기 내시경 장치의 카메라를 통해 병변 영상을 획득하고, 그리고 상기 제2모션 센서 데이터에 따른 상기 병변 영상을 기초로 병변의 크기를 산출하도록 실행 가능하다.An endoscope apparatus equipped with a motion sensor for measuring a length according to another embodiment of the present invention for solving the above problems is a processor; And a memory in which at least one instruction executed by the processor is stored, wherein the at least one instruction is stored in the first motion sensor data based on a movement of a hand of a first user instructing an endoscopy trainer. Acquiring training data indicating a virtual lesion image, virtual lesion size, generating a lesion size calculation model based on the training data, and instructing an endoscope operator through a motion sensor of the endoscope device. Obtaining second motion sensor data based on movement, acquiring a lesion image through a camera of the endoscope device, and calculating a size of the lesion based on the lesion image according to the second motion sensor data. .

여기서, 상기 학습 데이터는, 상기 내시경 장치가 가상의 신체 내부 모형을 지시하는 내시경 시술 시뮬레이터 내부를 탐사할 경우, 상기 제1모션 센서 데이터에 따른 상기 내시경 시술 시뮬레이터 내의 상기 병변 영상의 크기 변화와 병변의 크기와의 상관관계에 관한 정보를 포함하도록 실행 가능할 수 있다.Here, the learning data, the size of the lesion image in the endoscope surgical simulator according to the first motion sensor data when the endoscope device to explore the inside of the endoscope surgical simulator indicating a virtual internal model of the lesion It may be feasible to include information regarding correlation with size.

여기서, 상기 학습 데이터는, 상기 내시경 장치가 신체 내부를 탐사할 경우, 상기 제1모션 센서 데이터에 따른 상기 신체 내의 상기 병변 영상의 크기 변화와 병변의 크기와의 상관관계에 관한 정보를 포함하도록 실행 가능할 수 있다.Here, when the endoscope device detects the inside of the body, the learning data is executed to include information on a correlation between a change in the size of the lesion image and the size of the lesion in the body according to the first motion sensor data. It may be possible.

상술한 과제를 해결하기 위한 본 발명의 또 다른 실시예에 따른 내시경 장치에 의해 수행되는 모션 센서를 활용한 길이 측정 방법은, 상기 내시경 장치의 모션 센서를 통해 내시경 시술자를 지시하는 제2사용자의 손의 움직임을 기초로 제2모션 센서 데이터를 획득하는 단계; 상기 내시경 장치의 카메라를 통해 병변 영상을 획득하는 단계; 및 상기 제2모션 센서 데이터에 따른 상기 병변 영상을 미리 획득된 병변크기산출모델에 입력하여 병변의 크기를 산출하는 단계를 포함하며, 상기 병변크기산출모델은 내시경 시술 훈련자를 지시하는 제1사용자의 손의 움직임을 기초로 저장된 제1모션 센서 데이터, 가상 병변 영상 및 가상 병변 크기 사이의 상관관계를 모델링한 산출모델이다.Length measurement method using a motion sensor performed by the endoscope device according to another embodiment of the present invention for solving the above problems, the hand of the second user instructing the endoscope operator through the motion sensor of the endoscope device Acquiring second motion sensor data based on a motion of the second motion sensor data; Acquiring a lesion image through a camera of the endoscope device; And calculating the size of the lesion by inputting the lesion image according to the second motion sensor data to a previously obtained lesion size calculation model, wherein the lesion size calculation model includes a first user's instruction indicating an endoscopy training trainer. It is a calculation model that models the correlation between the stored first motion sensor data, the virtual lesion image, and the virtual lesion size based on the movement of the hand.

상술한 과제를 해결하기 위한 본 발명의 또 다른 실시예에 따른 내시경 장치에 의해 수행되는 모션 센서를 활용한 길이 측정 방법은, 내시경 시술 훈련자를 지시하는 제1사용자의 손의 움직임을 기초로 저장된 제1모션 센서 데이터를 획득하는 단계; 상기 제1모션 센서 데이터에 대응하는 가상 병변 영상을 획득하는 단계; 미리 설정된 가상 병변 크기를 획득하는 단계; 상기 제1모션 센서 데이터, 상기 가상 병변 영상 및 상기 가상 병변 크기를 지시하는 학습 데이터를 기초로 상기 제1모션 센서 데이터, 상기 가상 병변 영상 및 상기 가상 병변 크기 사이의 상관관계를 지시하는 병변크기산출모델을 생성하는 단계를 포함하며, 상기 병변크기산출모델은 내시경 시술자를 지시하는 제2사용자의 손의 움직임을 기초로 제2모션 센서 데이터 및 병변 영상이 입력되어 병병 크기 산출에 이용된다.According to another aspect of the present invention, there is provided a method of measuring length using a motion sensor performed by an endoscope apparatus, wherein the length measurement method is performed based on a movement of a first user's hand instructing an endoscopy trainee. Acquiring one motion sensor data; Obtaining a virtual lesion image corresponding to the first motion sensor data; Obtaining a preset virtual lesion size; Calculating lesion size indicating correlation between the first motion sensor data, the virtual lesion image, and the virtual lesion size based on the first motion sensor data, the virtual lesion image, and training data indicating the virtual lesion size And generating a model, wherein the lesion size calculation model is input with second motion sensor data and a lesion image based on a movement of a second user's hand instructing an endoscope operator and used to calculate a disease size.

상술한 과제를 해결하기 위한 본 발명의 또 다른 실시예에 따른 길이를 측정하는 모션 센서가 탑재된 내시경 장치는, 프로세서(processor); 및 상기 프로세서를 통해 실행되는 적어도 하나의 명령이 저장된 메모리(memory)를 포함하고, 상기 적어도 하나의 명령은, 상기 내시경 장치의 모션 센서를 통해 내시경 시술자를 지시하는 제2사용자의 손의 움직임을 기초로 제2모션 센서 데이터를 획득하고, 상기 내시경 장치의 카메라를 통해 병변 영상을 획득하고, 그리고 상기 제2모션 센서 데이터에 따른 상기 병변 영상을 미리 획득된 병변크기산출모델에 입력하여 병변의 크기를 산출하도록 실행되며, 상기 병변크기산출모델은 내시경 시술 훈련자를 지시하는 제1사용자의 손의 움직임을 기초로 저장된 제1모션 센서 데이터, 가상 병변 영상 및 가상 병변 크기 사이의 상관관계를 모델링한 산출모델이다.An endoscope apparatus equipped with a motion sensor for measuring a length according to another embodiment of the present invention for solving the above problems is a processor; And a memory storing at least one instruction executed by the processor, wherein the at least one instruction is based on a movement of a second user's hand instructing the endoscope operator through a motion sensor of the endoscope device. Acquire a second motion sensor data, obtain a lesion image through the camera of the endoscope device, and input the lesion image according to the second motion sensor data into a previously obtained lesion size calculation model to determine the size of the lesion. The lesion size calculation model is a calculation model modeling a correlation between the first motion sensor data, the virtual lesion image, and the virtual lesion size stored based on the movement of the first user's hand instructing the endoscopy trainer. to be.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

본 발명에 의하면 내시경 검사 및 소견에서 정확하고 객관적인 병변의 크기를 측정할 수 있게 됨으로써 진단 정확도가 높아지는 효과가 있다.According to the present invention, accurate and objective lesion size can be measured in endoscopy and findings, thereby increasing diagnostic accuracy.

또한, 병변의 크기를 기초로 향후 치료 계획에 방향을 쉽게 수립할 수 있어 치료에 도움이 되는 효과가 있다.In addition, since the direction of the future treatment plan can be easily established based on the size of the lesion, there is an effect helpful for treatment.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 내시경 장치의 구성을 도시한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 내시경 장치의 동작 방법을 도시한 흐름도이다.
도 3은 내시경 시술 시뮬레이터의 구조를 도시한 개념도이다.
도 4는 내시경 시술 시뮬레이터의 결합공에 병변모형들이 암수 결합된 구조를 도시한 개념도이다.
도 5는 병변모형의 실시예를 도시한 정면도이다.
1 is a block diagram showing the configuration of an endoscope apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating a method of operating an endoscope device according to an embodiment of the present invention.
3 is a conceptual diagram illustrating the structure of an endoscopic procedure simulator.
4 is a conceptual diagram illustrating a structure in which the lesion models are male and female coupled to the coupling holes of the endoscopic procedure simulator.
5 is a front view showing an embodiment of the lesion model.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but can be embodied in various different forms, and the present embodiments only make the disclosure of the present invention complete, and those of ordinary skill in the art to which the present invention belongs. It is provided to fully inform the skilled worker of the scope of the invention, which is defined only by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, "comprises" and / or "comprising" does not exclude the presence or addition of one or more other components in addition to the mentioned components. Like reference numerals refer to like elements throughout, and "and / or" includes each and all combinations of one or more of the mentioned components. Although "first", "second", etc. are used to describe various components, these components are of course not limited by these terms. These terms are only used to distinguish one component from another. Therefore, of course, the first component mentioned below may be a second component within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms used in the present specification (including technical and scientific terms) may be used in a sense that can be commonly understood by those skilled in the art. In addition, terms that are defined in a commonly used dictionary are not ideally or excessively interpreted unless they are specifically defined clearly.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작 시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.The spatially relative terms " below ", " beneath ", " lower ", " above ", " upper " It can be used to easily describe a component's correlation with other components. Spatially relative terms are to be understood as including terms in different directions of components in use or operation in addition to the directions shown in the figures. For example, when flipping a component shown in the drawing, a component described as "below" or "beneath" of another component may be placed "above" the other component. Can be. Thus, the exemplary term "below" can encompass both an orientation of above and below. Components may be oriented in other directions as well, so spatially relative terms may be interpreted according to orientation.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명은 컴퓨터에서 수행될 수 있다. 본 명세서에서 컴퓨터는 연산처리를 수행하여 사용자에게 결과를 시각적으로 제시할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 의료영상을 획득하거나 관찰하는 의료장비도 해당될 수 있다(예를 들어, 내시경 장치 등). 본 발명의 방법은 컴퓨터뿐만 아니라 내시경 장치(10)에서도 수행될 수 있다. 아래에는, 본 발명의 일 실시예로서 내시경 장치(10)를 통해 실제 길이를 측정하는 과정이 상세하게 기술되어 있다.The invention can be carried out on a computer. In the present specification, a computer includes all of various devices capable of performing arithmetic processing to present a result visually to a user. For example, a computer may also be a medical device for acquiring or observing a medical image (eg, an endoscope device). The method of the present invention may be performed on the endoscope device 10 as well as a computer. In the following, the process of measuring the actual length through the endoscope device 10 as an embodiment of the present invention is described in detail.

도 1을 참조하면, 내시경 장치(10)는 적어도 하나의 프로세서(또는 제어 장치)(100), 저장 장치(110), 모션 센서(120), 카메라(130), 디스플레이(140), 송수신부(150) 등을 포함할 수 있다. Referring to FIG. 1, the endoscope device 10 may include at least one processor (or control device) 100, a storage device 110, a motion sensor 120, a camera 130, a display 140, and a transceiver ( 150) and the like.

프로세서(100)는 저장 장치(110)에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(100)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU), 또는 본 발명의 실시예들에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 저장 장치(110) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 저장 장치(110)는 읽기 전용 메모리(read only memory, ROM) 및 랜덤 액세스 메모리(random access memory, RAM) 중에서 적어도 하나로 구성될 수 있다.The processor 100 may execute a program command stored in the storage device 110. The processor 100 may refer to a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to embodiments of the present invention are performed. Each storage device 110 may be configured as at least one of a volatile storage medium and a nonvolatile storage medium. For example, the storage device 110 may be configured as at least one of a read only memory (ROM) and a random access memory (RAM).

내시경 장치(10)는 손잡이 부분에 모션센서(120)를 포함할 수 있다. 내시경 장치(10)의 투입부의 움직임은 내시경 장치(10)를 사용하는 사용자의 손 움직임을 기초로 결정될 수 있다. 여기서, 투입부는 내시경 장치(10)의 구성 중 사람의 신체 내부로 투입되는 구성을 지시할 수 있다. 내시경 장치(10)는 모션 센서(120)를 통해 내시경 장치(10)의 손잡이를 통해 내시경 장치(10)를 조작하는 사용자의 손의 움직임을 인지할 수 있다. 내시경 장치(10)는 사용자의 손의 움직임을 지시하는 제1모션 센서 데이터 또는 제2모션 센서 데이터를 획득할 수 있다.The endoscope device 10 may include a motion sensor 120 in the handle portion. The movement of the input portion of the endoscope device 10 may be determined based on a hand movement of a user who uses the endoscope device 10. Here, the input unit may instruct the configuration that is input into the body of the person of the configuration of the endoscope device 10. The endoscope device 10 may recognize a movement of a user's hand that manipulates the endoscope device 10 through the handle of the endoscope device 10 through the motion sensor 120. The endoscope device 10 may acquire first motion sensor data or second motion sensor data indicating a movement of a user's hand.

모션 센서 데이터는 제1사용자로부터 획득된 제1모션 센서 데이터와 제2사용자로부터 획득된 제2모션 센서 데이터가 있을 수 있다. 여기서, 제1사용자는 내시경 시술 시뮬레이터(30)를 기초로 내시경을 수행한 자 또는 실제 사람의 신체를 대상으로 내시경을 수행한 자일 수 있다. 제1사용자는 단순히 학습 데이터를 축적하는 자일 수 있다. 여기서 제2사용자는 실제 사람의 신체를 대상으로 내시경을 수행하는 자를 지시할 수 있다.The motion sensor data may include first motion sensor data obtained from a first user and second motion sensor data obtained from a second user. Here, the first user may be a person who performs an endoscope based on the endoscope operation simulator 30 or a person who performs an endoscope on an actual human body. The first user may simply be an accumulator of learning data. Here, the second user may indicate a person who performs an endoscope on a body of an actual person.

여기서, 학습 데이터는 제1모션 센서 데이터에 따른 병변 영상을 기초로 가상 병변의 크기를 추출하는데 사용될 수 있는 데이터 세트(또는 데이터셋)(data set)를 지시할 수 있다. 즉, 학습 데이터는 동일 시점에서 제1모션 센서 데이터, 병변 영상, 병변 크기를 지시하는 데이터 일 수 있다. 또한, 학습 데이터는 가상의 신체 내부 모형을 지시하는 내시경 시술 시뮬레이터(30)를 기초로 제1사용자에 의해 저장된 데이터 일 수 있다.Here, the training data may indicate a data set (or data set) that may be used to extract the size of the virtual lesion based on the lesion image according to the first motion sensor data. That is, the training data may be data indicating the first motion sensor data, the lesion image, and the lesion size at the same time. In addition, the training data may be data stored by the first user based on the endoscopic surgery simulator 30 indicating the virtual body model.

학습 데이터는 내시경 시술 훈련자를 지시하는 제1사용자의 손의 움직임을 기초로 저장된 제1모션 센서 데이터를 획득하는 단계, 상기 제1모션 센서 데이터에 대응하는 가상 병변 영상을 획득하는 단계, 미리 설정된 가상 병변 크기를 획득하는 단계를 통해 획득될 수 있다.The training data may include obtaining first motion sensor data stored on the basis of a movement of a first user's hand instructing the endoscope surgical trainer, acquiring a virtual lesion image corresponding to the first motion sensor data, and preset virtual It may be obtained through the step of obtaining the lesion size.

여기서, 제1모션 센서 데이터는 내시경 장치(10)의 손잡이 부분에 부착된 모션 센서(120)로부터 획득된 데이터를 의미한다. 모션 센서(120)는 제1사용자에 의한 내시경 장치(10)의 손잡이의 움직임을 인지하고, 이를 데이터화 할 수 있다.Here, the first motion sensor data refers to data obtained from the motion sensor 120 attached to the handle portion of the endoscope device 10. The motion sensor 120 may recognize the movement of the handle of the endoscope device 10 by the first user, and may data it.

내시경 장치(10)는 내시경 대상을 촬영할 수 있는 카메라(130)를 포함할 수 있다. 내시경 장치(10)는 카메라(130)를 통해 병변 영상을 획득할 수 있다. 카메라(130)가 신체 내부의 다른 구성들과 병변을 구별하기 위해서는 아래와 같은 처리가 필요할 수 있다.The endoscope device 10 may include a camera 130 capable of capturing an endoscope object. The endoscope device 10 may acquire a lesion image through the camera 130. In order for the camera 130 to distinguish the lesion from other components inside the body, the following processing may be necessary.

내시경 장치(10)의 카메라(130)는 이미지 프로세싱(image processing)을 통해 영상데이터 내에서 병변 영상을 획득할 수 있다. 이미지 프로세싱이란 기존의 이미지에 대해 내시경 장치를 이용하여 새로운 이미지로 창작하거나 수정하는 일련의 작업 과정을 의미할 수 있다. 이미지 프로세싱 방법은, 카메라(130)로부터 이미지를 전송 받아 그레빙(grabbing), 필터링(filtering), 이진화(thresholding), 세선화(thinning), 프로파일링(profiling)으로 이루어지는 후속 처리들과 동시에 수행될 수 있다.The camera 130 of the endoscope apparatus 10 may acquire a lesion image in image data through image processing. Image processing may refer to a series of processes for creating or modifying a new image using an endoscope device for an existing image. The image processing method receives the image from the camera 130 and is performed simultaneously with subsequent processing consisting of grabbing, filtering, thresholding, thinning, and profiling. Can be.

내시경 장치(10)는 제2모션 센서 데이터에 따른 병변 영상을 기초로 병변의 크기를 산출할 수 있다. 내시경 장치(10)에 포함된 카메라(130)에서 촬영된 영상은 내시경 장치(10)에 포함된 디스플레이(140)를 통해 출력될 수 있다. 또한 내시경 장치(10)는 제2모션 센서 데이터에 따른 병변 영상을 기초로 병변의 3D 이미지를 추출할 수 있다.The endoscope apparatus 10 may calculate the size of the lesion based on the lesion image according to the second motion sensor data. An image captured by the camera 130 included in the endoscope device 10 may be output through the display 140 included in the endoscope device 10. In addition, the endoscope apparatus 10 may extract a 3D image of the lesion based on the lesion image according to the second motion sensor data.

내시경 장치(10)가 독자적으로 연산이 가능한 장치인 경우 내시경 장치(10)는 제1사용자에 의해 저장된 제1모션 센서 데이터, 병변 영상, 병변 크기를 지시하는 학습 데이터를 자체적으로 획득할 수 있다.When the endoscope device 10 is a device that can be independently operated, the endoscope device 10 may itself acquire first motion sensor data, a lesion image, and learning data indicating a lesion size stored by the first user.

내시경 장치(10)가 내시경 장치와 독립한 장치일 경우, 내시경 장치(10)는 송수신부(150)를 통해 내시경 장치로부터 제1사용자에 의해 저장된 제1모션 센서 데이터, 병변 영상, 병변 크기를 지시하는 학습 데이터를 획득할 수 있다.When the endoscope device 10 is a device independent of the endoscope device, the endoscope device 10 indicates the first motion sensor data, the lesion image, the lesion size stored by the first user from the endoscope device through the transceiver 150. Learning data can be obtained.

이하, 도면을 참조하여, 본 발명의 일 실시예에 따른 모션 센서를 활용한 실제 길이 측정 방법을 설명한다.Hereinafter, an actual length measuring method using a motion sensor according to an embodiment of the present invention will be described with reference to the drawings.

도 2를 참조하면, 내시경 장치(10)는 가상의 신체 내부 모형을 지시하는 내시경 시술 시뮬레이터(30)를 기초로 저장된 제1모션 센서 데이터, 병변 영상, 병변 크기를 지시하는 학습 데이터를 획득한다(S200; 학습 데이터 획득단계). 여기서 병변 영상은 실제 사람의 신체 내에서 발견될 수 있는 실제 병변 영상 또는 내시경 시술 시뮬레이터(30) 내에서 발견될 수 있는 가상 병변 영상일 수 있고, 병변 크기는 실제 사람의 신체 내에서 발견될 수 있는 실제 병변 크기 또는 내시경 시술 시뮬레이터(30) 내에서 발견될 수 있는 가상 병변 크기일 수 있다. Referring to FIG. 2, the endoscope apparatus 10 acquires stored first motion sensor data, a lesion image, and learning data indicating a lesion size based on an endoscopic surgery simulator 30 that indicates a virtual internal model of the body ( S200: learning data acquisition step). Here, the lesion image may be a real lesion image that may be found in a real person's body or a virtual lesion image that may be found in an endoscopy simulator 30, and the lesion size may be found in a real person's body. It may be the actual lesion size or the virtual lesion size that can be found within the endoscopic procedure simulator 30.

일 실시예로, 내시경 장치(10)가 독자적으로 연산이 가능한 장치인 경우, 내시경 장치(10)는 제1사용자에 의해 저장된 제1모션 센서 데이터, 병변 영상, 병변 크기를 지시하는 학습 데이터를 자체적으로 획득할 수 있다.In an embodiment, when the endoscope device 10 is a device that can be independently operated, the endoscope device 10 may itself include first motion sensor data, a lesion image, and learning data indicating a lesion size stored by a first user. Can be obtained by.

다른 일 실시예로, 내시경 장치(10)가 컴퓨터와 유선 또는 무선으로 연결된 별도의 컴퓨팅 장치인 경우, 내시경 장치(10)는 송수신부(150)를 통해 컴퓨터로부터 제1사용자에 의해 저장된 제1모션 센서 데이터, 병변 영상, 병변 크기를 지시하는 학습 데이터를 획득할 수 있다.In another embodiment, when the endoscope device 10 is a separate computing device that is wired or wirelessly connected to the computer, the endoscope device 10 may have a first motion stored by the first user from the computer through the transceiver 150. Sensor data, a lesion image, and learning data indicating a lesion size may be acquired.

학습 데이터는 제1모션 센서 데이터, 병변 영상, 병변 크기를 지시하는 데이터를 포함하는 데이터 세트일 수 있다. 제1모션 센서 데이터는 내시경 장치(10)의 손잡이 부분에 탑재된 모션 센서(120)에 의해 측정될 수 있다. 제1모션 센서 데이터는 제1사용자의 조작에 의한 내시경 장치(10)의 움직임을 모션 센서(120)로 시간의 흐름에 따라 측정한 데이터일 수 있다.The training data may be a data set including first motion sensor data, a lesion image, and data indicating a lesion size. The first motion sensor data may be measured by the motion sensor 120 mounted on the handle portion of the endoscope device 10. The first motion sensor data may be data obtained by measuring the movement of the endoscope device 10 by the operation of the first user with the motion sensor 120 over time.

병변 영상은 내시경 장치(10)의 투입부에 탑재된 카메라(130)에 의해 측정될 수 있다. 병변 영상은 제1사용자의 조작에 의한 카메라(130)의 움직임에 따라 촬영되는 인체 내부(또는 후술할 내시경 시술 시뮬레이터(30))의 영상을 시간의 흐름에 따라 측정한 영상일 수 있다. 학습 데이터와 병변 영상은 동일 시점에서 획득될 수 있고, 동일 시점에서 획득된 학습 데이터와 병변 영상은 하나의 묶음으로서, 후술할 병변크기산출모델에서 병변 크기를 산출하기 위해 사용될 수 있다. 즉, 특정 시점에서 모션 센서 데이터에 따른 병변 영상을 기초로 병변 크기를 산출할 수 있다. 병변 크기는 인체 내부(또는 내시경 시술 시뮬레이터(30))의 병변의 크기일 수 있다. The lesion image may be measured by the camera 130 mounted on the input unit of the endoscope device 10. The lesion image may be an image obtained by measuring an image of the inside of the human body (or the endoscope operation simulator 30 to be described later) photographed according to the movement of the camera 130 by a first user's operation over time. The training data and the lesion image may be acquired at the same time point, and the training data and the lesion image acquired at the same time point may be used to calculate the lesion size in a lesion size calculation model to be described later. That is, the lesion size may be calculated based on the lesion image according to the motion sensor data at a specific time point. The lesion size may be the size of the lesion inside the human body (or endoscopy simulator 30).

즉, 병변크기산출모델은 제1모션 센서 데이터, 가상 병변 영상 및 가상 병변 크기 사이의 상관관계를 지시할 수 있다. 병변크기산출모델은 제1모션 센서 데이터, 가상 병변 영상 및 가상 병변 크기를 지시하는 학습 데이터를 기초로 생성될 수 있다.That is, the lesion size calculation model may indicate a correlation between the first motion sensor data, the virtual lesion image, and the virtual lesion size. The lesion size calculation model may be generated based on the first motion sensor data, the virtual lesion image, and the training data indicating the virtual lesion size.

내시경 장치(10)에 의해 학습 데이터를 획득하는 방식으로는 다양한 방식이 적용될 수 있다. 일 실시예로, 다양한 위치에 다양한 크기의 병변을 적용할 수 있는 내시경 시술 시뮬레이터(30)에 내시경을 삽입하여 학습 데이터를 획득할 수 있다.As a method of acquiring the learning data by the endoscope device 10, various methods may be applied. In one embodiment, the training data may be acquired by inserting the endoscope into the endoscope surgical simulator 30 which may apply lesions of various sizes to various locations.

상기 내시경 시술 시뮬레이터(30)는 실제 신체장기와 유사하게 생성되어 내시경 트레이닝을 수행할 수 있도록 하는 장치로서, 가상 병변 모듈을 탈착할 수 있는 장치일 수 있다. 내시경 시술 시뮬레이터(30)는 가상 병변 모듈 부착할 수 있는 복수의 결합공(320)에 다양한 크기의 가상 병변 모듈을 결합하고 학습 데이터를 획득하는 과정을 수행할 수 있다.The endoscope surgical simulator 30 is a device that is generated similar to an actual body organ to perform endoscope training, and may be a device that can detach a virtual lesion module. The endoscope surgical simulator 30 may perform a process of combining virtual lesion modules of various sizes and acquiring learning data to the plurality of coupling holes 320 to which the virtual lesion module may be attached.

도 3 내지 5에서와 같이, 상기 내시경 시술 시뮬레이터(30)의 구체적인 일 실시예는, 장기 모형부(300)와, 가상 병변 모듈(321)을 포함할 수 있다.3 to 5, a specific embodiment of the endoscope procedure simulator 30 may include an organ model unit 300 and a virtual lesion module 321.

도 3에서와 같이, 장기 모형부(300)는 모의의 장기 형상을 가진다. 본 실시예에서는 인체의 구강에 연결되는 식도에 연결된 위 형상의 장기 모형부(300)가 도시되어 있지만 이에 한정되지 않고, 장기 모형부(300)는 소장, 대장, 항문 등의 장기 형상을 가질 수도 있다. 예를 들어, 특히, 본 발명에 따른 장기 모형부는 실제 신체 구조와 동일하게 형성되어 있어, 현실감 있는 내시경 시술 학습을 할 수 있게 된다.As shown in FIG. 3, the organ model unit 300 has a simulated organ shape. In the present embodiment, the organ model unit 300 of the stomach shape is connected to the esophagus connected to the oral cavity of the human body, but is not limited thereto, and the organ model unit 300 may have an organ shape such as a small intestine, a large intestine, and an anus. have. For example, in particular, the organ model according to the present invention is formed in the same manner as the actual body structure, it is possible to learn realistic endoscopic procedures.

장기 모형부(300)의 내부에는 내시경이 삽입되어 이동하는 삽입 공간이 형성된다. 또한, 장기 모형부(300)의 표면에는 복수의 결합공(320)이 관통 형성되어 있을 수 있다. 복수의 결합공(320)은 가상 병변을 탈부착 시킬 수 있는 구멍을 지시할 수 있다.Inside the organ model unit 300 is formed an insertion space for inserting and moving the endoscope. In addition, a plurality of coupling holes 320 may be formed through the surface of the organ model 300. The plurality of coupling holes 320 may indicate a hole capable of detachable virtual lesion.

본 실시예에서는 복수의 결합공(320)이 장기 모형부(300)에 형성되어 있는 것으로 도시되어 있지만, 하나의 결합공(320)만이 장기 모형부(300)에 형성될 수도 있다. 또한, 장기 모형부(300)에는 가상 병변 모듈(321)이 선택적으로 탈착 가능하게 결합되는 복수의 결합공(320)이 관통 형성되어 있다. 각 결합공(320)은 장기 모형부(300)의 표면에 삽입 공간과 연통하도록 관통 형성된다. 결합공(320)은 가상 병변 모듈(321)의 각 결합부(320)가 형상 맞춤하며 암수 끼움 결합되는 직경의 크기를 가진다.In the present embodiment, although the plurality of coupling holes 320 are illustrated as being formed in the organ model unit 300, only one coupling hole 320 may be formed in the organ model unit 300. In addition, the organ model 300 has a plurality of coupling holes 320 through which the virtual lesion module 321 is selectively detachably coupled. Each coupling hole 320 is formed through the surface of the organ model unit 300 to communicate with the insertion space. Coupling hole 320 has a size of the diameter that each coupling portion 320 of the virtual lesion module 321 is fitted to fit and fit.

복수의 결합공(320)에 가상 병변 모듈(321)의 병변 크기를 가변하여 부착함으로써 신체 내 다양한 위치의 다양한 병변의 크기에 대한 학습 데이터가 쌓일 수 있다.By varying and attaching the lesion size of the virtual lesion module 321 to the plurality of coupling holes 320, learning data about the size of various lesions at various positions in the body may be accumulated.

가상 병변 모듈(321)은 도 5의 병변 표시부(321-1)가 삽입 공간에 노출되도록 장기 모형부(300)의 결합공(320)에 끼움 결합된다. 또한, 가상 병변 모듈(321)은 장기 모형부(300)의 복수의 결합공(320)의 위치를 변경해가며 선택적으로 결합되어, 다양한 위치에서 다양한 병변 현상을 연출할 수 있게 된다.The virtual lesion module 321 is fitted into the coupling hole 320 of the organ model 300 to expose the lesion display unit 321-1 of FIG. 5 to the insertion space. In addition, the virtual lesion module 321 is selectively coupled while changing the position of the plurality of coupling holes 320 of the organ model unit 300, it is possible to produce a variety of lesion phenomenon at various locations.

또한, 다른 일 실시예로, 내시경 시술 시뮬레이터(30)는 장기 모형부(300)를 둘러싸며 고정하는 고정틀(310)을 더 포함할 수 있다.In addition, in another embodiment, the endoscope surgery simulator 30 may further include a fixing frame 310 surrounding and fixing the organ model unit 300.

또한, 고정틀(310)에는 장기 모형부(300)의 각 결합공(320)에 대응하는 위치에, 결합공(320)과 연통하는 관통공이 관통 형성되어 있다. 이 관통공에는 장기 모형부(300)의 결합공(320)에 끼움 결합되는 가상 병변 모듈(321)이 끼움 결합된다.In addition, the fixing frame 310 is formed with a through hole communicating with the coupling hole 320 at a position corresponding to each coupling hole 320 of the organ model 300. The through-hole virtual lesion module 321 is fitted into the coupling hole 320 of the organ model unit 300 is fitted.

이러한 구성에 의하여, 장기 모형부(300)의 각 결합공(320)에 가상 병변 모듈(321)이 장착된 상태에서의 내시경 시술 시뮬레이터를 이용하는 학습 데이터 획득단계(S200)에 대해 설명하면 다음과 같다.By such a configuration, the learning data acquisition step (S200) using the endoscope surgery simulator in a state in which the virtual lesion module 321 is mounted in each coupling hole 320 of the organ model unit 300 is described as follows. .

제1사용자는 내시경 시술 시뮬레이터(30)에 설치할 가상 병변 모둘(321)의 크기를 미리 결정할 수 있다. 예를 들어, 제1사용자는 돌기부(321-2)의 크기가 5mm인 가상 병변 모듈(321)을 내시경 시술 시뮬레이터(30)에 설치할 수 있다. 내시경 장치(10)는 제1사용자가 설치한 가상 병변 모듈(321)의 돌기부(321-2)의 크기가 5mm라는 것을 제1사용자로부터 입력 받을 수 있다. 제1사용자는 내시경 장치(10)의 카메라(130)를 통해 장기 모형부(300)의 내부를 관찰하면서 삽입 공간을 따라 이동시킬 수 있다. 내시경 장치(10)의 카메라(130)가 이동 과정 중에 병변 상태를 연출하는 가상 병변 모듈(321)에 도달하면, 제1사용자는 내시경 장치(10)를 조작할 수 있다. 이러한 과정을 통해 내시경 장치(10)는 학습 데이터를 획득 할 수 있다. The first user may determine in advance the size of the virtual lesion module 321 to be installed in the endoscopic procedure simulator 30. For example, the first user may install the virtual lesion module 321 having the size of the protrusion 321-2 to the endoscope surgery simulator 30. The endoscope device 10 may receive an input from the first user that the size of the protrusion 321-2 of the virtual lesion module 321 installed by the first user is 5 mm. The first user may move along the insertion space while observing the inside of the organ model unit 300 through the camera 130 of the endoscope device 10. When the camera 130 of the endoscope device 10 reaches the virtual lesion module 321 to produce a lesion state during the movement process, the first user may operate the endoscope device 10. Through this process, the endoscope device 10 may acquire learning data.

이와 같이, 장기 모형부(300)에 탈착 가능하게 결합되는 모듈을 통해 다양한 병변 현상을 연출하고, 장기 모형부(300)의 삽입 공간을 따라 내시경 장치(10)를 삽입 이동시킴으로써, 학습 데이터를 획득할 수 있다. In this way, by producing a variety of lesions through the module detachably coupled to the organ model unit 300, by inserting and moving the endoscope device 10 along the insertion space of the organ model unit 300, to acquire the learning data can do.

내시경 장치(10)의 카메라(130)는 장기 모형부(300)에 삽입될 수 있다. 제1사용자는 내시경 장치(10)의 손잡이 부분을 잡고 앞뒤로 움직일 경우 카메라(130)를 통해 촬영되는 영상을 획득할 수 있다. 내시경 장치(10)는 다양한 크기(예를 들어, 병변의 크기가 5mm, 6mm, 7mm,... ,10mm인)의 병변을 촬영했을 때 발생할 수 있는 영상의 정보를 저장할 수 있다. 이러한 학습이 반복될 경우, 내시경 장치(10)는 i)모션 센서(120)에 의한 제1모션 센서 데이터, ii)내시경 카메라(130)에 의한 병변 영상 데이터, iii)내시경 시술 시뮬레이터(30) 내의 병변 크기 지시하는 학습 데이터를 획득할 수 있다.The camera 130 of the endoscope device 10 may be inserted into the organ model unit 300. When the first user grabs the handle of the endoscope device 10 and moves back and forth, the first user may acquire an image captured by the camera 130. The endoscope device 10 may store information of an image that may occur when photographing lesions of various sizes (eg, lesion sizes of 5 mm, 6 mm, 7 mm, ..., 10 mm). When this learning is repeated, the endoscope apparatus 10 may include i) first motion sensor data by the motion sensor 120, ii) lesion image data by the endoscope camera 130, and iii) within the endoscope procedure simulator 30. Learning data indicating lesion size may be obtained.

내시경 장치(10)는 가상의 신체 내부 모형을 지시하는 내시경 시술 시뮬레이터(30)에서 획득된 학습 데이터를 기계학습알고리즘에 적용하여 병변크기산출모델을 구축한다(S210). 내시경 장치(10)는 학습 데이터를 다양한 기계학습알고리즘에 적용할 수 있다. 일 실시예로, 내시경 장치(10)는 심층신경망을 이용한 딥러닝 알고리즘을 활용할 수 있다. The endoscope apparatus 10 constructs a lesion size calculation model by applying the learning data obtained from the endoscope surgery simulator 30 indicating a virtual internal model to the machine learning algorithm (S210). The endoscope device 10 may apply the learning data to various machine learning algorithms. In one embodiment, the endoscope device 10 may utilize a deep learning algorithm using a deep neural network.

예를 들어, 내시경 장치(10)는 크기가 5mm, 6mm, 7mm,... ,10mm인 병변 각각을 촬영하면서 복수의 모션 센서 데이터와 복수의 병변 영상에 관한 데이터를 획득할 수 있다. 내시경 장치(10)는 크기가 5mm, 6mm, 7mm,... 10mm인 병변 각각을 촬영했을 때 획득된 복수의 모션 센서 데이터와 복수의 영상 정보를 심층신경망을 이용한 딥러닝 알고리즘에 적용하여 병변크기산출모델을 구축할 수 있다. 다른 실시예로, 병변크기산출모델은 외부로부터 미리 획득될 수 있다.For example, the endoscope apparatus 10 may acquire a plurality of motion sensor data and data regarding a plurality of lesion images while photographing lesions having sizes of 5 mm, 6 mm, 7 mm,..., 10 mm. The endoscope apparatus 10 applies a plurality of motion sensor data and a plurality of image information obtained when photographing lesions having sizes of 5 mm, 6 mm, 7 mm, ... 10 mm to a deep learning algorithm using a deep neural network. Build output models. In another embodiment, the lesion size calculation model may be obtained in advance from the outside.

본 발명의 실시예들에서 심층신경망(Deep Neural Network; DNN)은, 하나 이상의 내시경 장치 내에 하나 이상의 레이어(Layer)를 구축하여 복수의 데이터를 바탕으로 판단을 수행하는 시스템 또는 네트워크를 의미한다. 예를 들어, 심층신경망은 컨볼루션 풀링 층(Convolutional Pooling Layer), 로컬 접속 층(a locally-connected layer) 및 완전 연결 층(fully-connected layer)을 포함하는 층들의 세트로 구현될 수 있다. 컨볼루션 풀링 층 또는 로컬 접속 층은 영상 내 특징들을 추출하도록 구성 될 수 있다. 완전 연결 층은 영상의 특징 간의 상관 관계를 결정할 수 있다. 일부 실시 예에서, 심층신경망의 전체적인 구조는 컨볼루션 풀링 층에 로컬 접속 층이 이어지고, 로컬 접속 층에 완전 연결 층이 이러지는 형태로 이루어질 수 있다. 심층신경망은 다양한 판단기준(즉, 파라미터(Parameter))를 포함할 수 있고, 입력되는 영상 분석을 통해 새로운 판단기준(즉, 파라미터)를 추가할 수 있다.In embodiments of the present invention, a deep neural network (DNN) refers to a system or a network that performs a determination based on a plurality of data by constructing one or more layers in one or more endoscope devices. For example, the deep neural network may be implemented as a set of layers including a convolutional pooling layer, a locally-connected layer, and a fully-connected layer. The convolution pooling layer or the local access layer can be configured to extract features in the image. The fully connected layer can determine the correlation between the features of the image. In some embodiments, the overall structure of the deep neural network may be in the form of a local connection layer followed by a convolution pooling layer and a complete connection layer in the local connection layer. The deep neural network may include various criteria (ie, parameters), and may add new criteria (ie, parameters) through an input image analysis.

본 발명의 실시예들에서 심층신경망은, 학습 데이터 획득에 적합한 콘볼루셔널 신경망이라고 부르는 구조로서, 주어진 영상 데이터들로부터 가장 분별력(Discriminative Power)이 큰 특징을 스스로 학습하는 특징 추출층(Feature Extraction Layer)과 추출된 특징을 기반으로 가장 높은 예측 성능을 내도록 예측 모델을 학습하는 예측층(Prediction Layer)이 통합된 구조로 구성될 수 있다. In the embodiments of the present invention, the deep neural network is a structure called a convolutional neural network suitable for acquiring training data, and is a feature extraction layer that self-learns a feature having the highest discriminative power from given image data. ) And a prediction layer that learns a prediction model to have the highest prediction performance based on the extracted feature.

특징 추출층은 영상의 각 영역에 대해 복수의 필터를 적용하여 특징 지도(Feature Map)를 만들어 내는 콘볼루션 층(Convolution Layer)과 특징 지도를 공간적으로 통합함으로써 위치나 회전의 변화에 불변하는 특징을 추출할 수 있도록 하는 통합층(Pooling Layer)을 번갈아 수 차례 반복하는 구조로 형성될 수 있다. 이를 통해, 점, 선, 면 등의 낮은 수준의 특징에서부터 복잡하고 의미 있는 높은 수준의 특징까지 다양한 수준의 특징을 추출해낼 수 있다. The feature extraction layer spatially integrates a convolution layer and a feature map to create a feature map by applying a plurality of filters to each region of an image, thereby allowing a feature to be changed to change in position or rotation. It can be formed in a structure that repeats the alternating layer (Pooling Layer) to be extracted several times. Through this, it is possible to extract various levels of features, from low level features such as points, lines and planes to complex high level features.

콘볼루션 층은 입력 영상의 각 패치에 대하여 필터와 국지 수용장(Local Receptive Field)의 내적에 비선형 활성 함수(Activation Function)을 취함으로 서 특징지도(Feature Map)을 구하게 되는데, 다른 네트워크 구조와 비교하여, CNN은 희소한 연결성(Sparse Connectivity)과 공유된 가중치(Shared Weights)를 가진 필터를 사용하는 특징이 있다. 이러한 연결구조는 학습할 모수의 개수를 줄여주고, 역전파 알고리즘을 통한 학습을 효율적으로 만들어 결과적으로 예측 성능을 향상 시킨다. The convolutional layer obtains a feature map by taking a nonlinear activation function on the inner product of a filter and a local receptive field for each patch of the input image, compared to other network structures. Thus, CNN is characterized by using filters with sparse connectivity and shared weights. This connection structure reduces the number of parameters to be learned and makes the learning through the backpropagation algorithm more efficient, resulting in better prediction performance.

통합 층(Pooling Layer 또는 Sub-sampling Layer)은 이전 콘볼루션 층에서 구해진 특징 지도의 지역 정보를 활용하여 새로운 특징 지도를 생성한다. 일반적으로 통합 층에 의해 새로 생성된 특징지도는 원래의 특징 지도보다 작은 크기로 줄어드는데, 대표적인 통합 방법으로는 특징 지도 내 해당 영역의 최대값을 선택하는 최대 통합(Max Pooling)과 특징 지도 내 해당 영역의 평균값을 구하는 평균 통합(Average Pooling) 등이 있다. 통합 층의 특징지도는 일반적으로 이전 층의 특징 지도보다 입력 영상에 존재하는 임의의 구조나 패턴의 위치에 영향을 적게 받을 수 있다. 즉, 통합층은 입력 영상 혹은 이전 특징 지도에서의 노이즈나 왜곡과 같은 지역적 변화에 보다 강인한 특징을 추출할 수 있게 되고, 이러한 특징은 분류 성능에 중요한 역할을 할 수 있다. 또 다른 통합 층의 역할은, 깊은 구조상에서 상위의 학습 층으로 올라갈수록 더 넓은 영역의 특징을 반영할 수 있게 하는 것으로서, 특징 추출 층이 쌓이면서, 하위 층에서는 지역적인 특징을 반영하고 상위 층으로 올라 갈수록 보다 추상적인 전체 영상의 특징을 반영하는 특징 생성할 수 있다.The pooling layer or sub-sampling layer creates a new feature map using the local information of the feature map obtained from the previous convolutional layer. In general, the feature map newly created by the integration layer is reduced to a smaller size than the original feature map. Typical integration methods include the maximum pooling to select the maximum value of the corresponding area in the feature map and the corresponding feature map in the feature map. Average pooling, which finds the mean of a domain. The feature map of the unified layer is generally less affected by the location of any structure or pattern present in the input image than the feature map of the previous layer. That is, the integrated layer can extract features that are more robust to regional changes such as noise or distortion in the input image or previous feature maps, and these features can play an important role in classification performance. Another role of the integration layer is to allow for the reflection of a wider range of features as one goes up to the upper learning layer in the deeper structure, and as feature extraction layers accumulate, the lower layer reflects local features and rises to the upper layer. Increasingly, it is possible to generate a feature that reflects a feature of the entire abstract image.

이와 같이, 콘볼루션 층과 통합 층의 반복을 통해 최종적으로 추출된 특징은 다중 신경망(MLP: Multi-layer Perception)이나 서포트 벡터 머신(SVM: Support Vector Machine)과 같은 분류 모델이 완전 연결 층(Fully-connected Layer)의 형태로 결합되어 분류 모델 학습 및 예측에 사용될 수 있다.As such, the final feature extracted through the iteration of the convolutional layer and the integrated layer is that the classification model such as Multi-layer Perception (MLP) or Support Vector Machine (SVM) is fully connected. Combined in the form of -connected layer, it can be used for classification model training and prediction.

다만, 본 발명의 실시예들에 기재된 심층신경망의 구조는 이에 한정되지 아니하고, 다양한 구조의 신경망으로 형성될 수 있다.However, the structure of the deep neural network described in the embodiments of the present invention is not limited thereto, and may be formed of a neural network having various structures.

예를 들어, 콘볼루션 층과 통합 층의 반복을 통해 최종적으로 추출된 복수의 학습 데이터는 다중 신경망(MLP: Multi-layer Perception)이나 서포트 벡터 머신(SVM: Support Vector Machine)과 같은 분류 모델이 완전 연결 층(Fully-connected Layer)의 형태로 결합되어 제1모션 센서 데이터에 따른 병변 영상을 통한 병변의 크기 측정에 사용될 수 있다.For example, a plurality of training data finally extracted through the repetition of the convolutional layer and the integrated layer may be classified by a classification model such as Multi-layer Perception (MLP) or Support Vector Machine (SVM). It may be combined in the form of a fully-connected layer and used to measure the size of a lesion through the lesion image according to the first motion sensor data.

다시 도2를 참조하면, 내시경 장치(10)는 모션 센서(120)에 의한 제2모션 센서 데이터를 획득한다(S220). 내시경 장치(10)의 손잡이 부분에는 모션 센서(120)가 부착되어 있을 수 있다. 내시경 장치(10)는 내시경 장치(10)의 모션 센서(120)를 통해 내시경 장치(10)를 사용하는 제2사용자의 손의 움직임을 벡터 값으로 저장한 제2모션 센서 데이터를 획득할 수 있다.Referring back to FIG. 2, the endoscope device 10 obtains second motion sensor data by the motion sensor 120 (S220). A motion sensor 120 may be attached to a handle portion of the endoscope device 10. The endoscope device 10 may acquire second motion sensor data storing, as a vector value, the motion of a second user's hand using the endoscope device 10 through the motion sensor 120 of the endoscope device 10. .

내시경 장치(10)는 카메라(130)에 의한 병변 영상을 획득한다(S230). 내시경 장치(10) 중 인체에 삽입되는 부분에는 카메라(130)가 부착되어 있을 수 있다. 내시경 장치(10)는 내시경 장치(10)의 카메라(130)를 통해 실제 사람의 장기 내부의 영상 또는 장기 내부의 병변의 형태를 지시하는 병변 영상을 촬영할 수 있다. 내시경 장치(10)는 제2모션 센서 데이터에 대응되는 장기 내부 영상 또는 병변 영상을 획득할 수 있다. 여기서 대응된다는 것은 동일한 시점에 측정된 값을 의미할 수 있다. 예를 들어, 특정 시점의 병변 영상은 특정 시점의 모션 센서 값을 포함하고 있을 수 있다. The endoscope device 10 obtains the lesion image by the camera 130 (S230). The camera 130 may be attached to a portion of the endoscope device 10 inserted into the human body. The endoscope device 10 may capture an image of an inside of an organ of an actual person or an image of a lesion indicating a shape of an inside of an organ through a camera 130 of the endoscope device 10. The endoscope device 10 may acquire an organ internal image or a lesion image corresponding to the second motion sensor data. Here, the correspondence may mean a value measured at the same time. For example, the lesion image at a specific time point may include a motion sensor value at a specific time point.

내시경 장치(10)는 병변크기산출모델에 모션 센서 데이터 및 병변 영상 값을 입력하여 병변의 크기를 산출한다(S240). 예를 들어, 병변크기산출모델이 구축된 뒤 내시경 장치(10)는 크기를 알 수 없는 병변을 촬영하면서 특정 모션 센서 데이터와 특정 병변 영상에 관한 데이터를 획득할 수 있다. 내시경 장치(10)는 획득된 특정 모션 센서 데이터와 특정 병변 영상에 관한 데이터를 병변크기산출모델에 입력할 수 있다. 이 경우 병변크기산출모델은 크기를 알 수 없는 병변을 통해 획득된 특정 모션 센서 데이터와 특정 병변 영상은 크기가 6mm인 병변을 촬영하면서 획득된 모션 센서 데이터와 병변 영상과 대응되는 것으로 판단할 수 있다. 이 경우 내시경 장치(10)는 병변크기산출모델을 통해 크기를 알 수 없는 병변의 크기가 6mm라는 것을 산출할 수 있다.The endoscope apparatus 10 calculates the size of the lesion by inputting the motion sensor data and the lesion image value to the lesion size calculation model (S240). For example, after the lesion size calculation model is constructed, the endoscope apparatus 10 may acquire specific motion sensor data and data regarding a specific lesion image while photographing a lesion of unknown size. The endoscope device 10 may input the acquired specific motion sensor data and data regarding the specific lesion image into the lesion size calculation model. In this case, the lesion size calculation model may determine that the specific motion sensor data and the specific lesion image acquired through the lesion of unknown size correspond to the motion sensor data and the lesion image acquired while photographing the lesion having a size of 6 mm. . In this case, the endoscope apparatus 10 may calculate that the size of the lesion whose size is unknown is 6 mm through the lesion size calculation model.

또한, 본 발명의 다른 일 실시예로, 내시경 장치(10)는 획득한 병변의 크기 정보를 디스플레이(140)를 통해 출력할 수 있다. 또한, 내시경 장치(10)는 제2모션 센서 데이터에 따른 병변 영상을 기초로 병변의 3차원 이미지를 추출할 수 있다. 한편, 내시경 장치(10)는 3D 프린터를 이용하여 병변의 3차원 이미지를 출력할 수 있다. 예를 들어, 내시경 장치(10)는 산출된 병변의 크기를 디스플레이(140)를 통해 제2사용자 등이 시각적으로 확인할 수 있도록 출력할 수 있다. 또한, 다른 일 실시예로, 내시경 장치(10)는 제2사용자로부터 병변의 종류에 대한 정보를 획득할 수 있다. 예를 들어, 제2사용자는 내시경 시술을 수행하면서 디스플레이(140)를 통해 확인된 병변이 어떠한 병인지 인지한 경우, 내시경 장치(10)에 해당 병변의 종류에 관한 정보를 입력할 수 있다.In addition, in another embodiment of the present invention, the endoscope apparatus 10 may output the acquired size information of the lesion through the display 140. In addition, the endoscope apparatus 10 may extract the 3D image of the lesion based on the lesion image according to the second motion sensor data. On the other hand, the endoscope device 10 may output a three-dimensional image of the lesion using a 3D printer. For example, the endoscope device 10 may output the size of the calculated lesion so that the second user or the like may visually check the display 140. Also, in another embodiment, the endoscope device 10 may obtain information about the type of lesion from the second user. For example, when the second user recognizes which disease is identified through the display 140 while performing an endoscope operation, the second user may input information regarding the type of the lesion to the endoscope device 10.

이 경우, 내시경 장치(10)는 병변의 크기를 인지할 수 있고, 디스플레이(140)를 통해 병변의 종류에 기초하여 어떠한 치료법이 적절한지를 출력할 수 있다. 병변의 크기에 따라 치료법이 상이하게 적용될 수 있다. 아래는 병변의 크기에 따라 치료법이 상이하게 적용될 수 있다는 것에 대한 구체적인 설명일 수 있다.In this case, the endoscope apparatus 10 may recognize the size of the lesion, and may output which treatment is appropriate based on the type of the lesion through the display 140. Depending on the size of the lesion, the treatment may be applied differently. Below may be a specific explanation that the treatment may be applied differently depending on the size of the lesion.

1) 크기가 1 cm 이상인 대장선종은 향후 대장암으로 진행할 위험이 높은 진행성 선종으로 분류될 수 있다. 이 경우 내시경으로 절제한 후 추적검사 시기를 앞당길 것이 권고될 수 있다. 즉, 크기가 1 cm 미만인 대장 관상선종(tubular adenoma)을 1-2개 제거한 경우에는 5년 후 대장내시경을 시행해야 한다. 다만, 1 cm 이상인 대장선종을 제거한 경우라면 3년 후 대장내시경을 시행해야 한다. 그러나, 현재는 대부분 직접 측정이 아닌 내시경 의사의 추정치에 따라 추적 검사 시기가 결정되고 있다.1) Colorectal adenoma larger than 1 cm may be classified as advanced adenoma with a high risk of developing colorectal cancer. In this case, it may be advisable to advance the follow-up period after ablation with an endoscope. In other words, when 1-2 tubular adenomas less than 1 cm in size are removed, colonoscopy should be performed after 5 years. However, colonoscopy should be performed after 3 years if colonic adenoma greater than 1 cm is removed. However, at present, the timing of follow-up is largely determined by the endoscopic doctor's estimate, not by direct measurement.

2) 대장의 측방발육형 종양의 경우, 크기가 2 cm 이상인 경우 대장폴립절제술의 특수한 형태인 대장점막하박리술에 의할 때 효율적인 치료가 기대될 수 있다. 그러나, 이 역시 내시경 의사가 추정한 크기에 근거하여 치료 방침이 결정되고 있다.2) For lateral developmental tumors of the large intestine, effective treatment can be expected with submucosal dissection, a special form of colon polypectomy. However, the treatment policy is also decided based on the size estimated by the endoscope doctor.

따라서, 내시경 장치(10)는 병변의 크기를 인지하고, 디스플레이(140)를 통해 병변의 종류에 기초하여 어떠한 치료법이 적절한지를 출력하는 것은 치료에 많은 도움이 될 수 있다.Therefore, the endoscope device 10 recognizes the size of the lesion, and outputting which treatment is appropriate based on the type of the lesion through the display 140 can be very helpful for the treatment.

이상에서 전술한 본 발명의 일 실시예에 따른 심층신경망을 이용한 실제 병변 길이 측정 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The actual lesion length measuring method using the deep neural network according to an embodiment of the present invention described above may be implemented as a program (or an application) to be executed in combination with a computer which is hardware and stored in a medium.

상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다. The above-described program includes C, C ++, JAVA, machine language, etc. which can be read by the computer's processor (CPU) through the computer's device interface so that the computer reads the program and executes the methods implemented as the program. Code may be coded in the computer language of. Such code may include functional code associated with a function or the like that defines the necessary functions for executing the methods, and includes control procedures related to execution procedures necessary for the computer's processor to execute the functions according to a predetermined procedure. can do. In addition, the code may further include memory reference code for additional information or media required for the computer's processor to execute the functions at which location (address address) of the computer's internal or external memory should be referenced. have. Also, if the processor of the computer needs to communicate with any other computer or server remotely in order to execute the functions, the code may be used to communicate with any other computer or server remotely using the communication module of the computer. It may further include a communication related code for whether to communicate, what information or media should be transmitted and received during communication.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The stored medium is not a medium for storing data for a short time such as a register, a cache, a memory, but semi-permanently, and means a medium that can be read by the device. Specifically, examples of the storage medium include, but are not limited to, a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like. That is, the program may be stored in various recording media on various servers to which the computer can access or various recording media on the computer of the user. The media may also be distributed over network coupled computer systems so that the computer readable code is stored in a distributed fashion.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, in a software module executed by hardware, or by a combination thereof. Software modules may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing the technical spirit or essential features. I can understand that. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.

Claims (13)

내시경 장치에 의해 수행되는 모션 센서를 활용한 길이 측정 방법으로,
내시경 시술 훈련자를 지시하는 제1사용자의 손의 움직임을 기초로 저장된 제1모션 센서 데이터, 가상 병변 영상, 가상 병변 크기를 지시하는 학습 데이터를 획득하는 단계;
상기 학습 데이터를 기초로 병변크기산출모델을 생성하는 단계;
상기 내시경 장치의 모션 센서를 통해 내시경 시술자를 지시하는 제2사용자의 손의 움직임을 기초로 제2모션 센서 데이터를 획득하는 단계;
상기 내시경 장치의 카메라를 통해 병변 영상을 획득하는 단계; 및
상기 제2모션 센서 데이터에 따른 상기 병변 영상을 상기 병변크기산출모델에 입력하여 병변의 크기를 산출하는 단계를 포함하는, 모션 센서를 활용한 길이 측정 방법.
Length measurement method using a motion sensor performed by an endoscope device,
Acquiring the stored first motion sensor data, the virtual lesion image, and the training data indicating the virtual lesion size based on the movement of the hand of the first user instructing the endoscope treatment trainer;
Generating a lesion size calculation model based on the training data;
Acquiring second motion sensor data based on a movement of a hand of a second user instructing an endoscope operator through a motion sensor of the endoscope device;
Acquiring a lesion image through a camera of the endoscope device; And
And calculating a size of a lesion by inputting the lesion image according to the second motion sensor data to the lesion size calculation model.
청구항 1에 있어서,
상기 학습 데이터는, 상기 내시경 장치가 가상의 신체 내부 모형을 지시하는 내시경 시술 시뮬레이터 내부를 탐사할 경우, 상기 제1모션 센서 데이터에 따른 상기 내시경 시술 시뮬레이터 내의 상기 병변 영상의 크기 변화와 병변의 크기와의 상관관계에 관한 정보를 포함하는, 모션 센서를 활용한 길이 측정 방법.
The method according to claim 1,
The training data may include the size of the lesion image and the size of the lesion in the endoscope surgery simulator based on the first motion sensor data when the endoscope device explores the inside of the endoscope surgery simulator indicating a virtual internal model. Length measurement method using a motion sensor, including the information on the correlation of.
청구항 1에 있어서,
상기 학습 데이터는, 상기 내시경 장치가 신체 내부를 탐사할 경우, 상기 제1모션 센서 데이터에 따른 상기 신체 내의 상기 병변 영상의 크기 변화와 병변의 크기와의 상관관계에 관한 정보를 포함하는, 모션 센서를 활용한 길이 측정 방법.
The method according to claim 1,
The learning data includes information on a correlation between a change in size of the lesion image and a size of the lesion according to the first motion sensor data when the endoscope device detects the inside of the body. Method of measuring length using
청구항 1에 있어서,
상기 병변크기산출모델은, 심층신경망(Deep Neural Network; DNN)을 이용한 딥러닝 알고리즘을 통해 구축되는, 모션 센서를 활용한 길이 측정 방법.
The method according to claim 1,
The lesion size calculation model is constructed through a deep learning algorithm using a deep neural network (DNN), the length measurement method using a motion sensor.
청구항 1에 있어서,
제2사용자로부터 상기 병변의 종류에 대한 정보를 획득할 경우,
상기 병변의 종류 및 상기 병변의 크기에 따른 치료법을 출력하는 단계를 더 포함하는, 모션 센서를 활용한 길이 측정 방법.
The method according to claim 1,
When obtaining information on the type of the lesion from a second user,
And outputting a treatment method according to the type of the lesion and the size of the lesion.
청구항 1에 있어서,
상기 병변의 크기에 관한 정보를 출력하는 단계;를 더 포함하는, 모션 센서를 활용한 길이 측정 방법.
The method according to claim 1,
And outputting information about the size of the lesion.
청구항 6에 있어서,
상기 제2모션 센서 데이터에 따른 상기 병변 영상을 기초로 상기 병변의 3차원 이미지를 추출하여 출력하는, 모션 센서를 활용한 길이 측정 방법.
The method according to claim 6,
And extracting and outputting a 3D image of the lesion based on the lesion image according to the second motion sensor data.
길이를 측정하는 모션 센서가 탑재된 내시경 장치로서,
프로세서(processor); 및
상기 프로세서를 통해 실행되는 적어도 하나의 명령이 저장된 메모리(memory)를 포함하고,
상기 적어도 하나의 명령은,
내시경 시술 훈련자를 지시하는 제1사용자의 손의 움직임을 기초로 저장된 제1모션 센서 데이터, 가상 병변 영상, 가상 병변 크기를 지시하는 학습 데이터를 획득하고,
상기 학습 데이터를 기초로 병변크기산출모델을 생성하고,
상기 내시경 장치의 모션 센서를 통해 내시경 시술자를 지시하는 제2사용자의 손의 움직임을 기초로 제2모션 센서 데이터를 획득하고,
상기 내시경 장치의 카메라를 통해 병변 영상을 획득하고, 그리고
상기 제2모션 센서 데이터에 따른 상기 병변 영상을 상기 병변크기산출모델에 입력하여 병변의 크기를 산출하도록 실행되는, 내시경 장치.
An endoscope device equipped with a motion sensor for measuring the length,
A processor; And
At least one instruction executed by the processor includes a memory (memory),
The at least one command is
Obtaining first motion sensor data, virtual lesion image, and training data indicating virtual lesion size stored based on the movement of the first user's hand instructing the endoscope treatment trainer;
Generate a lesion size calculation model based on the training data,
Acquiring second motion sensor data based on the movement of the hand of the second user who instructs the endoscope operator through the motion sensor of the endoscope device,
Acquire lesion image through the camera of the endoscope device, and
And inputting the lesion image according to the second motion sensor data into the lesion size calculation model to calculate the size of the lesion.
청구항 8에 있어서,
상기 학습 데이터는, 상기 내시경 장치가 가상의 신체 내부 모형을 지시하는 내시경 시술 시뮬레이터 내부를 탐사할 경우, 상기 제1모션 센서 데이터에 따른 상기 내시경 시술 시뮬레이터 내의 상기 병변 영상의 크기 변화와 병변의 크기와의 상관관계에 관한 정보를 포함하는, 내시경 장치
The method according to claim 8,
The training data may include the size change of the lesion image and the size of the lesion in the endoscope surgery simulator according to the first motion sensor data when the endoscope device explores the inside of the endoscope surgery simulator indicating a virtual internal model. Endoscopic devices, including information about the correlation of
청구항 8에 있어서,
상기 학습 데이터는, 상기 내시경 장치가 신체 내부를 탐사할 경우, 상기 제1모션 센서 데이터에 따른 상기 신체 내의 상기 병변 영상의 크기 변화와 병변의 크기와의 상관관계에 관한 정보를 포함하는, 내시경 장치
The method according to claim 8,
The learning data may include information regarding a correlation between a change in size of the lesion image and a size of the lesion according to the first motion sensor data when the endoscope device detects the inside of the body.
내시경 장치에 의해 수행되는 모션 센서를 활용한 길이 측정 방법으로,
상기 내시경 장치의 모션 센서를 통해 내시경 시술자를 지시하는 제2사용자의 손의 움직임을 기초로 제2모션 센서 데이터를 획득하는 단계;
상기 내시경 장치의 카메라를 통해 병변 영상을 획득하는 단계; 및
상기 제2모션 센서 데이터에 따른 상기 병변 영상을 미리 획득된 병변크기산출모델에 입력하여 병변의 크기를 산출하는 단계를 포함하며,
상기 병변크기산출모델은 내시경 시술 훈련자를 지시하는 제1사용자의 손의 움직임을 기초로 저장된 제1모션 센서 데이터, 가상 병변 영상 및 가상 병변 크기 사이의 상관관계를 모델링한 산출모델인, 모션 센서를 활용한 길이 측정 방법.
Length measurement method using a motion sensor performed by an endoscope device,
Acquiring second motion sensor data based on a movement of a hand of a second user instructing an endoscope operator through a motion sensor of the endoscope device;
Acquiring a lesion image through a camera of the endoscope device; And
Calculating the size of the lesion by inputting the lesion image according to the second motion sensor data into a previously obtained lesion size calculation model;
The lesion size calculation model is a motion sensor, which is a calculation model modeling a correlation between the first motion sensor data, the virtual lesion image, and the virtual lesion size stored based on the movement of the first user's hand instructing the endoscope. Length measurement method utilized.
내시경 시술 훈련자를 지시하는 제1사용자의 손의 움직임을 기초로 저장된 제1모션 센서 데이터를 획득하는 단계;
상기 제1모션 센서 데이터에 대응하는 가상 병변 영상을 획득하는 단계;
미리 설정된 가상 병변 크기를 획득하는 단계;
상기 제1모션 센서 데이터, 상기 가상 병변 영상 및 상기 가상 병변 크기를 지시하는 학습 데이터를 기초로 상기 제1모션 센서 데이터, 상기 가상 병변 영상 및 상기 가상 병변 크기 사이의 상관관계를 지시하는 병변크기산출모델을 생성하는 단계를 포함하며,
상기 병변크기산출모델은 내시경 시술자를 지시하는 제2사용자의 손의 움직임을 기초로 제2모션 센서 데이터 및 병변 영상이 입력되어 병병 크기 산출에 이용되는, 모션 센서를 활용한 길이 측정 방법.
Obtaining stored first motion sensor data based on a movement of a hand of a first user instructing the endoscope surgical trainer;
Obtaining a virtual lesion image corresponding to the first motion sensor data;
Obtaining a preset virtual lesion size;
Calculating lesion size indicating correlation between the first motion sensor data, the virtual lesion image, and the virtual lesion size based on the first motion sensor data, the virtual lesion image, and training data indicating the virtual lesion size Creating a model,
The lesion size calculation model is a length measurement method using a motion sensor is input to the second motion sensor data and the lesion image based on the movement of the hand of the second user instructing the endoscope to calculate the size of the disease.
길이를 측정하는 모션 센서가 탑재된 내시경 장치로서,
프로세서(processor); 및
상기 프로세서를 통해 실행되는 적어도 하나의 명령이 저장된 메모리(memory)를 포함하고,
상기 적어도 하나의 명령은,
상기 내시경 장치의 모션 센서를 통해 내시경 시술자를 지시하는 제2사용자의 손의 움직임을 기초로 제2모션 센서 데이터를 획득하고,
상기 내시경 장치의 카메라를 통해 병변 영상을 획득하고, 그리고
상기 제2모션 센서 데이터에 따른 상기 병변 영상을 미리 획득된 병변크기산출모델에 입력하여 병변의 크기를 산출하도록 실행되며,
상기 병변크기산출모델은 내시경 시술 훈련자를 지시하는 제1사용자의 손의 움직임을 기초로 저장된 제1모션 센서 데이터, 가상 병변 영상 및 가상 병변 크기 사이의 상관관계를 모델링한 산출모델인, 내시경 장치.
An endoscope device equipped with a motion sensor for measuring the length,
A processor; And
At least one instruction executed by the processor includes a memory (memory),
The at least one command is
Acquiring second motion sensor data based on the movement of the hand of the second user who instructs the endoscope operator through the motion sensor of the endoscope device,
Acquire lesion image through the camera of the endoscope device, and
The lesion image according to the second motion sensor data is input to a previously obtained lesion size calculation model to calculate the size of the lesion.
The lesion size calculation model is an endoscope apparatus, which is a calculation model modeling a correlation between the first motion sensor data, the virtual lesion image, and the virtual lesion size stored on the basis of the movement of the first user's hand instructing the endoscope.
KR1020170139581A 2017-10-25 2017-10-25 Method for measuring length using motion sensor and apparatus for the same KR102007656B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170139581A KR102007656B1 (en) 2017-10-25 2017-10-25 Method for measuring length using motion sensor and apparatus for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170139581A KR102007656B1 (en) 2017-10-25 2017-10-25 Method for measuring length using motion sensor and apparatus for the same

Publications (2)

Publication Number Publication Date
KR20190046239A KR20190046239A (en) 2019-05-07
KR102007656B1 true KR102007656B1 (en) 2019-08-06

Family

ID=66656364

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170139581A KR102007656B1 (en) 2017-10-25 2017-10-25 Method for measuring length using motion sensor and apparatus for the same

Country Status (1)

Country Link
KR (1) KR102007656B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210201080A1 (en) * 2019-12-25 2021-07-01 Fujifilm Corporation Learning data creation apparatus, method, program, and medical image recognition apparatus

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009165615A (en) 2008-01-16 2009-07-30 Fujifilm Corp Tumor region size measurement method, apparatus, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101981708B1 (en) * 2012-01-03 2019-05-23 삼성전자주식회사 Diagnosis apparatus for lesion able to determine regulation for shape of lesion and diagnosis method thereof
KR101719322B1 (en) * 2015-07-20 2017-03-23 계명대학교 산학협력단 A endoscopic device capable of measuring of three dimensional information of lesion and surrounding tissue using visual simultaneous localization and mapping technique, method using thereof
KR101786840B1 (en) 2015-12-29 2017-10-18 인더스마트 주식회사 Apparatus for transfering image data and endoscopy system including the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009165615A (en) 2008-01-16 2009-07-30 Fujifilm Corp Tumor region size measurement method, apparatus, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210201080A1 (en) * 2019-12-25 2021-07-01 Fujifilm Corporation Learning data creation apparatus, method, program, and medical image recognition apparatus

Also Published As

Publication number Publication date
KR20190046239A (en) 2019-05-07

Similar Documents

Publication Publication Date Title
CN108685560B (en) Automated steering system and method for robotic endoscope
Vercauteren et al. Cai4cai: the rise of contextual artificial intelligence in computer-assisted interventions
KR102013866B1 (en) Method and apparatus for calculating camera location using surgical video
CN110010249B (en) Augmented reality operation navigation method and system based on video superposition and electronic equipment
JP7127785B2 (en) Information processing system, endoscope system, trained model, information storage medium, and information processing method
JP2016531709A (en) Image analysis technology for diagnosing disease
EP3977399A1 (en) Systems and methods for video-based positioning and navigation in gastroenterological procedures
KR20210104190A (en) Method for analysis and recognition of medical image
JPH11104072A (en) Medical support system
KR101595962B1 (en) Colnoscopy surgery simulation system
KR102007656B1 (en) Method for measuring length using motion sensor and apparatus for the same
JP2016539767A (en) Endoscopy equipment
CN116324897A (en) Method and system for reconstructing a three-dimensional surface of a tubular organ
CN110167417A (en) Image processing apparatus, method of operating and program
KR20200096155A (en) Method for analysis and recognition of medical image
US20240016366A1 (en) Image diagnosis system for lesion
JP7374224B2 (en) Colon examination guide device using an endoscope
US20230172428A1 (en) Endoscope image processing device
KR20160035888A (en) Apparatus and method for diagnosis support using endoscope
Acar et al. Towards navigation in endoscopic kidney surgery based on preoperative imaging
US20240021103A1 (en) Endoscopic training system
KR102426925B1 (en) Method and program for acquiring motion information of a surgical robot using 3d simulation
WO2024029502A1 (en) Endoscopic examination assistance device, endoscopic examination assistance method, and recording medium
WO2024029503A1 (en) Endoscopic examination assistance device, endoscopic examination assistance method, and recording medium
KR102648922B1 (en) A method of detecting colon polyps through artificial intelligence-based blood vessel learning and a device thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant