KR20200070062A - System and method for detecting lesion in capsule endoscopic image using artificial neural network - Google Patents

System and method for detecting lesion in capsule endoscopic image using artificial neural network Download PDF

Info

Publication number
KR20200070062A
KR20200070062A KR1020190042410A KR20190042410A KR20200070062A KR 20200070062 A KR20200070062 A KR 20200070062A KR 1020190042410 A KR1020190042410 A KR 1020190042410A KR 20190042410 A KR20190042410 A KR 20190042410A KR 20200070062 A KR20200070062 A KR 20200070062A
Authority
KR
South Korea
Prior art keywords
neural network
image
time
images
series pattern
Prior art date
Application number
KR1020190042410A
Other languages
Korean (ko)
Other versions
KR102287364B1 (en
Inventor
김진우
윤건중
안병철
한태화
이상길
Original Assignee
주식회사 포인바이오닉스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 포인바이오닉스 filed Critical 주식회사 포인바이오닉스
Publication of KR20200070062A publication Critical patent/KR20200070062A/en
Application granted granted Critical
Publication of KR102287364B1 publication Critical patent/KR102287364B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00016Operational features of endoscopes characterised by signal transmission using wireless means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Fuzzy Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Endoscopes (AREA)

Abstract

Provided is a system for detecting a lesion from a capsule-endoscopic image using an artificial neural network, to provide basic information for enabling a diagnostician to efficiently make a final diagnosis. According to the present invention, the system comprises: a capsule endoscopy capturing a plurality of images of human organs and acquiring a circular image inside the body; a preprocessing unit correcting the circular image captured by the capsule endoscopy; a convolutional neural network unit extracting features from each of the plurality of preprocessed images; a recurrent neural network extracting a time-series pattern feature of the plurality of extracted features; a lesion section detection unit comparing the value of the time-series pattern feature with a threshold; a display unit displaying an image corresponding to the value of the time-series pattern feature, which exceeds the threshold, among the plurality of captured images; and a storage unit storing the plurality of images, the plurality of extracted features, and a time-series pattern extracted from the plurality of features.

Description

인공신경망을 이용하여 캡슐형 내시경 영상에서 병변을 감지하는 시스템 및 방법{SYSTEM AND METHOD FOR DETECTING LESION IN CAPSULE ENDOSCOPIC IMAGE USING ARTIFICIAL NEURAL NETWORK}System and method for detecting lesions in an encapsulated endoscope image using an artificial neural network {SYSTEM AND METHOD FOR DETECTING LESION IN CAPSULE ENDOSCOPIC IMAGE USING ARTIFICIAL NEURAL NETWORK}

본 개시는 인공신경망을 이용하여 캡슐형 내시경 영상에서 병변을 감지하는 시스템 및 방법에 관한 것으로, 보다 상세하게는, 콘볼루션 신경망과 순환 신경망을 이용하여 캡슐 내시경을 통해 수집한 체내 이미지들에서 병변을 감지하는 시스템 및 방법에 관한 것이다.The present disclosure relates to a system and method for detecting lesions in an encapsulated endoscopic image using an artificial neural network, and more specifically, to detect lesions in body images collected through a capsule endoscope using a convolutional neural network and a circulatory neural network. It relates to a system and method for sensing.

일반적으로, 신체 내부의 상태 진단이나 병변 감지를 위해 내시경이 사용될 수 있다. 신체 내부의 이미지를 획득하기 위한 내시경 검진 방법으로는, 카메라가 부착된 연성의 관을 환자의 입이나 항문을 통해 소화기관 등으로 투입하여 내부를 촬영하는 방법이 많이 사용된다. 그러나, 이와 같은 내시경 검진 방법으로는 소장과 같이 좁고 길이가 길면서 복잡하게 구부러진 소화 기관의 내부 관찰에 한계가 있었다. 이러한 문제점을 해결하고자 개발된 캡슐형 내시경은, 알약 모양의 직경 약 9~11mm, 길이 약 24mm~26mm의 초소형 내시경으로, 알약과 같이 환자가 삼키기만 하면 내시경의 카메라가 위, 소장 및/또는 대장과 같은 장기 내부의 이미지를 수집하면서, 외부의 수신기로 전송한다. 진단자는 캡슐 내시경이 전송한 체내 이미지를 비디오 화면 및/또는 컴퓨터 모니터를 통해 관찰하면서 장기들의 내부 상태를 직접 살펴볼 수 있다. 또한, 캡슐형 내시경은 외부장치와 무선 통신을 하고 그 크기가 매우 작기 때문에, 환자들이 기존 내시경 검사에서 느끼던 이물감 및 고통이 해소될 수 있다.Generally, an endoscope can be used to diagnose a condition inside the body or to detect a lesion. As an endoscopic examination method for acquiring an image inside the body, a method in which a soft tube with a camera is inserted into a digestive organ through a patient's mouth or anus is photographed. However, such an endoscopic examination method has limitations in the internal observation of the digestive organs, which are narrow and long, such as the small intestine, and complicatedly bent. The capsule type endoscope developed to solve this problem is an ultra-small endoscope with a pill-shaped diameter of about 9 to 11 mm and a length of about 24 mm to 26 mm, and the patient's camera, like a pill, is swallowed, and the endoscope's camera is placed in the stomach, small intestine, and/or large intestine. While collecting images inside the organ, such as, it is transmitted to an external receiver. Diagnosers can directly observe the internal state of organs by observing the body image transmitted by the capsule endoscope through a video screen and/or a computer monitor. In addition, since the capsule-type endoscope communicates wirelessly with an external device and its size is very small, the foreign body sensation and pain felt by the existing endoscopy can be resolved.

일반적으로 캡슐 내시경은 다양한 소화기관들을 모두 통과하는데 약 8~10시간 정도 소요하고, 체내를 통과하는 동안에 평균적으로 6만장의 이미지를 촬영하게 된다. 따라서, 진단자는 캡슐 내시경이 촬영한 방대한 양의 이미지를 모두 관찰하여 진단하기 위해 장시간의 진료 시간이 필요하게 된다. 이러한 진단자의 오랜 진료 시간은 피검자에 대한 진료비를 증가시키는 원인이 되기 때문에, 피검자의 거부감이 없이 간편하고 정밀하게 진단할 수 있다는 장점에도 불구하고 높은 비용으로 인하여 대중화되지 못하는 문제점이 있다. In general, a capsule endoscope takes about 8 to 10 hours to pass through various digestive organs, and on average, 60,000 images are taken while passing through the body. Therefore, the diagnostician needs a long treatment time in order to observe and diagnose the vast amount of images taken by the capsule endoscope. Since the long treatment time of such a diagnoser is a cause of increasing the medical expenses for the examinee, there is a problem that it cannot be popularized due to the high cost despite the advantage of being able to diagnose easily and accurately without the objection of the examinee.

또한, 캡슐형 내시경의 촬상 이미지를 통한 진단자의 관찰 시 병증 또는 병변(장의 협착, 출혈, 암)이 발견될 경우, 진단자는 병증 부위를 정확히 파악하여 병증에 대한 처치(즉각적인 조치나 시술)를 할 필요가 있다. 그러나, 진단자는 병증을 촬상한 시점에 대한 캡슐 내시경의 위치를 정확히 알 수 없게 때문에 처치를 위한 병증 부위를 정확하게 파악하기 위해 기존의 소화기 내시경 또는 별도의 정밀 검사를 실시해야 한다는 번거로움이 있다.In addition, if a disease or lesion (intestinal stenosis, bleeding, cancer) is found when a diagnosis is observed by a diagnostician through an image taken by a capsule endoscope, the diagnostician accurately identifies the site of the disease and performs treatment (immediate action or procedure) There is a need. However, since the diagnostician cannot accurately know the position of the capsule endoscope with respect to the time when the disease is imaged, there is a hassle that it is necessary to perform a conventional digestive endoscope or a separate detailed examination to accurately identify the disease site for treatment.

종래의 캡슐형 내시경을 이용한 병변 감지 방법에 따르면, 캡슐형 내시경을 통해 수집한 신체 내부의 이미지를 진단자가 직접 관찰하면서 병변 감지와 진단이 수행되기 때문에, 많은 시간과 비용이 소요되고, 진단자에게 과도한 업무 부담을 초래할 수 있다. 또한, 숙련된 진단자라고 하더라도 개인적인 지식이나 경험에 의존하는 주관적 판단을 수행하기 때문에 동일한 신체 내부 이미지에서 서로 다른 진단 결과가 도출되는 문제가 발생할 수 있다. 따라서, 기존의 캡슐형 내시경을 이용한 병변 감지의 문제점들을 극복하고, 진단자가 효율적으로 이미지 분석을 수행하여 환자에게 정확한 병변 감지 결과를 제공할 필요성이 있다.According to the conventional method for detecting a lesion using a capsule type endoscope, since the diagnosis and diagnosis of the lesion are performed while the diagnosis is directly observed by the diagnosis of the image inside the body collected through the capsule type endoscope, it takes a lot of time and money, and It can cause excessive work load. In addition, even an experienced diagnostician may perform a subjective judgment that relies on personal knowledge or experience, which may cause a problem in which different diagnostic results are derived from the same internal body image. Therefore, there is a need to overcome the problems of lesion detection using an existing capsule type endoscope, and to provide an accurate lesion detection result to a patient by efficiently performing an image analysis by a diagnostician.

본 명세서에 개시되는 실시예들은, 캡슐형 내시경을 통해 환자의 신체 내부 이미지를 획득하고, 획득한 이미지를 콘볼루션 신경망과 순환 신경망을 이용하여 분석하여 병변을 감지하는 시스템 및 방법을 제공한다. 또한, 본 개시의 실시예들은, 콘볼루션 신경망과 순환 신경망을 이용하여 감지한 병변의 이미지를 디스플레이부에 디스플레이함으로써 진단자가 효율적으로 병변 이미지에 기초한 최종 진단을 제공할 수 있는 시스템 및 방법을 제공하고자 한다.Embodiments disclosed herein provide a system and method for acquiring an image of a patient's body through a capsule endoscope and analyzing the acquired image using a convolutional neural network and a circulatory neural network to detect lesions. In addition, embodiments of the present disclosure are to provide a system and method for a diagnostician to efficiently provide a final diagnosis based on a lesion image by displaying an image of the lesion detected using a convolutional neural network and a circulatory neural network on a display unit do.

본 개시의 일 실시예에 따른 인공신경망을 이용하여 캡슐형 내시경 영상에서 병변을 감지하는 시스템은, 캡슐형 내시경에 의해 촬영된 복수의 이미지 각각의 특징을 추출하며, 추출된 복수의 특징의 시계열적 패턴 특징을 추출하고, 시계열적 패턴 특징의 값을 임계값과 비교하고, 촬영된 복수의 이미지 중에서 임계값을 초과하는 시계열적 패턴 특징의 값에 대응하는 이미지를 디스플레이하고, 복수의 이미지, 추출된 복수의 특징 및 복수의 특징에서 추출한 시계열적 패턴을 저장한다.A system for detecting lesions in a capsule type endoscope image using an artificial neural network according to an embodiment of the present disclosure extracts features of each of a plurality of images photographed by a capsule type endoscope, and time series of the extracted multiple features Extracting the pattern feature, comparing the value of the time-series pattern feature with a threshold value, and displaying an image corresponding to the value of the time-series pattern feature exceeding the threshold value among the captured multiple images, and extracting the plurality of images A plurality of features and time-series patterns extracted from the plurality of features are stored.

본 개시의 다른 실시예에 따른 인공신경망을 이용하여 캡슐형 내시경 영상에서 병변을 감지하는 방법은, 캡슐형 내시경을 이용하여, 인체 장기의 복수의 이미지를 촬영하는 단계, 촬영된 복수의 이미지 각각의 특징을 추출하는 단계, 추출된 복수의 특징의 시계열적 패턴 특징을 추출하는 단계, 시계열적 패턴 특징의 값을 임계값과 비교하는 단계, 촬영된 복수의 이미지 중에서, 임계값을 초과하는 시계열적 패턴 특징의 값에 대응하는 이미지를 디스플레이하는 단계, 복수의 이미지, 추출된 복수의 특징 및 복수의 특징에서 추출한 시계열적 패턴을 저장하는 단계를 포함할 수 있다.According to another embodiment of the present disclosure, a method of detecting a lesion in a capsule-type endoscope image using an artificial neural network includes: taking a plurality of images of a human organ using a capsule-type endoscope; Extracting features, extracting time-series pattern features of the plurality of extracted features, comparing values of time-series pattern features with threshold values, and among a plurality of captured images, time-series patterns exceeding a threshold value And displaying an image corresponding to the value of the feature, storing a plurality of images, a plurality of extracted features, and a time-series pattern extracted from the plurality of features.

본 개시의 다양한 실시예들에 따르면, 캡슐형 내시경을 통해 수집한 신체 내부의 이미지를 콘볼루션 신경망과 순환 신경망을 이용하여 분석하여 병변을 감지하여, 병변이 감지된 이미지들을 디스플레이하기 때문에, 진단자가 효율적으로 최종 진단을 내릴 수 있는 기초 정보를 제공할 수 있다. According to various embodiments of the present disclosure, since an image inside the body collected through the capsule endoscope is analyzed using a convolutional neural network and a circulatory neural network, the lesion is detected, and images detected by the lesion are displayed. It can provide basic information to make the final diagnosis efficiently.

본 개시의 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않은 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned will become apparent to those skilled in the art from the description of the claims.

본 개시의 실시예들은, 이하 설명하는 첨부 도면들을 참조하여 설명될 것이며, 여기서 유사한 참조 번호는 유사한 요소들을 나타내지만, 이에 한정되지는 않는다.
도 1은 본 개시의 일 실시예에 따른 인공신경망을 이용하여 캡슐형 내시경 영상에서 병변을 감지하는 시스템의 개략도이다.
도 2는 본 개시의 일 실시예에 따른 캡슐형 내시경의 구조도이다.
도 3은 본 개시의 일 실시예에 따른 캡슐형 내시경을 통해 수집한 체내 이미지이다.
도 4는 본 개시의 일 실시예에 따른 캡슐형 내시경을 통해 수집한 체내 이미지에 대해 전처리 및 특징 추출 프로세스를 실행한 결과 이미지이다.
도 5는 본 개시의 일 실시예에 따른 콘볼루션 신경망의 구성을 나타내는 구조도이다.
도 6은 본 개시의 일 실시예에 따른 순환 신경망의 구성을 나타내는 구조도이다.
도 7은 본 개시의 일 실시예에 따른 순환 신경망의 결과값이 임계값을 초과하는 경우 병변 구간을 나타내는 그래프이다.
도 8은 본 개시의 일 실시예에 따른 인공신경망을 이용하여 캡슐형 내시경 영상에서 병변을 감지하는 방법을 나타내는 순서도이다.
도 9는 본 개시의 일 실시예에 따라 감지된 병변을 포함하는 이미지와 병변구간을 디스플레이부의 화면을 나타내는 예시도이다.
도 10은 본 개시의 일 실시예에 따른 질병 선택을 통해 임계값이 자동으로 설정되는 디스플레이부의 화면을 나타내는 예시도이다.
도 11은 본 개시의 일 실시예에 따른 임계값 조절을 통해 출력되는 이미지 수를 변경하는 디스플레이부의 화면을 나타내는 예시도이다.
Embodiments of the present disclosure will be described with reference to the accompanying drawings described below, where similar reference numerals indicate similar elements, but are not limited thereto.
1 is a schematic diagram of a system for detecting lesions in an capsule type endoscope image using an artificial neural network according to an embodiment of the present disclosure.
2 is a structural diagram of an capsule endoscope according to an embodiment of the present disclosure.
3 is an image of the body collected through the capsule endoscope according to an embodiment of the present disclosure.
4 is an image of a result of executing a pre-processing and feature extraction process on an internal body image collected through a capsule endoscope according to an embodiment of the present disclosure.
5 is a structural diagram showing the configuration of a convolutional neural network according to an embodiment of the present disclosure.
6 is a structural diagram showing the configuration of a circulating neural network according to an embodiment of the present disclosure.
7 is a graph showing a lesion section when a result value of a circulating neural network according to an embodiment of the present disclosure exceeds a threshold value.
8 is a flowchart illustrating a method of detecting a lesion in an capsule type endoscope image using an artificial neural network according to an embodiment of the present disclosure.
9 is an exemplary view showing a screen of an image display unit and a lesion section including a lesion detected according to an embodiment of the present disclosure.
10 is an exemplary view showing a screen of a display unit in which a threshold is automatically set through disease selection according to an embodiment of the present disclosure.
11 is an exemplary view showing a screen of a display unit that changes the number of images output through threshold adjustment according to an embodiment of the present disclosure.

이하, 본 개시의 실시를 위한 구체적인 내용을 첨부된 도면을 참조하여 상세히 설명한다. 다만, 이하의 설명에서는 본 개시의 요지를 불필요하게 흐릴 우려가 있는 경우, 널리 알려진 기능이나 구성에 관한 구체적 설명은 생략하기로 한다.Hereinafter, with reference to the accompanying drawings, specific details for the practice of the present disclosure will be described in detail. However, in the following description, when there is a risk of unnecessarily obscuring the subject matter of the present disclosure, detailed descriptions of well-known functions or configurations will be omitted.

첨부된 도면에서, 동일하거나 대응하는 구성요소데는 동일한 참조부호가 부여되어 있다. 또한, 이하의 실시예들의 설명에 있어서, 동일하거나 대응하는 구성요소를 중복하여 기술하는 것이 생략될 수 있다. 그러나 구성요소에 관한 기술이 생략되어도, 그러한 구성요소가 어떤 실시예에 포함되지 않는 것으로 의도되지는 않는다.In the accompanying drawings, identical or corresponding components are given the same reference numerals. In addition, in the following description of the embodiments, it may be omitted to describe the same or corresponding elements overlapping. However, although descriptions of components are omitted, it is not intended that such components are not included in any embodiment.

본 개시의 일 실시예에 따른 인공신경망을 이용하여 캡슐형 내시경 영상에서 병변을 감지하는 시스템은, 캡슐형 내시경을 통해 촬영된 인체 장기의 이미지를 전처리부를 통해 보정처리 및/또는 평면 이미지로 변환하고, 변환된 이미지의 특징 추출을 위해 콘볼루션 신경망을 이용한다. 또한, 이 시스템은, 콘볼루션 신경망을 이용하여 추출한 이미지의 특징의 시계열적 패턴 특징 추출을 위해 순환 신경망을 이용하고, 추출된 시계열적 패턴 특징의 값을 일정 값을 가지고 있는 임계값과 비교해 병변을 검출하여 진단자에게 병변의 이미지를 제공할 수 있다.A system for detecting a lesion in a capsule-type endoscope image using an artificial neural network according to an embodiment of the present disclosure converts an image of a human organ taken through the capsule-type endoscope into a correction process and/or a flat image through a pre-processing unit , Convolutional neural network is used for feature extraction of the transformed image. In addition, the system uses a cyclic neural network to extract time-series pattern features of features of an image extracted using a convolutional neural network, and compares the values of the extracted time-series pattern features with threshold values having certain values to determine lesions. Detection can provide an image of the lesion to the diagnostician.

도 1은 본 개시의 일 실시예에 따른 인공신경망을 이용하여 캡슐형 내시경 영상에서 병변을 감지하는 시스템(100)의 개략도이다. 도 1에 도시된 시스템(100)은, 캡슐형 내시경(110)을 통해 수집한 인체 내의 이미지를 무선 통신을 이용하여 병변감지 장치(120)로 전송할 수 있다. 본 개시에 있어서, "캡슐형 내시경"은, 환자가 알약처럼 삼키면 식도를 통과하여 위장, 소장, 대장 등과 같은 체내 기관을 통과하면서 체내 이미지를 촬영하여 전송함으로써, 의사와 같은 진단자가 촬영된 체내 이미지를 비디오 화면이나 컴퓨터 모니터를 통해 관찰하여 장기나 체강의 내부의 상태나 병변 여부를 진단할 수 있게 만든 최소형 내시경 장치를 지칭할 수 있다. 카메라가 부착된 연성 관을 포함하는 일반 내시경의 경우, 내시경이 체내에 삽입되어 있는 동안에 느끼는 고통과 불쾌감 등으로 인해 많은 환자들이 내시경 검사를 회피는 경우가 있다. 캡슐내시경은 이러한 일반 내시경의 단점을 보완하고, 특히 소화기관 가운데 가장 긴 소장 등의 질환 진단에 이용될 수 있도록 개발되었다. 일반적인 캡슐형 내시경은, 1초당 약 1.4장 ~ 2.8장의 영상을 촬영해 무선 통신장치를 통해 외부진단장치로 전송할 수 있다. 통상 캡슐형 내시경이 체내에 머무르는 시간이 약 8~10시간인 점을 고려하면, 총 6만 ~ 8만여장의 고감도 영상 정보를 외부진단장치로 전송하여 저장할 수 있다. 캡슐형 내시경이 체외로 배출되어 검사가 끝나면, 진단자가 외부진단장치에 저장된 영상정보를 모니터를 통해 관찰할 수 있다. 1 is a schematic diagram of a system 100 for detecting lesions in an encapsulated endoscope image using an artificial neural network according to an embodiment of the present disclosure. The system 100 illustrated in FIG. 1 may transmit an image in the human body collected through the capsule endoscope 110 to the lesion detection device 120 using wireless communication. In the present disclosure, the "capsule type endoscope", when the patient swallows like a pill, passes through the esophagus and passes through the internal organs such as the stomach, small intestine, large intestine, etc., and transmits an image of the body, thereby transmitting an image of the body taken by a diagnostician such as a doctor Refers to the smallest endoscope device that can be observed on a video screen or a computer monitor to diagnose the condition or lesion inside the organ or body cavity. In the case of a general endoscope including a flexible tube with a camera attached, many patients avoid the endoscopy due to pain and discomfort felt while the endoscope is inserted into the body. The capsule endoscope was developed to compensate for the shortcomings of this general endoscope and to be used for diagnosis of diseases such as the longest small intestine among digestive organs. A typical capsule endoscope can take about 1.4 to 2.8 images per second and transmit it to an external diagnostic device through a wireless communication device. Considering that a typical capsule type endoscope stays in the body is about 8 to 10 hours, a total of 60,000 to 80,000 high-sensitivity image information can be transmitted to an external diagnostic device and stored. When the capsule endoscope is discharged out of the body and the test is over, the diagnostician can observe the image information stored in the external diagnosis device through the monitor.

도 1에 도시된 바와 같이, 병변감지 장치(120)는, 통신부(122), 전처리부(132), 콘볼루션 신경망부(134), 순환 신경망부(136), 병변구간 감지부(138), 디스플레이부(140), 저장부(124)를 포함할 수 있다. 통신부(122)는, 캡슐형 내시경(110)을 통해 촬영한 인체 내부 이미지를 무선으로 수신하여 프로세서(130)에 전송할 수 있다. As shown in FIG. 1, the lesion detection device 120 includes a communication unit 122, a pre-processing unit 132, a convolutional neural network unit 134, a circulatory neural network unit 136, and a lesion section detection unit 138, It may include a display unit 140, a storage unit 124. The communication unit 122 may wirelessly receive an image of the human body taken through the capsule endoscope 110 and transmit it to the processor 130.

일 실시예에 따르면, 캡슐형 내시경(110)은, 내시경 진행방향의 전면을 촬영하기 위한 이미지 센서(또는 카메라)를 구비하거나, 내시경 진행방향의 측면을 촬영하기 위한 이미지 센서(또는 카메라)를 구비할 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 캡슐형 내시경(110)이 그 진행방향의 측면을 촬영하도록 구성된 경우, 내시경(110)의 측면 외부를 향해 배열된 광원을 통해 조사되어 인체 내부에서 반사된 광을 이미지 센서가 촬영할 수 있다. 이 경우, 인체 내부에서 반사되어 내시경의 측면으로 입사되는 광은, 내시경 진행 방향의 전면에 설치된 반사장치에 의해 반사되어, 내시경 진행 방향의 전면을 향해 배열된 이미지 센서에 의해 촬상될 수 있다. 이때, 이미지 센서는 대략 원형(또는 환형)의 체내 이미지를 촬영하는데, 이렇게 촬영된 원형의 체내 이미지는 통신부(122)를 통해 프로세서(130)에 전송될 수 있다.According to one embodiment, the capsule-type endoscope 110 is provided with an image sensor (or camera) for photographing the front of the endoscope proceeding direction, or an image sensor (or camera) for photographing the side of the endoscope proceeding direction It can, but is not limited to this. For example, when the capsule-type endoscope 110 is configured to photograph a side surface in the traveling direction, the image sensor may photograph light reflected from the inside of the human body by being irradiated through a light source arranged toward the outside of the side surface of the endoscope 110. have. In this case, the light reflected from the inside of the human body and incident on the side of the endoscope is reflected by a reflector installed on the front surface of the endoscope advancing direction, and may be imaged by an image sensor arranged toward the front end of the endoscope advancing direction. At this time, the image sensor photographs a substantially circular (or annular) body image. The photographed body image may be transmitted to the processor 130 through the communication unit 122.

프로세서(130)는, 전처리부(132), 콘볼루션 신경망부(134), 순환 신경망부(136), 병변구간 감지부(138), 디스플레이부(140)를 포함할 수 있다. 전처리부(132)는, 캡슐형 내시경(110)에 의해 촬영된 원형의 체내 이미지를 띠 형상 또는 직사각형의 체내 이미지로 변환할 수 있다. 추가적으로 또는 대안적으로, 전처리부(132)는, 체내 이미지의 병변 특성을 잘 표현할 수 있는 색상 및/또는 형상 특징을 강조하기 위한 이미지 보정을 실행하거나, 체내 이미지로부터 3차원 형상 정보를 추출하는 전처리를 진행할 수 있다. The processor 130 may include a pre-processing unit 132, a convolutional neural network unit 134, a circulating neural network unit 136, a lesion section detection unit 138, and a display unit 140. The pre-processing unit 132 may convert a circular body image photographed by the capsule endoscope 110 into a band-shaped or rectangular body image. Additionally or alternatively, the pre-processing unit 132 performs image correction to emphasize color and/or shape characteristics capable of expressing lesion characteristics of the body image well, or preprocessing to extract 3D shape information from the body image. Can proceed.

캡슐형 내시경(110)을 통한 체내 이미지 촬영 및 수집 과정에서, 캡슐형 내시경의 이미지 센서를 포함한 전자회로에서 열에너지가 발생하기 때문에, 캡슐형 내시경이 촬상한 이미지에 열잡음이 생겨 이미지의 화질을 저하될 수 있다. 이러한 체내 이미지의 화질 저하를 보상하기 위해 전처리부(132)를 통해 이미지의 보정을 할 수 있다. 또한, 체내 이미지는, 캡슐형 내시경(110)의 진행방향의 전면에 배열된 반사장치와 대향하는 위치에 이미지 센서가 배열되어 있으므로, 인체 내부에서 반사된 광이 반사장치에서 다시 반사되어 이미지 센서에 의해 촬영되면, 촬영된 이미지의 중앙 부분은 반사장치의 중앙부 또는 반사장치에 의해 반사된 이미지 센서의 형태가 포함될 수 있다. 이 경우, 도 3에 도시된 바와 같이, 체내 이미지의 중앙이 어둡게 표시되거나 비어 있는 형태로 표현될 수 있다. 따라서, 체내 이미지의 중앙부의 내용은 인체 내부를 반영하는 것이 아니기 때문에, 분석대상에서 제거할 필요가 있다. 이를 위해 원형의 체내 이미지에서 중앙부를 제외한 나머지 환형의 이미지 부분을 평면 이미지로 변환하는 과정을 전처리부(132)를 통해 진행할 수 있다.In the process of taking and collecting an internal image through the capsule endoscope 110, since thermal energy is generated in an electronic circuit including an image sensor of the capsule endoscope, heat noise is generated in the image captured by the capsule endoscope, thereby deteriorating the image quality of the image. Can be. The image may be corrected through the pre-processing unit 132 to compensate for deterioration of the image quality of the body image. In addition, the image in the body, since the image sensor is arranged at a position facing the reflector arranged on the front side of the traveling direction of the capsule endoscope 110, the light reflected inside the human body is reflected back from the reflector to the image sensor When photographed by, the central portion of the photographed image may include a shape of an image sensor reflected by the central portion of the reflector or the reflector. In this case, as illustrated in FIG. 3, the center of the body image may be displayed in a dark or empty form. Therefore, since the content of the central portion of the body image does not reflect the inside of the human body, it is necessary to remove it from the analysis object. To this end, the process of converting the portion of the annular image from the circular body image to the flat image except the center portion may be performed through the pre-processing unit 132.

콘볼루션 신경망부(134)는, 콘볼루션 신경망을 이용하여 전처리부 (132)에서 보정 및/또는 평면 이미지로 변환한 체내 이미지를 분석하여 병변을 감지할 수 있다. 콘볼루션 신경망은, 이미지 패턴을 분석하는데 많이 사용되는 심층 신경망의 한 종류로, 이미지의 공간 정보를 유지한 상태로 특정 패턴을 학습할 수 있다. 콘볼루션 신경망부(134)는, 체내 이미지의 특징을 찾아내기 위해 콘볼루션(합성곱)과 서브샘플링 과정을 반복하는 신경망을 구성할 수 있다. 콘볼루션 신경망부(134)의 콘볼루션 과정에서, 체내 이미지의 처리를 위해 필터(filter)를 이용하는데, 필터(filter)는 일반적으로 정사각형의 행렬로 정의된다. 콘볼루션 신경망부(134)는 필터를 이용하여 체내 이미지를 지정된 간격으로 순회하며 구간별로 콘볼루션(합성곱)을 계산할 수 있다. 이러한 계산 과정을 통해 체내 이미지의 각 구간별로 피처 맵(feature map)을 생성하고, 각 구간의 피처 맵을 합산하여 최종 피처 맵을 생성할 수 있다. 최종 피처 맵을 생성한 후, 최종 피처 맵의 해당 영역의 최대치를 선택하여 크기를 줄이는 서브샘플링(subsampling)과정을 실행할 수 있다. 콘볼루션 신경망부(134)는, 체내 이미지에 대해, 콘볼루션 과정과 서브샘플링 과정을 반복하여, 체내 이미지의 특징만을 포함하는 1차원 행렬을 출력할 수 있다. 출력된 1차원 행렬은, 완전연결 신경망의 입력층에 입력되고, 완전연결 신경망은 입력값에 대응하는 체내 이미지의 특징을 나타내는 출력 값을 출력할 수 있다.The convolutional neural network unit 134 may detect a lesion by analyzing an internal image converted into a flat image and/or corrected by the preprocessing unit 132 using the convolutional neural network. The convolutional neural network is a type of deep neural network that is frequently used to analyze image patterns, and can learn a specific pattern while maintaining spatial information of the image. The convolutional neural network unit 134 may configure a neural network that repeats a convolution (composite) and subsampling process to find characteristics of an image in the body. In the convolution process of the convolutional neural network unit 134, a filter is used to process the body image, and the filter is generally defined as a square matrix. The convolutional neural network unit 134 may traverse the body image at a specified interval using a filter and calculate convolution (composite product) for each section. Through this calculation process, a feature map may be generated for each section of the body image, and a feature map of each section may be added to generate a final feature map. After generating the final feature map, a subsampling process may be performed to reduce the size by selecting a maximum value of a corresponding area of the final feature map. The convolutional neural network unit 134 may repeat the convolution process and the subsampling process for the body image, and output a one-dimensional matrix including only features of the body image. The output one-dimensional matrix is input to the input layer of the fully connected neural network, and the fully connected neural network may output an output value representing characteristics of the body image corresponding to the input value.

순환 신경망부(136)에서는, 콘볼루션 신경망부(134)에서 출력된 체내 이미지들의 특징 출력 값들의 시계열적 패턴 변화를 분석하여 병변 구간을 감지할 수 있다. 순환 신경망은, 문장이나 음성과 같이 순서가 있는 입력 정보에 있어서 시계열적 패턴 변화를 분석하는데 사용되는 심층 신경망의 한 종류이다. 순환 신경망은, 시계열 데이터와 같이 시간의 흐름에 따라 변화하는 데이터를 학습하는데, 기준 시점(t)의 과거 시점(t-1)와 다음 시점(t+1)을 상호 연결한 신경망으로 구성할 수 있다. 즉, 순환 신경망의 구조는, 입력층과 출력층, 은닉층으로 구성되어 있는데, 은닉층은 직전 시점(t-1)의 은닉층의 출력을 받아 갱신되어 출력층으로 전달되는 값을 생성할 수 있다. 순환 신경망부(136)는, 콘볼루션 신경망부(134)에서 출력되는 시간적으로 변화하는 체내 이미지들의 특징 출력 값들을 입력층에 입력하고, 직전 시점(t-1)의 은닉층의 출력을 받아 갱신된 은닉층을 이용하여 출력 값을 도출함으로써, 체내 이미지의 시간에 따른 시계열적 패턴 변화를 도출할 수 있다.In the circulating neural network unit 136, a lesion section may be detected by analyzing a time-series pattern change of characteristic output values of body images output from the convolutional neural network unit 134. Cyclic neural networks are a type of deep neural network used to analyze time-series pattern changes in ordered input information such as sentences and voices. Cyclic neural networks learn data that changes with the passage of time, such as time series data, and can be composed of neural networks that interconnect the past time (t-1) and the next time (t+1) of the reference time (t). have. That is, the structure of the circulatory neural network is composed of an input layer, an output layer, and a hidden layer. The hidden layer may receive the output of the hidden layer at the previous point in time (t-1) and be updated to generate a value transmitted to the output layer. The cyclic neural network unit 136 inputs characteristic output values of temporally changing body images output from the convolutional neural network unit 134 to the input layer, and receives the output of the hidden layer at the previous point in time t-1 and is updated. By deriving the output value using the hidden layer, it is possible to derive a time-series pattern change over time of the body image.

병변구간 감지부(138)는, 순환 신경망부(136)에서 도출한 체내 이미지의 시간에 따른 시계열적 패턴 변화를 나타내는 값을 임계값과 비교하여, 임계값 이상이 되는 시계열적 패턴 변화 구간을 병변구간으로 판단할 수 있다. 즉, 병변구간 감지부(138)는, 체내 이미지의 시간에 따른 시계열적 패턴 변화 값을 병변 판단 기준이 되는 기 설정 된 임계값과 비교하여, 기 설정 된 임계값보다 작은 값을 갖는 구간은 정상 상태를 나타내고, 기 설정 된 임계값보다 큰 값을 갖는 구간은 병변 부위가 있을 가능성이 높은 구간이라고 판단할 수 있다. The lesion section detection unit 138 compares a value representing a time series pattern change over time of the body image derived from the circulatory neural network unit 136 with a threshold value, and determines a time series pattern change section that is greater than or equal to the threshold value You can judge by section. That is, the lesion section detecting unit 138 compares the time-series pattern change value according to the time of the body image with a preset threshold that is a criterion for determining the lesion, and a section having a value smaller than the preset threshold is normal. The section representing the state and having a value greater than a predetermined threshold value may be determined to be a section having a high probability of having a lesion site.

디스플레이부(140)는, 병변구간 감지부(138)에서 병변 구간에 대응된다고 판단한 체내 이미지를, 진단자가 분석 및 진단할 수 있도록 디스플레이에 출력 할 수 있다. The display 140 may output an image of the body determined by the lesion section detection unit 138 to correspond to the lesion section on the display so that the diagnosis and analysis can be performed by the diagnosis unit.

저장부(124)는, 통신부(122)를 통해 수신된 체내 이미지들을 저장할 수 있다. 또한, 저장부(124)는, 프로세서(130)의 전처리부(132), 콘볼루션 신경망부(134), 순환 신경망부(136), 병변구간 감지부(138), 디스플레이부(140)와 관련되어 발생한 데이터들을 저장할 수 있다.The storage unit 124 may store internal images received through the communication unit 122. In addition, the storage unit 124 is associated with the pre-processing unit 132, the convolutional neural network unit 134, the circulatory neural network unit 136, the lesion section detection unit 138, and the display unit 140 of the processor 130. Data can be saved.

이상 설명한 병변감지 장치(120)의 구성에 따르면, 프로세서(130)는, 캡슐형 내시경(110)에서 수집한 체내 이미지를 통신부(122)를 통해 수신하고, 통신부(122)를 통해 수신한 원형의 이미지는, 전처리부(132)를 통해 이미지 보정과 변환 과정을 거쳐 평면 이미지로 변환될 수 있다. 전처리부(132)가 체내 이미지에 대해 보정과 평면 이미지화 작업을 실행하면, 보정 및 변환된 평면 이미지는 콘볼루션 신경망(134)에 입력된다. 콘볼루션 신경망(134)는, 평면 이미지에 대한 합성곱 및 서브샘플링 과정을 반복하고, 최종적으로 완전연결 신경망에 의한 분석을 통해 체내 이미지의 특징을 산출한다. 또한, 순환 신경망(136)은, 순서가 있는 체내 이미지의 특징 값들을 입력으로 수신하여 분석함으로써, 체내 이미지의 시간에 따른 시계열적 패턴 변화를 출력할 수 있다. 출력된 체내 이미지의 시간에 따른 시계열적 패턴 변화 값은 병변구간 감지부(138)에서 임계값과 비교되며, 임계값 보다 큰 시계열적 패턴 변화 값을 갖는 구간은 병변 구간으로 식별되어, 디스플레이부(140)에 출력될 수 있다.According to the configuration of the lesion detection device 120 described above, the processor 130 receives the body image collected from the capsule endoscope 110 through the communication unit 122, and receives the circular image received through the communication unit 122 The image may be converted into a flat image through an image correction and conversion process through the pre-processing unit 132. When the pre-processing unit 132 performs correction and plane imaging on the body image, the corrected and transformed plane image is input to the convolutional neural network 134. The convolutional neural network 134 repeats the synthesis product and the subsampling process for the planar image, and finally calculates the characteristics of the body image through analysis by the fully connected neural network. Also, the circulatory neural network 136 may receive and analyze feature values of an ordered body image as input, and output a time-series pattern change over time of the body image. The time-series pattern change value according to the time of the output body image is compared with the threshold value in the lesion section detection unit 138, and a section having a time-series pattern change value greater than the threshold value is identified as a lesion section, and the display unit ( 140).

도 2는 본 개시의 일 실시예에 따른 캡슐형 내시경의 구조도이다. 도시된 바와 같이, 캡슐형 내시경(110)은, 광원(212), 이미지센서(214), 반사장치(216), 데이터 송신부(218)를 포함할 수 있다. 체내(230)로 들어간 캡슐형 내시경(110)은, 병변 조직 또는 정상 조직의 이미지를 포함하는 다양한 체내 이미지 데이터를 수집할 수 있다. 2 is a structural diagram of an capsule endoscope according to an embodiment of the present disclosure. As shown, the capsule endoscope 110 may include a light source 212, an image sensor 214, a reflection device 216, and a data transmission unit 218. The capsule-type endoscope 110 that has entered the body 230 may collect various body image data including images of lesion tissue or normal tissue.

광원(212)은, 캡슐형 내시경(110)의 진행방향의 측면을 향해 광을 조사하여, 조사된 광을 내시경(110)에 측면에 대향하고 있는 체내(230)의 내부면에서 반사시킬 수 있다. 채내(230)의 내부면에서 반사된 광은, 반사장치(216)를 통해 다시 반사되어 이미지센서(214)로 입사될 수 있다. 이때, 반사장치(216)는, 전부 및/또는 일부가 광을 반사하는 특성을 가진 재료로 구성될 수 있다. 이미지센서(214)는, 반사장치(216)에서 반사된 광을 촬영하고 이미지로 변환하여, 데이터 송신부(218)를 통해 인체 외부의 기록장치 또는 병변감지 장치에 송신할 수 있다. The light source 212 may irradiate light toward a side surface in the traveling direction of the capsule endoscope 110 and reflect the irradiated light on the inner surface of the body 230 facing the side surface of the endoscope 110. . The light reflected from the inner surface of the house 230 may be reflected back through the reflector 216 and incident on the image sensor 214. In this case, the reflection device 216 may be made of a material having properties that partially and/or partially reflect light. The image sensor 214 may photograph the light reflected by the reflector 216 and convert it into an image, and transmit it to a recording device or a lesion sensing device outside the human body through the data transmission unit 218.

일 실시 예에서, 이미지센서(214)가 촬영한 체내 이미지는, 병변(220) 조직의 이미지를 포함할 수 있다. 캡슐형 내시경(110)의 광원(212)에서 조사되어 체내(230)에서 반사된 광은, 반사장치(216)에서 다시 한번 반사되어 캡슐형 내시경(110) 내의 이미지 센서(214)로 입사될 수 있다. 이때, 이미지 센서(214)로 입사되는 광은, 내시경(110)의 측면을 둘러싼 360도 전방위의 체내 내부면으로부터 반사된 광이기 때문에, 원형의 체내 이미지로 표현될 수 있다.In one embodiment, the body image captured by the image sensor 214 may include an image of the tissue of the lesion 220. The light irradiated from the light source 212 of the capsule endoscope 110 and reflected from the body 230 may be reflected once again by the reflector 216 and incident on the image sensor 214 in the capsule endoscope 110. have. At this time, since the light incident on the image sensor 214 is light reflected from the internal surface of the body 360 degrees omnidirectional surrounding the side surface of the endoscope 110, it can be expressed as a circular internal image.

도 3은 본 개시의 일 실시예에 따른 캡슐형 내시경을 통해 수집한 체내 이미지이다. 캡슐형 내시경(110)의 반사장치(216)에서 바라보았을 때, 이미지센서(214)는 반사장치(216)와 대향하는 내시경 내부의 중앙에 위치하고 있으므로, 체내에서 반사된 광이 반사장치(216)에서 다시 반사되는 과정에서 이미지센서(214)의 형태도 같이 반사될 수 있다. 따라서, 이미지센서(214)에 의해 촬영된 체내 이미지(310, 312, 314, 316)는 그 중앙부분이 비어 있는 형태를 가질 수 있다. 3 is an image of the body collected through the capsule endoscope according to an embodiment of the present disclosure. When viewed from the reflector 216 of the capsule endoscope 110, the image sensor 214 is located in the center of the inside of the endoscope facing the reflector 216, so the light reflected from the body reflects the reflector 216 In the process of being reflected again, the shape of the image sensor 214 may also be reflected. Accordingly, the body images 310, 312, 314, and 316 photographed by the image sensor 214 may have an empty shape in the center.

일 실시예에서, 캡슐형 내시경(110)이 체내(230)를 이동하면서 그 주변의 이미지를 획득함에 따라, 내시경(110)은 시간에 따라 변화하는 패턴을 갖는 복수의 체내 이미지를 획득할 수 있다. 예를 들어, 캡슐형 내시경(110)이, t 시간에 병변(320)의 일부가 보이기 시작하는 체내 이미지(310)를 획득한다면, 시간이 경과함에 따라, 각각 t+1 시간 일 때 병변(320)이 좀 더 많이 보이는 체내 이미지(312), t+2 시간 일 때 병변(320)이 완전히 보이는 체내 이미지(314), t+3 시간 일 때 병변(320)의 일부가 사라지는 체내 이미지(316)를 획득할 수 있다.In one embodiment, as the capsule-type endoscope 110 moves the body 230 and acquires an image around it, the endoscope 110 may acquire a plurality of body images having a pattern that changes over time. . For example, if the capsule endoscope 110 acquires an internal body image 310 in which part of the lesion 320 starts to be visible at time t, as time passes, the lesions 320 are each at t+1 hour ) Is a more visible body image 312, an image of the body 320 where the lesion 320 is completely visible at t+2 hours, 314 an image of a body where part of the lesion 320 disappears at t+3 hours Can be obtained.

도 4는 본 개시의 일 실시예에 따른 캡슐형 내시경을 통해 수집한 체내 이미지에 대해 전처리 및 특징 추출 프로세스를 실행한 결과 이미지이다. 도 3에서 획득한 체내 이미지(310, 312, 314, 316)는, 중앙이 비어 있거나 어두운 원형의 이미지이다. 따라서, 병변 진단의 편의를 위해, 체내 이미지의 중앙에 나타난 원형을 제거하고, 원형의 이미지를 평면의 이미지로 변환하는 보정 과정을 전처리부(132)를 통해 진행할 수 있다. 4 is an image of a result of executing a pre-processing and feature extraction process on an internal body image collected through a capsule endoscope according to an embodiment of the present disclosure. The body images 310, 312, 314, and 316 obtained in FIG. 3 are empty or dark circular images in the center. Therefore, for the convenience of diagnosing lesions, a correction process for removing a circle appearing in the center of the body image and converting the circle image into a plane image may be performed through the pre-processing unit 132.

일 실시예에 따라, 체내 이미지의 보정을 위해, 내시경의 광원이 발광 된 상태에서 촬영된 체내 발광 이미지와, 광원이 무광인 상태에서 촬영된 체내 무광 이미지를 획득할 수 있다. 전처리부(132)는, 통신부(122)를 통해 체내 발광 이미지와 체내 무광 이미지를 수신하고, 체내 발광 이미지의 픽셀값에서 체내 무광 이미지의 픽셀값을 감산함으로써, 체내 발광 이미지에서 중앙의 어두운 부분을 삭제하는 보정을 실행할 수 있다. 또한, 전처리부(132)는, 캡슐형 내시경을 통해 수신한 원형의 체내 이미지(310, 312, 314, 316) 중, 어두운 중앙부를 둘러싼 안쪽 원의 둘레와, 바깥쪽 원의 반지름에서 안쪽 원의 반지름을 뺀 값을 각각 x, y좌표축으로 변환하는 전처리 작업을 수행함으로써, 평면 이미지(410, 412, 414, 416)를 획득할 수 있다.According to an embodiment, for correcting an internal body image, an internal body radiated image photographed while the endoscope light source is emitted and an internal matte image photographed while the light source is matt. The pre-processing unit 132 receives the body light-emitting image and the body matte image through the communication unit 122 and subtracts the pixel value of the body light-emitting image from the pixel value of the body light-emitting image, thereby reducing the central dark portion of the body light-emitting image. Correction to delete can be performed. In addition, the pre-processing unit 132 of the inner body of the circular body image (310, 312, 314, 316) received through the capsule endoscope, the inner circle surrounding the dark central portion, and the radius of the outer circle of the inner circle By performing a pre-processing operation for converting the value minus the radius to the x and y coordinate axes, plane images 410, 412, 414, and 416 can be obtained.

즉, 도 3에서 획득한 시간이 t 일 때의 체내 이미지(310), 시간이 t+1 일 때의 체내 이미지(312), 시간이 t+2 일 때의 체내 이미지(314), 시간이 t+3 일 때의 체내 이미지(316)는, 전처리부(132)를 통하여, 각각 시간이 t 일 때의 체내 이미지(410), 시간이 t+1 일 때의 체내 이미지(412), 시간이 t+2 일 때의 체내 이미지(414), 시간이 t+3 일 때의 체내 이미지(416)로 변환될 수 있다. 체내 이미지(410, 412, 414, 416)에 있어서 병변(420)은, 시간이 경과함에 따라, 이미지의 하부에서 일부 나타나기 시작해서 그 전체 형상을 보인 후에 다시 이미지의 상부에서 일부 사라지는 시계열적 패턴을 보인다.That is, the body image 310 when the time obtained in FIG. 3 is t, the body image 312 when the time is t+1, the body image 314 when the time is t+2, and the time t The body image 316 at +3 is through the pre-processing unit 132, respectively, the body image 410 at time t, the body image 412 at time t+1, and time t The body image 414 at +2 and the body image 416 at time t+3 may be converted. In the body images 410, 412, 414, and 416, the lesion 420, as time elapses, begins to appear partially at the bottom of the image, shows a full shape, and then partially disappears from the top of the image. see.

도 5는 본 개시의 일 실시예에 따른 콘볼루션 신경망(500)의 구성을 나타내는 구조도이다. 콘볼루션 신경망(500)은 콘볼루션 신경망부(134)에서 사용되어, 전처리부(132)에서 보정 및/또는 평면 이미지로 변환된 체내 이미지 각각에서 병변을 감지하기 위해 패턴 분석을 실행할 수 있다. 콘볼루션 신경망(500)은, 체내 이미지의 2차원적 특징을 찾아내기 위해 콘볼루션(합성곱)과 서브샘플링을 반복하는 과정을 실행할 수 있다. 5 is a structural diagram showing the configuration of a convolutional neural network 500 according to an embodiment of the present disclosure. The convolutional neural network 500 may be used in the convolutional neural network unit 134 to perform pattern analysis to detect lesions in each of the body images that are corrected and/or converted into a planar image by the preprocessing unit 132. The convolutional neural network 500 may execute a process of repeating convolution (composite) and subsampling to find the two-dimensional characteristics of the body image.

도시된 바와 같이, 콘볼루션 신경망(500)은, 체내 이미지(510)에 대해 정사각형의 행렬로 정의된 필터(filter)를 이용하여 체내 이미지를 지정된 간격으로 순회하며 구간별로 콘볼루션(합성곱)을 계산할 수 있다. 콘볼루션(합성곱)을 통해 구간별로 피처 맵(feature map)이 생성되고, 각 구간의 피처 맵(feature map)을 합산하여 최종 피처 맵(512)이 생성될 수 있다. 최종 피처 맵(512)이 생성된 후, 최종 피처 맵(512)의 해당 영역의 최대치를 선택하여 크기를 줄이는 서브샘플링(subsampling, 520)과정을 통해 최종 피처 맵의 크기를 줄일 수 있다. 콘볼루션 신경망(500)은, 체내 이미지에 대해, 피처 맵(512, 514, 516)을 생성하는 콘볼루션(합성곱) 과정과 서브샘플링(520, 522)과정을 반복하여, 체내 이미지의 특징만 남기고 1차원 행렬을 출력할 수 있다. 또한, 완전연결 신경망(518)은 체내 이미지의 특징을 나타내는 1차원 행렬을 입력받아, 체내 이미지의 2차원적 특징을 나타내는 최종 출력값(x)을 생성한다.As shown, the convolutional neural network 500 traverses the body image at a specified interval using a filter defined as a square matrix for the body image 510, and performs convolution (composite) for each section. Can be calculated. A feature map may be generated for each section through convolution (composite product), and a final feature map 512 may be generated by summing feature maps of each section. After the final feature map 512 is generated, the size of the final feature map may be reduced through a process of subsampling 520 to reduce the size by selecting a maximum value of a corresponding area of the final feature map 512. The convolutional neural network 500 repeats the convolution (composite product) process and subsampling (520, 522) process to generate feature maps 512, 514, and 516 for the body image, and only the characteristics of the body image are repeated. You can print out a one-dimensional matrix. In addition, the fully connected neural network 518 receives a one-dimensional matrix representing the characteristics of the body image, and generates a final output value x representing the two-dimensional characteristics of the body image.

일 실시 예에서, 도 4에서 획득한 시간이 t 일 때의 체내 이미지(410), 시간이 t+1 일 때의 체내 이미지(412), 시간이 t+2 일 때의 체내 이미지(414), 시간이 t+3 일 때의 체내 이미지(416) 각각을 콘볼루션 신경망(500)의 입력 값으로 입력할 수 있다. 입력된 각각의 체내 이미지(410, 412, 414, 416)는, 피처 맵(512, 514, 516)을 생성하는 콘볼루션(합성곱) 과정과 서브샘플링(520, 522) 과정을 반복하고, 최종적으로 완전연결 신경망(518)에 의한 특징 추출 과정을 거쳐, 체내 이미지의 2차원적 특징을 포함하는 t, t+1, t+2, t+3 시간 일 때의 출력값들(x)을 생성할 수 있다. In one embodiment, the body image 410 when the time obtained in FIG. 4 is t, the body image 412 when the time is t+1, the body image 414 when the time is t+2, Each of the body images 416 when the time is t+3 may be input as an input value of the convolutional neural network 500. Each input body image 410, 412, 414, 416 repeats the convolution (composite) process and subsampling (520, 522) process to generate feature maps 512, 514, and 516, and finally Through the feature extraction process by the fully connected neural network 518, output values (x) at t, t+1, t+2, t+3 time including the two-dimensional features of the body image are generated. Can be.

도 6은 본 개시의 일 실시예에 따른 순환 신경망(600)의 구성을 나타내는 구조도이다. 순환 신경망(600)은, 순환 신경망부(134)에서 사용되어, 콘볼루션 신경망부(134)에서 출력된 체내 이미지의 2차원적 특징들을 나타내는 출력값들에 기초하여 체내 이미지들의 시계열적 패턴 변화를 분석하여 병변 구간을 감지할 수 있다. 순환 신경망(600)은, 시계열 데이터와 같이 시간의 흐름에 따라 변화하는 데이터를 학습하고 인식하기 위한 인공신경망이다. 순환 신경망(600)은, 입력층(610)에 입력된 값(x)을 기초로 은닉층(620)의 활성화 함수를 통해 산출된 결과값을 출력층(630)으로 보내면서, 은닉층(620)은 자신의 상태값(은닉 상태값)을 다시 자신에게 보내서 다음 결과값의 산출에 사용한다. 이와 같이, 순환신경망(600)에 있어서 기준 시점(t)에서의 은닉층(620)의 뉴런은 이전 시점(t-1)에서 동일 뉴런에서 출력된 값을 계속해서 자신의 입력으로 보내는 재귀적 계산과정을 실행함으로써, 입력(x)의 시간 경과에 따른 변화 패턴을 출력(y)으로 표현할 수 있다. 6 is a structural diagram showing the configuration of a circulating neural network 600 according to an embodiment of the present disclosure. The circulatory neural network 600 is used in the circulating neural network unit 134 and analyzes time-series pattern changes of images in the body based on output values representing two-dimensional characteristics of the body image output from the convolutional neural network unit 134. By detecting the lesion section. The recurrent neural network 600 is an artificial neural network for learning and recognizing data that changes over time, such as time series data. The circulatory neural network 600 sends the result value calculated through the activation function of the concealment layer 620 based on the value x input to the input layer 610 to the output layer 630, while the concealment layer 620 itself Send the status value (hidden status value) back to itself and use it to calculate the next result value. As described above, in the circulatory neural network 600, the neurons of the hidden layer 620 at the reference point t are continuously recursively calculating values output from the same neuron at the previous point t-1 as their input. By executing, it is possible to express the change pattern over time of the input (x) as the output (y).

또한, 순환 신경망(600)은, 각 계층마다 서로 다른 매개변수를 가지는 일반적 다중계층신경망과는 달리 각 계층마다 동일한 매개변수들 또는 그 매개변수들의 적어도 일부를 공유할 수 있다. 순환 신경망(600)은, 각 계층마다 적어도 일부의 매개변수를 공유함에 따라 학습 대상 매개변수의 개수가 크게 감소하여 학습 시간이 감소될 수 있다. 이때, 순환 신경망(600)은, 매개변수를 변경함에 따라 결과값 산출을 다르게 표현할 수 있다.Also, the recurrent neural network 600 may share the same parameters or at least a portion of the parameters for each layer, unlike a general multi-layer neural network having different parameters for each layer. The recurrent neural network 600 may reduce learning time by significantly reducing the number of parameters to be learned by sharing at least some parameters for each layer. At this time, the circulating neural network 600 may express the result calculation differently as the parameters are changed.

일 실시예에서, 순환 신경망(600)은, 콘볼루션 신경망부(134)에서 출력된 체내 이미지의 2차원적 특징을 나타내는 값들(

Figure pat00001
)을 입력층(610)에 입력하고, 직전 시점(t-1)의 은닉 상태를 받아 갱신된 은닉층(610)의 출력 값(
Figure pat00002
)을 산출함으로써, 체내 이미지의 시간에 따른 시계열적 패턴 변화를 도출할 수 있다.In one embodiment, the circulatory neural network 600 includes values representing two-dimensional characteristics of the body image output from the convolutional neural network unit 134 (
Figure pat00001
) Is input to the input layer 610, and the output value of the updated hidden layer 610 is received by receiving the hidden state of the previous point in time t-1 (
Figure pat00002
By calculating ), it is possible to derive a time-series pattern change with time of the body image.

다른 실시예에서, 사용자는, 순환 신경망(600)의 색상 모델의 매개변수를 다르게 조절하여 결과값을 다르게 산출할 수 있다. 사용자는, 캡슐형 내시경을 통해 수집한 체내 이미지를 Gray 모델, RGB 모델, HSV 모델, YCbCr 모델과 같은 매개변수를 이용하여 결과값을 다르게 산출할 수 있다. Gray 모델은, 색 정보를 사용하지 않고 밝기 정보만으로 이미지를 표현하는 것으로, 검정색값인 0부터 흰색값인 255까지 총 256 단계의 밝기값으로 이미지의 픽셀값을 표현할 수 있다. RGB 모델은, 가장 기본적인 색상모델로서 특정 색을 적색, 녹색, 청색의 3가지 성분의 조합으로 구성할 수 있다. HSV 모델은, 색조, 채도, 명도의 3가지 성분으로 색을 표현하며, 채도값이 0이면 무채색, 255이면 가장 선명한 색을 표현할 수 있다. YCbCr 모델은, 밝기 정보를 사용하지 않고, 순수한 색상 정보만을 이용하여 이미지를 표현할 수 있다. 사용자는, 순환 신경망(600)의 색상 모델의 매개변수를 조절하여 다양한 형상의 체내 이미지를 산출할 수 있다. 예를 들어, 사용자는 밝기 정보를 사용하지 않고 순수한 색상 정보만을 이용하는 YCbCr 모델을 이용하여 캡슐형 내시경을 통해 수집한 체내 이미지를 표현할 수 있다. YCbCr 모델을 이용한 체내 이미지는, 밝기값을 제거한 순수한 색상 정보만을 이용하기 때문에, 체내의 환경 변화에 관계없이 동일한 물체의 색을 효과적으로 인지하여 보다 선명하고 정확한 체내 이미지를 수집할 수 있다. In another embodiment, the user may differently adjust the parameters of the color model of the cyclic neural network 600 to calculate different results. The user can calculate the result value differently using parameters such as Gray model, RGB model, HSV model, and YCbCr model for the body image collected through the capsule endoscope. The Gray model expresses an image with only brightness information without using color information, and can express pixel values of an image with a total of 256 levels of brightness values ranging from a black value of 0 to a white value of 255. The RGB model is the most basic color model, and a specific color can be composed of a combination of three components: red, green, and blue. The HSV model expresses color with three components: hue, saturation, and brightness. When the saturation value is 0, achromatic color and 255 can express the most vivid color. The YCbCr model can express an image using only pure color information without using brightness information. The user may calculate the body images of various shapes by adjusting the parameters of the color model of the circulatory neural network 600. For example, the user can express the body image collected through the capsule endoscope using the YCbCr model that uses only pure color information without using brightness information. Since the body image using the YCbCr model uses only pure color information without the brightness value, it is possible to effectively recognize the color of the same object regardless of the environment change in the body and collect a clearer and more accurate body image.

도 7은 본 개시의 일 실시예에 따른 순환 신경망의 결과값이 임계값을 초과하는 경우 병변 구간을 나타내는 그래프이다. 병변구간 감지부(138)는, 순환 신경망부(136)에서 도출한 체내 이미지의 시간에 따른 시계열적 패턴 변화(

Figure pat00003
)를 임계값과 비교하여, 임계값을 초과하는 패턴 변화값(yt)을 포함한 구간을 병변 가능성이 높은 병변 구간으로 감지할 수 있다. 즉, 병변구간 감지부(138)는, 시간 t 일 때의 체내 이미지의 시간에 따른 시계열적 패턴 변화(yt)를 기 설정된 임계값과 비교하여, 기 설정 된 임계값보다 작으면 정상 구간, 기 설정 된 임계값보다 크면 병변 구간이라고 판단할 수 있다. 7 is a graph showing a lesion section when a result value of a circulating neural network according to an embodiment of the present disclosure exceeds a threshold value. The lesion section detection unit 138 changes the time series pattern with time of the body image derived from the circulatory neural network unit 136 (
Figure pat00003
) Is compared with a threshold value, and a section including a pattern change value y t exceeding the threshold value may be detected as a lesion section having a high probability of lesion. That is, the lesion section detecting unit 138 compares the time-series pattern change (y t ) with time of the body image at the time t with a preset threshold, and if it is smaller than the preset threshold, the normal section, If it is larger than the preset threshold, it can be determined that it is a lesion section.

일 실시 예에서, 순환 신경망부(136)에서 도출한 체내 이미지의 시간에 따른 시계열적 패턴 변화값(

Figure pat00004
)의 범위를
Figure pat00005
라 가정하고, 임계값을 0.5로 가정하였을 때, 기 설정된 임계값인 0.5를 넘어가는 시계열적 패턴 변화(
Figure pat00006
)는 모두 병변이 포함된 병변 부위라고 판단할 수 있고, 0.5를 넘어가지 않는 시계열적 패턴 변화(
Figure pat00007
)는 모두 정상 부위라고 판단할 수 있다.In one embodiment, the time-series pattern change value with time of the body image derived from the circulatory neural network unit 136 (
Figure pat00004
) Range
Figure pat00005
D, and when the threshold is assumed to be 0.5, the time-series pattern changes beyond the preset threshold of 0.5 (
Figure pat00006
) Can be judged to be all lesions containing lesions, and time-series pattern changes not exceeding 0.5 (
Figure pat00007
) Can be judged to be all normal parts.

도 8은 본 개시의 일 실시예에 따른 인공신경망을 이용하여 캡슐형 내시경 영상에서 병변을 감지하는 방법을 나타내는 순서도이다. 인공신경망을 이용하여 캡슐형 내시경 영상에서 병변을 감지하는 방법(800)은, 인체 장기를 촬영하여 원형의 체내 이미지를 획득하는 단계(S810)로 개시될 수 있다. 캡슐형 내시경(110)은, 광원(212)을 통해 조사된 광이 인체 내부에서 반사되어 이미지센서(214)로 입사될 수 있다. 이미지센서(214)로 입사한 반사광은, 원형의 체내 이미지로 촬영되어 데이터 송신부(218)를 통해 인체 외부의 기록장치 또는 병변감지 장치(120)에 송신될 수 있다. 이때, 캡슐형 내시경(110)의 반사장치에서 바라보았을 때, 이미지 센서가 내시경(110)의 중앙에 위치하고 있으므로, 인체 내부에서 반사된 광이 반사장치에서 다시 반사되는 과정에서 이미지 센서의 형태도 같이 반사되기 때문에, 체내 이미지는 대략 원형 또는 환형으로 촬영될 수 있다.8 is a flowchart illustrating a method of detecting a lesion in an capsule type endoscope image using an artificial neural network according to an embodiment of the present disclosure. The method 800 for detecting a lesion in an encapsulated endoscope image using an artificial neural network may be started as a step S810 of capturing a human body organ and obtaining a circular body image. In the capsule endoscope 110, light irradiated through the light source 212 may be reflected inside the human body and incident on the image sensor 214. The reflected light incident on the image sensor 214 may be photographed as a circular body image and transmitted to the recording device or lesion detection device 120 outside the human body through the data transmission unit 218. At this time, when viewed from the reflection device of the capsule endoscope 110, since the image sensor is located in the center of the endoscope 110, the shape of the image sensor is also reflected in the process of reflecting light reflected from the inside of the human body back into the reflection device. Because it is reflected, the body image can be photographed in a substantially circular or annular shape.

인체 외부의 병변감지 장치로 송신된 원형의 체내 이미지에 대해서는, 전처리부(132)를 통해 원형 이미지의 보정과 평면 이미지로의 변환을 위한 전처리가 진행(S820)될 수 있다. 캡슐형 내시경(110)을 통해 획득한 체내 이미지는, 중앙이 어둡거나 비어 있는 원형의 체내 이미지로, 병변 추출을 위해 중앙의 어두운 부분을 제거하고, 원형의 이미지를 평면의 이미지로 변환하는 보정과정을 거칠 수 있다. 체내 이미지를 보정하는 방법으로는, 캡슐형 내시경(110)의 광원이 발광인 상태에서 촬영된 체내 이미지의 픽셀 값과 광원이 무광인 상태에서 촬영된 체내 이미지의 픽셀 값을 감산하는 방법이 사용될 수 있다. 또한, 캡슐형 내시경을 통해 수신한 중앙이 어두운 원형의 체내 이미지 중, 안쪽 원 이미지의 둘레와, 바깥쪽 원의 반지름에서 안쪽 원의 반지름을 뺀 값을 각각 x, y 좌표축으로 변환하는 전처리 작업을 수행하여 평면 이미지를 획득할 수 있다.For a circular body image transmitted to a lesion detection device outside the human body, pre-processing for correction of the circular image and conversion to a flat image may be performed through the pre-processing unit 132 (S820). The body image obtained through the capsule endoscope 110 is a circular body image with a dark or empty center, a darkening process of removing the dark part in the center for extracting lesions, and converting the circular image into a flat image. Can go through. As a method of correcting the body image, a method of subtracting the pixel value of the body image photographed while the light source of the capsule endoscope 110 is illuminated and the pixel value of the body image photographed while the light source is matt may be used. have. In addition, the pre-processing operation of converting the values of the inner circle image circumference of the inner circle image and the radius of the outer circle minus the radius of the inner circle to the x and y coordinate axes, respectively, among the body images of the dark center circle received through the capsule endoscope. By performing, it is possible to obtain a flat image.

그 후, 콘볼루션 신경망을 이용하여 획득한 체내 이미지의 특징을 추출할 수 있다(S830). 콘볼루션 신경망부(134)는, 콘볼루션 신경망(500)을 이용하여, 전처리부(132)에서 보정 및/또는 평면 이미지로 변환된 체내 이미지에서 병변을 감지하기 위해 패턴 분석을 실행하여 체내 이미지의 2차원적 특징을 나타내는 출력값을 생성할 수 있다.Thereafter, the characteristics of the body image obtained using the convolutional neural network may be extracted (S830 ). The convolutional neural network unit 134 uses the convolutional neural network 500 to perform pattern analysis to detect lesions in the body image that has been corrected and/or converted into a planar image by the pre-processing unit 132, and then performs the analysis of the body image. An output value representing a two-dimensional characteristic can be generated.

순차적으로 또는 이와 동시에, 순환 신경망을 이용하여 콘볼루션 신경망부에서 추출된 이미지의 2차원적 특징값들로부터 시계열적 패턴 특징을 추출할 수 있다(S840). 일 실시예에서, 순환 신경망(600)은, 콘볼루션 신경망부(134)에서 출력된 체내 이미지의 2차원적 특징을 나타내는 값들(

Figure pat00008
)을 입력층(610)에 입력하고, 직전 시점(t-1)의 은닉 상태를 받아 갱신된 은닉층(610)의 출력 값(
Figure pat00009
)을 산출함으로써, 체내 이미지의 시간에 따른 시계열적 패턴 변화를 도출할 수 있다.Sequentially or simultaneously, a time-series pattern feature may be extracted from two-dimensional feature values of the image extracted from the convolutional neural network using a cyclic neural network (S840). In one embodiment, the circulatory neural network 600 includes values representing two-dimensional characteristics of the body image output from the convolutional neural network unit 134 (
Figure pat00008
) Is input to the input layer 610, and the output value of the updated hidden layer 610 is received by receiving the hidden state of the previous point in time t-1 (
Figure pat00009
By calculating ), it is possible to derive a time-series pattern change with time of the body image.

순환 신경망을 통해 체내 이미지의 시간에 따른 시계열적 패턴 변화를 도출한 후, 시계역적 패턴 변화 값을 임계값과 비교(S850)하고, 임계값을 초과하는 시계열적 패턴 변화 값에 대응하는 이미지를 디스플레이(S860)할 수 있다. 일 실시예에서, 병변구간 감지부(138)는, 순환 신경망부(136)에서 도출한 체내 이미지의 시간에 따른 시계열적 패턴 변화(

Figure pat00010
)를 임계값과 비교하여, 임계값을 초과하는 패턴 변화값(yt)을 포함한 구간을 병변 가능성이 높은 병변 구간으로 감지할 수 있다. 즉, 병변구간 감지부(138)는, 시간 t 일 때의 체내 이미지의 시간에 따른 시계열적 패턴 변화(yt)를 기 설정된 임계값과 비교하여, 기 설정 된 임계값보다 작으면 정상 구간, 기 설정 된 임계값보다 크면 병변 구간이라고 판단할 수 있다. 또한, 병변 구간에 대응되는 체내 이미지를 디스플레이부(140)에 디스플레이 할 수 있다.After deriving the time-series pattern change over time of the body image through the cyclic neural network, the time-series pattern change value is compared with the threshold value (S850), and an image corresponding to the time-series pattern change value exceeding the threshold value is displayed. (S860) You can. In one embodiment, the lesion section detection unit 138 changes the time series pattern with time of the body image derived from the circulatory neural network unit 136 (
Figure pat00010
) Is compared with a threshold value, and a section including a pattern change value y t exceeding the threshold value may be detected as a lesion section having a high probability of lesion. That is, the lesion section detecting unit 138 compares the time-series pattern change (y t ) with time of the body image at the time t with a preset threshold, and if it is smaller than the preset threshold, the normal section, If it is larger than the preset threshold, it can be determined that it is a lesion section. In addition, the body image corresponding to the lesion section may be displayed on the display unit 140.

도 9는 본 개시의 일 실시예에 따라 감지된 병변을 포함하는 이미지와 병변구간을 디스플레이부의 화면에 나타내는 예시도이다. 병변구간 감지부(138)에서 산출한 체내 이미지들의 시간에 따른 시계열적 패턴 변화(

Figure pat00011
)를 임계값과 비교하여 임계값 이상의 값을 병변 구간이라고 판단한 후, 병변 구간에 대응되는 체내 이미지들을 디스플레이 할 수 있다. 9 is an exemplary view showing an image including a detected lesion and a lesion section on a screen of a display unit according to an embodiment of the present disclosure. Time-series pattern change with time of the body images calculated by the lesion section detector 138 (
Figure pat00011
) Is compared with a threshold value, and a value above the threshold value is determined to be a lesion section, and then images of the body corresponding to the lesion section may be displayed.

도시된 바와 같이, 디스플레이부(140)에 있어서, 제1디스플레이 영역(910)에, 병변구간 감지부(138)에 의해 감지된 병변구간을 나타내는 그래프를 표시한다. 진단자가 제1디스플레이 영역(910)에 표시된 그래프에서 병변구간을 지정하면, 제3디스플레이 영역(930)에 해당 병변구간에 대응되는 체내 이미지들을 시간 경과 순서대로 디스플레이한다. 이 때, 제1디스플레이 영역(910)에서, 진단자는 추가로 상세한 분석과 진단이 필요하다고 생각되는 체내 이미지를 클릭함으로써, 해당 체내 이미지의 확대된 이미지가 제2디스플레이 영역(920)에 디스플레이될 수 있다. As shown, in the display unit 140, a graph indicating the lesion section detected by the lesion section sensing unit 138 is displayed on the first display area 910. When the diagnostician designates the lesion section in the graph displayed on the first display area 910, the body images corresponding to the lesion section are displayed in the third display area 930 in chronological order. At this time, in the first display area 910, the diagnostician can further click on the body image that is considered to require detailed analysis and diagnosis, so that an enlarged image of the body image can be displayed on the second display area 920. have.

도 10은 본 개시의 일 실시예에 따른 질병 선택을 통해 임계값이 자동으로 설정되는 디스플레이부의 화면을 나타내는 예시도이다. 제1디스플레이 영역(1012)은, 기 설정되어 있는 임계값 이상의 값에 해당하는 체내 이미지들을 디스플레이 할 수 있다. 진단자는, 제2디스플레이 영역(1014)을 통해 대응되는 질병을 선택하면 제3디스플레이 영역(1016)에는 진단자가 선택한 질병에 대한 적정 임계값을 표기할 수 있다. 이때, 진단자가 제3디스플레이 영역(1016)에서 선택된 질병과 관련된 상세 설명 버튼(예를 들어, "자세히 보기")을 클릭하면, 디스플레이부는 해당 임계값 이상의 값에 해당하는 체내 이미지들만을 제1디스플레이 영역(1022)에 디스플레이할 수 있다. 진단자가 제1디스플레이 영역(1022)에 표시된 체내 이미지들 중 하나를 선택하면, 제2디스플레이 영역(1024)과 제3디스플레이 영역(1026)에는 각각 병변구간을 나타내는 그래프와 선택된 체내 이미지의 확대된 이미지가 디스플레이될 수 있다. 10 is an exemplary view showing a screen of a display unit in which a threshold is automatically set through disease selection according to an embodiment of the present disclosure. The first display area 1012 may display internal images corresponding to values above a preset threshold. When the diagnostician selects a corresponding disease through the second display region 1014, the diagnostic threshold may be indicated in the third display region 1016. At this time, when the diagnostician clicks the detailed description button (for example, "Learn more") related to the disease selected in the third display area 1016, the display unit displays only the first images in the body corresponding to values above the corresponding threshold value. It can be displayed in the region 1022. When the diagnostician selects one of the body images displayed on the first display area 1022, the second display area 1024 and the third display area 1026 respectively show a graph showing the lesion section and an enlarged image of the selected body image. Can be displayed.

일 실시예에 따르면, 진단자는, 질병의 명칭이 표기되어 있는 제2디스플레이 영역(1014)에서 피진단자에게 해당된다고 생각되는 질병을 선택할 수 있다. 예를 들어, 진단자가 제2디스플레이 영역(1014)에서 대장암을 선택하면, 제3디스플레이 영역(1016)에는 대장암에 해당하는 임계값인 "0.8"이 표기될 수 있다. 제3디스플레이 영역(1016)에 표기되는 임계값은, 실험을 통해 해당 질병에 적합하다고 판정된 임계값이 표기되거나 진단자가 사전에 기 설정한 임계값이 디스플레이 될 수 있다. According to an embodiment, the diagnostician may select a disease that is considered to correspond to the patient in the second display area 1014 where the name of the disease is indicated. For example, if the diagnostician selects colorectal cancer in the second display area 1014, a threshold value of “0.8” corresponding to colorectal cancer may be displayed in the third display area 1016. The threshold value displayed on the third display area 1016 may indicate a threshold value determined to be suitable for the corresponding disease through experiments, or a threshold value previously set by a diagnostic person may be displayed.

도 11은 본 개시의 일 실시예에 따른 임계값 조절을 통해 출력되는 이미지 수를 변경하는 디스플레이부의 화면을 나타내는 예시도이다. 제1디스플레이 영역(1110)은, 임계값을 초과하는 병변 구간을 나타내는 그래프를 디스플레이할 수 있다. 이때, 제2디스플레이 영역(1120)은, 진단자가 임계값을 조절할 수 있는 사용자 인터페이스를 디스플레이할 수 있다. 진단자는 제2디스플레이 영역(1120)의 사용자 인터페이스를 통해, 임계값을 조절하여 최종 임계값을 설정할 수 있다. 제3디스플레이 영역(1130)은, 제2디스플레이 영역(1120)에서 설정한 임계값에 따라, 해당 임계값 이상의 값에 해당하는 체내 이미지들을 시간 경과 순서대로 디스플레이 할 수 있다. 11 is an exemplary view illustrating a screen of a display unit that changes the number of images output through threshold adjustment according to an embodiment of the present disclosure. The first display area 1110 may display a graph indicating a lesion section exceeding a threshold value. At this time, the second display area 1120 may display a user interface through which the diagnostician can adjust the threshold. The diagnostician may set the final threshold value by adjusting the threshold value through the user interface of the second display area 1120. The third display area 1130 may display images of the body corresponding to a value equal to or greater than the threshold value in a time-lapse order according to the threshold set in the second display area 1120.

일 실시예에 따르면, 진단자는, 제2디스플레이 영역(1120)에서 사용자 인터페이스(즉, 임계값 조절 버튼)를 통해 임계값을 조절할 수 있다. 이때, 진단자가 임계값을 높이면, 해당 임계값을 초과하는 병변 구간이 감소하게 되고, 상대적으로 시계열적 패턴 변화값이 높은 체내 이미지만 제3디스플레이(1160)에 디스플레이 될 수 있다. 제3디스플레이 (1160)는, 패턴 변화값이 높은 체내 이미지 즉, 병변 확률이 높은 이미지를 표시함으로써, 진단자의 병변 분석에 대한 정확도를 높일 수 있다. 하지만, 진단자가 임계값을 필요 이상으로 높이게 되면 분석이 필요한 병변 구간을 놓칠 가능성이 있어 병변 분석에 대한 정확도가 낮아질 수 있다. According to an embodiment, the diagnostician may adjust the threshold value through the user interface (that is, the threshold adjustment button) in the second display area 1120. At this time, when the diagnostic person increases the threshold value, the lesion section exceeding the corresponding threshold value decreases, and only the body image having a relatively high time-series pattern change value may be displayed on the third display 1160. The third display 1160 may increase the accuracy of the diagnosis of a lesion of a diagnosis by displaying an internal image having a high pattern change value, that is, an image having a high probability of lesion. However, if the diagnostician raises the threshold value more than necessary, there is a possibility that a lesion section requiring analysis may be missed, and accuracy of the lesion analysis may be lowered.

본 명세서에서는 본 개시가 일부 실시예들과 관련하여 설명되었지만, 본 발명이 속하는 기술분야의 통상의 기술자가 이해할 수 있는 본 개시의 범위를 벗어나지 않는 범위에서 다양한 변형 및 변경이 이루어질 수 있다는 점을 알아야할 것이다. 또한, 그러한 변형 및 변경은 본 명세서에 첨부된 특허청구의 범위 내에 속하는 것으로 생각되어야 한다. Although the present disclosure has been described in connection with some embodiments in this specification, it should be understood that various modifications and changes may be made without departing from the scope of the present disclosure, which can be understood by those skilled in the art to which the present invention pertains. something to do. In addition, such modifications and variations should be considered within the scope of the claims appended hereto.

110 : 캡슐형 내시경 120 : 병변감지 장치
122 : 통신부 124 : 저장부
130 : 프로세서 132 : 전처리부
134 : 콘볼루션 신경망부 136 : 순환 신경망부
138 : 병변구간 감지부 140 : 디스플레이부
212 : 광원 214 : 이미지센서
216 : 반사장치 218 : 데이터 송신부
220 : 병변 230 : 체내
310, 312, 314, 316 : 체내 이미지
320 : 병변 410, 412, 414, 416 : 평면 체내 이미지
420 : 병변 500 : 콘볼루션 신경망
510 : 체내 이미지 512, 514, 516 : 피처 맵
518 : 1차원 행렬 520, 522 : 서브 샘플링
600 : 순환 신경망
910, 1012, 1022, 1110, 1140 : 제1디스플레이
920, 1014, 1024, 1120, 1150 : 제2디스플레이
930, 1016, 1026, 1130, 1160 : 제3디스플레이
110: capsule endoscope 120: lesion detection device
122: communication unit 124: storage unit
130: processor 132: pre-processing unit
134: convolutional neural network unit 136: circulatory neural network unit
138: lesion section detection unit 140: display unit
212: light source 214: image sensor
216: reflector 218: data transmission unit
220: lesion 230: in the body
310, 312, 314, 316: body image
320: lesion 410, 412, 414, 416: flat body image
420: lesion 500: convolutional neural network
510: body image 512, 514, 516: feature map
518: one-dimensional matrix 520, 522: sub-sampling
600: circulatory neural network
910, 1012, 1022, 1110, 1140: 1st display
920, 1014, 1024, 1120, 1150: Second display
930, 1016, 1026, 1130, 1160: 3rd display

Claims (12)

인공신경망을 이용하여 캡슐형 내시경 영상에서 병변을 감지하는 시스템에 있어서,
인체 장기의 복수의 이미지를 촬영하고, 인체 내부의 원형 이미지를 획득하는 캡슐형 내시경;
상기 캡슐형 내시경에 의해 촬영된 원형의 이미지를 보정하고, 평면 이미지로 변환하는 전처리부;
상기 전처리 된 복수의 이미지 각각의 특징을 추출하는 콘볼루션 신경망부;
상기 추출된 복수의 특징의 시계열적 패턴 특징을 추출하는 순환 신경망부;
상기 시계열적 패턴 특징의 값을 임계값과 비교하는 병변구간 감지부;
상기 촬영된 복수의 이미지 중에서, 상기 임계값을 초과하는 시계열적 패턴 특징의 값에 대응하는 이미지를 디스플레이하는 디스플레이부; 및
상기 복수의 이미지, 상기 추출된 복수의 특징 및 상기 복수의 특징에서 추출한 시계열적 패턴을 저장하는 저장부를 포함하는, 시스템.
In the system for detecting a lesion in the capsule-type endoscope image using an artificial neural network,
Capsule-type endoscope for taking a plurality of images of human organs, and obtaining a circular image inside the human body;
A pre-processing unit that corrects a circular image photographed by the capsule endoscope and converts it into a flat image;
A convolutional neural network unit extracting features of each of the preprocessed images;
A circulating neural network unit extracting time-series pattern features of the plurality of extracted features;
A lesion section detecting unit comparing the value of the time-series pattern feature with a threshold value;
A display unit that displays an image corresponding to a value of a time-series pattern feature that exceeds the threshold value among the plurality of photographed images; And
And a storage unit for storing the plurality of images, the extracted plurality of features, and a time-series pattern extracted from the plurality of features.
제1항에 있어서,
상기 캡슐형 내시경은,
상기 캡슐형 내시경의 측면을 향해 광을 조사하는 광원;
상기 캡슐형 내시경의 측면으로부터 입사하는 광을 반사하는 반사장치;
상기 반사장치에 의해 반사되는 광을 촬영하는 이미지 센서; 및
상기 이미지 센서에 의해 생성된 복수의 이미지를 전송하는 데이터 송신부를 포함하는, 시스템.
According to claim 1,
The capsule endoscope,
A light source irradiating light toward a side surface of the capsule endoscope;
A reflector reflecting light incident from the side surface of the capsule endoscope;
An image sensor photographing light reflected by the reflector; And
And a data transmission unit transmitting a plurality of images generated by the image sensor.
제1항에 있어서,
상기 콘볼루션 신경망부는,
상기 캡슐형 내시경을 통해 취득한 상기 인체 장기의 상기 복수의 이미지로부터, 콘볼루션 신경망의 필터(filter)를 이용하여, 상기 복수의 이미지 각각의 특징을 추출하는, 시스템.
According to claim 1,
The convolutional neural network unit,
A system for extracting features of each of the plurality of images using a filter of a convolutional neural network from the plurality of images of the human organ obtained through the capsule endoscope.
제1항에 있어서,
상기 순환 신경망부는,
상기 콘볼루션 신경망부에서 추출한 상기 복수의 특징으로부터, 상기 순환 신경망을 이용하여, 상기 인체 장기의 상기 복수의 이미지의 시간의 흐름에 따라 변화하는 시계열적 패턴 특징을 추출하는, 시스템.
According to claim 1,
The circulatory neural network unit,
A system for extracting time-series pattern features that change over time of the plurality of images of the human organs using the cyclic neural network from the plurality of features extracted from the convolutional neural network.
제1항에 있어서,
상기 병변구간 감지부는, 상기 순환 신경망부에서 추출한 상기 시계열적 패턴 특징을 임계값과 비교하며,
상기 임계값은, 병변이 발견된 병변 부위 구간에서의 임계값이, 정상 부위 구간에서의 임계값보다 일정 크기 더 높은 값을 가지는, 시스템.
According to claim 1,
The lesion section detecting unit compares the time-series pattern feature extracted from the circulating neural network unit with a threshold value,
The threshold value, the threshold value in the lesion site section where the lesion is found, has a value that is a certain size higher than the threshold in the normal site section.
제1항에 있어서,
상기 디스플레이부는,
복수의 시간에 대응되는 복수의 체내 이미지를 디스플레이하고, 사용자가 상기 복수의 체내 이미지 중 적어도 하나를 선택하면 별도의 디스플레이 구간에 선택한 상기 체내 이미지를 디스플레이하는, 시스템.
According to claim 1,
The display unit,
A system for displaying a plurality of body images corresponding to a plurality of times, and displaying the selected body image in a separate display section when a user selects at least one of the plurality of body images.
제6항에 있어서,
상기 디스플레이부는, 상기 디스플레이된 복수의 체내 이미지에 해당하는 질병의 선택이 가능하고, 상기 질병에 적합한 기 설정된 임계값을 제공하도록 구성된 사용자 인터페이스를 포함하며,
상기 디스플레이부는, 상기 임계값의 조절을 통해 상기 디스플레이된 복수의 체내 이미지 중에서 상기 임계값을 초과하는 시계열적 패턴 특징의 값에 대응하는 이미지 수를 조절하도록 구성된, 시스템.
The method of claim 6,
The display unit includes a user interface configured to select a disease corresponding to the displayed plurality of body images, and to provide a preset threshold suitable for the disease,
And the display unit is configured to adjust the number of images corresponding to values of time-series pattern features exceeding the threshold value among the displayed plurality of body images through adjustment of the threshold value.
인공신경망을 이용하여 캡슐형 내시경 영상에서 병변을 감지하는 방법에 있어서,
캡슐형 내시경을 이용하여, 인체 장기의 복수의 이미지를 촬영하고, 인체 내부의 원형 이미지를 획득하는 단계;
전처리부에 의해, 촬영된 원형의 이미지를 보정하고, 평면 이미지로 변환 하는 단계;
콘볼루션 신경망부에 의해, 상기 촬영된 복수의 이미지 각각의 특징을 추출하는 단계;
순환 신경망부에 의해, 상기 추출된 복수의 특징의 시계열적 패턴 특징을 추출하는 단계;
병변구간 감지부에 의해, 상기 시계열적 패턴 특징의 값을 임계값과 비교하는 단계;
디스플레이부에 의해, 상기 촬영된 복수의 이미지 중에서, 상기 임계값을 초과하는 시계열적 패턴 특징의 값에 대응하는 이미지를 디스플레이하는 단계;
저장부에 의해, 상기 복수의 이미지, 상기 추출된 복수의 특징 및 상기 복수의 특징에서 추출한 시계열적 패턴을 저장하는 단계를 더 포함하는, 방법.

In the method of detecting a lesion in the capsule endoscope image using an artificial neural network,
Taking a plurality of images of human organs, using a capsule endoscope, and obtaining a circular image inside the human body;
Correcting, by the pre-processing unit, the photographed circular image and converting it into a flat image;
Extracting features of each of the photographed plurality of images by a convolutional neural network unit;
Extracting time-series pattern features of the plurality of features extracted by the circulatory neural network;
Comparing the value of the time-series pattern feature with a threshold value by the lesion section detection unit;
Displaying, by the display unit, an image corresponding to a value of a time-series pattern feature exceeding the threshold value among the plurality of photographed images;
And storing, by the storage unit, the plurality of images, the extracted plurality of features, and the time-series pattern extracted from the plurality of features.

제8항에 있어서,
상기 콘볼루션 신경망부에 의해 복수의 특징을 추출하는 단계는,
상기 캡슐형 내시경을 통해 취득한 상기 인체 장기의 상기 복수의 이미지로부터, 콘볼루션 신경망의 필터(filter)를 이용하여, 상기 복수의 이미지 각각의 특징을 추출하는 단계를 포함하는, 방법.
The method of claim 8,
Extracting a plurality of features by the convolutional neural network,
And extracting features of each of the plurality of images from the plurality of images of the human organ obtained through the capsule endoscope, using a filter of a convolutional neural network.
제8항에 있어서,
상기 순환 신경망부에 의해 시계열적 패턴 특징을 추출하는 단계는,
상기 콘볼루션 신경망부에서 추출한 상기 복수의 이미지의 특징으로부터, 상기 순환 신경망을 이용하여, 상기 인체 장기의 상기 복수의 이미지의 시간의 흐름에 따라 변화하는 시계열적 패턴 특징을 추출하는 단계를 포함하는, 방법.
The method of claim 8,
The step of extracting the time-series pattern feature by the circulating neural network unit,
And extracting, from the features of the plurality of images extracted from the convolutional neural network unit, a time-series pattern feature that changes with the passage of time of the plurality of images of the human organ, using the circulating neural network, Way.
제11항에 있어서,
상기 병변구간 감지부에 의해, 상기 시계열적 패턴 특징의 값을 상기 임계값과 비교하는 단계는, 상기 순환 신경망부에서 추출한 시계열적 패턴 특징을 상기 임계값과 비교하는 단계를 포함하며,
상기 임계값을 초과하는 시계열적 패턴 특징의 값에 대응하는 이미지를 디스플레이하는 단계는, 상기 임계값의 조절을 통해 임계값을 초과하는 시계열적 패턴 특징의 값에 대응하는 이미지 수를 조절하도록 구성된, 방법.
The method of claim 11,
The step of comparing the value of the time-series pattern feature with the threshold value by the lesion section detecting unit includes comparing the time-series pattern feature extracted from the cyclic neural network portion with the threshold value,
The step of displaying an image corresponding to the value of the time-series pattern feature exceeding the threshold value is configured to adjust the number of images corresponding to the value of the time-series pattern feature exceeding the threshold value by adjusting the threshold value. Way.
컴퓨팅 장치에 의해 제8항 내지 제11항의 방법 중의 어느 하나를 실행하도록 하는 컴퓨터 프로그램 코드를 저장하는, 비일시적 컴퓨터 판독가능 저장매체.

A non-transitory computer readable storage medium storing computer program code for causing a computing device to execute any one of the methods of claims 8-11.

KR1020190042410A 2018-12-07 2019-04-11 System and method for detecting lesion in capsule endoscopic image using artificial neural network KR102287364B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180157424 2018-12-07
KR20180157424 2018-12-07

Publications (2)

Publication Number Publication Date
KR20200070062A true KR20200070062A (en) 2020-06-17
KR102287364B1 KR102287364B1 (en) 2021-08-06

Family

ID=71406136

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190042410A KR102287364B1 (en) 2018-12-07 2019-04-11 System and method for detecting lesion in capsule endoscopic image using artificial neural network

Country Status (1)

Country Link
KR (1) KR102287364B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113487605A (en) * 2021-09-03 2021-10-08 北京字节跳动网络技术有限公司 Tissue cavity positioning method, device, medium and equipment for endoscope
WO2021261727A1 (en) * 2020-06-25 2021-12-30 가톨릭대학교 산학협력단 Capsule endoscopy image reading system and method
KR20220072761A (en) 2020-11-25 2022-06-02 주식회사 아이도트 Image lesion diagnosis system
WO2022119364A1 (en) * 2020-12-03 2022-06-09 주식회사 서르 Capsule endoscopy image-based small intestine lesion deciphering method, device, and program
KR20230033237A (en) 2021-08-31 2023-03-08 동국대학교 산학협력단 Method of providing disease information by domain adaptation between heterogeneous capsule endoscopes
KR20230163723A (en) 2022-05-24 2023-12-01 주식회사 아이도트 Endoscopic Diagnostic Assist System

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10902955B1 (en) * 2020-05-01 2021-01-26 Georgetown University Detecting COVID-19 using surrogates

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060018679A (en) * 2004-08-25 2006-03-02 한국과학기술연구원 Inside human body image aqusition system and method
KR100900533B1 (en) * 2008-10-07 2009-06-02 주식회사 인트로메딕 Method for displaying screen of capsule endoscope image, and record media recoded program for implement thereof
US20120316421A1 (en) * 2009-07-07 2012-12-13 The Johns Hopkins University System and method for automated disease assessment in capsule endoscopy
KR20200038120A (en) 2018-10-02 2020-04-10 한림대학교 산학협력단 Apparatus and method for diagnosing gastric lesion using deep learning of endoscopic images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060018679A (en) * 2004-08-25 2006-03-02 한국과학기술연구원 Inside human body image aqusition system and method
KR100900533B1 (en) * 2008-10-07 2009-06-02 주식회사 인트로메딕 Method for displaying screen of capsule endoscope image, and record media recoded program for implement thereof
US20120316421A1 (en) * 2009-07-07 2012-12-13 The Johns Hopkins University System and method for automated disease assessment in capsule endoscopy
KR20200038120A (en) 2018-10-02 2020-04-10 한림대학교 산학협력단 Apparatus and method for diagnosing gastric lesion using deep learning of endoscopic images

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Mehmet Turan, et al., "Deep EndoVO: A recurrent convolutional neural network (RCNN) based visual odometry approach for endoscopic capsule robots", Neurocomputing 275 (2018) 1861~1870 (2017.11.07.)* *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021261727A1 (en) * 2020-06-25 2021-12-30 가톨릭대학교 산학협력단 Capsule endoscopy image reading system and method
KR20220000437A (en) * 2020-06-25 2022-01-04 가톨릭대학교 산학협력단 System and Method for reading capsule endoscopy image
KR20220072761A (en) 2020-11-25 2022-06-02 주식회사 아이도트 Image lesion diagnosis system
WO2022119364A1 (en) * 2020-12-03 2022-06-09 주식회사 서르 Capsule endoscopy image-based small intestine lesion deciphering method, device, and program
KR20230033237A (en) 2021-08-31 2023-03-08 동국대학교 산학협력단 Method of providing disease information by domain adaptation between heterogeneous capsule endoscopes
WO2023033266A1 (en) 2021-08-31 2023-03-09 동국대학교 산학협력단 Method for providing disease symptom information by using domain adaptation between heterogeneous capsule endoscopes
CN113487605A (en) * 2021-09-03 2021-10-08 北京字节跳动网络技术有限公司 Tissue cavity positioning method, device, medium and equipment for endoscope
CN113487605B (en) * 2021-09-03 2021-11-19 北京字节跳动网络技术有限公司 Tissue cavity positioning method, device, medium and equipment for endoscope
WO2023029741A1 (en) * 2021-09-03 2023-03-09 北京字节跳动网络技术有限公司 Tissue cavity locating method and apparatus for endoscope, medium and device
KR20230163723A (en) 2022-05-24 2023-12-01 주식회사 아이도트 Endoscopic Diagnostic Assist System

Also Published As

Publication number Publication date
KR102287364B1 (en) 2021-08-06

Similar Documents

Publication Publication Date Title
KR102287364B1 (en) System and method for detecting lesion in capsule endoscopic image using artificial neural network
JP6657480B2 (en) Image diagnosis support apparatus, operation method of image diagnosis support apparatus, and image diagnosis support program
US8767057B2 (en) Image processing device, image processing method, and program
US8055033B2 (en) Medical image processing apparatus, luminal image processing apparatus, luminal image processing method, and programs for the same
US20130188845A1 (en) Device, system and method for automatic detection of contractile activity in an image frame
US8335362B2 (en) Device, system and method for measurement and analysis of contractile activity
WO2007119297A1 (en) Image processing device for medical use and image processing method for medical use
CN114207736A (en) Information processing apparatus, information processing method, information processing system, and program
JP2011218090A (en) Image processor, endoscope system, and program
US11074690B2 (en) Method for enhancing the visibility of blood vessels in color images and visualization systems implementing the method
JP2017534322A (en) Diagnostic mapping method and system for bladder
JP2012005512A (en) Image processor, endoscope apparatus, endoscope system, program, and image processing method
JP4749732B2 (en) Medical image processing device
KR102267509B1 (en) The method for measuring microcirculation in cochlea and the apparatus thereof
JPWO2020008834A1 (en) Image processing equipment, methods and endoscopic systems
WO2020184257A1 (en) Apparatus and method for processing medical image
JP4649965B2 (en) Health degree determination device and program
JP7283878B2 (en) VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND VIDEO PROCESSING PROGRAM
KR102505791B1 (en) Control method, apparatus, and program of lesion determination system acquired through real-time image
Vertan et al. Eardrum color content analysis in video-otoscopy images for the diagnosis support of pediatric otitis
JP7387859B2 (en) Medical image processing device, processor device, endoscope system, operating method and program for medical image processing device
CN106073801A (en) A kind of external cavum nasopharyngeum vena systemica blood oxygen saturation formation method and device
CN115444355A (en) Endoscope lesion size information determining method, electronic device and storage medium
JP2016151584A (en) Organ image capturing device
JP2016150024A (en) Organ imaging device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant