KR102236617B1 - Method for measuring lung cancer tumor size and apparatus for executint the method - Google Patents

Method for measuring lung cancer tumor size and apparatus for executint the method Download PDF

Info

Publication number
KR102236617B1
KR102236617B1 KR1020190001001A KR20190001001A KR102236617B1 KR 102236617 B1 KR102236617 B1 KR 102236617B1 KR 1020190001001 A KR1020190001001 A KR 1020190001001A KR 20190001001 A KR20190001001 A KR 20190001001A KR 102236617 B1 KR102236617 B1 KR 102236617B1
Authority
KR
South Korea
Prior art keywords
image
ggo
boundary
tumor
size
Prior art date
Application number
KR1020190001001A
Other languages
Korean (ko)
Other versions
KR20200085012A (en
Inventor
이현주
김광기
김영재
Original Assignee
서울대학교병원
가천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교병원, 가천대학교 산학협력단 filed Critical 서울대학교병원
Priority to KR1020190001001A priority Critical patent/KR102236617B1/en
Publication of KR20200085012A publication Critical patent/KR20200085012A/en
Application granted granted Critical
Publication of KR102236617B1 publication Critical patent/KR102236617B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Abstract

폐암 종양 크기 측정 방법 및 이를 수행하기 위한 장치가 개시된다. 개시되는 일 실시예에 따른 장치는, 하나 이상의 프로세서들, 및 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치로서, 환자의 종양 부분을 촬영한 종양 촬영 영상을 획득하는 영상 획득부, 제1 딥러닝 모듈을 통해 종양 촬영 영상에서 GGO(Ground Glass Opacity) 부분의 경계를 검출하는 제1 경계 검출부, 제2 딥러닝 모듈을 통해 종양 촬영 영상에서 솔리드(Solid) 부분의 경계를 검출하는 제2 경계 검출부, 및 검출된 GGO 부분의 경계를 기반으로 GGO 부분의 크기를 측정하고, 검출된 솔리드 부분의 경계를 기반으로 솔리드 부분의 크기를 측정하는 크기 측정부를 포함한다.A method for measuring the size of a lung cancer tumor and an apparatus for performing the same are disclosed. An apparatus according to the disclosed embodiment is a computing device having one or more processors and a memory for storing one or more programs executed by the one or more processors, and obtains a tumor photographing image of a tumor portion of a patient. The first boundary detection unit that detects the boundary of the GGO (Ground Glass Opacity) part in the tumor photographed image through the first deep learning module, and the solid part in the tumor photographed image through the second deep learning module. A second boundary detection unit for detecting a boundary, and a size measuring unit for measuring the size of the GGO portion based on the boundary of the detected GGO portion, and measuring the size of the solid portion based on the detected boundary of the solid portion.

Description

폐암 종양 크기 측정 방법 및 이를 수행하기 위한 장치{METHOD FOR MEASURING LUNG CANCER TUMOR SIZE AND APPARATUS FOR EXECUTINT THE METHOD}A method for measuring lung cancer tumor size and an apparatus for performing it {METHOD FOR MEASURING LUNG CANCER TUMOR SIZE AND APPARATUS FOR EXECUTINT THE METHOD}

본 발명의 실시예는 폐암 종양 크기 측정 기술과 관련된다. An embodiment of the present invention relates to a technique for measuring lung cancer tumor size.

일반적으로, 암 환자의 예후를 예측하기 위해 암 스테이징(Cancer Staging)을 측정하게 된다. 암 스테이징은 TNM(Tumor-Node-Metastasis)로 판단하는데, T(Tumor)는 종양의 크기를 나타내고, N(Node)는 임파선에 퍼진 정도를 나타내며, M(Metastasis)는 다른 장기로의 전이 여부를 나타낸다. 이 중 종양의 크기는 암 환자의 예후를 예측하는데 중요한 판단 요소가 되는 바, 종양의 크기를 정확하게 측정하는 것이 중요하다. In general, cancer staging is measured to predict the prognosis of cancer patients. Cancer staging is determined by TNM (Tumor-Node-Metastasis), where T (Tumor) represents the size of the tumor, N (Node) represents the extent of spread to the lymph nodes, and M (Metastasis) represents whether metastases to other organs. Show. Among them, the size of the tumor becomes an important judgment factor in predicting the prognosis of a cancer patient, so it is important to accurately measure the size of the tumor.

한편, 폐암의 경우 CT(Computed Tomography) 영상에 GGO(Ground Glass Opacity : 간유리음영)가 포함되어 있으면, Solid 부분(고형 부분)의 볼륨과 GGO 부분의 볼륨을 별도로 측정하는 것이 암 스테이징을 판단하는데 중요한 요소가 된다.On the other hand, in the case of lung cancer, if the CT (Computed Tomography) image contains GGO (Ground Glass Opacity), it is necessary to separately measure the volume of the solid part (solid part) and the volume of the GGO part to determine cancer staging. It becomes an important factor.

한국등록특허공보 제10-1664159호(2016.10.12)Korean Registered Patent Publication No. 10-1664159 (2016.10.12)

본 발명의 실시예는 종양 촬영 영상에서 GGO 부분 및 솔리드(Solid) 부분의 크기를 각각 측정할 수 있는 폐암 종양 크기 측정 방법 및 이를 수행하기 위한 장치를 제공하기 위한 것이다. An embodiment of the present invention is to provide a method for measuring the size of a lung cancer tumor capable of measuring the size of a GGO portion and a solid portion in a tumor imaging image, and an apparatus for performing the same.

개시되는 일 실시예에 따른 장치는, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치로서, 환자의 종양 부분을 촬영한 종양 촬영 영상을 획득하는 영상 획득부; 제1 딥러닝 모듈을 통해 상기 종양 촬영 영상에서 GGO(Ground Glass Opacity) 부분의 경계를 검출하는 제1 경계 검출부; 제2 딥러닝 모듈을 통해 상기 종양 촬영 영상에서 솔리드(Solid) 부분의 경계를 검출하는 제2 경계 검출부; 및 상기 검출된 GGO 부분의 경계를 기반으로 상기 GGO 부분의 크기를 측정하고, 상기 검출된 솔리드 부분의 경계를 기반으로 상기 솔리드 부분의 크기를 측정하는 크기 측정부를 포함한다.An apparatus according to an embodiment disclosed is a computing device having one or more processors and a memory for storing one or more programs executed by the one or more processors, wherein a tumor photographing image of a tumor portion of a patient is captured. An image acquisition unit to acquire; A first boundary detection unit configured to detect a boundary of a GGO (Ground Glass Opacity) portion in the tumor photographed image through a first deep learning module; A second boundary detector configured to detect a boundary of a solid portion in the tumor photographed image through a second deep learning module; And a size measuring unit that measures the size of the GGO portion based on the detected boundary of the GGO portion and measures the size of the solid portion based on the detected boundary of the solid portion.

상기 제1 경계 검출부는, 상기 종양 촬영 영상을 기 설정된 제1 하운스필드 단위 레인지를 가지는 제1 윈도우를 통해 영상 변환하여 GGO 포션 영상을 생성하는 제1 영상 변환부; 및 상기 GGO 포션 영상을 입력 받아 상기 GGO 포션 영상에서 GGO 부분의 경계를 검출하는 제1 딥러닝부를 포함할 수 있다.The first boundary detection unit may include: a first image conversion unit configured to convert the tumor photographed image through a first window having a predetermined first Hounsfield unit range to generate a GGO portion image; And a first deep learning unit that receives the GGO portion image and detects a boundary of a GGO portion in the GGO portion image.

상기 제1 윈도우는, 하운스필드 단위의 기 설정된 제1 윈도우 레벨을 기준으로 기 설정된 제1 윈도우 폭을 가지도록 마련될 수 있다.The first window may be provided to have a preset first window width based on a preset first window level in units of a hounsfield.

상기 컴퓨팅 장치는, 상기 생성된 GGO 포션 영상을 기 설정된 사이즈로 리사이징하고, 리사이징된 GGO 포션 영상을 상기 제1 딥러닝부로 전달하는 제1 영상 리사이징부를 더 포함할 수 있다.The computing device may further include a first image resizing unit for resizing the generated GGO portion image to a preset size and transmitting the resized GGO portion image to the first deep learning unit.

상기 제1 딥러닝부는, GGO 포션 영상이 입력되는 경우, 입력된 GGO 포션 영상에서 GGO 부분의 경계를 검출하여 출력하도록 학습된 합성곱 신경망(CNN : Convolution Neural Network)을 포함할 수 있다.When a GGO portion image is input, the first deep learning unit may include a convolution neural network (CNN) trained to detect and output a boundary of a GGO portion in the input GGO portion image.

상기 제2 경계 검출부는, 상기 종양 촬영 영상을 기 설정된 제2 하운스필드 단위 레인지를 가지는 제2 윈도우를 통해 영상 변환하여 솔리드 포션 영상을 생성하는 제2 영상 변환부; 및 상기 솔리드 포션 영상 및 상기 GGO 부분의 경계 정보를 입력 받아 상기 솔리드 포션 영상에서 솔리드 부분의 경계를 검출하는 제2 딥러닝부를 포함할 수 있다.The second boundary detection unit may include a second image conversion unit configured to convert the tumor photographed image through a second window having a preset second Hounsfield unit range to generate a solid portion image; And a second deep learning unit that receives the solid portion image and boundary information of the GGO portion and detects a boundary of the solid portion in the solid portion image.

상기 제2 윈도우는, 상기 제1 윈도우 레벨 보다 하운스필드 단위 값이 높은 제2 윈도우 레벨을 기준으로 상기 제1 윈도우 폭보다 좁은 범위의 제2 윈도우 폭을 가지도록 마련될 수 있다. The second window may be provided to have a second window width narrower than the first window width based on a second window level having a higher Hounsfield unit value than the first window level.

상기 컴퓨팅 장치는, 상기 생성된 솔리드 포션 영상을 기 설정된 사이즈로 리사이징하고, 리사이징 된 솔리드 포션 영상을 상기 제2 딥러닝부로 전달하는 제2 영상 리사이징부를 더 포함할 수 있다.The computing device may further include a second image resizing unit for resizing the generated solid portion image to a preset size and transmitting the resized solid portion image to the second deep learning unit.

상기 제2 딥러닝부는, 솔리드 포션 영상 및 GGO 부분의 경계 정보가 입력되는 경우, 입력된 솔리드 포션 영상에서 솔리드 부분의 경계를 검출하여 출력하도록 학습된 합성곱 신경망(CNN : Convolution Neural Network)을 포함할 수 있다. The second deep learning unit includes a convolution neural network (CNN) trained to detect and output the boundary of the solid portion in the input solid portion image when boundary information of the solid portion image and the GGO portion is input. can do.

개시되는 일 실시예에 따른 방법은, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서, 환자의 종양 부분을 촬영한 종양 촬영 영상을 획득하는 단계; 제1 딥러닝 모듈을 통해 상기 종양 촬영 영상에서 GGO(Ground Glass Opacity) 부분의 경계를 검출하는 단계; 제2 딥러닝 모듈을 통해 상기 종양 촬영 영상에서 솔리드(Solid) 부분의 경계를 검출하는 단계; 상기 검출된 GGO 부분의 경계를 기반으로 상기 GGO 부분의 크기를 측정하는 단계; 및 상기 검출된 솔리드 부분의 경계를 기반으로 상기 솔리드 부분의 크기를 측정하는 단계를 포함한다.A method according to the disclosed embodiment is a method performed in a computing device having one or more processors and a memory storing one or more programs executed by the one or more processors, wherein a tumor portion of a patient is photographed. Obtaining a tumor imaging image; Detecting a boundary of a GGO (Ground Glass Opacity) portion in the tumor photographed image through a first deep learning module; Detecting a boundary of a solid portion in the tumor photographed image through a second deep learning module; Measuring the size of the GGO portion based on the detected boundary of the GGO portion; And measuring the size of the solid portion based on the detected boundary of the solid portion.

개시되는 실시예에 의하면, GGO를 포함하는 종양 촬영 영상에서 딥러닝 기술을 이용하여 GGO 부분 및 솔리드 부분의 크기를 각각 측정함으로써, GGO 부분 및 솔리드 부분의 크기를 신속하고 정확하게 측정할 수 있으며, 그로 인해 폐암 스테이징에서 환자 예후의 중요한 판단 요소가 되는 T(Tumor) 스테이지를 정확하게 판단할 수 있게 된다. According to the disclosed embodiment, by measuring the sizes of the GGO portion and the solid portion, respectively, using deep learning technology in a tumor imaging image including GGO, the size of the GGO portion and the solid portion can be quickly and accurately measured. Therefore, in lung cancer staging, it is possible to accurately determine the T (Tumor) stage, which is an important determining factor of patient prognosis.

도 1은 7번째 판 폐암 스테이징에서 폐결절의 볼륨을 측정하는 상태를 나타낸 도면
도 2는 8번째 판 폐암 스테이징에서 폐결절의 볼륨을 측정하는 상태를 나타낸 도면
도 3은 본 발명의 일 실시예에 따른 폐암 종양 크기 측정 장치의 구성을 나타낸 도면
도 4는 본 발명의 일 실시예에 따른 폐암 종양 크기 측정 장치에서 제1 경계 측정부 및 제2 경계 측정부의 구성을 나타낸 도면
도 5는 본 발명의 일 실시예에 따른 폐암 종양 크기 측정 방법을 나타낸 흐름도
도 6은 본 발명의 일 실시예에 따른 종양 촬영 영상에서 GGO 포션 영상 및 솔리드 포션 영상을 각각 생성하는 상태를 나타낸 도면
도 7은 본 발명의 실시예에 따른 딥러닝에 의한 경계 검출과 전문가에 의한 경계 검출을 비교한 도면
도 8은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도
1 is a diagram showing a state in which the volume of a lung nodule is measured in the 7th plate lung cancer staging
2 is a view showing a state of measuring the volume of a lung nodule in the eighth plate lung cancer staging
3 is a view showing the configuration of a lung cancer tumor size measuring apparatus according to an embodiment of the present invention
4 is a view showing the configuration of a first boundary measurement unit and a second boundary measurement unit in the lung cancer tumor size measurement apparatus according to an embodiment of the present invention
5 is a flow chart showing a method for measuring lung cancer tumor size according to an embodiment of the present invention
6 is a view showing a state in which a GGO portion image and a solid portion image are respectively generated from a tumor photographing image according to an embodiment of the present invention
7 is a diagram comparing boundary detection by deep learning and boundary detection by an expert according to an embodiment of the present invention
8 is a block diagram illustrating and describing a computing environment including a computing device suitable for use in example embodiments.

이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.Hereinafter, a specific embodiment of the present invention will be described with reference to the drawings. The following detailed description is provided to aid in a comprehensive understanding of the methods, devices, and/or systems described herein. However, this is only an example and the present invention is not limited thereto.

본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.In describing the embodiments of the present invention, when it is determined that a detailed description of known technologies related to the present invention may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of users or operators. Therefore, the definition should be made based on the contents throughout the present specification. The terms used in the detailed description are only for describing embodiments of the present invention, and should not be limiting. Unless explicitly used otherwise, expressions in the singular form include the meaning of the plural form. In this description, expressions such as "comprising" or "feature" are intended to indicate certain features, numbers, steps, actions, elements, some or combination thereof, and one or more It should not be construed to exclude the presence or possibility of other features, numbers, steps, actions, elements, any part or combination thereof.

이하의 설명에 있어서, 신호 또는 정보의 "전송", "통신", "송신", "수신" 기타 이와 유사한 의미의 용어는 일 구성요소에서 다른 구성요소로 신호 또는 정보가 직접 전달되는 것뿐만이 아니라 다른 구성요소를 거쳐 전달되는 것도 포함한다. 특히 신호 또는 정보를 일 구성요소로 "전송" 또는 "송신"한다는 것은 그 신호 또는 정보의 최종 목적지를 지시하는 것이고 직접적인 목적지를 의미하는 것이 아니다. 이는 신호 또는 정보의 "수신"에 있어서도 동일하다. 또한 본 명세서에 있어서, 2 이상의 데이터 또는 정보가 "관련"된다는 것은 하나의 데이터(또는 정보)를 획득하면, 그에 기초하여 다른 데이터(또는 정보)의 적어도 일부를 획득할 수 있음을 의미한다. In the following description, "transmission", "communication", "transmission", "reception" of signals or information, and other terms having a similar meaning are not only directly transmitted signals or information from one component to another component. It includes what is passed through other components. In particular, "transmitting" or "transmitting" a signal or information to a component indicates the final destination of the signal or information and does not mean a direct destination. The same is true for "reception" of signals or information. In addition, in the present specification, when two or more pieces of data or information are "related", it means that when one data (or information) is obtained, at least a part of other data (or information) can be obtained based thereon.

또한, 제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로 사용될 수 있다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.In addition, terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms may be used for the purpose of distinguishing one component from another component. For example, without departing from the scope of the present invention, a first element may be referred to as a second element, and similarly, a second element may be referred to as a first element.

이전 판(즉, 7번째 판) 폐암 스테이징(Lung Cancer Staging)에서는 도 1에 도시된 바와 같이, CT(Computed Tomography) 영상에 GGO(Ground Glass Opacity : 간유리음영)가 포함되어 있는 경우, GGO 부분 전체를 포함하여 폐 결절의 볼륨을 측정하고 그에 따라 T(Tumor) 스테이지를 판단하였다. In the case of the previous plate (that is, the 7th plate) lung cancer staging, as shown in FIG. 1, when the CT (Computed Tomography) image contains GGO (Ground Glass Opacity), the GGO portion The volume of pulmonary nodules including the whole was measured and the T (Tumor) stage was determined accordingly.

그러나, 2017년 발행된 8번째 판(8th edition) 폐암 스테이징(Lung Cancer Staging)에서는 CT(Computed Tomography) 영상에 GGO가 포함되어 있는 경우, 도 2에 도시된 바와 같이 Solid 부분(고형 부분)의 볼륨만을 측정하여 T(Tumor) 스테이지를 판단하는 것으로 변경되었다. 즉, 임상적으로 Solid 부분(고형 부분)의 바깥쪽에 GGO를 포함하고 있으며 환자의 예후가 더 좋은 것으로 알려짐에 따라, GGO 부분을 포함하는 전체 볼륨이 아닌 Solid 부분의 볼륨만을 측정하여 T 스테이지를 판단하는 것으로 하였다.However, the eighth edition published in 2017 (8 th edition), lung cancer staging (Lung Cancer Staging) In the case that contains the GGO a CT (Computed Tomography) image, the Solid part as shown in Figure 2 (solid portion) of It has been changed to determine the T (Tumor) stage by measuring only the volume. In other words, as it is known that GGO is contained outside the solid part (solid part) clinically and the patient's prognosis is known to be better, the T-stage is determined by measuring only the volume of the solid part, not the total volume including the GGO part. I decided to do it.

이에 본 발명의 실시예에서는 환부 촬영 영상(예를 들어, CT, MRI 등)에 GGO가 포함되어 있는 경우, 딥 러닝(Deep Learning) 기술을 이용하여 GGO 부분과 Solid 부분의 볼륨을 각각 측정하기 위한 기술을 포함한다.Accordingly, in the embodiment of the present invention, when GGO is included in the wound image (eg, CT, MRI, etc.), the volume of the GGO part and the solid part is measured using a deep learning technology. Includes technology.

도 3은 본 발명의 일 실시예에 따른 폐암 종양 크기 측정 장치의 구성을 나타낸 도면이고, 도 4는 본 발명의 일 실시예에 따른 폐암 종양 크기 측정 장치에서 제1 경계 측정부 및 제2 경계 측정부의 구성을 나타낸 도면이다. 3 is a diagram showing the configuration of a lung cancer tumor size measuring apparatus according to an embodiment of the present invention, Figure 4 is a first boundary measurement unit and a second boundary measurement in the lung cancer tumor size measuring apparatus according to an embodiment of the present invention It is a figure showing the structure of a part.

도 3 및 도 4를 참조하면, 폐암 종양 크기 측정 장치(100)는 영상 획득부(102), 제1 경계 검출부(104), 제2 경계 검출부(106), 및 크기 측정부(108)를 포함할 수 있다. 3 and 4, the lung cancer tumor size measurement apparatus 100 includes an image acquisition unit 102, a first boundary detection unit 104, a second boundary detection unit 106, and a size measurement unit 108. can do.

영상 획득부(102)는 환자의 종양 부분을 촬영한 종양 촬영 영상을 획득할 수 있다. 예시적인 실시예서, 종양 촬영 영상은 CT(Computed Tomography) 영상일 수 있으나, 이에 한정되는 것은 아니며 그 이외에 MRI(Magnetic Resonance Imaging) 영상, 초음파 영상 등을 포함할 수 있다. 이하에서는, 종양 촬영 영상이 CT 영상인 것으로 설명하기로 한다. The image acquisition unit 102 may acquire a tumor photographing image of a patient's tumor portion. In an exemplary embodiment, the tumor imaging image may be a computed tomography (CT) image, but is not limited thereto, and may include a magnetic resonance imaging (MRI) image, an ultrasound image, and the like. Hereinafter, it will be described that the tumor imaging image is a CT image.

제1 경계 검출부(104)는 종양 촬영 영상에서 GGO(Ground Glass Opacity) 부분의 경계를 검출할 수 있다. 제1 경계 검출부(104)는 제1 영상 변환부(111), 제1 영상 리사이징부(113), 및 제1 딥러닝부(115)를 포함할 수 있다. The first boundary detection unit 104 may detect the boundary of a GGO (Ground Glass Opacity) portion in the tumor photographed image. The first boundary detection unit 104 may include a first image conversion unit 111, a first image resizing unit 113, and a first deep learning unit 115.

제1 영상 변환부(111)는 종양 촬영 영상을 기 설정된 제1 하운스필드 단위(Hounsfield Unit : HU) 레인지(Range)를 가지는 윈도우(이하, "제1 윈도우"로 지칭할 수 있음)를 통해 영상 변환할 수 있다. 제1 영상 변환부(111)는 종양 촬영 영상을 제1 윈도우를 통해 영상 변환하여 GGO 포션 영상을 생성할 수 있다. 즉, 제1 영상 변환부(111)는 종양 촬영 영상을 제1 윈도우를 통해 영상 변환함으로써, 종양 촬영 영상 중 GGO 포션(Portion)이 잘 드러나 보이도록 하는 GGO 포션 영상을 생성할 수 있다. The first image conversion unit 111 converts the tumor photographed image through a window having a preset first Hounsfield Unit (HU) range (hereinafter, may be referred to as a “first window”). Video can be converted. The first image conversion unit 111 may generate a GGO portion image by converting the tumor photographed image through the first window. That is, the first image conversion unit 111 may generate a GGO portion image in which the GGO portion is clearly visible among the tumor imaged images by converting the tumor imaged image through the first window.

여기서, 제1 윈도우는 기 설정된 제1 윈도우 레벨(Window Level : WL)을 기준으로 기 설정된 제1 윈도우 폭(Window Width : WW)을 가지도록 마련될 수 있다. 제1 윈도우 레벨(WL) 및 제1 윈도우 폭(WW)은 하운스필드 단위(HU)로 표현될 수 있다. 예시적인 실시예에서, 제1 윈도우는 제1 윈도우 레벨(WL)이 -700HU이고, 제1 윈도우 폭(WW)은 1500HU일 수 있다. 즉, 제1 윈도우는 -700HU를 기준으로 1500HU 범위의 하운스 필드 단위 값을 필터링하도록 마련될 수 있다. Here, the first window may be provided to have a preset first window width (WW) based on a preset first window level (WL). The first window level WL and the first window width WW may be expressed in a Hounsfield unit (HU). In an exemplary embodiment, the first window may have a first window level WL of -700HU and a first window width WW of 1500HU. That is, the first window may be provided to filter a value of a hound field unit in a range of 1500HU based on -700HU.

제1 영상 리사이징부(113)는 GGO 포션 영상을 기 설정된 사이즈로 리사이징(Resizing)할 수 있다. 제1 영상 리사이징부(113)는 GGO 포션 영상을 제1 딥러닝부(115)에서 학습된 이미지들의 사이즈로 리사이징 할 수 있다. 즉, GGO 포션 영상은 제1 딥러닝부(115)의 입력으로 사용되므로, 제1 딥러닝부(115)에서 학습된 이미지들과 동일한 사이즈로 리사이징 될 수 있다. 예시적인 실시예에서, 제1 영상 리사이징부(113)는 GGO 포션 영상을 128 × 128 크기로 리사이징 할 수 있다. The first image resizing unit 113 may resize the GGO portion image to a preset size. The first image resizing unit 113 may resize the GGO portion image to the size of images learned by the first deep learning unit 115. That is, since the GGO portion image is used as an input of the first deep learning unit 115, it can be resized to the same size as the images learned by the first deep learning unit 115. In an exemplary embodiment, the first image resizing unit 113 may resize the GGO portion image to a size of 128×128.

제1 딥러닝부(115)는 리사이징 된 GGO 포션 영상을 입력 받아 GGO 포션 영상에서 GGO(Ground Glass Opacity) 부분의 경계를 검출할 수 있다. 제1 딥러닝부(115)는 GGO 포션 영상이 입력되는 경우, 이미 학습된 이미지(즉, GGO 포션 영상)들을 기반으로 딥러닝(Deep Learning)을 수행하여 입력된 GGO 포션 영상에서 GGO 부분(Portion)의 경계를 검출할 수 있다. The first deep learning unit 115 may receive the resized GGO portion image and detect a boundary of a GGO (Ground Glass Opacity) portion of the GGO portion image. When the GGO portion image is input, the first deep learning unit 115 performs deep learning based on the already learned images (i.e., GGO portion images), and performs a GGO portion (Portion) in the input GGO portion image. ) Can be detected.

예시적인 실시예에서, 제1 딥러닝부(115)는 딥러닝 기술로 합성곱 신경망(CNN : Convolution Neural Network)을 이용할 수 있다. 이 경우, 제1 딥러닝부(115)는 GGO 포션 영상이 입력되는 경우, 입력된 GGO 포션 영상에서 GGO 부분의 경계를 검출하여 출력하도록 학습된 신경망일 수 있다. 합성곱 신경망은 기 공지된 기술이므로 이에 대한 자세한 설명은 생략하기로 한다. 제1 딥러닝부(115)는 GGO 부분의 경계를 제2 딥러닝부(125)로 전달할 수 있다.In an exemplary embodiment, the first deep learning unit 115 may use a convolution neural network (CNN) as a deep learning technology. In this case, when a GGO portion image is input, the first deep learning unit 115 may be a neural network trained to detect and output a boundary of a GGO portion from the input GGO portion image. Since the convolutional neural network is a known technology, a detailed description thereof will be omitted. The first deep learning unit 115 may transmit the boundary of the GGO portion to the second deep learning unit 125.

제2 경계 검출부(106)는 종양 촬영 영상에서 솔리드(Solid) 부분(고형 부분)의 경계를 검출할 수 있다. 제2 경계 검출부(106)는 제2 영상 변환부(121), 제2 영상 리사이징부(123), 및 제2 딥러닝부(125)를 포함할 수 있다. The second boundary detection unit 106 may detect the boundary of a solid portion (solid portion) in the tumor imaging image. The second boundary detection unit 106 may include a second image conversion unit 121, a second image resizing unit 123, and a second deep learning unit 125.

제2 영상 변환부(121)는 종양 촬영 영상을 기 설정된 제2 하운스필드 단위(Hounsfield Unit : HU) 레인지(Range)를 가지는 윈도우(이하, "제2 윈도우"로 지칭할 수 있음)를 통해 영상 변환할 수 있다. 제2 영상 변환부(121)는 종양 촬영 영상을 제2 윈도우를 통해 영상 변환하여 솔리드 부분 영상을 생성할 수 있다. 즉, 제2 영상 변환부(121)는 종양 촬영 영상을 제2 윈도우를 통해 영상 변환함으로써, 종양 촬영 영상 중 솔리드 포션(Solid Portion)이 잘 드러나 보이도록 하는 솔리드 포션 영상을 생성할 수 있다. The second image conversion unit 121 converts the tumor photographed image through a window having a preset second Hounsfield Unit (HU) range (hereinafter, may be referred to as a “second window”). Video can be converted. The second image conversion unit 121 may generate a solid partial image by converting the tumor photographed image through the second window. That is, the second image conversion unit 121 may generate a solid portion image in which a solid portion of the tumor photographed image is clearly visible by converting the tumor photographed image through the second window.

여기서, 제2 윈도우는 기 설정된 제2 윈도우 레벨(Window Level : WL)을 기준으로 기 설정된 제2 윈도우 폭(Window Width : WW)을 가지도록 마련될 수 있다. 제2 윈도우 레벨(WL) 및 제2 윈도우 폭(WW)은 하운스필드 단위(HU)로 표현될 수 있다. Here, the second window may be provided to have a preset second window width (WW) based on a preset second window level (WL). The second window level WL and the second window width WW may be expressed in a Hounsfield unit (HU).

제2 윈도우 레벨은 제1 윈도우 레벨보다 높은 하운스필드 단위 값을 가질 수 있다. 또한, 제2 윈도우 폭은 제1 윈도우 폭보다 좁은 하운스필드 단위 범위를 가질 수 있다. 예시적인 실시예에서, 제2 윈도우는 제2 윈도우 레벨(WL)이 20HU이고, 제2 윈도우 폭(WW)은 400HU일 수 있다. 즉, 제2 윈도우는 20HU를 기준으로 400HU 범위의 하운스 필드 단위 값을 필터링하도록 마련될 수 있다. The second window level may have a Hounsfield unit value higher than the first window level. In addition, the second window width may have a narrower Hounsfield unit range than the first window width. In an exemplary embodiment, the second window may have a second window level WL of 20HU and a second window width WW of 400HU. That is, the second window may be provided to filter the value of the hound field unit in the range of 400HU based on 20HU.

제2 영상 리사이징부(123)는 솔리드 포션 영상을 기 설정된 사이즈로 리사이징(Resizing)할 수 있다. 제2 영상 리사이징부(123)는 솔리드 포션 영상을 제2 딥러닝부(125)에서 학습된 이미지들의 사이즈로 리사이징 할 수 있다. 즉, 솔리드 포션 영상은 제2 딥러닝부(125)의 입력으로 사용되므로, 제2 딥러닝부(125)에서 학습된 이미지들과 동일한 사이즈로 리사이징 될 수 있다. 예시적인 실시예에서, 제2 영상 리사이징부(123)는 솔리드 포션 영상을 128 × 128 크기로 리사이징 할 수 있다. 제2 영상 리사이징부(123)는 제1 영상 리사이징부(113)에서 GGO 포션 영상을 리사이징시키는 크기와 동일한 크기로 솔리드 포션 영상을 리사이징시킬 수 있다. The second image resizing unit 123 may resize the solid portion image to a preset size. The second image resizing unit 123 may resize the solid portion image to the size of images learned by the second deep learning unit 125. That is, since the solid portion image is used as an input of the second deep learning unit 125, it may be resized to the same size as the images learned by the second deep learning unit 125. In an exemplary embodiment, the second image resizing unit 123 may resize the solid portion image to a size of 128 × 128. The second image resizing unit 123 may resize the solid portion image to have the same size as the size at which the first image resizing unit 113 resizes the GGO portion image.

제2 딥러닝부(125)는 리사이징 된 솔리드 포션 영상을 입력 받아 솔리드 포션 영상에서 솔리드(Solid) 부분의 경계를 검출할 수 있다. 예시적인 실시예에서, 제2 딥러닝부(125)는 솔리드 포션 영상에서 솔리드 부분의 경계 검출 시 GGO 포션 영상에서 GGO 부분의 경계 정보를 이용할 수 있다. The second deep learning unit 125 may receive the resized solid portion image and detect a boundary of a solid portion in the solid portion image. In an exemplary embodiment, the second deep learning unit 125 may use boundary information of the GGO portion in the GGO portion image when detecting the boundary of the solid portion in the solid portion image.

즉, 제2 딥러닝부(125)는 제2 영상 리사이징부(123)로부터 리사이징 된 솔리드 포션 영상을 입력 받고, 제1 딥러닝부(115)로부터 출력되는 정보(즉, GGO 포션 영상에서 GGO 부분의 경계 정보)를 각각 입력 받을 수 있다. That is, the second deep learning unit 125 receives the resized solid portion image from the second image resizing unit 123, and information output from the first deep learning unit 115 (that is, the GGO portion in the GGO portion image). Boundary information) can be input respectively.

제2 딥러닝부(125)는 리사이징 된 솔리드 포션 영상 및 GGO 포션 영상에서 GGO 부분의 경계 정보가 입력되는 경우, 이미 학습된 데이터(즉, 솔리드 포션 영상 및 GGO 포션 영상에서 GGO 부분의 경계 정보)들을 기반으로 딥러닝(Deep Learning)을 수행하여 입력된 솔리드 포션 영상에서 솔리드 부분의 경계를 검출할 수 있다. When the boundary information of the GGO portion is input from the resized solid portion image and the GGO portion image, the second deep learning unit 125 has already learned data (i.e., boundary information of the GGO portion in the solid portion image and the GGO portion image). Based on these, deep learning may be performed to detect the boundary of the solid portion in the input solid portion image.

예시적인 실시예에서, 제2 딥러닝부(125)는 딥러닝 기술로 합성곱 신경망(CNN : Convolution Neural Network)을 이용할 수 있다. 이 경우, 제2 딥러닝부(125)는 솔리드 포션 영상 및 GGO 포션 영상에서 GGO 부분의 경계 정보가 입력되는 경우, 입력된 솔리드 포션 영상에서 솔리드 부분의 경계를 검출하여 출력하도록 학습된 신경망일 수 있다. 여기서, 제2 딥러닝부(125)는 솔리드 포션 영상 중 GGO 부분의 경계 내에서 솔리드 부분을 검출하도록 학습된 신경망일 수 있다.In an exemplary embodiment, the second deep learning unit 125 may use a convolution neural network (CNN) as a deep learning technology. In this case, the second deep learning unit 125 may be a neural network trained to detect and output the boundary of the solid portion from the solid portion image and the GGO portion image when boundary information of the GGO portion is input. have. Here, the second deep learning unit 125 may be a neural network that has been trained to detect a solid portion within the boundary of the GGO portion of the solid portion image.

크기 측정부(108)는 제1 경계 검출부(104)에서 검출한 GGO 부분의 경계를 기반으로 종양 촬영 영상에서 GGO 부분의 크기를 측정할 수 있다. 또한, 크기 측정부(108)는 제2 경계 검출부(106)에서 검출한 솔리드 부분의 경계를 기반으로 종양 촬영 영상에서 솔리드 부분의 크기를 측정할 수 있다. The size measurement unit 108 may measure the size of the GGO portion in the tumor imaging image based on the boundary of the GGO portion detected by the first boundary detection unit 104. Also, the size measurement unit 108 may measure the size of the solid portion in the tumor photographing image based on the boundary of the solid portion detected by the second boundary detection unit 106.

한편, 종양 촬영 영상이 CT 영상인 경우, 영상 레이어 별로 종양 촬영 영상을 획득하고, 각 영상 레이어의 종양 촬영 영상에 대해 GGO 부분의 경계 및 솔리드 부분의 경계를 검출할 수 있다. 그리고, 크기 측정부(108)는 각 영상 레이어의 GGO 부분의 경계를 적층하여 GGO 부분의 볼륨을 측정하고, 각 영상 레이어의 솔리드 부분의 경계를 적층하여 솔리드 부분의 볼륨을 측정할 수 있다. Meanwhile, when the tumor imaging image is a CT image, a tumor imaging image may be obtained for each image layer, and a boundary of a GGO portion and a boundary of a solid portion may be detected for the tumor imaging image of each image layer. In addition, the size measuring unit 108 may measure the volume of the GGO portion by stacking the boundary of the GGO portion of each image layer, and measure the volume of the solid portion by stacking the boundary of the solid portion of each image layer.

개시되는 실시예에 의하면, GGO를 포함하는 종양 촬영 영상에서 딥러닝 기술을 이용하여 GGO 부분 및 솔리드 부분의 크기를 각각 측정함으로써, GGO 부분 및 솔리드 부분의 크기를 신속하고 정확하게 측정할 수 있으며, 그로 인해 폐암 스테이징에서 환자 예후의 중요한 판단 요소가 되는 T(Tumor) 스테이지를 정확하게 판단할 수 있게 된다. According to the disclosed embodiment, by measuring the sizes of the GGO portion and the solid portion, respectively, using deep learning technology in a tumor imaging image including GGO, the size of the GGO portion and the solid portion can be quickly and accurately measured. Therefore, in lung cancer staging, it is possible to accurately determine the T (Tumor) stage, which is an important determining factor of the patient's prognosis.

도 5는 본 발명의 일 실시예에 따른 폐암 종양 크기 측정 방법을 나타낸 흐름도이다. 도 5에 도시된 방법은 예를 들어, 전술한 폐암 종양 크기 측정 장치(100)에 의해 수행될 수 있다. 도시된 흐름도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.5 is a flowchart illustrating a method of measuring the size of a lung cancer tumor according to an embodiment of the present invention. The method shown in FIG. 5 may be performed, for example, by the lung cancer tumor size measuring apparatus 100 described above. In the illustrated flowchart, the method is described by dividing the method into a plurality of steps, but at least some of the steps are performed in a different order, combined with other steps, performed together, omitted, divided into detailed steps, or not shown. One or more steps may be added and performed.

도 5를 참조하면, 폐암 종양 크기 측정 장치(100)는 환자의 종양 부분을 촬영한 종양 촬영 영상을 획득한다(S 101). 여기서, 종양 촬영 영상은 GGO(Ground Glass Opacity)를 포함하는 영상일 수 있다. Referring to FIG. 5, the lung cancer tumor size measuring apparatus 100 acquires a tumor photographing image of a tumor portion of a patient (S 101 ). Here, the tumor imaging image may be an image including GGO (Ground Glass Opacity).

다음으로, 폐암 종양 크기 측정 장치(100)는 종양 촬영 영상을 제1 윈도우를 통해 영상 변환하여 GGO 포션 영상을 생성하고(S 103), 종양 촬영 영상을 제2 윈도우를 통해 영상 변환하여 솔리드 포션 영상을 생성한다(S 105). 도 6은 본 발명의 실시예에서 종양 촬영 영상(도 6의 (a))에 제1 윈도우를 적용하여 GGO 포션 영상을 생성한 상태(도 6의 (b)) 및 종양 촬영 영상에 제2 윈도우를 적용하여 솔리드 포션 영상을 생성한 상태(도 6의 (c))를 나타낸 도면이다. Next, the lung cancer tumor size measuring apparatus 100 converts the tumor photographed image through the first window to generate a GGO portion image (S 103), and converts the tumor photographed image through the second window to generate a solid portion image. Generates (S 105). 6 is a state in which a GGO portion image is generated by applying a first window to a tumor photographed image (Fig. 6 (a)) in an embodiment of the present invention (Fig. 6 (b)) and a second window on the tumor photographed image. It is a diagram showing a state in which a solid potion image is generated by applying (Fig. 6(c)).

다음으로, 폐암 종양 크기 측정 장치(100)는 GGO 포션 영상을 기 설정된 사이즈로 리사이징하고(S 107), 솔리드 포션 영상을 기 설정된 사이즈로 리사이징한다(S 109). 폐암 종양 크기 측정 장치(100)는 GGO 포션 영상 및 솔리드 포션 영상을 동일한 사이즈로 리사이징할 수 있다.Next, the lung cancer tumor size measuring apparatus 100 resizes the GGO portion image to a preset size (S 107), and resizes the solid portion image to a preset size (S 109). The lung cancer tumor size measuring apparatus 100 may resize the GGO portion image and the solid portion image to the same size.

다음으로, 폐암 종양 크기 측정 장치(100)는 제1 딥러닝 모듈로 GGO 포션 영상을 입력하여 GGO 포션 영상에서 GGO 부분의 경계를 검출한다(S 111). 제1 딥러닝 모듈은 폐암 종양 크기 측정 장치(100) 내에 구현될 수 있으나, 이에 한정되는 것은 아니며 폐암 종양 크기 측정 장치(100)와 연동되는 외부 장치 또는 시스템으로 구현될 수도 있다. Next, the lung cancer tumor size measuring apparatus 100 detects the boundary of the GGO portion in the GGO portion image by inputting the GGO portion image to the first deep learning module (S111). The first deep learning module may be implemented in the lung cancer tumor size measuring apparatus 100, but is not limited thereto, and may be implemented as an external device or system interlocked with the lung cancer tumor size measuring apparatus 100.

다음으로, 폐암 종양 크기 측정 장치(100)는 제2 딥러닝 모듈로 솔리드 포션 영상 및 GGO 포션 영상에서 GGO 부분의 경계 정보를 입력하여 솔리드 포션 영상에서 솔리드 부분의 경계를 검출한다(S 113). 제2 딥러닝 모듈은 제1 딥러닝 모듈과는 독립된 딥러닝을 수행하는 것으로, 폐암 종양 크기 측정 장치(100) 내에 구현될 수 있으나, 이에 한정되는 것은 아니며 폐암 종양 크기 측정 장치(100)와 연동되는 외부 장치 또는 시스템으로 구현될 수도 있다. Next, the lung cancer tumor size measuring apparatus 100 detects the boundary of the solid portion in the solid portion image by inputting boundary information of the GGO portion from the solid portion image and the GGO portion image using a second deep learning module (S113). The second deep learning module performs deep learning independent of the first deep learning module, and may be implemented in the lung cancer tumor size measuring device 100, but is not limited thereto and interlocks with the lung cancer tumor size measuring device 100 It may be implemented as an external device or system.

다음으로, 폐암 종양 크기 측정 장치(100)는 GGO 부분의 경계를 기반으로 종양 촬영 영상에서 GGO 부분의 크기를 측정하고(S 115), 솔리드 부분의 경계를 기반으로 종양 촬영 영상에서 솔리드 부분의 크기를 측정한다(S 117).Next, the lung cancer tumor size measuring apparatus 100 measures the size of the GGO portion in the tumor photographing image based on the boundary of the GGO portion (S 115), and the size of the solid portion in the tumor photographing image based on the boundary of the solid portion. It measures (S117).

본 명세서에서 모듈이라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예건대, 상기 "모듈"은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아니다.In the present specification, a module may mean a functional and structural combination of hardware for performing the technical idea of the present invention and software for driving the hardware. Predictably, the "module" may mean a logical unit of a predetermined code and a hardware resource for executing the predetermined code, and does not necessarily mean a physically connected code or a single type of hardware. .

도 7은 본 발명의 실시예에 따른 딥러닝에 의한 경계 검출과 전문가에 의한 경계 검출을 비교한 도면이다. 도 7에서 Gold Standard는 폐암 전문 의사에 의한 경계 검출을 나타낸다. 7 is a diagram comparing boundary detection by deep learning and boundary detection by an expert according to an embodiment of the present invention. In FIG. 7, Gold Standard represents boundary detection by a lung cancer specialist.

도 7을 참조하면, 종양 촬영 영상(원영상)에서 폐암 전문의(Gold Standard)가 검출한 GGO 부분 경계 및 솔리드 부분 경계와 본 발명의 실시예에 따른 딥 러닝에 의해 검출한 GGO 부분 경계 및 솔리드 부분 경계가 거의 동일한 것을 볼 수 있다. Referring to FIG. 7, the GGO partial boundary and solid partial boundary detected by a lung cancer specialist (Gold Standard) in the tumor imaging image (original image), and the GGO partial boundary and solid detected by deep learning according to an embodiment of the present invention. You can see that the partial boundaries are almost the same.

도 8은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경(10)을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술된 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.8 is a block diagram illustrating and describing a computing environment 10 including a computing device suitable for use in example embodiments. In the illustrated embodiment, each component may have different functions and capabilities in addition to those described below, and may include additional components in addition to those described below.

도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 폐암 종양 크기 측정 장치(100)일 수 있다. The illustrated computing environment 10 includes a computing device 12. In an embodiment, the computing device 12 may be a lung cancer tumor size measuring device 100.

컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.The computing device 12 includes at least one processor 14, a computer-readable storage medium 16 and a communication bus 18. The processor 14 may cause the computing device 12 to operate in accordance with the aforementioned exemplary embodiments. For example, the processor 14 may execute one or more programs stored in the computer-readable storage medium 16. The one or more programs may include one or more computer-executable instructions, and the computer-executable instructions are configured to cause the computing device 12 to perform operations according to an exemplary embodiment when executed by the processor 14. Can be.

컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.The computer-readable storage medium 16 is configured to store computer-executable instructions or program code, program data, and/or other suitable form of information. The program 20 stored in the computer-readable storage medium 16 includes a set of instructions executable by the processor 14. In one embodiment, the computer-readable storage medium 16 includes memory (volatile memory such as random access memory, nonvolatile memory, or a suitable combination thereof), one or more magnetic disk storage devices, optical disk storage devices, flash It may be memory devices, other types of storage media that can be accessed by the computing device 12 and store desired information, or a suitable combination thereof.

통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.The communication bus 18 interconnects the various other components of the computing device 12, including the processor 14 and computer readable storage medium 16.

컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(12)와 연결될 수도 있다.Computing device 12 may also include one or more input/output interfaces 22 and one or more network communication interfaces 26 that provide interfaces for one or more input/output devices 24. The input/output interface 22 and the network communication interface 26 are connected to the communication bus 18. The input/output device 24 may be connected to other components of the computing device 12 through the input/output interface 22. The exemplary input/output device 24 includes a pointing device (such as a mouse or trackpad), a keyboard, a touch input device (such as a touch pad or a touch screen), a voice or sound input device, and various types of sensor devices and/or a photographing device. Input devices, and/or output devices such as display devices, printers, speakers, and/or network cards. The exemplary input/output device 24 may be included in the computing device 12 as a component constituting the computing device 12, and may be connected to the computing device 12 as a separate device distinct from the computing device 12. May be.

이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Although the exemplary embodiments of the present invention have been described in detail above, those of ordinary skill in the art to which the present invention pertains will understand that various modifications can be made to the above-described embodiments without departing from the scope of the present invention. . Therefore, the scope of the present invention is limited to the described embodiments and should not be determined, and should not be determined by the claims to be described later, but also by those equivalents to the claims.

100 : 폐암 종양 크기 측정 장치
102 : 영상 획득부
104 : 제1 경계 검출부
106 : 제2 경계 검출부
108 : 크기 측정부
111 : 제1 영상 변환부
113 : 제1 영상 리사이징부
115 : 제1 딥러닝부
121 : 제2 영상 변환부
123 : 제2 영상 리사이징부
125 : 제2 딥러닝부
100: lung cancer tumor size measuring device
102: image acquisition unit
104: first boundary detection unit
106: second boundary detection unit
108: size measurement unit
111: first image conversion unit
113: first image resizing unit
115: first deep learning unit
121: second image conversion unit
123: second image resizing unit
125: 2nd deep learning unit

Claims (11)

하나 이상의 프로세서들, 및
상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치로서,
환자의 종양 부분을 촬영한 종양 촬영 영상을 획득하는 영상 획득부;
제1 딥러닝 모듈을 통해 상기 종양 촬영 영상에서 GGO(Ground Glass Opacity) 부분의 경계를 검출하는 제1 경계 검출부;
제2 딥러닝 모듈을 통해 상기 종양 촬영 영상에서 솔리드(Solid) 부분의 경계를 검출하는 제2 경계 검출부; 및
상기 검출된 GGO 부분의 경계를 기반으로 상기 GGO 부분의 크기를 측정하고, 상기 검출된 솔리드 부분의 경계를 기반으로 상기 솔리드 부분의 크기를 측정하는 크기 측정부를 포함하고,
상기 제1 경계 검출부는,
기 설정된 제1 윈도우 레벨 기준으로 상기 종양 촬영 영상을 기 설정된 제1 하운스필드 단위 레인지를 가지는 제1 윈도우를 통해 영상 변환하여 GGO 포션 영상을 생성하는 제1 영상 변환부; 및
상기 GGO 포션 영상을 입력 받아 상기 GGO 포션 영상에서 GGO 부분의 경계를 검출하는 제1 딥러닝부를 포함하고,
상기 제2 경계 검출부는,
기 설정된 제2 윈도우 레벨 기준으로 상기 종양 촬영 영상을 기 설정된 제2 하운스필드 단위 레인지를 가지는 제2 윈도우를 통해 영상 변환하여 솔리드 포션 영상을 생성하는 제2 영상 변환부; 및
상기 솔리드 포션 영상 및 상기 GGO 부분의 경계 정보를 입력 받아 상기 솔리드 포션 영상에서 솔리드 부분의 경계를 검출하는 제2 딥러닝부를 포함하는, 폐암 종양 크기 측정을 위한 컴퓨팅 장치.
One or more processors, and
A computing device having a memory storing one or more programs executed by the one or more processors,
An image acquisition unit for obtaining a tumor photographing image of a patient's tumor portion;
A first boundary detection unit configured to detect a boundary of a GGO (Ground Glass Opacity) portion in the tumor photographed image through a first deep learning module;
A second boundary detector configured to detect a boundary of a solid portion in the tumor photographed image through a second deep learning module; And
A size measuring unit that measures the size of the GGO portion based on the detected boundary of the GGO portion, and measures the size of the solid portion based on the detected boundary of the solid portion,
The first boundary detection unit,
A first image conversion unit for generating a GGO portion image by converting the tumor photographed image through a first window having a preset first Hounsfield unit range based on a preset first window level; And
A first deep learning unit for receiving the GGO portion image and detecting a boundary of a GGO portion in the GGO portion image,
The second boundary detection unit,
A second image conversion unit generating a solid portion image by converting the tumor photographed image through a second window having a second hounsfield unit range based on a preset second window level; And
Computing device for measuring lung cancer tumor size, including a second deep learning unit that receives the boundary information of the solid portion image and the GGO portion and detects the boundary of the solid portion in the solid portion image.
삭제delete 청구항 1에 있어서,
상기 제1 윈도우는,
하운스필드 단위의 기 설정된 제1 윈도우 레벨을 기준으로 기 설정된 제1 윈도우 폭을 가지도록 마련되는, 폐암 종양 크기 측정을 위한 컴퓨팅 장치.
The method according to claim 1,
The first window,
A computing device for measuring lung cancer tumor size, which is provided to have a preset first window width based on a preset first window level in units of Hounsfield.
청구항 1에 있어서,
상기 컴퓨팅 장치는,
상기 생성된 GGO 포션 영상을 기 설정된 사이즈로 리사이징하고, 리사이징된 GGO 포션 영상을 상기 제1 딥러닝부로 전달하는 제1 영상 리사이징부를 더 포함하는, 폐암 종양 크기 측정을 위한 컴퓨팅 장치.
The method according to claim 1,
The computing device,
A computing device for measuring lung cancer tumor size, further comprising a first image resizing unit for resizing the generated GGO portion image to a preset size and transferring the resized GGO portion image to the first deep learning unit.
청구항 1에 있어서,
상기 제1 딥러닝부는,
GGO 포션 영상이 입력되는 경우, 입력된 GGO 포션 영상에서 GGO 부분의 경계를 검출하여 출력하도록 학습된 합성곱 신경망(CNN : Convolution Neural Network)을 포함하는, 폐암 종양 크기 측정을 위한 컴퓨팅 장치.
The method according to claim 1,
The first deep learning unit,
Computing device for measuring lung cancer tumor size, including a convolution neural network (CNN) trained to detect and output a boundary of a GGO portion in the input GGO portion image when a GGO portion image is input.
삭제delete 청구항 3에 있어서,
상기 제2 윈도우는,
상기 제1 윈도우 레벨 보다 하운스필드 단위 값이 높은 제2 윈도우 레벨을 기준으로 상기 제1 윈도우 폭보다 좁은 범위의 제2 윈도우 폭을 가지도록 마련되는, 폐암 종양 크기 측정을 위한 컴퓨팅 장치.
The method of claim 3,
The second window,
A computing device for measuring the size of a lung cancer tumor, which is provided to have a second window width in a range narrower than the first window width based on a second window level having a Hounsfield unit value higher than the first window level.
청구항 1에 있어서,
상기 컴퓨팅 장치는,
상기 생성된 솔리드 포션 영상을 기 설정된 사이즈로 리사이징하고, 리사이징 된 솔리드 포션 영상을 상기 제2 딥러닝부로 전달하는 제2 영상 리사이징부를 더 포함하는, 폐암 종양 크기 측정을 위한 컴퓨팅 장치.
The method according to claim 1,
The computing device,
A computing device for measuring lung cancer tumor size, further comprising a second image resizing unit for resizing the generated solid portion image to a preset size and transmitting the resized solid portion image to the second deep learning unit.
청구항 1에 있어서,
상기 제2 딥러닝부는,
솔리드 포션 영상 및 상기 GGO 부분의 경계 정보가 입력되는 경우, 입력된 솔리드 포션 영상에서 솔리드 부분의 경계를 검출하여 출력하도록 학습된 합성곱 신경망(CNN : Convolution Neural Network)을 포함하는, 폐암 종양 크기 측정을 위한 컴퓨팅 장치.
The method according to claim 1,
The second deep learning unit,
Lung cancer tumor size measurement including a convolution neural network (CNN) trained to detect and output the boundary of the solid portion in the solid portion image and when the boundary information of the GGO portion is input For computing devices.
하나 이상의 프로세서들, 및
상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서,
환자의 종양 부분을 촬영한 종양 촬영 영상을 획득하는 단계;
기 설정된 제1 윈도우 레벨 기준으로 상기 종양 촬영 영상을 기 설정된 제1 하운스필드 단위 레인지를 가지는 제1 윈도우를 통해 영상 변환하여 GGO(Ground Glass Opacity) 포션 영상을 생성하는 단계;
제1 딥러닝 모듈을 통해 상기 GGO 포션 영상에서 GGO 부분의 경계를 검출하는 단계;
기 설정된 제2 윈도우 레벨 기준으로 상기 종양 촬영 영상을 기 설정된 제2 하운스필드 단위 레인지를 가지는 제2 윈도우를 통해 영상 변환하여 솔리드(Solid) 포션 영상을 생성하는 단계;
상기 솔리드 포션 영상 및 상기 GGO 부분의 경계 정보를 입력 받아 제2 딥러닝 모듈을 통해 상기 솔리드 포션 영상에서 솔리드 부분의 경계를 검출하는 단계;
상기 검출된 GGO 부분의 경계를 기반으로 상기 GGO 부분의 크기를 측정하는 단계; 및
상기 검출된 솔리드 부분의 경계를 기반으로 상기 솔리드 부분의 크기를 측정하는 단계를 포함하는, 폐암 종양 크기 측정 방법.
One or more processors, and
A method performed in a computing device having a memory storing one or more programs executed by the one or more processors,
Obtaining a tumor photographing image of the patient's tumor portion;
Generating a Ground Glass Opacity (GGO) portion image by converting the tumor photographed image based on a preset first window level through a first window having a preset first Hounsfield unit range;
Detecting a boundary of a GGO portion in the GGO portion image through a first deep learning module;
Generating a solid portion image by converting the tumor photographed image based on a preset second window level through a second window having a preset second Hounsfield unit range;
Receiving boundary information of the solid portion image and the GGO portion and detecting a boundary of the solid portion in the solid portion image through a second deep learning module;
Measuring the size of the GGO portion based on the detected boundary of the GGO portion; And
And measuring the size of the solid portion based on the detected boundary of the solid portion.
비일시적 컴퓨터 판독 가능한 저장 매체(non-transitory computer readable storage medium)에 저장된 컴퓨터 프로그램으로서,
상기 컴퓨터 프로그램은 하나 이상의 명령어들을 포함하고, 상기 명령어들은 하나 이상의 프로세서들을 갖는 컴퓨팅 장치에 의해 실행될 때, 상기 컴퓨팅 장치로 하여금,
환자의 종양 부분을 촬영한 종양 촬영 영상을 획득하고,
기 설정된 제1 윈도우 레벨 기준으로 상기 종양 촬영 영상을 기 설정된 제1 하운스필드 단위 레인지를 가지는 제1 윈도우를 통해 영상 변환하여 GGO(Ground Glass Opacity) 포션 영상을 생성하고,
제1 딥러닝 모듈을 통해 상기 GGO 포션 영상에서 GGO 부분의 경계를 검출하고,
기 설정된 제2 윈도우 레벨 기준으로 상기 종양 촬영 영상을 기 설정된 제2 하운스필드 단위 레인지를 가지는 제2 윈도우를 통해 영상 변환하여 솔리드(Solid) 포션 영상을 생성하고,
상기 솔리드 포션 영상 및 상기 GGO 부분의 경계 정보를 입력 받아 제2 딥러닝 모듈을 통해 상기 솔리드 포션 영상에서 솔리드 부분의 경계를 검출하고,
상기 검출된 GGO 부분의 경계를 기반으로 상기 GGO 부분의 크기를 측정하고, 그리고
상기 검출된 솔리드 부분의 경계를 기반으로 상기 솔리드 부분의 크기를 측정하도록 하는, 비일시적 컴퓨터 판독 가능한 저장 매체에 저장된 폐암 종양 크기 측정을 위한 컴퓨터 프로그램.
As a computer program stored in a non-transitory computer readable storage medium,
The computer program includes one or more instructions, and when the instructions are executed by a computing device having one or more processors, the computing device causes:
Acquire a tumor photographing image of the patient's tumor part,
Generates a GGO (Ground Glass Opacity) portion image by converting the tumor photographed image based on a preset first window level through a first window having a preset first Hounsfield unit range,
Detecting the boundary of the GGO portion in the GGO portion image through the first deep learning module,
A solid portion image is generated by converting the tumor photographed image based on a preset second window level through a second window having a preset second Hounsfield unit range,
Receives the solid portion image and boundary information of the GGO portion and detects the boundary of the solid portion in the solid portion image through a second deep learning module,
Measuring the size of the GGO portion based on the boundary of the detected GGO portion, and
A computer program for measuring the size of a lung cancer tumor stored in a non-transitory computer-readable storage medium to measure the size of the solid portion based on the detected boundary of the solid portion.
KR1020190001001A 2019-01-04 2019-01-04 Method for measuring lung cancer tumor size and apparatus for executint the method KR102236617B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190001001A KR102236617B1 (en) 2019-01-04 2019-01-04 Method for measuring lung cancer tumor size and apparatus for executint the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190001001A KR102236617B1 (en) 2019-01-04 2019-01-04 Method for measuring lung cancer tumor size and apparatus for executint the method

Publications (2)

Publication Number Publication Date
KR20200085012A KR20200085012A (en) 2020-07-14
KR102236617B1 true KR102236617B1 (en) 2021-04-06

Family

ID=71526597

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190001001A KR102236617B1 (en) 2019-01-04 2019-01-04 Method for measuring lung cancer tumor size and apparatus for executint the method

Country Status (1)

Country Link
KR (1) KR102236617B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220125741A (en) * 2021-03-04 2022-09-14 주식회사 뷰노 Method for analyzing lesion based on medical image
KR102628154B1 (en) * 2021-07-01 2024-01-25 주식회사 유엑스엔터프라이즈 Calculating method for volume of ovarian endometrioma, predicting method and apparatus for prognosis of endometriosis

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009165615A (en) * 2008-01-16 2009-07-30 Fujifilm Corp Tumor region size measurement method, apparatus, and program
JP2015029860A (en) * 2013-08-06 2015-02-16 株式会社東芝 Image processing apparatus and medical image diagnostic apparatus

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101664159B1 (en) 2011-11-11 2016-10-12 한국전자통신연구원 Lesion feature calculating device and method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009165615A (en) * 2008-01-16 2009-07-30 Fujifilm Corp Tumor region size measurement method, apparatus, and program
JP2015029860A (en) * 2013-08-06 2015-02-16 株式会社東芝 Image processing apparatus and medical image diagnostic apparatus

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Shengping Wang 외 12명, Quantitative Imaging in Medicine and Surgery, 2018 Jun, 8(5), pp.491~499*
Xiaoguang Tu 외 8명, "Automatic Categoriztion and Scoring of Solid, Part-Solid and Non-Solid Pulmonary Nodules in CT Images with Convolutional Neural Network", SCIENTIFIC REPORTS (2017.09.01.)*

Also Published As

Publication number Publication date
KR20200085012A (en) 2020-07-14

Similar Documents

Publication Publication Date Title
CN108399452B (en) Hierarchical learning of weights for neural networks performing multiple analyses
KR102406354B1 (en) Video restoration method and apparatus, electronic device and storage medium
US10891462B2 (en) Identifying geometrical properties of rock structure through digital imaging
US8879803B2 (en) Method, apparatus, and computer program product for image clustering
US20210050095A1 (en) Neural network-based object detection in visual input
KR102318959B1 (en) Prediction method for probability of lung cancer based on artificial intelligence model analyzing medical image and analyzing apparatus for medical image
CN106471549B (en) 360-degree core photographic image integration and interpretation in three-dimensional petrophysical modeling environment
KR102236617B1 (en) Method for measuring lung cancer tumor size and apparatus for executint the method
KR102233402B1 (en) Method for estimating concentration of fine dust and apparatus for executing the method
US20160093046A1 (en) Apparatus and method for supporting computer aided diagnosis
US10339418B2 (en) Computer-readable storage medium storing image processing program and image processing apparatus
KR102258756B1 (en) Determination method for stage of cancer based on medical image and analyzing apparatus for medical image
EP3555850A1 (en) System and method for image segmentation using a joint deep learning model
KR102267739B1 (en) Method for dental diagnostic and computing device for executing the method
JP2022538361A (en) Image segmentation confidence determination
CN110991412A (en) Face recognition method and device, storage medium and electronic equipment
Kang et al. Color image steganalysis based on channel gradient correlation
US20230035477A1 (en) Method and device for depth map completion
US11100670B2 (en) Positioning method, positioning device and nonvolatile computer-readable storage medium
CN110333252A (en) Dual intensity detection method and device
CN113192031B (en) Vascular analysis method, vascular analysis device, vascular analysis computer device, and vascular analysis storage medium
EP3772720A1 (en) Method and system for image analysis
Wang et al. Registration of prone and supine CT colonography scans using correlation optimized warping and canonical correlation analysis
Barath Recovering affine features from orientation-and scale-invariant ones
US10354142B2 (en) Method for holographic elements detection in video stream

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant