KR102564740B1 - Method for correcting X-ray image with improved contrast and device for the same - Google Patents

Method for correcting X-ray image with improved contrast and device for the same Download PDF

Info

Publication number
KR102564740B1
KR102564740B1 KR1020220090149A KR20220090149A KR102564740B1 KR 102564740 B1 KR102564740 B1 KR 102564740B1 KR 1020220090149 A KR1020220090149 A KR 1020220090149A KR 20220090149 A KR20220090149 A KR 20220090149A KR 102564740 B1 KR102564740 B1 KR 102564740B1
Authority
KR
South Korea
Prior art keywords
image
ray image
value
lung
lung region
Prior art date
Application number
KR1020220090149A
Other languages
Korean (ko)
Inventor
김태희
신희준
박주형
신동명
Original Assignee
주식회사 래디센
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 래디센 filed Critical 주식회사 래디센
Priority to KR1020220090149A priority Critical patent/KR102564740B1/en
Priority to KR1020230063107A priority patent/KR20240013038A/en
Application granted granted Critical
Publication of KR102564740B1 publication Critical patent/KR102564740B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Pulmonology (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)

Abstract

폐 영역을 포함하는 제2 X-ray 이미지를 네트워크에 입력하여 상기 제2 X-ray 이미지에서 폐 영역 및 폐 바깥 영역으로 구분되는 폐 영역 이미지를 생성하는 단계 및 상기 폐 영역 이미지를 기초로 상기 제2 X-ray 이미지의 폐 영역을 구성하는 복수 개의 픽셀들의 밝기에 대한 히스토그램을 스트레칭하여 보정된 X-ray 이미지를 생성하는 단계를 포함하는, X-ray 이미지 보정 방법을 공개한다.generating a lung region image divided into a lung region and an outer lung region in the second X-ray image by inputting a second X-ray image including the lung region into a network; 2 An X-ray image correction method is disclosed, including generating a corrected X-ray image by stretching a histogram of the brightness of a plurality of pixels constituting the lung area of the X-ray image.

Description

개선된 콘트라스트를 갖는 X-ray 이미지 보정 방법 및 이를 위한 장치{Method for correcting X-ray image with improved contrast and device for the same}Method for correcting X-ray image with improved contrast and device for the same

본 발명은 개선된 콘트라스트를 갖도록 X-ray 이미지를 보정하는 기술에 관한 것으로서, 폐 영역 이미지를 시뮬레이션하여 생성하여 히스토그램 스트레칭하는 기술에 관한 것이다.The present invention relates to a technique for correcting an X-ray image to have improved contrast, and relates to a technique for stretching a histogram by simulating and generating a lung region image.

도 1은 X-ray 촬영 장치를 이용하여 X-ray 이미지를 얻는 과정을 나타낸 것이다.1 shows a process of obtaining an X-ray image using an X-ray imaging device.

X-ray 소스(30)에서 X-ray가 방출되어 촬영대상(환자)(40)을 통과하여 반대편의 X-ray 검출 센서(50)에 도달하면, X-ray 검출 센서(50)가 출력하는 신호를 이용하여 X-ray 이미지를 얻을 수 있다. When X-rays are emitted from the X-ray source 30 and pass through the subject (patient) 40 to reach the X-ray detection sensor 50 on the opposite side, the X-ray detection sensor 50 outputs An X-ray image can be obtained using the signal.

도 2는 일 실시예에 따라 상기 X-ray 이미지 및 상기 X-ray 이미지에 대하여 히스토그램을 스트레칭한 이미지를 나타낸 것이다.2 illustrates the X-ray image and an image obtained by stretching a histogram of the X-ray image according to an exemplary embodiment.

X-ray 이미지(71)의 경우 콘트라스트(contrast)가 낮아 명암의 차이가 크지 않을 수 있다. 이러한 경우, X-ray 이미지(71)의 콘트라스트를 높이기 위해 이미지의 히스토그램을 스트레칭하는 방법이 이용될 수 있다.In the case of the X-ray image 71, the contrast may not be large due to low contrast. In this case, a method of stretching the histogram of the image may be used to increase the contrast of the X-ray image 71 .

구체적으로 X-ray 이미지는 복수 개의 픽셀들로 구성될 수 있다. 이때, 픽셀의 밝기를 나타내는 값들에 대해 상기 복수 개의 픽셀들 각각이 어느 값들에 해당하는 지를 나타낸 히스토그램을 스트레칭하면 X-ray 이미지의 콘트라스트를 강화시킬 수 있다. Specifically, an X-ray image may be composed of a plurality of pixels. At this time, the contrast of the X-ray image can be enhanced by stretching a histogram indicating which values each of the plurality of pixels corresponds to with respect to values representing the brightness of the pixels.

그러나 이때 히스토그램 스트레칭 방법이 적용된 이미지(72)와 같이( 구체적으로 참조부호 A와 같이), 구름 효과가 나타날 수 있다. 이는 콘트라스트 열화 현상으로 이미지의 백그라운드까지 밝아져서 생기는 현상일 수 있다. 히스토그램 스트레칭 방법을 이용하여 신체 외부의 검은 부분을 밝게 표현하는 변환을 하면, 신체 내부의 뼈 및 소프트-티슈(soft-tissue, 연부 조직) 영역은 원래 밝았던 것이 더 밝아진다. 그 결과 원래 밝았던 뼈 및 소프트-티슈 부분이 너무 밝아져서 구름처럼 보이게 되고( 콘트라스트 열화 현상), 뼈 및 소프트-티슈 내의 영역들이 서로 구분되어 인식되기 어렵다는 문제가 있다. However, at this time, as in the image 72 to which the histogram stretching method is applied (specifically, as shown in reference numeral A), a cloud effect may appear. This may be a phenomenon caused by brightening the background of the image due to a contrast deterioration phenomenon. When the conversion is performed to brighten the black parts outside the body using the histogram stretching method, the original bright parts of the bone and soft-tissue areas inside the body become brighter. As a result, there is a problem that originally bright bone and soft-tissue portions become too bright and look like clouds (contrast deterioration phenomenon), and regions within the bone and soft-tissue are difficult to distinguish from each other and be recognized.

따라서, 이미지의 콘트라스트 열화 현상이 발생하는 소프트-티슈 영역의 콘트라스트를 강화시키는 방법이 요구된다.Therefore, there is a need for a method of enhancing the contrast of the soft-tissue area where the image contrast deterioration occurs.

본 발명에서는 상술한 문제를 해결하기 위하여, 이미지의 콘트라스트 열화 현상이 발생하는 소프트-티슈(soft-tissue, 연부 조직) 영역의 콘트라스트를 강화시키는 X-ray 이미지 보정 방법을 제공하고자 한다.In order to solve the above-described problem, the present invention intends to provide an X-ray image correction method for enhancing the contrast of a soft-tissue region where contrast deterioration of an image occurs.

본 발명의 일 관점에 따라 제공되는 X-ray 이미지의 폐 영역의 콘트라스트 향상 방법은, 폐 영역을 포함하는 제2 X-ray 이미지(704)를 네트워크(500)에 입력하여 상기 제2 X-ray 이미지에서 폐 영역(705a) 및 폐 바깥 영역(705b)으로 구분되는 폐 영역 이미지(705)를 생성하는 단계; 및 상기 폐 영역 이미지를 기초로 상기 제2 X-ray 이미지의 폐 영역을 구성하는 복수 개의 픽셀들의 밝기에 대한 히스토그램을 스트레칭하여 보정된 X-ray 이미지(706 또는 708)를 생성하는 단계를 포함할 수 있다.In the contrast enhancement method of the lung region of the X-ray image provided according to one aspect of the present invention, the second X-ray image 704 including the lung region is input to the network 500, and the second X-ray image 704 is input to the network 500. generating a lung region image 705 divided into a lung region 705a and an outer lung region 705b from the image; and generating a corrected X-ray image (706 or 708) by stretching a histogram of brightness of a plurality of pixels constituting the lung region of the second X-ray image based on the lung region image. can

이때, 상기 보정된 X-ray 이미지를 생성하는 단계는, 상기 제2 X-ray 이미지(704)를 구성하는 복수 개의 픽셀들 각각에 대하여 픽셀의 밝기를 나타내는 값에 대한 빈도수를 나타내는 제1히스토그램(204)을 생성하는 단계; 상기 제2 X-ray 이미지의 각 픽셀을 상기 폐 영역 이미지(705)의 각 픽셀에 대응시켰을 때, 상기 제2 X-ray 이미지 중 상기 폐 영역에 해당하는 부분(704a)의 픽셀들에 대한 제2히스토그램(204a)을 생성하는 단계; 상기 부분의 픽셀들 중 가장 어두운 픽셀의 제5값(v5)을 결정하는 단계; 상기 제1히스토그램의 값들 중 상기 결정된 제5값을 픽셀의 밝기를 나타내는 값들 중 최솟값('0', 검은색)으로 매핑하고, 상기 최솟값으로부터 상기 제5값 사이의 제5범위(r5)에 해당하는 각 픽셀의 값을 상기 최솟값으로 매핑하는 단계; 상기 제1히스토그램의 값들 중 가장 밝은 픽셀의 제6값(v6)과 상기 제5값 사이의 값들을, 상기 제6값(v6)과 상기 최솟값 사이의 값들로 선형으로 매핑하는 단계; 및 상기 제2 X-ray 이미지의 복수 개의 픽셀들 각각에 대하여 매핑된 값을 갖는 상기 보정된 X-ray 이미지(706)를 생성하는 단계를 포함할 수 있다.At this time, in the step of generating the corrected X-ray image, a first histogram showing the frequency of a value representing the brightness of a pixel for each of a plurality of pixels constituting the second X-ray image 704 ( 204); When each pixel of the second X-ray image corresponds to each pixel of the lung region image 705, the pixels of the part 704a corresponding to the lung region of the second X-ray image 2 generating a histogram 204a; determining a fifth value (v5) of the darkest pixel among the pixels of the portion; The determined fifth value among the values of the first histogram is mapped to a minimum value ('0', black) among values representing the brightness of a pixel, and corresponds to a fifth range (r5) between the minimum value and the fifth value. mapping the value of each pixel to the minimum value; linearly mapping values between the sixth value (v6) of the brightest pixel among the values of the first histogram and the fifth value to values between the sixth value (v6) and the minimum value; and generating the corrected X-ray image 706 having values mapped to each of a plurality of pixels of the second X-ray image.

또는, 상기 방법은, 상기 폐 영역 이미지를 생성하는 단계와 상기 보정된 X-ray 이미지를 생성하는 단계 사이에, 상기 제2 X-ray 이미지(704)의 각 픽셀을 상기 폐 영역 이미지(705)의 각 픽셀에 대응시켰을 때, 상기 제2 X-ray 이미지 중 상기 폐 영역에 해당하는 부분(704a)만 포함되도록 잘라낸 제2 폐 영역 이미지(707)를 생성하는 단계를 더 포함할 수 있다. 이때, 상기 보정된 X-ray 이미지(708)를 생성하는 단계는, 상기 제2 폐 영역 이미지를 구성하는 복수 개의 픽셀들의 밝기에 대한 제3히스토그램을 스트레칭하여 상기 보정된 X-ray 이미지를 생성하는 단계일 수 있다. 이때, 상기 보정된 X-ray 이미지를 생성하는 단계는, 상기 제2 폐 영역 이미지의 픽셀들에 대한 상기 제3히스토그램(207)을 생성하는 단계; 상기 제2 폐 영역 이미지의 픽셀들 중 가장 어두운 픽셀의 제5값(v5)을 결정하는 단계; 상기 제3히스토그램의 값들 중 상기 결정된 제5값을 픽셀의 밝기를 나타내는 값들 중 최솟값('0', 검은색)으로 매핑하는 단계; 상기 제3히스토그램의 값들 중 가장 밝은 픽셀의 제7값(v7)과 상기 제5값 사이의 값들을 상기 제7값과 상기 최솟값 사이의 값들로 선형으로 매핑하는 단계; 및 상기 제2 폐 영역 이미지의 픽셀들 각각에 대하여 매핑된 값을 갖는 상기 보정된 X-ray 이미지를 생성하는 단계를 포함할 수 있다.Alternatively, in the method, between generating the lung region image and generating the corrected X-ray image, each pixel of the second X-ray image 704 is converted to the lung region image 705. The method may further include generating a second lung region image 707 cropped so that only the portion 704a corresponding to the lung region is included in the second X-ray image when corresponding to each pixel of . In this case, the generating of the corrected X-ray image 708 includes generating the corrected X-ray image by stretching a third histogram of brightness of a plurality of pixels constituting the second lung region image. may be a step. In this case, the generating of the corrected X-ray image may include generating the third histogram 207 for pixels of the second lung region image; determining a fifth value (v5) of a darkest pixel among pixels of the second lung region image; mapping the determined fifth value among values of the third histogram to a minimum value ('0', black) among values representing brightness of a pixel; linearly mapping values between a seventh value (v7) of the brightest pixel among values of the third histogram and the fifth value to values between the seventh value and the minimum value; and generating the corrected X-ray image having a value mapped to each of the pixels of the second lung region image.

이때, 상기 네트워크는, 제1스캔대상을 CT 스캔하여 얻은 제1 CT 스캔정보를 일 방향으로 프로젝션하여, 시뮬레이션된 X-ray 이미지를 생성하는 단계; 상기 제1 CT 스캔정보 중 공기 영역을 추출하는 단계; 상기 제1 CT 스캔정보 중 상기 공기 영역만을 상기 일 방향으로 프로젝션하여, 시뮬레이션된 그라운드 트루스(ground truth) 이미지를 생성하는 단계; 및 신경망을 포함하는 상기 네트워크에 상기 시뮬레이션된 X-ray 이미지를 입력하였을 때에 상기 네트워크가 상기 시뮬레이션된 그라운드 트루스 이미지 중 상기 공기 영역에 대응하는 픽셀들은 제1값을 갖고, 상기 시뮬레이션된 그라운드 트루스 이미지 중 상기 공기 영역을 제외한 나머지 영역에 대응하는 픽셀들은 제2값을 갖는 상기 폐 영역 이미지를 출력하도록, 상기 시뮬레이션된 X-ray 이미지를 학습용 입력정보로 하고 상기 시뮬레이션된 그라운드 트루스(ground truth) 이미지를 레이블로 하여 상기 네트워크를 학습하는 단계를 포함하는 지도학습 방법에 의해 학습된 것일 수 있다.At this time, the network projects the first CT scan information obtained by CT scan of the first scan object in one direction to generate a simulated X-ray image; extracting an air area from the first CT scan information; generating a simulated ground truth image by projecting only the air area among the first CT scan information in the one direction; and when the simulated X-ray image is input to the network including a neural network, pixels corresponding to the air area among the simulated ground truth images have a first value, and The simulated X-ray image is used as input information for learning and the simulated ground truth image is labeled so that pixels corresponding to the remaining area except for the air area output the lung area image having a second value It may be learned by a supervised learning method comprising the step of learning the network as .

이때, 상기 제2 X-ray 이미지는, X-ray 촬영장치가 출력한 제1 X-ray 이미지의 히스토그램을 스트레칭하여 생성한 것이거나, 또는 상기 제2 X-ray 이미지는 X-ray 촬영장치가 출력한 이미지일 수 있다.At this time, the second X-ray image is generated by stretching the histogram of the first X-ray image output by the X-ray imaging device, or the second X-ray image is generated by the X-ray imaging device. It may be a printed image.

이때, 상기 제1 X-ray 이미지의 히스토그램을 스트레칭하여 상기 제2 X-ray 이미지를 생성하는 단계는, 상기 제1 X-ray 이미지를 구성하는 복수 개의 픽셀들 각각에 대하여 픽셀의 밝기를 나타내는 값에 대한 빈도수를 나타내는 히스토그램을 생성하는 단계; 상기 제1 X-ray 이미지의 상기 복수 개의 픽셀들 중 가장 밝은 픽셀의 제1값을 기준으로 미리 결정된 제1범위(r1)의 경계값인 제2값을 픽셀의 밝기를 나타내는 값들 중 최댓값으로 매핑하고, 상기 제1범위에 해당하는 각 픽셀의 값을 상기 최댓값으로 매핑하는 단계; 상기 제1 X-ray 이미지를 구성하는 복수 개의 픽셀들 중 가장 어두운 픽셀의 제3값을 기준으로 미리 결정된 제2범위(r2)의 경계값인 제4값을 픽셀의 밝기를 나타내는 값들 중 최솟값으로 매핑하고, 상기 제2범위에 해당하는 각 픽셀의 값을 상기 최솟값으로 매핑하는 단계; 및 상기 제1 X-ray 이미지를 구성하는 복수 개의 픽셀들 중 상기 제1범위 및 상기 제2범위를 제외한 가운데 범위인 제3범위(r3)의 픽셀들의 밝기를 나타내는 값들을 상기 최댓값과 상기 최솟값 사이의 값들로 선형으로 매핑하는 단계를 포함할 수 있다.In this case, the generating of the second X-ray image by stretching the histogram of the first X-ray image may include a value representing the brightness of a pixel for each of a plurality of pixels constituting the first X-ray image. Generating a histogram showing the frequency for ; The second value, which is the boundary value of the first range r1 predetermined based on the first value of the brightest pixel among the plurality of pixels of the first X-ray image, is mapped to the maximum value among values representing the brightness of the pixel. and mapping a value of each pixel corresponding to the first range to the maximum value; The fourth value, which is the boundary value of the second range r2 predetermined based on the third value of the darkest pixel among the plurality of pixels constituting the first X-ray image, is set to the minimum value among the values representing the brightness of the pixel. mapping, and mapping a value of each pixel corresponding to the second range to the minimum value; And among the plurality of pixels constituting the first X-ray image, values representing the brightness of pixels in a third range (r3), which is a middle range excluding the first range and the second range, are between the maximum value and the minimum value. It may include linearly mapping to values of .

본 발명의 일 관점에 따라 제공되는 X-ray 이미지의 폐 영역의 콘트라스트 향상 장치는, 컴퓨터로 읽을 수 있는 비휘발성 기록매체를 읽을 수 있는 장치 인터페이스부; 및 처리부;를 포함할 수 있다. 이때, 상기 비휘발성 기록매체는, 폐 영역을 포함하는 제2 X-ray 이미지(704)를 네트워크(500)에 입력하여 상기 제2 X-ray 이미지에서 폐 영역(705a) 및 폐 바깥 영역(705b)으로 구분되는 폐 영역 이미지(705)를 생성하는 단계를 실행하는 제12명령코드, 및 상기 폐 영역 이미지를 기초로 상기 제2 X-ray 이미지의 폐 영역을 구성하는 복수 개의 픽셀들의 밝기에 대한 히스토그램을 스트레칭하여 보정된 X-ray 이미지를 생성하는 단계를 실행하는 제13명령코드를 포함하는 프로그램을 저장하고 있을 수 있다. 이때, 상기 처리부는, 상기 장치 인터페이스부를 통해, 상기 제12명령코드 및 상기 제13명령코드를 읽어서 실행함으로써 상기 보정된 X-ray 이미지를 생성하도록 되어 있을 수 있다.An apparatus for improving the contrast of a lung area of an X-ray image provided according to one aspect of the present invention includes a device interface unit capable of reading a computer-readable non-volatile recording medium; And a processing unit; may include. At this time, the non-volatile recording medium inputs the second X-ray image 704 including the lung area to the network 500, and in the second X-ray image, the lung area 705a and the outer lung area 705b ), twelfth instruction code for executing the step of generating a lung region image 705, and brightness of a plurality of pixels constituting the lung region of the second X-ray image based on the lung region image. A program including a 13th command code executing a step of generating a corrected X-ray image by stretching the histogram may be stored. At this time, the processing unit may be configured to generate the corrected X-ray image by reading and executing the twelfth command code and the thirteenth command code through the device interface unit.

이때, 상기 보정된 X-ray 이미지를 생성하는 단계는, 상기 제2 X-ray 이미지(704)를 구성하는 복수 개의 픽셀들 각각에 대하여 픽셀의 밝기를 나타내는 값에 대한 빈도수를 나타내는 제1히스토그램(204)을 생성하는 단계; 상기 제2 X-ray 이미지의 각 픽셀을 상기 폐 영역 이미지(705)의 각 픽셀에 대응시켰을 때, 상기 제2 X-ray 이미지 중 상기 폐 영역에 해당하는 부분(704a)의 픽셀들에 대한 제2히스토그램(204a)을 생성하는 단계; 상기 부분의 픽셀들 중 가장 어두운 픽셀의 제5값(v5)을 결정하는 단계; 상기 제1히스토그램의 값들 중 상기 결정된 제5값을 픽셀의 밝기를 나타내는 값들 중 최솟값('0', 검은색)으로 매핑하고, 상기 최솟값으로부터 상기 제5값 사이의 제5범위에 해당하는 각 픽셀의 값을 상기 최솟값으로 매핑하는 단계; 상기 제1히스토그램의 값들 중 가장 밝은 픽셀의 제6값(v6)과 상기 제5값 사이의 값들을, 상기 제6값(v6)과 상기 최솟값 사이의 값들로 선형으로 매핑하는 단계; 및 상기 제2 X-ray 이미지의 복수 개의 픽셀들 각각에 대하여 매핑된 값을 갖는 상기 보정된 X-ray 이미지(706)를 생성하는 단계를 포함할 수 있다.At this time, in the step of generating the corrected X-ray image, a first histogram showing the frequency of a value representing the brightness of a pixel for each of a plurality of pixels constituting the second X-ray image 704 ( 204); When each pixel of the second X-ray image corresponds to each pixel of the lung region image 705, the pixels of the part 704a corresponding to the lung region of the second X-ray image 2 generating a histogram 204a; determining a fifth value (v5) of the darkest pixel among the pixels of the portion; The determined fifth value among the values of the first histogram is mapped to a minimum value ('0', black) among values representing the brightness of a pixel, and each pixel corresponding to a fifth range between the minimum value and the fifth value mapping the value of to the minimum value; linearly mapping values between the sixth value (v6) of the brightest pixel among the values of the first histogram and the fifth value to values between the sixth value (v6) and the minimum value; and generating the corrected X-ray image 706 having values mapped to each of a plurality of pixels of the second X-ray image.

또는, 상기 폐 영역 이미지를 생성하는 단계와 상기 보정된 X-ray 이미지를 생성하는 단계 사이에, 상기 제2 X-ray 이미지의 각 픽셀을 상기 폐 영역 이미지(705)의 각 픽셀에 대응시켰을 때, 상기 제2 X-ray 이미지 중 상기 폐 영역에 해당하는 부분(704a)만 포함되도록 잘라낸 제2 폐 영역 이미지(707)를 생성하는 단계를 더 포함할 수 있다. 이때, 상기 보정된 X-ray 이미지를 생성하는 단계는, 상기 제2 폐 영역 이미지를 구성하는 복수 개의 픽셀들의 밝기에 대한 제3히스토그램을 스트레칭하여 상기 보정된 X-ray 이미지(708)를 생성하는 단계일 수 있다. 이때, 상기 보정된 X-ray 이미지를 생성하는 단계는, 상기 제2 폐 영역 이미지의 픽셀들에 대한 제3히스토그램(207)을 생성하는 단계; 상기 제2 폐 영역 이미지의 픽셀들 중 가장 어두운 픽셀의 제5값(v5)을 결정하는 단계; 상기 제3히스토그램의 값들 중 상기 결정된 제5값을 픽셀의 밝기를 나타내는 값들 중 최솟값('0', 검은색)으로 매핑하는 단계; 상기 제3히스토그램의 값들 중 가장 밝은 픽셀의 제7값(v7)과 상기 제5값 사이의 값들을 상기 제7값과 상기 최솟값 사이의 값들로 선형으로 매핑하는 단계; 및 상기 제2 폐 영역 이미지의 픽셀들 각각에 대하여 매핑된 값을 갖는 상기 보정된 X-ray 이미지를 생성하는 단계를 포함할 수 있다.Alternatively, when each pixel of the second X-ray image corresponds to each pixel of the lung region image 705 between the generating of the lung region image and the generating of the corrected X-ray image , generating a second lung region image 707 cropped so that only the portion 704a corresponding to the lung region is included in the second X-ray image. In this case, the generating of the corrected X-ray image includes generating the corrected X-ray image 708 by stretching a third histogram of brightness of a plurality of pixels constituting the second lung region image. may be a step. In this case, the generating of the corrected X-ray image may include generating a third histogram 207 of pixels of the second lung region image; determining a fifth value (v5) of a darkest pixel among pixels of the second lung region image; mapping the determined fifth value among values of the third histogram to a minimum value ('0', black) among values representing brightness of a pixel; linearly mapping values between a seventh value (v7) of the brightest pixel among values of the third histogram and the fifth value to values between the seventh value and the minimum value; and generating the corrected X-ray image having a value mapped to each of the pixels of the second lung region image.

이때, 상기 비휘발성 기록매체는, 제1스캔대상을 CT 스캔하여 얻은 제1 CT 스캔정보를 일 방향으로 프로젝션하여, 시뮬레이션된 X-ray 이미지를 생성하는 단계; 상기 제1 CT 스캔정보 중 공기 영역을 추출하는 단계; 상기 제1 CT 스캔정보 중 상기 공기 영역만을 상기 일 방향으로 프로젝션하여, 시뮬레이션된 그라운드 트루스(ground truth) 이미지를 생성하는 단계; 및 신경망을 포함하는 상기 네트워크에 상기 시뮬레이션된 X-ray 이미지를 입력하였을 때에 상기 네트워크가 상기 시뮬레이션된 그라운드 트루스 이미지 중 상기 공기 영역에 대응하는 픽셀들은 제1값을 갖고, 상기 시뮬레이션된 그라운드 트루스 이미지 중 상기 공기 영역을 제외한 나머지 영역에 대응하는 픽셀들은 제2값을 갖는 상기 폐 영역 이미지를 출력하도록, 상기 시뮬레이션된 X-ray 이미지를 학습용 입력정보로 하고 상기 시뮬레이션된 그라운드 트루스(ground truth) 이미지를 레이블로 하여 상기 네트워크를 학습하는 단계를 포함하는 지도학습 방법에 의해 상기 네트워크를 학습시키는 폐영역 학습명령코드를 포함할 수 있다. 이때, 상기 처리부는, 상기 장치 인터페이스부를 통해, 상기 폐영역 학습명령코드를 읽어서 실행함으로써, 상기 네트워크를 학습시키도록 되어 있을 수 있다.At this time, in the non-volatile recording medium, projecting the first CT scan information obtained by CT scanning the first scan object in one direction to generate a simulated X-ray image; extracting an air area from the first CT scan information; generating a simulated ground truth image by projecting only the air area among the first CT scan information in the one direction; and when the simulated X-ray image is input to the network including a neural network, pixels corresponding to the air area among the simulated ground truth images have a first value, and The simulated X-ray image is used as input information for learning and the simulated ground truth image is labeled so that pixels corresponding to the remaining area except for the air area output the lung area image having a second value It may include a closed region learning command code for learning the network by a supervised learning method comprising the step of learning the network by doing. At this time, the processing unit may be configured to learn the network by reading and executing the closed region learning command code through the device interface unit.

이때, 상기 제2 X-ray 이미지는, X-ray 촬영장치가 출력한 제1 X-ray 이미지의 히스토그램을 스트레칭하여 생성한 것이거나, 또는 상기 제2 X-ray 이미지는 X-ray 촬영장치가 출력한 이미지일 수 있다.At this time, the second X-ray image is generated by stretching the histogram of the first X-ray image output by the X-ray imaging device, or the second X-ray image is generated by the X-ray imaging device. It may be a printed image.

이때, 상기 비휘발성 기록매체는, 상기 제1 X-ray 이미지를 구성하는 복수 개의 픽셀들 각각에 대하여 픽셀의 밝기를 나타내는 값에 대한 빈도수를 나타내는 히스토그램을 생성하는 단계; 상기 제1 X-ray 이미지의 상기 복수 개의 픽셀들 중 가장 밝은 픽셀의 제1값을 기준으로 미리 결정된 제1범위(r1)의 경계값인 제2값을 픽셀의 밝기를 나타내는 값들 중 최댓값으로 매핑하고, 상기 제1범위에 해당하는 각 픽셀의 값을 상기 최댓값으로 매핑하는 단계; 상기 제1 X-ray 이미지를 구성하는 복수 개의 픽셀들 중 가장 어두운 픽셀의 제3값을 기준으로 미리 결정된 제2범위(r2)의 경계값인 제4값을 픽셀의 밝기를 나타내는 값들 중 최솟값으로 매핑하고, 상기 제2범위에 해당하는 각 픽셀의 값을 상기 최솟값으로 매핑하는 단계; 및 상기 제1 X-ray 이미지를 구성하는 복수 개의 픽셀들 중 상기 제1범위 및 상기 제2범위를 제외한 가운데 범위인 제3범위(r3)의 픽셀들의 밝기를 나타내는 값들을 상기 최댓값과 상기 최솟값 사이의 값들로 선형으로 매핑하는 단계를 실행하는 제11명령코드를 포함하는 프로그램을 저장하고 있을 수 있다. 이때, 상기 처리부는, 상기 장치 인터페이스부를 통해, 상기 제11명령코드를 읽어서 실행함으로써 상기 제2 X-ray 이미지를 생성하도록 되어 있을 수 있다.At this time, the non-volatile recording medium, generating a histogram representing the frequency of the value representing the brightness of the pixel for each of the plurality of pixels constituting the first X-ray image; The second value, which is the boundary value of the first range r1 predetermined based on the first value of the brightest pixel among the plurality of pixels of the first X-ray image, is mapped to the maximum value among values representing the brightness of the pixel. and mapping a value of each pixel corresponding to the first range to the maximum value; The fourth value, which is the boundary value of the second range r2 predetermined based on the third value of the darkest pixel among the plurality of pixels constituting the first X-ray image, is set to the minimum value among the values representing the brightness of the pixel. mapping, and mapping a value of each pixel corresponding to the second range to the minimum value; And among the plurality of pixels constituting the first X-ray image, values representing the brightness of pixels in a third range (r3), which is a middle range excluding the first range and the second range, are between the maximum value and the minimum value. A program including an 11th instruction code that executes the step of linearly mapping to the values of may be stored. At this time, the processing unit may be configured to generate the second X-ray image by reading and executing the eleventh command code through the device interface unit.

본 발명의 다른 관점에 따라 제공되는 X-ray 이미지의 폐 영역의 콘트라스트 향상 방법은, 폐 영역을 포함하는 제2 X-ray 이미지(704)를 네트워크(500)에 입력하여 상기 제2 X-ray 이미지에서 폐 영역(705a) 및 폐 바깥 영역(705b)으로 구분되는 폐 영역 이미지(705)를 생성하는 단계; 및 상기 폐 영역 이미지를 기초로 상기 제2 X-ray 이미지의 폐 영역의 콘트라스트를 향상시키는 단계를 포함할 수 있다. 이때, 상기 네트워크는, 제1스캔대상을 CT 스캔하여 얻은 제1 CT 스캔정보를 일 방향으로 프로젝션하여, 시뮬레이션된 X-ray 이미지를 생성하는 단계; 상기 제1 CT 스캔정보 중 공기 영역을 추출하는 단계; 상기 제1 CT 스캔정보 중 상기 공기 영역만을 상기 일 방향으로 프로젝션하여, 시뮬레이션된 그라운드 트루스(ground truth) 이미지를 생성하는 단계; 및 신경망을 포함하는 상기 네트워크에 상기 시뮬레이션된 X-ray 이미지를 입력하였을 때에 상기 네트워크가 상기 시뮬레이션된 그라운드 트루스 이미지 중 상기 공기 영역에 대응하는 픽셀들은 제1값을 갖고, 상기 시뮬레이션된 그라운드 트루스 이미지 중 상기 공기 영역을 제외한 나머지 영역에 대응하는 픽셀들은 제2값을 갖는 폐 영역 이미지를 출력하도록, 상기 시뮬레이션된 X-ray 이미지를 학습용 입력정보로 하고 상기 시뮬레이션된 그라운드 트루스(ground truth) 이미지를 레이블로 하여 상기 네트워크를 학습하는 단계를 포함하는 지도학습 방법에 의해 학습된 것일 수 있다.In the contrast enhancement method of the lung region of the X-ray image provided according to another aspect of the present invention, the second X-ray image 704 including the lung region is input to the network 500, and the second X-ray image 704 is input to the network 500. generating a lung region image 705 divided into a lung region 705a and an outer lung region 705b from the image; and enhancing contrast of the lung region of the second X-ray image based on the lung region image. At this time, the network projects the first CT scan information obtained by CT scan of the first scan object in one direction to generate a simulated X-ray image; extracting an air area from the first CT scan information; generating a simulated ground truth image by projecting only the air area among the first CT scan information in the one direction; and when the simulated X-ray image is input to the network including a neural network, pixels corresponding to the air area among the simulated ground truth images have a first value, and The simulated X-ray image as input information for learning and the simulated ground truth image as a label so that pixels corresponding to the remaining area except for the air area output a lung area image having a second value It may be learned by a supervised learning method comprising the step of learning the network by doing so.

이때, 상기 폐 영역 이미지(705)를 기초로 상기 제2 X-ray 이미지의 폐 영역의 콘트라스트를 향상시키는 단계는, 상기 제2 X-ray 이미지의 각 픽셀을 상기 폐 영역 이미지(705)의 각 픽셀에 대응시켰을 때, 상기 제2 X-ray 이미지 중 상기 폐 영역에 해당하는 부분(704a)만 포함되도록 잘라낸 제2 폐 영역 이미지를 생성하는 단계; 및 상기 제2 폐 영역 이미지를 구성하는 복수 개의 픽셀들의 밝기에 대한 히스토그램을 스트레칭하여 상기 보정된 X-ray 이미지를 생성하는 단계를 포함할 수 있다.At this time, the step of enhancing the contrast of the lung region of the second X-ray image based on the lung region image 705 may include setting each pixel of the second X-ray image to each of the lung region images 705. generating a second lung region image cropped so that only a portion 704a corresponding to the lung region is included in the second X-ray image when corresponding to pixels; and generating the corrected X-ray image by stretching a histogram of brightness of a plurality of pixels constituting the second lung region image.

이때, 상기 보정된 X-ray 이미지를 생성하는 단계는, 상기 제2 폐 영역 이미지의 픽셀들에 대한 제3히스토그램(207)을 생성하는 단계; 상기 제2 폐 영역 이미지의 픽셀들 중 가장 어두운 픽셀의 제5값(v5)을 결정하는 단계; 상기 제3히스토그램의 값들 중 상기 결정된 제5값을 픽셀의 밝기를 나타내는 값들 중 최솟값('0', 검은색)으로 매핑하는 단계; 상기 제3히스토그램의 값들 중 가장 밝은 픽셀의 제7값(v7)과 상기 제5값 사이의 값들을 상기 제7값과 상기 최솟값 사이의 값들로 선형으로 매핑하는 단계; 및 상기 제2 폐 영역 이미지의 픽셀들 각각에 대하여 매핑된 값을 갖는 상기 보정된 X-ray 이미지를 생성하는 단계를 포함할 수 있다.In this case, the generating of the corrected X-ray image may include generating a third histogram 207 of pixels of the second lung region image; determining a fifth value (v5) of a darkest pixel among pixels of the second lung region image; mapping the determined fifth value among values of the third histogram to a minimum value ('0', black) among values representing brightness of a pixel; linearly mapping values between a seventh value (v7) of the brightest pixel among values of the third histogram and the fifth value to values between the seventh value and the minimum value; and generating the corrected X-ray image having a value mapped to each of the pixels of the second lung region image.

본 발명의 다른 관점에 따라 제공되는 X-ray 이미지의 폐 영역의 콘트라스트 향상 장치는, 컴퓨터로 읽을 수 있는 비휘발성 기록매체를 읽을 수 있는 장치 인터페이스부; 및 처리부;를 포함할 수 있다. 이때, 상기 비휘발성 기록매체는, 폐 영역을 포함하는 제2 X-ray 이미지(704)를 네트워크(500)에 입력하여 상기 제2 X-ray 이미지에서 폐 영역(705a) 및 폐 바깥 영역(705b)으로 구분되는 폐 영역 이미지(705)를 생성하는 단계를 실행하는 제12명령코드, 상기 폐 영역 이미지를 기초로 상기 제2 X-ray 이미지의 폐 영역의 콘트라스트를 향상시키는 단계를 실행하는 제13명령코드, 및 상기 네트워크를 학습시키는 폐영역 학습명령코드를 포함하는 프로그램을 저장하고 있을 수 있다. 이때, 상기 처리부는, 상기 장치 인터페이스부를 통해, 상기 제12명령코드 및 상기 제13명령코드를 읽어서 실행함으로써 상기 보정된 X-ray 이미지를 생성하도록 되어 있으며, 상기 폐영역 학습명령코드는, 제1스캔대상을 CT 스캔하여 얻은 제1 CT 스캔정보를 일 방향으로 프로젝션하여, 시뮬레이션된 X-ray 이미지를 생성하는 단계; 상기 제1 CT 스캔정보 중 공기 영역을 추출하는 단계; 상기 제1 CT 스캔정보 중 상기 공기 영역만을 상기 일 방향으로 프로젝션하여, 시뮬레이션된 그라운드 트루스(ground truth) 이미지를 생성하는 단계; 및 신경망을 포함하는 상기 네트워크에 상기 시뮬레이션된 X-ray 이미지를 입력하였을 때에 상기 네트워크가 상기 시뮬레이션된 그라운드 트루스 이미지 중 상기 공기 영역에 대응하는 픽셀들은 제1값을 갖고, 상기 시뮬레이션된 그라운드 트루스 이미지 중 상기 공기 영역을 제외한 나머지 영역에 대응하는 픽셀들은 제2값을 갖는 폐 영역 이미지를 출력하도록, 상기 시뮬레이션된 X-ray 이미지를 학습용 입력정보로 하고 상기 시뮬레이션된 그라운드 트루스(ground truth) 이미지를 레이블로 하여 상기 네트워크를 학습하는 단계를 포함하는 지도학습 방법에 의해 상기 네트워크를 학습시키는 명령코드일 수 있다.An apparatus for improving the contrast of a lung area of an X-ray image provided according to another aspect of the present invention includes a device interface unit capable of reading a computer-readable non-volatile recording medium; And a processing unit; may include. At this time, the non-volatile recording medium inputs the second X-ray image 704 including the lung area to the network 500, and in the second X-ray image, the lung area 705a and the outer lung area 705b ), and a 13th command code for executing a step of generating a lung region image 705 divided by ), and a 13th command code executing a step of enhancing the contrast of the lung region of the second X-ray image based on the lung region image. A program including a command code and a closed area learning command code for learning the network may be stored. At this time, the processing unit generates the corrected X-ray image by reading and executing the twelfth command code and the thirteenth command code through the device interface unit, and the closed region learning command code generating a simulated X-ray image by projecting first CT scan information obtained by CT scanning the scan object in one direction; extracting an air area from the first CT scan information; generating a simulated ground truth image by projecting only the air area among the first CT scan information in the one direction; and when the simulated X-ray image is input to the network including a neural network, pixels corresponding to the air area among the simulated ground truth images have a first value, and The simulated X-ray image as input information for learning and the simulated ground truth image as a label so that pixels corresponding to the remaining area except for the air area output a lung area image having a second value It may be a command code for learning the network by a supervised learning method comprising the step of learning the network by doing so.

이때, 상기 폐 영역 이미지(705)를 기초로 상기 제2 X-ray 이미지의 폐 영역의 콘트라스트를 향상시키는 단계는, 상기 제2 X-ray 이미지의 각 픽셀을 상기 폐 영역 이미지(705)의 각 픽셀에 대응시켰을 때, 상기 제2 X-ray 이미지 중 상기 폐 영역에 해당하는 부분(704a)만 포함되도록 잘라낸 제2 폐 영역 이미지를 생성하는 단계; 및 상기 제2 폐 영역 이미지를 구성하는 복수 개의 픽셀들의 밝기에 대한 제3히스토그램을 스트레칭하여 상기 보정된 X-ray 이미지를 생성하는 단계를 포함할 수 있다. At this time, the step of enhancing the contrast of the lung region of the second X-ray image based on the lung region image 705 may include setting each pixel of the second X-ray image to each of the lung region images 705. generating a second lung region image cropped so that only a portion 704a corresponding to the lung region is included in the second X-ray image when corresponding to pixels; and generating the corrected X-ray image by stretching a third histogram of brightness of a plurality of pixels constituting the second lung region image.

이때, 상기 보정된 X-ray 이미지를 생성하는 단계는, 상기 제2 폐 영역 이미지의 픽셀들에 대한 제3히스토그램(207)을 생성하는 단계; 상기 제2 폐 영역 이미지의 픽셀들 중 가장 어두운 픽셀의 제5값(v5)을 결정하는 단계; 상기 제3히스토그램의 값들 중 상기 결정된 제5값을 픽셀의 밝기를 나타내는 값들 중 최솟값('0', 검은색)으로 매핑하는 단계; 상기 제3히스토그램의 값들 중 가장 밝은 픽셀의 제7값(v7)과 상기 제5값 사이의 값들을 상기 제7값과 상기 최솟값 사이의 값들로 선형으로 매핑하는 단계; 및 상기 제2 폐 영역 이미지의 픽셀들 각각에 대하여 매핑된 값을 갖는 상기 보정된 X-ray 이미지를 생성하는 단계를 포함할 수 있다.In this case, the generating of the corrected X-ray image may include generating a third histogram 207 of pixels of the second lung region image; determining a fifth value (v5) of a darkest pixel among pixels of the second lung region image; mapping the determined fifth value among values of the third histogram to a minimum value ('0', black) among values representing brightness of a pixel; linearly mapping values between a seventh value (v7) of the brightest pixel among values of the third histogram and the fifth value to values between the seventh value and the minimum value; and generating the corrected X-ray image having a value mapped to each of the pixels of the second lung region image.

본 발명의 다른 관점에 따라 컴퓨터로 읽을 수 있는 비휘발성 기록매체를 읽을 수 있는 장치 인터페이스부; 및 처리부;를 포함하는, X-ray 이미지의 폐 영역의 콘트라스트 향상 장치가 제공될 수 있다. 이때, 상기 비휘발성 기록매체는, 상기 처리부로 하여금, 폐 영역을 포함하는 제2 X-ray 이미지(704)를 네트워크(500)에 입력하여 상기 제2 X-ray 이미지에서 폐 영역(705a)을 특정하는 폐 영역 정보를 생성하는 단계를 실행하도록 하는 제12명령코드, 및 상기 폐 영역 정보를 기초로 상기 제2 X-ray 이미지의 상기 폐 영역을 구성하는 복수 개의 픽셀들의 밝기를 보정하는 단계를 실행하는 제13명령코드를 포함하는 프로그램을 저장하고 있으며, 상기 처리부는, 상기 장치 인터페이스부를 통해, 상기 제12명령코드 및 상기 제13명령코드를 읽어서 실행함으로써 상기 보정된 X-ray 이미지를 생성하도록 되어 있다. A device interface unit capable of reading a computer-readable non-volatile recording medium according to another aspect of the present invention; And a processing unit; including, the contrast enhancement device of the lung region of the X-ray image may be provided. At this time, the non-volatile recording medium causes the processing unit to input the second X-ray image 704 including the lung area to the network 500 and extract the lung area 705a from the second X-ray image. twelfth command code for executing the step of generating specific lung region information, and correcting the brightness of a plurality of pixels constituting the lung region of the second X-ray image based on the lung region information. A program including a 13th command code to be executed is stored, and the processing unit reads and executes the 12th command code and the 13th command code through the device interface unit to generate the corrected X-ray image. has been

이때, 상기 밝기를 보정하는 단계는, 상기 제2 X-ray 이미지 중 상기 폐 영역의 픽셀들 중 가장 어두운 제1픽셀의 제5밝기값(v5)을 결정하는 단계; 및 상기 제1픽셀의 밝기값이 상기 제5밝기값보다 더 어두운 제1최소 밝기값을 갖도록 상기 폐 영역의 이미지의 히스토그램을 스트레칭하는 단계;를 포함할 수 있다.In this case, the step of correcting the brightness may include determining a fifth brightness value (v5) of a first pixel that is the darkest among pixels of the lung area in the second X-ray image; and stretching the histogram of the image of the lung region so that the brightness value of the first pixel has a first minimum brightness value that is darker than the fifth brightness value.

이때, 상기 제1최소 밝기값은 상기 제2 X-ray 이미지에서 허용되는 가장 어두운 값일 수 있다.In this case, the first minimum brightness value may be the darkest value allowed in the second X-ray image.

이때, 상기 밝기를 보정하는 단계는, 상기 제2 X-ray 이미지 중 상기 폐 영역의 픽셀들 중 가장 밝은 제2픽셀의 제6밝기값(v6)을 결정하는 단계를 더 포함할 수 있다. 그리고 상기 히스토그램을 스트레칭하는 단계는, 상기 제5밝기값이 상기 제1최소 밝기값에 매핑되고, 상기 제6밝기값이 소정의 제1최대 밝기값에 매핑되도록 상기 폐 영역의 이미지를 구성하는 픽셀들의 밝기를 선형으로 보정하는 단계를 포함할 수 있다.In this case, the step of correcting the brightness may further include determining a sixth brightness value (v6) of a second pixel that is the brightest among pixels of the lung area in the second X-ray image. The stretching of the histogram may include pixels constituting the image of the lung region such that the fifth brightness value is mapped to the first minimum brightness value and the sixth brightness value is mapped to a predetermined first maximum brightness value. It may include a step of linearly correcting the brightness of them.

이때, 상기 제1최소 밝기값은 상기 제2 X-ray 이미지에서 허용되는 가장 어두운 값일 수 있다. 그리고 상기 제1최대 밝기값은 상기 제6밝기값과 동일한 값이거나 상기 제6밝기값보다 더 밝은 값일 수 있다.In this case, the first minimum brightness value may be the darkest value allowed in the second X-ray image. The first maximum brightness value may be equal to or brighter than the sixth brightness value.

이때, 제1최대 밝기값은 상기 제2 X-ray 이미지에서 허용되는 가장 밝은 값일 수 있다.In this case, the first maximum brightness value may be the brightest value allowed in the second X-ray image.

이때, 상기 밝기를 보정하는 단계는, 상기 폐 영역 정보를 기초로 상기 제2 X-ray 이미지 중 상기 폐 영역 이외의 영역을 구성하는 복수 개의 픽셀들의 밝기를 보정하는 단계를 포함할 수 있다.In this case, the step of correcting the brightness may include correcting the brightness of a plurality of pixels constituting an area other than the lung area in the second X-ray image based on the lung area information.

이때, 상기 폐 영역 정보를 생성하는 단계와 상기 밝기를 보정하는 단계 사이에, 상기 제2 X-ray 이미지 중 상기 폐 영역에 해당하는 부분(704a)으로만 구성된 제2 폐 영역 이미지(707)를 생성하는 단계가 더 포함될 수 있다. 그리고 상기 밝기를 보정하는 단계는, 상기 제2 폐 영역 이미지를 구성하는 복수 개의 픽셀들의 밝기에 대한 제3히스토그램을 스트레칭하여 상기 제2 폐 영역 이미지를 보정하는 단계일 수 있다.At this time, between the step of generating the lung region information and the step of correcting the brightness, a second lung region image 707 composed of only the part 704a corresponding to the lung region of the second X-ray image is generated. A generating step may be further included. The correcting of the brightness may include correcting the second lung region image by stretching a third histogram of brightness of a plurality of pixels constituting the second lung region image.

이때, 상기 밝기를 보정하는 단계는, 상기 제2 폐 영역 이미지의 픽셀들의 밝기를 나타내는 값에 대한 빈도수를 나타내는 제3히스토그램(207)을 생성하는 단계; 상기 제2 폐 영역 이미지의 픽셀들 중 가장 어두운 제1픽셀의 제5밝기값(v5)을 결정하는 단계; 상기 제2 폐 영역 이미지의 픽셀들 중 가장 밝은 제2픽셀의 제6밝기값(v6)을 결정하는 단계; 상기 제1픽셀의 밝기값이 상기 제5밝기값보다 더 어두운 제1최소 밝기값을 갖도록 상기 제2 폐 영역 이미지의 히스토그램을 스트레칭하는 단계; 및 상기 제5밝기값이 상기 제5밝기값보다 더 어두운 제1최소 밝기값에 매핑되고, 상기 제6밝기값이 상기 제6밝기값과 동일한 값이거나 상기 제6밝기값보다 더 밝은 값인 제1최대 밝기값에 매핑되도록 상기 제2 폐 영역 이미지를 구성하는 픽셀들의 밝기를 선형으로 보정하는 단계를 포함할 수 있다. 그리고 상기 제1최소 밝기값은 상기 제2 X-ray 이미지에서 허용되는 가장 어두운 값이고, 상기 제1최대 밝기값은 상기 제2 X-ray 이미지에서 허용되는 가장 밝은 값일 수 있다.In this case, the step of correcting the brightness may include generating a third histogram 207 representing frequency counts of values representing the brightness of pixels of the second lung region image; determining a fifth brightness value (v5) of a first darkest pixel among pixels of the second lung region image; determining a sixth brightness value (v6) of a second brightest pixel among pixels of the second lung region image; stretching a histogram of the second closed region image so that the brightness value of the first pixel has a first minimum brightness value that is darker than the fifth brightness value; and a first value in which the fifth brightness value is mapped to a first minimum brightness value that is darker than the fifth brightness value, and the sixth brightness value is equal to or brighter than the sixth brightness value. The method may include linearly correcting brightness of pixels constituting the second lung region image so as to be mapped to a maximum brightness value. The first minimum brightness value may be the darkest value allowed in the second X-ray image, and the first maximum brightness value may be the brightest value allowed in the second X-ray image.

이때, 상기 네트워크는 제2컴퓨팅 장치에 의해 학습된 것일 수 있다. 상기 제2컴퓨팅 장치는, 제1스캔대상을 CT 스캔하여 얻은 제1 CT 스캔정보를 일 방향으로 프로젝션하여, 시뮬레이션된 X-ray 이미지를 생성하는 단계; 상기 제1 CT 스캔정보 중 공기 영역을 추출하는 단계; 상기 제1 CT 스캔정보 중 상기 공기 영역만을 상기 일 방향으로 프로젝션하여, 시뮬레이션된 그라운드 트루스(ground truth) 이미지를 생성하는 단계; 및 신경망을 포함하는 상기 네트워크에 상기 시뮬레이션된 X-ray 이미지를 입력하였을 때에 상기 네트워크가 상기 시뮬레이션된 그라운드 트루스 이미지 중 상기 공기 영역에 대응하는 픽셀들은 제1값을 갖고, 상기 시뮬레이션된 그라운드 트루스 이미지 중 상기 공기 영역을 제외한 나머지 영역에 대응하는 픽셀들은 제2값을 갖는 상기 폐 영역 이미지를 출력하도록, 상기 시뮬레이션된 X-ray 이미지를 학습용 입력정보로 하고 상기 시뮬레이션된 그라운드 트루스(ground truth) 이미지를 레이블로 하여 상기 네트워크를 학습하는 단계를 실행하도록 되어 있을 수 있다.In this case, the network may be learned by the second computing device. generating a simulated X-ray image by projecting, by the second computing device, first CT scan information obtained by CT scanning a first scan target in one direction; extracting an air area from the first CT scan information; generating a simulated ground truth image by projecting only the air area among the first CT scan information in the one direction; and when the simulated X-ray image is input to the network including a neural network, pixels corresponding to the air area among the simulated ground truth images have a first value, and The simulated X-ray image is used as input information for learning and the simulated ground truth image is labeled so that pixels corresponding to the remaining area except for the air area output the lung area image having a second value It may be configured to execute the step of learning the network.

본 발명에 따르면, 이미지의 콘트라스트 열화 현상이 발생하는 소프트-티슈(soft-tissue, 연부 조직) 영역의 콘트라스트를 강화시키는 X-ray 이미지 보정 방법을 제공할 수 있다.According to the present invention, it is possible to provide an X-ray image correction method for enhancing the contrast of a soft-tissue (soft tissue) region where contrast deterioration of an image occurs.

본 발명에 따르면, 소프트-티슈 영역의 히스토그램 스트레칭 단계에서 폐 내부 영역의 최솟값을 이미지 전체 픽셀 값의 최솟값으로 설정하여 히스토그램을 스트레칭함으로써 폐 내부의 정보를 손실하지 않으면서 폐 내부 콘트라스트를 강화시킬 수 있다. According to the present invention, in the step of stretching the histogram of the soft-tissue area, the contrast inside the lung can be enhanced without losing information inside the lung by stretching the histogram by setting the minimum value of the area inside the lung to the minimum value of all pixel values in the image. .

도 1은 X-ray 촬영 장치를 이용하여 X-ray 이미지를 얻는 과정을 나타낸 것이다.
도 2는 일 실시예에 따라 상기 X-ray 이미지 및 상기 X-ray 이미지에 대하여 히스토그램을 스트레칭한 이미지를 나타낸 것이다.
도 3은 본 발명의 일 실시예에 따라 제공되는 네트워크에 X-ray 이미지를 입력하여, 폐 영역 이미지를 생성하는 방법을 나타낸 개념도이다.
도 4는 본 발명의 일 실시예에 따라 제공되는 네트워크를 학습하는 방법을 나타낸 것이다.
도 5는 본 발명의 일 실시예에 따라 한 세트의 학습데이터를 나타낸 것이다.
도 6은 본 발명의 일 실시예에 따라 제공되는 네트워크의 학습방법을 나타낸 것이다.
도 7은 본 발명의 일 실시예에 따른 X-ray 이미지 보정 방법의 순서도이다.
도 8은 본 발명의 일 실시예에 따라 X-ray 이미지 보정 방법을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따라 단계(S1200)를 설명하기 위한 히스토그램들을 나타낸 것이다.
도 10은 본 발명의 일 실시예에 따라 단계(S1200)의 세부 단계들에 대한 순서도이다.
도 11은 본 발명의 다른 실시예에 따른 X-ray 이미지 보정 방법의 순서도이다.
도 12는 본 발명의 다른 실시예에 따라 X-ray 이미지 보정 방법을 설명하기 위한 도면이다.
도 13은 본 발명의 다른 실시예에 따라 제2 폐 영역 이미지의 히스토그램을 나타낸 것이다.
도 14는 본 발명의 다른 실시예에 따라 단계(S1202)의 세부 단계들에 대한 순서도이다.
도 15는 본 발명의 일 실시예에 따라 제2 X-ray 이미지를 생성하는 방법을 설명하기 위한 도면이다.
도 16은 본 발명의 일 실시예에 따라 제1 X-ray 이미지의 히스토그램을 나타낸 것이다.
도 17은 본 발명의 일 실시예에 따라 제공되는 컴퓨팅 장치의 구조 및 기능을 나타낸 것이다.
도 18은 노이즈가 포함된 X-ray 이미지의 개념을 설명한 도면이다.
도 19는 종래의 지도학습(supervised training) 기술에 따라 X-ray 이미지의 노이즈를 제거하는 방법을 나타낸 것이다.
도 20은 다른 지도학습 기술에 따라 X-ray 이미지의 노이즈를 제거하는 방법을 나타낸 것이다.
도 21은 본 발명의 일 실시예에 따라 X-ray 이미지의 노이즈를 제거하는 네트워크를 지도학습하기 위한 레이블 이미지를 생성하는 과정을 나타낸 것이다.
도 22는 본 발명의 일 실시예에 따라 학습이 완료된 디노이징 네트워크를 이용하여 X-ray 이미지의 노이즈를 제거하는 과정을 나타낸 개념도이다.
도 23은 도 22에 제시한 디노이징 네트워크를 학습하는 방법을 나타낸 개념도이다.
도 24는 본 발명의 일 실시예에 따라 제공되는 네트워크 학습용 데이터 생성방법을 나타낸 개념도이다.
도 25는 비교 실시예에 따라 학습이 완료된 디노이징 네트워크를 이용하여 X-ray 이미지의 노이즈를 제거하는 과정을 나타낸 개념도이다.
도 26은 비교 실시예에 따라, 디노이징 네트워크를 학습시키기 위한 학습데이터를 생성하는 방법을 나타낸 개념도이다.
도 27은 도 26에서 준비된 학습용 데이터를 이용하여 디노이징 네트워크를 학습하는 방법을 나타낸 개념도이다.
도 28은 본 발명의 일 실시예에 따라 제공되는 X-ray 이미지 전처리 방법의 순서도이다.
도 29는 본 발명의 일 실시예에 따라 제공되는 노이즈 제거용 네트워크의 학습방법을 나타낸 순서도이다.
1 shows a process of obtaining an X-ray image using an X-ray imaging device.
2 illustrates the X-ray image and an image obtained by stretching a histogram of the X-ray image according to an exemplary embodiment.
3 is a conceptual diagram illustrating a method of generating a lung region image by inputting an X-ray image to a network provided according to an embodiment of the present invention.
4 illustrates a method for learning a network provided according to an embodiment of the present invention.
5 shows a set of learning data according to an embodiment of the present invention.
6 illustrates a learning method of a network provided according to an embodiment of the present invention.
7 is a flowchart of an X-ray image correction method according to an embodiment of the present invention.
8 is a diagram for explaining an X-ray image correction method according to an embodiment of the present invention.
9 shows histograms for explaining step S1200 according to an embodiment of the present invention.
10 is a flowchart of detailed steps of step S1200 according to an embodiment of the present invention.
11 is a flowchart of an X-ray image correction method according to another embodiment of the present invention.
12 is a diagram for explaining an X-ray image correction method according to another embodiment of the present invention.
13 is a histogram of a second lung region image according to another embodiment of the present invention.
14 is a flowchart of detailed steps of step S1202 according to another embodiment of the present invention.
15 is a diagram for explaining a method of generating a second X-ray image according to an embodiment of the present invention.
16 shows a histogram of a first X-ray image according to an embodiment of the present invention.
17 illustrates the structure and function of a computing device provided according to an embodiment of the present invention.
18 is a diagram explaining the concept of an X-ray image including noise.
19 illustrates a method of removing noise from an X-ray image according to a conventional supervised training technique.
20 illustrates a method of removing noise from an X-ray image according to another supervised learning technique.
21 illustrates a process of generating a label image for supervising a network that removes noise from an X-ray image according to an embodiment of the present invention.
22 is a conceptual diagram illustrating a process of removing noise from an X-ray image using a denoising network that has been trained according to an embodiment of the present invention.
23 is a conceptual diagram illustrating a method for learning the denoising network shown in FIG. 22.
24 is a conceptual diagram illustrating a method for generating data for network learning provided according to an embodiment of the present invention.
25 is a conceptual diagram illustrating a process of removing noise from an X-ray image using a denoising network that has been trained according to a comparative embodiment.
26 is a conceptual diagram illustrating a method of generating learning data for learning a denoising network according to a comparative embodiment.
27 is a conceptual diagram illustrating a method of learning a denoising network using training data prepared in FIG. 26 .
28 is a flowchart of an X-ray image pre-processing method provided according to an embodiment of the present invention.
29 is a flowchart illustrating a method for learning a network for removing noise provided according to an embodiment of the present invention.

이하, 본 발명의 실시예를 첨부한 도면을 참고하여 설명한다. 그러나 본 발명은 본 명세서에서 설명하는 실시예에 한정되지 않으며 여러 가지 다른 형태로 구현될 수 있다. 본 명세서에서 사용되는 용어는 실시예의 이해를 돕기 위한 것이며, 본 발명의 범위를 한정하고자 의도된 것이 아니다. 또한, 이하에서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. However, the present invention is not limited to the embodiments described herein and may be implemented in various other forms. Terms used in this specification are intended to aid understanding of the embodiments, and are not intended to limit the scope of the present invention. Also, the singular forms used herein include the plural forms unless the phrases clearly dictate the contrary.

도 3은 본 발명의 일 실시예에 따라 제공되는 네트워크에 X-ray 이미지를 입력하여, 폐 영역 이미지를 생성하는 방법을 나타낸 개념도이다.3 is a conceptual diagram illustrating a method of generating a lung region image by inputting an X-ray image to a network provided according to an embodiment of the present invention.

본 발명의 일 실시예에 따라 제공되는 이미지 변환 네트워크인 네트워크(500)는 신경망을 포함하는 정보변환부일 수 있다. 상기 네트워크(500)는 지도학습을 통해 학습이 완료된 것일 수 있다. The network 500, which is an image conversion network provided according to an embodiment of the present invention, may be an information conversion unit including a neural network. The network 500 may have completed learning through supervised learning.

네트워크(500)에 X-ray 이미지(701)를 입력하면, 네트워크(500)는 X-ray 이미지(701)를 기초로 시뮬레이션 된 폐 영역 이미지(702)를 출력할 수 있다.When an X-ray image 701 is input to the network 500, the network 500 may output a simulated lung region image 702 based on the X-ray image 701.

상기 X-ray 이미지(701)는 환자의 일 면(예컨대 정면)이 일 방향을 향하도록 한 상태에서 X-ray 촬영한 실제 X-ray 이미지일 수 있다. The X-ray image 701 may be an actual X-ray image obtained by taking an X-ray in a state in which one side (eg, the front) of the patient faces one direction.

또는 상기 X-ray 이미지(701)는 상기 환자를 CT(Computer tomography) 스캔하여 얻은 CT 스캔정보를 일 방향으로 프로젝션하여 얻은 2차원 이미지이며, 실제로 X-ray 촬영 장치로 촬영한 이미지는 아닐 수 있다. Alternatively, the X-ray image 701 is a two-dimensional image obtained by projecting CT scan information obtained by CT (Computer Tomography) scanning of the patient in one direction, and may not actually be an image taken by an X-ray imaging device. .

이때, X-ray 이미지(701)와 폐 영역 이미지(702)의 크기는 서로 동일할 수 있다. 예컨대, X-ray 이미지(701)와 폐 영역 이미지(702)는 모두 각각 B1 * B1 개의 픽셀들로 이루어진 것일 수 있다.In this case, the size of the X-ray image 701 and the lung region image 702 may be the same. For example, both the X-ray image 701 and the lung region image 702 may be composed of B1 * B1 pixels, respectively.

도 4는 본 발명의 일 실시예에 따라 제공되는 네트워크를 학습하는 방법을 나타낸 것이다.4 illustrates a method for learning a network provided according to an embodiment of the present invention.

CT 스캔정보(110)는 특정인의 신체를 CT로 스캔하여 얻은 정보일 수 있다. 예컨대 CT 스캔정보(110)는 폐에 질환이 없는 건강한 사람의 특정인의 폐 및 그 주변을 CT로 스캔하여 얻은 것일 수 있다. 이때, 상기 CT 스캔정보(110)는 3차원 정보이다.The CT scan information 110 may be information obtained by CT scanning the body of a specific person. For example, the CT scan information 110 may be obtained by CT scanning the lungs and their surroundings of a healthy person without lung disease. At this time, the CT scan information 110 is 3D information.

CT 스캔정보(110)를 일 방향으로 프로젝션하여 상기 일 방향에 직교하는 평면에 투사된 2차원 이미지를 얻을 수 있다. 제1이미지(701)는 CT 스캔정보(110)를 일 방향으로 프로젝션하여 얻은 2차원 이미지이다. 제1이미지(701)는 '시뮬레이션된 X-ray 이미지'라고 지칭될 수 있다. A two-dimensional image projected on a plane orthogonal to the one direction can be obtained by projecting the CT scan information 110 in one direction. The first image 701 is a two-dimensional image obtained by projecting the CT scan information 110 in one direction. The first image 701 may be referred to as a 'simulated X-ray image'.

제2이미지(703)는 CT 스캔정보(110) 중 공기 영역만을 상기 일 방향으로 프로젝션하여 제1이미지(701)를 공기 영역(즉 폐 영역)과 상기 공기 영역을 제외한 나머지 영역(즉, 공기 영역의 바깥 영역)으로 구분한 이미지일 수 있다. 이때, 제2이미지(703)는 '시뮬레이션된 그라운드 트루스(ground truth) 이미지'라고 지칭될 수 있다.In the second image 703, only the air area among the CT scan information 110 is projected in the one direction, so that the first image 701 is obtained from the air area (ie, the lung area) and the remaining area excluding the air area (ie, the air area). It may be an image divided into an area outside of). In this case, the second image 703 may be referred to as a 'simulated ground truth image'.

제1이미지(701)는 네트워크(500)의 학습용 입력 데이터로서 제공된다. 네트워크(500)는 제1이미지(701)를 변환하여 제1출력이미지(702)를 생성할 수 있다. 이때, 제1출력이미지(702)와 제2이미지(703) 간의 오차를 감소시키도록 네트워크(500)를 학습시킬 수 있다.The first image 701 is provided as input data for training of the network 500 . The network 500 may generate a first output image 702 by transforming the first image 701 . At this time, the network 500 may be trained to reduce an error between the first output image 702 and the second image 703 .

이때, {제1 시뮬레이션된 X-ray 이미지, 제1 시뮬레이션된 그라운드 트루스 이미지} 쌍을 제1 세트의 학습데이터라고 지칭할 수 있다.In this case, a pair of {first simulated X-ray image, first simulated ground truth image} may be referred to as a first set of training data.

이때, 본 발명의 바람직한 일 실시예에서, 네트워크(500)는 총 M 개의 세트의 학습데이터를 이용하여 학습될 수 있다. 즉, 네트워크(500)는 한 세트의 학습데이터를 이용하여 네트워크를 지도학습하는 학습 에피소드를 M 개의 세트의 학습데이터들에 대하여 반복하여 실행함으로써 완료될 수 있다. At this time, in a preferred embodiment of the present invention, the network 500 can be learned using a total of M sets of learning data. That is, the network 500 can be completed by repeatedly executing a learning episode for supervising the network using one set of learning data for M sets of learning data.

이때, 네트워크(500)를 학습시키기 위해 준비되는 제k세트의 학습데이터는 k번째 스캔대상(사람)의 신체를 CT로 스캔하여 얻은 제k CT 스캔정보로부터 생성된 것일 수 있다. 즉, 제k 스캔대상을 CT 스캔하여 제k CT 스캔정보(110[k])를 얻을 수 있다(k=1, ..., M, 자연수). At this time, the kth set of training data prepared to train the network 500 may be generated from the kth CT scan information obtained by CT scanning the body of the kth scan target (human). That is, the kth CT scan information (110[k]) can be obtained by CT scanning the kth scan object (k=1, ..., M, a natural number).

제k세트의 학습데이터는 {제k 시뮬레이션된 X-ray 이미지, 제k 시뮬레이션된 그라운드 트루스 이미지}일 수 있다.The kth set of training data may be {kth simulated X-ray image, kth simulated ground truth image}.

도 5는 본 발명의 일 실시예에 따라 한 세트의 학습데이터를 나타낸 것이다.5 shows a set of learning data according to an embodiment of the present invention.

한 세트의 학습데이터는 {시뮬레이션된 X-ray 이미지(701), 시뮬레이션된 그라운드 트루스 이미지(703)}일 수 있다. One set of training data may be {simulated X-ray image 701, simulated ground truth image 703}.

이때, 히스토그램(201)은 시뮬레이션된 X-ray 이미지(701)에 대한 것이고, 히스토그램(203)은 시뮬레이션된 그라운드 트루스 이미지(703)에 대한 것이다. 이때, 히스토그램의 가로축은 픽셀의 밝기값(이하, 픽셀값)을 나타내며, 세로축은 픽셀들 중 동읽한 밝기값을 갖는 픽셀들의 개수(이하, 빈도수)를 나타낸다.At this time, the histogram 201 is for the simulated X-ray image 701, and the histogram 203 is for the simulated ground truth image 703. At this time, the horizontal axis of the histogram represents the brightness value of a pixel (hereinafter, pixel value), and the vertical axis represents the number of pixels having the same read brightness value (hereinafter, frequency count) among pixels.

히스토그램(201, 203)에서 영(0)에 가까울수록 대응하는 이미지(701, 703)의 픽셀이 어둡다는 것을 의미하고, 양의 정수의 값이 커질수록 이미지(701, 703)의 픽셀이 밝다는 것을 의미할 수 있다. The closer to zero (0) in the histograms 201 and 203 means that the pixels of the corresponding images 701 and 703 are darker, and the larger the value of the positive integer, the brighter the pixels of the images 701 and 703 that can mean

히스토그램(201)을 살펴보면, 시뮬레이션된 X-ray 이미지(701)는 시뮬레이션된 그라운드 트루스 이미지(703)에 비해 밝은 부분이(즉, 픽셀들이) 많으므로 양의 정수의 값(예컨대, 4)로 갈수록 빈도수가 증가함을 알 수 있다. 반면, 히스토그램(203)을 살펴보면, 시뮬레이션된 그라운드 트루스 이미지(703)는 시뮬레이션된 X-ray 이미지(701)에 비해 어두운 부분이(즉, 픽셀들이) 많으므로 영(0)에 가까울수록 빈도수가 증가함을 알 수 있다.Looking at the histogram 201, the simulated X-ray image 701 has more bright parts (ie, pixels) than the simulated ground truth image 703, so the value of a positive integer (eg, 4) increases as It can be seen that the frequency increases. On the other hand, looking at the histogram 203, the simulated ground truth image 703 has more dark parts (ie, pixels) than the simulated X-ray image 701, so the frequency increases as it approaches zero (0). can know that

도 6은 본 발명의 일 실시예에 따라 제공되는 네트워크의 학습방법을 나타낸 것이다.6 illustrates a learning method of a network provided according to an embodiment of the present invention.

이하, 도 4 내지 도 6을 함께 참조하여 설명한다.Hereinafter, it will be described with reference to FIGS. 4 to 6 together.

단계(S1110)에서, 제1스캔대상을 CT 스캔하여 얻은 제1 CT 스캔정보(예컨대, 110)를 일 방향으로 프로젝션하여, 시뮬레이션된 X-ray 이미지(예컨대, 701)를 생성할 수 있다. In step S1110, a simulated X-ray image (eg 701) may be generated by projecting the first CT scan information (eg, 110) obtained by CT scanning the first scan object in one direction.

단계(S1120)에서, 상기 제1 CT 스캔정보(110) 중 공기 영역을 추출할 수 있다. 예컨대, 공기 영역을 추출하기 위해서 CT 넘버(HU 값)을 이용할 수 있다. 예컨대, 조직(tissue)이 뼈인 경우, 뼈는 X-ray 흡수율이 가장 높아 CT 넘버가 +1000값이고, 조직이 공기인 경우, 공기는 X-ray 흡수율이 가장 낮아 CT 넘버가 -1000값일 수 있다. 즉, 단계(S1120)에서, 상기 제1 CT 스캔정보(110) 중 CT 넘버가 -1000값인 영역을 선택하여 공기 영역을 추출할 수 있다.In step S1120, an air area may be extracted from the first CT scan information 110. For example, a CT number (HU value) may be used to extract an air area. For example, when the tissue is bone, the bone has the highest X-ray absorptivity, so the CT number is +1000, and when the tissue is air, the air has the lowest X-ray absorptivity, and the CT number is -1000. . That is, in step S1120, an air area may be extracted by selecting an area having a CT number of -1000 among the first CT scan information 110.

단계(S1130)에서, 상기 제1 CT 스캔정보(110) 중 상기 공기 영역만을 상기 일 방향으로 프로젝션하여, 시뮬레이션된 그라운드 트루스 이미지(703)를 생성할 수 있다.In step S1130, a simulated ground truth image 703 may be generated by projecting only the air area among the first CT scan information 110 in the one direction.

단계(S1140)에서, 신경망을 포함하는 네트워크(500)에 시뮬레이션된 X-ray 이미지(701)를 입력하였을 때에 네트워크(500)가 시뮬레이션된 그라운드 트루스 이미지(703) 중 상기 공기 영역에 대응하는 픽셀들은 제1값(예컨대, 양의 정수)을 갖고, 시뮬레이션된 그라운드 트루스 이미지(703) 중 상기 공기 영역을 제외한 나머지 영역에 대응하는 픽셀들은 제2값(예컨대, 영(0))을 갖는 폐 영역 이미지(702)를 출력하도록, 시뮬레이션된 X-ray 이미지(701)를 학습용 입력정보로 하고 시뮬레이션된 그라운드 트루스 이미지(703)를 레이블로 하여 네트워크(500)를 학습시킬 수 있다.In step S1140, when the simulated X-ray image 701 is input to the network 500 including the neural network, the pixels corresponding to the air area of the ground truth image 703 simulated by the network 500 are A closed area image having a first value (eg, a positive integer) and pixels corresponding to areas other than the air area of the simulated ground truth image 703 having a second value (eg, zero (0)) The network 500 may be trained to output 702 by using the simulated X-ray image 701 as input information for learning and the simulated ground truth image 703 as a label.

도 7은 본 발명의 일 실시예에 따른 X-ray 이미지 보정 방법의 순서도이다.7 is a flowchart of an X-ray image correction method according to an embodiment of the present invention.

도 8은 본 발명의 일 실시예에 따라 X-ray 이미지 보정 방법을 설명하기 위한 도면이다.8 is a diagram for explaining an X-ray image correction method according to an embodiment of the present invention.

이하, 도 7 및 도 8을 함께 참조하여 설명한다.Hereinafter, it will be described with reference to FIGS. 7 and 8 together.

단계(S1100)에서, 폐 영역을 포함하는 제2 X-ray 이미지(704)를 네트워크에 입력하여 제2 X-ray 이미지(704)에서 폐 영역(705a) 및 폐 바깥 영역(705b)으로 구분되는 폐 영역 이미지(705)를 생성할 수 있다. In step S1100, the second X-ray image 704 including the lung area is input to the network, and the second X-ray image 704 is divided into a lung area 705a and an outer lung area 705b. A lung region image 705 may be generated.

단계(S1100)의 네트워크는 상술한 단계(S1110) 내지 단계(S1140)를 통해 학습된 것일 수 있다. 단계(S1110) 내지 단계(S1140)는 한 세트의 학습데이터를 이용하여 네트워크를 지도학습하는 학습 에피소드의 단계들이며, 이러한 학습 에피소드를 복수 회 반복하여 실행함으로써 상기 네트워크의 학습이 완료될 수 있다. The network of step S1100 may be one learned through steps S1110 to S1140 described above. Steps S1110 to S1140 are steps of a learning episode for supervising a network using a set of learning data, and learning of the network can be completed by repeatedly executing these learning episodes a plurality of times.

단계(S1200)에서, 상기 생성된 폐 영역 이미지(705)를 기초로 상기 제2 X-ray 이미지(704)의 폐 영역을 구성하는 복수 개의 픽셀들의 밝기에 대한 히스토그램을 스트레칭하여 보정된 X-ray 이미지(706)를 생성할 수 있다.In step S1200, the histogram of the brightness of a plurality of pixels constituting the lung region of the second X-ray image 704 is stretched based on the generated lung region image 705, and the corrected X-ray Image 706 may be generated.

도 9는 본 발명의 일 실시예에 따라 단계(S1200)를 설명하기 위한 히스토그램들을 나타낸 것이다.9 shows histograms for explaining step S1200 according to an embodiment of the present invention.

도 9의 (a)는 제2 X-ray 이미지(704) 중 상기 폐 영역에 해당하는 부분(704a)의 제2히스토그램(204a)을 나타낸 것이고, 도 9의 (b)는 제2 X-ray 이미지(704)의 제1히스토그램(204)을 나타낸 것이다.9(a) shows a second histogram 204a of a portion 704a corresponding to the lung region among the second X-ray images 704, and FIG. 9(b) shows a second histogram 204a. A first histogram 204 of the image 704 is shown.

히스토그램(204, 204a)의 가로축은 픽셀값을 나타내고, 세로축은 빈도수를 나타낸다.The horizontal axis of the histograms 204 and 204a represents pixel values, and the vertical axis represents the frequency.

도 10은 본 발명의 일 실시예에 따라 단계(S1200)의 세부 단계들에 대한 순서도이다.10 is a flowchart of detailed steps of step S1200 according to an embodiment of the present invention.

이하, 도 8 내지 도 10을 함께 참조하여 설명한다.Hereinafter, it will be described with reference to FIGS. 8 to 10 together.

단계(S1200)는 단계(S1210) 내지 단계(S1260)를 포함할 수 있다.Step S1200 may include steps S1210 to S1260.

단계(S1210)에서, 제2 X-ray 이미지(704)를 구성하는 복수 개의 픽셀들 각각에 대하여 픽셀의 밝기를 나타내는 값에 대한 빈도수를 나타내는 제1히스토그램(204)을 생성할 수 있다.In step S1210, a first histogram 204 representing a frequency of a value representing brightness of a pixel for each of a plurality of pixels constituting the second X-ray image 704 may be generated.

단계(S1220)에서, 제2 X-ray 이미지(704)의 각 픽셀을 상기 폐 영역 이미지(705)의 각 픽셀에 대응시켰을 때, 상기 제2 X-ray 이미지(704) 중 상기 폐 영역에 해당하는 부분(704a)의 픽셀들에 대한 제2히스토그램(204a)을 생성할 수 있다.In step S1220, when each pixel of the second X-ray image 704 corresponds to each pixel of the lung region image 705, it corresponds to the lung region of the second X-ray image 704. A second histogram 204a for the pixels of the portion 704a may be generated.

단계(S1230)에서, 상기 부분(704a)의 픽셀들 중 가장 어두운 픽셀의 제5값(v5)을 결정할 수 있다. In step S1230, a fifth value v5 of the darkest pixel among the pixels of the portion 704a may be determined.

단계(S1240)에서, 제1히스토그램(204)의 값들 중 제5값(v5)을 픽셀의 밝기를 나타내는 값들 중 최솟값('0', 검은색)으로 매핑하고, 상기 최솟값('0')으로부터 상기 제제5값(v5) 사이의 제5범위(r5)에 해당하는 각 픽셀의 값을 상기 최솟값('0')으로 매핑할 수 있다. In step S1240, the fifth value (v5) among the values of the first histogram 204 is mapped to the minimum value ('0', black) among the values representing the brightness of the pixel, and from the minimum value ('0') A value of each pixel corresponding to the fifth range r5 between the fifth value v5 may be mapped to the minimum value '0'.

단계(S1250)에서, 제1히스토그램(204)의 값들 중 가장 밝은 픽셀의 제6값(v6)과 제5값(v5) 사이의 값들을, 제6값(v6)과 상기 최솟값 사이의 값들로 선형으로 매핑할 수 있다. 이때, 제6값은 예컨대, 픽셀을 나타내는 값들 중 최댓값('255', 흰색)일 수도 있고, 상기 최댓값보다 작은 값일 수도 있다. 바람직한 실시예에서 상기 제6값은 상기 최댓값일 수 있다.In step S1250, values between the sixth value v6 and the fifth value v5 of the brightest pixel among the values of the first histogram 204 are converted to values between the sixth value v6 and the minimum value. It can be mapped linearly. In this case, the sixth value may be, for example, the maximum value ('255', white) among values representing pixels, or may be a value smaller than the maximum value. In a preferred embodiment, the sixth value may be the maximum value.

단계(S1260)에서, 제2 X-ray 이미지(704)의 복수 개의 픽셀들 각각에 대하여 매핑된 값을 갖는 상기 보정된 X-ray 이미지(706)를 생성할 수 있다. In step S1260, the corrected X-ray image 706 having values mapped to each of a plurality of pixels of the second X-ray image 704 may be generated.

이때, 예컨대 제2 X-ray 이미지(704)는 X-ray 촬영장치가 출력한 제1 X-ray 이미지의 히스토그램을 스트레칭하여 생성한 것이거나, 또는 상기 제2 X-ray 이미지(704)는 X-ray 촬영장치가 출력한 이미지 자체일 수 있다. At this time, for example, the second X-ray image 704 is generated by stretching the histogram of the first X-ray image output by the X-ray imaging device, or the second X-ray image 704 is -ray It may be the image itself output by the recording device.

도 11은 본 발명의 다른 실시예에 따른 X-ray 이미지 보정 방법의 순서도이다.11 is a flowchart of an X-ray image correction method according to another embodiment of the present invention.

도 12는 본 발명의 다른 실시예에 따라 X-ray 이미지 보정 방법을 설명하기 위한 도면이다.12 is a diagram for explaining an X-ray image correction method according to another embodiment of the present invention.

이하, 도 11 및 도 12를 함께 참조하여 설명한다.Hereinafter, it will be described with reference to FIGS. 11 and 12 together.

단계(S1100)에서, 폐 영역을 포함하는 제2 X-ray 이미지(704)를 네트워크에 입력하여 제2 X-ray 이미지(704)에서 폐 영역(705a) 및 폐 바깥 영역(705b)으로 구분되는 폐 영역 이미지(705)를 생성할 수 있다. In step S1100, the second X-ray image 704 including the lung area is input to the network, and the second X-ray image 704 is divided into a lung area 705a and an outer lung area 705b. A lung region image 705 may be generated.

단계(S1100)의 네트워크는 상술한 단계(S1110) 내지 단계(S1140)를 통해 학습된 것일 수 있다. 단계(S1110) 내지 단계(S1140)는 한 세트의 학습데이터를 이용하여 네트워크를 지도학습하는 학습 에피소드의 단계들이며, 이러한 학습 에피소드를 복수 회 반복하여 실행함으로써 상기 네트워크의 학습이 완료될 수 있다. The network of step S1100 may be one learned through steps S1110 to S1140 described above. Steps S1110 to S1140 are steps of a learning episode for supervising a network using a set of learning data, and learning of the network can be completed by repeatedly executing these learning episodes a plurality of times.

단계(S1200)에서, 상기 생성된 폐 영역 이미지(705)를 기초로 상기 제2 X-ray 이미지(704)의 폐 영역을 구성하는 복수 개의 픽셀들의 밝기에 대한 히스토그램을 스트레칭하여 보정된 X-ray 이미지(708)를 생성할 수 있다.In step S1200, the histogram of the brightness of a plurality of pixels constituting the lung region of the second X-ray image 704 is stretched based on the generated lung region image 705, and the corrected X-ray Image 708 may be created.

이때, 단계(S1200)는 단계(S1201) 및 단계(S1202)를 포함할 수 있다.At this time, step S1200 may include step S1201 and step S1202.

단계(S1201)에서, 제2 X-ray 이미지(704)의 각 픽셀을 상기 폐 영역 이미지(705)의 각 픽셀에 대응시켰을 때, 상기 제2 X-ray 이미지(704) 중 상기 폐 영역에 해당하는 부분(704a)만 포함되도록 잘라낸 제2 폐 영역 이미지(707)를 생성할 수 있다.In step S1201, when each pixel of the second X-ray image 704 corresponds to each pixel of the lung region image 705, it corresponds to the lung region of the second X-ray image 704. A cropped second lung region image 707 may be generated to include only the part 704a to be removed.

단계(S1202)에서, 상기 제2 폐 영역 이미지(707)를 구성하는 복수 개의 픽셀들의 밝기에 대한 히스토그램(207)을 스트레칭하여 상기 보정된 X-ray 이미지(708)를 생성할 수 있다.In step S1202, the corrected X-ray image 708 may be generated by stretching the histogram 207 of brightness of a plurality of pixels constituting the second lung region image 707.

도 13은 본 발명의 다른 실시예에 따라 제2 폐 영역 이미지의 히스토그램을 나타낸 것이다.13 is a histogram of a second lung region image according to another embodiment of the present invention.

히스토그램(207)의 가로축은 픽셀값을 나타내고, 세로축은 빈도수를 나타낸다.The horizontal axis of the histogram 207 represents the pixel value, and the vertical axis represents the frequency.

도 14는 본 발명의 다른 실시예에 따라 단계(S1202)의 세부 단계들에 대한 순서도이다.14 is a flowchart of detailed steps of step S1202 according to another embodiment of the present invention.

이하, 도 12 내지 도 14를 함께 참조하여 설명한다.Hereinafter, it will be described with reference to FIGS. 12 to 14 together.

단계(S1202)는 단계(S1310) 내지 단계(S1350)를 포함할 수 있다.Step S1202 may include steps S1310 to S1350.

단계(S1310)에서, 제2 폐 영역 이미지(707)의 픽셀들에 대한 제3히스토그램(207)을 생성할 수 있다. In step S1310, a third histogram 207 for pixels of the second lung region image 707 may be generated.

단계(S1320)에서, 제2 폐 영역 이미지(707)의 픽셀들 중 가장 어두운 픽셀의 제5값(v5)을 결정할 수 있다. In operation S1320, a fifth value v5 of the darkest pixel among pixels of the second lung region image 707 may be determined.

단계(S1330)에서, 제3히스토그램(207)의 값들 중 상기 결정된 제5값(v5)을 픽셀의 밝기를 나타내는 값들 중 최솟값('0', 검은색)으로 매핑할 수 있다. In step S1330, the determined fifth value v5 among values of the third histogram 207 may be mapped to a minimum value ('0', black) among values representing brightness of a pixel.

단계(S1340)에서, 제3히스토그램(207)의 값들 중 가장 밝은 픽셀의 제7값(v7)과 상기 제5값 사이의 값들을 상기 제7값(v7)과 상기 최솟값 사이의 값들로 선형으로 매핑할 수 있다. 이때, 제7값(v7)은 예컨대, 픽셀을 나타내는 값들 중 최댓값('255', 흰색)일 수도 있고, 상기 최댓값보다 작은 값일 수도 있다. In step S1340, the values between the seventh value v7 of the brightest pixel among the values of the third histogram 207 and the fifth value are linearly converted into values between the seventh value v7 and the minimum value. can be mapped. In this case, the seventh value v7 may be, for example, the maximum value ('255', white) among values representing pixels or may be a value smaller than the maximum value.

단계(S1350)에서, 제2 폐 영역 이미지(707)의 픽셀들 각각에 대하여 매핑된 값을 갖는 상기 보정된 X-ray 이미지(708)를 생성할 수 있다.In step S1350, the corrected X-ray image 708 having values mapped to each of the pixels of the second lung region image 707 may be generated.

이하, 도 2, 도 15, 및 도 16을 함께 참조하여 제2 X-ray 이미지(704)가 X-ray 촬영장치가 출력한 제1 X-ray 이미지의 히스토그램을 스트레칭하여 생성한 것 경우, 제2 X-ray 이미지(704)를 생성하는 방법에 대해 설명한다.Hereinafter, referring to FIGS. 2, 15, and 16 together, when the second X-ray image 704 is generated by stretching the histogram of the first X-ray image output by the X-ray imaging device, the first 2 A method of generating an X-ray image 704 will be described.

도 15는 본 발명의 일 실시예에 따라 제2 X-ray 이미지를 생성하는 방법을 설명하기 위한 도면이다.15 is a diagram for explaining a method of generating a second X-ray image according to an embodiment of the present invention.

도 16은 본 발명의 일 실시예에 따라 제1 X-ray 이미지의 히스토그램을 나타낸 것이다. 16 shows a histogram of a first X-ray image according to an embodiment of the present invention.

히스토그램(24)의 가로축은 픽셀값을 나타내고, 세로축은 빈도수를 나타낸다.The horizontal axis of the histogram 24 represents the pixel value, and the vertical axis represents the frequency.

상술한 단계(S1100) 이전에 단계(S1000)가 수행될 수 있다.Step S1000 may be performed before step S1100 described above.

단계(S1000)에서, 제1 X-ray 이미지(71)의 히스토그램을 스트레칭하여 제2 X-ray 이미지(72, 704)를 생성할 수 있다.In step S1000, second X-ray images 72 and 704 may be generated by stretching the histogram of the first X-ray image 71.

단계(S1000)는 단계(S1010) 내지 단계(S1040)를 포함할 수 있다.Step S1000 may include steps S1010 to S1040.

단계(S1010)에서, 상기 제1 X-ray 이미지(71)를 구성하는 복수 개의 픽셀들 각각에 대하여 픽셀의 밝기를 나타내는 값에 대한 빈도수를 나타내는 히스토그램(24)을 생성할 수 있다.In step S1010, a histogram 24 representing a frequency of a value representing brightness of a pixel for each of a plurality of pixels constituting the first X-ray image 71 may be generated.

단계(S1020)에서, 상기 제1 X-ray 이미지(71)의 상기 복수 개의 픽셀들 중 가장 밝은 픽셀의 제1값(v1)을 기준으로 미리 결정된 제1범위(r1)(즉, 미리 결정된 제1화이트 아웃라이어)의 경계값인 제2값(v2)을 상기 최댓값('255')으로 매핑하고, 상기 제1범위(r1)(제1화이트 아웃라이어)에 해당하는 각 픽셀의 값을 상기 최댓값('255')으로 매핑할 수 있다. 이때, 화이트 아웃라이어는 최대 밝기를 기준으로 한 미리 결정된 %의 아웃라이어를 의미할 수 있다. 예컨대, 미리 결정된 제1화이트 아웃라이어는 0.5%의 아웃라이어로서, 상위 0~0.5%의 구간에 속하는 밝은 픽셀들을 의미할 수 있다.In step S1020, a first range r1 (that is, a predetermined first range r1) based on the first value v1 of the brightest pixel among the plurality of pixels of the first X-ray image 71 The second value v2, which is the boundary value of 1 white outlier), is mapped to the maximum value ('255'), and the value of each pixel corresponding to the first range r1 (first white outlier) is mapped to the maximum value ('255'). It can be mapped to the maximum value ('255'). In this case, the white outlier may mean an outlier of a predetermined % based on the maximum brightness. For example, the predetermined first white outlier is a 0.5% outlier and may mean bright pixels belonging to an upper 0 to 0.5% range.

단계(S1030)에서, 상기 제1 X-ray 이미지(71)를 구성하는 복수 개의 픽셀들 중 가장 어두운 픽셀의 제3값(v3)을 기준으로 미리 결정된 제2범위(r2)(즉, 미리 결정된 제1블랙 아웃라이어)의 경계값인 제4값(v4)을 상기 최솟값('0')으로 매핑하고, 상기 제2범위(r2)(제1블랙 아웃라이어)에 해당하는 각 픽셀의 값을 상기 최솟값('0')으로 매핑할 수 있다. 이때, 블랙 아웃라이어는 최소 밝기를 기준으로 한 미리 결정된 %의 아웃라이어를 의미할 수 있다. 예컨대, 미리 결정된 제1블랙 아웃라이어는 하위 0~0.5%의 구간에 속하는 어두운 픽셀들을 의미할 수 있다.In step S1030, a second range r2 (ie, a predetermined second range r2) based on the third value v3 of the darkest pixel among the plurality of pixels constituting the first X-ray image 71 The fourth value (v4), which is the boundary value of the first black outlier), is mapped to the minimum value ('0'), and the value of each pixel corresponding to the second range (r2) (first black outlier) is It can be mapped to the minimum value ('0'). In this case, the black outlier may mean an outlier of a predetermined % based on the minimum brightness. For example, the predetermined first black outlier may refer to dark pixels belonging to a lower 0 to 0.5% range.

단계(S1040)에서, 상기 제1 X-ray 이미지(71)를 구성하는 복수 개의 픽셀들 중 상기 제1범위(r1)(제1화이트 아웃라이어) 및 상기 제2범위(r2)(제1블랙 아웃라이어)를 제외한 가운데 범위인 제3범위(r3)의 픽셀들의 밝기를 나타내는 값들을 상기 최댓값('255')과 상기 최솟값('0') 사이의 값들로 선형으로 매핑할 수 있다.In step S1040, the first range r1 (first white outlier) and the second range r2 (first black out of the plurality of pixels constituting the first X-ray image 71) Values representing the brightness of pixels in the third range (r3), which is the middle range excluding outliers), may be linearly mapped to values between the maximum value ('255') and the minimum value ('0').

도 17은 본 발명의 일 실시예에 따라 제공되는 컴퓨팅 장치의 구조 및 기능을 나타낸 것이다. 17 illustrates the structure and function of a computing device provided according to an embodiment of the present invention.

본 발명에서 컴퓨팅 장치는 X-ray 이미지의 폐 영역의 콘트라스트 향상 장치라고 지칭될 수 있다.In the present invention, the computing device may be referred to as a device for enhancing the contrast of the lung region of an X-ray image.

컴퓨팅 장치(1)는, 컴퓨터로 읽을 수 있는 비휘발성 기록매체(2)를 읽을 수 있는 장치 인터페이스부(3) 및 처리부(4)를 포함할 수 있다.The computing device 1 may include a device interface unit 3 and a processing unit 4 capable of reading a computer-readable non-volatile recording medium 2 .

상기 비휘발성 기록매체(2)는, 상술한 단계(S1010) 내지 단계(S1040)를 포함하는 단계(S1000)를 실행하는 제11명령코드, 단계(S1100)를 실행하는 제12명령코드, 단계(S1210) 내지 단계(S1260)를 포함하는 단계(S1200)를 실행하는 제13명령코드, 단계(S1201) 및 단계(S1202)를 실행하는 제14명령코드, 및 단계(S1110) 내지 단계(S1140)를 실행하는 폐영역 학습명령코드를 포함하는 프로그램을 저장하고 있을 수 있다. The non-volatile recording medium 2 includes the 11th command code for executing the step (S1000) including the above steps (S1010) to (S1040), the 12th command code for executing the step (S1100), and the step ( The 13th instruction code for executing step S1200 including steps S1210 to S1260, the 14th instruction code for executing steps S1201 and S1202, and steps S1110 to S1140. A program including a closed area learning command code to be executed may be stored.

상기 처리부(4)는, 상기 장치 인터페이스부(3)를 통해, 상기 제11명령코드를 읽어서 실행함으로써 제2 X-ray 이미지를 생성하도록 되어 있을 수 있다. 또한, 상기 처리부(4)는, 상기 장치 인터페이스부(3)를 통해, 상기 제12명령코드를 읽어서 실행함으로써 폐 영역 이미지를 생성하도록 되어 있을 수 있다. 또한, 상기 처리부(4)는, 상기 장치 인터페이스부(3)를 통해, 상기 제13명령코드를 읽어서 실행함으로써 보정된 X-ray 이미지를 생성하도록 되어 있을 수 있다. 또한, 상기 처리부(4)는, 상기 장치 인터페이스부(3)를 통해, 상기 제14명령코드를 읽어서 실행함으로써 다른 실시예에 따른 보정된 제2 폐 영역 이미지인 보정된 X-ray 이미지를 생성하도록 되어 있을 수 있다. 또한, 상기 처리부(4)는, 상기 장치 인터페이스부(3)를 통해, 상기 폐영역 학습명령코드를 읽어서 실행함으로써 상기 네트워크를 학습시키도록 되어 있을 수 있다.The processing unit 4 may be configured to generate a second X-ray image by reading and executing the 11th command code through the device interface unit 3 . Also, the processing unit 4 may be configured to generate a closed region image by reading and executing the twelfth command code through the device interface unit 3 . In addition, the processing unit 4 may be configured to generate a corrected X-ray image by reading and executing the thirteenth command code through the device interface unit 3. In addition, the processing unit 4 reads and executes the 14th command code through the device interface unit 3 to generate a corrected X-ray image that is a corrected second lung region image according to another embodiment. may have been In addition, the processing unit 4 may be configured to learn the network by reading and executing the closed region learning command code through the device interface unit 3 .

상기 네트워크(500)에 입력되는 이미지(ex: 704)에 존재하는 노이즈는, 후술하는 적용예인 X-ray 이미지의 노이즈 제거 방법에 의해 학습된 디노이징 네트워크(fθ)(111)를 이용하여 미리 제거될 수 있다. 즉, 디노이징 네트워크(fθ)(111)에 이미지(ex: 704)를 입력하여, 상기 디노이징 네트워크(fθ)(111)가 출력한 노이즈가 제거된 이미지를 상기 네트워크(500)에 입력할 수 있다.The noise present in the image (ex: 704) input to the network 500 is preliminarily removed by using a denoising network (f θ ) 111 learned by a noise removal method of an X-ray image, which is an application example to be described later. can be removed That is, an image (ex: 704) is input to the denoising network (f θ ) 111, and the noise-removed image output from the denoising network (f θ ) 111 is input to the network 500. can do.

[적용예-상술한 본 발명에 적용될 수 있는 X-ray 이미지의 노이즈 제거 방법][Application Example - X-ray image noise removal method that can be applied to the present invention described above]

X-ray 촬영 이미지는 행렬형태의 화소들로 구성된 디지털 이미지로 저장되어 제공될 수 있다. 예컨대 X-ray 촬영 이미지는 R0개의 행과 C0개의 열들로 이루어진 R0 * C0 개의 화소들로 이루어질 수 있다. 상기 X-ray 이미지가 디지털 방식으로 촬영된 경우, 상기 R0 * C0 개의 화소들은 각각, X-ray를 검출하는 R0 * C0 개의 서로 다른 이미지 센서 소자에 대응될 수 있다. 또는 상기 X-ray 이미지가 필름에 의해 촬영되는 경우, 현상된 상기 필름을 스캔함으로써 상기 R0 * C0 개의 화소들로 이루어진 디지털 이미지로 재구성할 수 있다. An X-ray photographed image may be stored and provided as a digital image composed of pixels in a matrix form. For example, an X-ray photographed image may be composed of R0 * C0 pixels consisting of R0 rows and C0 columns. When the X-ray image is digitally captured, the R0 * C0 pixels may correspond to R0 * C0 different image sensor elements that detect X-rays. Alternatively, when the X-ray image is captured by a film, it may be reconstructed into a digital image consisting of the R0 * C0 number of pixels by scanning the developed film.

도 18은 노이즈가 포함된 X-ray 이미지의 개념을 설명한 도면이다. 18 is a diagram explaining the concept of an X-ray image including noise.

X-ray 촬영장치에 의해 촬영되어 획득되었거나 또는 CT 정보로부터 합성된 X-ray 이미지(x+n)(600)는 진짜 이미지(x)(601)와 노이즈(n)(602)으로 이루어질 수 있다.An X-ray image (x+n) 600 captured by an X-ray imaging device or synthesized from CT information may be composed of a real image (x) 601 and noise (n) 602. .

도 19는 종래의 지도학습(supervised training) 기술에 따라 X-ray 이미지의 노이즈를 제거하는 방법을 나타낸 것이다.19 illustrates a method of removing noise from an X-ray image according to a conventional supervised training technique.

디노이징 네트워크(fθ)(111)(이하 간단히 네트워크(fθ))에는 상기 X-ray 이미지(x+n)(600)가 입력될 수 있다. 네트워크(fθ)(111)의 동작 목표는 상기 X-ray 이미지(x+n)(600)로부터 노이즈가 제거된 이미지인 후처리 이미지(fθ(x+n))(603)을 출력하는 것이다. 이를 위해 상기 네트워크(fθ)(111)를 구성하는 파라미터 θ가 최적화되어야 한다. 이를 위해 상기 X-ray 이미지(x+n)(600)에 대한 상기 진짜 이미지(x)(601)와 상기 후처리 이미지(fθ(x+n))(603) 간의 손실함수 L을 최소화하도록 파라미터 θ를 최적화한다.The X-ray image (x+n) 600 may be input to the denoising network (f θ ) 111 (hereinafter referred to simply as the network (f θ )). The operation goal of the network (f θ ) 111 is to output a post-processed image (f θ (x + n)) 603, which is an image from which noise is removed from the X-ray image (x + n) 600. will be. To this end, the parameter θ constituting the network (f θ ) 111 needs to be optimized. To this end, to minimize the loss function L between the real image (x) 601 and the post-processed image (f θ (x + n)) 603 for the X-ray image (x + n) 600 Optimize the parameter θ.

그런데 도 19에 제시된 기술에서는 상기 X-ray 이미지(x+n)(600)에 대한 그라운드 트루(ground truth) 이미지인 상기 진짜 이미지(x)(601)을 미리 준비해야 하는데, 상기 진짜 이미지(x)(601)를 준비하는 것 자체가 매우 어렵거나 불가능할 수 있다는 문제가 있다. However, in the technique shown in FIG. 19, the real image (x) 601, which is a ground truth image for the X-ray image (x+n) 600, must be prepared in advance. ) 601 itself may be very difficult or impossible.

도 20은 다른 지도학습 기술에 따라 X-ray 이미지의 노이즈를 제거하는 방법을 나타낸 것이다.20 illustrates a method of removing noise from an X-ray image according to another supervised learning technique.

도 19에 제시된 상기 X-ray 이미지(x+n)(600)는 도 20에서는 X-ray 이미지(x+n1)으로 다시 표기하였다.The X-ray image (x+n) 600 shown in FIG. 19 is rewritten as an X-ray image (x+n 1 ) in FIG. 20 .

도 20의 기술에서는, 상기 진짜 이미지(x)(601)를 노이즈가 포함된 X-ray 이미지(x+n1)(605)에 대한 지도 학습용 레이블로 사용하는 대신에, 또 다른 레이블 이미지(x+n2)(604)를 상기 X-ray 이미지(x+n1)(605)에 대한 레이블로 사용한다. 도 20을 이용하여 설명하는 네트워크 학습방법에서는 상기 또 다른 레이블 이미지(x+n2)(604)와 상기 후처리 이미지(fθ(x+n1))(603) 간의 손실함수 L을 최소화하도록 파라미터 θ를 최적화한다.In the technique of FIG. 20 , instead of using the real image (x) 601 as a label for supervised learning for an X-ray image (x+n 1 ) 605 containing noise, another label image (x +n 2 ) 604 is used as a label for the X-ray image (x+n 1 ) 605 . In the network learning method described with reference to FIG. 20 , the loss function L between the another label image (x+n 2 ) 604 and the post-processed image (f θ (x+n 1 )) 603 is minimized. Optimize the parameter θ.

손실함수 L은 [수식 1]과 같이 정의될 수 있다.The loss function L can be defined as [Equation 1].

[수식 1][Equation 1]

여기서 상기 또 다른 레이블 이미지(x+n2)(604)에서 노이즈 n2를 제거한 진짜 이미지(x)와, 상기 X-ray 이미지(x+n1)(605)에서 노이즈 n1을 제거한 진짜 이미지(x)는 서로 같아야 한다. Here, a real image (x) from which noise n 2 is removed from the another label image (x+n 2 ) 604 and a real image from which noise n 1 is removed from the X-ray image (x+n 1 ) 605 (x) must be equal to each other.

이때 ① n1 및 n2 가 independent i.i.d 이고, ② Ε[n1] = Ε[n2] = 0 이고, ③ n1 및 n2 가 symmetric이고, 그리고 ④ L2 norm loss를 만족한다면, 도 20의 기술은 도 19의 기술과 실질적으로 동일한 효과를 나타낸다. 즉, 위 조건을 만족한다면, 도 19와 같이 상기 진짜 이미지(x)(601) 대신에, 상기 진짜 이미지(x)에 다른 노이즈(n2)가 결합된 상기 또 다른 레이블 이미지(x+n2)(604)를 이용할 수 있다. 상기 레이블 이미지(x+n2)(604)를 이용하여 상기 네트워크(fθ)(111)을 학습시키더라도 동일한 학습효과를 얻을 수 있다는 것이다. 그러나 이러한 이론에도 불구하고, 도 20에 제시된 기술을 위해서는 상기 X-ray 이미지(x+n1)(605)에 대한 상기 또 다른 레이블 이미지(x+n2)(604)를 준비해야 하는데, 상기 또 다른 레이블 이미지(x+n2)(604)를 준비하는 것 역시 매우 어려울 수 있다.At this time, if ① n 1 and n 2 are independent iid, ② Ε[n 1 ] = Ε[n 2 ] = 0, ③ n 1 and n 2 are symmetric, and ④ satisfy the L2 norm loss, The technique exhibits substantially the same effect as the technique of FIG. 19 . That is, if the above condition is satisfied, instead of the real image (x) 601 as shown in FIG. 19 , the another label image (x+n 2 ) 604 can be used. Even if the network (f θ ) 111 is trained using the label image (x+n 2 ) 604, the same learning effect can be obtained. However, despite this theory, for the technique presented in FIG. 20, it is necessary to prepare another label image (x+n 2 ) 604 for the X-ray image (x+n 1 ) 605. Preparing another label image (x+n 2 ) 604 can also be very difficult.

이에, 네트워크(fθ)(111)를 학습시키기 위한 상기 진짜 이미지(x)(601)를 대체할 수 있는 이미지를 생성하고, 네트워크(fθ)(111)를 학습시키는 효과적인 기술을 제공할 필요가 있다.Therefore, it is necessary to provide an effective technique for generating an image that can replace the real image (x) 601 for learning the network (f θ ) 111 and learning the network (f θ ) 111. there is

<지도학습을 위한 레이블의 생성 방법><How to generate labels for supervised learning>

도 21은 본 발명의 일 실시예에 따라 X-ray 이미지의 노이즈를 제거하는 네트워크를 지도학습하기 위한 레이블 이미지를 생성하는 과정을 나타낸 것이다.21 illustrates a process of generating a label image for supervising a network that removes noise from an X-ray image according to an embodiment of the present invention.

노이즈가 포함된 X-ray 이미지(x+n)(600)는 행렬형태로 배치된 복수 개의 픽셀들로 구성될 수 있다. 도 21에는 이 중 행과 열 방향으로 서로 인접한 4개의 픽셀들을 나타내었다.An X-ray image (x+n) 600 including noise may be composed of a plurality of pixels arranged in a matrix form. 21 shows four pixels adjacent to each other in the row and column directions.

이때, 상기 X-ray 이미지(x+n)(600) 중 서로 인접한 4개의 픽셀들 중 제1그룹의 픽셀들(61)의 정보를 기초로, 상기 X-ray 이미지(x+n)(600)를 다운샘플링함으로써 상기 도 21의 X-ray 이미지(x+n1)(605)를 생성할 수 있다. At this time, based on the information of the pixels 61 of the first group among the four adjacent pixels of the X-ray image (x + n) 600, the X-ray image (x + n) 600 ) to generate the X-ray image (x+n 1 ) 605 of FIG. 21 .

그리고 상기 X-ray 이미지(x+n)(600) 중 서로 인접한 4개의 픽셀들 중 제2그룹의 픽셀들(62)의 정보를 기초로, 상기 X-ray 이미지(x+n)(600)를 다운샘플링함으로써 상기 도 21의 레이블 이미지(x+n2)(604)를 생성할 수 있다. And based on the information of the pixels 62 of the second group among the four adjacent pixels of the X-ray image (x + n) 600, the X-ray image (x + n) 600 The label image (x+n 2 ) 604 of FIG. 21 may be generated by downsampling .

일 실시예에서, 여기서 상기 제1그룹의 픽셀들(61)과 상기 제2그룹의 픽셀들(62)은 동일한 픽셀을 공유하지 않을 수 있다.In one embodiment, the pixels 61 of the first group and the pixels 62 of the second group may not share the same pixel.

상기 생성된 X-ray 이미지(x+n1)(605)는 상기 네트워크(111)를 학습시키기 위한 학습용 데이터로 사용될 수 있으며, 상기 생성된 레이블 이미지(x+n2)(604)는 상기 X-ray 이미지(x+n1)(605)에 대한 지도학습용 레이블로 이용될 수 있다. 이때 ① n1 및 n2 가 independent i.i.d 이고, ② Ε[n1] = Ε[n2] = 0 이고, ③ n1 및 n2 가 symmetric이고, 그리고 ④ L2 norm loss를 만족한다고 볼 수 있다.The generated X-ray image (x+n 1 ) 605 may be used as training data for training the network 111, and the generated label image (x+n 2 ) 604 may be used as data for training the network 111. It can be used as a label for supervised learning for the -ray image (x+n 1 ) 605. At this time, it can be seen that ① n 1 and n 2 are independent iids, ② Ε[n 1 ] = Ε[n 2 ] = 0, ③ n 1 and n 2 are symmetric, and ④ L2 norm loss is satisfied.

상기 생성된 X-ray 이미지(x+n1)(605)와 상기 생성된 레이블 이미지(x+n2)(604)의 해상도는, 원본 이미지인 상기 X-ray 이미지(x+n)(600)의 해상도 보다 작음을 이해할 수 있다. 그러나 이와 같이 원본 이미지인 상기 X-ray 이미지(x+n)(600)의 해상도를 잃는 대신, 지도학습을 위한 학습용 X-ray 이미지(x+n1)(605)와 상기 레이블 이미지(x+n2)(604)를 얻을 수 있다는 이점을 얻는다. The resolution of the generated X-ray image (x+n 1 ) 605 and the generated label image (x+n 2 ) 604 is the original image, the X-ray image (x+n) 600 ) can be understood as being smaller than the resolution of However, instead of losing the resolution of the X-ray image (x+n) 600, which is the original image, the learning X-ray image (x+n 1 ) 605 for supervised learning and the label image (x+ n 2 ) (604).

이하 본 명세서에서 상기 X-ray 이미지(x+n1)(605)와 상기 레이블 이미지(x+n2)(604)를 각각 제1서브이미지(605) 및 제2서브이미지(604)로 지칭하거나, 또는 제1유도이미지(605) 및 제2유도이미지(605)로 지칭할 수 있다.Hereinafter, in the present specification, the X-ray image (x+n 1 ) 605 and the label image (x+n 2 ) 604 are referred to as a first sub-image 605 and a second sub-image 604, respectively. Alternatively, it may be referred to as a first induction image 605 and a second induction image 605.

<본 발명의 바람직한 실시예에 따른 X-ray 디노이징 방법 및 디노이징 네트워크 훈련방법><X-ray denoising method and denoising network training method according to a preferred embodiment of the present invention>

도 22는 본 발명의 일 실시예에 따라 학습이 완료된 디노이징 네트워크를 이용하여 X-ray 이미지의 노이즈를 제거하는 과정을 나타낸 개념도이다.22 is a conceptual diagram illustrating a process of removing noise from an X-ray image using a denoising network that has been trained according to an embodiment of the present invention.

준비된 X-ray 이미지(700)는 다운샘플링 과정을 통해 제1이미지(710)로 변환된다.The prepared X-ray image 700 is converted into a first image 710 through a downsampling process.

변환된 상기 제1이미지(710)는 학습이 완료된 상기 디노이징 네트워크인 제1네트워크(111)에 입력될 수 있다.The converted first image 710 may be input to the first network 111, which is the denoising network for which learning has been completed.

제1네트워크(111)는 N1 * N1 크기의 데이터를 입력받아 N1 * N1 크기의 데이터를 출력하는 구조를 가질 수 있다.The first network 111 may have a structure in which data of size N1 * N1 is input and data of size N1 * N1 is output.

상기 제1네트워크(111)는 상기 제1이미지(710)로부터 제2이미지(720)를 생성하여 출력할 수 있다. The first network 111 may generate and output a second image 720 from the first image 710 .

이때, 상기 X-ray 이미지(700)는 디지털 이미지이며 그 크기는 R0*C0 일 수 있다. 즉, 상기 X-ray 이미지(700)는 R0 * C0 개의 픽셀들로 이루어진 것일 수 있따. At this time, the X-ray image 700 is a digital image, and its size may be R0*C0. That is, the X-ray image 700 may be composed of R0 * C0 pixels.

그리고 상기 제1이미지(710) 및 상기 제2이미지(720)의 크기는 서로 동일하며, 모두 N1*N1 일 수 있다. 즉, 상기 제1이미지(710) 및 상기 제2이미지(720)는 모두 각각 N1 * N1 개의 픽셀들로 이루어진 것일 수 있다. 이때, R0 >= N1이고 C0 >= N1일 수 있다. The sizes of the first image 710 and the second image 720 are the same, and both may be N1*N1. That is, both the first image 710 and the second image 720 may be composed of N1*N1 pixels, respectively. In this case, R0 >= N1 and C0 >= N1.

상기 제1네트워크(111)는 N1 * N1 개의 픽셀들로 구성된 입력이미지를 변환하여 N1 * N1 개의 픽셀들로 구성된 출력이미지를 생성하는 것일 수 있다. 그리고 상기 제1네트워크(111)는 입력된 이미지로부터 노이즈를 제거한 출력 이미지를 생성하는 기능을 하도록 학습된 것일 수 있다. 상기 제1네트워크(111)는 학습이 가능한 신경망을 포함할 수 있으며, 상기 제1네트워크(111)는 이미 충분히 학습된 것일 수 있다. The first network 111 may convert an input image composed of N1*N1 pixels to generate an output image composed of N1*N1 pixels. Also, the first network 111 may be trained to generate an output image from which noise is removed from an input image. The first network 111 may include a neural network capable of learning, and the first network 111 may have already been sufficiently learned.

도 23은 도 22에 제시한 디노이징 네트워크를 학습하는 방법을 나타낸 개념도이다. 23 is a conceptual diagram illustrating a method for learning the denoising network shown in FIG. 22.

도 23의 제1네트워크(111)는 지도학습될 수 있다. 학습용 입력 데이터는 노이즈가 포함된 학습용 X-ray 이미지(x+n1)(805)이며, 상기 X-ray 이미지(x+n1)(805)에 대응하는 지도학습용 레이블은 레이블 이미지(x+n2)(804)이다. 상기 제1네트워크(111)는 학습용 X-ray 이미지(x+n1)(805)로부터 후처리 이미지(fθ(x+n1))(803)를 생성할 수 있다. 여기서 상기 지도학습용 레이블이란, 상기 [수식 1]과 같이 정의되는 손실함수의 산출에 사용되는 데이터를 의미할 수 있다.The first network 111 of FIG. 23 may be supervised. The input data for learning is a learning X-ray image (x+n 1 ) 805 containing noise, and the supervised learning label corresponding to the X-ray image (x+n 1 ) 805 is a label image (x+n 1 ). n 2 ) (804). The first network 111 may generate a post-processing image (f θ (x+n 1 )) 803 from an X-ray image (x+n 1 ) 805 for training. Here, the label for supervised learning may mean data used for calculating the loss function defined as in [Equation 1].

상기 제1네트워크(111)를 구성하는 파라미터 θ는 상기 [수식 1]과 같이 정의되는 손실함수 L (=loss)을 최소화하도록 최적화될 수 있다. The parameter θ constituting the first network 111 may be optimized to minimize the loss function L (= loss ) defined as in [Equation 1].

서로 다른 복수 개의 학습용 X-ray 이미지(x+n1)(805)들 및 이에 대응하는 서로 다른 복수 개의 레이블 이미지(x+n2)(804)들을 이용하여 상기 지도학습을 반복함으로써 상기 제1네트워크(111)의 학습 상태를 향상시킬 수 있다.By repeating the supervised learning using a plurality of different learning X-ray images (x+n 1 ) 805 and a plurality of different corresponding label images (x+n 2 ) 804, the first The learning state of the network 111 can be improved.

여기서 상기 레이블 이미지(x+n2)(804)에서 노이즈 n2를 제거한 진짜 이미지(x)와, 상기 학습용 X-ray 이미지(x+n1)(805)에서 노이즈 n1을 제거한 진짜 이미지(x)는 서로 같아야 한다. Here, a real image (x) from which noise n 2 is removed from the label image (x+n 2 ) 804 and a real image from which noise n 1 is removed from the training X-ray image (x+n 1 ) 805 ( x) must be equal to each other.

이때 ① n1 및 n2 가 independent i.i.d 이고, ② Ε[n1] = Ε[n2] = 0 이고, ③ n1 및 n2 가 symmetric이고, 그리고 ④ L2 norm loss를 만족하는 조건을 충족시켜야 한다.In this case, ① n 1 and n 2 are independent iids, ② Ε[n 1 ] = Ε[n 2 ] = 0, ③ n 1 and n 2 are symmetric, and ④ L2 norm loss must be satisfied. do.

이러한 조건을 충족하도록 상기 서로 다른 복수 개의 학습용 X-ray 이미지(x+n1)(805)들 및 이에 대응하는 서로 다른 복수 개의 레이블 이미지(x+n2)(804)들을 준비하는 과정을 도 24에서 설명한다.Helps prepare the plurality of different learning X-ray images (x+n 1 ) 805 and the corresponding plurality of different label images (x+n 2 ) 804 to meet these conditions. 24 explains.

도 24는 본 발명의 일 실시예에 따라 제공되는 네트워크 학습용 데이터 생성방법을 나타낸 개념도이다.24 is a conceptual diagram illustrating a method for generating data for network learning provided according to an embodiment of the present invention.

한 쌍의 상기 X-ray 이미지(x+n1)(805) 및 이에 대응하는 레이블 이미지(x+n2)(804)를 준비하기 위하여, 임의의 X-ray 이미지(80)를 준비할 수 있다.In order to prepare a pair of the X-ray images (x+n 1 ) 805 and a corresponding label image (x+n 2 ) 804, an arbitrary X-ray image 80 may be prepared. there is.

그 다음, 상기 X-ray 이미지(80)을 변환(ex: 다운샘플링)하여 제1학습이미지(800)를 생성할 수 있다. Next, a first training image 800 may be generated by converting (ex: downsampling) the X-ray image 80 .

그 다음, 상기 제1학습이미지(800) 중 서로 인접한 4개의 픽셀들 중 제1그룹의 픽셀들의 정보를 기초로, 상기 제1학습이미지(x+n)(800)를 다운샘플링 함으로써 상기 도 23의 X-ray 이미지(x+n1)(805)를 생성할 수 있다. 도 23의 상기 X-ray 이미지(x+n1)(805)는 예컨대 상기 제1그룹의 픽셀들의 대푯값(ex: 평균값)으로 이루어질 수도 있다. 23 by downsampling the first training image (x+n) 800 based on the information of the pixels of the first group among the four adjacent pixels of the first training image 800. An X-ray image (x+n 1 ) 805 of may be generated. The X-ray image (x+n 1 ) 805 of FIG. 23 may include, for example, representative values (ex: average values) of the pixels of the first group.

그리고 상기 제1학습이미지(x+n)(800) 중 서로 인접한 4개의 픽셀들 중 제2그룹의 픽셀들의 정보를 기초로, 상기 제1학습이미지(x+n)(800)를 다운샘플링 함으로써 상기 도 23의 레이블 이미지(x+n2)(804)를 생성할 수 있다. 도 23의 상기 레이블 이미지(x+n2)(804)는 예컨대 상기 제2그룹의 픽셀들의 대푯값(ex: 평균값)으로 이루어질 수도 있다. And by downsampling the first training image (x+n) 800 based on the information of the pixels of the second group among the four adjacent pixels of the first training image (x+n) 800. The label image (x+n 2 ) 804 of FIG. 23 may be generated. The label image (x+n 2 ) 804 of FIG. 23 may include, for example, a representative value (ex: average value) of the pixels of the second group.

일 실시예에서, 여기서 상기 제1그룹의 픽셀들과 상기 제2그룹의 픽셀들은 동일한 픽셀을 공유하지 않을 수 있다. 이때 ① n1 및 n2 가 independent i.i.d 이고, ② Ε[n1] = Ε[n2] = 0 이고, ③ n1 및 n2 가 symmetric이고, 그리고 ④ L2 norm loss를 만족한다고 간주할 수 있다.In one embodiment, the pixels of the first group and the pixels of the second group may not share the same pixel. At this time, it can be considered that ① n 1 and n 2 are independent iid, ② Ε[n 1 ] = Ε[n 2 ] = 0, ③ n 1 and n 2 are symmetric, and ④ L2 norm loss is satisfied. .

일 실시예에서, 상기 인접한 4개의 픽셀들은 서로 인접한 2 * 2 행렬형태의 픽셀들일 수 있다. In one embodiment, the four adjacent pixels may be adjacent to each other in the form of a 2*2 matrix.

다른 실시예에서, 상기 인접한 4개의 픽셀들은 서로 인접한 1*4 형렬 형태의 픽셀들이거나, 또는 서로 인접한 4*1 행렬 형태의 픽셀들일 수 있다.In another embodiment, the four adjacent pixels may be pixels in a 1*4 matrix form adjacent to each other or pixels in a 4*1 matrix form adjacent to each other.

이때, 상기 제1그룹의 픽셀들은 상기 4개의 픽셀들 중 선택된 2개로 구성되고, 상기 제2그룹의 픽셀들은 상기 4개의 픽셀들 중 나머지 2개로 구성될 수 있다. In this case, the pixels of the first group may be composed of selected two of the four pixels, and the pixels of the second group may be composed of the remaining two of the four pixels.

또는, 상기 제1그룹의 픽셀들은 상기 4개의 픽셀들 중 선택된 1개로 구성되고, 상기 제2그룹의 픽셀들은 상기 4개의 픽셀들 중 나머지 3개로 구성될 수 있다. Alternatively, the pixels of the first group may be composed of one selected from among the four pixels, and the pixels of the second group may be composed of the remaining three of the four pixels.

본 발명의 바람직한 실시예에 따르면, 도 24의 예에 나타낸 것과 같이, N2는 N1의 2배이어야 한다. According to a preferred embodiment of the present invention, as shown in the example of FIG. 24, N2 should be twice as large as N1.

그리고 도 24의 예에서, R2은 N1 이상이고, C1은 N1 이상일 수 있다. And in the example of FIG. 24 , R2 may be greater than or equal to N1 and C1 may be greater than or equal to N1.

복수 개의 X-ray 이미지(80)를 기초로 복수 쌍의 상기 X-ray 이미지(x+n1)(805) 및 이에 대응하는 레이블 이미지(x+n2)(804)를 생성할 수 있으며, 이들을 이용하여 제1네트워크(111)를 학습시킬 수 있다.A plurality of pairs of X-ray images (x+n 1 ) 805 and corresponding label images (x+n 2 ) 804 may be generated based on the plurality of X-ray images 80, The first network 111 can be trained using these.

도 22 의 X-ray 이미지(700) 및 도 24의 X-ray 이미지(80)는 X-ray 다이콤 이미지일 수 있다. 예컨대 R0 및 C0는 각각 2,000이라는 값을 가질 수 있다. 도 22에서 제1네트워크(111)에 입력되는 데이터의 크기 N1 * N1에서 N1은 256일 수 있다. 그리고 도 24에서 제1학습이미지(800)의 데이터의 크기 N2 * N2에서 N2는 512일 수 있다.The X-ray image 700 of FIG. 22 and the X-ray image 80 of FIG. 24 may be X-ray dicom images. For example, R0 and C0 may each have a value of 2,000. In FIG. 22, the size of data input to the first network 111 is N1 * N1, where N1 may be 256. And in FIG. 24, N2 may be 512 in the size N2 * N2 of the data of the first training image 800.

<비교 실시예에 따른 X-ray 디노이징 방법 및 디노이징 네트워크 훈련방법><X-ray denoising method and denoising network training method according to a comparative embodiment>

지금부터 설명하는 비교 실시예는 상술한 바람직한 일 실시예에 따른 장점을 비교하기 위하여 설명하는 것이다. 이 비교 실시예가 본 특허 출원 시점에 이미 타인에 의해 공개된 것이라고 점을 인정하는 것은 아니다. The comparative embodiment to be described from now on is to compare the advantages of the above-described preferred embodiment. It is not admitted that this comparative example has already been published by others at the time of filing this patent.

도 25는 비교 실시예에 따라 학습이 완료된 디노이징 네트워크를 이용하여 X-ray 이미지의 노이즈를 제거하는 과정을 나타낸 개념도이다.25 is a conceptual diagram illustrating a process of removing noise from an X-ray image using a denoising network that has been trained according to a comparative embodiment.

도 25에 제시한 도면은 도 22와 비교하였을 때에, 제1네트워크(111)가 디노이징 네트워크인 제2네트워크(112)로 대체되었다는 점만 다르다. The diagram presented in FIG. 25 is different from FIG. 22 only in that the first network 111 is replaced with the second network 112 as a denoising network.

상기 비교 실시예에 따라 제2네트워크(112)를 학습시키기 위해 이용될 학습용 데이터를 생성하는 방법은 도 26과 같이 제시될 수 있다.A method of generating learning data to be used for learning the second network 112 according to the comparative example may be presented as shown in FIG. 26 .

도 26은 비교 실시예에 따라, 디노이징 네트워크를 학습시키기 위한 학습데이터를 생성하는 방법을 나타낸 개념도이다.26 is a conceptual diagram illustrating a method of generating learning data for learning a denoising network according to a comparative embodiment.

우선, 임의의 X-ray 이미지(80)를 준비할 수 있다.First, an arbitrary X-ray image 80 may be prepared.

그 다음, 상기 X-ray 이미지(80)를 변환(ex: 다운샘플링)하여 제2학습이미지(900)를 생성할 수 있다. Then, a second training image 900 may be generated by converting (ex: downsampling) the X-ray image 80 .

그 다음, 상기 제2학습이미지(900) 중 서로 인접한 4개의 픽셀들 중 제1그룹의 픽셀들의 정보를 기초로, 상기 제2학습이미지(x+n)(900)를 다운샘플링 함으로써 X-ray 이미지(x+n1)(905)를 생성할 수 있다. 상기 X-ray 이미지(x+n1)(905)는 예컨대 상기 제1그룹의 픽셀들의 대푯값(ex: 평균값)으로 이루어질 수도 있다. Next, X-ray downsamples the second training image (x+n) 900 based on the information of the pixels of the first group among the four adjacent pixels of the second training image 900. An image (x+n 1 ) 905 may be created. The X-ray image (x+n 1 ) 905 may include, for example, a representative value (ex: average value) of the pixels of the first group.

그리고 상기 제2학습이미지(x+n)(900) 중 서로 인접한 4개의 픽셀들 중 제2그룹의 픽셀들의 정보를 기초로, 상기 제2학습이미지(x+n)(900)를 다운샘플링 함으로써 레이블 이미지(x+n2)(904)를 생성할 수 있다. 상기 레이블 이미지(x+n2)(904)는 예컨대 상기 제2그룹의 픽셀들의 대푯값(ex: 평균값)으로 이루어질 수도 있다. And by downsampling the second training image (x+n) 900 based on the information of the pixels of the second group among the four adjacent pixels of the second training image (x+n) 900. A label image (x+n 2 ) 904 may be generated. The label image (x+n 2 ) 904 may be formed of, for example, a representative value (ex: average value) of the pixels of the second group.

이때, 상기 제2학습이미지(x+n)(900)의 크기는 N1 * N1이며, 상기 X-ray 이미지(x+n1)(905) 및 상기 레이블 이미지(x+n2)(904)의 크기는 각각 {N1}/2 * {N1}/2일 수 있다.At this time, the size of the second learning image (x+n) 900 is N1 * N1, and the X-ray image (x+n 1 ) 905 and the label image (x+n 2 ) 904 The size of each may be {N1}/2 * {N1}/2.

도 27은 도 26에서 준비된 학습용 데이터를 이용하여 디노이징 네트워크를 학습하는 방법을 나타낸 개념도이다. 27 is a conceptual diagram illustrating a method of learning a denoising network using training data prepared in FIG. 26 .

도 27의 제2네트워크(112)는 지도학습될 수 있다. 제2네트워크(112)는 도 22와 같이 N1 * N1 크기의 입력데이터로부터 N1 * N1 크기의 출력데이터를 생성하는 것일 수 있다. The second network 112 of FIG. 27 may be supervised. As shown in FIG. 22, the second network 112 may generate N1*N1-sized output data from N1*N1-sized input data.

학습용 입력 데이터는 노이즈가 포함된 학습용 X-ray 이미지(x+n1)(905)이며, 상기 X-ray 이미지(x+n1)(905)에 대응하는 지도학습용 레이블은 레이블 이미지(x+n2)(904)이다. 상기 제2네트워크(112)는 학습용 X-ray 이미지(x+n1)(905)로부터 후처리 이미지(fθ(x+n1))(903)를 생성할 수 있다. The input data for learning is an X-ray image (x+n 1 ) 905 for learning containing noise, and a label for supervised learning corresponding to the X-ray image (x+n 1 ) 905 is a label image (x+n 1 ). n 2 ) (904). The second network 112 may generate a post-processing image (f θ (x+n 1 )) 903 from an X-ray image (x+n 1 ) 905 for training.

상기 제2네트워크(112)를 구성하는 파라미터 θ는 상기 [수식 1]과 같이 정의되는 손실함수 L (=loss)을 최소화하도록 최적화될 수 있다. The parameter θ constituting the second network 112 may be optimized to minimize the loss function L (= loss ) defined as in [Equation 1].

서로 다른 복수 개의 학습용 X-ray 이미지(x+n1)(905)들 및 이에 대응하는 서로 다른 복수 개의 레이블 이미지(x+n2)(904)들을 이용하여 상기 지도학습을 반복함으로써 상기 제2네트워크(112)의 학습 상태를 향상시킬 수 있다. By repeating the supervised learning using a plurality of different learning X-ray images (x+n 1 ) 905 and a plurality of different corresponding label images (x+n 2 ) 904, the second The learning state of the network 112 may be improved.

여기서, 상기 X-ray 이미지(x+n1)(905) 및 상기 레이블 이미지(x+n2)(904)의 크기는 각각 {N1}/2 * {N1}/2 이므로 상기 제2네트워크(112)는 {N1}/2 * {N1}/2 크기의 이미지들을 기반으로 학습된 것이다. Here, since the sizes of the X-ray image (x+n 1 ) 905 and the label image (x+n 2 ) 904 are {N1}/2 * {N1}/2, respectively, the second network ( 112) is learned based on images of size {N1}/2 * {N1}/2.

부연하여 설명하면, 도 27의 방법으로 학습된 제2네트워크(112)는 도 25에 제시한 방법으로 노이즈를 제거하는 데에 이용되고, 도 23의 방법으로 학습된 제1네트워크(111)는 도 22에 제시한 방법으로 노이즈를 제거하는 데에 이용된다. 이때, 본 발명의 일 실시예인 도 22에 따른 노이즈 제거방법 및 비교 실시예인 도 25에 따른 노이즈 제거방법은 모두 디노이징 네트워크(111, 112)에 N1 * N1 크기의 X-ray 이미지를 입력한다. 이때, 본 발명의 일 실시예에 따라 학습된 상기 제1네트워크(111)는 N1 * N1 크기의 이미지들에 의해 학습된 것에 비해, 비교 실시예에 따라 학습된 상기 제2네트워크(112)는 {N1}/2 * {N1}/2 크기의 이미지들에 의해 학습된 것이기 때문에, 도 22의 방법이 도 25의 방법에 비하여 더 좋은 노이즈 제거 성능을 나타낸다.To elaborate, the second network 112 learned by the method of FIG. 27 is used to remove noise by the method shown in FIG. 25, and the first network 111 learned by the method of FIG. 23 is The method presented in Fig. 22 is used to remove noise. At this time, both the noise removal method according to FIG. 22, which is an embodiment of the present invention, and the noise removal method according to FIG. 25, which is a comparative embodiment, input an X-ray image of size N1 * N1 to the denoising networks 111 and 112. At this time, the first network 111 learned according to an embodiment of the present invention is learned by using images of size N1 * N1, whereas the second network 112 learned according to the comparative embodiment is { Since it is learned from images of size N1}/2 * {N1}/2, the method of FIG. 22 shows better noise removal performance than the method of FIG. 25 .

도 22에 제시한 네트워크(111) 및 도 25에 제시한 네트워크(112)는 각각, 그 입력과 출력에 사용되는 이미지의 크기에 상관없이 동작 가능한 것일 수 있으며, 또한, 출력 이미지의 사이즈가 입력 이미지의 사이즈와 동일하도록 설계된 네트워크일 수 있다.The network 111 shown in FIG. 22 and the network 112 shown in FIG. 25 may be operable regardless of the size of the image used for input and output, respectively, and the size of the output image is the same as the input image. It may be a network designed to be equal to the size of .

도 28은 본 발명의 일 실시예에 따라 제공되는 X-ray 이미지 전처리 방법의 순서도이다.28 is a flowchart of an X-ray image pre-processing method provided according to an embodiment of the present invention.

단계(S110)에서, X-ray 이미지(700)을 제1이미지(710)로 변환할 수 있다. In step S110, the X-ray image 700 may be converted into a first image 710.

단계(S120)에서, 제1네트워크(111)에 상기 제1이미지(710)를 입력하여 상기 제1네트워크(111)로부터 제2이미지(720)를 획득할 수 있다. In step S120 , the first image 710 may be input to the first network 111 and the second image 720 may be obtained from the first network 111 .

이때, 상기 X-ray 이미지(700)의 크기는 R0*C0 이고, 상기 제1이미지(710) 및 상기 제2이미지(720)의 크기는 모두 N1*N1 (단, R0 >= N1, C0 >= N1)일 수 있다. At this time, the size of the X-ray image 700 is R0*C0, and both the sizes of the first image 710 and the second image 720 are N1*N1 (however, R0 >= N1, C0 > = N1).

도 29는 본 발명의 일 실시예에 따라 제공되는 노이즈 제거용 네트워크의 학습방법을 나타낸 순서도이다.29 is a flowchart illustrating a method for learning a network for removing noise provided according to an embodiment of the present invention.

단계(S210)에서, 한 세트의 학습용 X-ray 이미지들로부터 선택된 학습이미지(80)를 제1학습이미지(800)로 변환할 수 있다. In step S210, a learning image 80 selected from a set of X-ray images for learning may be converted into a first learning image 800.

단계(S220)에서, 상기 제1학습이미지(800)를 다운샘플링하여 제1서브이미지(805)를 생성할 수 있다. In step S220, a first sub-image 805 may be generated by downsampling the first training image 800.

단계(S230)에서, 상기 제1학습이미지(800)를 다운샘플링하여 제2서브이미지(804)를 생성할 수 있다. In step S230, a second sub-image 804 may be generated by down-sampling the first training image 800.

단계(S240)에서, 상기 제1네트워크(111)가 상기 제1서브이미지(805)를 변환한 출력이미지(803)와 상기 제2서브이미지(804) 간의 오차를 감소시키도록 상기 제1네트워크(111)를 지도학습할 수 있다.In step S240, the first network 111 reduces the error between the output image 803 obtained by converting the first sub-image 805 and the second sub-image 804 ( 111) can be supervised.

이때, 상기 제1학습이미지(800)의 크기는 N2*N2 이고, 상기 제1서브이미지(805), 상기 출력이미지(803), 및 상기 제2서브이미지(804)의 크기는 모두 N1*N1 (단, N2=2*N1)일 수 있다.At this time, the size of the first training image 800 is N2*N2, and the sizes of the first sub-image 805, the output image 803, and the second sub-image 804 are all N1*N1. (However, N2 = 2 * N1).

도 28 및 도 29, 그리고 이와 관련하여 본 명세서에서 설명한 X-ray 이미지 전처리 방법을 X2X 노이즈 제거방법이라고 지칭할 수도 있다.28 and 29, and the X-ray image preprocessing method described herein in relation thereto may also be referred to as an X2X noise removal method.

도 17을 다시 참조하여 설명하면, 상기 비휘발성 기록매체(2)는, 상기 단계(S110)를 실행하는 제1명령코드, 및 상기 단계(S120)를 실행하는 제2명령코드를 포함하는 프로그램을 저장하고 있을 수 있다.Referring again to FIG. 17, the non-volatile recording medium 2 includes a program including a first command code for executing step S110 and a second command code for executing step S120. may be storing

상기 처리부(4)는, 상기 장치 인터페이스부(3)를 통해, 상기 제1명령코드 및 상기 제2명령코드를 읽어서 실행함으로써 상기 제2이미지를 획득하도록 되어 있을 수 있다. The processing unit 4 may be configured to obtain the second image by reading and executing the first command code and the second command code through the device interface unit 3 .

상기 프로그램은, 상기 단계(S210), 상기 단계(S220), 상기 단계(S230), 및 상기 단계(S240)를 실행하는 학습명령코드를 더 포함하고 있을 수 있다. The program may further include learning instruction codes for executing the steps S210, S220, S230, and S240.

그리고 상기 처리부(4)는, 상기 장치 인터페이스부(3)를 통해, 상기 학습명령코드를 읽어서 실행함으로써 상기 제1네트워크를 학습시키도록 되어 있을 수 있다.Further, the processing unit 4 may be configured to learn the first network by reading and executing the learning command code through the device interface unit 3 .

<본 발명의 테스트 사례><Test case of the present invention>

X2X에서 훈련을 위한 각 CXR은 크기가 조정되었고(예: 512 x 512), 독립적인 노이즈가 있는 동일한 크기(예: 256 x 256)의 4개의 CXR(c1, c2, c3, c4)로 다운샘플링되었다. 그 중 두 쌍의 CXR가 무작위로 선택되었고, 평균화되었고, 학습을 위한 입력데이터( ex: 도 21의 605) 및 레이블(ex: 도 21의 604)로 활용되었다(예: 입력의 경우 c1/2 + c4/2, 레이블의 경우 c2/2 + c3/2). 이러한 입력 및 레이블 CXR들을 사용하여 잡음 대 잡음 알고리즘(도 20 참고)을 사용하여 잡음제거 네트워크(111)를 훈련했다. 따라서 학습에 깨끗한 CXR(즉, 노이즈 없는 CXR)을 준비할 필요가 없다. 테스트에서 4개의 다운샘플링된 CXR을 평균화하여 잡음제거 네트워크에 공급했다.In X2X, each CXR for training was resized (e.g. 512 x 512) and 4 CXRs (c 1 , c 2 , c 3 , c 4 ) of the same size (e.g. 256 x 256) with independent noise. ) was downsampled. Among them, two pairs of CXRs were randomly selected, averaged, and used as input data (ex: 605 in FIG. 21 ) and labels (ex: 604 in FIG. 21 ) for learning (eg, c 1 / 2 + c 4 /2, and c 2 /2 + c 3 /2 for labels). Using these input and label CXRs, we trained a denoising network 111 using a noise-to-noise algorithm (see Fig. 20). Therefore, there is no need to prepare a clean CXR (i.e. noise-free CXR) for training. In the test, the four downsampled CXRs were averaged and fed into a denoising network.

실험에서 먼저 X2X 및 다른 자체 지도 방법들(Noise2Void(N2V), Noise2Same(N2S) 및 Neighbor2Neighbor(Ne2Ne))을 사용하여 공개적으로 사용 가능한 CXR 데이터 세트(VinBigData의 10,000개의 CXR들, 교육용으로 9,000개의 CXR들을 사용하고 그리고 평가용으로 1,000개의 CXR들을 사용)에 대해 노이즈 제거를 수행했다. 또한, 합성 가우시안 노이즈가 데이터 세트에 추가되었고, 노이즈 제거 성능(즉, PSNR)은 X2X 및 기타 노이즈 제거 방법(지도: Noise2Clean(N2CL) 및 자체 지도 방법)을 사용하여 측정되었다. 둘째, CXR 훈련 및 테스트에 X2X를 적용하기 전과 후에, CXR 이상 분류(abnormality classification)를 위해 두 개의 심층 신경망을 훈련했고, 분류 성능(즉, AUC, 민감도, 특이성)을 측정했다. 여기서 상기 이상(abnormality)은 통합(consolidation), ground-glass 불투명도, 결절 또는 질량 등을 포함한 이상이다. 그리고 상기 CXR들은 VigBigData의 잡음제어 데이터 세트로부터 얻은 서로 다른 5,000개의 CXR들이며, 이 중 4,500개는 학습용 데이터이고, 500개는 평가용 데이터이다.In the experiments, we first used X2X and other self-supervised methods (Noise2Void (N2V), Noise2Same (N2S) and Neighbor2Neighbor (Ne2Ne)) to test publicly available CXR datasets (10,000 CXRs from VinBigData, 9,000 CXRs for training). and performed denoising on 1,000 CXRs for evaluation). In addition, synthetic Gaussian noise was added to the data set, and the denoising performance (i.e., PSNR) was measured using X2X and other denoising methods (supervised: Noise2Clean (N2CL) and self-supervised method). Second, before and after applying X2X to CXR training and testing, we trained two deep neural networks for CXR abnormality classification and measured their classification performance (i.e., AUC, sensitivity, and specificity). Here, the abnormality is an abnormality including consolidation, ground-glass opacity, nodules or mass. In addition, the CXRs are 5,000 different CXRs obtained from the noise control data set of VigBigData, of which 4,500 are training data and 500 are evaluation data.

CXR 데이터 세트를 노이즈 제거한 후, X2X는 구조 종속 신호(structure-dependent signal)를 거의 또는 전혀 표시하지 않고, 이미지를 성공적으로 개선하였다. 합성 노이즈 실험에서, X2X의 평균 PSNR(55.05 ㅁ 3.75)은 다른 자체 감독(self-supervised) 방법(N2V: 46.64 ㅁ 4.65, p < 0.001; N2S: 47.06 ㅁ 5.01, p < 0.001, 및 Ne2Ne: 51.63 ㅁ 4.19, p < 0.001)의 평균 PSNR을 능가했고, 감독된 방법(supervised method)(N2CL: 55.95 ㅁ 3.88)의 결과와 유사한 결과를 보였다. 또한 X2X를 이용하여 노이즈를 제거한 후에 이상 분류 성능이 향상되었다 (AUC: from 0.9637 (95%CI: 0.9627 - 0.9647) to 0.9741 (0.9632 - 0.9650), p < 0.001; sensitivity: from 0.9637 (95%CI: 0.9627 - 0.9647) to 0.9741 (0.9632 - 0.9650), p < 0.001; specificity: from 0.9637 (95%CI: 0.9627 - 0.9647) to 0.9741 (0.9632 - 0.9650), p < 0.001). After denoising the CXR data set, X2X successfully improved the image, displaying little or no structure-dependent signal. In synthetic noise experiments, the average PSNR of X2X (55.05 ± 3.75) was significantly higher than that of the other self-supervised methods (N2V: 46.64 ± 4.65, p <0.001; N2S: 47.06 ± 5.01, p < 0.001, and Ne2Ne: 51.63 ± 51.63 ± 0.001). 4.19, p < 0.001) and showed similar results to those of the supervised method (N2CL: 55.95 ㅁ 3.88). In addition, the anomaly classification performance improved after noise removal using X2X (AUC: from 0.9637 (95%CI: 0.9627 - 0.9647) to 0.9741 (0.9632 - 0.9650), p <0.001; sensitivity: from 0.9637 (95%CI: specificity: from 0.9637 (95% CI: 0.9627 - 0.9647) to 0.9741 (0.9632 - 0.9650), p < 0.001).

이 테스트 사례에서, CXR 이상 분류를 위한 새로운 self-supervised denoising 방법이 CXR의 PSNR을 향상시킬 뿐만 아니라 분류 성능도 향상되었음을 확인할 수 있다.In this test case, it can be confirmed that the new self-supervised denoising method for CXR anomaly classification not only improves the PSNR of CXR, but also improves the classification performance.

상술한 본 발명의 실시예들을 이용하여, 본 발명의 기술 분야에 속하는 자들은 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에 다양한 변경 및 수정을 용이하게 실시할 수 있을 것이다. 특허청구범위의 각 청구항의 내용은 본 명세서를 통해 이해할 수 있는 범위 내에서 인용관계가 없는 다른 청구항에 결합될 수 있다.Using the above-described embodiments of the present invention, those belonging to the technical field of the present invention will be able to easily implement various changes and modifications without departing from the essential characteristics of the present invention. The content of each claim of the claims may be combined with other claims without reference relationship within the scope understandable through this specification.

Claims (14)

폐 영역을 포함하는 제2 X-ray 이미지(704)를 네트워크(500)에 입력하여 상기 제2 X-ray 이미지에서 폐 영역(705a) 및 폐 바깥 영역(705b)으로 구분되는 폐 영역 이미지(705)를 생성하는 단계; 및
상기 폐 영역 이미지를 기초로 상기 제2 X-ray 이미지의 폐 영역을 구성하는 복수 개의 픽셀들의 밝기에 대한 히스토그램을 스트레칭하여 보정된 X-ray 이미지(706 또는 708)를 생성하는 단계;
를 포함하며,
상기 보정된 X-ray 이미지를 생성하는 단계는,
상기 제2 X-ray 이미지(704)를 구성하는 복수 개의 픽셀들 각각에 대하여 픽셀의 밝기를 나타내는 값에 대한 빈도수를 나타내는 제1히스토그램(204)을 생성하는 단계;
상기 제2 X-ray 이미지의 각 픽셀을 상기 폐 영역 이미지(705)의 각 픽셀에 대응시켰을 때, 상기 제2 X-ray 이미지 중 상기 폐 영역에 해당하는 부분(704a)의 픽셀들에 대한 제2히스토그램(204a)을 생성하는 단계;
상기 부분의 픽셀들 중 가장 어두운 픽셀의 제5값(v5)을 결정하는 단계;
상기 제1히스토그램의 값들 중 상기 결정된 제5값을 픽셀의 밝기를 나타내는 값들 중 최솟값('0', 검은색)으로 매핑하고, 상기 최솟값으로부터 상기 제5값 사이의 제5범위(r5)에 해당하는 각 픽셀의 값을 상기 최솟값으로 매핑하는 단계;
상기 제1히스토그램의 값들 중 가장 밝은 픽셀의 제6값(v6)과 상기 제5값 사이의 값들을, 상기 제6값(v6)과 상기 최솟값 사이의 값들로 선형으로 매핑하는 단계; 및
상기 제2 X-ray 이미지의 복수 개의 픽셀들 각각에 대하여 매핑된 값을 갖는 상기 보정된 X-ray 이미지(706)를 생성하는 단계;
를 포함하는,
X-ray 이미지의 폐 영역의 콘트라스트 향상 방법.
A second X-ray image 704 including the lung region is input to the network 500, and a lung region image 705 divided into a lung region 705a and an outer lung region 705b in the second X-ray image ) generating; and
generating a corrected X-ray image (706 or 708) by stretching a histogram of brightness of a plurality of pixels constituting the lung region of the second X-ray image based on the lung region image;
Including,
The step of generating the corrected X-ray image,
generating a first histogram 204 representing a frequency of a value indicating brightness of a pixel for each of a plurality of pixels constituting the second X-ray image 704;
When each pixel of the second X-ray image corresponds to each pixel of the lung region image 705, the pixels of the part 704a corresponding to the lung region of the second X-ray image 2 generating a histogram 204a;
determining a fifth value (v5) of the darkest pixel among the pixels of the portion;
The determined fifth value among the values of the first histogram is mapped to a minimum value ('0', black) among values representing the brightness of a pixel, and corresponds to a fifth range (r5) between the minimum value and the fifth value. mapping the value of each pixel to the minimum value;
linearly mapping values between the sixth value (v6) of the brightest pixel among the values of the first histogram and the fifth value to values between the sixth value (v6) and the minimum value; and
generating the corrected X-ray image 706 having values mapped to each of a plurality of pixels of the second X-ray image;
including,
Contrast enhancement method of lung area in X-ray image.
제1항에 있어서,
상기 네트워크는,
제1스캔대상을 CT 스캔하여 얻은 제1 CT 스캔정보를 일 방향으로 프로젝션하여, 시뮬레이션된 X-ray 이미지를 생성하는 단계;
상기 제1 CT 스캔정보 중 공기 영역을 추출하는 단계;
상기 제1 CT 스캔정보 중 상기 공기 영역만을 상기 일 방향으로 프로젝션하여, 시뮬레이션된 그라운드 트루스(ground truth) 이미지를 생성하는 단계; 및
신경망을 포함하는 상기 네트워크에 상기 시뮬레이션된 X-ray 이미지를 입력하였을 때에 상기 네트워크가 상기 시뮬레이션된 그라운드 트루스 이미지 중 상기 공기 영역에 대응하는 픽셀들은 제1값을 갖고, 상기 시뮬레이션된 그라운드 트루스 이미지 중 상기 공기 영역을 제외한 나머지 영역에 대응하는 픽셀들은 제2값을 갖는 상기 폐 영역 이미지를 출력하도록, 상기 시뮬레이션된 X-ray 이미지를 학습용 입력정보로 하고 상기 시뮬레이션된 그라운드 트루스(ground truth) 이미지를 레이블로 하여 상기 네트워크를 학습하는 단계
를 포함하는 지도학습 방법에 의해 학습된 것인,
X-ray 이미지의 폐 영역의 콘트라스트 향상 방법.
According to claim 1,
the network,
generating a simulated X-ray image by projecting first CT scan information obtained by CT scanning the first scan target in one direction;
extracting an air area from the first CT scan information;
generating a simulated ground truth image by projecting only the air area among the first CT scan information in the one direction; and
When the simulated X-ray image is input to the network including a neural network, pixels corresponding to the air area in the simulated ground truth image have a first value, and the simulated ground truth image Pixels corresponding to the remaining areas except for the air area use the simulated X-ray image as input information for learning and the simulated ground truth image as a label so as to output the lung area image having a second value learning the network by
Which is learned by a supervised learning method comprising
Contrast enhancement method of lung area in X-ray image.
삭제delete 폐 영역을 포함하는 제2 X-ray 이미지(704)를 네트워크(500)에 입력하여 상기 제2 X-ray 이미지에서 폐 영역(705a) 및 폐 바깥 영역(705b)으로 구분되는 폐 영역 이미지(705)를 생성하는 단계;
상기 제2 X-ray 이미지(704)의 각 픽셀을 상기 폐 영역 이미지(705)의 각 픽셀에 대응시켰을 때, 상기 제2 X-ray 이미지 중 상기 폐 영역에 해당하는 부분(704a)만 포함되도록 잘라낸 제2 폐 영역 이미지(707)를 생성하는 단계; 및
상기 제2 폐 영역 이미지를 구성하는 복수 개의 픽셀들의 밝기에 대한 제3히스토그램을 스트레칭하여 보정된 X-ray 이미지(706 또는 708)를 생성하는 단계;
를 포함하며,
상기 보정된 X-ray 이미지를 생성하는 단계는,
상기 제2 폐 영역 이미지의 픽셀들에 대한 상기 제3히스토그램(207)을 생성하는 단계;
상기 제2 폐 영역 이미지의 픽셀들 중 가장 어두운 픽셀의 제5값(v5)을 결정하는 단계;
상기 제3히스토그램의 값들 중 상기 결정된 제5값을 픽셀의 밝기를 나타내는 값들 중 최솟값('0', 검은색)으로 매핑하는 단계;
상기 제3히스토그램의 값들 중 가장 밝은 픽셀의 제7값(v7)과 상기 제5값 사이의 값들을 상기 제7값과 상기 최솟값 사이의 값들로 선형으로 매핑하는 단계; 및
상기 제2 폐 영역 이미지의 픽셀들 각각에 대하여 매핑된 값을 갖는 상기 보정된 X-ray 이미지를 생성하는 단계;
를 포함하는,
X-ray 이미지의 폐 영역의 콘트라스트 향상 방법.
A second X-ray image 704 including the lung region is input to the network 500, and a lung region image 705 divided into a lung region 705a and an outer lung region 705b in the second X-ray image ) generating;
When each pixel of the second X-ray image 704 corresponds to each pixel of the lung region image 705, only a portion 704a corresponding to the lung region is included in the second X-ray image. generating a cropped second lung region image 707; and
generating a corrected X-ray image (706 or 708) by stretching a third histogram of brightness of a plurality of pixels constituting the second lung region image;
Including,
The step of generating the corrected X-ray image,
generating the third histogram 207 for pixels of the second lung region image;
determining a fifth value (v5) of a darkest pixel among pixels of the second lung region image;
mapping the determined fifth value among values of the third histogram to a minimum value ('0', black) among values representing brightness of a pixel;
linearly mapping values between a seventh value (v7) of the brightest pixel among values of the third histogram and the fifth value to values between the seventh value and the minimum value; and
generating the corrected X-ray image having a value mapped to each of the pixels of the second lung region image;
including,
Contrast enhancement method of lung area in X-ray image.
삭제delete 폐 영역을 포함하는 제2 X-ray 이미지(704)를 네트워크(500)에 입력하여 상기 제2 X-ray 이미지에서 폐 영역(705a) 및 폐 바깥 영역(705b)으로 구분되는 폐 영역 이미지(705)를 생성하는 단계; 및
상기 폐 영역 이미지를 기초로 상기 제2 X-ray 이미지의 폐 영역을 구성하는 복수 개의 픽셀들의 밝기에 대한 히스토그램을 스트레칭하여 보정된 X-ray 이미지(706 또는 708)를 생성하는 단계;
를 포함하며,
상기 제2 X-ray 이미지는, X-ray 촬영장치가 출력한 제1 X-ray 이미지의 히스토그램을 스트레칭하여 생성한 것이며,
상기 제1 X-ray 이미지의 히스토그램을 스트레칭하여 상기 제2 X-ray 이미지를 생성하는 단계는,
상기 제1 X-ray 이미지를 구성하는 복수 개의 픽셀들 각각에 대하여 픽셀의 밝기를 나타내는 값에 대한 빈도수를 나타내는 히스토그램을 생성하는 단계;
상기 제1 X-ray 이미지의 상기 복수 개의 픽셀들 중 가장 밝은 픽셀의 제1값을 기준으로 미리 결정된 제1범위(r1)의 경계값인 제2값을 픽셀의 밝기를 나타내는 값들 중 최댓값으로 매핑하고, 상기 제1범위에 해당하는 각 픽셀의 값을 상기 최댓값으로 매핑하는 단계;
상기 제1 X-ray 이미지를 구성하는 복수 개의 픽셀들 중 가장 어두운 픽셀의 제3값을 기준으로 미리 결정된 제2범위(r2)의 경계값인 제4값을 픽셀의 밝기를 나타내는 값들 중 최솟값으로 매핑하고, 상기 제2범위에 해당하는 각 픽셀의 값을 상기 최솟값으로 매핑하는 단계; 및
상기 제1 X-ray 이미지를 구성하는 복수 개의 픽셀들 중 상기 제1범위 및 상기 제2범위를 제외한 가운데 범위인 제3범위(r3)의 픽셀들의 밝기를 나타내는 값들을 상기 최댓값과 상기 최솟값 사이의 값들로 선형으로 매핑하는 단계;
를 포함하는,
X-ray 이미지의 폐 영역의 콘트라스트 향상 방법.
A second X-ray image 704 including the lung region is input to the network 500, and a lung region image 705 divided into a lung region 705a and an outer lung region 705b in the second X-ray image ) generating; and
generating a corrected X-ray image (706 or 708) by stretching a histogram of brightness of a plurality of pixels constituting the lung region of the second X-ray image based on the lung region image;
Including,
The second X-ray image is generated by stretching the histogram of the first X-ray image output by the X-ray imaging device,
Generating the second X-ray image by stretching the histogram of the first X-ray image,
generating a histogram representing a frequency of a value representing brightness of a pixel for each of a plurality of pixels constituting the first X-ray image;
The second value, which is the boundary value of the first range r1 predetermined based on the first value of the brightest pixel among the plurality of pixels of the first X-ray image, is mapped to the maximum value among values representing the brightness of the pixel. and mapping a value of each pixel corresponding to the first range to the maximum value;
The fourth value, which is the boundary value of the second range r2 predetermined based on the third value of the darkest pixel among the plurality of pixels constituting the first X-ray image, is set to the minimum value among the values representing the brightness of the pixel. mapping, and mapping a value of each pixel corresponding to the second range to the minimum value; and
Among the plurality of pixels constituting the first X-ray image, values representing the brightness of pixels in the third range (r3), which is the middle range excluding the first range and the second range, are between the maximum value and the minimum value. mapping linearly to values;
including,
Contrast enhancement method of lung area in X-ray image.
컴퓨터로 읽을 수 있는 비휘발성 기록매체를 읽을 수 있는 장치 인터페이스부; 및 처리부;를 포함하며,
상기 비휘발성 기록매체는, 상기 처리부로 하여금,
폐 영역을 포함하는 제2 X-ray 이미지(704)를 네트워크(500)에 입력하여 상기 제2 X-ray 이미지에서 폐 영역(705a)을 특정하는 폐 영역 정보를 생성하는 단계를 실행하도록 하는 제12명령코드, 및
상기 폐 영역 정보를 기초로 상기 제2 X-ray 이미지의 상기 폐 영역을 구성하는 복수 개의 픽셀들의 밝기를 보정하는 단계를 실행하는 제13명령코드
를 포함하는 프로그램을 저장하고 있으며,
상기 처리부는, 상기 장치 인터페이스부를 통해, 상기 제12명령코드 및 상기 제13명령코드를 읽어서 실행함으로써 상기 보정된 X-ray 이미지를 생성하도록 되어 있고,
상기 밝기를 보정하는 단계는,
상기 제2 X-ray 이미지 중 상기 폐 영역의 픽셀들 중 가장 어두운 제1픽셀의 제5밝기값(v5)을 결정하는 단계; 및
상기 제1픽셀의 밝기값이 상기 제5밝기값보다 더 어두운 제1최소 밝기값을 갖도록 상기 폐 영역의 이미지의 히스토그램을 스트레칭하는 단계;
를 포함하는,
X-ray 이미지의 폐 영역의 콘트라스트 향상 장치.
a device interface unit capable of reading a computer-readable non-volatile recording medium; And a processing unit; including,
The non-volatile recording medium causes the processing unit to:
A second X-ray image 704 including the lung region is input to the network 500 to execute a step of generating lung region information specifying the lung region 705a in the second X-ray image. 12 command code, and
Thirteenth instruction code for executing a step of correcting the brightness of a plurality of pixels constituting the lung area of the second X-ray image based on the lung area information.
It stores programs that include
The processing unit generates the corrected X-ray image by reading and executing the twelfth command code and the thirteenth command code through the device interface unit,
In the step of correcting the brightness,
determining a fifth brightness value (v5) of a first darkest pixel among pixels of the lung area in the second X-ray image; and
stretching the histogram of the image of the lung region so that the brightness value of the first pixel has a first minimum brightness value that is darker than the fifth brightness value;
including,
Contrast enhancement device for lung area in X-ray images.
삭제delete 컴퓨터로 읽을 수 있는 비휘발성 기록매체를 읽을 수 있는 장치 인터페이스부; 및 처리부;를 포함하며,
상기 비휘발성 기록매체는, 상기 처리부로 하여금,
폐 영역을 포함하는 제2 X-ray 이미지(704)를 네트워크(500)에 입력하여 상기 제2 X-ray 이미지에서 폐 영역(705a)을 특정하는 폐 영역 정보를 생성하는 단계를 실행하도록 하는 제12명령코드, 및
상기 폐 영역 정보를 기초로 상기 제2 X-ray 이미지의 상기 폐 영역을 구성하는 복수 개의 픽셀들의 밝기를 보정하는 단계를 실행하는 제13명령코드
를 포함하는 프로그램을 저장하고 있으며,
상기 처리부는, 상기 장치 인터페이스부를 통해, 상기 제12명령코드 및 상기 제13명령코드를 읽어서 실행함으로써 상기 보정된 X-ray 이미지를 생성하도록 되어 있고,
상기 밝기를 보정하는 단계는, 상기 폐 영역 정보를 기초로 상기 제2 X-ray 이미지 중 상기 폐 영역 이외의 영역을 구성하는 복수 개의 픽셀들의 밝기를 보정하는 단계를 포함하는, X-ray 이미지의 폐 영역의 콘트라스트 향상 장치.
a device interface unit capable of reading a computer-readable non-volatile recording medium; And a processing unit; including,
The non-volatile recording medium causes the processing unit to:
A second X-ray image 704 including the lung region is input to the network 500 to execute a step of generating lung region information specifying the lung region 705a in the second X-ray image. 12 command code, and
Thirteenth instruction code for executing a step of correcting the brightness of a plurality of pixels constituting the lung area of the second X-ray image based on the lung area information.
It stores programs that include
The processing unit generates the corrected X-ray image by reading and executing the twelfth command code and the thirteenth command code through the device interface unit,
The correcting of the brightness may include correcting the brightness of a plurality of pixels constituting an area other than the lung area in the second X-ray image based on the lung area information. A contrast enhancing device in the lung area.
제7항에 있어서,
상기 폐 영역 정보는, 상기 제2 X-ray 이미지에서 상기 폐 영역(705a) 및 폐 바깥 영역(705b)으로 구분되는 폐 영역 이미지(705)이며,
상기 비휘발성 기록매체는,
제1스캔대상을 CT 스캔하여 얻은 제1 CT 스캔정보를 일 방향으로 프로젝션하여, 시뮬레이션된 X-ray 이미지를 생성하는 단계;
상기 제1 CT 스캔정보 중 공기 영역을 추출하는 단계;
상기 제1 CT 스캔정보 중 상기 공기 영역만을 상기 일 방향으로 프로젝션하여, 시뮬레이션된 그라운드 트루스(ground truth) 이미지를 생성하는 단계; 및
신경망을 포함하는 상기 네트워크에 상기 시뮬레이션된 X-ray 이미지를 입력하였을 때에 상기 네트워크가 상기 시뮬레이션된 그라운드 트루스 이미지 중 상기 공기 영역에 대응하는 픽셀들은 제1값을 갖고, 상기 시뮬레이션된 그라운드 트루스 이미지 중 상기 공기 영역을 제외한 나머지 영역에 대응하는 픽셀들은 제2값을 갖는 상기 폐 영역 이미지를 출력하도록, 상기 시뮬레이션된 X-ray 이미지를 학습용 입력정보로 하고 상기 시뮬레이션된 그라운드 트루스(ground truth) 이미지를 레이블로 하여 상기 네트워크를 학습하는 단계
를 포함하는 지도학습 방법에 의해 상기 네트워크를 학습시키는 폐영역 학습명령코드를 포함하며,
상기 처리부는, 상기 장치 인터페이스부를 통해, 상기 폐영역 학습명령코드를 읽어서 실행함으로써, 상기 네트워크를 학습시키도록 되어 있는,
X-ray 이미지의 폐 영역의 콘트라스트 향상 장치.
According to claim 7,
The lung region information is a lung region image 705 divided into the lung region 705a and the lung outer region 705b in the second X-ray image,
The non-volatile recording medium,
generating a simulated X-ray image by projecting first CT scan information obtained by CT scanning the first scan target in one direction;
extracting an air area from the first CT scan information;
generating a simulated ground truth image by projecting only the air area among the first CT scan information in the one direction; and
When the simulated X-ray image is input to the network including a neural network, pixels corresponding to the air area in the simulated ground truth image have a first value, and the simulated ground truth image Pixels corresponding to the remaining areas except for the air area use the simulated X-ray image as input information for learning and the simulated ground truth image as a label so as to output the lung area image having a second value learning the network by
Includes a closed region learning command code for learning the network by a supervised learning method that includes,
The processing unit is adapted to learn the network by reading and executing the closed area learning command code through the device interface unit.
Contrast enhancement device for lung area in X-ray images.
제7항에 있어서,
상기 폐 영역 정보는, 상기 제2 X-ray 이미지에서 상기 폐 영역(705a) 및 폐 바깥 영역(705b)으로 구분되는 폐 영역 이미지(705)이며,
상기 네트워크는 제2컴퓨팅 장치에 의해 학습된 것이며,
상기 제2컴퓨팅 장치는,
제1스캔대상을 CT 스캔하여 얻은 제1 CT 스캔정보를 일 방향으로 프로젝션하여, 시뮬레이션된 X-ray 이미지를 생성하는 단계;
상기 제1 CT 스캔정보 중 공기 영역을 추출하는 단계;
상기 제1 CT 스캔정보 중 상기 공기 영역만을 상기 일 방향으로 프로젝션하여, 시뮬레이션된 그라운드 트루스(ground truth) 이미지를 생성하는 단계; 및
신경망을 포함하는 상기 네트워크에 상기 시뮬레이션된 X-ray 이미지를 입력하였을 때에 상기 네트워크가 상기 시뮬레이션된 그라운드 트루스 이미지 중 상기 공기 영역에 대응하는 픽셀들은 제1값을 갖고, 상기 시뮬레이션된 그라운드 트루스 이미지 중 상기 공기 영역을 제외한 나머지 영역에 대응하는 픽셀들은 제2값을 갖는 상기 폐 영역 이미지를 출력하도록, 상기 시뮬레이션된 X-ray 이미지를 학습용 입력정보로 하고 상기 시뮬레이션된 그라운드 트루스(ground truth) 이미지를 레이블로 하여 상기 네트워크를 학습하는 단계
를 실행하도록 되어 있는,
X-ray 이미지의 폐 영역의 콘트라스트 향상 장치.
According to claim 7,
The lung region information is a lung region image 705 divided into the lung region 705a and the lung outer region 705b in the second X-ray image,
The network is learned by the second computing device,
The second computing device,
generating a simulated X-ray image by projecting first CT scan information obtained by CT scanning the first scan target in one direction;
extracting an air area from the first CT scan information;
generating a simulated ground truth image by projecting only the air area among the first CT scan information in the one direction; and
When the simulated X-ray image is input to the network including a neural network, pixels corresponding to the air area in the simulated ground truth image have a first value, and the simulated ground truth image Pixels corresponding to the remaining areas except for the air area use the simulated X-ray image as input information for learning and the simulated ground truth image as a label so as to output the lung area image having a second value learning the network by
which is supposed to run
Contrast enhancement device for lung area in X-ray images.
제7항에 있어서,
상기 제2 X-ray 이미지는, X-ray 촬영장치가 출력한 제1 X-ray 이미지의 히스토그램을 스트레칭하여 생성한 것이거나, 또는
상기 제2 X-ray 이미지는 X-ray 촬영장치가 출력한 이미지인,
X-ray 이미지의 폐 영역의 콘트라스트 향상 장치.
According to claim 7,
The second X-ray image is generated by stretching the histogram of the first X-ray image output by the X-ray imaging device, or
The second X-ray image is an image output by an X-ray imaging device,
Contrast enhancement device for lung area in X-ray images.
폐 영역을 포함하는 제2 X-ray 이미지(704)를 네트워크(500)에 입력하여, 상기 제2 X-ray 이미지로부터 폐 영역(705a) 및 폐 바깥 영역(705b)으로 구분되는 폐 영역 이미지(705)를 생성하는 단계; 및
상기 폐 영역 이미지를 기초로 상기 제2 X-ray 이미지의 폐 영역의 콘트라스트를 향상시키는 단계;
를 포함하며,
상기 네트워크는,
제1스캔대상을 CT 스캔하여 얻은 제1 CT 스캔정보를 일 방향으로 프로젝션하여, 시뮬레이션된 X-ray 이미지를 생성하는 단계;
상기 제1 CT 스캔정보 중 공기 영역을 추출하는 단계;
상기 제1 CT 스캔정보 중 상기 공기 영역만을 상기 일 방향으로 프로젝션하여, 시뮬레이션된 그라운드 트루스(ground truth) 이미지를 생성하는 단계; 및
신경망을 포함하는 상기 네트워크에 상기 시뮬레이션된 X-ray 이미지를 입력하였을 때에 상기 네트워크가 상기 시뮬레이션된 그라운드 트루스 이미지 중 상기 공기 영역에 대응하는 픽셀들은 제1값을 갖고, 상기 시뮬레이션된 그라운드 트루스 이미지 중 상기 공기 영역을 제외한 나머지 영역에 대응하는 픽셀들은 제2값을 갖는 폐 영역 이미지를 출력하도록, 상기 시뮬레이션된 X-ray 이미지를 학습용 입력정보로 하고 상기 시뮬레이션된 그라운드 트루스(ground truth) 이미지를 레이블로 하여 상기 네트워크를 학습하는 단계
를 포함하는 지도학습 방법에 의해 학습된 것인,
X-ray 이미지의 폐 영역의 콘트라스트 향상 방법.
A second X-ray image 704 including the lung region is input to the network 500, and from the second X-ray image, a lung region image ( 705); and
enhancing the contrast of the lung region of the second X-ray image based on the lung region image;
Including,
the network,
generating a simulated X-ray image by projecting first CT scan information obtained by CT scanning the first scan target in one direction;
extracting an air area from the first CT scan information;
generating a simulated ground truth image by projecting only the air area among the first CT scan information in the one direction; and
When the simulated X-ray image is input to the network including a neural network, pixels corresponding to the air area in the simulated ground truth image have a first value, and the simulated ground truth image Pixels corresponding to the remaining areas except for the air area use the simulated X-ray image as input information for learning and the simulated ground truth image as a label so as to output a lung area image having a second value learning the network
Which is learned by a supervised learning method comprising
Contrast enhancement method of lung area in X-ray image.
컴퓨터로 읽을 수 있는 비휘발성 기록매체를 읽을 수 있는 장치 인터페이스부; 및 처리부;를 포함하며,
상기 비휘발성 기록매체는,
폐 영역을 포함하는 제2 X-ray 이미지(704)를 네트워크(500)에 입력하여 상기 제2 X-ray 이미지에서 폐 영역(705a) 및 폐 바깥 영역(705b)으로 구분되는 폐 영역 이미지(705)를 생성하는 단계를 실행하는 제12명령코드,
상기 폐 영역 이미지를 기초로 상기 제2 X-ray 이미지의 폐 영역의 콘트라스트를 향상시키는 단계를 실행하는 제13명령코드, 및
상기 네트워크를 학습시키는 폐영역 학습명령코드
를 포함하는 프로그램을 저장하고 있으며,
상기 처리부는, 상기 장치 인터페이스부를 통해, 상기 제12명령코드 및 상기 제13명령코드를 읽어서 실행함으로써 상기 폐 영역의 콘트라스트가 향상된 X-ray 이미지를 생성하도록 되어 있으며,
상기 폐영역 학습명령코드는,
제1스캔대상을 CT 스캔하여 얻은 제1 CT 스캔정보를 일 방향으로 프로젝션하여, 시뮬레이션된 X-ray 이미지를 생성하는 단계;
상기 제1 CT 스캔정보 중 공기 영역을 추출하는 단계;
상기 제1 CT 스캔정보 중 상기 공기 영역만을 상기 일 방향으로 프로젝션하여, 시뮬레이션된 그라운드 트루스(ground truth) 이미지를 생성하는 단계; 및
신경망을 포함하는 상기 네트워크에 상기 시뮬레이션된 X-ray 이미지를 입력하였을 때에 상기 네트워크가 상기 시뮬레이션된 그라운드 트루스 이미지 중 상기 공기 영역에 대응하는 픽셀들은 제1값을 갖고, 상기 시뮬레이션된 그라운드 트루스 이미지 중 상기 공기 영역을 제외한 나머지 영역에 대응하는 픽셀들은 제2값을 갖는 폐 영역 이미지를 출력하도록, 상기 시뮬레이션된 X-ray 이미지를 학습용 입력정보로 하고 상기 시뮬레이션된 그라운드 트루스(ground truth) 이미지를 레이블로 하여 상기 네트워크를 학습하는 단계
를 포함하는 지도학습 방법에 의해 상기 네트워크를 학습시키는 명령코드인,
X-ray 이미지의 폐 영역의 콘트라스트 향상 장치.
a device interface unit capable of reading a computer-readable non-volatile recording medium; And a processing unit; including,
The non-volatile recording medium,
A second X-ray image 704 including the lung region is input to the network 500, and a lung region image 705 divided into a lung region 705a and an outer lung region 705b in the second X-ray image ) 12th instruction code for executing the step of generating,
A thirteenth instruction code for executing a step of enhancing the contrast of the lung region of the second X-ray image based on the lung region image; and
Closed region learning command code for learning the network
It stores programs that include
The processing unit generates an X-ray image with improved contrast of the lung region by reading and executing the twelfth command code and the thirteenth command code through the device interface unit,
The closed area learning command code,
generating a simulated X-ray image by projecting first CT scan information obtained by CT scanning the first scan target in one direction;
extracting an air area from the first CT scan information;
generating a simulated ground truth image by projecting only the air area among the first CT scan information in the one direction; and
When the simulated X-ray image is input to the network including a neural network, pixels corresponding to the air area in the simulated ground truth image have a first value, and the simulated ground truth image Pixels corresponding to the remaining areas except for the air area use the simulated X-ray image as input information for learning and the simulated ground truth image as a label so as to output a lung area image having a second value learning the network
A command code for learning the network by a supervised learning method comprising
Contrast enhancement device for lung area in X-ray images.
KR1020220090149A 2022-07-21 2022-07-21 Method for correcting X-ray image with improved contrast and device for the same KR102564740B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220090149A KR102564740B1 (en) 2022-07-21 2022-07-21 Method for correcting X-ray image with improved contrast and device for the same
KR1020230063107A KR20240013038A (en) 2022-07-21 2023-05-16 Method for correcting X-ray image with improved contrast and device for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220090149A KR102564740B1 (en) 2022-07-21 2022-07-21 Method for correcting X-ray image with improved contrast and device for the same

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020230063107A Division KR20240013038A (en) 2022-07-21 2023-05-16 Method for correcting X-ray image with improved contrast and device for the same

Publications (1)

Publication Number Publication Date
KR102564740B1 true KR102564740B1 (en) 2023-08-10

Family

ID=87560666

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020220090149A KR102564740B1 (en) 2022-07-21 2022-07-21 Method for correcting X-ray image with improved contrast and device for the same
KR1020230063107A KR20240013038A (en) 2022-07-21 2023-05-16 Method for correcting X-ray image with improved contrast and device for the same

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020230063107A KR20240013038A (en) 2022-07-21 2023-05-16 Method for correcting X-ray image with improved contrast and device for the same

Country Status (1)

Country Link
KR (2) KR102564740B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019024747A (en) * 2017-07-27 2019-02-21 株式会社日立製作所 X-ray CT apparatus, image generation method, and image generation program
JP2020116377A (en) * 2019-01-18 2020-08-06 キヤノンメディカルシステムズ株式会社 Medical processing apparatus, medical processing method, and storage medium
KR102356348B1 (en) * 2021-07-07 2022-02-08 주식회사 웨이센 Lung area segmentation system and method in chest X-ray image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019024747A (en) * 2017-07-27 2019-02-21 株式会社日立製作所 X-ray CT apparatus, image generation method, and image generation program
JP2020116377A (en) * 2019-01-18 2020-08-06 キヤノンメディカルシステムズ株式会社 Medical processing apparatus, medical processing method, and storage medium
KR102356348B1 (en) * 2021-07-07 2022-02-08 주식회사 웨이센 Lung area segmentation system and method in chest X-ray image

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
R. Zheng, 외. A Hybrid Contrast Limited Adaptive Histogram Equalization (CLAHE) for Parathyroid Ultrasonic Image Enhancement 2019 Chinese Control Conference. 2019. 2019.07.30. 공개.* *

Also Published As

Publication number Publication date
KR20240013038A (en) 2024-01-30

Similar Documents

Publication Publication Date Title
KR102581685B1 (en) Classification and 3D modeling of 3D oral and maxillofacial structures using deep learning
CN111784671B (en) Pathological image focus region detection method based on multi-scale deep learning
US7403646B2 (en) Image processing apparatus, image processing method, program, and recording medium for generating a difference image from a first radiographic image and second radiographic image
JP4708909B2 (en) Method, apparatus and program for detecting object of digital image
US9002134B2 (en) Multi-scale image normalization and enhancement
Chen et al. A fast image contrast enhancement algorithm using entropy-preserving mapping prior
KR101493375B1 (en) Image processing apparatus, image processing method, and computer-readable storage medium
CN112508806B (en) Endoscopic image highlight removal method based on non-convex low-rank matrix decomposition
US20220262105A1 (en) Systems, methods, and apparatuses for the generation of source models for transfer learning to application specific models used in the processing of medical imaging
US20230196515A1 (en) A method of denoising dental images through domain adaptation
WO2023047118A1 (en) A computer-implemented method of enhancing object detection in a digital image of known underlying structure, and corresponding module, data processing apparatus and computer program
JP2020197915A (en) Image processing device, image processing method, and program
KR102357350B1 (en) Statistical image restoration for low-dose ct image using deep learning
Johari et al. Metal artifact suppression in dental cone beam computed tomography images using image processing techniques
KR102564740B1 (en) Method for correcting X-ray image with improved contrast and device for the same
Burlin et al. Deep image inpainting
Mangalagiri et al. Toward generating synthetic CT volumes using a 3D-conditional generative adversarial network
CN116993926A (en) Single-view human body three-dimensional reconstruction method
KR102476888B1 (en) Artificial diagnostic data processing apparatus and its method in digital pathology images
CN113793316B (en) Ultrasonic scanning area extraction method, device, equipment and storage medium
KR102490586B1 (en) Repetitive Self-supervised learning method of Noise reduction
JP7019104B2 (en) Threshold learning method
KR102564738B1 (en) Method for creating training date for training a detection module for detecting a nodule in an X-ray image and computing device for the same
KR102564739B1 (en) Method for reconstructing X-ray image with rotated projection angle and device for the same
KR102506203B1 (en) Tomography image processing method using neural network based on unsupervised learning to remove metal artifacts and apparatus therefor

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant