KR102488676B1 - Method and apparatus for improving z-axis resolution of ct images based on deep learning - Google Patents

Method and apparatus for improving z-axis resolution of ct images based on deep learning Download PDF

Info

Publication number
KR102488676B1
KR102488676B1 KR1020210101319A KR20210101319A KR102488676B1 KR 102488676 B1 KR102488676 B1 KR 102488676B1 KR 1020210101319 A KR1020210101319 A KR 1020210101319A KR 20210101319 A KR20210101319 A KR 20210101319A KR 102488676 B1 KR102488676 B1 KR 102488676B1
Authority
KR
South Korea
Prior art keywords
image
slices
loss function
preprocessed
cross
Prior art date
Application number
KR1020210101319A
Other languages
Korean (ko)
Inventor
홍헬렌
윤희림
심규원
Original Assignee
서울여자대학교 산학협력단
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울여자대학교 산학협력단, 연세대학교 산학협력단 filed Critical 서울여자대학교 산학협력단
Priority to KR1020210101319A priority Critical patent/KR102488676B1/en
Application granted granted Critical
Publication of KR102488676B1 publication Critical patent/KR102488676B1/en

Links

Images

Classifications

    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T5/007
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

An apparatus and method for improving z-axis resolution of a CT image based on deep learning are provided. The method comprises the steps of: preprocessing the CT image including m slices (where m is a natural number); generating a sagittal image from which n slices are removed from the preprocessed CT image as an input image (where n is a natural number smaller than m); performing a deep learning-based first operation using the input image to newly generate the removed n slices; and performing a deep learning-based second operation on a cross-sectional image of the newly generated n slices to improve the resolution of the newly generated n slices. Accordingly, inter-slice resolution of a facial CT image is improved through a 2D convolutional neural network-based network.

Description

딥러닝 기반 CT 영상의 Z축 해상도 개선 방법 및 장치{METHOD AND APPARATUS FOR IMPROVING Z-AXIS RESOLUTION OF CT IMAGES BASED ON DEEP LEARNING}Method and apparatus for improving Z-axis resolution of CT images based on deep learning {METHOD AND APPARATUS FOR IMPROVING Z-AXIS RESOLUTION OF CT IMAGES BASED ON DEEP LEARNING}

본 발명은 딥러닝 기반 CT 영상의 Z축 해상도 개선 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for improving Z-axis resolution of CT images based on deep learning.

안와 뼈(orbital bone)는 안구와 신경을 보호하고 안구가 올바르게 위치하도록 하는 중요한 역할을 한다. 안와 뼈는 안와 상벽(orbital roof), 안와 측별(orbital lateral wall), 안와 내측벽(orbital medial wall), 안와 하벽(orbital floor)를 포함하는 4면의 피라미드 구조로 되어 있으며, 고밀도 조직인 피질골(cortical bone), 저밀도 조직인 해면골(trabecular bone) 및 얇은 뼈(thin bone)로 구성된다. 이때, 안와 내측벽과 하벽은 얇은 뼈로 구성되어 있어 작은 충격에도 쉽게 골적되므로 골절된 안와를 재건하기 위해서 안면부 컴퓨터단층촬영(CT: computed tomography) 영상에서 골절되지 않은 반대쪽 안와 뼈를 분할하고, 분할한 결과를 미러링(mirroring) 하여 3차원 모델을 만든 후, 환자 맞춤형 뼈 플레이트(plate)를 제작한다. The orbital bone plays an important role in protecting the eyeball and nerves and ensuring that the eyeball is positioned correctly. The orbital bone has a four-sided pyramidal structure including the orbital roof, orbital lateral wall, orbital medial wall, and orbital floor, and is composed of cortical bone, a dense tissue. bone), low-density tissue, trabecular bone, and thin bone. At this time, since the medial and inferior walls of the orbit are composed of thin bones, they are easily ossified even with a small impact, so in order to rebuild the fractured orbit, the orbital bone on the opposite side that is not fractured in the CT (computed tomography) image is divided and divided. After mirroring the result to create a 3D model, a patient-specific bone plate is manufactured.

그러나, 안면부 CT 영상에서 안와 뼈는 영상 획득 과정의 특정상 슬라이스 두께(slice thickness)가 화소 크기(pixel spacing)보다 2~3배 더 크기 때문에 3차원 모델로 재구성 시 에일리어싱(aliasing) 현상이 발생하거나 얇은 뼈에서 z축 방향으로 연결성이 끊어져 빈공간이 발생하는 문제점이 있다. However, because the slice thickness of the orbital bone in the facial CT image is 2 to 3 times larger than the pixel spacing due to the specific nature of the image acquisition process, aliasing occurs when reconstructed into a 3D model, or There is a problem in that an empty space is generated due to disconnection in the z-axis direction in thin bones.

따라서, 안와 뼈를 분할하고 3차원 모델로 재구성하기 전에 z축 방향으로의 공산 해상도를 개선하는 것이 필요하다.Therefore, it is necessary to improve the covariance resolution in the z-axis direction before segmenting the orbital bone and reconstructing it into a 3D model.

종래에도 의료 영상에서 슬라이스 간 해상도를 개선하기 위해 다양한 방법이 사용되고 있지만, 종래의 방법 중 보간 기반 방법은 계산 수식이 간단하여 연산 속도는 빠르지만 세밀한 부분을 정확하게 복원하지 못하거나 물체의 경계 부분이 흐리게 나타나는 한계점이 있다. 또한, 딥러닝 기반 방법의 경우, 영상의 관상면(혹은 시상면)의 공간적 정보만을 사용하여 중간 슬라이스 영상이 횡단면에서 시상면(혹은 관상면) 방향으로 경계가 불분명하게 나타나고, 일부 조직 부분이 끊어지는 한계점이 있다.Conventionally, various methods have been used to improve inter-slice resolution in medical images, but among the conventional methods, the interpolation-based method has a simple calculation formula and is fast, but cannot accurately restore detailed parts or blurs the boundary of an object. There are limitations that appear. In addition, in the case of the deep learning-based method, using only the spatial information of the coronal (or sagittal) plane of the image, the mid-sliced image has an unclear boundary from the transverse plane to the sagittal plane (or coronal plane), and some tissue parts are broken. There is a limit to losing.

등록특허공보 제10-2155760호, 2020.09.08.Registered Patent Publication No. 10-2155760, 2020.09.08.

본 발명이 해결하고자 하는 과제는 2차원 컨볼루션 신경망 기반의 네트워크를 통해 안면부 CT 영상의 슬라이스 간 해상도를 개선하는 방법을 제공하는 것이다.An object to be solved by the present invention is to provide a method for improving inter-slice resolution of a facial CT image through a network based on a two-dimensional convolutional neural network.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 장치에 의해 수행되는 딥러닝 기반 CT 영상의 Z축 해상도 개선 방법은, m개의 슬라이스를 포함하는 상기 CT 영상에 대한 전처리를 수행하는 단계(여기서 m은 자연수), 상기 전처리된 CT 영상에서 n개의 슬라이스가 제거된 시상면 영상을 입력 영상으로 생성하는 단계(여기서 n은 m보다 작은 자연수), 상기 입력 영상을 이용하여 딥러닝 기반 제1 연산을 수행하여 상기 제거된 n개의 슬라이스를 새롭게 생성하는 단계 및 상기 새롭게 생성된 n개의 슬라이스의 횡단면 영상에 대해 딥러닝 기반 제2 연산을 수행하여, 상기 새롭게 생성된 n개의 슬라이스의 해상도를 개선하는 단계를 포함한다.A deep learning-based Z-axis resolution improvement method of a CT image performed by an apparatus according to an aspect of the present invention for solving the above problems includes performing preprocessing on the CT image including m slices (where m is a natural number), generating a sagittal image from which n slices are removed from the preprocessed CT image as an input image (where n is a natural number smaller than m), and performing a deep learning-based first operation using the input image. The step of newly generating the removed n slices and performing a deep learning-based second operation on the cross-sectional images of the newly created n slices to improve the resolution of the newly created n slices. include

본 발명에서, 상기 n은 상기 m의 절반 값이고, 상기 제거된 n개의 슬라이스는 상기 m개의 슬라이스 중 짝수 번째인 슬라이스일 수 있다.In the present invention, n is a half value of m, and the removed n slices may be even-numbered slices among the m slices.

본 발명에서, 상기 전처리 수행 단계는, 상기 CT 영상의 밝기값을 리스케일링(intensity rescaling)하고, 상기 리스케일링된 CT 영상을 검사 대상인 관심 영역만 남도록 크롭할 수 있다.In the present invention, in the preprocessing step, intensity rescaling of the CT image may be performed, and the rescaled CT image may be cropped so that only the region of interest to be examined remains.

본 발명에서, 상기 입력 영상은, 상기 전처리된 CT 영상에 포함된 뼈가 표시된 레이블 마스크를 포함하고, 상기 레이블 마스크는 뼈인 부분은 1로 표시되고 뼈가 아닌 부분은 0으로 표시되는 이진 영상일 수 있다.In the present invention, the input image may include a label mask in which bones included in the preprocessed CT image are displayed, and the label mask may be a binary image in which bones are indicated by 1 and non-bone portions are indicated by 0. there is.

본 발명에서, 상기 제거된 n개의 슬라이스를 새롭게 생성하는 단계는, 상기 제1 연산을 통해 상기 제거된 n개의 슬라이스를 새롭게 생성하여, 상기 새롭게 생성된 n개의 슬라이스가 포함되어 슬라이스 간 해상도가 개선된 시상면 영상을 출력하는 것이고, 상기 제1 연산은, 컨볼루션 계층(convolution layer)을 통한 컨볼루션 연산, 업 샘플링 계층(up-sampling layer)을 통한 업 샘플링 연산 및 시상면에서의 손실 함수를 이용한 연산을 포함할 수 있다.In the present invention, in the step of newly generating the removed n slices, the newly generated n slices are newly generated through the first operation, and the newly generated n slices are included to improve inter-slice resolution. A sagittal image is output, and the first operation uses a convolution operation through a convolution layer, an up-sampling operation through an up-sampling layer, and a loss function in the sagittal plane. may contain operations.

본 발명에서, 상기 시상면에서의 손실 함수는, 상기 업 샘플링 연산에 의해 출력된 영상과 상기 전처리된 CT 영상 간 밝기값에 대한 오차 최소화 관련 손실 함수, 상기 슬라이스 간 해상도가 개선된 시상면 영상과 상기 전처리된 CT 영상 간 밝기값에 대한 오차 최소화 관련 손실 함수 및 상기 레이블 마스크의 시상면 영상을 이용한 상기 슬라이스 간 해상도가 개선된 시상면 영상과 상기 전처리된 CT 영상 간 기울기값에 대한 오차 최소화 관련 손실 함수의 합으로 계산될 수 있다.In the present invention, the loss function in the sagittal plane is a loss function related to error minimization of the brightness value between the image output by the upsampling operation and the preprocessed CT image, the sagittal image with improved inter-slice resolution, A loss function related to error minimization of the brightness value between the preprocessed CT images and a loss related to error minimization between the gradient value between the preprocessed CT image and the sagittal image with improved inter-slice resolution using the sagittal image of the label mask. It can be calculated as a sum of functions.

본 발명에서, 상기 제2 연산은, 횡단면에서의 손실 함수를 이용한 연산을 포함하며, 상기 횡단면에서의 손실 함수는, 상기 새롭게 생성된 n개의 슬라이스의 횡단면 영상과 상기 전처리된 CT 영상 간 밝기값에 대한 오차 최소화 관련 손실 함수, 상기 레이블 마스크의 횡단면 영상을 이용한 상기 새롭게 생성된 n개의 슬라이스의 횡단면 영상과 상기 전처리된 CT 영상 간 기울기값에 대한 오차 최소화 관련 손실 함수 및 상기 새롭게 생성된 n개의 슬라이스의 횡단면 영상과 상기 전처리된 CT 영상 간 특징맵에 대한 차이 최소화 관련 손실 함수의 합으로 계산될 수 있다.In the present invention, the second calculation includes an operation using a loss function in a cross-section, and the loss function in the cross-section corresponds to a brightness value between the newly generated cross-section image of n slices and the preprocessed CT image. of the error minimization related loss function, the error minimization related loss function for the gradient value between the preprocessed CT image and the newly generated cross sectional image of the n slices using the cross sectional image of the label mask, and the newly generated n slices It can be calculated as the sum of loss functions related to minimizing the difference between the cross-sectional image and the feature map of the preprocessed CT image.

상술한 과제를 해결하기 위한 본 발명의 다른 면에 따른 딥러닝 기반 CT 영상의 Z축 해상도 개선 장치는, 통신부, 상기 CT 영상의 해상도를 개선하기 위한 적어도 하나의 프로세스를 구비하는 메모리 및 상기 프로세스에 따라 동작하는 프로세서를 포함하고, 상기 프로세서는, 상기 프로세스를 기반으로, m개의 슬라이스를 포함하는 상기 CT 영상에 대한 전처리를 수행하고(여기서 m은 자연수), 상기 전처리된 CT 영상에서 n개의 슬라이스가 제거된 시상면 영상을 입력 영상으로 생성하고(여기서 n은 m보다 작은 자연수), 상기 입력 영상을 이용하여 딥러닝 기반 제1 연산을 수행하여 상기 제거된 n개의 슬라이스를 새롭게 생성하고, 상기 새롭게 생성된 n개의 슬라이스의 횡단면 영상에 대해 딥러닝 기반 제2 연산을 수행하여, 상기 새롭게 생성된 n개의 슬라이스의 해상도를 개선한다.An apparatus for improving the Z-axis resolution of a CT image based on deep learning according to another aspect of the present invention for solving the above problems is a communication unit, a memory having at least one process for improving the resolution of the CT image, and the process and a processor operating according to the above process, wherein the processor performs pre-processing on the CT image including m slices (where m is a natural number) based on the process, and n slices are obtained from the pre-processed CT image. The removed sagittal plane image is generated as an input image (where n is a natural number smaller than m), and a deep learning-based first operation is performed using the input image to newly generate the removed n slices, and the newly generated The resolution of the newly created n slices is improved by performing a deep learning-based second operation on the cross-sectional images of the n slices.

본 발명에서, 상기 n은 상기 m의 절반 값이고, 상기 제거된 n개의 슬라이스는 상기 m개의 슬라이스 중 짝수 번째인 슬라이스일 수 있다.In the present invention, n is a half value of m, and the removed n slices may be even-numbered slices among the m slices.

본 발명에서, 상기 프로세서는, 상기 CT 영상의 밝기값을 리스케일링(intensity rescaling)하고, 상기 리스케일링된 CT 영상을 검사 대상인 관심 영역만 남도록 크롭하여 전처리를 수행할 수 있다.In the present invention, the processor may perform preprocessing by performing intensity rescaling of the brightness value of the CT image and cropping the rescaled CT image so that only the region of interest to be examined remains.

본 발명에서, 상기 입력 영상은, 상기 전처리된 CT 영상에 포함된 뼈가 표시된 레이블 마스크를 포함하고, 상기 레이블 마스크는 뼈인 부분은 1로 표시되고 뼈가 아닌 부분은 0으로 표시되는 이진 영상일 수 있다.In the present invention, the input image may include a label mask in which bones included in the preprocessed CT image are displayed, and the label mask may be a binary image in which bones are indicated by 1 and non-bone portions are indicated by 0. there is.

본 발명에서, 상기 프로세서는, 상기 제1 연산을 통해 상기 제거된 n개의 슬라이스를 새롭게 생성하여, 상기 새롭게 생성된 n개의 슬라이스가 포함되어 슬라이스 간 해상도가 개선된 시상면 영상을 출력하고, 상기 제1 연산은, 컨볼루션 계층(convolution layer)을 통한 컨볼루션 연산, 업 샘플링 계층(up-sampling layer)을 통한 업 샘플링 연산 및 시상면에서의 손실 함수를 이용한 연산을 포함할 수 있다.In the present invention, the processor newly generates the removed n slices through the first operation, outputs a sagittal plane image in which resolution between slices is improved by including the newly generated n slices, and Operation 1 may include a convolution operation through a convolution layer, an up-sampling operation through an up-sampling layer, and an operation using a loss function in a sagittal plane.

본 발명에서, 상기 시상면에서의 손실 함수는, 상기 업 샘플링 연산에 의해 출력된 영상과 상기 전처리된 CT 영상 간 밝기값에 대한 오차 최소화 관련 손실 함수, 상기 슬라이스 간 해상도가 개선된 시상면 영상과 상기 전처리된 CT 영상 간 밝기값에 대한 오차 최소화 관련 손실 함수 및 상기 레이블 마스크의 시상면 영상을 이용한 상기 슬라이스 간 해상도가 개선된 시상면 영상과 상기 전처리된 CT 영상 간 기울기값에 대한 오차 최소화 관련 손실 함수의 합으로 계산될 수 있다.In the present invention, the loss function in the sagittal plane is a loss function related to error minimization of the brightness value between the image output by the upsampling operation and the preprocessed CT image, the sagittal image with improved inter-slice resolution, A loss function related to error minimization of the brightness value between the preprocessed CT images and a loss related to error minimization between the gradient value between the preprocessed CT image and the sagittal image with improved inter-slice resolution using the sagittal image of the label mask. It can be calculated as a sum of functions.

본 발명에서, 상기 제2 연산은, 횡단면에서의 손실 함수를 이용한 연산을 포함하며, 상기 횡단면에서의 손실 함수는, 상기 새롭게 생성된 n개의 슬라이스의 횡단면 영상과 상기 전처리된 CT 영상 간 밝기값에 대한 오차 최소화 관련 손실 함수, 상기 레이블 마스크의 횡단면 영상을 이용한 상기 새롭게 생성된 n개의 슬라이스의 횡단면 영상과 상기 전처리된 CT 영상 간 기울기값에 대한 오차 최소화 관련 손실 함수 및 상기 새롭게 생성된 n개의 슬라이스의 횡단면 영상과 상기 전처리된 CT 영상 간 특징맵에 대한 차이 최소화 관련 손실 함수의 합으로 계산될 수 있다.In the present invention, the second calculation includes an operation using a loss function in a cross-section, and the loss function in the cross-section corresponds to a brightness value between the newly generated cross-section image of n slices and the preprocessed CT image. of the error minimization related loss function, the error minimization related loss function for the gradient value between the preprocessed CT image and the newly generated cross sectional image of the n slices using the cross sectional image of the label mask, and the newly generated n slices It can be calculated as the sum of loss functions related to minimizing the difference between the cross-sectional image and the feature map of the preprocessed CT image.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

본 발명에 따르면, 안와 뼈 경계 인식 손실 함수(orbital bone edge-aware loss)를 통해 시상면에서 안와 영역의 경계 정보를 고려함으로써 피질골뿐만 아니라 얇은 뼈 정보가 명확한 중간 슬라이스 영상을 생성할 수 있다. 이에 더하여, 사전에 훈련된 영상 특징 추출 네트워크를 통해 추출된 원본 영상과 중간 슬라이스 영상 간의 특징맵 차이를 손실 함수로 추가 고려하여 중간 슬라이스 영상의 품질을 개선할 수 있다.According to the present invention, it is possible to generate a mid-slice image with clear thin bone information as well as cortical bone by considering boundary information of the orbital region in the sagittal plane through an orbital bone edge-aware loss function. In addition, the quality of the intermediate slice image can be improved by additionally considering the feature map difference between the original image and the intermediate slice image extracted through a pre-trained image feature extraction network as a loss function.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명에 따른 딥러닝 기반 CT 영상의 Z축 해상도 개선 장치를 설명하기 위한 도면이다.
도 2는 본 발명에 따른 딥러닝 기반 CT 영상의 Z축 해상도 개선 방법의 순서도이다.
도 3은 본 발명에 따른 데이터 전처리를 설명하기 위한 도면이다.
도 4는 본 발명에 따른 중간 슬라이스를 새롭게 생성하기 위한 제1 연산을 설명하기 위한 도면이다.
도 5는 본 발명에 따른 새롭게 생성된 중간 슬라이스의 해상도를 개선하기 위한 제2 연산을 설명하기 위한 도면이다.
도 6a 및 도 6b는 본 발명에 따른 OB-Net을 통해 생성된 슬라이스 간 해상도가 개선된 시상면의 영상을 설명하기 위한 도면이다.
도 7a 및 도 7b는 본 발명에 따른 OB-Net을 통해 생성된 슬라이스 간 해상도가 개선된 횡단면의 영상을 설명하기 위한 도면이다.
1 is a diagram for explaining an apparatus for improving Z-axis resolution of a CT image based on deep learning according to the present invention.
2 is a flowchart of a method for improving Z-axis resolution of CT images based on deep learning according to the present invention.
3 is a diagram for explaining data pre-processing according to the present invention.
4 is a diagram for explaining a first operation for newly generating an intermediate slice according to the present invention.
5 is a diagram for explaining a second operation for improving the resolution of a newly generated intermediate slice according to the present invention.
6A and 6B are diagrams for explaining a sagittal plane image with improved resolution between slices generated through OB-Net according to the present invention.
7A and 7B are views for explaining cross-sectional images with improved inter-slice resolution generated through OB-Net according to the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, only these embodiments are intended to complete the disclosure of the present invention, and are common in the art to which the present invention belongs. It is provided to fully inform the person skilled in the art of the scope of the invention, and the invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.Terminology used herein is for describing the embodiments and is not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, "comprises" and/or "comprising" does not exclude the presence or addition of one or more other elements other than the recited elements. Like reference numerals throughout the specification refer to like elements, and “and/or” includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various components, these components are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first element mentioned below may also be the second element within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.The spatially relative terms "below", "beneath", "lower", "above", "upper", etc. It can be used to easily describe a component's correlation with other components. Spatially relative terms should be understood as including different orientations of elements in use or operation in addition to the orientations shown in the drawings. For example, if you flip a component that is shown in a drawing, a component described as "below" or "beneath" another component will be placed "above" the other component. can Thus, the exemplary term “below” may include directions of both below and above. Components may also be oriented in other orientations, and thus spatially relative terms may be interpreted according to orientation.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

설명에 앞서 본 명세서에서 사용하는 용어의 의미를 간략히 설명한다. 그렇지만 용어의 설명은 본 명세서의 이해를 돕기 위한 것이므로, 명시적으로 본 발명을 한정하는 사항으로 기재하지 않은 경우에 본 발명의 기술적 사상을 한정하는 의미로 사용하는 것이 아님을 주의해야 한다.Prior to the description, the meaning of the terms used in this specification will be briefly described. However, it should be noted that the description of terms is intended to help the understanding of the present specification, and is not used in the sense of limiting the technical spirit of the present invention unless explicitly described as limiting the present invention.

본 명세서에서 '장치'는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 장치는 컴퓨터 및 이동 단말기 형태가 될 수 있다. 상기 컴퓨터는 클라이언트로부터 요청을 수신하여 정보처리를 수행하는 서버 형태가 될 수 있다. 상기 이동 단말기는 휴대폰, 스마트 폰(smart phone), PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 노트북 PC, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다.In this specification, 'device' includes all various devices capable of providing results to users by performing calculation processing. For example, the devices may be in the form of computers and mobile terminals. The computer may be in the form of a server receiving a request from a client and processing information. The mobile terminal includes a mobile phone, a smart phone, a personal digital assistants (PDA), a portable multimedia player (PMP), a navigation device, a notebook PC, a slate PC, a tablet PC, and an ultrabook. ), a wearable device (eg, a watch type terminal (smartwatch), a glass type terminal (smart glass), a head mounted display (HMD)), and the like may be included.

본 명세서에서, OB-Net(Orbital rbital rbital Boneoneone-Network)은 CT(computed tomography) 영상의 슬라이스 간 해상도를 개선하는 2차원 컨볼루션 신경망 기반의 네트워크로서, 시상면에서 중간 슬라이스 영상을 생성하는 단계(제1 연산)와 횡단면에서 중간 슬라이스 영상의 품질을 개선하는 단계(제2 연산)로 구성된다. 첫 번째 단계에서는 시상면의 저해상도 영상과 원본 영상의 관심 영역(예를 들어, 안와 영역) 레이블 마스크를 입력 받아 관심 영역의 경계가 명확한 중간 슬라이스 영상을 생성한다. 두 번째 단계에서는 시상면의 단면 정보로만 생성된 중간 슬라이스 영상에서 뼈가 끊어지거나 불명확한 문제를 해결하기 위해 시상면에서 생성된 중간 슬라이스 영상을 횡단면으로 변환하여 원본 영상과의 밝기값 차이, 관심 영역 내 기울기 값 차이, 특징 맵 차이를 고려하여 오차를 최소화함으로서 횡단면에서도 관심 영역이 정확한 중간 슬라이스 영상이 생성되도록 한다.In this specification, an orbital rbital rbital boneoneone-network (OB-Net) is a network based on a two-dimensional convolutional neural network that improves inter-slice resolution of a computed tomography (CT) image, and generates an intermediate slice image in the sagittal plane ( first operation) and improving the quality of the intermediate slice image in the cross section (second operation). In the first step, a low-resolution image of the sagittal plane and a label mask of the region of interest (eg, the orbital region) of the original image are input, and an intermediate slice image having a clear boundary of the region of interest is generated. In the second step, in order to solve the problem that bones are broken or unclear in the mid-slice image created only with the cross-sectional information of the sagittal plane, the mid-slice image created in the sagittal plane is converted into a cross-section, and the difference in brightness value from the original image and the region of interest are analyzed. By minimizing the error by considering the gradient value difference and the feature map difference, a middle slice image with an accurate region of interest is generated even in a cross-section.

상기 OB-Net은 해상도 증가를 위한 학습모델을 트레이닝하기 위해 영상의 중간 슬라이스를 제외하여 제외한 부분의 영상을 생성하도록 학습될 수 있다.The OB-Net may be trained to generate an image of the excluded part by excluding the middle slice of the image in order to train a learning model for increasing the resolution.

도 1은 본 발명에 따른 딥러닝 기반 CT 영상의 Z축 해상도 개선 장치를 설명하기 위한 도면이다.1 is a diagram for explaining an apparatus for improving Z-axis resolution of a CT image based on deep learning according to the present invention.

도 2는 본 발명에 따른 딥러닝 기반 CT 영상의 Z축 해상도 개선 방법의 순서도이다.2 is a flowchart of a method for improving Z-axis resolution of CT images based on deep learning according to the present invention.

도 3은 본 발명에 따른 데이터 전처리를 설명하기 위한 도면이다.3 is a diagram for explaining data pre-processing according to the present invention.

도 4는 본 발명에 따른 중간 슬라이스를 새롭게 생성하기 위한 제1 연산을 설명하기 위한 도면이다.4 is a diagram for explaining a first operation for newly generating an intermediate slice according to the present invention.

도 5는 본 발명에 따른 새롭게 생성된 중간 슬라이스의 해상도를 개선하기 위한 제2 연산을 설명하기 위한 도면이다.5 is a diagram for explaining a second operation for improving the resolution of a newly generated intermediate slice according to the present invention.

도 6a 및 도 6b는 본 발명에 따른 OB-Net을 통해 생성된 슬라이스 간 해상도가 개선된 시상면의 영상을 설명하기 위한 도면이다.6A and 6B are diagrams for explaining a sagittal plane image with improved resolution between slices generated through OB-Net according to the present invention.

도 7a 및 도 7b는 본 발명에 따른 OB-Net을 통해 생성된 슬라이스 간 해상도가 개선된 횡단면의 영상을 설명하기 위한 도면이다. 7A and 7B are views for explaining cross-sectional images with improved inter-slice resolution generated through OB-Net according to the present invention.

이하에서 도 1을 참조하여, 본 발명에 따른 딥러닝 기반 CT 영상의 Z축 해상도 개선 장치(10)에 대해서 설명하도록 한다.Hereinafter, with reference to FIG. 1 , an apparatus 10 for improving Z-axis resolution of a CT image based on deep learning according to the present invention will be described.

본 발명에 따른 장치(10)는 환자의 CT 영상을 획득하고, 상기 OB-Net을 이용하여 획득된 CT 영상의 해상도를 개선함으로써, 최종적으로 사용자에게 보다 명확한 CT 영상을 제공할 수 있다.The apparatus 10 according to the present invention acquires a patient's CT image and improves the resolution of the obtained CT image using the OB-Net, thereby finally providing a clearer CT image to the user.

여기서, 사용자는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료 영상 전문가 등이 될 수 있으며, 의료 장치를 수리하는 기술자가 될 수 있으나, 이에 한정되지 않는다.Here, the user is a medical expert and may be a doctor, nurse, clinical pathologist, medical imaging expert, or the like, and may be a technician who repairs a medical device, but is not limited thereto.

여기서, CT 영상은 안면부 CT 영상일 수 있지만, 이에 제한되는 것은 아니다.Here, the CT image may be a facial CT image, but is not limited thereto.

구체적으로, 장치(10)는 획득된 CT 영상을 전처리하고, 전처리된 CT 영상에 대해 제1 연산 및 제2 연산을 수행하여 획득된 CT 영상을 3차원 모델로 재구성할 수 있다. 여기서, 제1 연산은 시상면에서 중간 슬라이스를 생성하는 것과 관련된 단계이고, 제2 연산은 횡단면에서 중간 슬라이스의 품질을 개선하는 것과 관련된 단계이다. 이에 대한 자세한 설명은 후술하도록 한다.Specifically, the apparatus 10 may reconstruct the obtained CT image into a 3D model by preprocessing the obtained CT image and performing first and second calculations on the preprocessed CT image. Here, the first operation is a step related to generating an intermediate slice in the sagittal plane, and the second operation is a step related to improving the quality of the intermediate slice in the transverse plane. A detailed description of this will be described later.

이러한 장치(10)는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함될 수 있다. The device 10 may include all of various devices capable of providing results to users by performing calculation processing.

여기서, 장치(10)는 컴퓨터의 형태가 될 수 있다. 보다 상세하게는, 상기 컴퓨터는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함될 수 있다. Here, the device 10 may be in the form of a computer. More specifically, the computer may include all of various devices capable of providing results to users by performing calculation processing.

예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 헤드마운트 디스플레이(Head Mounted Display; HMD) 장치가 컴퓨팅 기능을 포함하는 경우, HMD장치가 컴퓨터가 될 수 있다. For example, a computer includes not only a desktop PC and a notebook (Note Book) but also a smart phone, a tablet PC, a cellular phone, a PCS phone (Personal Communication Service phone), synchronous/asynchronous A mobile terminal of IMT-2000 (International Mobile Telecommunication-2000), a Palm Personal Computer (Palm PC), and a Personal Digital Assistant (PDA) may also be applicable. In addition, when a Head Mounted Display (HMD) device includes a computing function, the HMD device may become a computer.

또한, 컴퓨터는 클라이언트로부터 요청을 수신하여 정보처리를 수행하는 서버가 해당될 수 있다.In addition, the computer may correspond to a server that receives a request from a client and performs information processing.

그리고, 장치(10)는 통신부(12), 메모리(14) 및 프로세서(16)를 포함할 수 있다. 여기서, 장치(10)는 도 1에 도시된 구성요소보다 더 적은 수의 구성요소나 더 많은 구성요소를 포함할 수 있다.Also, the device 10 may include a communication unit 12 , a memory 14 and a processor 16 . Here, the device 10 may include fewer or more components than those shown in FIG. 1 .

통신부(12)는 장치(10)와 외부 장치(미도시), 장치(10)와 외부 서버(미도시) 사이 또는 장치(10)와 통신망(미도시) 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다.The communication unit 12 may include one or more wireless communication between the device 10 and an external device (not shown), between the device 10 and an external server (not shown), or between the device 10 and a communication network (not shown). modules may be included.

여기서, 외부 장치(미도시)는 의료영상데이터를 촬영하는 의료영상 촬영장비일 수 있다. 여기서, 의료영상데이터는 상기 환자의 신체를 3차원 모델로 구현 가능한 모든 의료영상을 포함할 수 있다. 보다 상세하게, 외부 장치(미도시)는 CT 영상을 촬영하는 촬영장비일 수 있다. Here, the external device (not shown) may be a medical imaging equipment that captures medical image data. Here, the medical image data may include all medical images capable of realizing the patient's body as a 3D model. More specifically, the external device (not shown) may be a imaging device that captures a CT image.

또한, 외부 서버(미도시)는 복수의 환자에 대한 환자별 의료 데이터를 저장하는 서버일 수 있다.Also, the external server (not shown) may be a server that stores medical data for each patient for a plurality of patients.

또한, 통신망(미도시)은 장치(10), 외부 장치(미도시) 및 외부 서버(미도시) 간의 다양한 정보를 송수신할 수 있다. 통신망은 다양한 형태의 통신망이 이용될 수 있으며, 예컨대, WLAN(Wireless LAN), 와이파이(Wi-Fi), 와이브로(Wibro), 와이맥스(Wimax), HSDPA(High Speed Downlink Packet Access) 등의 무선 통신방식 또는 이더넷(Ethernet), xDSL(ADSL, VDSL), HFC(Hybrid Fiber Coax), FTTC(Fiber to The Curb), FTTH(Fiber To The Home) 등의 유선 통신방식이 이용될 수 있다.In addition, a communication network (not shown) may transmit and receive various information between the device 10, an external device (not shown), and an external server (not shown). Various types of communication networks may be used as the communication network, for example, wireless communication methods such as WLAN (Wireless LAN), Wi-Fi, Wibro, Wimax, and HSDPA (High Speed Downlink Packet Access) Alternatively, a wired communication method such as Ethernet, xDSL (ADSL, VDSL), HFC (Hybrid Fiber Coax), FTTC (Fiber to The Curb), FTTH (Fiber To The Home) may be used.

한편, 통신망은 상기에 제시된 통신방식에 한정되는 것은 아니며, 상술한 통신방식 이외에도 기타 널리 공지되었거나 향후 개발될 모든 형태의 통신 방식을 포함할 수 있다.On the other hand, the communication network is not limited to the communication methods presented above, and may include all other types of communication methods that are widely known or will be developed in the future in addition to the above communication methods.

통신부(12)는 장치(10)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.Communication unit 12 may include one or more modules that connect device 10 to one or more networks.

메모리(14)는 장치(10)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 메모리(14)는 장치(10)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 장치(10)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 장치(10)의 기본적인 기능을 위하여 존재할 수 있다. 한편, 응용 프로그램은, 메모리(14)에 저장되고, 장치(10) 상에 설치되어, 프로세서(16)에 의하여 상기 장치(10)의 동작(또는 기능)을 수행하도록 구동될 수 있다.Memory 14 may store data supporting various functions of device 10 . The memory 14 may store a plurality of application programs (application programs or applications) running in the device 10 , data for operation of the device 10 , and commands. At least some of these applications may exist for basic functions of the device 10 . Meanwhile, the application program may be stored in the memory 14, installed on the device 10, and driven by the processor 16 to perform an operation (or function) of the device 10.

또한, 메모리(14)는 본 발명에 따른 CT 영상의 해상도를 개선하기 위한 적어도 하나의 프로세스를 포함할 수 있다. 구체적으로, 메모리(14)는 데이터 전처리 관련 프로세스, 제1 연산 관련 프로세스 및 제2 연산 관련 프로세스를 포함할 수 있다. 또는 메모리(14)는 데이터 전처리, 제1 연산 및 제2 연산을 모두 포함하는 하나의 프로세스를 포함할 수도 있다.Also, the memory 14 may include at least one process for improving the resolution of a CT image according to the present invention. Specifically, the memory 14 may include a data preprocessing related process, a first arithmetic related process, and a second arithmetic related process. Alternatively, the memory 14 may include one process including data preprocessing, first operation, and second operation.

프로세서(16)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 장치(10)의 전반적인 동작을 제어할 수 있다. 프로세서(16)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(14)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.The processor 16 may control general operations of the device 10 in addition to operations related to the application program. The processor 16 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. input or output through the components described above or by driving an application program stored in the memory 14.

또한, 프로세서(16)는 메모리(14)에 저장된 응용 프로그램을 구동하기 위하여, 도 1과 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(16)는 상기 응용 프로그램의 구동을 위하여, 장치(10)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작 시킬 수 있다.In addition, the processor 16 may control at least some of the components discussed in conjunction with FIG. 1 in order to drive an application program stored in the memory 14 . Furthermore, the processor 16 may combine and operate at least two or more of the components included in the device 10 to drive the application program.

이하에서는 도 2 내지 도 6을 참조하여, 프로세서(16)가 딥러닝 기반 CT 영상의 Z축 해상도를 개선하는 방법을 설명하도록 한다. 여기서, 프로세서(16)의 동작은 장치(10)에서 수행 가능할 수 있다.Hereinafter, with reference to FIGS. 2 to 6 , a method for improving the Z-axis resolution of a CT image based on deep learning by the processor 16 will be described. Here, the operation of the processor 16 may be performed by the device 10 .

프로세서(16)는 m개의 슬라이스를 포함하는 상기 CT 영상에 대한 전처리를 수행할 수 있다(S110). 여기서, m은 자연수일 수 있다.The processor 16 may perform pre-processing on the CT image including m slices (S110). Here, m may be a natural number.

상기 외부 장치(미도시)에 의해 촬영된 CT 영상은 m개의 슬라이스를 포함하는 3D 영상으로 재구성될 수 있다.A CT image captured by the external device (not shown) may be reconstructed into a 3D image including m slices.

먼저 프로세서(16)는 CT 영상에 대한 밝기값을 리스케일링(intensity rescaling)할 수 있다. 이는, 16비트 그레이스케일(gray-scale) 영상에서 안와 영역을 포함하는 밝기값 범위인 -200HU~400HU 범위를 8비트 0~255 영상으로 리스케일(rescale) 하는 과정이라고 할 수 있다.First, the processor 16 may rescale the brightness value of the CT image (intensity rescaling). This can be referred to as a process of rescaling the -200HU to 400HU range, which is a brightness value range including the orbital region, from a 16-bit gray-scale image to an 8-bit 0-255 image.

그런 다음, 프로세서(16)는 밝기값이 리스케일링된 CT 영상에서 검사 대상인 관심 영역만 남도록 CT 영상을 크롭할 수 있다. 예를 들어, 도 3에 도시된 바와 같이, 안면부 CT 영상에서 안와 영역만을 고려하기 위해 전체에서 일부만 지정하여 사용하는 것이다.Then, the processor 16 may crop the CT image so that only the region of interest to be examined remains in the CT image whose brightness values are rescaled. For example, as shown in FIG. 3 , in order to consider only the orbital region in the facial CT image, only a portion of the entire region is designated and used.

다음으로, 프로세서(16)는 상기 전처리된 CT 영상에서 n개의 슬라이스가 제거된 시상면 영상을 입력 영상으로 생성할 수 있다(S120). 여기서, n은 m보다 작은 자연수일 수 있다.Next, the processor 16 may generate a sagittal image from which n slices are removed from the preprocessed CT image as an input image (S120). Here, n may be a natural number smaller than m.

이하에서는 전처리 수행이 완료된 CT 영상을 원본 영상이라 표현하도록 한다.Hereinafter, the CT image for which preprocessing is completed is referred to as an original image.

원본 영상은 상술한 바와 같이 m개의 슬라이스를 포함하고 있는데, 이때 프로세서(16)는 상술한 딥러닝 기반 학습 모델을 이용하여 해상도가 개선된 중간 슬라이스 영상을 생성하기 위해 m개의 슬라이스 중에서 n개의 중간 슬라이스를 제거할 수 있다.The original image includes m slices as described above. In this case, the processor 16 uses the above-described deep learning-based learning model to generate n intermediate slice images with improved resolution from among the m slices. can be removed.

보다 상세하게, 상기 n은 상기 m의 절반 값이고, 상기 제거된 n개의 슬라이스는 상기 m개의 슬라이스 중 짝수 번째인 슬라이스일 수 있다.More specifically, n is a half value of m, and the removed n slices may be even-numbered slices among the m slices.

예를 들어, 원본 영상이 100개의 슬라이스를 포함하고 있다면, 프로세서는 100개의 슬라이스 중, 두 번째, 네 번째 등과 같이 짝수 번째에 위치하는 50개의 슬라이스를 제거하여, 홀수 번째에 위치하는 50개의 슬라이스만 남은 원본 영상을 입력 영상으로 사용할 수 있다. 이렇게 원본 영상에서 짝수 번째 슬라이스를 제거하여 네트워크의 입력 영상으로 사용함으로써, 네트워크를 통해 생성된 중간 슬라이스 영상이 원본과 유사하게 잘 생성되었는지를 검증할 수 있다.For example, if the original image contains 100 slices, the processor removes 50 even-numbered slices such as the second, fourth, etc. out of the 100 slices, leaving only the odd-numbered 50 slices. The remaining original video can be used as an input video. In this way, by removing even-numbered slices from the original image and using them as the input image of the network, it is possible to verify whether the intermediate slice image generated through the network is well generated similarly to the original image.

또한, 상기 입력 영상은, 상기 전처리된 CT 영상(원본 영상)에 포함된 뼈가 표시된 레이블 마스크를 포함할 수 있다.Also, the input image may include a label mask displaying bones included in the preprocessed CT image (original image).

여기서, 상기 레이블 마스크는 뼈인 부분은 1로 표시되고 뼈가 아닌 부분은 0으로 표시되는 이진 영상일 수 있다. 이와 같은 관심 영역(예를 들어, 안와 영역)에 대한 레이블 마스크를 통해, CT 영상에서 구분하기 어려운 얇은 뼈의 영역을 명시함으로써 이후 단계에서 얇은 뼈 영역에서의 오차를 집중적으로 최소화하고 관심 영역의 ?戮? 뼈가 명확한 중간 슬라이스 영상을 생성할 수 있게 된다. Here, the label mask may be a binary image in which bone portions are indicated as 1 and non-bone portions are indicated as 0. Through such a label mask for the region of interest (eg, the orbital region), by specifying the thin bone region that is difficult to distinguish in the CT image, errors in the thin bone region are intensively minimized in a later step, and the ?戮? It becomes possible to create mid-slice images with clear bones.

다음으로, 프로세서(16)는 상기 입력 영상을 이용하여 딥러닝 기반 제1 연산을 수행하여 상기 제거된 n개의 슬라이스를 새롭게 생성할 수 있다(S130).Next, the processor 16 may newly generate the removed n slices by performing a first operation based on deep learning using the input image (S130).

구체적으로, 프로세서(16)는 상기 제1 연산을 통해 상기 제거된 n개의 슬라이스를 새롭게 생성하여, 상기 새롭게 생성된 n개의 슬라이스가 포함되어 슬라이스 간 해상도가 개선된 시상면 영상을 출력할 수 있다.Specifically, the processor 16 may newly generate the removed n slices through the first operation and output a sagittal plane image having improved inter-slice resolution by including the newly generated n slices.

상기 제1 연산은, 컨볼루션 계층(convolution layer)을 통한 컨볼루션 연산, 업 샘플링 계층(up-sampling layer)을 통한 업 샘플링 연산 및 시상면에서의 손실 함수를 이용한 연산을 포함할 수 있다.The first operation may include a convolution operation through a convolution layer, an up-sampling operation through an up-sampling layer, and an operation using a loss function in a sagittal plane.

이하에서 도 4를 참조하여 안면부 CT 영상을 이용한 제1 연산에 대해 상세히 설명하도록 한다.Hereinafter, with reference to FIG. 4, the first calculation using the facial CT image will be described in detail.

상술한 바와 같이, 본 발명의 OB-Net의 입력 영상은 영상 전처리를 통해 슬라이스 간 해상도를 1/2(48→24)로 낮춘 시상면의 안면부 CT 영상과 원본 영상의 관심 영역(안와 영역)에 대한 레이블 마스크를 함께 사용할 수 있다.As described above, the input image of the OB-Net of the present invention is a sagittal face CT image with inter-slice resolution lowered to 1/2 (48→24) through image preprocessing and the region of interest (orbital region) of the original image. Can be used together with a label mask for

입력 영상에서 특징맵을 추출하기 위해 3x3 크기의 필터를 사용하는 6개의 컨볼루션 계층을 통해 컨볼루션 연산을 수행하며, 제로 패딩(zero-padding)을 적용하여 특징맵의 크기가 줄어들지 않도록 할 수 있다.In order to extract a feature map from an input image, a convolution operation is performed through 6 convolution layers using a 3x3 size filter, and zero-padding is applied to prevent the size of the feature map from being reduced. .

이때, 첫 번째부터 다섯 번째 컨볼루션 계층은 각각 32개의 특징맵을 생성하고, 여섯번째 컨볼루션 계층은 2개의 특징맵을 생성할 수 있다. In this case, the first to fifth convolution layers may generate 32 feature maps, and the sixth convolution layer may generate two feature maps.

그리고, 영상 내의 질감, 기울기와 같은 영상의 세부적인 정보를 포함하는 저차원 특징맵 정보를 유지하기 위해 짧은 스킵 연결(short sskip-connection)과 긴 스킵 연결(long skip-connection)을 사용할 수 있다. 짧은 스킵 연결은 첫 번째 컨볼루션과 세 번째 컨볼루션 계층이 생성한 특징맵을 더하고, 긴 스킵 연결은 첫 번째 컨볼루션과 다섯 번째 컨볼루션이 생성한 특징맵을 더할 수 있다.In addition, short skip-connection and long skip-connection may be used to maintain low-dimensional feature map information including detailed information of the image, such as texture and gradient in the image. A short skip connection may add the feature maps generated by the first convolution and the third convolution layer, and a long skip connection may add the feature maps generated by the first convolution and the fifth convolution layer.

여섯 번째 컨볼루션 계층 수행 후, 슬라이스 간 해상도를 두 배로 증가시키기 위해 업 샘플링 계층(up-sampling layer)이 수행될 수 있다. 이때, 업 샘플링 계층은 두개의 특징맵을 사용하여 입력 영상의 슬라이스 간 방향으로 해상도를 증가시키는 서브 픽셀 컨볼루션(sub-pixel convolution) 연산을 사용하여 슬라이스 간 해상도가 개선된 영상을 출력할 수 있다.After performing the sixth convolution layer, an up-sampling layer may be performed to double the resolution between slices. In this case, the upsampling layer may output an image with improved inter-slice resolution by using a sub-pixel convolution operation that increases the resolution in the inter-slice direction of the input image using two feature maps. .

이후, 슬라이스 간 해상도가 증가된 영상에서 아직 원본 영상과 다르게 나타나는 세부적인 부분들을 개선하기 위해 3x3 크기 필터를 사용하는 4개의 컨볼루션 계층을 추가적으로 수행할 수 있다. 이때, 첫 번째부터 세 번째 컨볼루션 계층은 32개의 특징맵을 생성하며, 마지막 컨볼루션 계층은 1채널의 영상을 출력할 수 있다.Thereafter, four convolution layers using a 3x3 size filter may be additionally performed in order to improve detailed parts that still appear different from the original image in the image with increased inter-slice resolution. In this case, the first to third convolution layers generate 32 feature maps, and the last convolution layer can output an image of one channel.

이와 같이, 두번의 컨볼루션 계층(convolution layer)을 통한 컨볼루션 연산과 한번의 업 샘플링 계층(up-sampling layer)을 통한 업 샘플링 연산을 통해 이전에 제거됐었던 n개의 중간 슬라이스가 새롭게 생성될 수 있다In this way, n intermediate slices previously removed can be newly created through a convolution operation through two convolution layers and an up-sampling operation through one up-sampling layer. there is

그리고, 프로세서(16)는 이렇게 생성된 n개의 중간 슬라이스와 원본 영상 간의 차이를 최소화 하기 위해 시상면에서의 손실 함수를 이용한 연산을 수행할 수 있다.In addition, the processor 16 may perform an operation using a loss function in the sagittal plane to minimize the difference between the n intermediate slices generated in this way and the original image.

여기서, 상기 시상면에서의 손실 함수는, 아래 [수학식 1]과 같이, 상기 업 샘플링 연산에 의해 출력된 영상과 상기 전처리된 CT 영상 간 밝기값에 대한 오차 최소화 관련 손실 함수, 상기 슬라이스 간 해상도가 개선된 시상면 영상과 상기 전처리된 CT 영상 간 밝기값에 대한 오차 최소화 관련 손실 함수 및 상기 레이블 마스크의 시상면 영상을 이용한 상기 슬라이스 간 해상도가 개선된 시상면 영상과 상기 전처리된 CT 영상 간 기울기값에 대한 오차 최소화 관련 손실 함수의 합으로 계산될 수 있다.Here, the loss function in the sagittal plane is, as shown in [Equation 1] below, a loss function related to minimizing the error for the brightness value between the image output by the upsampling operation and the preprocessed CT image, and the resolution between the slices. Slope between the sagittal image with improved inter-slice resolution and the preprocessed CT image using a loss function related to error minimization for brightness values between the sagittal image with improved inter-slice resolution and the sagittal image of the label mask It can be calculated as the sum of loss functions related to error minimization for the values.

Figure 112021088937046-pat00001
Figure 112021088937046-pat00001

여기서, SRS는 네트워크를 통해 슬라이스 간 해상도가 개선된 시상면의 영상, SRup은 업 샘플링 계층의 출력 영상, OS는 원본 영상, MS는 시상면의 관심 영역(안와 영역) 레이블 마스크를 의미한다.Here, SR S is the image of the sagittal plane whose inter-slice resolution has been improved through the network, SR up is the output image of the upsampling layer, OS is the original image, and MS is the region of interest (orbital region) label mask in the sagittal plane. it means.

상기 슬라이스 간 해상도가 개선된 시상면 영상과 상기 전처리된 CT 영상 간 밝기값에 대한 오차 최소화 관련 손실 함수는 아래 [수학식 2]와 같이 표현될 수 있다.A loss function related to error minimization of brightness values between the sagittal plane image with improved inter-slice resolution and the preprocessed CT image can be expressed as [Equation 2] below.

Figure 112021088937046-pat00002
Figure 112021088937046-pat00002

여기서, W와 H는 원본 영상의 너비와 높이를 나타내고, i와 j는 영상의 화소 위치를 나타낸다. SRS는 네트워크를 통해 슬라이스 간 해상도가 개선된 시상면의 영상, OS는 원본 영상을 의미한다.Here, W and H represent the width and height of the original image, and i and j represent the pixel positions of the image. SR S denotes a sagittal image whose inter-slice resolution has been improved through the network, and OS denotes an original image.

이렇게 [수학식 2]를 사용함으로써, 본 발명은 네트워크의 최종 출력 영상과 원본 영상 간의 밝기값 차이를 최소화할 수 있다.By using [Equation 2] in this way, the present invention can minimize the brightness difference between the final output image of the network and the original image.

상기 업 샘플링 연산에 의해 출력된 영상과 상기 전처리된 CT 영상 간 밝기값에 대한 오차 최소화 관련 손실 함수는 [수학식3]와 같이 표현될 수 있다.A loss function related to error minimization of brightness values between the image output by the upsampling operation and the preprocessed CT image may be expressed as [Equation 3].

Figure 112021088937046-pat00003
Figure 112021088937046-pat00003

여기서, W와 H는 원본 영상의 너비와 높이를 나타내고, i와 j는 영상의 화소 위치를 나타낸다. SRup은 업 샘플링 계층의 출력 영상, OS는 원본 영상을 의미한다.Here, W and H represent the width and height of the original image, and i and j represent the pixel positions of the image. SR up means the output video of the upsampling layer, and OS means the original video.

이렇게 [수학식 3]을 사용함으로써, 본 발명은 최종 출력 영상뿐만 업 샘플링 계층의 출력 영상과 원본 영상의 밝기값의 차이를 최소화할 수 있다. 이로써 업 샘플링 계층에서부터 최대한 원본과 유사한 영상을 생성하기 수 있게 된다.By using [Equation 3] in this way, the present invention can minimize the difference between the brightness value of the final output image and the output image of the upsampling layer and the original image. This makes it possible to generate an image similar to the original as much as possible from the upsampling layer.

상기 레이블 마스크의 시상면 영상을 이용한 상기 슬라이스 간 해상도가 개선된 시상면 영상과 상기 전처리된 CT 영상 간 기울기값에 대한 오차 최소화 관련 손실 함수는 아래 [수학식 4]와 같이 표현될 수 있다.A loss function related to error minimization of the gradient between the preprocessed CT image and the sagittal image with improved inter-slice resolution using the sagittal image of the label mask can be expressed as [Equation 4] below.

Figure 112021088937046-pat00004
Figure 112021088937046-pat00004

여기서, W와 H는 원본 영상의 너비와 높이를 나타내고, i와 j는 영상의 화소 위치를 나타낸다. SRS는 네트워크를 통해 슬라이스 간 해상도가 개선된 시상면의 영상, OS는 원본 영상, MS는 시상면의 관심 영역(안와 영역) 레이블 마스크를 의미한다. E()는 소벨 엣지 검출기를 통해 추출한 시상면의 경계 영상을 의미한다.Here, W and H represent the width and height of the original image, and i and j represent the pixel positions of the image. SRS denotes a sagittal image with inter-slice resolution improved through the network, OS denotes an original image, and MS denotes a label mask for a region of interest (orbital region ) in the sagittal plane. E( ) denotes a boundary image of the sagittal plane extracted through the Sobel edge detector.

이렇게 [수학식 4]를 사용함으로써, 본 발명은 일반 기울기 손실 함수를 그대로 사용하는 대신 얇은 뼈 영역 내에서의 기울기 오차만을 반영할 수 있도록 안와 뼈 경계 인식 손실 함수(Orbitla bone edge-aware loss)를 통해 안와 영역 내 기울기 오차를 계산할 수 있다. 이로써, 면적이 좁고 대조대비가 낮은 안와 영역의 얇은 뼈의 특성을 고려할 수 있고, 네트워크가 중간 슬라이스 영상을 생성할 때 다른 영역 보다 안와 영역의 얇은 뼈의 경계 부분에 더 집중할 수 있게 하여 얇은 뼈의 경계가 더욱 명확한 중간 슬라이스 영상을 생성할 수 있다.By using [Equation 4] in this way, the present invention uses the orbital bone edge-aware loss function to reflect only the tilt error in the thin bone region instead of using the general tilt loss function as it is. Through this, the tilt error within the orbital region can be calculated. In this way, it is possible to consider the thin bone characteristics of the orbital region with a small area and low contrast, and when the network generates a mid-slice image, it is possible to focus more on the boundary of the thin bones in the orbital region than other regions, so that the thin bone A middle slice image with clearer boundaries may be generated.

다음으로, 프로세서(16)는 상기 새롭게 생성된 n개의 슬라이스의 횡단면 영상에 대해 딥러닝 기반 제2 연산을 수행하여, 상기 새롭게 생성된 n개의 슬라이스의 해상도를 개선할 수 있다(S140).Next, the processor 16 may improve the resolution of the newly generated n slices by performing a deep learning-based second operation on the cross-sectional images of the newly generated n slices (S140).

상기 제2 연산은, 횡단면에서의 손실 함수를 이용한 연산을 포함할 수 있다.The second operation may include an operation using a loss function in a cross section.

이하에서 도 5를 참조하여 안면부 CT 영상을 이용한 제2 연산에 대해 상세히 설명하도록 한다.Hereinafter, with reference to FIG. 5 , the second operation using the facial CT image will be described in detail.

상술한 바와 같이, 제1 연산은 시상면 영상의 정보만을 기반으로 해상도를 개선하기 때문에 추가적으로 제2 연산을 수행하여 새롭게 생성된 중간 슬라이스 영상의 횡단면의 영상에서 관심 영역(안와 영역)이 정확하게 나타날 수 있도록 중간 슬라이스 영상의 횡단면의 영상에 대한 손실 함수를 추가로 고려할 수 있다.As described above, since the first operation improves the resolution based only on the information of the sagittal plane image, the region of interest (orbital region) can be accurately displayed in the cross-sectional image of the newly created intermediate slice image by additionally performing the second operation. A loss function for an image of a cross section of an intermediate slice image may be additionally considered.

여기서, 상기 횡단면에서의 손실 함수는, 아래 [수학식 5]와 같이, 상기 새롭게 생성된 n개의 슬라이스의 횡단면 영상과 상기 전처리된 CT 영상 간 밝기값에 대한 오차 최소화 관련 손실 함수, 상기 레이블 마스크의 횡단면 영상을 이용한 상기 새롭게 생성된 n개의 슬라이스의 횡단면 영상과 상기 전처리된 CT 영상 간 기울기값에 대한 오차 최소화 관련 손실 함수 및 상기 새롭게 생성된 n개의 슬라이스의 횡단면 영상과 상기 전처리된 CT 영상 간 특징맵에 대한 차이 최소화 관련 손실 함수의 합으로 계산될 수 있다.Here, the loss function in the cross section is, as shown in [Equation 5] below, a loss function related to error minimization of the brightness values between the newly generated cross section images of the n slices and the preprocessed CT image, and the label mask A loss function related to error minimization for the gradient values between the newly generated cross-sectional images of the n slices using the cross-sectional images and the preprocessed CT images, and a feature map between the newly generated cross-sectional images of the n slices and the preprocessed CT images. It can be calculated as the sum of the loss functions associated with minimizing the difference for

Figure 112021088937046-pat00005
Figure 112021088937046-pat00005

여기서, SRA는 새롭게 생성된 중간 슬라이스 영상의 횡단면 영상, OA는 새롭게 생성된 중간 슬라이스 영상의 원본 영상, MA는 횡단면의 관심 영역(안와 영역) 레이블 마스크를 의미한다.Here, SR A denotes a cross-sectional image of the newly generated intermediate slice image, O A denotes an original image of the newly generated intermediate slice image, and M A denotes a cross-sectional ROI (orbital region) label mask.

상기 새롭게 생성된 n개의 슬라이스의 횡단면 영상과 상기 전처리된 CT 영상 간 밝기값에 대한 오차 최소화 관련 손실 함수는 아래 [수학식 6]과 같이 표현될 수 있다.A loss function related to error minimization of brightness values between the newly generated cross-sectional images of the n slices and the preprocessed CT image may be expressed as [Equation 6] below.

Figure 112021088937046-pat00006
Figure 112021088937046-pat00006

여기서, W와 H는 원본 영상의 너비와 높이를 나타내고, i와 j는 영상의 화소 위치를 나타낸다. SRA는 새롭게 생성된 중간 슬라이스 영상의 횡단면 영상, OA는 새롭게 생성된 중간 슬라이스 영상의 원본 영상을 의미한다.Here, W and H represent the width and height of the original image, and i and j represent the pixel positions of the image. SR A denotes a cross-sectional image of a newly created intermediate slice image, and O A denotes an original image of a newly generated intermediate slice image.

이렇게 [수학식 6]를 사용함으로써, 본 발명은 새롭게 생성된 중간 슬라이스 영상과 이와 대응되는 원본 영상의 중간 슬라이스 영상 간의 밝기값 차이를 최소화할 수 있다.By using [Equation 6] in this way, the present invention can minimize the brightness difference between the newly created middle slice image and the corresponding middle slice image of the original image.

상기 레이블 마스크의 횡단면 영상을 이용한 상기 새롭게 생성된 n개의 슬라이스의 횡단면 영상과 상기 전처리된 CT 영상 간 기울기값에 대한 오차 최소화 관련 손실 함수는 아래 [수학식 7]과 같이 표현될 수 있다.A loss function related to error minimization of a slope value between the newly generated cross-sectional images of the n slices using the cross-sectional images of the label mask and the preprocessed CT image can be expressed as [Equation 7] below.

Figure 112021088937046-pat00007
Figure 112021088937046-pat00007

여기서, W와 H는 원본 영상의 너비와 높이를 나타내고, i와 j는 영상의 화소 위치를 나타낸다. SRA는 새롭게 생성된 중간 슬라이스 영상의 횡단면 영상, OA는 새롭게 생성된 중간 슬라이스 영상의 원본 영상, MA는 횡단면의 관심 영역(안와 영역) 레이블 마스크를 의미한다. E()는 소벨 엣지 검출기를 통해 추출한 횡단면의 경계 영상을 의미한다.Here, W and H represent the width and height of the original image, and i and j represent the pixel positions of the image. SR A is the cross-sectional image of the newly created intermediate slice image, O A is the original image of the newly created intermediate slice image, and M A is the cross-sectional region-of-interest (orbital region) label mask. E( ) denotes a boundary image of a cross section extracted through a Sobel edge detector.

이렇게 [수학식 7]를 사용함으로써, 본 발명은 관심 영역(안와 영역) 내에서의 기울기 오차만을 계산할 수 있으며, 이는 피질골 및 얇은 뼈가 시상면 방향으로 흐리게 나타나는 문제를 해결하여 횡단면에서도 관심 영역(안와 영역)이 뚜렷한 중간 슬라이스 영상을 생성할 수 있도록 한다.By using [Equation 7] in this way, the present invention can calculate only the tilt error within the region of interest (orbital region), which solves the problem that cortical bones and thin bones appear blurry in the sagittal direction, and even in the cross section, the region of interest ( orbital region) to create a clear mid-slice image.

상기 새롭게 생성된 n개의 슬라이스의 횡단면 영상과 상기 전처리된 CT 영상 간 특징맵에 대한 차이 최소화 관련 손실 함수는 아래 [수학식 8]과 같이 표현될 수 있다.A loss function related to minimizing the difference between the newly generated cross-sectional images of the n slices and the preprocessed CT image for the feature map can be expressed as [Equation 8] below.

Figure 112021088937046-pat00008
Figure 112021088937046-pat00008

여기서, W와 H는 원본 영상의 너비와 높이를 나타낸다. SRA는 새롭게 생성된 중간 슬라이스 영상의 횡단면 영상, OA는 새롭게 생성된 중간 슬라이스 영상의 원본 영상을 의미한다.

Figure 112021088937046-pat00009
는 특정 분류 모델의 x번째 최대값 풀링 계층(max-pooling layer) 직전 y번째로 수행된 컨볼루션 계층에서 출력된 특징맵을 의미하고,
Figure 112021088937046-pat00010
Figure 112021088937046-pat00011
는 특징맵
Figure 112021088937046-pat00012
의 너비와 높이를 의미하고, i와 j는 특징맵
Figure 112021088937046-pat00013
에서의 화소 위치를 나타낸다. Here, W and H represent the width and height of the original image. SR A denotes a cross-sectional image of a newly created intermediate slice image, and O A denotes an original image of a newly generated intermediate slice image.
Figure 112021088937046-pat00009
denotes a feature map output from the y-th convolution layer performed immediately before the x-th max-pooling layer of a specific classification model,
Figure 112021088937046-pat00010
Wow
Figure 112021088937046-pat00011
is the feature map
Figure 112021088937046-pat00012
means the width and height of , and i and j are feature maps
Figure 112021088937046-pat00013
Indicates the pixel position in .

이렇게 [수학식 8]을 사용함으로써, 본 발명은 중간 슬라이스 영상의 지각적인 품질(perceptual quality)을 개선할 수 있다. 이때, 사용되는 특징맵은 이미지넷(ImageNet) 훈련 셋을 통해 영상을 분류하도록 사전에 훈련된 상기 특정 분류 모델(예를 들어, VGG16)을 통해 추출될 수 있으며, 특징맵은 특정 분류 모델이 입력 영상에 대해 추론한 고수준의 특징 정보를 포함할 수 있다. 특징맵의 차이를 손실 함수로 사용할 경우, 픽셀 단위로 수행되는 밝기값 차이 기반의 손실 함수 보다 원본 영상과 더 구조적으로 유사한 영상을 생성할 수 있다.By using [Equation 8] in this way, the present invention can improve the perceptual quality of the middle slice image. At this time, the feature map used can be extracted through the specific classification model (eg, VGG16) pre-trained to classify the image through the ImageNet training set, and the feature map is input to the specific classification model It can include high-level feature information inferred about the image. When the feature map difference is used as a loss function, an image more structurally similar to an original image can be generated than a loss function based on a difference in brightness values performed in units of pixels.

이렇게 OB-Net을 통해 모든 연산이 수행된 후 출력되는 최종 CT 영상은 종래의 방법에 따른 CT 영상에 비해 슬라이스 간 해상도가 크게 개선된 형태를 보인다.In this way, the final CT image output after all calculations are performed through OB-Net shows a form in which the resolution between slices is greatly improved compared to the CT image according to the conventional method.

도 6a 및 도 6b는 각각 종래의 방법 및 본 발명에 따른 방법을 통해 슬라이스 간 해상도가 개선된 시상면의 영상을 도시하고 있다. 도 6a를 참조하면, 종래의 방법에 따라 해상도가 개선된 CT 영상은 여전히 에일리어싱 현상 또는 일부가 흐리게 보이는 반면, 도 6b를 참조하면, 본 발명에 따라 해상도가 개선된 CT 영상은 종래에 비해 얇은 뼈 부분이 보다 매끄럽게 표현된 것을 확인할 수 있다.6A and 6B show sagittal images with improved inter-slice resolution through the conventional method and the method according to the present invention, respectively. Referring to FIG. 6A, the CT image whose resolution is improved according to the conventional method still shows aliasing or partly blurred, whereas, referring to FIG. 6B, the CT image whose resolution is improved according to the present invention shows thin bone compared to the prior art. It can be seen that the part is expressed more smoothly.

도 7a 및 도 7b는 각각 종래의 방법 및 본 발명에 따른 방법을 통해 슬라이스 간 해상도가 개선된 횡단면의 영상을 도시하고 있다. 도 7a를 참조하면, 종래의 방법에 따라 해상도가 개선된 CT 영상은 여전히 뼈의 경계가 불분명한 반면, 도 7b를 참조하면, 본 발명에 따라 해상도가 개선된 CT 영상은 종래에 비해 비교적 피질골 및 얇은 뼈의 경계가 명확하고, 끊어진 부분 없이 원본과 유사한 것을 확인할 수 있다.7A and 7B show cross-sectional images with improved inter-slice resolution through the conventional method and the method according to the present invention, respectively. Referring to FIG. 7A, the CT image whose resolution is improved according to the conventional method still has unclear bone boundaries, whereas, referring to FIG. 7B, the CT image whose resolution is improved according to the present invention is relatively cortical bone and The boundary of the thin bone is clear, and it can be confirmed that it is similar to the original without any broken parts.

상술한 바와 같이, 본 발명은 시상면과 횡단면에서 뼈(안와)의 특징 정보들을 고려하여 시상면으로 중간 슬라이스 영상을 생성하는 2차원 컨볼루션 신경망 네트워크를 사용하여 안면부 CT 영상의 슬라이스 간 해상도를 개선할 수 있다. 본 발명에 따른 OB-Net은 시상면과 횐당면에서 사용되는 안와 뼈 경계 인식 손실 함수를 통해 피질골뿐만 아니라 얇은 뼈의 형태 또한 명확하게 나타나는 중간 슬라이스 영상을 생성하고, 시상면의 단면 정보만으로 생성된 중간 슬라이스 영상의 횡단면에서 피질골 및 얇은 뼈의 경계가 흐릿하거나 일부분이 끊어지는 문제를 해결하였다. 또한, 사전 훈련된 영상 특징 추출 네트워크(특정 분류 모델)를 통해 원본 영상과 중간 슬라이스 영상의 특징맵 차이를 고려하는 손실 함수를 추가적으로 사용함으로써 횡단면의 중간 슬라이스 영상의 품질을 개선하였다.As described above, the present invention improves inter-slice resolution of face CT images by using a 2D convolutional neural network that generates mid-slice images in the sagittal plane by considering the feature information of bones (orbital fossa) in the sagittal plane and the transverse plane. can do. The OB-Net according to the present invention generates a mid-slice image in which not only the cortical bone but also the thin bone shape is clearly displayed through the orbital bone boundary recognition loss function used in the sagittal plane and the hyoid plane, and generated only with the cross-sectional information of the sagittal plane In the cross section of the middle slice image, the boundary between cortical bone and thin bone was blurred or partly cut off. In addition, the quality of the cross-sectional middle slice image was improved by additionally using a loss function that considers the feature map difference between the original image and the middle slice image through a pre-trained image feature extraction network (specific classification model).

도 2는 단계 S110 내지 단계 S140를 순차적으로 실행하는 것으로 기재하고 있으나, 이는 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 2에 기재된 순서를 변경하여 실행하거나 단계 S110 내지 단계 S140 중 하나 이상의 단계를 병렬적으로 실행하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이므로, 도 2는 시계열적인 순서로 한정되는 것은 아니다.2 describes that steps S110 to S140 are sequentially executed, but this is merely an example of the technical idea of this embodiment, and those skilled in the art to which this embodiment belongs will Since it will be possible to change and execute the order described in FIG. 2 without departing from the essential characteristics or to perform various modifications and variations by executing one or more steps of steps S110 to S140 in parallel, FIG. 2 is shown in a time-series order. It is not limited.

이상에서 전술한 본 발명의 일 실시예에 따른 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다. 여기서, 컴퓨터는 앞에서 설명한 장치(10)일 수 있다.The method according to an embodiment of the present invention described above may be implemented as a program (or application) to be executed in combination with a computer, which is hardware, and stored in a medium. Here, the computer may be the device 10 described above.

상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.The aforementioned program is C, C++, JAVA, machine language, etc. It may include a code coded in a computer language of. These codes may include functional codes related to functions defining necessary functions for executing the methods, and include control codes related to execution procedures necessary for the processor of the computer to execute the functions according to a predetermined procedure. can do. In addition, these codes may further include memory reference related codes for which location (address address) of the computer's internal or external memory should be referenced for additional information or media required for the computer's processor to execute the functions. there is. In addition, when the processor of the computer needs to communicate with any other remote computer or server in order to execute the functions, the code uses the computer's communication module to determine how to communicate with any other remote computer or server. It may further include communication-related codes for whether to communicate, what kind of information or media to transmit/receive during communication, and the like.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.Steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented in a software module executed by hardware, or implemented by a combination thereof. A software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art to which the present invention pertains.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.Although the embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features of the present invention. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

10: 장치
12: 통신부
14: 메모리
16: 프로세서
10: device
12: Communication department
14: memory
16: processor

Claims (14)

장치에 의해 수행되는 딥러닝 기반 CT 영상의 Z축 해상도 개선 방법에 있어서,
m개의 슬라이스를 포함하는 상기 CT 영상에 대한 전처리를 수행하는 단계(여기서 m은 자연수);
상기 전처리된 CT 영상에서 n개의 슬라이스가 제거된 시상면 영상을 입력 영상으로 생성하는 단계(여기서 n은 m보다 작은 자연수);
상기 입력 영상을 이용하여 딥러닝 기반 제1 연산을 수행하여 상기 제거된 n개의 슬라이스를 새롭게 생성하는 단계; 및
상기 새롭게 생성된 n개의 슬라이스의 횡단면 영상에 대해 딥러닝 기반 제2 연산을 수행하여, 상기 새롭게 생성된 n개의 슬라이스의 해상도를 개선하는 단계;를 포함하고,
상기 n은 상기 m의 절반 값이고,
상기 제거된 n개의 슬라이스는 상기 m개의 슬라이스 중 짝수 번째인 슬라이스인, 방법.
In the Z-axis resolution improvement method of a deep learning-based CT image performed by an apparatus,
performing pre-processing on the CT image including m slices (where m is a natural number);
generating a sagittal image from which n slices are removed from the preprocessed CT image as an input image (where n is a natural number smaller than m);
newly generating the removed n slices by performing a first operation based on deep learning using the input image; and
Improving the resolution of the newly generated n slices by performing a deep learning-based second operation on the cross-sectional images of the newly generated n slices;
Wherein n is half the value of m,
Wherein the removed n slices are even-numbered slices among the m slices.
삭제delete 제1항에 있어서,
상기 전처리 수행 단계는,
상기 CT 영상의 밝기값을 리스케일링(intensity rescaling)하고, 상기 리스케일링된 CT 영상을 검사 대상인 관심 영역만 남도록 크롭하는, 방법.
According to claim 1,
In the preprocessing step,
The method of rescaling the brightness value of the CT image (intensity rescaling), and cropping the rescaled CT image so that only the region of interest to be examined remains.
제1항에 있어서,
상기 입력 영상은,
상기 전처리된 CT 영상에 포함된 뼈가 표시된 레이블 마스크를 포함하고,
상기 레이블 마스크는 뼈인 부분은 1로 표시되고 뼈가 아닌 부분은 0으로 표시되는 이진 영상인, 방법.
According to claim 1,
The input image,
A label mask displaying bones included in the preprocessed CT image;
Wherein the label mask is a binary image in which bone portions are indicated as 1 and non-bone portions are indicated as 0.
제4항에 있어서,
상기 제거된 n개의 슬라이스를 새롭게 생성하는 단계는,
상기 제1 연산을 통해 상기 제거된 n개의 슬라이스를 새롭게 생성하여, 상기 새롭게 생성된 n개의 슬라이스가 포함되어 슬라이스 간 해상도가 개선된 시상면 영상을 출력하는 것이고,
상기 제1 연산은, 컨볼루션 계층(convolution layer)을 통한 컨볼루션 연산, 업 샘플링 계층(up-sampling layer)을 통한 업 샘플링 연산 및 시상면에서의 손실 함수를 이용한 연산을 포함하는, 방법.
According to claim 4,
The step of newly creating the removed n slices,
Newly generating the removed n slices through the first operation and outputting a sagittal plane image having improved inter-slice resolution by including the newly generated n slices,
The first operation includes a convolution operation through a convolution layer, an up-sampling operation through an up-sampling layer, and an operation using a loss function in a sagittal plane.
제5항에 있어서,
상기 시상면에서의 손실 함수는,
상기 업 샘플링 연산에 의해 출력된 영상과 상기 전처리된 CT 영상 간 밝기값에 대한 오차 최소화 관련 손실 함수, 상기 슬라이스 간 해상도가 개선된 시상면 영상과 상기 전처리된 CT 영상 간 밝기값에 대한 오차 최소화 관련 손실 함수 및 상기 레이블 마스크의 시상면 영상을 이용한 상기 슬라이스 간 해상도가 개선된 시상면 영상과 상기 전처리된 CT 영상 간 기울기값에 대한 오차 최소화 관련 손실 함수의 합으로 계산되는, 방법.
According to claim 5,
The loss function in the sagittal plane is,
A loss function related to error minimization of brightness values between the image output by the upsampling operation and the preprocessed CT image, and error minimization of brightness values between the sagittal plane image with improved inter-slice resolution and the preprocessed CT image The method according to claim 1 , wherein the inter-slice resolution using the loss function and the sagittal plane image of the label mask is calculated as the sum of error minimization-related loss functions for gradient values between the improved sagittal plane image and the preprocessed CT image.
제4항에 있어서,
상기 제2 연산은, 횡단면에서의 손실 함수를 이용한 연산을 포함하며,
상기 횡단면에서의 손실 함수는, 상기 새롭게 생성된 n개의 슬라이스의 횡단면 영상과 상기 전처리된 CT 영상 간 밝기값에 대한 오차 최소화 관련 손실 함수, 상기 레이블 마스크의 횡단면 영상을 이용한 상기 새롭게 생성된 n개의 슬라이스의 횡단면 영상과 상기 전처리된 CT 영상 간 기울기값에 대한 오차 최소화 관련 손실 함수 및 상기 새롭게 생성된 n개의 슬라이스의 횡단면 영상과 상기 전처리된 CT 영상 간 특징맵에 대한 차이 최소화 관련 손실 함수의 합으로 계산되는, 방법.
According to claim 4,
The second operation includes an operation using a loss function in a cross section,
The loss function in the cross-section is a loss function related to error minimization of the brightness value between the newly generated cross-sectional image of the n slices and the preprocessed CT image, and the newly generated n slices using the cross-sectional image of the label mask. Calculated as the sum of a loss function related to error minimization for the slope value between the cross-sectional image of n and the preprocessed CT image and a loss function related to minimizing the difference between the newly created cross-sectional image of n slices and the feature map between the preprocessed CT image how to become.
딥러닝 기반 CT 영상의 Z축 해상도 개선 장치에 있어서,
통신부;
상기 CT 영상의 해상도를 개선하기 위한 적어도 하나의 프로세스를 구비하는 메모리; 및
상기 프로세스에 따라 동작하는 프로세서;를 포함하고,
상기 프로세서는, 상기 프로세스를 기반으로,
m개의 슬라이스를 포함하는 상기 CT 영상에 대한 전처리를 수행하고(여기서 m은 자연수),
상기 전처리된 CT 영상에서 n개의 슬라이스가 제거된 시상면 영상을 입력 영상으로 생성하고(여기서 n은 m보다 작은 자연수),
상기 입력 영상을 이용하여 딥러닝 기반 제1 연산을 수행하여 상기 제거된 n개의 슬라이스를 새롭게 생성하고,
상기 새롭게 생성된 n개의 슬라이스의 횡단면 영상에 대해 딥러닝 기반 제2 연산을 수행하여, 상기 새롭게 생성된 n개의 슬라이스의 해상도를 개선하고,
상기 n은 상기 m의 절반 값이고,
상기 제거된 n개의 슬라이스는 상기 m개의 슬라이스 중 짝수 번째인 슬라이스인, 장치.
In the Z-axis resolution improvement device of deep learning-based CT image,
communications department;
a memory having at least one process for improving the resolution of the CT image; and
A processor operating according to the process; includes,
The processor, based on the process,
Preprocessing is performed on the CT image including m slices (where m is a natural number);
A sagittal image from which n slices are removed from the preprocessed CT image is generated as an input image (where n is a natural number smaller than m),
Performing a deep learning-based first operation using the input image to newly generate the removed n slices;
Performing a deep learning-based second operation on the cross-sectional images of the newly generated n slices to improve the resolution of the newly generated n slices;
Wherein n is half the value of m,
The removed n slices are even-numbered slices among the m slices.
삭제delete 제8항에 있어서,
상기 프로세서는,
상기 CT 영상의 밝기값을 리스케일링(intensity rescaling)하고, 상기 리스케일링된 CT 영상을 검사 대상인 관심 영역만 남도록 크롭하여 전처리를 수행하는, 장치.
According to claim 8,
the processor,
The apparatus of performing preprocessing by performing intensity rescaling of the CT image and cropping the rescaled CT image so that only the region of interest to be examined remains.
제8항에 있어서,
상기 입력 영상은,
상기 전처리된 CT 영상에 포함된 뼈가 표시된 레이블 마스크를 포함하고,
상기 레이블 마스크는 뼈인 부분은 1로 표시되고 뼈가 아닌 부분은 0으로 표시되는 이진 영상인, 장치.
According to claim 8,
The input image,
A label mask displaying bones included in the preprocessed CT image;
Wherein the label mask is a binary image in which bone portions are indicated as 1 and non-bone portions are indicated as 0.
제11항에 있어서,
상기 프로세서는,
상기 제1 연산을 통해 상기 제거된 n개의 슬라이스를 새롭게 생성하여, 상기 새롭게 생성된 n개의 슬라이스가 포함되어 슬라이스 간 해상도가 개선된 시상면 영상을 출력하고,
상기 제1 연산은, 컨볼루션 계층(convolution layer)을 통한 컨볼루션 연산, 업 샘플링 계층(up-sampling layer)을 통한 업 샘플링 연산 및 시상면에서의 손실 함수를 이용한 연산을 포함하는, 장치.
According to claim 11,
the processor,
The removed n slices are newly generated through the first operation, and a sagittal plane image having improved inter-slice resolution is output by including the newly generated n slices,
The first operation includes a convolution operation through a convolution layer, an up-sampling operation through an up-sampling layer, and an operation using a loss function in a sagittal plane.
제12항에 있어서,
상기 시상면에서의 손실 함수는,
상기 업 샘플링 연산에 의해 출력된 영상과 상기 전처리된 CT 영상 간 밝기값에 대한 오차 최소화 관련 손실 함수, 상기 슬라이스 간 해상도가 개선된 시상면 영상과 상기 전처리된 CT 영상 간 밝기값에 대한 오차 최소화 관련 손실 함수 및 상기 레이블 마스크의 시상면 영상을 이용한 상기 슬라이스 간 해상도가 개선된 시상면 영상과 상기 전처리된 CT 영상 간 기울기값에 대한 오차 최소화 관련 손실 함수의 합으로 계산되는, 장치.
According to claim 12,
The loss function in the sagittal plane is,
A loss function related to error minimization of brightness values between the image output by the upsampling operation and the preprocessed CT image, and error minimization of brightness values between the sagittal plane image with improved inter-slice resolution and the preprocessed CT image The apparatus of claim 1 , wherein the loss function and the sum of error minimization-related loss functions for gradient values between the preprocessed CT image and the sagittal plane image with improved inter-slice resolution using the sagittal plane image of the label mask are calculated.
제11항에 있어서,
상기 제2 연산은, 횡단면에서의 손실 함수를 이용한 연산을 포함하며,
상기 횡단면에서의 손실 함수는, 상기 새롭게 생성된 n개의 슬라이스의 횡단면 영상과 상기 전처리된 CT 영상 간 밝기값에 대한 오차 최소화 관련 손실 함수, 상기 레이블 마스크의 횡단면 영상을 이용한 상기 새롭게 생성된 n개의 슬라이스의 횡단면 영상과 상기 전처리된 CT 영상 간 기울기값에 대한 오차 최소화 관련 손실 함수 및 상기 새롭게 생성된 n개의 슬라이스의 횡단면 영상과 상기 전처리된 CT 영상 간 특징맵에 대한 차이 최소화 관련 손실 함수의 합으로 계산되는, 장치.
According to claim 11,
The second operation includes an operation using a loss function in a cross section,
The loss function in the cross-section is a loss function related to error minimization of the brightness value between the newly generated cross-sectional image of the n slices and the preprocessed CT image, and the newly generated n slices using the cross-sectional image of the label mask. Calculated as the sum of a loss function related to error minimization for the slope value between the cross-sectional image of n and the preprocessed CT image and a loss function related to minimizing the difference between the newly created cross-sectional image of n slices and the feature map between the preprocessed CT image Becoming device.
KR1020210101319A 2021-08-02 2021-08-02 Method and apparatus for improving z-axis resolution of ct images based on deep learning KR102488676B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210101319A KR102488676B1 (en) 2021-08-02 2021-08-02 Method and apparatus for improving z-axis resolution of ct images based on deep learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210101319A KR102488676B1 (en) 2021-08-02 2021-08-02 Method and apparatus for improving z-axis resolution of ct images based on deep learning

Publications (1)

Publication Number Publication Date
KR102488676B1 true KR102488676B1 (en) 2023-01-13

Family

ID=84900055

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210101319A KR102488676B1 (en) 2021-08-02 2021-08-02 Method and apparatus for improving z-axis resolution of ct images based on deep learning

Country Status (1)

Country Link
KR (1) KR102488676B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102155760B1 (en) 2019-06-25 2020-09-14 오스템임플란트 주식회사 APPARATUS AND METHOD FOR deciding Sleep
KR20200137768A (en) * 2019-05-31 2020-12-09 서울여자대학교 산학협력단 A Method and Apparatus for Segmentation of Orbital Bone in Head and Neck CT image by Using Deep Learning and Multi-Graylevel Network

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200137768A (en) * 2019-05-31 2020-12-09 서울여자대학교 산학협력단 A Method and Apparatus for Segmentation of Orbital Bone in Head and Neck CT image by Using Deep Learning and Multi-Graylevel Network
KR102155760B1 (en) 2019-06-25 2020-09-14 오스템임플란트 주식회사 APPARATUS AND METHOD FOR deciding Sleep

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Hee Rim Yun, Min Jin Lee, Helen Hong, Kyu Won Shim, and Jonghong Jeon, Improvement of inter-slice resolution based on 2D CNN with thin bone structure-aware on head-and-neck CT images, Proc. SPIE 11596, Medical Imaging 2021: Image Processing, 1159627, 15 February 2021(2021.02.15.) 1부.* *

Similar Documents

Publication Publication Date Title
US11455774B2 (en) Automated 3D root shape prediction using deep learning methods
ES2905660T3 (en) Procedure and system for computer-assisted triage
CN110473243B (en) Tooth segmentation method and device based on depth contour perception and computer equipment
CN110599421B (en) Model training method, video fuzzy frame conversion method, device and storage medium
CN114365181B (en) Automatic detection and replacement of identification information in images using machine learning
KR102314455B1 (en) A Method and Apparatus for Segmentation of Orbital Bone in Head and Neck CT image by Using Deep Learning and Multi-Graylevel Network
CN115953494B (en) Multi-task high-quality CT image reconstruction method based on low dose and super resolution
CN111209916A (en) Focus identification method and system and identification equipment
CN111696084B (en) Cell image segmentation method, device, electronic equipment and readable storage medium
US20230177698A1 (en) Method for image segmentation, and electronic device
CN112602114A (en) Image processing method and device, neural network and training method, and storage medium
KR20200132340A (en) Electronic device and Method for controlling the electronic device thereof
CN111096835A (en) Orthosis design method and system
US20180365876A1 (en) Method, apparatus and system for spine labeling
US11406340B2 (en) Method for converting tone of chest X-ray image, storage medium, image tone conversion apparatus, server apparatus, and conversion method
CN111951272A (en) Method and device for segmenting brain image, computer equipment and readable storage medium
Umirzakova et al. Medical image super-resolution for smart healthcare applications: A comprehensive survey
CN110021021B (en) Head image analysis device and image analysis method
Kanna et al. Radiological Imaging Techniques Using Dwt Methodology
US20230263493A1 (en) Maskless 2D/3D Artificial Subtraction Angiography
KR102488676B1 (en) Method and apparatus for improving z-axis resolution of ct images based on deep learning
CN111918611B (en) Method for controlling abnormal display of chest X-ray image, recording medium and apparatus
CN115439423A (en) CT image-based identification method, device, equipment and storage medium
KR20220046798A (en) Apparatus, method, and recording medium for diagnosing lung damage
CN113034642B (en) Image reconstruction method and device and training method and device of image reconstruction model

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant