KR20210153700A - Image processing method and apparatus, electronic device, storage medium and computer program - Google Patents

Image processing method and apparatus, electronic device, storage medium and computer program Download PDF

Info

Publication number
KR20210153700A
KR20210153700A KR1020217037806A KR20217037806A KR20210153700A KR 20210153700 A KR20210153700 A KR 20210153700A KR 1020217037806 A KR1020217037806 A KR 1020217037806A KR 20217037806 A KR20217037806 A KR 20217037806A KR 20210153700 A KR20210153700 A KR 20210153700A
Authority
KR
South Korea
Prior art keywords
image
processing
classification network
sub
result
Prior art date
Application number
KR1020217037806A
Other languages
Korean (ko)
Inventor
홍제 한
닝 후앙
Original Assignee
베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 filed Critical 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Publication of KR20210153700A publication Critical patent/KR20210153700A/en

Links

Images

Classifications

    • G06K9/6232
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06K9/6256
    • G06K9/6268
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung

Abstract

본 발명의 실시예는 이미지 처리 방법 및 장치, 전자 기기, 컴퓨터 저장 매체 및 컴퓨터 프로그램을 제공하고, 상기 이미지 처리 방법은, 제1 이미지 및 제2 이미지를 타깃 분류 네트워크에 입력하여 분류 결과를 획득하는 단계; 상기 분류 결과에 따라, 변화 데이터에 대해 예측을 수행하여 예측 결과를 획득하는 단계를 포함하며, 상기 변화 데이터는 상기 제1 이미지 중의 타깃 객체가 상기 제2 이미지 중의 영역 분포를 기반으로 처리를 수행하여 획득한 변화 상황을 나타낸다.An embodiment of the present invention provides an image processing method and apparatus, an electronic device, a computer storage medium and a computer program, wherein the image processing method inputs a first image and a second image to a target classification network to obtain a classification result step; and obtaining a prediction result by performing prediction on change data according to the classification result, wherein a target object in the first image is processed based on a region distribution in the second image, Indicates the status of the acquired change.

Description

이미지 처리 방법 및 장치, 전자 기기, 저장 매체 및 컴퓨터 프로그램Image processing method and apparatus, electronic device, storage medium and computer program

관련 출원의 상호 참조Cross-referencing of related applications

본원 발명은 출원번호가 201910918450.1이고 출원일자가 2019년 09월 26일인 중국 특허 출원에 기반하여 제출하였고 상기 중국 특허 출원의 우선권을 주장하는 바, 상기 중국 특허 출원의 모든 내용은 참조로서 본원 발명에 인용된다.The present invention is filed based on a Chinese patent application with an application number of 201910918450.1 and a filing date of September 26, 2019, and claims the priority of the Chinese patent application, all contents of the Chinese patent application are incorporated herein by reference. .

본 발명의 실시예는 컴퓨터 시각 기술 분야에 관한 것으로, 구체적으로 이미지 처리 방법 및 장치, 전자 기기, 컴퓨터 저장 매체 및 컴퓨터 프로그램에 관한 것이지만 이에 한정되지 않는다.Embodiments of the present invention relate to the field of computer vision technology, and specifically, to an image processing method and apparatus, an electronic device, a computer storage medium, and a computer program, but is not limited thereto.

딥 러닝은 빠르게 성장하여, 이미지 처리 분야에서 뚜렷한 성과를 거두었다. 현재 딥 러닝을 기반으로 한 이미지 처리 기술은 병소 진전을 예측하기 위해 여러 처리 과정을 거쳐야 하므로, 처리 과정이 번거로울 뿐만 아니라 이를 통해 획득한 예측 결과의 정확성도 높지 않다.Deep learning has grown rapidly and has made remarkable achievements in image processing. Current image processing technology based on deep learning requires multiple processing steps to predict lesion progression, so the processing process is cumbersome and the accuracy of the prediction results obtained through this process is not high.

본 발명의 실시예는 이미지 처리 방법 및 장치, 전자 기기, 컴퓨터 저장 매체 및 컴퓨터 프로그램을 제공한다.An embodiment of the present invention provides an image processing method and apparatus, an electronic device, a computer storage medium, and a computer program.

본 발명의 실시예는,An embodiment of the present invention is

제1 이미지 및 제2 이미지를 타깃 분류 네트워크에 입력하여 분류 결과를 획득하는 단계; 및inputting the first image and the second image into a target classification network to obtain a classification result; and

상기 분류 결과에 따라, 변화 데이터에 대해 예측을 수행하여 예측 결과를 획득하는 단계를 포함하고, according to the classification result, performing prediction on change data to obtain a prediction result,

상기 변화 데이터는 상기 제1 이미지 중의 타깃 객체가 상기 제2 이미지 중의 영역 분포를 기반으로 처리를 수행하여 획득한 변화 상황을 나타내는 이미지 처리 방법을 제공한다.The change data provides an image processing method representing a change state obtained by processing the target object in the first image based on the area distribution in the second image.

본 발명의 실시예의 기술적 해결수단에서는 하나의 타깃 분류 네트워크만 사용하여 분류 결과를 획득할 수 있으므로, 이미지 처리 프로세스를 단순화하고, 또한 상기 분류 결과는 제1 이미지 및 제2 이미지를 상기 타깃 분류 네트워크에 공동으로 입력하여 획득한 것이며, 분류 결과에 따라 상기 제1 이미지 중의 타깃 객체가 상기 제2 이미지 중의 영역 분포를 기반으로 처리를 수행하여 획득한 변화 상황에 대해 예측을 수행함으로써, 예측 결과의 정확성을 향상시킨다.In the technical solution of the embodiment of the present invention, the classification result can be obtained using only one target classification network, thereby simplifying the image processing process, and the classification result is the first image and the second image in the target classification network. Accuracy of the prediction result is improved by performing prediction on a change situation obtained by jointly inputting and acquiring the target object in the first image based on the area distribution in the second image according to the classification result. improve

본 발명의 일부 실시예에서, 상기 이미지 처리 방법은,In some embodiments of the present invention, the image processing method comprises:

분류 네트워크에 대해 트레이닝을 수행하여 트레이닝된 분류 네트워크를 획득하는 단계; 및performing training on the classification network to obtain a trained classification network; and

상기 트레이닝된 분류 네트워크를 상기 타깃 분류 네트워크로 하는 단계를 더 포함한다.The method further includes making the trained classification network the target classification network.

본 발명의 실시예의 기술적 해결수단을 사용하면, 트레이닝된 분류 네트워크를 타깃 분류 네트워크로 함으로써, 타깃 분류 네트워크를 사용하여 분류 결과를 획득할 수 있고, 분류 결과에 따라 상기 제1 이미지 중의 타깃 객체가 상기 제2 이미지 중의 영역 분포를 기반으로 처리를 수행하여 획득한 변화 상황에 대해 예측을 수행함으로써, 예측 결과의 정확성을 향상시킨다.Using the technical solution of the embodiment of the present invention, by using the trained classification network as the target classification network, a classification result can be obtained using the target classification network, and according to the classification result, the target object in the first image is The accuracy of the prediction result is improved by performing prediction on the change situation obtained by performing processing based on the area distribution in the second image.

본 발명의 일부 실시예에서, 상기 분류 네트워크에 대해 트레이닝을 수행하여 트레이닝된 분류 네트워크를 획득하는 단계는,In some embodiments of the present invention, performing training on the classification network to obtain a trained classification network includes:

제1 이미지 및 제2 이미지에 대해 이미지 중첩 처리를 수행한 후 처리할 이미지를 획득하는 단계 - 상기 제1 이미지 및 상기 제2 이미지는 상이한 유형의 이미지 데이터임 - ; 및obtaining an image to be processed after performing image superposition processing on the first image and the second image, wherein the first image and the second image are different types of image data; and

상기 처리할 이미지를 트레이닝 샘플로서 상기 분류 네트워크에 입력하여 트레이닝을 수행함으로써, 상기 트레이닝된 분류 네트워크를 획득하는 단계를 포함한다.and obtaining the trained classification network by performing training by inputting the image to be processed as a training sample into the classification network.

본 발명의 실시예의 기술적 해결수단을 사용하면, 제1 이미지 및 제2 이미지에 대해 이미지 중첩 처리를 수행한 후 획득되는 처리할 이미지에 따라 분류 네트워크의 트레이닝을 수행하는데, 이 두 가지 이미지 데이터를 종합적으로 고려하여 상기 분류 네트워크에서 트레이닝을 수행함으로써, 트레이닝의 정밀도를 획득할 수 있다.Using the technical solution of the embodiment of the present invention, training of the classification network is performed according to the image to be processed obtained after performing image superposition processing on the first image and the second image, and the two image data are combined It is possible to obtain training precision by performing training in the classification network in consideration of .

본 발명의 일부 실시예에서, 상기 처리할 이미지를 획득하는 단계는,In some embodiments of the present invention, obtaining the image to be processed comprises:

상기 타깃 객체의 윤곽에 따라, 상기 제1 이미지 및 상기 제2 이미지에 대해 각각 이미지 잘라내기를 수행하여, 잘라낸 제1 서브 이미지 데이터 및 제2 서브 이미지 데이터를 획득하는 단계; 및performing image cropping on the first image and the second image according to the contour of the target object, respectively, to obtain cropped first sub-image data and second sub-image data; and

상기 제1 서브 이미지 데이터 및 상기 제2 서브 이미지 데이터를 상기 처리할 이미지로 하는 단계를 포함한다.and using the first sub-image data and the second sub-image data as the image to be processed.

본 발명의 실시예의 기술적 해결수단을 사용하면, 상기 타깃 객체의 윤곽에 따라, 제1 이미지 및 상기 제2 이미지를 각각 잘라내어 잘라낸 제1 서브 이미지 데이터 및 제2 서브 이미지 데이터를 획득하고, 상기 분류 네트워크의 트레이닝에 사용하므로, 트레이닝 효율을 향상시킬 수 있다.Using the technical solution of the embodiment of the present invention, according to the outline of the target object, the first image and the second image are respectively cut out to obtain the cut out first sub image data and the second sub image data, and the classification network Since it is used for training of , training efficiency can be improved.

본 발명의 일부 실시예에서, 상기 제1 서브 이미지 데이터 및 상기 제2 서브 이미지 데이터는 동일한 사이즈의 이미지 데이터이다.In some embodiments of the present invention, the first sub-image data and the second sub-image data are image data of the same size.

본 발명의 실시예의 기술적 해결수단에서는 동일한 사이즈의 이미지 데이터를 사용하여, 이미지 중첩 처리 프로세스에서 픽셀 위치를 정렬할 필요없이 제1 서브 이미지 데이터 및 제2 서브 이미지 데이터를 직접 사용하여 이미지 중첩을 구현하면 되므로, 이미지 중첩의 처리 효율을 향상시킨다.In the technical solution of the embodiment of the present invention, by using image data of the same size, image overlap is implemented by directly using the first sub-image data and the second sub-image data without the need to align the pixel positions in the image overlap processing process. Therefore, the processing efficiency of image superposition is improved.

본 발명의 일부 실시예에서, 상기 처리할 이미지를 트레이닝 샘플로서 상기 분류 네트워크에 입력하여 트레이닝을 수행함으로써, 상기 트레이닝된 분류 네트워크를 획득하는 단계는,In some embodiments of the present invention, the step of obtaining the trained classification network by inputting the image to be processed into the classification network as a training sample to perform training comprises:

상기 제1 서브 이미지 데이터 및 상기 제2 서브 이미지 데이터를 각각 대응되는 히스토그램으로 변환시키고, 히스토그램을 균등화 처리하여 균등화 처리 결과를 획득하는 단계; 및converting the first sub-image data and the second sub-image data into corresponding histograms, respectively, and equalizing the histograms to obtain an equalization result; and

상기 균등화 처리 결과를 기반으로 상기 분류 네트워크에 대해 트레이닝을 수행하여 상기 트레이닝된 분류 네트워크를 획득하는 단계를 포함한다.and performing training on the classification network based on the equalization processing result to obtain the trained classification network.

본 발명의 실시예의 기술적 해결수단을 사용하여, 이미지 데이터를 대응되는 히스토 그램으로 변환시키고 히스토그램의 균등화 처리를 수행함으로써, 이미지의 히스토그램 분포를 거의 균일한 분포로 변화시킬 수 있어, 이미지의 콘트라스트를 증가시키고 이미지가 더욱 선명하도록 한다.By using the technical solution of the embodiment of the present invention, by converting the image data into a corresponding histogram and performing equalization processing of the histogram, it is possible to change the distribution of the histogram of the image to an almost uniform distribution, thereby improving the contrast of the image. increase and make the image sharper.

본 발명의 일부 실시예에서, 상기 처리할 이미지를 트레이닝 샘플로서 상기 분류 네트워크에 입력하여 트레이닝을 수행함으로써, 상기 트레이닝된 분류 네트워크를 획득하는 단계는,In some embodiments of the present invention, the step of obtaining the trained classification network by inputting the image to be processed into the classification network as a training sample to perform training comprises:

상기 제1 서브 이미지 데이터 및 상기 제2 서브 이미지 데이터에 포함된 대응하는 픽셀점에 대해 정규화 처리를 수행하여 정규화 처리 결과를 획득하는 단계; 및obtaining a normalization processing result by performing normalization processing on corresponding pixel points included in the first sub-image data and the second sub-image data; and

상기 정규화 처리 결과를 기반으로 상기 분류 네트워크에 대해 트레이닝을 수행하여 상기 트레이닝된 분류 네트워크를 획득하는 단계를 포함한다.and performing training on the classification network based on the normalization processing result to obtain the trained classification network.

본 발명의 실시예의 기술적 해결수단을 사용하여, 픽셀점에 대해 정규화 처리를 수행하면 픽셀점의 분포성을 요약해낼 수 있어, 처리가 필요한 픽셀점을 정규화 처리를 거친 후 사전 설정된 범위 내에 제한되게 할 수 있다. 다시 말해서, 정규화 처리는 후속되는 일련의 처리가 더욱 편리하고 신속하도록 하기 위한 것이며, 분류 네트워크 트레이닝의 수렴 속도를 가속화하는데 유리하다.By using the technical solution of the embodiment of the present invention, if normalization processing is performed on pixel points, the distribution of pixel points can be summarized, so that pixel points requiring processing are limited within a preset range after normalization processing can In other words, the normalization process is to make a subsequent series of processes more convenient and quick, and is advantageous for accelerating the convergence speed of classification network training.

본 발명의 일부 실시예에서, 상기 분류 네트워크는 적어도 하나의 분류 처리 모듈을 포함하고,In some embodiments of the present invention, the classification network comprises at least one classification processing module,

상기 처리할 이미지를 트레이닝 샘플로서 상기 분류 네트워크에 입력하여 트레이닝을 수행함으로써, 상기 트레이닝된 분류 네트워크를 획득하는 단계는,Obtaining the trained classification network by performing training by inputting the image to be processed into the classification network as a training sample,

상기 적어도 하나의 분류 처리 모듈을 통해 상기 처리할 이미지에 대해 특징 추출, 차원 축소 처리 및 글로벌 평균 풀링 처리를 수행하여 손실 함수를 획득하는 단계; 및obtaining a loss function by performing feature extraction, dimension reduction processing, and global average pooling processing on the image to be processed through the at least one classification processing module; and

상기 손실 함수의 역전파에 따라 상기 분류 네트워크를 트레이닝시켜 상기 트레이닝된 분류 네트워크를 획득하는 단계를 포함한다.and training the classification network according to the backpropagation of the loss function to obtain the trained classification network.

본 발명의 실시예의 기술적 해결수단을 사용하여, 적어도 하나의 분류 처리 모듈을 통해 처리할 이미지에 대해 특징 추출, 차원 축소 처리 및 글로벌 평균 풀링 처리를 수행하여 손실 함수를 획득할 수 있고, 상기 손실 함수의 역전파에 따라 상기 분류 네트워크를 트레이닝시킴으로써, 상기 타깃 분류 네트워크를 트레이닝하여 획득한다.By using the technical solution of the embodiment of the present invention, it is possible to obtain a loss function by performing feature extraction, dimensionality reduction processing, and global average pooling processing on the image to be processed through at least one classification processing module, and the loss function By training the classification network according to the backpropagation of , the target classification network is trained and obtained.

본 발명의 일부 실시예에서, 각각의 분류 처리 모듈은 적어도 콘볼루션 계층을 포함하고,In some embodiments of the present invention, each classification processing module includes at least a convolutional layer,

상기 적어도 하나의 분류 처리 모듈을 통해 상기 처리할 이미지에 대해 특징 추출, 차원 축소 처리 및 글로벌 평균 풀링 처리를 수행하여 손실 함수를 획득하는 단계는,The step of obtaining a loss function by performing feature extraction, dimensionality reduction processing, and global average pooling processing on the image to be processed through the at least one classification processing module includes:

상기 적어도 하나의 분류 처리 모듈 중의 대응하는 콘볼루션 계층을 통해 상기 처리할 이미지에 대해 특징 추출을 수행한 후, 차원 축소 처리를 수행하여 제1 처리 결과를 획득하는 단계;obtaining a first processing result by performing feature extraction on the image to be processed through a corresponding convolutional layer in the at least one classification processing module, and then performing dimensionality reduction processing;

상기 제1 처리 결과에 대해 글로벌 평균 풀링 처리를 수행한 후 완전 연결 계층에 입력하여 추출된 특징의 예측 변화 상황을 나타내기 위한 제2 처리 결과를 획득하는 단계; 및performing global average pooling processing on the first processing result and then inputting it to a fully connected layer to obtain a second processing result for indicating a prediction change state of the extracted feature; and

상기 제2 처리 결과 및 수동 라벨링 결과에 따라 상기 손실 함수를 획득하는 단계를 포함한다.and obtaining the loss function according to the second processing result and the manual labeling result.

본 발명의 실시예의 기술적 해결수단을 사용하면, 차원 축소 처리 후 획득한 제1 처리 결과에 따라 제2 처리 결과를 획득할 수 있고, 상기 제2 처리 결과 및 수동 라벨링 결과에 따라 상기 손실 함수를 획득하여, 상기 손실 함수의 역전파에 따라 상기 분류 네트워크를 트레이닝시킴으로써, 상기 타깃 분류 네트워크를 트레이닝하여 획득한다.Using the technical solution of the embodiment of the present invention, a second processing result can be obtained according to the first processing result obtained after the dimension reduction processing, and the loss function is obtained according to the second processing result and the manual labeling result Thus, by training the classification network according to the backpropagation of the loss function, the target classification network is trained and obtained.

본 발명의 일부 실시예에서, 상기 분류 처리 모듈이 잔차 모듈일 경우, 각각의 잔차 모듈은 콘볼루션 계층, 정규화 계층 및 활성화 계층을 포함하고,In some embodiments of the present invention, when the classification processing module is a residual module, each residual module includes a convolutional layer, a normalization layer and an activation layer,

상기 적어도 하나의 분류 처리 모듈 중의 대응하는 콘볼루션 계층을 통해 상기 처리할 이미지에 대해 특징 추출을 수행한 후에,After performing feature extraction on the image to be processed through a corresponding convolutional layer in the at least one classification processing module,

적어도 하나의 잔차 모듈 중의 대응하는 콘볼루션 계층을 통해 상기 처리할 이미지에 대해 특징 추출을 수행한 후 획득한 제1 추출 결과에 대해 정규화 계층 및 활성화 계층을 통해 처리한 후 제2 추출 결과를 획득하는 단계; 및Obtaining a second extraction result after processing through a normalization layer and an activation layer on a first extraction result obtained after performing feature extraction on the image to be processed through a corresponding convolutional layer in at least one residual module step; and

상기 제2 추출 결과 및 상기 처리할 이미지에 따라 제3 추출 결과를 획득하는 단계를 더 포함한다.The method further includes obtaining a third extraction result according to the second extraction result and the image to be processed.

본 발명의 실시예의 기술적 해결수단을 사용하여, 분류 처리 모듈이 잔차 모듈일 경우, 상기 모듈의 구조는 콘볼루션 계층, 정규화 계층 및 활성화 계층을 포함하고, 잔차 모듈의 대응하는 콘볼루션 계층을 통해 특징 추출을 수행한 후 획득한 제1 추출 결과에 대해 정규화 계층 및 활성화 계층을 통해 처리한 후 제2 추출 결과를 획득하고, 상기 제2 추출 결과 및 상기 처리할 이미지에 따라 제3 추출 결과를 획득할 수 있어, 상기 제3 추출 결과에 따라 손실 함수를 산출하기 위한 제1 처리 결과를 획득하며, 손실 함수를 획득한 후, 상기 손실 함수의 역전파에 따라 상기 분류 네트워크를 트레이닝시킴으로써, 상기 타깃 분류 네트워크를 트레이닝하여 획득한다.Using the technical solution of the embodiment of the present invention, when the classification processing module is a residual module, the structure of the module includes a convolutional layer, a normalization layer and an activation layer, and is characterized through the corresponding convolutional layer of the residual module For the first extraction result obtained after performing extraction, after processing through the normalization layer and the activation layer, the second extraction result is obtained, and the third extraction result is obtained according to the second extraction result and the image to be processed. to obtain a first processing result for calculating a loss function according to the third extraction result, and after obtaining the loss function, by training the classification network according to backpropagation of the loss function, the target classification network acquired by training.

본 발명의 일부 실시예에서, 상기 차원 축소 처리를 수행하여 제1 처리 결과를 획득하는 단계는,In some embodiments of the present invention, the step of performing the dimension reduction processing to obtain a first processing result includes:

상기 제3 추출 결과에 따라 차원 축소 처리를 수행하여 상기 제1 처리 결과를 획득하는 단계를 포함한다.and performing dimensionality reduction processing according to the third extraction result to obtain the first processing result.

본 발명의 실시예의 기술적 해결수단을 사용하면, 제3 추출 결과에 대해 차원 축소 처리를 수행하여, 손실 함수를 산출하기 위한 제1 처리 결과를 획득할 수 있고, 손실 함수를 획득한 후, 상기 손실 함수의 역전파에 따라 상기 분류 네트워크를 트레이닝시킴으로써, 상기 타깃 분류 네트워크를 트레이닝하여 획득한다.Using the technical solution of the embodiment of the present invention, it is possible to obtain a first processing result for calculating a loss function by performing dimensionality reduction processing on the third extraction result, and after obtaining the loss function, the loss By training the classification network according to the backpropagation of a function, the target classification network is trained and obtained.

본 발명의 실시예는,An embodiment of the present invention is

제1 이미지 및 제2 이미지를 타깃 분류 네트워크에 입력하여 분류 결과를 획득하도록 구성된 분류부; 및a classification unit configured to input the first image and the second image into the target classification network to obtain a classification result; and

상기 분류 결과에 따라, 변화 데이터에 대해 예측을 수행하여 예측 결과를 획득하도록 구성된 예측부를 포함하고,a prediction unit configured to obtain a prediction result by performing prediction on the change data according to the classification result;

상기 변화 데이터는 상기 제1 이미지 중의 타깃 객체가 상기 제2 이미지 중의 영역 분포를 기반으로 처리를 수행하여 획득한 변화 상황을 나타내는 이미지 처리 장치를 더 제공한다.The change data further provides an image processing apparatus indicating a change state obtained by processing the target object in the first image based on the area distribution in the second image.

본 발명의 일부 실시예에서, 상기 이미지 처리 장치는,In some embodiments of the present invention, the image processing device comprises:

분류 네트워크에 대해 트레이닝을 수행하여 트레이닝된 분류 네트워크를 획득하고,performing training on the classification network to obtain a trained classification network;

상기 트레이닝된 분류 네트워크를 상기 타깃 분류 네트워크로 하도록 구성된 트레이닝부를 더 포함한다.and a training unit configured to use the trained classification network as the target classification network.

본 발명의 일부 실시예에서, 상기 트레이닝부는,In some embodiments of the present invention, the training unit,

제1 이미지 및 제2 이미지에 대해 이미지 중첩 처리를 수행한 후 처리할 이미지를 획득하도록 구성된 중첩 서브부 - 상기 제1 이미지 및 상기 제2 이미지는 상이한 유형의 이미지 데이터임 - ; 및an overlapping sub-unit configured to obtain an image to be processed after performing image overlap processing on the first image and the second image, wherein the first image and the second image are different types of image data; and

상기 처리할 이미지를 트레이닝 샘플로서 상기 분류 네트워크에 입력하여 트레이닝을 수행함으로써, 상기 트레이닝된 분류 네트워크를 획득하도록 구성된 트레이닝 서브부를 포함한다.and a training sub-unit, configured to obtain the trained classification network by performing training by inputting the image to be processed as a training sample into the classification network.

본 발명의 일부 실시예에서, 상기 트레이닝부는,In some embodiments of the present invention, the training unit,

상기 타깃 객체의 윤곽에 따라, 상기 제1 이미지 및 상기 제2 이미지에 대해 각각 이미지 잘라내기를 수행하여, 잘라낸 제1 서브 이미지 데이터 및 제2 서브 이미지 데이터를 획득하고, 상기 제1 서브 이미지 데이터 및 상기 제2 서브 이미지 데이터를 상기 처리할 이미지로 하도록 구성된 분할 서브부를 더 포함한다.According to the contour of the target object, image cropping is performed on the first image and the second image, respectively, to obtain cropped first sub-image data and second sub-image data, and the first sub-image data and the and a division sub-unit configured to use the second sub-image data as the image to be processed.

본 발명의 일부 실시예에서, 상기 제1 서브 이미지 데이터 및 상기 제2 서브 이미지 데이터는 동일한 사이즈의 이미지 데이터이다.In some embodiments of the present invention, the first sub-image data and the second sub-image data are image data of the same size.

본 발명의 일부 실시예에서, 상기 트레이닝부는,In some embodiments of the present invention, the training unit,

상기 제1 서브 이미지 데이터 및 상기 제2 서브 이미지 데이터를 각각 대응되는 히스토그램으로 변환시키고, 히스토그램을 균등화 처리하여 균등화 처리 결과를 획득하며, 상기 균등화 처리 결과를 기반으로 상기 분류 네트워크에 대해 트레이닝을 수행하여 상기 트레이닝된 분류 네트워크를 획득하도록 구성된 균등화 처리 서브부를 더 포함한다.Converting the first sub-image data and the second sub-image data into corresponding histograms, performing equalization processing on the histogram to obtain equalization processing results, and performing training on the classification network based on the equalization processing results and an equalization processing sub-unit, configured to obtain the trained classification network.

본 발명의 일부 실시예에서, 상기 트레이닝부는,In some embodiments of the present invention, the training unit,

상기 제1 서브 이미지 데이터 및 상기 제2 서브 이미지 데이터에 포함된 대응하는 픽셀점에 대해 정규화 처리를 수행하여 정규화 처리 결과를 획득하고, 상기 정규화 처리 결과를 기반으로 상기 분류 네트워크에 대해 트레이닝을 수행하여 상기 트레이닝된 분류 네트워크를 획득하도록 구성된 정규화 처리 서브부를 더 포함한다.Normalization processing is performed on corresponding pixel points included in the first sub-image data and the second sub-image data to obtain a normalization processing result, and training is performed on the classification network based on the normalization processing result. and a normalization processing sub-unit, configured to obtain the trained classification network.

본 발명의 일부 실시예에서, 상기 분류 네트워크는 적어도 하나의 분류 처리 모듈을 포함하고,In some embodiments of the present invention, the classification network comprises at least one classification processing module,

상기 트레이닝 서브부는,The training sub unit,

상기 적어도 하나의 분류 처리 모듈을 통해 상기 처리할 이미지에 대해 특징 추출, 차원 축소 처리 및 글로벌 평균 풀링 처리를 수행하여 손실 함수를 획득하고, 상기 손실 함수의 역전파에 따라 상기 분류 네트워크를 트레이닝시켜 상기 트레이닝된 분류 네트워크를 획득하도록 구성된다.A loss function is obtained by performing feature extraction, dimensionality reduction processing, and global average pooling processing on the image to be processed through the at least one classification processing module, and training the classification network according to the backpropagation of the loss function. and obtain a trained classification network.

본 발명의 일부 실시예에서, 각각의 분류 처리 모듈은 적어도 콘볼루션 계층을 포함하고,In some embodiments of the present invention, each classification processing module includes at least a convolutional layer,

상기 트레이닝 서브부는,The training sub unit,

상기 적어도 하나의 분류 처리 모듈 중의 대응하는 콘볼루션 계층을 통해 상기 처리할 이미지에 대해 특징 추출을 수행한 후, 차원 축소 처리를 수행하여 제1 처리 결과를 획득하고, 상기 제1 처리 결과에 대해 글로벌 평균 풀링 처리를 수행한 후 완전 연결 계층에 입력하여 추출된 특징의 예측 변화 상황을 나타내기 위한 제2 처리 결과를 획득하며, 상기 제2 처리 결과 및 수동 라벨링 결과에 따라 상기 손실 함수를 획득하도록 구성된다.After performing feature extraction on the image to be processed through a corresponding convolutional layer in the at least one classification processing module, dimensionality reduction processing is performed to obtain a first processing result, and a global After performing the average pooling processing, input to the fully connected layer to obtain a second processing result for representing the predicted change state of the extracted feature, and to obtain the loss function according to the second processing result and manual labeling result do.

본 발명의 일부 실시예에서, 상기 분류 처리 모듈이 잔차 모듈일 경우, 각각의 잔차 모듈은 콘볼루션 계층, 정규화 계층 및 활성화 계층을 포함하고,In some embodiments of the present invention, when the classification processing module is a residual module, each residual module includes a convolutional layer, a normalization layer and an activation layer,

상기 트레이닝 서브부는,The training sub unit,

적어도 하나의 잔차 모듈 중의 대응하는 콘볼루션 계층을 통해 상기 처리할 이미지에 대해 특징 추출을 수행한 후 획득한 제1 추출 결과에 대해 정규화 계층 및 활성화 계층을 통해 처리한 후 제2 추출 결과를 획득하고, 상기 제2 추출 결과 및 상기 처리할 이미지에 따라 제3 추출 결과를 획득하도록 구성된다.A first extraction result obtained after performing feature extraction on the image to be processed through a corresponding convolutional layer in at least one residual module is processed through a normalization layer and an activation layer, and a second extraction result is obtained, , to obtain a third extraction result according to the second extraction result and the image to be processed.

본 발명의 일부 실시예에서, 상기 트레이닝 서브부는, 상기 제3 추출 결과에 따라 차원 축소 처리를 수행하여 상기 제1 처리 결과를 획득하도록 구성된다.In some embodiments of the present invention, the training sub-unit is configured to perform dimensionality reduction processing according to the third extraction result to obtain the first processing result.

본 발명의 실시예는,An embodiment of the present invention is

프로세서; 및processor; and

프로세서에 의해 실행 가능한 명령이 저장되도록 구성된 메모리를 포함하고,a memory configured to store instructions executable by the processor;

상기 프로세서는 상기 어느 하나의 이미지 처리 방법을 수행하도록 구성된 전자 기기를 더 제공한다.The processor further provides an electronic device configured to perform any one of the image processing methods.

본 발명의 실시예는 컴퓨터 프로그램 명령이 저장된 컴퓨터 판독 가능 저장 매체를 더 제공하고, 상기 컴퓨터 명령이 프로세서에 의해 실행될 경우, 상기 어느 하나의 이미지 처리 방법이 구현된다.An embodiment of the present invention further provides a computer-readable storage medium storing computer program instructions, and when the computer instructions are executed by a processor, any of the image processing methods are implemented.

본 발명의 실시예는 컴퓨터 판독 가능 코드를 포함하는 컴퓨터 프로그램을 더 제공하고, 상기 컴퓨터 판독 가능 코드가 전자 기기에서 실행될 경우, 상기 전자 기기의 프로세서는 상기 어느 하나의 이미지 처리 방법을 구현한다.An embodiment of the present invention further provides a computer program including a computer readable code, and when the computer readable code is executed in an electronic device, the processor of the electronic device implements any one of the image processing methods.

본 발명의 실시예에서는 제1 이미지 및 제2 이미지를 타깃 분류 네트워크에 입력하여 분류 결과를 획득하고, 상기 분류 결과에 따라, 상기 제1 이미지 중의 타깃 객체가 상기 제2 이미지 중의 영역 분포를 기반으로 처리를 수행하여 획득한 변화 상황에 대해 예측을 수행하여 예측 결과를 획득한다. 하나의 타깃 분류 네트워크만 사용하여 분류 결과를 획득할 수 있으므로, 본 발명의 실시예의 기술적 해결수단을 사용하여 이미지 처리 프로세스를 단순화하고, 상기 분류 결과는 제1 이미지 및 제2 이미지를 상기 타깃 분류 네트워크에 공동으로 입력하여 획득된 것이며, 분류 결과에 따라 상기 제1 이미지 중의 타깃 객체가 상기 제2 이미지 중의 영역 분포를 기반으로 처리를 수행하여 획득한 변화 상황에 대해 예측을 수행하므로, 본 발명의 실시예의 기술적 해결수단을 사용하여 예측 결과의 정확성을 향상시킨다.In an embodiment of the present invention, a first image and a second image are input to a target classification network to obtain a classification result, and according to the classification result, a target object in the first image is determined based on a region distribution in the second image. Prediction is performed on the change situation obtained by performing processing to obtain a prediction result. Since the classification result can be obtained by using only one target classification network, the image processing process is simplified by using the technical solution of the embodiment of the present invention, and the classification result is the first image and the second image in the target classification network. It is obtained by jointly inputting into , and according to the classification result, the target object in the first image performs processing based on the area distribution in the second image to perform prediction on the acquired change situation, so the practice of the present invention Improve the accuracy of prediction results by using example technical solutions.

위의 일반적인 설명 및 후술되는 세부사항에 대한 설명은 예시적이고 해석을 위한 것일 뿐 본 발명을 제한하기 위함이 아니다.The general description above and the description of the details that follow are illustrative and for purposes of interpretation and not limitation of the present invention.

아래 도면을 참고하고 예시적인 실시예에 대한 상세한 설명에 따르면, 본 발명의 다른 특징 및 양태도 더욱 뚜렷해질 것이다.Other features and aspects of the present invention will become more apparent upon reference to the drawings below and detailed description of exemplary embodiments.

여기서의 도면은 명세서에 병합되어 본 명세서의 일부분을 구성하고, 이러한 도면들은 본 발명에 부합되는 실시예를 나타내며, 명세서와 함께 본 발명의 실시예의 기술적 해결수단을 해석한다.
도 1은 본 발명의 실시예에서 제공되는 이미지 처리 방법의 흐름 모식도이다.
도 2는 본 발명의 실시예의 일 응용 시나리오의 모식도이다.
도 3은 본 발명의 실시예에서 제공되는 분류 네트워크의 트레이닝 흐름 모식도이다.
도 4는 본 발명의 실시예에서 제공되는 이미지 처리 방법을 구현하는 분류 네트워크 아키텍처 모식도이다.
도 5는 본 발명의 실시예에서 제공되는 이미지 처리 장치의 구조 모식도이다.
도 6은 본 발명의 실시예의 전자 기기의 구조 모식도이다.
도 7은 본 발명의 실시예의 다른 전자 기기의 구조 모식도이다.
The drawings herein are incorporated in and constitute a part of this specification, and these drawings show embodiments consistent with the present invention, and together with the specification interpret the technical solutions of the embodiments of the present invention.
1 is a flow schematic diagram of an image processing method provided in an embodiment of the present invention.
2 is a schematic diagram of an application scenario of an embodiment of the present invention.
3 is a schematic diagram of a training flow of a classification network provided in an embodiment of the present invention.
4 is a schematic diagram of a classification network architecture implementing the image processing method provided in the embodiment of the present invention.
5 is a structural schematic diagram of an image processing apparatus provided in an embodiment of the present invention.
6 is a structural schematic diagram of an electronic device according to an embodiment of the present invention.
7 is a structural schematic diagram of another electronic device according to an embodiment of the present invention.

아래에서는 도면을 참고하여 본 발명의 다양한 예시적인 실시예, 특징 및 양태를 상세히 설명한다. 도면에서 동일한 도면 부호는 기능이 동일하거나 유사한 요소를 나타낸다. 도면에서 실시예의 다양한 양태를 도시하였을 지라도, 특별히 지적하지 않는 한 비율에 따라 도면을 작성할 필요없다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Various exemplary embodiments, features and aspects of the present invention will be described in detail below with reference to the drawings. In the drawings, the same reference numbers indicate elements having the same or similar functions. Although the drawings show various aspects of the embodiment, it is not necessary to draw the drawings to scale unless otherwise indicated.

여기서, "예시적인"이라는 전용 단어는 "예, 실시예 또는 예시로 사용됨"을 의미한다. 여기서, "예시적인"으로 설명되는 임의의 실시예는 다른 실시예보다 우수하거나 더 나은 것으로 해석될 필요없다.Here, the dedicated word “exemplary” means “used as an example, embodiment, or illustration”. Any embodiment described herein as “exemplary” is not necessarily to be construed as superior or superior to another embodiment.

본문의 용어 “및/또는”은 연관 대상을 설명하는 연관 관계로서, 세 가지 관계가 존재할 수 있음을 나타낸다. 예를 들면, A 및/또는 B는, A만 존재, A와 B가 동시에 존재, B만 존재하는 세 가지 경우를 나타낼 수 있다. 이밖에, 본문의 용어 "적어도 하나"는 복수개 중 어느 하나 또는 복수개 중 적어도 두 개의 임의의 조합을 나타낸다. 예를 들어, A, B, C 중 적어도 하나는 A, B 및 C로 구성된 집합에서 선택되는 어느 하나 또는 복수개의 요소를 포함함을 나타낼 수 있다.As used herein, the term “and/or” is a relational relation that describes a subject of association, indicating that three relations may exist. For example, A and/or B may represent three cases in which only A exists, A and B exist simultaneously, and only B exists. In addition, the term "at least one" in the text indicates any one of a plurality or any combination of at least two of the plurality. For example, it may indicate that at least one of A, B, and C includes any one or a plurality of elements selected from the set consisting of A, B, and C.

이 외에, 본 발명의 실시예를 더욱 잘 설명하기 위해, 아래의 구체적인 실시형태에서는 많은 구체적인 세부 사항이 제공된다. 본 기술분야의 통상의 지식을 가진 자라면 일부 구체적인 세부 사항 없이도 본 발명의 실시예가 마찬가지로 구현될 수 있음을 이해해야 한다. 일부 구현예에서, 본 기술분야의 통상의 지식을 가진 자에게 익숙한 방법, 수단, 요소 및 회로에 대해 상세히 설명하지 않음으로써 본 발명의 실시예의 요지를 뚜렷하게 한다.In addition, in order to better explain the embodiments of the present invention, numerous specific details are provided in the specific embodiments below. It should be understood by those of ordinary skill in the art that embodiments of the present invention may likewise be implemented without some specific details. In some embodiments, the subject matter of embodiments of the present invention is obscured by not describing in detail methods, means, elements and circuits familiar to those skilled in the art.

이미지 처리의 하나의 응용 방향은, 의료 영상 처리를 최적화하고 처리 프로세스를 더욱 단순화함으로써, 더욱 정확한 예측 결과를 획득하는 것이다. 상기 예측 결과는 특정 영역 병소를 처리할 때 상기 특정 영역에 미치는 영향 정도의 예측 결과일 수 있다. 예를 들어, 병소는 복부, 폐, 신장, 뇌, 심장 등에 있을 수 있고, 특정 영역이 폐이면, 폐에 병소가 존재하는 위치가 수술된 후 폐에 미치는 영향 정도(예컨대, 중증도 또는 심각하지 않는 정도 등)에 대해 예측을 수행해야 한다.One application direction of image processing is to obtain more accurate prediction results by optimizing medical image processing and further simplifying the processing process. The prediction result may be a prediction result of the degree of influence on the specific area when the specific area lesion is processed. For example, the lesion may be in the abdomen, lung, kidney, brain, heart, etc., and if the specific area is the lung, the location where the lesion exists in the lung affects the lung after surgery (eg, moderate or non-severe). degree, etc.) should be made predictions.

예를 들어, 폐의 병소에 대해 방사선 치료를 수행하기 전에 방사선 치료가 폐에 미치는 영향 정도를 예측해야 한다. 폐에 대해 방사선 치료를 수행할 경우 방사선 폐렴을 유발할 수 있는데, 방사선 폐렴은 병소(예컨대, 폐암, 유방암, 식도암, 악성 림프종 또는 다른 흉부 악성 종양)가 방사선 치료를 거친 후 방사선장 내의 정상 폐 조직이 손상되어 발생되는 염증 반응이다. 경미할 경우 증상이 나타나지 않고 염증이 자발적으로 사라지나, 심각할 경우 폐에 광범위한 섬유증이 발생하여 호흡 기능이 손상되고 나아가 호흡 부전을 초래한다. 염증 반응의 정도는 방사선량 및 방사선 치료 전 병소 상태와 밀접히 관계되고, 폐암 방사선 치료와 같은 경우, 치료 후 방사선 폐렴의 중증도에 대해 예측을 수행해야 하며, 상기 프로세스는 비교적 번거로운바, 우선 폐암 병소가 포함된 컴퓨터 단층 촬영(Computed Tomography, CT) 이미지와 같은 이미지에서 이미지 특징을 추출한 다음, 추출된 이미지 특징에서 처리할 이미지 특징을 선택하고, 분류기에서 분류를 수행하여 분류 결과에 따라 이미지 중 특정 영역의 영향 정도에 대한 예측을 수행한다.For example, before performing radiation therapy on a lesion in the lungs, it is necessary to estimate the extent of the effect of radiation therapy on the lungs. Radiation therapy to the lungs can cause radiation pneumonitis, in which the lesion (eg, lung cancer, breast cancer, esophageal cancer, malignant lymphoma, or other thoracic malignancy) has undergone radiation therapy and then normal lung tissue within the radiation field. It is an inflammatory response caused by damage. In mild cases, there are no symptoms and the inflammation disappears spontaneously, but in severe cases, extensive fibrosis of the lungs develops, impairing respiratory function and leading to respiratory failure. The degree of inflammatory response is closely related to the radiation dose and the condition of the lesion before radiation therapy, and in the case of lung cancer radiation therapy, prediction should be made on the severity of radiation pneumonitis after treatment, the process is relatively cumbersome. Image features are extracted from images such as embedded computed tomography (CT) images, and then image features to be processed are selected from the extracted image features, and classification is performed in the classifier, and according to the classification result, Estimate the degree of impact.

관련 기술에서 이미지 특징의 추출은 라디오믹스를 통해 구현될 수 있다. 라디오믹스를 통해 이미지 특징을 추출하는 것은 방사선 영상 방법을 통해 이미지 특징을 추출한 후, 상기 이미지 특징과 임상증상(예컨대, 특정 영역에 미치는 영향의 정도 예측) 등의 관계를 연구하는 것이다. 이미지 특징을 추출한 후 특징을 선택하고, 서포트 벡터 머신(Support Vector Machines, SVM) 등 분류기를 통해 특정 영역에 대한 영향 정도(예컨대, 중증도 또는 심각하지 않는 정도 등)를 예측할 수 있다. 이로부터 알 수 있다시피, 전체 이미지 처리 프로세스는 여러 단계를 포함하며, 이는 번거로울 뿐만아니라 이로부터 획득한 예측 결과의 정확성도 높지 않다. 정확성이 높지 않은 이유는 다음과 같다.In the related art, extraction of image features may be implemented through radiomix. Extracting image features through radiomix is to study the relationship between image features and clinical symptoms (eg, predicting the degree of influence on a specific area) after extracting image features through a radiographic imaging method. After image features are extracted, features are selected, and the degree of influence (eg, severity or non-severity, etc.) on a specific region can be predicted through a classifier such as Support Vector Machines (SVM). As can be seen from this, the entire image processing process includes several steps, which is not only cumbersome, but also the accuracy of the prediction result obtained therefrom is not high. The reasons for not having high accuracy are as follows.

1) 각 단계마다 수동으로 설정된 하이퍼파라미터가 많이 존재하고, 인위적으로 설정된 하이퍼파라미터의 선택이 정확한지 여부는 최종 예측 결과에 매우 큰 영향을 미친다. 다시 말해서, 인위적으로 설정된 하이퍼파라미터 선택이 정확하지 않으면, 최종 예측 결과도 정확하지 않다.1) There are many manually set hyperparameters at each stage, and whether the artificially set hyperparameter selection is correct has a very large impact on the final prediction result. In other words, if the artificially set hyperparameter selection is not accurate, the final prediction result is also not accurate.

2) 방사선 치료에 사용되는 방사선량의 예측과 이미치 처리 프로세스의 예측은 각각 수행되며, 여기서 전체 폐 내부 방사선량의 평균값을 구하는 등 방법으로 선량 상수를 획득하여 상기 예측 프로세스를 구현할 수 있다. 예를 들어, 일반적으로 그레이(Gray, Gy) 단위로 방사선의 흡수선량을 측정하며, 의사는 폐 내 흡수선량이 일정 값을 초과한 조직이 전체 폐에서 차지하는 백분율을 통계하여 상기 선량 상수로 사용할 수 있다. 예를 들어, V20이 바로 폐 내 흡수선량이 20Gy를 초과하는 조직이 전체 폐 부피에서 차지하는 백분율이다. 상기 선량 상수를 사용하는 처리 방법은 너무 일반적이고 병소 위치가 상이함에 따라 방사선량 크기도 상이함을 고려하지 않는다. 병소가 복부, 폐, 신장, 뇌, 심장 등 상이한 영역에 위치하면 사용되는 방사선량 크기가 상이함은 당연한 것이고, 상응하게 방사선 치료 후 미치는 영향도 상이하다. 예를 들어, 전체 폐의 내부 방사선량이 상대적으로 적고 통계ㅗ딘 상수도 상대적으로 작지만, 방사선이 주요 기관, 혈관, 심장 등 주요 기관에 조사하는 경우 심각한 결과를 초래한다. 다시 말해서, 상기 선량 상수의 처리 방법에 사용되는 상수는 하나의 통계량일 뿐, 상이한 영역 공간에서의 방사선의 분포를 고려하지 않았으며, 이로부터 상기 선량 상수의 처리 방법을 사용하여 획득한 예측 정확도도 높지 않다.2) The prediction of the radiation dose used for radiation therapy and the prediction of the image processing process are respectively performed, and the prediction process can be implemented by obtaining a dose constant by obtaining an average value of the total internal lung radiation dose. For example, in general, the absorbed dose of radiation is measured in gray (Gy, Gy) units, and the doctor can use the dose constant as the dose constant by stating the percentage of the tissue that the absorbed dose in the lungs exceeds a certain value in the entire lung. have. For example, V20 is the percentage of the total lung volume occupied by tissues with absorbed doses exceeding 20 Gy in the lungs. The treatment method using the dose constant is too general and does not take into account that the radiation dose is different according to the location of the lesion. If the lesion is located in different areas such as abdomen, lung, kidney, brain, and heart, it is natural that the amount of radiation used is different, and the effect after radiation treatment is also different. For example, although the amount of internal radiation in the entire lung is relatively small and the statistical water supply is also relatively small, when radiation is irradiated to major organs, such as major organs, blood vessels, and heart, serious consequences occur. In other words, the constant used in the method of processing the dose constant is only one statistic, and the distribution of radiation in different area spaces is not considered, and the prediction accuracy obtained using the method of processing the dose constant from this is also not high

종합하면, 관련 기술에서 방사선 치료 후 폐렴의 중증도 예측 작업은 주로 라디오믹스의 방식으로 해결되는데, 이는 효율이 낮고, 강건성이 낮으며, 방사선 분포를 고려하지 않고, 정확도가 낮은 등 단점을 가진다. 일부 라디오믹스 방법은 이상적인 정확도를 제공하지만, 그 프로세스에서의 특징 선택 최적화 및 선량 상수, SVM의 하이퍼파라미터 선택은 그 방법의 강건성을 낮추고, 다른 데이터 세트에 적용하기 어렵다. 아울러, 방사선량에 대해 상수화 처리를 수행할 수 있으며, 즉 전체 폐 내 또는 암 영역의 방사선량을 하나의 상수로 통계하지만, 이러한 계산은 방사선의 분포 특징을 잃게 된다.In summary, in the related art, the task of predicting the severity of pneumonia after radiotherapy is mainly solved by the method of radiomix, which has disadvantages such as low efficiency, low robustness, no consideration of radiation distribution, and low accuracy. Although some radiomix methods provide ideal accuracy, the optimization of feature selection and the selection of dose constants and hyperparameters of SVM in the process lower the robustness of the method and are difficult to apply to other data sets. In addition, it is possible to perform a constantization process on the radiation dose, that is, the radiation dose in the entire lung or cancer area is statistic as a single constant, but this calculation loses the distribution characteristics of the radiation.

본 발명의 실시예를 사용하여, 방사선 치료 후 폐렴의 중증도에 대한 예측을 예로 들어, 딥 러닝 트레이닝한 후 획득한 타깃 분류 네트워크(예컨대, 분류 신경망, 상기 네트워크는 3차원일 수 있음)를 통해, 폐 이미지와 방사선 분포 이미지(이 두 개의 이미지는 모두 3차원 이미지일 수 있음)를 상기 타깃 분류 네트워크에 동시에 입력함으로써, 상기 타깃 분류 네트워크를 통해 병소가 위치한 특정 영역 또는 관련 영역이 각 위치에서의 이미지 및 방사선 분포를 종합적으로 획득할 수 있어 예측 정확성을 향상시키고, 상기 타깃 분류 네트워크의 분류를 통해 방사선 치료 후 폐렴이 발생될 중증도를 한번에 바로 출력할 수 있다. 본 발명의 실시예는 이미지 처리의 예측 프로세스에서 방사선량의 분포를 고려할 뿐만아니라, 유사한 작업 데이터 세트에도 사용할 수 있는바, 예를 들어, 임의의 병원의 방사선 폐렴 데이터에 대해 어떠한 파라미터 및 구조를 변경할 필요없이 모두 본 발명의 실시예를 직접 응용하여 방사선 폐렴의 중증도를 예측할 수 있으며, 또한 응용 시나리오는 복부, 폐, 신장, 뇌, 심장 등 상이한 영역 또는 관련 영역의 병소 예측에 한정되지 않고, 정확한 예측 결과를 신속하게 획득할 수 있다.Using an embodiment of the present invention, the prediction of the severity of pneumonia after radiation treatment, for example, through a target classification network obtained after deep learning training (eg, a classification neural network, the network may be three-dimensional), By simultaneously inputting a lung image and a radiation distribution image (both of which may be three-dimensional images) into the target classification network, a specific region or a related region where the lesion is located is an image at each position through the target classification network. And radiation distribution can be acquired comprehensively to improve prediction accuracy, and through classification of the target classification network, it is possible to immediately output the severity of pneumonia after radiation treatment at once. The embodiment of the present invention not only considers the distribution of radiation dose in the prediction process of image processing, but can also be used for a similar working data set, for example, to change any parameters and structure for radiation pneumonia data in any hospital. All of the embodiments of the present invention can be directly applied to predict the severity of radiation pneumonitis without need, and the application scenario is not limited to lesion prediction in different regions or related regions such as abdomen, lung, kidney, brain, heart, etc., accurate prediction Results can be obtained quickly.

도 1은 본 발명의 실시예에서 제공되는 이미지 처리 방법의 흐름 모식도이고, 상기 이미지 처리 방법은 이미지 처리 장치에 응용되며, 예를 들어, 이미지 처리 장치는 단말 기기 또는 서버 또는 다른 처리 기기에 의해 실행될 수 있고, 여기서 단말 기기는 사용자 기기(UE, User Equipment), 모바일 기기, 셀룰러폰, 무선 전화기, 개인 정보 단말기(PDA, Personal Digital Assistant), 핸드 헬드 기기, 컴퓨팅 기기, 차량 탑재 기기, 웨어러블 기기 등일 수 있다. 본 발명의 일부 실시예에서, 상기 이미지 처리 방법은 프로세서를 통해 메모리에 저장된 컴퓨터 판독 가능 명령을 호출하는 방식으로 구현될 수 있다. 도 1에 도시된 바와 같이, 상기 프로세스는 하기의 단계를 포함한다.1 is a flow diagram of an image processing method provided in an embodiment of the present invention, wherein the image processing method is applied to an image processing apparatus, for example, the image processing apparatus is to be executed by a terminal device or a server or other processing device The terminal device may be a user equipment (UE), a mobile device, a cellular phone, a wireless phone, a personal digital assistant (PDA), a handheld device, a computing device, an in-vehicle device, a wearable device, etc. can In some embodiments of the present invention, the image processing method may be implemented in a manner of calling a computer readable instruction stored in a memory through a processor. As shown in FIG. 1 , the process includes the following steps.

단계 S101에서, 제1 이미지 및 제2 이미지를 타깃 분류 네트워크에 입력하여 분류 결과를 획득한다.In step S101, the first image and the second image are input to the target classification network to obtain a classification result.

본 발명의 일부 실시예에서, 제1 이미지는 병소가 있는 이미지(병소가 위치한 영역의 CT 이미지일 수 있음)일 수 있고, 예컨대 병소가 복부, 폐, 신장, 뇌, 심장 등 상이한 영역 또는 관련 영역에 위치한 이미지이다. 제 2 이미지는 병소가 위치한 영역 또는 관련 영역에 대해 방사선 치료를 수행하는데 사용되는 방사선량 분포도이다. 실제 구현 시 병소의 이미지 및 방사선량 분포도 이 두 개의 이미지를 타깃 분류 네트워크에 공동으로 입력하여 분류 결과를 획득할 수 있다.In some embodiments of the present invention, the first image may be an image with a lesion (which may be a CT image of a region where the lesion is located), for example, a lesion is a different region or related region, such as abdomen, lung, kidney, brain, heart, etc. It is an image located in The second image is a radiation dose distribution map used to perform radiation therapy on a region in which the lesion is located or a related region. In actual implementation, the classification result can be obtained by jointly inputting the image of the lesion and the radiation dose distribution into the target classification network.

단계 S102에서, 상기 분류 결과에 따라, 변화 데이터에 대해 예측을 수행하여 예측 결과를 획득한다.In step S102, according to the classification result, prediction is performed on the change data to obtain a prediction result.

여기서, 변화 데이터는 상기 제1 이미지 중의 타깃 객체가 상기 제2 이미지 중의 영역 분포를 기반으로 처리를 수행하여 획득한 변화 상황을 나타낸다.Here, the change data represents a change state obtained by processing the target object in the first image based on the area distribution in the second image.

본 발명의 일부 실시예에서, 상기 타깃 객체는 복부, 폐, 신장, 뇌, 심장 등과 같이 병소가 위치한 기관일 수 있다. 상기 영역 분포는 상이한 영역에서 상이한 병소에 사용되는 방사선량의 분포일 수 있다. 상기 변화 상황은 병소에 방사선 치료를 수행한 후 병소가 위치한 기관(예컨대, 폐)에 염증을 유발할 수 있는 중증도(예컨대, 중증도의 확률 또는 비중증도의 확률)일 수 있다. 예를 들어, 분류 결과에 따라, 병소가 존재하는 이미지 중 폐에 대해 방사선량 분포도 중 방사선 분포를 기반으로 획득한 염증의 중증도를 예측하여 예측 결과를 획득할 수 있다.In some embodiments of the present invention, the target object may be an organ in which a lesion is located, such as abdomen, lung, kidney, brain, heart, and the like. The area distribution may be a distribution of radiation doses used for different lesions in different areas. The change situation may be a severity (eg, probability of severity or probability of non-severity) that may cause inflammation in an organ (eg, lung) in which the lesion is located after radiotherapy is performed on the lesion. For example, according to the classification result, it is possible to obtain a prediction result by predicting the severity of inflammation obtained based on the radiation distribution in the radiation dose distribution diagram for the lung among the images in which the lesion exists.

본 발명의 실시예의 기술적 해결수단을 사용하면, 타깃 분류 네트워크에 따라 분류하기만 하면 예측을 구현할 수 있으므로, 여러 단계의 번거로운 조작이 필요없이 한 단계에서 엔드 투 엔드로 예측 결과를 획득할 수 있다. 병소가 존재하는 이미지 및 방사선량 분포도 상호간의 영향을 종합적으로 고려하고, 양자를 각각 분할하는 처리가 아닌 방사선량 분포도를 공동 입력으로 사용하며, 상기 이미지 사이의 상호 영향으로 인해, 상이한 위치의 방사선량의 상이함으로 인한 상이한 영향을 충분히 고려하여 예측 정확도를 향상시킨다. 또한, 상기 타깃 분류 네트워크는 인위적인 하이퍼파리미터로 조정할 필요없이 딥 러닝 트레이닝 후 획득한 타깃 분류 네트워크를 사용하여 전체 이미지 처리 프로세스에서 예측의 자기 적응 조정을 구현할 수 있어, 예측 정확도의 향상에 도움이 된다.Using the technical solution of the embodiment of the present invention, prediction can be implemented simply by classifying according to the target classification network, so that the prediction result can be obtained end-to-end in one step without the need for cumbersome manipulations in multiple steps. Comprehensive consideration of the mutual influence of the image and the radiation dose distribution in which the lesion exists, and the radiation dose distribution map is used as a common input rather than a process that separates both, and due to the mutual influence between the images, the radiation dose at different locations The prediction accuracy is improved by sufficiently considering the different influences due to the difference of . In addition, the target classification network can implement self-adaptive adjustment of prediction in the entire image processing process using the target classification network obtained after deep learning training without the need to adjust with artificial hyperparameters, which helps to improve prediction accuracy.

본 출원의 실시예의 이미지 처리 방법은 폐암 수술 전 방사선 치료 계획, 방사선 폐렴 예측 등 시나리오에 응용될 수 있다. 도 2는 본 발명의 실시예의 일 응용 시나리오의 모식도이고, 도 2에 도시된 바와 같이, 폐암 환자의 CT 이미지(201)는 상기 제1 이미지이며, 방사선량 분포도(202)는 상기 제2 이미지이고, 의사는 폐암 환자의 CT 이미지를 획득한 후 방사선 치료 수술을 계획해야 한다. 이때, 방사선량 분포도 및 폐암 환자의 CT 이미지를 상기 이미지 처리 장치(200)에 입력할 수 있고, 상기 이미지 처리 장치에서 전술한 실시예에 기재된 이미지 처리 방법으로 처리하면, 방사선 치료후 방사선 폐렴이 발생되는 중증도의 예측 결과를 획득할 수 있으며, 방사선 치료 후 방사선 폐렴이 발생될 중증도를 예측할 수 있으므로, 의사가 수술 후 위험을 미리 예측하여 사전에 예방 조치를 취하거나 방사선 치료 계획을 수정하는데 도움을 줄 수 있다.The image processing method of the embodiment of the present application may be applied to a scenario such as a radiation treatment plan before lung cancer surgery and a prediction of radiation pneumonia. 2 is a schematic diagram of an application scenario of an embodiment of the present invention, and as shown in FIG. 2 , a CT image 201 of a lung cancer patient is the first image, and a radiation dose distribution diagram 202 is the second image. , doctors should plan radiation therapy surgery after acquiring CT images of lung cancer patients. At this time, the radiation dose distribution map and the CT image of the lung cancer patient can be input to the image processing apparatus 200, and when the image processing apparatus processes the image processing method according to the above-described embodiment, radiation pneumonia occurs after radiation treatment Because it is possible to obtain a predictive result of the highest severity and predict the severity of the occurrence of radiation pneumonia after radiation treatment, it can help doctors to predict the risk after surgery in advance to take preventive measures or to revise the radiation treatment plan. can

본 발명의 일부 실시예에서, 분류 네트워크에 대해 트레이닝을 수행하여 트레이닝된 분류 네트워크를 획득하고, 상기 트레이닝된 분류 네트워크를 상기 타깃 분류 네트워크로 할 수 있다.In some embodiments of the present invention, training may be performed on the classification network to obtain a trained classification network, and the trained classification network may be used as the target classification network.

도 3은 본 발명의 실시예에서 제공되는 분류 네트워크의 트레이닝 흐름 모식도이고, 상기 분류 네트워크의 트레이닝 프로세스는 이미지 처리 장치에 의해 구현될 수 있으며, 예를 들어, 이미지 처리 장치는 단말 기기 또는 서버 또는 다른 처리 기기에 의해 실행될 수 있고, 여기서 단말 기기는 UE, 모바일 기기, 셀룰러폰, 무선 전화기, PDA, 핸드 헬드 기기, 컴퓨팅 기기, 차량 탑재 기기, 웨어러블 기기 등일 수 있다. 본 발명의 일부 실시예에서, 상기 이미지 처리 방법은 프로세서를 통해 메모리에 저장된 컴퓨터 판독 가능 명령을 호출하는 방식으로 구현될 수 있다. 도 3에 도시된 바와 같이, 상기 분류 네트워크의 트레이닝 프로세스는 하기의 단계를 포함할 수 있다.3 is a schematic diagram of a training flow of a classification network provided in an embodiment of the present invention, and the training process of the classification network may be implemented by an image processing apparatus, for example, the image processing apparatus is a terminal device or a server or other may be executed by a processing device, wherein the terminal device may be a UE, a mobile device, a cellular phone, a cordless phone, a PDA, a hand-held device, a computing device, an in-vehicle device, a wearable device, and the like. In some embodiments of the present invention, the image processing method may be implemented in a manner of calling a computer readable instruction stored in a memory through a processor. As shown in FIG. 3 , the training process of the classification network may include the following steps.

단계 S301에서, 제1 이미지 및 제2 이미지에 대해 이미지 중첩 처리를 수행한 후 처리할 이미지를 획득한다.In step S301, an image to be processed is obtained after image superimposition processing is performed on the first image and the second image.

본 발명의 실시예에서, 제1 이미지 및 제2 이미지는 상이한 유형의 이미지 데이터일 수 있다.In an embodiment of the present invention, the first image and the second image may be different types of image data.

본 발명의 일부 실시예에서, 제1 이미지 및 제2 이미지에 대해 이미지 중첩 처리를 수행한 후, 상기 타깃 객체의 윤곽에 따라, 상기 제1 이미지 및 상기 제2 이미지에 대해 각각 이미지 잘라내기를 수행하여, 잘라낸 제1 서브 이미지 데이터 및 제2 서브 이미지 데이터를 획득할 수 있다.In some embodiments of the present invention, after image superposition processing is performed on the first image and the second image, image cropping is performed on the first image and the second image respectively according to the outline of the target object, , the cropped first sub-image data and the second sub-image data may be obtained.

지적해야 할 것은, 타깃 객체의 윤곽은 병소의 윤곽이 아니라 병소가 위치한 영역 또는 관련 영역의 윤곽이며, 예컨대 병소가 위치한 폐의 전체 폐 윤곽이거나, 병소가 위치한 심장, 신장 등 윤곽이고, 상이한 영역에 따라 상이한 방사선량을 사용한다.It should be pointed out that the contour of the target object is not the contour of the lesion, but the contour of the region where the lesion is located or a related region, for example, the entire lung contour of the lung where the lesion is located, or the contour of the heart, kidney, etc., where the lesion is located, in different regions Different radiation doses are used.

본 발명의 일부 실시예에서, 제1 서브 이미지 데이터 및 제2 서브 이미지 데이터는 동일한 사이즈의 이미지 데이터일 수 있다. 예를 들어, 폐 윤곽에 따라 3차원의 제1 이미지 및 제2 이미지를 분할하되, 양자는 동일한 크기이다. 다음, 제1 서브 이미지 데이터 및 제2 서브 이미지 데이터를 상기 처리할 이미지로 할 수 있다.In some embodiments of the present invention, the first sub-image data and the second sub-image data may be image data of the same size. For example, the three-dimensional first image and the second image are divided according to the lung contour, but both have the same size. Next, the first sub-image data and the second sub-image data may be used as the image to be processed.

본 발명의 일부 실시예에서, 상기 제1 서브 이미지 데이터 및 상기 제2 서브 이미지 데이터는 상이한 사이즈의 이미지 데이터일 수도 있고, 이 경우, 상기 제1 서브 이미지 데이터 및 상기 제2 서브 이미지 데이터에 포함된 대응하는 픽셀점에 대해 픽셀 위치 정렬 처리를 수행하여 정렬된 제1 서브 이미지 데이터 및 정렬된 제2 서브 이미지 데이터를 획득하며, 정렬된 제1 서브 이미지 데이터 및 정렬된 제2 서브 이미지 데이터에 포함된 대응하는 픽셀점을 중첩하여 이미지 중첩 처리를 구현한 후, 상기 처리할 이미지를 획득할 수 있다.In some embodiments of the present invention, the first sub-image data and the second sub-image data may be image data of different sizes. In this case, the first sub-image data and the second sub-image data include A pixel position alignment process is performed on a corresponding pixel point to obtain aligned first sub-image data and aligned second sub-image data, and the aligned first sub-image data and aligned second sub-image data include After implementing image overlapping processing by overlapping corresponding pixel points, the image to be processed may be obtained.

단계 S302에서, 상기 처리할 이미지를 트레이닝 샘플로서 상기 분류 네트워크에 입력하여 트레이닝을 수행함으로써, 상기 트레이닝된 분류 네트워크를 획득한다.In step S302, the trained classification network is obtained by inputting the image to be processed as a training sample to the classification network to perform training.

본 발명의 실시예는 단계 S301 내지 단계 S302를 통해 분류 네트워크에 대해 트레이닝을 수행하여 트레이닝된 분류 네트워크를 획득할 수 있다. 상기 트레이닝된 분류 네트워크를 상기 타깃 분류 네트워크로 한다.An embodiment of the present invention may obtain a trained classification network by performing training on the classification network through steps S301 to S302. Let the trained classification network be the target classification network.

본 발명의 일부 실시예에서, 상기 처리할 이미지를 트레이닝 샘플로서 상기 분류 네트워크에 입력하여 트레이닝을 수행함으로써, 상기 트레이닝된 분류 네트워크를 획득하는 단계는, 제1 서브 이미지 데이터 및 제2 서브 이미지 데이터를 각각 대응되는 히스토그램으로 변환시키고, 히스토그램을 균등화 처리하여 균등화 처리 결과를 획득하는 단계; 및 상기 균등화 처리 결과를 기반으로 상기 분류 네트워크에 대해 트레이닝을 수행하여 상기 트레이닝된 분류 네트워크를 획득하는 단계를 포함할 수 있다.In some embodiments of the present invention, the step of obtaining the trained classification network by inputting the image to be processed as a training sample into the classification network and performing training includes: first sub-image data and second sub-image data; converting each of the histograms into corresponding histograms and performing equalization processing on the histograms to obtain equalization processing results; and performing training on the classification network based on the equalization processing result to obtain the trained classification network.

본 발명의 일부 실시예에서, 상기 처리할 이미지를 트레이닝 샘플로서 상기 분류 네트워크에 입력하여 트레이닝을 수행함으로써, 상기 트레이닝된 분류 네트워크를 획득하는 단계는, 제1 서브 이미지 데이터 및 제2 서브 이미지 데이터에 포함된 대응하는 픽셀점에 대해 정규화 처리를 수행하여 정규화 처리 결과를 획득하는 단계; 및 상기 정규화 처리 결과를 기반으로 상기 분류 네트워크에 대해 트레이닝을 수행하여 상기 트레이닝된 분류 네트워크를 획득하는 단계를 포함할 수 있다.In some embodiments of the present invention, the step of obtaining the trained classification network by inputting the image to be processed as a training sample to the classification network and performing training includes: first sub-image data and second sub-image data; performing normalization processing on the included corresponding pixel points to obtain a normalization processing result; and performing training on the classification network based on the normalization processing result to obtain the trained classification network.

본 발명의 일부 실시예에서, 우선, 제1 서브 이미지 데이터 및 제2 서브 이미지 데이터를 각각 대응되는 히스토그램으로 변환시키고, 히스토그램을 균등화 처리하여 균등화 처리 결과를 획득할 수 있다. 다음, 상기 균등화 처리 결과 중 대응되는 제1 서브 이미지 데이터 및 제2 서브 이미지 데이터에 포함된 대응하는 픽셀점에 대해 정규화 처리를 수행할 수 있다. 예를 들어, 이 두 개의 서브 이미지에 대해 히스토그램 균등화를 수행한 후, 양자를 정규화 하여 2채널 4차원 행렬로 표시되는 이미지 데이터로 결합시킨다. 상기 이미지 데이터를 분류 네트워크에 입력하고, 먼저 상기 분류 네트워크의 콘볼루션 계층을 통해 이미지 데이터에 대해 계층별로 특징 추출을 수행하며 차원 축소 처리하여, 궁긍적으로 완전 연결 계층의 처리를 통해 방사선 치료 후 방사성 염증이 발생되는 중증도의 확률을 획득한다.In some embodiments of the present invention, first, the first sub-image data and the second sub-image data are converted into corresponding histograms, and the histogram is equalized to obtain an equalization processing result. Next, normalization processing may be performed on corresponding pixel points included in the corresponding first sub-image data and the corresponding second sub-image data among the results of the equalization processing. For example, after histogram equalization is performed on these two sub-images, both are normalized and combined into image data represented by a 2-channel 4-dimensional matrix. Input the image data into the classification network, first perform feature extraction for each layer through the convolutional layer of the classification network, perform dimensionality reduction processing, and ultimately perform radioactive treatment after radiation treatment through fully connected layer processing Acquires a probability of severity that inflammation occurs.

본 발명의 일부 실시예에서, 분류 네트워크는 적어도 하나의 분류 처리 모듈을 포함할 수 있다.In some embodiments of the present invention, the classification network may include at least one classification processing module.

상응하게, 상기 처리할 이미지를 트레이닝 샘플로서 상기 분류 네트워크에 입력하여 트레이닝을 수행하여, 상기 타깃 분류 네트워크를 획득하는 단계는, 상기 적어도 하나의 분류 처리 모듈을 통해 상기 처리할 이미지에 대해 특징 추출(예컨대, 콘볼루션 계층을 통해 특징 추출을 수행함), 차원 축소 처리(예컨대, 풀링 처리) 및 글로벌 평균 풀링 처리를 수행하여 손실 함수를 획득하는 단계; 및 상기 손실 함수의 역전파에 따라 상기 분류 네트워크(예를 들어, 상기 손실 함수에 따라 산출된 오차가 역전파되는 것일 수 있음)를 트레이닝시켜 상기 트레이닝된 분류 네트워크를 획득하는 단계를 포함할 수 있다.Correspondingly, the step of performing training by inputting the image to be processed as a training sample into the classification network to obtain the target classification network includes: extracting features for the image to be processed through the at least one classification processing module ( For example, performing feature extraction through a convolutional layer), dimensionality reduction processing (eg, pooling processing), and global average pooling processing to obtain a loss function; and training the classification network (eg, an error calculated according to the loss function may be backpropagated) according to the backpropagation of the loss function to obtain the trained classification network. .

본 발명의 일부 실시예에서, 각각의 분류 처리 모듈은 적어도 콘볼루션 계층을 포함하고, 상기 적어도 하나의 분류 처리 모듈을 통해 상기 처리할 이미지에 대해 특징 추출, 차원 축소 처리 및 글로벌 평균 풀링 처리를 수행하여 손실 함수를 획득하는 단계는, 적어도 하나의 분류 처리 모듈 중의 대응하는 콘볼루션 계층을 통해 처리할 이미지에 대해 계층별 특징 추출을 수행한 후, 계층별 차원 축소 처리를 수행하여 제1 처리 결과를 획득하는 단계; 제1 처리 결과에 대해 글로벌 평균 풀링 처리를 수행한 후 완전 연결 계층에 입력하여 제2 처리 결과를 획득하는 단계 - 제2 처리 결과는 분류 네트워크에 의해 출력된 예측 결과이고, 추출된 특징의 예측 변화 상황을 나타내기 위한 것임 - ; 및 제2 처리 결과 및 수동 라벨링 결과(예컨대, 의사가 이미 라벨링한 실제 변화 상황)에 따라 상기 손실 함수를 획득하는 단계를 포함할 수 있다.In some embodiments of the present invention, each classification processing module includes at least a convolutional layer, and performing feature extraction, dimensionality reduction processing, and global average pooling processing on the image to be processed through the at least one classification processing module to obtain a loss function by performing layer-by-layer feature extraction on the image to be processed through a corresponding convolutional layer in at least one classification processing module, and then performing dimensionality reduction processing for each layer to obtain the first processing result obtaining; After performing global average pooling processing on the first processing result, input to the fully connected layer to obtain a second processing result - The second processing result is a prediction result output by the classification network, and prediction change of the extracted feature It is intended to indicate a situation - ; and obtaining the loss function according to the second processing result and the manual labeling result (eg, the actual change situation already labeled by the doctor).

다시 말해서, 분류 네트워크에 의해 출력된 예측 결과와 의사가 이미 라벨링한 실제 변화 상황에 따라 상기 손실 함수를 획득할 수 있다. 손실 함수가 반영한 예측 변화 상황과 실제 상황 사이의 오차가 사전 설정 범위 내에 있으면(예를 들어, 오차가 0임), 생성된 예측 변화 상황과 실제 상황 사이의 차이가 수렴 조건에 도달하였음을 설명하고, 분류 네트워크에 대한 트레이닝을 종료하여 트레이닝된 타깃 분류 네트워크를 획득한다.In other words, the loss function can be obtained according to the prediction result output by the classification network and the actual change situation already labeled by the doctor. If the error between the predicted change situation and the actual situation reflected by the loss function is within the preset range (for example, the error is 0), explain that the difference between the generated predicted change situation and the actual situation has reached the convergence condition; , to obtain a trained target classification network by terminating training on the classification network.

본 발명의 일부 실시예에서, 상기 분류 처리 모듈이 잔차 모듈일 경우, 각각의 잔차 모듈은 콘볼루션 계층, 정규화 계층 및 활성화 계층을 포함할 수 있다.In some embodiments of the present invention, when the classification processing module is a residual module, each residual module may include a convolutional layer, a normalization layer and an activation layer.

상응하게, 적어도 하나의 분류 처리 모듈 중의 대응하는 콘볼루션 계층을 통해 처리할 이미지에 대해 계층별 특징 추출을 수행한 후에, 적어도 하나의 잔차 모듈 중의 대응하는 콘볼루션 계층을 통해 처리할 이미지에 대해 특징 추출을 수행한 후 획득한 제1 추출 결과에 대해 정규화 계층 및 활성화 계층을 통해 처리한 후 제2 추출 결과를 획득하는 단계; 및 상기 제2 추출 결과 및 처리할 이미지에 따라, 차원 축소 처리를 위한 제3 추출 결과를 획득하는 단계를 더 포함할 수 있다. 다시 말해서, 잔차 모듈의 입력은 "처리할 이미지"이고, 잔차 모듈의 입력 및 잔차 모듈 중 마지막 활성화 계층의 출력을 가하여 획득한 최종 추출 결과가 상기 제3 추출 결과이다. 잔차 모듈을 통해 특징 추출을 수행한 후, 계층별 차원 축소 처리를 수행하여 제1 처리 결과를 획득할 수도 있다. 예를 들어, 상기 제3 추출 결과에 따라 계층별 차원 축소 처리를 수행하여 상기 제1 처리 결과를 획득한다.Correspondingly, after performing layer-by-layer feature extraction on the image to be processed through the corresponding convolutional layer in the at least one classification processing module, the feature is applied to the image to be processed through the corresponding convolutional layer in the at least one residual module. obtaining a second extraction result after processing the first extraction result obtained after performing extraction through a normalization layer and an activation layer; and obtaining a third extraction result for dimensionality reduction processing according to the second extraction result and the image to be processed. In other words, the input of the residual module is an "image to be processed", and the final extraction result obtained by adding the input of the residual module and the output of the last activation layer among the residual modules is the third extraction result. After performing feature extraction through the residual module, the first processing result may be obtained by performing dimensionality reduction processing for each layer. For example, the first processing result is obtained by performing dimension reduction processing for each layer according to the third extraction result.

도 4는 본 발명의 실시예에서 제공되는 이미치 처리 방법을 구현하는 분류 네트워크 아키텍처 모식도이고, 도 4에 도시된 바와 같이, 상기 분류 네트워크(예컨대, 분류 신경망)는 적어도 하나의 분류 처리 모듈(11)을 포함할 수 있다. 분류 처리 모듈(11)은 잔차 모듈(12)일 수 있고, 완전 연결 계층(13)을 더 포함할 수 있다. 각각의 잔차 모듈(12)은 적어도 하나의 콘볼루션 계층(121), 적어도 하나의 정규화 계층(122) 및 적어도 하나의 활성화 계층(123)을 포함할 수 있고, 상기 분류 네트워크 자동 학습을 통해 이미지 중 유용한 특징을 추출하고, 특징 추출 후 다시 특징을 선택하는 것이 아닌 이러한 특징을 응용하여 예측을 수행함으로써, 관련 기술에 비해 예측 정확성을 향상시킨다.4 is a schematic diagram of a classification network architecture implementing the image processing method provided in an embodiment of the present invention, and as shown in FIG. 4 , the classification network (eg, a classification neural network) includes at least one classification processing module 11 ) may be included. The classification processing module 11 may be a residual module 12 , and may further include a fully connected layer 13 . Each residual module 12 may include at least one convolutional layer 121 , at least one regularization layer 122 , and at least one activation layer 123 . By extracting useful features and performing prediction by applying these features rather than selecting features again after feature extraction, prediction accuracy is improved compared to related technologies.

방사선 치료 후 방사선 폐렴의 중증도 예측을 예로 들어 설명한다. 분류 네트워크를 트레이닝하는 프로세스에서 먼저 폐 이미지와 방사선 분포 이미지(이 두 개의 이미지는 모두 3차원 이미지임)를 폐 윤곽에 따라 동일한 크기의 두 개의 서브 이미지로 각각 분할한다. 이 두 개의 서브 이미지에 대해 히스토그램 균등화를 수행하고, 양자를 정규화한 후 2채널 4차원 행렬로 결합시킨다. 상기 4차원 행렬을 분류 네트워크에 입력하고, 분류 처리 모듈(11)의 콘볼루션 계층(구체적으로 각각의 잔차 모듈(12) 중의 콘볼루션 계층(121), 정규화 계층(122) 및 활성화 계층(123)의 처리일 수 있음)을 통해 이미지에 대해 계층별로 특징 추출을 수행하며 차원 축소 처리를 수행하여, 최종으로 완전 연결 계층(12)을 통해 방사선 치료 후 상사성 폐렴이 발생되는 중증도의 확률을 획득한다.The prediction of the severity of radiation pneumonitis after radiation therapy will be described as an example. In the process of training the classification network, we first divide the lung image and the radiation distribution image (both are three-dimensional images) into two sub-images of the same size according to the lung contour. Histogram equalization is performed on these two sub-images, and both are normalized and combined into a 2-channel 4-dimensional matrix. The four-dimensional matrix is input to the classification network, and the convolutional layer of the classification processing module 11 (specifically, the convolutional layer 121, the normalization layer 122 and the activation layer 123 of each residual module 12) ), feature extraction is performed for each layer and dimensionality reduction processing is performed, and finally, the probability of severity of similar pneumonia after radiation treatment is obtained through the fully connected layer 12. .

일 예시에서, 분류 네트워크를 트레이닝하는 프로세스는 하기와 같은 내용을 포함할 수 있다. In one example, the process of training the classification network may include the following contents.

1. 도 4를 참조하면, 폐 윤곽에 따라 폐 3차원 이미지와 방사선량 분포 이미지를 동일한 크기(200x240x240)의 이미지로 자른 다음, 다운 샘플링을 통해 크기가 (100x120x120)인 이미지를 획득하여 비디오 메모리에 적응하며, 폐 이미지에 대응되는 다운 샘플링된 이미지와 방사선 분포 이미지에 대응되는 다운 샘플링된 이미지를 4차원 행렬(2x100x120x120)로 결합한다.1. Referring to Fig. 4, the three-dimensional lung image and the radiation dose distribution image are cut into images of the same size (200x240x240) according to the lung contour, and then an image of the size (100x120x120) is acquired through downsampling and stored in the video memory. It adapts, and combines the down-sampled image corresponding to the lung image and the down-sampled image corresponding to the radiation distribution image into a four-dimensional matrix (2x100x120x120).

2. Res-Net(예컨대, 도 4에 도시된 ResNeXt50), Dense-Net 등 구조와 같은 3차원 콘볼루션 신경망을 사용하여, 결합 후의 4차원 행렬에 대해 콘볼루션, 일반화 및 활성화 동작을 수행하며, 특징 채널을 2개에서 2048개로 향상시킨 후 특징에 대해 글로벌 평균 풀링을 수행하여 1차원 벡터를 획득하고, 상기 1차원 벡터를 완전 연결 계층에 입력하여 두 개의 값(심각하거나 심각하지 않는 확률)을 출력하며, 마지막으로 softmax 함수를 통해 최종 예측 결과(예측 확률)를 획득할 수 있다.2. Using a three-dimensional convolutional neural network such as Res-Net (e.g., ResNeXt50 shown in Fig. 4), Dense-Net, etc., to perform convolution, generalization and activation operations on the four-dimensional matrix after combining, After enhancing the feature channels from 2 to 2048, global average pooling is performed on the features to obtain a one-dimensional vector, and the one-dimensional vector is input to a fully connected layer to obtain two values (probability of severe or non-serious). output, and finally, the final prediction result (prediction probability) can be obtained through the softmax function.

본 발명의 실시예에서 분류 네트워크는 직렬화, 모듈화된 신경망을 사용할 수 있다.In an embodiment of the present invention, the classification network may use a serialized, modularized neural network.

직렬화는 신경망 중 직렬화된 모듈에 따라 신경망에 입력된 데이터를 순서대로 처리할 수 있는 것을 가리키고(예컨대, 동일한 크기로 잘라낸 두 개의 서브 이미지를 결합하여 획득한 4차원 행렬), 모듈화는 신경망의 모듈이 본 발명의 실시예를 구현할 수 있는 다른 모듈로 자유롭게 대체될 수 있는 것을 가리키며, 모듈 대체 후에도 본 발명을 구현할 수 있고 모두 본 발명의 보호범위 내에 속한다.Serialization refers to the ability to sequentially process data input to the neural network according to the serialized module among the neural networks (for example, a four-dimensional matrix obtained by combining two sub-images cut to the same size), and modularization means that the module of the neural network It indicates that it can be freely replaced with other modules that can implement embodiments of the present invention, and the present invention can be implemented even after module replacement, and all fall within the protection scope of the present invention.

지적해야 할 것은, 동일한 크기로 잘라낸 상기 두 개의 서브 이미지를 결합한 후 획득한 이미지는 하나의 4차원 행렬(2채널의 4차원 행렬일 수 있음)에 해당된다. 콘볼루션 계층을 통해 특징 추출을 수행하는 것은, 적어도 하나의 콘볼루션 커널을 사용하여 입력된 3차원 행렬에 대해 콘볼루션 처리를 수행하고, 채널 수가 콘볼루션 커널 개수인 4차원 행렬을 출력하며, 콘볼루션 커널의 개수가 증가함에 따라, 행렬의 채널 수도2048개까지 증가한다. 정규화 계층을 통해 일반화 처리를 수행하고, 공식 (1)을 사용하여 상기 4차원 행렬에 대해 일반화 처리를 수행할 수 있다.It should be pointed out that an image obtained after combining the two sub-images cut to the same size corresponds to one 4D matrix (which may be a 4D matrix of 2 channels). Performing feature extraction through the convolutional layer includes performing convolution processing on an input 3D matrix using at least one convolutional kernel, outputting a 4D matrix in which the number of channels is the number of convolutional kernels, and convolution As the number of solution kernels increases, the number of channels in the matrix also increases to 2048. A generalization process may be performed through a normalization layer, and the generalization process may be performed on the four-dimensional matrix using Equation (1).

X=(X-u)/v (1) X=(X-u)/v (1)

여기서, X는 4차원 행렬이고, u는 행렬 평균값이며, v는 행렬 분산이다.Here, X is a four-dimensional matrix, u is the matrix mean, and v is the matrix variance.

활성화 계층을 통해 활성화 동작을 수행하는 구현 형태의 경우, 활성화 함수를 사용하여 비선형 요소를 추가하여 신경망의 표현 능력을 향상시킬 수 있다. In the case of an implementation in which an activation operation is performed through an activation layer, the expressive ability of a neural network can be improved by adding a non-linear element using an activation function.

글로벌 평균 풀링은 각 채널의 3차원 행렬의 평균값을 구하여 하나의 길이가 채널 수인 1차원 벡터를 획득하는 것이다. 특징에 대해 글로벌 평균 풀링을 수행하여 1차원 벡터를 획득한 후, 완전 연결 계층을 통해 상기 1차원 벡터를 신경망을 통해 산출할 수 있고, 최종으로 두 개의 값(심각하거나 심각하지 않는 확률)을 획득하며, 마지막으로 softmax를 통해 여러 분류의 출력 수치(심각하거나 심각하지 않는 확률)를 상대 확률로 변환시켜 최종 예측 결과로 할 수 있다.Global average pooling is to obtain a one-dimensional vector whose length is the number of channels by calculating the average value of the three-dimensional matrix of each channel. After obtaining a one-dimensional vector by performing global average pooling on the features, the one-dimensional vector can be calculated through a neural network through a fully connected layer, and finally two values (probability of serious or non-serious) are obtained Finally, through softmax, the output values of various classifications (severe or non-serious probabilities) can be converted into relative probabilities and used as the final prediction result.

3. 예측 확률과 실제 확률을 가중 교차 엔트로피 손실 함수를 통해 생성된 예측 변화 상황과 실제 상황 사이의 오차를 산출하고, 역 유도 후 상기 분류 네트워크 중 각 파라미터의 기울기를 획득하며, 딥 러닝 옵티마이저(예컨대, Adam 옵티마이저)를 통해 업데이트된 차이 값을 산출하여 원 파라미터와 가산하여 상기 분류 네트워크 파라미터의 업데이트를 구현하고, 오차가 사전 설정 범위 내에 있을 때까지(예컨대, 오차가 0임) 이 프로세스를 지속적으로 반복함으로써 상기 분류 네트워크가 수렴된다. 이러한 방식으로 트레이닝된 타깃 분류 네트워크를 획득할 수 있다.3. Calculate the error between the predicted change situation and the actual situation generated through the cross entropy loss function by weighting the predicted probability and the actual probability, obtain the gradient of each parameter in the classification network after inverse derivation, and use the deep learning optimizer ( For example, by calculating the difference value updated through the Adam optimizer) and adding it to the original parameter to implement the update of the classification network parameter, this process is performed until the error is within a preset range (for example, the error is 0) By continuous iteration, the classification network converges. In this way, a trained target classification network can be obtained.

본 기술분야의 통상의 지식을 가진 자라면 구체적인 실시형태의 상기 이미지 처리 방법에서, 각 단계의 작성 순서가 엄격한 실행 순서를 의미하지 않으며 구현 과정에 대한 임의의 한정을 구성하지 않는다는 것을 이해할 수 있고, 각 단계의 구체적인 수행 순서는 그 기능 및 가능한 내적 논리에 의해 결정되어야 한다.A person of ordinary skill in the art can understand that in the image processing method of the specific embodiment, the writing order of each step does not imply a strict execution order and does not constitute any limitation on the implementation process, The specific execution order of each step should be determined by its function and possible internal logic.

본 발명에서 언급되는 상기 각 방법 실시예는 원리와 논리에 위배되지 않을 경우 모두 서로 결합되어 결합된 실시예를 형성할 수 있으며, 내용 제한으로 인해 본 발명의 실시예는 더이상 설명하지 않는다.Each of the method embodiments mentioned in the present invention may be combined with each other to form a combined embodiment as long as the principles and logic are not violated, and the embodiments of the present invention will not be described further due to content limitations.

이 외에, 본 발명의 실시예는 이미지 처리 장치, 전자 기기, 컴퓨터 판독 가능 저장 매체, 프로그램을 더 제공하고, 이들은 모두 본 발명의 실시예에서 제공되는 어느 하나의 이미지 처리 방법을 구현하는데 사용될 수 있으며, 상응한 기술적 해결수단과 설명은 방법 부분의 상응한 기재를 참조하며, 더이상 설명하지 않는다.In addition, the embodiment of the present invention further provides an image processing device, an electronic device, a computer readable storage medium, and a program, all of which can be used to implement any one image processing method provided in the embodiment of the present invention, , the corresponding technical solutions and explanations refer to the corresponding description in the method section and are not further described.

도 5는 본 발명의 실시예에서 제공되는 이미지 처리 장치의 구조 모식도이고, 도 5에 도시된 바와 같이, 본 발명의 실시예의 이미지 처리 장치는, 제1 이미지 및 제2 이미지를 타깃 분류 네트워크에 입력하여 분류 결과를 획득하도록 구성된 분류부(31); 및 상기 분류 결과에 따라, 변화 데이터에 대해 예측을 수행하여 예측 결과를 획득하도록 구성된 예측부(32)를 포함할 수 있고, 상기 변화 데이터는 상기 제1 이미지 중의 타깃 객체가 상기 제2 이미지 중의 영역 분포를 기반으로 처리를 수행하여 획득한 변화 상황을 나타낸다.5 is a structural schematic diagram of an image processing apparatus provided in an embodiment of the present invention, and as shown in FIG. 5 , the image processing apparatus according to an embodiment of the present invention inputs a first image and a second image to a target classification network a classification unit 31 configured to obtain a classification result; and a prediction unit 32 configured to obtain a prediction result by performing prediction on the change data according to the classification result, wherein the change data is a region in the second image where the target object in the first image is It represents the change situation obtained by performing processing based on the distribution.

본 발명의 일부 실시예에서, 상기 이미지 처리 장치는,In some embodiments of the present invention, the image processing device comprises:

분류 네트워크에 대해 트레이닝을 수행하여 트레이닝된 분류 네트워크를 획득하고,performing training on the classification network to obtain a trained classification network;

상기 트레이닝된 분류 네트워크를 상기 타깃 분류 네트워크로 하도록 구성된 트레이닝부를 더 포함한다.and a training unit configured to use the trained classification network as the target classification network.

본 발명의 일부 실시예에서, 상기 트레이닝부는,In some embodiments of the present invention, the training unit,

제1 이미지 및 제2 이미지에 대해 이미지 중첩 처리를 수행한 후 처리할 이미지를 획득하도록 구성된 중첩 서브부 - 상기 제1 이미지 및 상기 제2 이미지는 상이한 유형의 이미지 데이터임 - ; 및an overlapping sub-unit configured to obtain an image to be processed after performing image overlap processing on the first image and the second image, wherein the first image and the second image are different types of image data; and

상기 처리할 이미지를 트레이닝 샘플로서 상기 분류 네트워크에 입력하여 트레이닝을 수행함으로써, 상기 트레이닝된 분류 네트워크를 획득하도록 구성된 트레이닝 서브부를 포함한다.and a training sub-unit, configured to obtain the trained classification network by performing training by inputting the image to be processed as a training sample into the classification network.

본 발명의 일부 실시예에서, 상기 트레이닝부는,In some embodiments of the present invention, the training unit,

상기 타깃 객체의 윤곽에 따라, 상기 제1 이미지 및 상기 제2 이미지에 대해 각각 이미지 잘라내기를 수행하여, 잘라낸 제1 서브 이미지 데이터 및 제2 서브 이미지 데이터를 획득하고, 상기 제1 서브 이미지 데이터 및 상기 제2 서브 이미지 데이터를 상기 처리할 이미지로 하도록 구성된 분할 서브부를 더 포함한다.According to the contour of the target object, image cropping is performed on the first image and the second image, respectively, to obtain cropped first sub-image data and second sub-image data, and the first sub-image data and the and a division sub-unit configured to use the second sub-image data as the image to be processed.

본 발명의 일부 실시예에서, 상기 제1 서브 이미지 데이터 및 상기 제2 서브 이미지 데이터는 동일한 사이즈의 이미지 데이터이다.In some embodiments of the present invention, the first sub-image data and the second sub-image data are image data of the same size.

본 발명의 일부 실시예에서, 상기 트레이닝부는,In some embodiments of the present invention, the training unit,

상기 제1 서브 이미지 데이터 및 상기 제2 서브 이미지 데이터를 각각 대응되는 히스토그램으로 변환시키고, 히스토그램을 균등화 처리하여 균등화 처리 결과를 획득하며, 상기 균등화 처리 결과를 기반으로 상기 분류 네트워크에 대해 트레이닝을 수행하여 상기 트레이닝된 분류 네트워크를 획득하도록 구성된 균등화 처리 서브부를 더 포함한다.Converting the first sub-image data and the second sub-image data into corresponding histograms, performing equalization processing on the histogram to obtain equalization processing results, and performing training on the classification network based on the equalization processing results and an equalization processing sub-unit, configured to obtain the trained classification network.

본 발명의 일부 실시예에서, 상기 트레이닝부는,In some embodiments of the present invention, the training unit,

상기 제1 서브 이미지 데이터 및 상기 제2 서브 이미지 데이터에 포함된 대응하는 픽셀점에 대해 정규화 처리를 수행하여 정규화 처리 결과를 획득하고, 상기 정규화 처리 결과를 기반으로 상기 분류 네트워크에 대해 트레이닝을 수행하여 상기 트레이닝된 분류 네트워크를 획득하도록 구성된 정규화 처리 서브부를 더 포함한다.Normalization processing is performed on corresponding pixel points included in the first sub-image data and the second sub-image data to obtain a normalization processing result, and training is performed on the classification network based on the normalization processing result. and a normalization processing sub-unit, configured to obtain the trained classification network.

본 발명의 일부 실시예에서, 상기 분류 네트워크는 적어도 하나의 분류 처리 모듈을 포함하고,In some embodiments of the present invention, the classification network comprises at least one classification processing module,

상기 트레이닝 서브부는, 상기 적어도 하나의 분류 처리 모듈을 통해 상기 처리할 이미지에 대해 특징 추출, 차원 축소 처리 및 글로벌 평균 풀링 처리를 수행하여 손실 함수를 획득하고, 상기 손실 함수의 역전파에 따라 상기 분류 네트워크를 트레이닝시켜 상기 트레이닝된 분류 네트워크를 획득하도록 구성된다.The training sub unit obtains a loss function by performing feature extraction, dimensionality reduction processing, and global average pooling processing on the image to be processed through the at least one classification processing module, and the classification according to the backpropagation of the loss function and train the network to obtain the trained classification network.

본 발명의 일부 실시예에서, 각각의 상기 분류 처리 모듈은 적어도 콘볼루션 계층을 포함하고,In some embodiments of the present invention, each said classification processing module comprises at least a convolutional layer,

상기 트레이닝 서브부는, 상기 적어도 하나의 분류 처리 모듈 중의 대응하는 콘볼루션 계층을 통해 상기 처리할 이미지에 대해 특징 추출을 수행한 후, 차원 축소 처리를 수행하여 제1 처리 결과를 획득하고, 상기 제1 처리 결과에 대해 글로벌 평균 풀링 처리를 수행한 후 완전 연결 계층에 입력하여 추출된 특징의 예측 변화 상황을 나타내기 위한 제2 처리 결과를 획득하며, 상기 제2 처리 결과 및 수동 라벨링 결과에 따라 상기 손실 함수를 획득하도록 구성된다.The training sub unit performs feature extraction on the image to be processed through a corresponding convolutional layer in the at least one classification processing module, and then performs dimensionality reduction processing to obtain a first processing result, and After performing global average pooling processing on the processing result, the second processing result is obtained by inputting it into the fully connected layer to indicate the predicted change status of the extracted feature, and the loss according to the second processing result and manual labeling result is configured to obtain a function.

본 발명의 일부 실시예에서, 상기 분류 처리 모듈이 잔차 모듈일 경우, 각각의 잔차 모듈은 콘볼루션 계층, 정규화 계층 및 활성화 계층을 포함하고,In some embodiments of the present invention, when the classification processing module is a residual module, each residual module includes a convolutional layer, a normalization layer and an activation layer,

상기 트레이닝 서브부는, 적어도 하나의 잔차 모듈 중의 대응하는 콘볼루션 계층을 통해 상기 처리할 이미지에 대해 특징 추출을 수행한 후 획득한 제1 추출 결과에 대해 정규화 계층 및 활성화 계층을 통해 처리한 후 제2 추출 결과를 획득하고, 상기 제2 추출 결과 및 상기 처리할 이미지에 따라 제3 추출 결과를 획득하도록 구성된다.The training sub unit performs feature extraction on the image to be processed through a corresponding convolutional layer in at least one residual module, and then processes the first extraction result obtained through a normalization layer and an activation layer, and then a second and obtain an extraction result, and obtain a third extraction result according to the second extraction result and the image to be processed.

본 발명의 일부 실시예에서, 상기 트레이닝 서브부는, 상기 제3 추출 결과에 따라 차원 축소 처리를 수행하여 상기 제1 처리 결과를 획득하도록 구성된다.In some embodiments of the present invention, the training sub-unit is configured to perform dimensionality reduction processing according to the third extraction result to obtain the first processing result.

일부 실시예에서, 본 발명의 실시예에서 제공되는 장치에 구비되는 기능 또는 포함되는 모듈은 상술한 방법 실시예에서 설명된 방법을 수행할 수 있는데, 그 구체적인 구현은 상술한 방법 실시예에 대한 설명을 참조할 수 있으며, 간결함을 위해 여기서 더이상 설명하지 않는다.In some embodiments, a function or a module included in the apparatus provided in the embodiment of the present invention may perform the method described in the above-described method embodiment, the specific implementation of which is the description of the above-described method embodiment. , which is not further described here for the sake of brevity.

본 발명의 실시예는 컴퓨터 프로그램 명령이 저장된 컴퓨터 판독 가능 저장 매체를 더 제공하고, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우, 상기 어느 하나의 이미지 처리 방법이 구현된다. 컴퓨터 판독 가능 저장 매체는 비휘발성 컴퓨터 판독 가능 저장 매체일 수 있다.An embodiment of the present invention further provides a computer-readable storage medium storing computer program instructions, and when the computer program is executed by a processor, any one of the image processing methods is implemented. The computer-readable storage medium may be a non-volatile computer-readable storage medium.

본 발명의 실시예는, 프로세서 및 프로세서에 의해 실행 가능한 명령이 저장되도록 구성된 메모리를 포함하고, 상기 프로세서는 상기 어느 하나의 이미지 처리 방법을 수행하도록 구성된 전자 기기를 더 제공한다.An embodiment of the present invention further provides an electronic device comprising a processor and a memory configured to store instructions executable by the processor, wherein the processor is configured to perform any one of the image processing methods.

전자 기기는 단말기, 서버 또는 다른 형태의 기기일 수 있다.The electronic device may be a terminal, server, or other type of device.

본 발명의 실시예는 컴퓨터 판독 가능 코드를 포함하는 컴퓨터 프로그램을 더 제공하고, 상기 컴퓨터 판독 가능 코드가 전자 기기에서 실행될 경우, 상기 전자 기기의 프로세서가 상기 어느 하나의 이미지 처리 방법을 수행한다.An embodiment of the present invention further provides a computer program including a computer readable code, and when the computer readable code is executed in an electronic device, the processor of the electronic device performs any one of the image processing methods.

도 6은 본 발명의 실시예의 전자 기기의 구조 모식도이고, 도 6에 도시된 바와 같이, 전자 기기(800)는 휴대폰, 컴퓨터, 디지털 방송 단말기, 메시지 송수신 기기, 게임 콘솔, 태블릿 기기, 의료 기기, 피트니스 기기, 개인 정보 단말기 등 단말기일 수 있다.6 is a structural schematic diagram of an electronic device according to an embodiment of the present invention, and as shown in FIG. 6 , the electronic device 800 includes a mobile phone, a computer, a digital broadcasting terminal, a message transmitting/receiving device, a game console, a tablet device, a medical device, It may be a terminal such as a fitness device or a personal information terminal.

도 6을 참조하면, 전자 기기(800)는 제1 프로세싱 컴포넌트(802), 제1 메모리(804), 제1 전원 컴포넌트(806), 멀티미디어 컴포넌트(808), 오디오 컴포넌트(810), 제1 입력/출력(Input Output, I/O) 인터페이스(812), 센서 컴포넌트(814) 및 통신 컴포넌트(816) 중 하나 또는 복수 개의 컴포넌트를 포함할 수 있다.Referring to FIG. 6 , the electronic device 800 includes a first processing component 802 , a first memory 804 , a first power component 806 , a multimedia component 808 , an audio component 810 , and a first input may include one or more components of an Input Output (I/O) interface 812 , a sensor component 814 , and a communication component 816 .

제1 프로세싱 컴포넌트(802)는 일반적으로 디스플레이, 전화 호출, 데이터 통신, 카메라 동작 및 기록 동작과 관련된 동작과 같은 전자 기기(800)의 전체 동작을 제어한다. 제1 프로세싱 컴포넌트(802)는, 상기 이미지 처리 방법의 전부 또는 일부 단계를 완료하도록 하나 또는 복수 개의 프로세서(820)를 포함하여 명령을 실행한다. 이 외에, 제1 프로세싱 컴포넌트(802)는, 제1 프로세싱 컴포넌트(802)와 다른 컴포넌트 사이의 인터랙션을 진행하도록 하나 또는 복수 개의 모듈을 포함할 수 있다. 예를 들어, 제1 프로세싱 컴포넌트(802)는, 멀티미디어 컴포넌트(808)와 제1 프로세싱 컴포넌트(802) 사이의 인터랙션을 편리하게 진행하도록 멀티미디어 모듈을 포함할 수 있다.The first processing component 802 generally controls the overall operation of the electronic device 800 , such as operations related to displays, phone calls, data communications, camera operations, and recording operations. The first processing component 802 includes one or more processors 820 to execute instructions to complete all or some steps of the image processing method. In addition, the first processing component 802 may include one or a plurality of modules to facilitate the interaction between the first processing component 802 and other components. For example, the first processing component 802 may include a multimedia module to facilitate interaction between the multimedia component 808 and the first processing component 802 .

제1 메모리(804)는 다양한 유형의 데이터를 저장하여 전자 기기(800)에서의 동작을 지원한다. 이러한 데이터의 예시는 전자 기기(800)에서 동작하는 임의의 응용 프로그램 또는 방법의 명령, 연락처 데이터, 전화번호부 데이터, 메시지, 사진, 비디오 등을 포함한다. 제1 메모리(804)는, 정적 랜덤 액세스 메모리(Static Random-Access Memory, SRAM), 전기적 소거 가능 프로그램 가능 판독 전용 메모리(Electrically Erasable Programmable Read Only Memory, EEPROM), 소거 가능 프로그램 가능 판독 전용 메모리(Electrical Programmable Read Only Memory, EPROM), 프로그램 가능 판독 전용 메모리(Programmable Read-Only Memory, PROM), 판독 전용 메모리(Read-Only Memory, ROM), 자기 메모리, 플래시 메모리, 자기 디스크 또는 광 디스크와 같은 임의의 유형의 휘발성 또는 비휘발성 저장 기기 또는 이들의 조합에 의해 구현될 수 있다.The first memory 804 stores various types of data to support operations in the electronic device 800 . Examples of such data include commands, contact data, phonebook data, messages, photos, videos, and the like of any application or method operating in the electronic device 800 . The first memory 804 includes Static Random-Access Memory (SRAM), Electrically Erasable Programmable Read Only Memory (EEPROM), Erasable Programmable Read Only Memory (EEPROM), and Electrical Erasable Programmable Read Only Memory (EEPROM). Programmable Read Only Memory (EPROM), Programmable Read-Only Memory (PROM), Read-Only Memory (ROM), magnetic memory, flash memory, any It may be implemented by a tangible volatile or non-volatile storage device or a combination thereof.

제1 전원 컴포넌트(806)는 전자 기기(800)의 다양한 컴포넌트에게 전력을 제공한다. 제1 전원 컴포넌트(806)는 전원 관리 시스템, 하나 또는 복수 개의 전원, 및 전자 기기(800)의 생성, 관리, 및 전력 할당과 관련되는 다른 컴포넌트를 포함할 수 있다.The first power component 806 provides power to various components of the electronic device 800 . The first power component 806 may include a power management system, one or more power sources, and other components related to the creation, management, and power allocation of the electronic device 800 .

멀티미디어 컴포넌트(808)는 상기 전자 기기(800)와 사용자 사이에 출력 인터페이스를 제공하는 스크린을 포함한다. 일부 실시예에서, 스크린은 액정 디스플레이(Liquid Crystal Display, LCD) 및 터치 패드(Touch Pad, TP)를 포함할 수 있다. 만약 스크린이 터치 패드를 포함하면, 사용자로부터 입력 신호를 수신하도록 스크린은 터치 스크린으로 구현될 수 있다. 터치 패드는, 터치, 슬라이드 및 터치 패드에서의 제스처를 감지하기 위한 하나 또는 복수 개의 터치 센서를 포함한다. 상기 터치 센서는 터치 또는 슬라이드 동작의 경계를 감지할 뿐만 아니라, 상기 터치 또는 슬라이드 동작에 관련된 지속 시간 및 압력을 감지할 수도 있다. 일부 실시예에서, 멀티미디어 컴포넌트(808)는 하나의 전방 카메라 및/또는 후방 카메를 포함한다. 전자 기기(800)가 촬영 모드 또는 비디오 모드와 같은 동작 모드일 경우, 전방 카메라 및/또는 후방 카메라는 외부의 멀티미디어 데이터를 수신할 수 있다. 각각의 전방 카메라와 후방 카메라는 하나의 고정된 광학 렌즈 시스템일 수 있거나 초점 거리 및 광학 줌 기능을 가질 수 있다.The multimedia component 808 includes a screen that provides an output interface between the electronic device 800 and a user. In some embodiments, the screen may include a Liquid Crystal Display (LCD) and a Touch Pad (TP). If the screen includes a touch pad, the screen may be implemented as a touch screen to receive an input signal from a user. The touch pad includes one or a plurality of touch sensors for sensing touch, slide, and gestures on the touch pad. The touch sensor not only senses a boundary of a touch or slide action, but also senses a duration and pressure associated with the touch or slide action. In some embodiments, multimedia component 808 includes one front camera and/or one rear camera. When the electronic device 800 is in an operation mode such as a photographing mode or a video mode, the front camera and/or the rear camera may receive external multimedia data. Each of the front and rear cameras may be one fixed optical lens system or may have focal length and optical zoom functions.

오디오 컴포넌트(810)는 오디오 신호를 출력 및/또는 입력하도록 구성된다. 예를 들어, 오디오 컴포넌트(810)는 하나의 마이크(MIC)를 포함하고, 전자 기기(800)가 호출 모드, 기록 모드 및 음성 인식 모드와 같은 동작 모드일 경우, 마이크는 외부 오디오 신호를 수신하도록 구성된다. 수신된 오디오 신호는 제1 메모리(804)에 저장되거나 통신 컴포넌트(816)를 통해 송신될 수 있다. 일부 실시예에서, 오디오 컴포넌트(810)는 오디오 신호를 출력하기 위한 하나의 스피커를 더 포함한다.The audio component 810 is configured to output and/or input an audio signal. For example, the audio component 810 includes one microphone (MIC), and when the electronic device 800 is in an operation mode such as a call mode, a recording mode, and a voice recognition mode, the microphone is configured to receive an external audio signal. is composed The received audio signal may be stored in the first memory 804 or transmitted via the communication component 816 . In some embodiments, the audio component 810 further includes one speaker for outputting an audio signal.

제1 입력/출력 인터페이스(812)는 제1 프로세싱 컴포넌트(802)와 주변 장치 인터페이스 모듈 사이의 인터페이스를 제공하며, 상기 주변 장치 인터페이스 모듈은 키보드, 클릭 휠, 버튼 등일 수 있다. 이러한 버튼은 홈 버튼, 볼륨 버튼, 시작 버튼 및 잠금 버튼을 포함할 수 있지만 이에 한정되지 않는다.The first input/output interface 812 provides an interface between the first processing component 802 and a peripheral device interface module, which may be a keyboard, a click wheel, a button, or the like. Such buttons may include, but are not limited to, a home button, a volume button, a start button, and a lock button.

센서 컴포넌트(814)는 다양한 양태의 상태 평가를 전자 기기(800)에 제공하기 위한 하나 또는 복수 개의 센서를 포함한다. 예를 들어, 센서 컴포넌트(814)는 전자 기기(800)의 온/오프 상태, 컴포넌트의 상대적 위치를 감지할 수 있고, 예를 들어, 상기 컴포넌트는 전자 기기(800)의 디스플레이 및 키패드이고, 센서 컴포넌트(814)는 전자 기기(800) 또는 전자 기기(800)의 컴포넌트의 위치 변화, 사용자와 전자 기기(800) 사이의 접촉 여부, 전자 기기(800) 방위 또는 가속/감속 및 전자 기기(800)의 온도 변화를 감지할 수 있다. 센서 컴포넌트(814)는 물리적 접촉없이 주변 물체의 존재를 감지하는 근접 센서를 포함할 수 있다. 센서 컴포넌트(814)는 어떠한 물리적 접촉이 존재하지 않을 경우 근처 물체의 존재를 감지하도록 구성된 접근 센서를 포함할 수 있다. 센서 컴포넌트(814)는 이미징 애플리케이션에 사용하기 위한 상보성 금속 산화물 반도체(Complementary Metal Oxide Semiconductor, CMOS) 또는 전하 결합 소자(Charge Coupled Device, CCD) 이미지 센서와 같은 광 센서를 더 포함할 수 있다. 일부 실시예에서, 상기 센서 컴포넌트(814)는 가속도 센서, 자이로 센서, 자기 센서, 압력 센서 또는 온도 센서를 더 포함할 수 있다.The sensor component 814 includes one or a plurality of sensors for providing the electronic device 800 with status assessments of various aspects. For example, the sensor component 814 may sense the on/off state of the electronic device 800 , the relative position of the component, for example, the component is the display and keypad of the electronic device 800 , and a sensor The component 814 is the electronic device 800 or a change in the position of a component of the electronic device 800 , whether the user and the electronic device 800 are in contact, the orientation or acceleration/deceleration of the electronic device 800 , and the electronic device 800 . temperature change can be detected. The sensor component 814 may include a proximity sensor that senses the presence of a surrounding object without physical contact. The sensor component 814 may include a proximity sensor configured to sense the presence of a nearby object when no physical contact is present. The sensor component 814 may further include an optical sensor, such as a Complementary Metal Oxide Semiconductor (CMOS) or Charge Coupled Device (CCD) image sensor for use in imaging applications. In some embodiments, the sensor component 814 may further include an acceleration sensor, a gyro sensor, a magnetic sensor, a pressure sensor, or a temperature sensor.

통신 컴포넌트(816)는 전자 기기(800)와 다른 기기 사이의 유선 또는 무선 방식의 통신이 용이하도록 구성된다. 전자 기기(800)는 WiFi, 2G 또는 3G 또는 이들의 조합과 같은 통신 표준에 기반한 무선 네트워크에 액세스할 수 있다. 일 예시적인 실시예에서, 통신 컴포넌트(816)는 방송 채널을 통해 외부 방송 관리 시스템으로부터 방송 신호 또는 방송 관련 정보를 수신한다. 일 예시적인 실시예에서, 상기 통신 컴포넌트(816)는 근거리 통신을 촉진하는 근거리 통신(Near Field Communication, NFC) 모듈을 더 포함한다. 예를 들어, NFC 모듈은 무선 주파수 식별(Radio Frequency Identification, RFID) 기술, 적외선 통신 규격(Infrared Data Association, IrDA) 기술, 초광대역(Ultra Wide Band, UWB) 기술, 블루투스(Bluetooth, BT) 기술 및 다른 기술을 기반으로 구현될 수 있다.The communication component 816 is configured to facilitate wired or wireless communication between the electronic device 800 and other devices. The electronic device 800 may access a wireless network based on a communication standard such as WiFi, 2G or 3G, or a combination thereof. In an exemplary embodiment, the communication component 816 receives a broadcast signal or broadcast related information from an external broadcast management system through a broadcast channel. In one exemplary embodiment, the communication component 816 further includes a Near Field Communication (NFC) module that facilitates near field communication. For example, the NFC module includes a radio frequency identification (RFID) technology, an infrared communication standard (Infrared Data Association, IrDA) technology, an Ultra Wide Band (UWB) technology, a Bluetooth (BT) technology, and It can be implemented based on other technologies.

예시적인 실시예에서, 전자 기기(800)는 하나 또는 복수 개의 응용 주문형 집적 회로(Application Specific Integrated Circuit, ASIC), 디지털 신호 프로세서(Digital Signal Processor, DSP), 디지털 신호 프로세서 기기(Digital Signal Process, DSPD), 프로그램 가능 논리 소자(Programmable Logic Device, PLD), 필드 프로그램 가능 게이트 어레이(Field Programmable Gate Array, FPGA), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 다른 전자 소자에 의해 구현되어 상기 이미지 처리 방법을 실행할 수 있다.In an exemplary embodiment, the electronic device 800 includes one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processor devices (DSPDs). ), a Programmable Logic Device (PLD), a Field Programmable Gate Array (FPGA), a controller, microcontroller, microprocessor or other electronic device capable of executing the image processing method. have.

예시적인 실시예에서, 상기 어느 하나의 이미지 처리 방법을 수행하기 위해 전자 기기(800)의 프로세서(820)에 의해 실행 가능한 컴퓨터 프로그램 명령을 포함하는 제1 메모리(804)를 포함하는 비휘발성 컴퓨터 판독 가능 저장 매체를 더 제공한다.In an exemplary embodiment, a non-volatile computer readout comprising a first memory 804 comprising computer program instructions executable by the processor 820 of the electronic device 800 to perform any of the above image processing methods. A possible storage medium is further provided.

도 7은 본 발명의 실시예의 다른 전자 기기의 구조 모식도이고, 도 7에 도시된 바와 같이, 전자 기기(900)는 하나의 서버로 제공될 수 있다. 도 7을 참조하면, 전자 기기(900)는 제2 프로세싱 컴포넌트(922)를 포함하고, 이는 또한 하나 또는 복수 개의 프로세서 및 프로세싱 컴포넌트(922)에 의해 실행 가능한 명령, 예를 들어 애플리케이션 프로그램을 저장하기 위한 제2 메모리(932)를 대표로 하는 메모리 리소스를 포함한다. 제2 메모리(932)에 저장된 애플리케이션 프로그램은 하나 또는 하나 이상의 각각의 명령에 대응되는 모듈을 포함할 수 있다. 이 외에, 제2 프로세싱 컴포넌트(922)는 상기 이미지 처리 방법 수행하도록 명령을 실행한다.7 is a structural schematic diagram of another electronic device according to an embodiment of the present invention, and as shown in FIG. 7 , the electronic device 900 may be provided as one server. Referring to FIG. 7 , the electronic device 900 includes a second processing component 922 , which also stores instructions executable by one or more processors and processing components 922 , for example an application program. and a memory resource representative of the second memory 932 for The application program stored in the second memory 932 may include one or more modules corresponding to each command. In addition, the second processing component 922 executes instructions to perform the image processing method.

전자 기기(900)는 전자 기기(900)의 전원 관리를 실행하도록 구성된 하나의 제2 전원 컴포넌트(926), 전자 기기(900)를 네트워크에 연결하도록 구성된 하나의 유선 또는 무선 네트워크 인터페이스(950), 및 제2 입출력(I/O) 인터페이스(958)를 더 포함할 수 있다. 전자 기기(900)는 제2 메모리(932)에 저장된 운영 체제, 예를 들어 Windows ServerTM, Mac OS XTM, UnixTM, LinuxTM, FreeBSDTM 등과 같은 것을 작동시킬 수 있다.The electronic device 900 includes one second power component 926 configured to perform power management of the electronic device 900 , one wired or wireless network interface 950 configured to connect the electronic device 900 to a network; and a second input/output (I/O) interface 958 . The electronic device 900 may operate an operating system stored in the second memory 932 , for example, Windows Server™, Mac OS X™, Unix™, Linux™, FreeBSD™, or the like.

예시적인 실시예에서, 상기 이미지 처리 방법을 수행하기 위해 전자 기기(900)의 제2 프로세싱 컴포넌트(922)에 의해 실행 가능한 컴퓨터 프로그램 명령을 포함하는 제2 메모리(932)를 포함하는 비휘발성 컴퓨터 판독 가능 저장 매체를 더 제공한다.In an exemplary embodiment, a non-volatile computer read comprising a second memory 932 comprising computer program instructions executable by a second processing component 922 of an electronic device 900 to perform the image processing method A possible storage medium is further provided.

본 발명의 실시예는 시스템, 방법 및/또는 컴퓨터 프로그램 제품일 수 있다. 컴퓨터 프로그램 제품은 프로세서로 하여금 본 발명의 각각의 양태를 구현하도록 하는 컴퓨터 판독 가능 프로그램 명령이 탑재된 컴퓨터 판독 가능 저장 매체를 포함할 수 있다.An embodiment of the invention may be a system, method and/or computer program product. The computer program product may include a computer-readable storage medium having loaded thereon computer-readable program instructions for causing a processor to implement each aspect of the present invention.

컴퓨터 판독 가능 저장 매체는 명령 실행 기기에 의해 사용되는 명령을 유지하고 저장할 수 있는 유형의 기기일 수 있다. 컴퓨터 판독 가능 저장 매체는 전기 저장 기기, 자기 저장 기기, 광 저장 기기, 전자기 저장 기기, 반도체 저장 기기 또는 이들의 임의의 적합한 조합일 수 있으나 이에 한정되지 않는다. 컴퓨터 판독 가능 저장 매체의 더욱 구체적인 예(비 완전 리스트)로는, 휴대용 컴퓨터 디스크, 하드 디스크, 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 소거 가능 프로그램 가능 판독 전용 메모리(EPROM 또는 플래시 메모리), 정적 랜덤 액세스 메모리(SRAM), 콤팩트 디스크 판독 전용 메모리(CD-ROM), 디지털 비디오 디스크(Digital Video Disc, DVD), 메모리 스틱, 플로피 디스크, 기계 인코딩 기기, 명령이 저장된 펀치 카드 또는 요홈 내 돌기 구조 및 이들의 임의의 적합한 조합을 포함한다. 여기서 사용되는 컴퓨터 판독 가능 저장 매체는 무선 전기파 또는 다른 자유롭게 전파되는 전자기파, 도파관 또는 다른 전송 매체를 통해 전파되는 전자기파(예를 들어, 광섬유 케이블을 통한 광 펄스), 또는 전기선을 통해 전송되는 전기 신호와 같은 일시적 신호 자체로 해석되지 않는다.A computer-readable storage medium may be a tangible device that can hold and store instructions for use by an instruction execution device. The computer-readable storage medium may be, but is not limited to, an electrical storage device, a magnetic storage device, an optical storage device, an electromagnetic storage device, a semiconductor storage device, or any suitable combination thereof. More specific examples (non-exhaustive list) of computer-readable storage media include, but are not limited to, portable computer disks, hard disks, random access memory (RAM), read-only memory (ROM), erasable programmable read-only memory (EPROM or flash memory). , static random access memory (SRAM), compact disc read-only memory (CD-ROM), digital video disc (DVD), memory sticks, floppy disks, machine encoding devices, punch cards with instructions stored therein, or projections in grooves structures and any suitable combination thereof. As used herein, a computer-readable storage medium includes wireless electrical waves or other freely propagating electromagnetic waves, electromagnetic waves propagating through waveguides or other transmission media (eg, light pulses through fiber optic cables), or electrical signals transmitted over electrical wires and It is not interpreted as the same temporary signal itself.

여기서 설명되는 컴퓨터 판독 가능 프로그램 명령은 컴퓨터 판독 가능 저장 매체로부터 각각의 컴퓨팅/프로세싱 기기에 다운로드될 수 있거나, 인터넷, 근거리 통신망, 광역 통신망 및/또는 무선 인터넷과 같은 네트워크를 통해 외부 컴퓨터 또는 외부 저장 기기에 다운로드될 수 있다. 네트워크는 구리 전송 케이블, 광섬유 전송, 무선 전송, 라우터, 방화벽, 교환기, 게이트웨이 컴퓨터 및/또는 에지 서버를 포함할 수 있다. 각 컴퓨팅/프로세싱 기기의 네트워크 어댑터 또는 네트워크 인터페이스는 각각의 컴퓨팅/프로세싱 기기의 컴퓨터 판독 가능 저장 매체에 저장되도록 네트워크로부터 컴퓨터 판독 가능 프로그램 명령을 수신하고, 상기 컴퓨터 판독 가능 프로그램 명령을 전달한다.The computer readable program instructions described herein may be downloaded to each computing/processing device from a computer readable storage medium, or through a network such as the Internet, a local area network, a wide area network and/or a wireless Internet, an external computer or external storage device. can be downloaded to Networks may include copper transport cables, fiber optic transport, wireless transport, routers, firewalls, switches, gateway computers and/or edge servers. A network adapter or network interface of each computing/processing device receives computer readable program instructions from the network to be stored in a computer readable storage medium of each computing/processing device, and transmits the computer readable program instructions.

본 발명의 실시예의 동작을 실행하는 컴퓨터 프로그램 명령은 어셈블리 명령, 명령 세트 아키텍처(ISA) 명령, 기계 명령, 기계 관련 명령, 마이크로 코드, 펌웨어 명령, 상태 설정 데이터 또는 하나 또는 복수 개의 프로그래밍 언어의 임의의 조합으로 작성되는 소스 코드 또는 오브젝트 코드일 수 있고, 상기 프로그래밍 언어는 Smalltalk, C++ 등과 같은 객체 지향 프로그래밍 언어와 "C" 언어 또는 유사한 프로그래밍 언어와 같은 기존 절차적 프로그래밍 언어를 포함한다. 컴퓨터 판독 가능 프로그램 명령은 완전히 사용자의 컴퓨터에서 실행되거나, 부분적으로 사용자의 컴퓨터에서 실행되거나, 독립형 소프트웨어 패키지로서 실행되거나, 일부는 사용자의 컴퓨터에서 실행되고 일부는 원격 컴퓨터에서 실행되거나, 또는 완전히 원격 컴퓨터 또는 서버에서 실행될 수 있다. 원격 컴퓨터의 경우, 원격 컴퓨터는 근거리 통신망(Local Area Network, LAN) 또는 광역 통신망(Wide Area Network, WAN)을 포함한 임의의 종류의 네트워크를 통해 사용자의 컴퓨터에 연결되거나 외부 컴퓨터에 연결될 수 있다(예를 들어, 인터넷 서비스 제공 업체를 이용하여 인터넷을 통해 연결). 일부 실시예에서, 컴퓨터 판독 가능 프로그램 명령의 상태 정보를 이용하여, 프로그램 가능 논리 회로, FPGA 또는 프로그램 가능 어레이(Programmable Logic Array, PLA)와 같은 전자 회로를 개성화 맞춤하고, 상기 전자 회로는 컴퓨터 판독 가능 프로그램 명령을 실행함으로써 본 발명의 실시예의 각 양태를 구현할 수 있다.The computer program instructions for executing the operations of the embodiments of the present invention may include assembly instructions, instruction set architecture (ISA) instructions, machine instructions, machine-related instructions, microcode, firmware instructions, state setting data, or any of one or more programming languages. It may be source code or object code written in combination, and the programming language includes an object-oriented programming language such as Smalltalk, C++, or the like, and an existing procedural programming language such as a "C" language or similar programming language. The computer readable program instructions run entirely on the user's computer, partially on the user's computer, as a standalone software package, in part on the user's computer and partly on the remote computer, or entirely on the remote computer Or it can run on a server. In the case of a remote computer, the remote computer may be connected to your computer or to an external computer through any kind of network, including a local area network (LAN) or a wide area network (WAN) (e.g. For example, using an Internet service provider to connect via the Internet). In some embodiments, state information in computer readable program instructions is used to personalize an electronic circuit, such as a programmable logic circuit, an FPGA, or a programmable logic array (PLA), the electronic circuit being computer readable. Each aspect of the embodiments of the present invention may be implemented by executing program instructions.

여기서 본 발명의 실시예의 방법, 장치(시스템) 및 컴퓨터 프로그램 제품의 흐름도 및/또는 블록도를 참조하여 본 발명의 실시예의 각 양태를 설명한다. 흐름도 및/또는 블록도의 각각의 블록 및 흐름도 및/또는 블록도 중 각 블록의 조합은 모두 컴퓨터 판독 가능 프로그램 명령에 의해 구현될 수 있음을 이해해야 한다.Herein, each aspect of an embodiment of the present invention will be described with reference to a flowchart and/or a block diagram of a method, an apparatus (system) and a computer program product of the embodiment of the present invention. It should be understood that each block in the flowcharts and/or block diagrams and combinations of respective blocks in the flowcharts and/or block diagrams may all be implemented by computer readable program instructions.

이러한 컴퓨터 판독 가능 프로그램 명령은 범용 컴퓨터, 전용 컴퓨터 또는 다른 프로그램 가능 데이터 처리 장치의 프로세서에 제공되어 하나의 기계를 생성함으로써, 이러한 명령이 컴퓨터 또는 다른 프로그램 가능 데이터 처리 장치의 프로세서에 의해 실행될 경우, 흐름도 및/또는 블록도 중 하나 또는 복수 개의 블록에 특정된 기능/동작을 구현하는 장치를 생성할 수 있다. 또한, 이러한 컴퓨터 판독 가능 프로그램 명령을 컴퓨터 판독 가능 저장 매체에 저장할 수 있고, 이러한 명령은 컴퓨터, 프로그램 가능 데이터 처리 장치 및/또는 다른 기기가 특정된 방식으로 작업하도록 함으로써, 명령이 저장된 컴퓨터 판독 가능 매체는 흐름도 및/또는 블록도 중 하나 또는 복수 개의 블록에 특정된 기능/동작의 각 양태를 구현하는 명령을 포함하는 하나의 제조품을 포함한다.These computer readable program instructions are provided to the processor of a general purpose computer, special purpose computer, or other programmable data processing device to create a machine, such that when these instructions are executed by the processor of the computer or other programmable data processing device, the flow chart and/or an apparatus that implements functions/acts specified in one or a plurality of blocks in the block diagram. Further, such computer readable program instructions may be stored in a computer readable storage medium, which instructions cause a computer, programmable data processing apparatus, and/or other device to work in a specified manner, thereby causing the computer readable medium having the instructions stored thereon. includes an article of manufacture comprising instructions for implementing each aspect of a function/action specified in one or a plurality of blocks of the flowchart and/or block diagrams.

또한 컴퓨터 판독 가능 프로그램 명령을 컴퓨터, 다른 프로그램 가능 데이터 처리 장치, 또는 다른 기기에 로딩하여 컴퓨터, 다른 프로그램 가능 데이터 처리 장치 또는 다른 기기에서 일련의 동작의 단계가 수행되도록 하여 컴퓨터에 의해 구현되는 프로세스가 생성되도록 함으로써, 컴퓨터, 다른 프로그램 가능 데이터 처리 장치, 또는 다른 기기에서 실행되는 명령이 흐름도 및/또는 블록도 중 하나 또는 복수 개의 블록에 특정된 기능/동작이 구현하도록 할 수 있다.Also, a process implemented by a computer by loading computer readable program instructions into a computer, other programmable data processing device, or other device causes a sequence of steps to be performed on the computer, other programmable data processing device, or other device. By causing them to be generated, instructions executed on a computer, other programmable data processing device, or other device may cause functions/actions specified in one or a plurality of blocks in the flowcharts and/or block diagrams to be implemented.

도면의 흐름도 및 블록도는 본 발명의 다양한 실시예에 따른 시스템, 방법 및 컴퓨터 프로그램 제품의 구현 가능한 아키텍처, 기능 및 동작을 도시한다. 이 점에서, 흐름도 또는 블록도의 각 블록은 특정된 논리적 기능을 구현하기 위한 하나 또는 다수의 실행 가능한 명령을 포함하는 모듈, 프로그램 세그먼트 또는 명령의 일부를 나타낼 수 있다. 일부 대안적인 구현에서, 블록에 표기된 기능은 도면에 도시된 것과 다른 순서로 구현될 수도 있음에 유의해야 한다. 예를 들어, 연속적으로 표현된 2개의 블록은 실제로 병렬 실행될 수 있고, 관련 기능에 따라 때때로 역순으로 실행될 수도 있다. 또한, 블록도 및/또는 흐름도의 각 블록, 및 블록도 및/또는 흐름도에서 블록의 조합은 특정된 기능 또는 동작을 수행하는 전용 하드웨어 기반 시스템에 의해 구현될 수 있거나, 전용 하드웨어와 컴퓨터 명령어의 조합에 의해 구현될 수도 있음에 유의해야 한다.The flowchart and block diagrams in the drawings illustrate the possible architectures, functions, and operations of systems, methods, and computer program products in accordance with various embodiments of the present invention. In this regard, each block in the flowchart or block diagrams may represent a module, program segment, or portion of an instruction comprising one or more executable instructions for implementing specified logical functions. It should be noted that, in some alternative implementations, the functions indicated in the blocks may be implemented in a different order than shown in the figures. For example, two blocks expressed in succession may actually be executed in parallel, or may sometimes be executed in the reverse order depending on the function involved. In addition, each block in the block diagrams and/or flowcharts, and combinations of blocks in the block diagrams and/or flowcharts, may be implemented by dedicated hardware-based systems that perform specified functions or operations, or combinations of dedicated hardware and computer instructions. It should be noted that it may be implemented by

위 내용에서는 본 발명의 각 실시예를 이미 설명하였고, 상기 설명은 예시적인 것일 뿐 완전한 것이 아니며, 개시된 각 실시예에 한정되지도 않는다. 설명된 각 실시예의 범위 및 사상을 벗어나지 않는 전제 하에서의 많은 수정 및 변경은 본 기술분야의 통상의 지식을 가진 자에게 있어서 모두 자명한 것이다. 본 명세서에서 사용되 용어의 선택은 각 실시예의 원리, 실제 응용 또는 시장의 기술에 대한 기술 개선을 가장 잘 설명하거나, 또는 본 기술분야의 다른 통상의 지식을 가진 자가 본 명세서에 개시된 각 실시예를 이해할 수 있도록 하기 위한 것이다.In the above content, each embodiment of the present invention has already been described, and the above description is illustrative only and not exhaustive, and is not limited to each disclosed embodiment. Many modifications and changes without departing from the scope and spirit of each described embodiment will be apparent to those of ordinary skill in the art. The choice of terminology used herein best describes the principle of each embodiment, practical application, or technological improvement over market technology, or one of ordinary skill in the art will describe each embodiment disclosed herein by one of ordinary skill in the art. to make it understandable.

산업상 이용 가능성Industrial Applicability

본 발명의 실시예는 이미지 처리 방법 및 장치, 전자 기기, 컴퓨터 저장 매체 및 컴퓨터 프로그램을 제공하고, 상기 이미지 처리 방법은, 제1 이미지 및 제2 이미지를 타깃 분류 네트워크에 입력하여 분류 결과를 획득하는 단계; 및 상기 분류 결과에 따라, 변화 데이터에 대해 예측을 수행하여 예측 결과를 획득하는 단계를 포함하며, 상기 변화 데이터는 상기 제1 이미지 중의 타깃 객체가 상기 제2 이미지 중의 영역 분포를 기반으로 처리를 수행하여 획득한 변화 상황을 나타낸다.An embodiment of the present invention provides an image processing method and apparatus, an electronic device, a computer storage medium and a computer program, wherein the image processing method inputs a first image and a second image to a target classification network to obtain a classification result step; and obtaining a prediction result by performing prediction on change data according to the classification result, wherein the change data is processed based on the distribution of regions in the second image of the target object in the first image It indicates the status of the change obtained.

Claims (25)

이미지 처리 방법으로서,
제1 이미지 및 제2 이미지를 타깃 분류 네트워크에 입력하여 분류 결과를 획득하는 단계; 및
상기 분류 결과에 따라, 변화 데이터에 대해 예측을 수행하여 예측 결과를 획득하는 단계를 포함하고, 상기 변화 데이터는 상기 제1 이미지 중의 타깃 객체가 상기 제2 이미지 중의 영역 분포를 기반으로 처리를 수행하여 획득한 변화 상황을 나타내는 것을 특징으로 하는 이미지 처리 방법.
An image processing method comprising:
inputting the first image and the second image into a target classification network to obtain a classification result; and
and obtaining a prediction result by performing prediction on change data according to the classification result, wherein a target object in the first image is processed based on an area distribution in the second image, An image processing method, characterized in that it represents the acquired change situation.
제1항에 있어서,
상기 이미지 처리 방법은,
분류 네트워크에 대해 트레이닝을 수행하여 트레이닝된 분류 네트워크를 획득하는 단계; 및
상기 트레이닝된 분류 네트워크를 상기 타깃 분류 네트워크로 하는 단계를 더 포함하는 것을 특징으로 하는 이미지 처리 방법.
According to claim 1,
The image processing method is
performing training on the classification network to obtain a trained classification network; and
The image processing method according to claim 1, further comprising the step of using the trained classification network as the target classification network.
제2항에 있어서,
상기 분류 네트워크에 대해 트레이닝을 수행하여 트레이닝된 분류 네트워크를 획득하는 단계는,
제1 이미지 및 제2 이미지에 대해 이미지 중첩 처리를 수행한 후 처리할 이미지를 획득하는 단계 - 상기 제1 이미지 및 상기 제2 이미지는 상이한 유형의 이미지 데이터임 - ; 및
상기 처리할 이미지를 트레이닝 샘플로서 상기 분류 네트워크에 입력하여 트레이닝을 수행함으로써, 상기 트레이닝된 분류 네트워크를 획득하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
3. The method of claim 2,
Obtaining a trained classification network by performing training on the classification network,
obtaining an image to be processed after performing image superposition processing on the first image and the second image, wherein the first image and the second image are different types of image data; and
and acquiring the trained classification network by performing training by inputting the image to be processed as a training sample into the classification network.
제3항에 있어서,
상기 처리할 이미지를 획득하는 단계는,
상기 타깃 객체의 윤곽에 따라, 상기 제1 이미지 및 상기 제2 이미지에 대해 각각 이미지 잘라내기를 수행하여, 잘라낸 제1 서브 이미지 데이터 및 제2 서브 이미지 데이터를 획득하는 단계; 및
상기 제1 서브 이미지 데이터 및 상기 제2 서브 이미지 데이터를 상기 처리할 이미지로 하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
4. The method of claim 3,
The step of obtaining the image to be processed includes:
performing image cropping on the first image and the second image according to the contour of the target object, respectively, to obtain cropped first sub-image data and second sub-image data; and
and using the first sub-image data and the second sub-image data as the image to be processed.
제4항에 있어서,
상기 제1 서브 이미지 데이터 및 상기 제2 서브 이미지 데이터는 동일한 사이즈의 이미지 데이터인 것을 특징으로 하는 이미지 처리 방법.
5. The method of claim 4,
The image processing method according to claim 1, wherein the first sub-image data and the second sub-image data are image data of the same size.
제4항 또는 제5항에 있어서,
상기 처리할 이미지를 트레이닝 샘플로서 상기 분류 네트워크에 입력하여 트레이닝을 수행함으로써, 상기 트레이닝된 분류 네트워크를 획득하는 단계는,
상기 제1 서브 이미지 데이터 및 상기 제2 서브 이미지 데이터를 각각 대응되는 히스토그램으로 변환시키고, 히스토그램을 균등화 처리하여 균등화 처리 결과를 획득하는 단계; 및
상기 균등화 처리 결과를 기반으로 상기 분류 네트워크에 대해 트레이닝을 수행하여 상기 트레이닝된 분류 네트워크를 획득하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
6. The method according to claim 4 or 5,
Obtaining the trained classification network by performing training by inputting the image to be processed into the classification network as a training sample,
converting the first sub-image data and the second sub-image data into corresponding histograms, respectively, and equalizing the histograms to obtain an equalization result; and
and acquiring the trained classification network by performing training on the classification network based on the equalization processing result.
제4항 또는 제5항에 있어서,
상기 처리할 이미지를 트레이닝 샘플로서 상기 분류 네트워크에 입력하여 트레이닝을 수행함으로써, 상기 트레이닝된 분류 네트워크를 획득하는 단계는,
상기 제1 서브 이미지 데이터 및 상기 제2 서브 이미지 데이터에 포함된 대응하는 픽셀점에 대해 정규화 처리를 수행하여 정규화 처리 결과를 획득하는 단계; 및
상기 정규화 처리 결과를 기반으로 상기 분류 네트워크에 대해 트레이닝을 수행하여 상기 트레이닝된 분류 네트워크를 획득하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
6. The method according to claim 4 or 5,
Obtaining the trained classification network by performing training by inputting the image to be processed into the classification network as a training sample,
obtaining a normalization processing result by performing normalization processing on corresponding pixel points included in the first sub-image data and the second sub-image data; and
and acquiring the trained classification network by performing training on the classification network based on the normalization processing result.
제3항 내지 제7항 중 어느 한 항에 있어서,
상기 분류 네트워크는 적어도 하나의 분류 처리 모듈을 포함하고,
상기 처리할 이미지를 트레이닝 샘플로서 상기 분류 네트워크에 입력하여 트레이닝을 수행함으로써, 상기 트레이닝된 분류 네트워크를 획득하는 단계는,
상기 적어도 하나의 분류 처리 모듈을 통해 상기 처리할 이미지에 대해 특징 추출, 차원 축소 처리 및 글로벌 평균 풀링 처리를 수행하여 손실 함수를 획득하는 단계; 및
상기 손실 함수의 역전파에 따라 상기 분류 네트워크를 트레이닝시켜 상기 트레이닝된 분류 네트워크를 획득하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
8. The method according to any one of claims 3 to 7,
the classification network comprises at least one classification processing module;
Obtaining the trained classification network by performing training by inputting the image to be processed into the classification network as a training sample,
obtaining a loss function by performing feature extraction, dimension reduction processing, and global average pooling processing on the image to be processed through the at least one classification processing module; and
and training the classification network according to backpropagation of the loss function to obtain the trained classification network.
제8항에 있어서,
각각의 상기 분류 처리 모듈은 적어도 콘볼루션 계층을 포함하고,
상기 적어도 하나의 분류 처리 모듈을 통해 상기 처리할 이미지에 대해 특징 추출, 차원 축소 처리 및 글로벌 평균 풀링 처리를 수행하여 손실 함수를 획득하는 단계는,
상기 적어도 하나의 분류 처리 모듈 중의 대응하는 콘볼루션 계층을 통해 상기 처리할 이미지에 대해 특징 추출을 수행한 후, 차원 축소 처리를 수행하여 제1 처리 결과를 획득하는 단계;
상기 제1 처리 결과에 대해 글로벌 평균 풀링 처리를 수행한 후 완전 연결 계층에 입력하여 추출된 특징의 예측 변화 상황을 나타내기 위한 제2 처리 결과를 획득하는 단계; 및
상기 제2 처리 결과 및 수동 라벨링 결과에 따라 상기 손실 함수를 획득하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
9. The method of claim 8,
each said classification processing module comprises at least a convolutional layer,
The step of obtaining a loss function by performing feature extraction, dimension reduction processing, and global average pooling processing on the image to be processed through the at least one classification processing module,
obtaining a first processing result by performing feature extraction on the image to be processed through a corresponding convolutional layer in the at least one classification processing module, and then performing dimensionality reduction processing;
performing global average pooling processing on the first processing result and then inputting it to a fully connected layer to obtain a second processing result for indicating a prediction change state of the extracted feature; and
and obtaining the loss function according to the second processing result and the manual labeling result.
제9항에 있어서,
상기 분류 처리 모듈이 잔차 모듈일 경우, 각각의 상기 잔차 모듈은 콘볼루션 계층, 정규화 계층 및 활성화 계층을 포함하고,
상기 적어도 하나의 분류 처리 모듈 중의 대응하는 콘볼루션 계층을 통해 상기 처리할 이미지에 대해 특징 추출을 수행한 후에,
적어도 하나의 잔차 모듈 중의 대응하는 콘볼루션 계층을 통해 상기 처리할 이미지에 대해 특징 추출을 수행한 후 획득한 제1 추출 결과에 대해 정규화 계층 및 활성화 계층을 통해 처리한 후 제2 추출 결과를 획득하는 단계; 및
상기 제2 추출 결과 및 상기 처리할 이미지에 따라 제3 추출 결과를 획득하는 단계를 더 포함하는 것을 특징으로 하는 이미지 처리 방법.
10. The method of claim 9,
When the classification processing module is a residual module, each of the residual module includes a convolutional layer, a normalization layer and an activation layer,
After performing feature extraction on the image to be processed through a corresponding convolutional layer in the at least one classification processing module,
Obtaining a second extraction result after processing through a normalization layer and an activation layer on a first extraction result obtained after performing feature extraction on the image to be processed through a corresponding convolutional layer in at least one residual module step; and
The image processing method further comprising the step of obtaining a third extraction result according to the second extraction result and the image to be processed.
제10항에 있어서,
상기 차원 축소 처리를 수행하여 제1 처리 결과를 획득하는 단계는,
상기 제3 추출 결과에 따라 차원 축소 처리를 수행하여 상기 제1 처리 결과를 획득하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
11. The method of claim 10,
The step of performing the dimension reduction processing to obtain a first processing result,
and obtaining the first processing result by performing dimensionality reduction processing according to the third extraction result.
이미지 처리 장치로서,
제1 이미지 및 제2 이미지를 타깃 분류 네트워크에 입력하여 분류 결과를 획득하도록 구성된 분류부;
상기 분류 결과에 따라, 변화 데이터에 대해 예측을 수행하여 예측 결과를 획득하도록 구성된 예측부를 포함하고,
상기 변화 데이터는 상기 제1 이미지 중의 타깃 객체가 상기 제2 이미지 중의 영역 분포를 기반으로 처리를 수행하여 획득한 변화 상황을 나타내는 것을 특징으로 하는 이미지 처리 장치.
An image processing device comprising:
a classification unit configured to input the first image and the second image into the target classification network to obtain a classification result;
a prediction unit configured to obtain a prediction result by performing prediction on the change data according to the classification result;
The image processing apparatus according to claim 1, wherein the change data represents a change state obtained by processing a target object in the first image based on a region distribution in the second image.
제12항에 있어서,
상기 이미지 처리 장치는,
분류 네트워크에 대해 트레이닝을 수행하여 트레이닝된 분류 네트워크를 획득하고,
상기 트레이닝된 분류 네트워크를 상기 타깃 분류 네트워크로 하도록 구성된 트레이닝부를 더 포함하는 것을 특징으로 하는 이미지 처리 장치.
13. The method of claim 12,
The image processing device,
performing training on the classification network to obtain a trained classification network;
The image processing apparatus according to claim 1, further comprising a training unit configured to use the trained classification network as the target classification network.
제13항에 있어서,
상기 트레이닝부는,
제1 이미지 및 제2 이미지에 대해 이미지 중첩 처리를 수행한 후 처리할 이미지를 획득하도록 구성된 중첩 서브부 - 상기 제1 이미지 및 상기 제2 이미지는 상이한 유형의 이미지 데이터임 - ; 및
상기 처리할 이미지를 트레이닝 샘플로서 상기 분류 네트워크에 입력하여 트레이닝을 수행함으로써, 상기 트레이닝된 분류 네트워크를 획득하도록 구성된 트레이닝 서브부를 포함하는 것을 특징으로 하는 이미지 처리 장치.
14. The method of claim 13,
The training unit,
an overlapping sub-unit configured to obtain an image to be processed after performing image overlap processing on the first image and the second image, wherein the first image and the second image are different types of image data; and
and a training sub-unit configured to obtain the trained classification network by performing training by inputting the image to be processed as a training sample into the classification network.
제14항에 있어서,
상기 트레이닝부는,
상기 타깃 객체의 윤곽에 따라, 상기 제1 이미지 및 상기 제2 이미지에 대해 각각 이미지 잘라내기를 수행하여, 잘라낸 제1 서브 이미지 데이터 및 제2 서브 이미지 데이터를 획득하고; 상기 제1 서브 이미지 데이터 및 상기 제2 서브 이미지 데이터를 상기 처리할 이미지로 하도록 구성된 분할 서브부를 더 포함하는 것을 특징으로 하는 이미지 처리 장치.
15. The method of claim 14,
The training unit,
performing image cropping on the first image and the second image according to the contour of the target object, respectively, to obtain cropped first sub-image data and second sub-image data; and a division sub-unit configured to use the first sub-image data and the second sub-image data as the image to be processed.
제15항에 있어서,
상기 제1 서브 이미지 데이터 및 상기 제2 서브 이미지 데이터는 동일한 사이즈의 이미지 데이터인 것을 특징으로 하는 이미지 처리 장치.
16. The method of claim 15,
The image processing apparatus according to claim 1, wherein the first sub-image data and the second sub-image data are image data of the same size.
제15항 또는 제16항에 있어서,
상기 트레이닝부는,
상기 제1 서브 이미지 데이터 및 상기 제2 서브 이미지 데이터를 각각 대응되는 히스토그램으로 변환시키고, 히스토그램을 균등화 처리하여 균등화 처리 결과를 획득하며; 상기 균등화 처리 결과를 기반으로 상기 분류 네트워크에 대해 트레이닝을 수행하여 상기 트레이닝된 분류 네트워크를 획득하도록 구성된 균등화 처리 서브부를 더 포함하는 것을 특징으로 하는 이미지 처리 장치.
17. The method of claim 15 or 16,
The training unit,
converting the first sub-image data and the second sub-image data into corresponding histograms, and equalizing the histogram to obtain an equalization result; and an equalization processing sub-unit configured to obtain the trained classification network by performing training on the classification network based on the equalization processing result.
제15항 또는 제16항에 있어서,
상기 트레이닝부는,
상기 제1 서브 이미지 데이터 및 상기 제2 서브 이미지 데이터에 포함된 대응하는 픽셀점에 대해 정규화 처리를 수행하여 정규화 처리 결과를 획득하고; 상기 정규화 처리 결과를 기반으로 상기 분류 네트워크에 대해 트레이닝을 수행하여 상기 트레이닝된 분류 네트워크를 획득하도록 구성된 정규화 처리 서브부를 더 포함하는 것을 특징으로 하는 이미지 처리 장치.
17. The method of claim 15 or 16,
The training unit,
performing normalization processing on corresponding pixel points included in the first sub-image data and the second sub-image data to obtain a normalization processing result; and a normalization processing sub-unit configured to perform training on the classification network based on the normalization processing result to obtain the trained classification network.
제14항 내지 제18항 중 어느 한 항에 있어서,
상기 분류 네트워크는 적어도 하나의 분류 처리 모듈을 포함하고,
상기 트레이닝 서브부는,
상기 적어도 하나의 분류 처리 모듈을 통해 상기 처리할 이미지에 대해 특징 추출, 차원 축소 처리 및 글로벌 평균 풀링 처리를 수행하여 손실 함수를 획득하고; 상기 손실 함수의 역전파에 따라 상기 분류 네트워크를 트레이닝시켜 상기 트레이닝된 분류 네트워크를 획득하도록 구성된 것을 특징으로 하는 이미지 처리 장치.
19. The method according to any one of claims 14 to 18,
the classification network comprises at least one classification processing module;
The training sub unit,
performing feature extraction, dimension reduction processing, and global average pooling processing on the image to be processed through the at least one classification processing module to obtain a loss function; and train the classification network according to backpropagation of the loss function to obtain the trained classification network.
제19항에 있어서,
각각의 상기 분류 처리 모듈은 적어도 콘볼루션 계층을 포함하고,
상기 트레이닝 서브부는,
상기 적어도 하나의 분류 처리 모듈 중의 대응하는 콘볼루션 계층을 통해 상기 처리할 이미지에 대해 특징 추출을 수행한 후, 차원 축소 처리를 수행하여 제1 처리 결과를 획득하고; 상기 제1 처리 결과에 대해 글로벌 평균 풀링 처리를 수행한 후 완전 연결 계층에 입력하여 추출된 특징의 예측 변화 상황을 나타내기 위한 제2 처리 결과를 획득하며; 상기 제2 처리 결과 및 수동 라벨링 결과에 따라 상기 손실 함수를 획득하도록 구성된 것을 특징으로 하는 이미지 처리 장치.
20. The method of claim 19,
each said classification processing module comprises at least a convolutional layer,
The training sub unit,
performing feature extraction on the image to be processed through a corresponding convolutional layer in the at least one classification processing module, and then performing dimensionality reduction processing to obtain a first processing result; after performing global average pooling processing on the first processing result, input to a fully connected layer to obtain a second processing result for indicating a prediction change state of the extracted feature; and obtain the loss function according to the second processing result and the manual labeling result.
제20항에 있어서,
상기 분류 처리 모듈이 잔차 모듈일 경우, 각각의 잔차 모듈은 콘볼루션 계층, 정규화 계층 및 활성화 계층을 포함하고,
상기 트레이닝 서브부는,
적어도 하나의 잔차 모듈 중의 대응하는 콘볼루션 계층을 통해 상기 처리할 이미지에 대해 특징 추출을 수행한 후 획득한 제1 추출 결과에 대해 정규화 계층 및 활성화 계층을 통해 처리한 후 제2 추출 결과를 획득하고; 상기 제2 추출 결과 및 상기 처리할 이미지에 따라 제3 추출 결과를 획득하도록 구성된 것을 특징으로 하는 이미지 처리 장치.
21. The method of claim 20,
When the classification processing module is a residual module, each residual module includes a convolutional layer, a normalization layer and an activation layer,
The training sub unit,
A first extraction result obtained after performing feature extraction on the image to be processed through a corresponding convolutional layer in at least one residual module is processed through a normalization layer and an activation layer, and a second extraction result is obtained, ; and obtain a third extraction result according to the second extraction result and the image to be processed.
제21항에 있어서,
상기 트레이닝 서브부는,
상기 제3 추출 결과에 따라 차원 축소 처리를 수행하여 상기 제1 처리 결과를 획득하도록 구성된 것을 특징으로 하는 이미지 처리 장치.
22. The method of claim 21,
The training sub unit,
and perform dimensionality reduction processing according to the third extraction result to obtain the first processing result.
전자 기기로서,
프로세서; 및
프로세서에 의해 실행 가능한 명령을 저장하도록 구성된 메모리를 포함하고,
상기 프로세서는 제1항 내지 제11항 중 어느 한 항에 따른 방법을 수행하도록 구성된 것을 특징으로 하는 전자 기기.
As an electronic device,
processor; and
a memory configured to store instructions executable by the processor;
12. Electronic device, characterized in that the processor is configured to perform the method according to any one of claims 1 to 11.
컴퓨터 프로그램 명령이 저장된 컴퓨터 판독 가능 저장 매체로서,
상기 컴퓨터 프로그램 명령이 프로세서에 의해 실행될 경우, 제1항 내지 제11항 중 어느 한 항에 따른 방법을 구현하는 것을 특징으로 하는 컴퓨터 판독 가능 저장 매체.
A computer readable storage medium having computer program instructions stored thereon, comprising:
12. A computer-readable storage medium, characterized in that the computer program instructions, when executed by a processor, implement the method according to any one of claims 1 to 11.
컴퓨터 판독 가능 코드를 포함하는 컴퓨터 프로그램으로서,
상기 컴퓨터 판독 가능 코드가 전자 기기에서 실행될 경우, 상기 전자 기기의 프로세서는 제1항 내지 제11항 중 어느 한 항에 따른 방법을 구현하는 것을 특징으로 하는 컴퓨터 프로그램.
A computer program comprising computer readable code, comprising:
12. A computer program, characterized in that when the computer readable code is executed in an electronic device, the processor of the electronic device implements the method according to any one of claims 1 to 11.
KR1020217037806A 2019-09-26 2020-07-07 Image processing method and apparatus, electronic device, storage medium and computer program KR20210153700A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910918450.1 2019-09-26
CN201910918450.1A CN110705626A (en) 2019-09-26 2019-09-26 Image processing method and device, electronic equipment and storage medium
PCT/CN2020/100692 WO2021057174A1 (en) 2019-09-26 2020-07-07 Image processing method and apparatus, electronic device, storage medium, and computer program

Publications (1)

Publication Number Publication Date
KR20210153700A true KR20210153700A (en) 2021-12-17

Family

ID=69197459

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217037806A KR20210153700A (en) 2019-09-26 2020-07-07 Image processing method and apparatus, electronic device, storage medium and computer program

Country Status (5)

Country Link
JP (1) JP2022530413A (en)
KR (1) KR20210153700A (en)
CN (1) CN110705626A (en)
TW (1) TW202113871A (en)
WO (1) WO2021057174A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023158118A1 (en) * 2022-02-21 2023-08-24 계명대학교 산학협력단 Method for classifying uric acid content of urinary stone by using radiomics parameter of computed tomography image, and analysis device therefor

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110705626A (en) * 2019-09-26 2020-01-17 北京市商汤科技开发有限公司 Image processing method and device, electronic equipment and storage medium
CN111368923B (en) * 2020-03-05 2023-12-19 上海商汤智能科技有限公司 Neural network training method and device, electronic equipment and storage medium
CN113140012A (en) * 2021-05-14 2021-07-20 北京字节跳动网络技术有限公司 Image processing method, image processing apparatus, image processing medium, and electronic device
CN113706583B (en) * 2021-09-01 2024-03-22 上海联影医疗科技股份有限公司 Image processing method, device, computer equipment and storage medium
CN113689355B (en) * 2021-09-10 2022-07-08 数坤(北京)网络科技股份有限公司 Image processing method, image processing device, storage medium and computer equipment
CN114120420B (en) * 2021-12-01 2024-02-13 北京百度网讯科技有限公司 Image detection method and device
CN114298177A (en) * 2021-12-16 2022-04-08 广州瑞多思医疗科技有限公司 Expansion enhancement method and system suitable for deep learning training data and readable storage medium
CN117152128B (en) * 2023-10-27 2024-02-27 首都医科大学附属北京天坛医院 Method and device for recognizing focus of nerve image, electronic equipment and storage medium

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02294786A (en) * 1989-05-09 1990-12-05 Hitachi Ltd Automatic normalizing method for image brightness level value
KR102020383B1 (en) * 2016-11-28 2019-09-10 고려대학교산학협력단 Evaluation method for radiotherapy plan using data-mining
US10575774B2 (en) * 2017-02-27 2020-03-03 Case Western Reserve University Predicting immunotherapy response in non-small cell lung cancer with serial radiomics
CN108830028A (en) * 2017-05-04 2018-11-16 戴立言 A kind of method of equipment and nondiagnostic determining object functionality Equivalent uniform dose
US11517768B2 (en) * 2017-07-25 2022-12-06 Elekta, Inc. Systems and methods for determining radiation therapy machine parameter settings
CN107403201A (en) * 2017-08-11 2017-11-28 强深智能医疗科技(昆山)有限公司 Tumour radiotherapy target area and jeopardize that organ is intelligent, automation delineation method
CN108717866B (en) * 2018-04-03 2022-10-11 中国医学科学院肿瘤医院 Method, device, equipment and storage medium for predicting radiotherapy plan dose distribution
CN108766563A (en) * 2018-05-25 2018-11-06 戴建荣 Radiotherapy prediction of result method and system based on dosage group
CN109166613A (en) * 2018-08-20 2019-01-08 北京东方瑞云科技有限公司 Radiotherapy treatment planning assessment system and method based on machine learning
CN109523532B (en) * 2018-11-13 2022-05-03 腾讯医疗健康(深圳)有限公司 Image processing method, image processing device, computer readable medium and electronic equipment
CN110211664B (en) * 2019-04-25 2022-11-04 安徽大学 System for automatically designing radiotherapy scheme based on machine learning
CN109966662B (en) * 2019-04-30 2020-11-24 四川省肿瘤医院 System for verifying radiation therapy dosage
CN110705626A (en) * 2019-09-26 2020-01-17 北京市商汤科技开发有限公司 Image processing method and device, electronic equipment and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023158118A1 (en) * 2022-02-21 2023-08-24 계명대학교 산학협력단 Method for classifying uric acid content of urinary stone by using radiomics parameter of computed tomography image, and analysis device therefor

Also Published As

Publication number Publication date
WO2021057174A1 (en) 2021-04-01
TW202113871A (en) 2021-04-01
JP2022530413A (en) 2022-06-29
CN110705626A (en) 2020-01-17

Similar Documents

Publication Publication Date Title
KR20210153700A (en) Image processing method and apparatus, electronic device, storage medium and computer program
CN109978886B (en) Image processing method and device, electronic equipment and storage medium
CN111310764B (en) Network training method, image processing device, electronic equipment and storage medium
CN109829920B (en) Image processing method and device, electronic equipment and storage medium
US20210166395A1 (en) Image segmentation method and apparatus, computer device, and storage medium
KR102406354B1 (en) Video restoration method and apparatus, electronic device and storage medium
CN109522910B (en) Key point detection method and device, electronic equipment and storage medium
CN105874776B (en) Image processing apparatus and method
CN112767329B (en) Image processing method and device and electronic equipment
CN109087238B (en) Image processing method and apparatus, electronic device, and computer-readable storage medium
WO2022151755A1 (en) Target detection method and apparatus, and electronic device, storage medium, computer program product and computer program
CN111899268B (en) Image segmentation method and device, electronic equipment and storage medium
CN110674719A (en) Target object matching method and device, electronic equipment and storage medium
JP2021503659A (en) Biodetection methods, devices and systems, electronic devices and storage media
KR20220013404A (en) Image processing method and apparatus, electronic device, storage medium and program product
CN114820584B (en) Lung focus positioner
CN110598504A (en) Image recognition method and device, electronic equipment and storage medium
CN111640114B (en) Image processing method and device
TWI765386B (en) Neural network training and image segmentation method, electronic device and computer storage medium
JP2022547372A (en) Image processing method and apparatus, electronic device, storage medium and program product
JP2022548453A (en) Image segmentation method and apparatus, electronic device and storage medium
CN112396119A (en) Image processing method and device, electronic equipment and storage medium
KR20210049649A (en) Method, apparatus and electronic device for enhancing face image
CN111507131A (en) Living body detection method and apparatus, electronic device, and storage medium
CN112200820A (en) Three-dimensional image processing method and device, electronic device and storage medium

Legal Events

Date Code Title Description
A201 Request for examination