KR20220012406A - Model training method, image processing and registration method, apparatus, apparatus, medium - Google Patents

Model training method, image processing and registration method, apparatus, apparatus, medium Download PDF

Info

Publication number
KR20220012406A
KR20220012406A KR1020227001100A KR20227001100A KR20220012406A KR 20220012406 A KR20220012406 A KR 20220012406A KR 1020227001100 A KR1020227001100 A KR 1020227001100A KR 20227001100 A KR20227001100 A KR 20227001100A KR 20220012406 A KR20220012406 A KR 20220012406A
Authority
KR
South Korea
Prior art keywords
image
training
domain
model
type
Prior art date
Application number
KR1020227001100A
Other languages
Korean (ko)
Inventor
타오 송
Original Assignee
상하이 센스타임 인텔리전트 테크놀로지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN202011193221.7A external-priority patent/CN112348819A/en
Application filed by 상하이 센스타임 인텔리전트 테크놀로지 컴퍼니 리미티드 filed Critical 상하이 센스타임 인텔리전트 테크놀로지 컴퍼니 리미티드
Publication of KR20220012406A publication Critical patent/KR20220012406A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 발명의 실시예는 모델 트레이닝 방법, 이미지 처리 및 정합 방법, 및 관련 장치, 기기, 저장 매체 및 프로그램 제품을 제공하며, 상기 모델은 의학적 영상 처리에 응용될 수 있으며, 모델 트레이닝 방법은, 적어도 하나의 샘플 이미지를 획득하는 단계 - 샘플 이미지에는 라벨링 정보가 구비됨 - ; 얽힘 해제 모델을 이용하여 적어도 하나의 샘플 이미지에 대해 각각 콘텐츠 추출을 수행하여, 적어도 하나의 샘플 이미지의 콘텐츠 특징 데이터를 획득하는 단계; 및 적어도 하나의 샘플 이미지의 콘텐츠 특징 데이터 및 라벨링 정보를 이용하여 기설정된 네트워크 모델을 트레이닝시켜, 타깃 이미지를 처리하기 위한 네트워크 모델을 획득하는 단계를 포함하고, 얽힘 해제 모델은 상이한 도메인에 속하는 두 개 타입의 트레이닝 이미지를 이용하여 트레이닝하여 획득된 것이며, 그 중 한 타입의 트레이닝 이미지와 샘플 이미지는 제1 도메인에 속하고, 다른 타입의 트레이닝 이미지와 타깃 이미지는 제2 도메인에 속한다.An embodiment of the present invention provides a model training method, an image processing and registration method, and related apparatus, apparatus, storage medium and program product, the model may be applied to medical image processing, and the model training method includes at least one obtaining a sample image of - the sample image is provided with labeling information; performing content extraction on each of the at least one sample image by using the de-entanglement model to obtain content feature data of the at least one sample image; and training a preset network model using the content feature data and labeling information of at least one sample image to obtain a network model for processing the target image, wherein the de-entanglement model includes two models belonging to different domains. It is obtained by training using a type of training image, among which one type of training image and a sample image belong to a first domain, and another type of training image and a target image belong to a second domain.

Description

모델 트레이닝 방법, 이미지 처리 및 정합 방법, 장치, 기기, 매체Model training method, image processing and registration method, apparatus, apparatus, medium

관련 출원의 상호 참조Cross-referencing of related applications

본 발명은 출원번호가 202011193221.7이고, 출원일이 2020년 10월 30일인 중국 특허 출원을 기반으로 제출되고, 해당 중국 특허 출원의 우선권을 주장하는 바, 해당 중국 특허 출원의 모든 내용은 참조로서 본 발명에 인용된다.The present invention is filed based on a Chinese patent application with an application number of 202011193221.7 and an application date of October 30, 2020, and claims priority to the Chinese patent application, all contents of the Chinese patent application are incorporated herein by reference. are cited

본 발명은 인공 지능 기술 분야에 관한 것으로, 특히 모델 트레이닝 방법, 이미지 처리 및 정합 방법, 및 관련 장치, 기기, 저장 매체 및 프로그램 제품에 관한 것이다.The present invention relates to the field of artificial intelligence technology, and more particularly, to a model training method, an image processing and registration method, and related apparatus, apparatus, storage medium and program product.

신경망, 딥 러닝 등 인공 지능 기술이 발전함에 따라, 네트워크 모델을 트레이닝시키고, 트레이닝을 거친 네트워크 모델을 이용하여 이미지 분할, 이미지 분류, 타깃 검출, 이미지 정합 등 이미지 처리 태스크를 완료하는 방식은 점차 사람들의 인기를 얻고 있다.As artificial intelligence technologies such as neural networks and deep learning develop, the method of training a network model and using the trained network model to complete image processing tasks such as image segmentation, image classification, target detection, and image registration is gradually becoming more and more popular with people. It is gaining popularity.

실제 응용 과정에서, 의학적 이미지를 예로 들면, CT(Computed Tomography, 컴퓨터 단층 촬영) 이미지 및 MR(Magnetic Resonance, 핵자기 공명) 이미지는 상이한 도메인에 속하기 때문에, CT 이미지를 통해 트레이닝하여 획득된 네트워크 모델을 이용하여 MR 이미지에 대해 관련 처리를 수행할 경우, 정밀도가 떨어지는 문제가 자주 발생하며, MR 이미지에 대해 라벨링을 재수행하면, 높은 경력의 의료진에게 의존해야 하는 경우가 많아 비용이 엄청나다.In the actual application process, taking medical images as an example, computed tomography (CT) images and magnetic resonance (MR) images belong to different domains, so a network model obtained by training through CT images When performing related processing on MR images using

본 발명은 모델 트레이닝 방법, 이미지 처리 및 정합 방법, 및 관련 장치, 기기, 저장 매체 및 프로그램 제품을 제공한다.The present invention provides a model training method, an image processing and registration method, and a related apparatus, apparatus, storage medium and program product.

본 발명의 제1 측면은, 적어도 하나의 샘플 이미지를 획득하는 단계 - 샘플 이미지에는 라벨링 정보가 구비됨 - ; 얽힘 해제(disentanglement) 모델을 이용하여 적어도 하나의 샘플 이미지에 대해 각각 콘텐츠 추출을 수행하여, 적어도 하나의 샘플 이미지의 콘텐츠 특징 데이터를 획득하는 단계; 및 적어도 하나의 샘플 이미지의 콘텐츠 특징 데이터 및 라벨링 정보를 이용하여 기설정된 네트워크 모델을 트레이닝시켜, 타깃 이미지를 처리하기 위한 네트워크 모델을 획득하는 단계를 포함하고, 얽힘 해제 모델은 상이한 도메인에 속하는 두 개 타입의 트레이닝 이미지를 이용하여 트레이닝하여 획득된 것이며, 그 중 한 타입의 트레이닝 이미지와 샘플 이미지는 제1 도메인에 속하고, 다른 타입의 트레이닝 이미지와 타깃 이미지는 제2 도메인에 속하는 모델 트레이닝 방법을 제공한다.A first aspect of the present invention comprises the steps of: obtaining at least one sample image, the sample image being provided with labeling information; performing content extraction on at least one sample image by using a disentanglement model, respectively, to obtain content feature data of the at least one sample image; and training a preset network model using the content feature data and labeling information of at least one sample image to obtain a network model for processing the target image, wherein the de-entanglement model includes two models belonging to different domains. It is obtained by training using a type of training image, of which one type of training image and a sample image belong to the first domain, and the other type of training image and the target image belong to the second domain. do.

따라서, 샘플 이미지와 함께 제1 도메인에 속하는 한 타입의 트레이닝 이미지, 및 타깃 이미지와 함께 제2 도메인에 속하는 다른 타입의 트레이닝 이미지를 통해 트레이닝하여 획득된 얽힘 해제 모델은, 라벨링 정보가 구비된 샘플 이미지 및 타깃 이미지를 매핑하여, 동일한 도메인에 속하는 콘텐츠 특징 데이터를 획득함으로써, 트레이닝 이미지의 콘텐츠 특징 데이터 및 라벨링 정보를 이용하여 트레이닝하여 획득된 네트워크 모델은 타깃 이미지에 마찬가지로 적용될 수 있고, 라벨링을 더 수행할 필요없어 상이한 도메인의 이미지의 라벨링 비용을 줄이고, 이미지 처리의 정밀도를 향상시킬 수 있다.Therefore, the detangling model obtained by training through one type of training image belonging to the first domain together with the sample image and another type of training image belonging to the second domain together with the target image is a sample image with labeling information. And by mapping the target image to obtain content feature data belonging to the same domain, the network model obtained by training using the content feature data and labeling information of the training image can be similarly applied to the target image, and further labeling is performed. It is not necessary, so it is possible to reduce the labeling cost of images in different domains and improve the precision of image processing.

여기서, 샘플 이미지 및 타깃 이미지는 의학적 이미지이고, 라벨링 정보는 생체기관에 대한 라벨링 정보이며; 및/또는, 샘플 이미지 및 타깃 이미지는 3차원 이미지이고, 라벨링 정보는 3차원 타깃에 대한 라벨링 정보이다.Here, the sample image and the target image are medical images, and the labeling information is labeling information for a living organ; and/or, the sample image and the target image are three-dimensional images, and the labeling information is labeling information about the three-dimensional target.

따라서, 샘플 이미지 및 타깃 이미지를 의학적 이미지로 설정하고, 라벨링 정보는 생체기관의 라벨링 정보이므로, 의학적 이미지 분야에 적용될 수 있으며; 샘플 이미지 및 타깃 이미지를 3차원 이미지로 설정하고, 라벨링 정보를 3차원 타깃에 대한 라벨링 정보로 설정하므로, 3차원 이미지의 처리에 적용될 수 있다.Therefore, the sample image and the target image are set as medical images, and the labeling information is labeling information of a living organ, so it can be applied to the medical image field; Since the sample image and the target image are set as a three-dimensional image, and the labeling information is set as the labeling information for the three-dimensional target, it can be applied to the processing of a three-dimensional image.

여기서, 기설정된 네트워크 모델은 이미지 분할 네트워크 모델, 이미지 분류 네트워크 모델 및 타깃 검출 네트워크 모델 중 어느 하나를 포함한다.Here, the preset network model includes any one of an image segmentation network model, an image classification network model, and a target detection network model.

따라서, 기설정된 네트워크 모델을 이미지 분할 네트워크 모델, 이미지 분류 네트워크 모델 및 타깃 검출 네트워크 모델 중 어느 하나로 설정함으로써, 상이한 종류의 기설정된 네트워크 모델에 기반하여, 상이한 이미지 처리 태스크에 적용되는 네트워크 모델을 트레이닝하여 획득할 수 있어, 상이한 도메인의 이미지에 대한 상이한 처리 태스크를 완료할 수 있다.Therefore, by setting the preset network model to any one of an image segmentation network model, an image classification network model, and a target detection network model, based on different types of preset network models, network models applied to different image processing tasks are trained to can be obtained, thereby completing different processing tasks for images in different domains.

여기서, 얽힘 해제 모델을 트레이닝하는 단계는, 제1 도메인에 속하는 제1 타입 트레이닝 이미지 및 제2 도메인에 속하는 제2 타입 트레이닝 이미지를 획득하는 단계; 원래의 얽힘 해제 모델을 이용하여 제1 타입 트레이닝 이미지 및 제2 타입 트레이닝 이미지에 대해 각각 콘텐츠 및 스타일 추출을 수행하여, 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터, 및 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 획득하는 단계; 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터, 및 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 이용하여 재구성하여, 재구성 이미지를 획득하는 단계; 재구성 이미지에 기반하여, 얽힘 해제 모델의 손실값을 획득하는 단계; 및 손실값에 기반하여, 얽힘 해제 모델의 파라미터를 조정하는 단계를 포함한다.Here, the training of the detangling model may include: acquiring a first type training image belonging to a first domain and a second type training image belonging to a second domain; Content and style extraction of the first type training image and the second type training image are respectively performed on the first type training image and the second type training image by using the original detangling model, and the content characteristic data and style characteristic data of the first type training image, and the second type training image obtaining content characteristic data and style characteristic data of reconstructing using the content feature data and style feature data of the first type training image and the content feature data and style feature data of the second type training image to obtain a reconstructed image; obtaining a loss value of the de-entanglement model based on the reconstructed image; and adjusting a parameter of the detangling model based on the loss value.

따라서, 원래의 얽힘 해제 모델을 이용하여 제1 도메인에 속하는 제1 타입 트레이닝 이미지 및 제2 도메인에 속하는 제2 타입 트레이닝 이미지에 대해 특징 추출을 수행하고, 추출하여 획득된 콘텐츠 특징 데이터 및 스타일 특징 데이터에 기반하여 재구성함으로써, 재구성하여 획득된 재구성 이미지에 기반하여, 얽힘 해제 모델의 손실값을 획득할 수 있고, 나아가 손실값에 기반하여 얽힘 해제 모델의 파라미터를 조정함으로써, 얽힘 해제 모델을 트레이닝하여 획득할 수 있다.Accordingly, feature extraction is performed on the first type training image belonging to the first domain and the second type training image belonging to the second domain by using the original de-entanglement model, and content characteristic data and style characteristic data obtained by extraction are performed. By reconstructing based on , based on the reconstructed image obtained by reconstructing, it is possible to obtain a loss value of the de-entanglement model, and further, by adjusting the parameters of the de-entanglement model based on the loss value, the de-entanglement model is acquired by training can do.

여기서, 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터, 및 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 이용하여 재구성하여, 재구성 이미지를 획득하는 단계는, 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 이용하여 재구성하여, 제1 인트라 도메인 재구성 이미지를 획득하고, 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 이용하여 재구성하여, 제2 인트라 도메인 재구성 이미지를 획득하는 단계; 및 제1 타입 트레이닝 이미지의 스타일 특징 데이터 및 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터를 이용하여 재구성하여, 제1 크로스 도메인 재구성 이미지를 획득하고, 제2 타입 트레이닝 이미지의 스타일 특징 데이터 및 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터를 이용하여 재구성하여, 제2 크로스 도메인 재구성 이미지를 획득하는 단계를 포함하고, 재구성 이미지에 기반하여, 얽힘 해제 모델의 손실값을 획득하는 단계는, 제1 타입 트레이닝 이미지와 제1 인트라 도메인 재구성 이미지 사이의 차이에 기반하여, 제1 인트라 도메인 손실값을 획득하고, 제2 타입 트레이닝 이미지와 제2 인트라 도메인 재구성 이미지 사이의 차이에 기반하여, 제2 인트라 도메인 손실값을 획득하는 단계; 제1 타입 트레이닝 이미지 및 제2 크로스 도메인 재구성 이미지 양자의 콘텐츠 특징 데이터 간의 차이에 기반하여, 제1 콘텐츠 손실값을 획득하고, 제1 타입 트레이닝 이미지 및 제1 크로스 도메인 재구성 이미지 양자의 스타일 특징 데이터 간의 차이에 기반하여, 제1 스타일 손실값을 획득하며, 제2 타입 트레이닝 이미지 및 제1 크로스 도메인 재구성 이미지 양자의 콘텐츠 특징 데이터 간의 차이에 기반하여, 제2 콘텐츠 손실값을 획득하고, 제2 타입 트레이닝 이미지 및 제2 크로스 도메인 재구성 이미지 양자의 스타일 특징 데이터 간의 차이에 기반하여, 제2 스타일 손실값을 획득하는 단계; 제1 타입 트레이닝 이미지와 제1 크로스 도메인 재구성 이미지 사이의 차이에 기반하여, 제1 크로스 도메인 손실값을 획득하고, 제2 타입 트레이닝 이미지와 제2 크로스 도메인 재구성 이미지 사이의 차이에 기반하여, 제2 크로스 도메인 손실값을 획득하는 단계; 및 상기 획득된 손실값에 대해 가중 처리를 수행하여, 얽힘 해제 모델의 손실값을 획득하는 단계를 포함한다.Here, the step of reconstructing using the content feature data and style feature data of the first type training image and the content feature data and style feature data of the second type training image to obtain a reconstructed image includes: Reconstructed using content feature data and style feature data to obtain a first intra-domain reconstructed image, and reconstructed using content feature data and style feature data of a second type training image to obtain a second intra-domain reconstructed image to do; and reconstructing using the style characteristic data of the first type training image and the content characteristic data of the second type training image to obtain a first cross-domain reconstructed image, the style characteristic data of the second type training image and the first type training Reconstructing using the content feature data of the image to obtain a second cross-domain reconstructed image, and based on the reconstructed image, obtaining a loss value of the detangling model includes: the first type training image and the second obtaining a first intra-domain loss value based on the difference between the first intra-domain reconstructed images, and obtaining a second intra-domain loss value based on the difference between the second type training image and the second intra-domain reconstructed image step; Based on the difference between the content feature data of both the first type training image and the second cross-domain reconstructed image, a first content loss value is obtained, and between the style feature data of both the first type training image and the first cross-domain reconstructed image is obtained. Based on the difference, a first style loss value is obtained, and based on the difference between the content feature data of both the second type training image and the first cross-domain reconstructed image, a second content loss value is obtained, and a second type training image is obtained. obtaining a second style loss value based on a difference between the style feature data of both the image and the second cross-domain reconstructed image; Based on the difference between the first type training image and the first cross-domain reconstructed image, a first cross-domain loss value is obtained, and based on the difference between the second type training image and the second cross-domain reconstructed image, a second obtaining a cross domain loss value; and performing weighting processing on the obtained loss value to obtain a loss value of the de-entanglement model.

따라서, 인트라 도메인 손실값 및 크로스 도메인 손실값, 및 이미지 재구성 후, 콘텐츠 특징 데이터 및 스타일 특징 데이터에 대응하는 손실값에 기반하여, 가중 처리를 수행함으로써, 얽힘 해제 모델의 손실값을 획득할 수 있고, 나아가 전체 손실값에 기반하여 파라미터 조정을 수행할 수 있으며, 상이한 도메인의 이미지가 얽힘 해제 모델에 의해 추출되어 획득된 콘텐츠 특징 데이터가 동일한 도메인에 위치하도록 할 수 있다.Therefore, based on the intra-domain loss value and the cross-domain loss value, and the loss value corresponding to the content feature data and the style feature data after image reconstruction, weight processing is performed to obtain the loss value of the detangling model, , furthermore, parameter adjustment can be performed based on the overall loss value, and images of different domains can be extracted by the de-entanglement model so that the obtained content feature data are located in the same domain.

본 발명의 제2 측면은, 얽힘 해제 모델을 이용하여 타깃 이미지에 대해 콘텐츠 추출을 수행하여, 타깃 이미지의 콘텐츠 특징 데이터를 획득하는 단계; 및 처리 네트워크 모델을 이용하여 타깃 이미지의 콘텐츠 특징 데이터를 처리하여, 타깃 이미지의 처리 결과를 획득하는 단계를 포함하고, 얽힘 해제 모델은 상이한 도메인에 속하는 두 개 타입의 트레이닝 이미지를 이용하여 트레이닝하여 획득된 것이며, 그 중 한 타입의 트레이닝 이미지와 타깃 이미지는 동일한 도메인에 속하고, 처리 네트워크 모델은 상기 제1 측면의 모델 트레이닝 방법을 이용하여 트레이닝하여 획득된 것인 이미지 처리 방법을 제공한다.A second aspect of the present invention provides the steps of: performing content extraction on a target image using a de-entanglement model to obtain content characteristic data of the target image; and processing the content characteristic data of the target image by using the processing network model to obtain a processing result of the target image, wherein the entanglement model is obtained by training using two types of training images belonging to different domains. It provides an image processing method in which one type of training image and a target image belong to the same domain, and the processing network model is obtained by training using the model training method of the first aspect.

따라서, 상기 제1 측면의 모델 트레이닝 방법을 통해 트레이닝하여 획득된 처리 네트워크 모델은, 상기 처리 네트워크 모델을 트레이닝하는 샘플 이미지에 적용될 수 있을 뿐만아니라, 타깃 이미지에도 적용될 수 있으므로, 라벨링을 더 수행할 필요없어 상이한 도메인의 이미지의 라벨링 비용을 줄일 수 있고, 이미지 처리의 정밀도를 향상시킬 수 있다.Therefore, since the processing network model obtained by training through the model training method of the first aspect can be applied not only to the sample image for training the processing network model, but also to the target image, it is necessary to perform further labeling Therefore, it is possible to reduce the labeling cost of images in different domains and improve the precision of image processing.

본 발명의 제3 측면은, 제1 정합할 이미지 및 제2 정합할 이미지를 획득하는 단계; 얽힘 해제 모델을 이용하여 제1 정합할 이미지 및 제2 정합할 이미지에 대해 각각 콘텐츠 추출을 수행하여, 제1 정합할 이미지의 콘텐츠 특징 데이터 및 제2 정합할 이미지의 콘텐츠 특징 데이터를 획득하는 단계; 제1 정합할 이미지의 콘텐츠 특징 데이터 및 제2 정합할 이미지의 콘텐츠 특징 데이터에 기반하여, 정합 파라미터를 결정하는 단계; 및 정합 파라미터를 이용하여, 제1 정합할 이미지 및 제2 정합할 이미지를 정합하는 단계를 포함하고, 얽힘 해제 모델은 상이한 도메인에 속하는 두 개 타입의 트레이닝 이미지를 이용하여 트레이닝하여 획득된 것이며, 그 중 한 타입의 트레이닝 이미지와 제1 정합할 이미지는 제1 도메인에 속하고, 다른 타입의 트레이닝 이미지와 제2 정합할 이미지는 제2 도메인에 속하는 이미지 정합 방법을 제공한다.A third aspect of the present invention includes the steps of: obtaining a first image to be registered and a second image to be registered; performing content extraction on the first image to be registered and the second image to be registered using the de-entanglement model, respectively, to obtain content feature data of the first image to be registered and content feature data of the second image to be registered; determining a registration parameter based on the content characteristic data of the first image to be registered and the content characteristic data of the second image to be registered; and registering the first image to be registered and the second image to be registered using the registration parameter, wherein the detangling model is obtained by training using two types of training images belonging to different domains, and the One type of training image and the first image to be matched belong to a first domain, and the other type of training image and the second image to be matched belong to a second domain.

따라서, 제1 정합할 이미지와 함께 제1 도메인에 속하는 한 타입의 트레이닝 이미지, 및 제2 정합할 이미지와 함께 제2 도메인에 속하는 다른 타입의 트레이닝 이미지를 통해 트레이닝하여 획득된 얽힘 해제 모델은, 추출된 제1 정합할 이미지의 콘텐츠 특징 데이터 및 제2 정합할 이미지의 콘텐츠 특징 데이터가 동일한 도메인에 속하도록 할 수 있어, 직접 양자의 콘텐츠 특징 데이터에 기반하여, 양자의 정합 파라미터를 획득하고 정합할 수 있으므로, 상이한 도메인의 이미지 사이에서 비지도 정합을 구현할 수 있고, 나아가 상이한 도메인의 이미지 정합의 비용을 줄이고, 그 정확성을 향상시킬 수 있다.Accordingly, the detangling model obtained by training through one type of training image belonging to the first domain together with the first image to be registered and another type of training image belonging to the second domain together with the second image to be registered is extracted. The content feature data of the first image to be matched and the content feature data of the second image to be matched belong to the same domain, so that the matching parameters of both can be obtained and registered directly based on the content feature data of both. Therefore, it is possible to implement unsupervised registration between images of different domains, further reducing the cost of image registration of different domains, and improving the accuracy.

여기서, 제1 정합할 이미지 및 제2 정합할 이미지는 의학적 이미지이고; 및/또는, 제1 정합할 이미지 및 제2 정합할 이미지는 3차원 이미지이며; 및/또는, 정합 파라미터는 강성 변화 파라미터 및 변형 변화 파라미터 중 적어도 하나를 포함한다.wherein the first image to be registered and the second image to be registered are medical images; and/or, the first image to register and the second image to register are three-dimensional images; and/or, the matching parameter includes at least one of a stiffness variation parameter and a strain variation parameter.

따라서, 제1 정합할 이미지 및 제2 정합할 이미지를 의학적 이미지로 설정함으로써, 이미지 정합이 의학적 이미지의 정합에 응용되도록 할 수 있고; 제1 정합할 이미지 및 제2 정합할 이미지를 3차원 이미지로 설정함으로써, 이미지 정합이 3차원 이미지의 정합에 응용되도록 할 수 있으며; 정합 파라미터는 강성 변화 파라미터 및 변형 변화 파라미터 중 적어도 하나를 포함할 수 있어, 제1 정합할 이미지 및 제2 정합할 이미지가 양자의 실제 상황에 기반하여 상응하게 변화된 후 정합을 구현할 수 있도록 함으로써, 이미지 정합의 정확성을 향상시키는데 유리하다.Therefore, by setting the first image to be registered and the second image to be registered as medical images, image registration can be applied to registration of medical images; By setting the first image to be registered and the second image to be registered as three-dimensional images, image registration can be applied to registration of three-dimensional images; The registration parameter may include at least one of a stiffness change parameter and a deformation change parameter, so that the first image to be registered and the second image to be registered are changed correspondingly based on the actual situation of both, and then registration can be implemented; It is advantageous for improving the accuracy of registration.

여기서, 제1 정합할 이미지의 콘텐츠 특징 데이터 및 제2 정합할 이미지의 콘텐츠 특징 데이터에 기반하여, 정합 파라미터를 결정하는 단계는, 제1 정합할 이미지의 콘텐츠 특징 데이터 및 제2 정합할 이미지의 콘텐츠 특징 데이터에 기반하여, 제1 정합할 이미지에 대응하는 정합 파라미터를 결정하는 단계를 포함하고; 정합 파라미터를 이용하여, 제1 정합할 이미지 및 제2 정합할 이미지를 정합하는 단계는, 정합 파라미터를 이용하여 제1 정합할 이미지에 대해 변화 처리를 수행하여, 제1 정합할 이미지에 대응되는 변화 이미지를 획득하는 단계; 및 변화 이미지의 픽셀점을 제2 정합할 이미지의 대응 픽셀점에 중첩시키는 단계를 포함한다.Here, the determining of the registration parameter based on the content characteristic data of the first image to be registered and the content characteristic data of the second image to be registered includes: the content characteristic data of the first image to be registered and the content of the second image to be registered determining, based on the feature data, a registration parameter corresponding to the first image to be registered; The step of registering the first to-be-registered image and the second to-be-registered image using the registration parameter includes performing change processing on the first image to be registered using the registration parameter to change a change corresponding to the first image to be registered. acquiring an image; and superimposing the pixel points of the change image to the corresponding pixel points of the second to-be-registered image.

따라서, 제1 정합할 이미지에 대응되는 정합 파라미터를 이용하여 제1 정합할 이미지에 대해 변화 처리를 수행함으로써, 제1 정합할 이미지에 대응되는 변화 이미지를 획득할 수 있고, 변화 이미지의 픽섹점을 제2 정합할 이미지의 대응 픽셀점에 중첩시킴으로써, 상이한 도메인의 이미지 사이의 비지도 정합을 구현할 수 있다.Therefore, by performing change processing on the first image to be registered using the registration parameter corresponding to the first image to be registered, a change image corresponding to the first image to be registered can be obtained, and the pixel point of the change image can be obtained. Unsupervised registration between images of different domains can be implemented by overlapping the corresponding pixel points of the second image to be registered.

여기서, 얽힘 해제 모델을 트레이닝하는 단계는, 제1 도메인에 속하는 제1 타입 트레이닝 이미지 및 제2 도메인에 속하는 제2 타입 트레이닝 이미지를 획득하는 단계; 원래의 얽힘 해제 모델을 이용하여 제1 타입 트레이닝 이미지 및 제2 타입 트레이닝 이미지에 대해 각각 콘텐츠 및 스타일 추출을 수행하여, 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터, 및 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 획득하는 단계; 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터, 및 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 이용하여 재구성하여, 재구성 이미지를 획득하는 단계; 재구성 이미지에 기반하여, 얽힘 해제 모델의 손실값을 획득하는 단계; 및 손실값에 기반하여, 얽힘 해제 모델의 파라미터를 조정하는 단계를 포함한다.Here, the training of the detangling model may include: acquiring a first type training image belonging to a first domain and a second type training image belonging to a second domain; Content and style extraction of the first type training image and the second type training image are respectively performed on the first type training image and the second type training image by using the original detangling model, and the content characteristic data and style characteristic data of the first type training image, and the second type training image obtaining content characteristic data and style characteristic data of reconstructing using the content feature data and style feature data of the first type training image and the content feature data and style feature data of the second type training image to obtain a reconstructed image; obtaining a loss value of the de-entanglement model based on the reconstructed image; and adjusting a parameter of the detangling model based on the loss value.

따라서, 원래의 얽힘 해제 모델을 이용하여 제1 도메인에 속하는 제1 타입 트레이닝 이미지 및 제2 도메인에 속하는 제2 타입 트레이닝 이미지에 대해 특징 추출을 수행하고, 추출하여 획득된 콘텐츠 특징 데이터 및 스타일 특징 데이터에 기반하여 재구성함으로써, 재구성하여 획득된 재구성 이미지에 기반하여, 얽힘 해제 모델의 손실값을 획득할 수 있고, 나아가 손실값에 기반하여 얽힘 해제 모델의 파라미터를 조정함으로써, 얽힘 해제 모델을 트레이닝하여 획득할 수 있다.Accordingly, feature extraction is performed on the first type training image belonging to the first domain and the second type training image belonging to the second domain by using the original de-entanglement model, and content characteristic data and style characteristic data obtained by extraction are performed. By reconstructing based on , based on the reconstructed image obtained by reconstructing, it is possible to obtain a loss value of the de-entanglement model, and further, by adjusting the parameters of the de-entanglement model based on the loss value, the de-entanglement model is acquired by training can do.

본 발명의 제4 측면은, 이미지 획득 모듈, 콘텐츠 추출 모듈 및 모델 트레이닝 모듈을 포함하는 모델 트레이닝 장치를 제공하고, 이미지 획득 모듈은 적어도 하나의 샘플 이미지를 획득하도록 구성되되, 샘플 이미지에는 라벨링 정보가 구비되며; 콘텐츠 추출 모듈은 얽힘 해제 모델을 이용하여 적어도 하나의 샘플 이미지에 대해 각각 콘텐츠 추출을 수행하여, 적어도 하나의 샘플 이미지의 콘텐츠 특징 데이터를 획득하도록 구성되고; 모델 트레이닝 모듈은 적어도 하나의 샘플 이미지의 콘텐츠 특징 데이터 및 라벨링 정보를 이용하여 기설정된 네트워크 모델을 트레이닝시켜, 타깃 이미지를 처리하기 위한 네트워크 모델을 획득하도록 구성되며, 얽힘 해제 모델은 상이한 도메인에 속하는 두 개 타입의 트레이닝 이미지를 이용하여 트레이닝하여 획득된 것이며, 그 중 한 타입의 트레이닝 이미지와 샘플 이미지는 제1 도메인에 속하고, 다른 타입의 트레이닝 이미지와 타깃 이미지는 제2 도메인에 속한다.A fourth aspect of the present invention provides a model training apparatus comprising an image acquisition module, a content extraction module and a model training module, wherein the image acquisition module is configured to acquire at least one sample image, wherein the sample image includes labeling information provided; the content extraction module is configured to perform content extraction on each of the at least one sample image by using the de-entanglement model, to obtain content characteristic data of the at least one sample image; The model training module is configured to train a preset network model by using the content feature data and labeling information of at least one sample image to obtain a network model for processing the target image, wherein the de-entanglement model is configured to perform two tasks belonging to different domains. It is obtained by training using dog-type training images, among which one type of training image and sample image belong to the first domain, and the other type of training image and target image belong to the second domain.

본 발명의 제5 측면은, 콘텐츠 추출 모듈 및 네트워크 처리 모듈을 포함하는 이미지 처리 장치를 제공하고, 콘텐츠 추출 모듈은 얽힘 해제 모델을 이용하여 타깃 이미지에 대해 콘텐츠 추출을 수행하여, 타깃 이미지의 콘텐츠 특징 데이터를 획득하도록 구성되며; 네트워크 처리 모듈은 처리 네트워크 모델을 이용하여 타깃 이미지의 콘텐츠 특징 데이터를 처리하여, 타깃 이미지의 처리 결과를 획득하도록 구성되고, 얽힘 해제 모델은 상이한 도메인에 속하는 두 개 타입의 트레이닝 이미지를 이용하여 트레이닝하여 획득된 것이며, 그 중 한 타입의 트레이닝 이미지와 타깃 이미지는 동일한 도메인에 속하고, 처리 네트워크 모델은 상기 제4 측면의 모델 트레이닝 장치를 이용하여 트레이닝하여 획득된 것이다.A fifth aspect of the present invention provides an image processing apparatus comprising a content extraction module and a network processing module, wherein the content extraction module performs content extraction on a target image using a de-entanglement model, so that the content features of the target image configured to acquire data; The network processing module is configured to process the content characteristic data of the target image by using the processing network model to obtain a processing result of the target image, and the detangling model is trained using two types of training images belonging to different domains. is obtained, one type of training image and the target image belong to the same domain, and the processing network model is obtained by training using the model training apparatus of the fourth aspect.

본 발명의 제6 측면은 이미지 획득 모듈, 콘텐츠 추출 모듈, 파라미터 결정 모듈 및 이미지 정합 모듈을 포함하는 이미지 정합 장치를 제공하고, 이미지 획득 모듈은 제1 정합할 이미지 및 제2 정합할 이미지를 획득하도록 구성되며; 콘텐츠 추출 모듈은 얽힘 해제 모델을 이용하여 제1 정합할 이미지 및 제2 정합할 이미지에 대해 각각 콘텐츠 추출을 수행하여, 제1 정합할 이미지의 콘텐츠 특징 데이터 및 제2 정합할 이미지의 콘텐츠 특징 데이터를 획득하도록 구성되고; 파라미터 결정 모듈은 제1 정합할 이미지의 콘텐츠 특징 데이터 및 제2 정합할 이미지의 콘텐츠 특징 데이터에 기반하여, 정합 파라미터를 결정하며; 이미지 정합 모듈은 정합 파라미터를 이용하여, 제1 정합할 이미지 및 제2 정합할 이미지를 정합하고, 얽힘 해제 모델은 상이한 도메인에 속하는 두 개 타입의 트레이닝 이미지를 이용하여 트레이닝하여 획득된 것이며, 그 중 한 타입의 트레이닝 이미지와 제1 정합할 이미지는 제1 도메인에 속하고, 다른 타입의 트레이닝 이미지와 제2 정합할 이미지는 제2 도메인에 속한다.A sixth aspect of the present invention provides an image registration device comprising an image acquisition module, a content extraction module, a parameter determination module and an image registration module, wherein the image acquisition module is configured to acquire a first image to be registered and a second image to be registered consists; The content extraction module performs content extraction on the first to-be-matched image and the second to-be-matched image using the entanglement de-entanglement model, respectively, to obtain the content characteristic data of the first image to be registered and the content characteristic data of the second image to be registered configured to obtain; The parameter determining module is configured to determine a registration parameter according to the content characteristic data of the first image to be registered and the content characteristic data of the second image to be registered; The image registration module registers the first image to be registered and the second image to be registered by using the registration parameter, and the detangling model is obtained by training using two types of training images belonging to different domains, among which One type of training image and the first image to be registered belong to the first domain, and the other type of training image and the second image to be registered belong to the second domain.

본 발명의 제7 측면은, 서로 커플링된 메모리 및 프로세서를 포함하는 전자 기기를 제공하고, 프로세서는 메모리에 저장된 프로그램 명령을 실행하여, 상기 제1 측면의 모델 트레이닝 방법을 구현하거나, 또는 상기 제2 측면의 이미지 처리 방법을 구현하거나, 또는 상기 제3 측면의 이미지 정합 방법을 구현한다.A seventh aspect of the present invention provides an electronic device comprising a memory and a processor coupled to each other, wherein the processor executes program instructions stored in the memory to implement the model training method of the first aspect, or The image processing method of the second aspect is implemented, or the image registration method of the third aspect is implemented.

본 발명의 제8 측면은, 프로그램 명령이 저장된 컴퓨터 판독 가능 저장 매체를 제공하고, 프로그램 명령이 프로세서에 의해 실행될 경우, 상기 제1 측면의 모델 트레이닝 방법이 구현되거나, 또는 상기 제2 측면의 이미지 처리 방법이 구현되거나, 또는 상기 제3 측면의 이미지 정합 방법이 구현된다.An eighth aspect of the present invention provides a computer readable storage medium having program instructions stored thereon, wherein when the program instructions are executed by a processor, the model training method of the first aspect is implemented, or the image processing of the second aspect A method is implemented, or an image registration method of the third aspect is implemented.

본 발명의 제9 측면은 컴퓨터 프로그램 제품을 제공하고, 상기 컴퓨터 프로그램 제품은 하나 또는 다수의 명령을 포함하고, 상기 하나 또는 다수의 명령은 프로세서에 의해 실행될 경우, 상기 제1 측면의 모델 트레이닝 방법이 구현되거나, 또는 상기 제2 측면의 이미지 처리 방법이 구현되거나, 또는 상기 제3 측면의 이미지 정합 방법이 구현되기에 적합하다.A ninth aspect of the present invention provides a computer program product, the computer program product comprising one or more instructions, wherein the one or more instructions are executed by a processor, the method comprising: implemented, or the image processing method of the second aspect is implemented, or the image registration method of the third aspect is suitable to be implemented.

상기 수단에서, 샘플 이미지와 함께 제1 도메인에 속하는 한 타입의 트레이닝 이미지, 및 타깃 이미지와 함께 제2 도메인에 속하는 다른 타입의 트레이닝 이미지를 통해 트레이닝하여 획득된 얽힘 해제 모델은, 라벨링 정보가 구비된 샘플 이미지 및 타깃 이미지를 매핑하여, 동일한 도메인에 속하는 콘텐츠 특징 데이터를 획득함으로써, 트레이닝 이미지의 콘텐츠 특징 데이터 및 라벨링 정보를 이용하여 트레이닝하여 획득된 네트워크 모델은 타깃 이미지에 마찬가지로 적용될 수 있고, 라벨링을 더 수행할 필요없어 상이한 도메인의 이미지의 라벨링 비용을 줄이고, 이미지 처리의 정밀도를 향상시킬 수 있다.In the above means, the detangling model obtained by training through one type of training image belonging to the first domain together with the sample image, and another type of training image belonging to the second domain together with the target image is provided with labeling information. By mapping the sample image and the target image to obtain content feature data belonging to the same domain, a network model obtained by training using the content feature data and labeling information of the training image can be similarly applied to the target image, and further labeling It is not necessary to carry out, so it is possible to reduce the labeling cost of images in different domains and improve the precision of image processing.

도 1은 본 발명에서 제공되는 모델 트레이닝 방법의 일 실시예의 흐름 모식도이다.
도 2는 본 발명에서 제공되는 얽힘 해제 모델 트레이닝 방법의 일 실시예의 흐름 모식도이다.
도 3은 본 발명에서 제공되는 얽힘 해제 모델 트레이닝 방법의 다른 실시예의 모식도이다.
도 4는 본 발명에서 제공되는 이미지 처리 방법의 일 실시예의 흐름 모식도이다.
도 5는 본 발명에서 제공되는 이미지 정합 방법의 일 실시예의 흐름 모식도이다.
도 6은 본 발명에서 제공되는 이미지 정합의 일 실시예의 과정 모식도이다.
도 7은 본 발명에서 제공되는 모델 트레이닝 장치의 일 실시예의 프레임워크 모식도이다.
도 8은 본 발명에서 제공되는 이미지 처리 장치의 일 실시예의 프레임워크 모식도이다.
도 9는 본 발명에서 제공되는 이미지 정합 장치의 일 실시예의 프레임워크 모식도이다.
도 10은 본 발명에서 제공되는 전자 기기의 일 실시예의 프레임워크 모식도이다.
도 11은 본 발명에서 제공되는 저장 장치의 일 실시예의 프레임워크 모식도이다.
1 is a flow schematic diagram of an embodiment of a model training method provided in the present invention.
2 is a flow schematic diagram of an embodiment of a method for training a de-entanglement model provided in the present invention.
3 is a schematic diagram of another embodiment of the method for training a de-entanglement model provided in the present invention.
4 is a flow diagram of an embodiment of the image processing method provided in the present invention.
5 is a flow diagram of an embodiment of the image registration method provided in the present invention.
6 is a process schematic diagram of an embodiment of image registration provided in the present invention.
7 is a schematic diagram of a framework of an embodiment of the model training apparatus provided in the present invention.
8 is a schematic diagram of a framework of an embodiment of the image processing apparatus provided in the present invention.
9 is a schematic diagram of a framework of an embodiment of the image matching apparatus provided in the present invention.
10 is a schematic diagram of a framework of an embodiment of an electronic device provided in the present invention.
11 is a schematic diagram of a framework of an embodiment of a storage device provided in the present invention.

이하, 명세서 도면을 결합하여 본 발명의 실시예의 수단을 상세하게 설명하기로 한다.Hereinafter, the means of the embodiment of the present invention will be described in detail in conjunction with the drawings in the specification.

이하 설명에서, 제한하는 하기 위함이 아니라 설명하기 위해 특정 시스템 구조, 인터페이스, 기술 등과 같은 세부사항이 제기되어, 본 발명의 실시예를 더 명확하게 이해하도록 한다.In the following description, details such as specific system structures, interfaces, techniques, and the like are set forth for purposes of explanation and not limitation, so that embodiments of the present invention may be more clearly understood.

본 명세서의 용어 “시스템” 및 “네트워크”는 본 명세서에서 흔히 서로 대체되어 사용될 수 있다. 본 명세서의 용어 “및/또는”은 연관 객체를 설명하는 연관 관계로서, 3가지 관계가 존재할 수 있음을 나타내며, 예를 들면, A 및/또는 B는, A만 존재, A와 B가 동시에 존재, B만 존재하는 3가지 경우를 나타낼 수 있다. 또한, 본 명세서의 부호 “/”은 일반적으로 전후 연관 객체가 하나의 “또는” 관계에 있음을 나타낸다. 이 밖에, 본 명세서의 "다수”는 두 개 또는 두 개 이상을 나타낸다.As used herein, the terms “system” and “network” are often used interchangeably herein. As used herein, the term “and/or” is an association relationship that describes an associated object, and indicates that three relationships may exist. For example, A and/or B means that only A exists, and A and B exist simultaneously. , we can represent three cases in which only B exists. In addition, the symbol “/” in the present specification generally indicates that an object related before and after is in one “or” relationship. In addition, "a plurality" in this specification refers to two or two or more.

도 1을 참조하면, 도 1은 본 발명에서 제공되는 모델 트레이닝 방법의 일 실시예의 흐름 모식도이다. 하기와 같은 단계를 포함할 수 있다.Referring to FIG. 1, FIG. 1 is a flow schematic diagram of an embodiment of a model training method provided in the present invention. It may include the following steps.

단계 S11: 적어도 하나의 샘플 이미지를 획득한다.Step S11: Acquire at least one sample image.

본 실시예에서, 샘플 이미지에는 라벨링 정보가 구비된다. 예를 들어, 트레이닝 이미지 분할 네트워크 모델의 경우, 라벨링 정보는 트레이닝 이미지 중 타깃 객체의 윤곽 정보일 수 있거나; 또는, 트레이닝 이미지 분류 네트워크 모델의 경우, 라벨링 정보는 트레이닝 이미지 중 타깃 객체에 대응되는 카테고리 정보일 수 있거나; 또는, 트레이닝 타깃 검출 네트워크 모델의 경우, 라벨링 정보는 트레이닝 이미지 중 타깃 객체의 위치 정보일 수 있으며, 응용 시나리오에 따라 설정될 수 있으며, 여기에서 이에 대해 제한하지 않는다.In this embodiment, the sample image is provided with labeling information. For example, in the case of a training image segmentation network model, the labeling information may be contour information of a target object in the training image; Alternatively, in the case of a training image classification network model, the labeling information may be category information corresponding to a target object in the training image; Alternatively, in the case of a training target detection network model, the labeling information may be location information of a target object in a training image, and may be set according to an application scenario, but is not limited thereto.

일 구현 시나리오에서, 트레이닝하여 획득된 네트워크 모델의 정확성을 향상시키기 위해, 샘플 이미지는 다수 개일 수 있고, 예를 들어, 500개, 700개, 900개 등 일 수 있으며, 여기에서 이에 대해 제한하지 않는다.In one implementation scenario, in order to improve the accuracy of the network model obtained by training, the number of sample images may be plural, for example, 500, 700, 900, etc., without limitation herein. .

일 구현 시나리오에서, 트레이닝하여 획득된 네트워크 모델이 의학적 이미지 분야에 응용될 수 있도록 하기 위해, 샘플 이미지는 CT 이미지, MR 이미지 등과 같은 의학적 이미지일 수 있고, 또한, 라벨링 정보는 생체기관에 대한 라벨링 정보, 예를 들어, 췌장 및 신장 등 기관에 대한 라벨링 정보일 수 있으며, 기관 조직에 대한 라벨링 정보, 예를 들어, 인대 및 연골 조직에 대한 라벨링 정보일 수도 있으며, 또는 기관 병변 조직에 대한 라벨링 정보, 예를 들어, 혈종 영역, 궤양 영역에 대한 라벨링 정보일 수도 있고, 여기에서 이에 대해 제한하지 않는다.In one implementation scenario, the sample image may be a medical image such as a CT image, an MR image, etc., so that the network model obtained by training can be applied to the field of medical imaging. , for example, may be labeling information for organs such as pancreas and kidney, and may be labeling information for organ tissue, for example, labeling information for ligament and cartilage tissue, or labeling information for organ lesion tissue; For example, it may be labeling information for a hematoma region and an ulcer region, but is not limited thereto.

일 구현 시나리오에서, 트레이닝하여 획득된 네트워크 모델이 3차원 이미지에 대해 상응한 처리를 수행할 수 있도록 하기 위해, 샘플 이미지는 3차원 핵자기 공명 이미지와 같은 3차원 이미지일 수도 있거나, 또는 3차원 이미지는 CT 이미지, B형 초음파 이미지가 3차원 재구성을 거쳐 획득된 3차원 이미지일 수도 있으며, 여기에서 이에 대해 제한하지 않는다.In one implementation scenario, the sample image may be a three-dimensional image, such as a three-dimensional nuclear magnetic resonance image, or a three-dimensional image, so that the network model obtained by training can perform corresponding processing on the three-dimensional image. A CT image and a type B ultrasound image may be a 3D image obtained through 3D reconstruction, but the present disclosure is not limited thereto.

단계 S12: 얽힘 해제 모델을 이용하여 적어도 하나의 샘플 이미지에 대해 각각 콘텐츠 추출을 수행하여, 적어도 하나의 샘플 이미지의 콘텐츠 특징 데이터를 획득한다.Step S12: Perform content extraction on each of the at least one sample image by using the de-entanglement model to obtain content feature data of the at least one sample image.

본 실시예에서, 얽힘 해제 모델은 상이한 도메인에 속하는 두 개 타입의 트레이닝 이미지를 이용하여 트레이닝하여 획득된 것이며, 그 중 한 타입의 트레이닝 이미지와 샘플 이미지는 제1 도메인에 속하고, 다른 타입의 트레이닝 이미지와 타깃 이미지는 제2 도메인에 속한다. 상이한 도메인의 이미지의 이미지 데이터는 상이한 데이터 분포를 따른다. 예를 들어, 상이한 종류의 의료 이미지 검출 기기에 의해 수집된 CT 이미지 및 MR 이미지는 상이한 도메인에 속하거나; 또는 낮에 촬영한 이미지 및 밤에 촬영한 이미지는 상이한 도메인에 속하거나; 또는 카메라에 의해 촬영된 이미지 및 손으로 그린 이미지는 상이한 도메인에 속하거나; 또는 여름에 촬영한 풍경 및 겨울에 촬영한 풍경은 상이한 도메인에 속하며, 여기에서 일일이 예를 들어 설명하지 않는다.In this embodiment, the de-entanglement model is obtained by training using two types of training images belonging to different domains, one type of training image and a sample image belonging to the first domain, and the other type of training image belongs to the first domain. The image and the target image belong to the second domain. Image data of images of different domains follow different data distributions. For example, CT images and MR images collected by different kinds of medical image detection instruments belong to different domains; or the daytime image and the nighttime image belong to different domains; or the image taken by the camera and the hand-drawn image belong to different domains; Alternatively, the landscape photographed in summer and the landscape photographed in winter belong to different domains, and will not be described here individually.

도 2를 결합하여 참조하면, 도 2는 본 발명에서 제공되는 얽힘 해제 모델 트레이닝 방법의 일 실시예의 모식도이다. 도 2에 도시된 바와 같이, 동일한 분포의 재구성 과정을 이용하여, 상이한 도메인의 이미지

Figure pct00001
및 이미지
Figure pct00002
에 대해 콘텐츠 특징 및 스타일 특징을 추출하여 획득한 후, 재구성하여 이미지
Figure pct00003
및 이미지
Figure pct00004
를 획득한다. 구체적으로, 제1 도메인에 속하는 제1 타입 트레이닝 이미지를 이미지
Figure pct00005
로, 제2 도메인에 속하는 제2 타입 트레이닝 이미지를 이미지
Figure pct00006
로 획득하고, 원래의 얽힘 해제 모델을 이용하여 제1 타입 트레이닝 이미지
Figure pct00007
및 제2 타입 트레이닝 이미지
Figure pct00008
에 대해 각각 콘텐츠 및 스타일 수출을 수행하여, 제1 타입 트레이닝 이미지
Figure pct00009
의 콘텐츠 특징 데이터
Figure pct00010
및 스타일 특징 데이터
Figure pct00011
, 및 제2 타입 트레이닝 이미지
Figure pct00012
의 콘텐츠 특징 데이터
Figure pct00013
및 스타일 특징 데이터
Figure pct00014
를 획득한다. 다음, 제1 타입 트레이닝 이미지
Figure pct00015
의 콘텐츠 특징 데이터
Figure pct00016
및 스타일 특징 데이터
Figure pct00017
, 및 제2 타입 트레이닝 이미지
Figure pct00018
의 콘텐츠 특징 데이터
Figure pct00019
및 스타일 특징 데이터
Figure pct00020
를 이용하여 재구성하여, 재구성 이미지를 획득한다. 재구성하는 과정은 도 2 및 도 3을 결합하여 참조하며, 도 3은 본 발명에서 제공되는 얽힘 해제 모델 트레이닝 방법의 다른 실시예의 모식도이다. 도 2에 도시된 바와 같이, 제1 타입 트레이닝 이미지
Figure pct00021
의 콘텐츠 특징 데이터
Figure pct00022
및 스타일 특징 데이터
Figure pct00023
를 이용하여 재구성하여, 제1 인트라 도메인 재구성 이미지
Figure pct00024
를 획득하고, 제2 타입 트레이닝 이미지
Figure pct00025
의 콘텐츠 특징 데이터
Figure pct00026
및 스타일 특징 데이터
Figure pct00027
를 이용하여 재구성하여, 제2 인트라 도메인 재구성 이미지
Figure pct00028
를 획득하며, 도 3에 도시된 바와 같이, 제1 타입 트레이닝 이미지
Figure pct00029
의 스타일 특징 데이터
Figure pct00030
및 제2 타입 트레이닝 이미지
Figure pct00031
의 콘텐츠 특징 데이터
Figure pct00032
를 이용하여 재구성하여, 제1 크로스 도메인 재구성 이미지
Figure pct00033
를 획득하고, 제2 타입 트레이닝 이미지
Figure pct00034
의 스타일 특징 데이터
Figure pct00035
및 제1 타입 트레이닝 이미지
Figure pct00036
의 콘텐츠 특징 데이터
Figure pct00037
를 이용하여 재구성하여, 제2 크로스 도메인 재구성 이미지
Figure pct00038
를 획득한다. 상기 인트라 도메인 재구성 및 크로스 도메인 재구성을 통해, 제1 인트라 도메인 재구성 이미지
Figure pct00039
, 제2 인트라 도메인 재구성 이미지
Figure pct00040
, 제1 크로스 도메인 재구성 이미지
Figure pct00041
및 제2 크로스 도메인 재구성 이미지
Figure pct00042
를 각각 획득할 수 있다. 이를 토대로, 재구성 이미지에 기반하여, 얽힘 해제 모델의 손실값을 획득함으로써, 손실값에 기반하여 얽힘 해제 모델의 파라미터를 조정할 수 있다.Referring to FIG. 2 in combination, FIG. 2 is a schematic diagram of an embodiment of a method for training a de-entanglement model provided in the present invention. As shown in Figure 2, images of different domains using the same distribution reconstruction process
Figure pct00001
and images
Figure pct00002
After extracting and acquiring content features and style features for
Figure pct00003
and images
Figure pct00004
to acquire Specifically, the image of the first type training image belonging to the first domain
Figure pct00005
As an image, the second type training image belonging to the second domain
Figure pct00006
, and using the original unentanglement model, the first type training image
Figure pct00007
and a second type training image
Figure pct00008
By performing content and style export for each, the first type training image
Figure pct00009
content feature data of
Figure pct00010
and style feature data
Figure pct00011
, and the second type training image
Figure pct00012
content feature data of
Figure pct00013
and style feature data
Figure pct00014
to acquire Next, the first type training image
Figure pct00015
content feature data of
Figure pct00016
and style feature data
Figure pct00017
, and the second type training image
Figure pct00018
content feature data of
Figure pct00019
and style feature data
Figure pct00020
Reconstructed using , to obtain a reconstructed image. The reconstructing process is referred to in combination with FIGS. 2 and 3, and FIG. 3 is a schematic diagram of another embodiment of a method for training a detangling model provided in the present invention. As shown in Fig. 2, the first type training image
Figure pct00021
content feature data of
Figure pct00022
and style feature data
Figure pct00023
Reconstructed using the first intra-domain reconstructed image
Figure pct00024
to obtain a second type training image
Figure pct00025
content feature data of
Figure pct00026
and style feature data
Figure pct00027
Reconstructed using , the second intra domain reconstructed image
Figure pct00028
, and as shown in FIG. 3 , the first type training image
Figure pct00029
of style feature data
Figure pct00030
and a second type training image
Figure pct00031
content feature data of
Figure pct00032
Reconstructed using the first cross-domain reconstructed image
Figure pct00033
to obtain a second type training image
Figure pct00034
of style feature data
Figure pct00035
and the first type training image
Figure pct00036
content feature data of
Figure pct00037
Reconstructed using a second cross-domain reconstructed image
Figure pct00038
to acquire Through the intra-domain reconstruction and cross-domain reconstruction, the first intra-domain reconstruction image
Figure pct00039
, the second intra-domain reconstruction image
Figure pct00040
, first cross-domain reconstructed image
Figure pct00041
and a second cross-domain reconstruction image.
Figure pct00042
can be obtained individually. Based on this, by obtaining a loss value of the de-entanglement model based on the reconstructed image, it is possible to adjust the parameters of the de-entanglement model based on the loss value.

구체적으로, 계속해서 도 3 및 도 3을 결합하여 참조하면, 제1 타입 트레이닝 이미지

Figure pct00043
와 제1 인트라 도메인 재구성 이미지
Figure pct00044
사이의 차이에 기반하여, 제1 인트라 도메인 손실값을 획득할 수 있고, 제2 타입 트레이닝 이미지
Figure pct00045
와 제2 인트라 도메인 재구성 이미지
Figure pct00046
사이의 차이에 기반하여, 제2 인트라 도메인 손실값을 획득할 수 있으며, 제1 타입 트레이닝 이미지
Figure pct00047
의 콘텐츠 특징 데이터
Figure pct00048
및 제2 크로스 도메인 재구성 이미지
Figure pct00049
의 콘텐츠 특징 데이터
Figure pct00050
간의 차이에 기반하여, 제1 콘텐츠 손실값을 획득할 수 있고, 여기서, 콘텐츠 특징 데이터
Figure pct00051
는 제2 크로스 도메인 재구성 이미지
Figure pct00052
를 디코딩하여 획득된 것이며, 제1 타입 트레이닝 이미지
Figure pct00053
의 스타일 특징 데이터
Figure pct00054
및 제1 크로스 도메인 재구성 이미지
Figure pct00055
의 스타일 특징 데이터
Figure pct00056
간의 차이에 기반하여, 제1 스타일 손실값을 획득할 수 있고, 여기서, 스타일 특징 데이터
Figure pct00057
는 제1 크로스 도메인 재구성 이미지
Figure pct00058
를 디코딩하여 획득된 것이며, 제2 타입 트레이닝 이미지
Figure pct00059
의 콘텐츠 특징 데이터
Figure pct00060
및 제1 크로스 도메인 재구성 이미지
Figure pct00061
의 콘텐츠 특징 데이터
Figure pct00062
간의 차이에 기반하여, 제2 콘텐츠 손실값을 획득할 수 있고, 여기서, 콘텐츠 특징 데이터
Figure pct00063
는 제1 크로스 도메인 재구성 이미지
Figure pct00064
를 디코딩하여 획득된 것이며, 제2 타입 트레이닝 이미지
Figure pct00065
의 스타일 특징 데이터
Figure pct00066
및 제2 크로스 도메인 재구성 이미지
Figure pct00067
의 스타일 특징 데이터
Figure pct00068
간의 차이에 기반하여, 제2 스타일 손실값을 획득할 수 있고, 여기서, 스타일 특징 데이터
Figure pct00069
는 제2 크로스 도메인 재구성 이미지
Figure pct00070
를 디코딩하여 획득된 것이며, 제1 타입 트레이닝 이미지
Figure pct00071
와 제1 크로스 도메인 재구성 이미지
Figure pct00072
사이의 차이에 기반하여, 제1 크로스 도메인 손실값을 획득할 수 있고, 제2 타입 트레이닝 이미지
Figure pct00073
와 제2 크로스 도메인 재구성 이미지
Figure pct00074
사이의 차이에 기반하여, 제2 크로스 도메인 손실값을 획득할 수 있으며, 상기 획득된 손실값에 대해 가중 처리를 수행하여, 얽힘 해제 모델의 손실값을 획득한다. 구체적으로, 제1 인트라 도메인 손실값과 제2 인트라 도메인 손실값의 가중치는 동일할 수 있고(예를 들어, 모두
Figure pct00075
임), 제1 스타일 손실값과 제2 스타일 손실값의 가중치도 동일할 수 있으며(예를 들어, 모두
Figure pct00076
임), 제1 콘텐츠 손실값과 제2 콘텐츠 손실값의 가중치도 동일할 수 있으며(예를 들어, 모두
Figure pct00077
임), 제1 크로스 도메인 손실값과 제2 크로스 도메인 손실값의 가중치도 동일할 수 있으며(예를 들어, 모두 1임), 일 구현 시나리오에서, 상기
Figure pct00078
,
Figure pct00079
,
Figure pct00080
은 실제 상황에 따라 설정될 수 있고, 여기에서 이에 대해 제한하지 않는다.Specifically, referring to FIGS. 3 and 3 in conjunction with each other, the first type training image
Figure pct00043
and the first intra-domain reconstruction image
Figure pct00044
Based on the difference between the first intra-domain loss value may be obtained, the second type training image
Figure pct00045
and the second intra-domain reconstruction image
Figure pct00046
Based on the difference between them, a second intra-domain loss value may be obtained, and a first type training image
Figure pct00047
content feature data of
Figure pct00048
and a second cross-domain reconstruction image.
Figure pct00049
content feature data of
Figure pct00050
A first content loss value may be obtained based on the difference between the content characteristic data
Figure pct00051
is the second cross-domain reconstructed image
Figure pct00052
It is obtained by decoding the first type training image
Figure pct00053
of style feature data
Figure pct00054
and a first cross-domain reconstructed image
Figure pct00055
of style feature data
Figure pct00056
Based on the difference between, a first style loss value may be obtained, wherein the style feature data
Figure pct00057
is the first cross-domain reconstructed image
Figure pct00058
It is obtained by decoding the second type training image
Figure pct00059
content feature data of
Figure pct00060
and a first cross-domain reconstructed image
Figure pct00061
content feature data of
Figure pct00062
A second content loss value may be obtained based on the difference between the content characteristic data
Figure pct00063
is the first cross-domain reconstruction image
Figure pct00064
It is obtained by decoding the second type training image
Figure pct00065
of style feature data
Figure pct00066
and a second cross-domain reconstruction image.
Figure pct00067
of style feature data
Figure pct00068
A second style loss value may be obtained based on the difference between the style feature data
Figure pct00069
is the second cross-domain reconstructed image
Figure pct00070
It is obtained by decoding the first type training image
Figure pct00071
and the first cross-domain reconstruction image
Figure pct00072
Based on the difference between the first cross-domain loss value can be obtained, the second type training image
Figure pct00073
and the second cross-domain reconstruction image
Figure pct00074
Based on the difference between them, a second cross-domain loss value may be obtained, and a weighting process is performed on the obtained loss value to obtain a loss value of the detangling model. Specifically, the weights of the first intra-domain loss value and the second intra-domain loss value may be the same (eg, both
Figure pct00075
), the weights of the first style loss value and the second style loss value may also be the same (for example, both
Figure pct00076
), the weight of the first content loss value and the second content loss value may also be the same (eg, both
Figure pct00077
), the weights of the first cross-domain loss value and the second cross-domain loss value may also be the same (eg, both are 1), and in one implementation scenario, the
Figure pct00078
,
Figure pct00079
,
Figure pct00080
may be set according to an actual situation, and is not limited thereto.

종합하면, 도 2는 동일한 분포의 재구성 과정을 이용하여, 상이한 도메인의 이미지

Figure pct00081
및 이미지
Figure pct00082
에 대해 콘텐츠 특징 및 스타일 특징을 추출하여 획득한 후, 재구성하여 이미지
Figure pct00083
및 이미지
Figure pct00084
를 획득한 것을 도시한다. 도 3에 도시된 것은 교차 모달리티 생성 과정이며,
Figure pct00085
이미지 및
Figure pct00086
이미지에 대해 추출하여 획득된 콘텐츠 특징이 교환된 후, 스타일 특징은 유지되고, 재구성하여
Figure pct00087
Figure pct00088
이 획득되며, 이러한 방법으로 얽힘 해제 모델을 지속적으로 트레이닝시킬 수 있다. 상기 얽힘 해제 모델을 이용하여, 상이한 도메인의 적어도 두 개의 이미지에서 대응되는 적어도 두 개 그룹의 콘텐츠 특징 데이터를 추출하여 획득함으로써, 두 개 그룹의 콘텐츠 특징 데이터가 동일한 분포를 갖도록 한 후, 적어도 두 개 그룹의 콘텐츠 특징 데이터 또는 트레이닝 이미지 분할 네트워크 모델, 이미지 분류 네트워크 모델, 타깃 검출 네트워크 모델 등 모델에 기반하여, 상기 기설정된 네트워크 모델를 트레이닝시켜, 이미지에 대해 분할을 수행하기 위한 네트워크 모델, 이미지 분류를 위한 네트워크 모델, 및 타깃 검출을 위한 네트워크 모델을 각각 획득할 수 있어, 트레이닝하여 획득된 네트워크 모델이 제1 도메인 및 제2 도메인에 속하는 타깃 이미지에 동시에 적용될 수 있도록 한다.Taken together, Figure 2 shows images of different domains using the same distribution reconstruction process.
Figure pct00081
and images
Figure pct00082
After extracting and acquiring content features and style features for
Figure pct00083
and images
Figure pct00084
is shown to have been obtained. 3 is a cross-modality generation process,
Figure pct00085
image and
Figure pct00086
After the content features extracted and obtained for the image are exchanged, the style features are maintained and reconstructed
Figure pct00087
and
Figure pct00088
is obtained, and in this way the de-entanglement model can be continuously trained. Using the de-entanglement model, by extracting and obtaining corresponding at least two groups of content feature data from at least two images of different domains, so that the content feature data of the two groups have the same distribution, at least two Based on a group's content feature data or a training image segmentation network model, an image classification network model, a target detection network model, etc., by training the preset network model to perform segmentation on an image, a network model for image classification It is possible to obtain a network model and a network model for target detection, respectively, so that the network model obtained by training can be simultaneously applied to target images belonging to the first domain and the second domain.

실제 트레이닝 과정에서, 획득된 손실값에 기반하여 얽힘 해제 모델의 파라미터를 조정하고, 상기 프로세스를 반복하여 특징 추출, 이미지 재구성, 및 손실값 산출 단계를 재수행할 수 있으므로, 얽힘 해제 모델의 파라미터를 지속적으로 조정할 수 있고, 여러번의 순환 및 파라미터 조정을 통해, 얽힘 해제 모델을 통해 획득된 제1 타입 트레이닝 이미지

Figure pct00089
의 콘텐츠 특징 데이터
Figure pct00090
및 제2 타입 트레이닝 이미지
Figure pct00091
의 콘텐츠 특징 데이터
Figure pct00092
가 최종적으로 동일한 데이터 분포를 따르도록 할 수 있으며, 이때 얽힘 해제 모델 트레이닝이 완료되었다고 간주할 수 있다.In the actual training process, the parameters of the detangling model can be adjusted based on the obtained loss values, and the steps of feature extraction, image reconstruction, and loss calculation can be re-performed by repeating the above process, so that the parameters of the detangling model can be continuously maintained. The first type training image obtained through the de-entanglement model through multiple cycles and parameter adjustment.
Figure pct00089
content feature data of
Figure pct00090
and a second type training image
Figure pct00091
content feature data of
Figure pct00092
Finally, it can be made to follow the same data distribution, and at this time, it can be considered that the detangling model training is complete.

일 구현 시나리오에서, 얽힘 해제 모델은 콘텐츠 인코더(content encoder) 및 스타일 인코더(style encoder)를 포함할 수 있고, 이미지를 인코딩하여 콘텐츠 특징 데이터 및 스타일 특징 데이터를 획득하도록 각각 구성되며, 여기서, 콘텐츠 인코더는 입력 이미지를 다운 샘플링하도록 구성되는 다수의 스트라이디드 합성곱 계층(strided convolutional layer) 및 추가 처리를 위한 다수의 잔차 블록(residual blocks)을 포함할 수 있으며, 모든 합성곱 계층은 모두 인스턴스 정규화 처리(Instance Normalization)를 거쳤다. 스타일 인코더는 입력 이미지를 다운 샘플링하도록 구성되는 다수의 스트라이디드 합성곱 계층, 하나의 글로벌 평균 풀링 계층(global average pooling layer), 및 하나의 완전 연결 계층(fully connected layer)을 포함할 수 있으며, 인스턴스 정규화 처리는 원래 특징의 평균값 및 분산을 제거하고, 그 안에는 많은 스타일 특징 정보가 포함되기 때문에, 스타일 인코더에서는 인스턴스 정규화 처리를 사용하지 않는다. 또한, 얽힘 해제 모델은 콘텐츠 특징 데이터 및 스타일 특징 데이터에 기반하여 이미지를 재구성하도록 구성되는 디코더(decoder)를 더 포함하고, 구체적으로, 디코더는 한 그룹의 잔차 블록을 통해 콘텐츠 특징 데이터를 처리하며, 최종적으로 다수의 업샘플링을 이용하여 이미지를 재구성하고, 여기서, 잔차 블록에는 자기 적응 인스턴스 표준화가 더 도입될 수 있으며, 자기 적응 인스턴스 표준화는 다층 퍼셉트론을 이용하여 스타일 특징 데이터에서 동적으로 생성될 수 있다.In one implementation scenario, the de-entanglement model may include a content encoder and a style encoder, each configured to encode an image to obtain content feature data and style feature data, where the content encoder may contain multiple strided convolutional layers configured to downsample the input image and multiple residual blocks for further processing, all convolutional layers being all instance normalized processing ( Instance Normalization). The style encoder may include multiple strided convolutional layers configured to downsample the input image, one global average pooling layer, and one fully connected layer, instance Since the normalization process removes the average value and variance of the original feature, and a lot of style feature information is included therein, the style encoder does not use the instance normalization process. In addition, the de-entanglement model further includes a decoder configured to reconstruct an image based on the content feature data and the style feature data, specifically, the decoder processes the content feature data through a group of residual blocks, Finally, the image is reconstructed using multiple upsampling, where a self-adaptive instance normalization may be further introduced into the residual block, and the self-adaptive instance normalization may be dynamically generated from the style feature data using a multilayer perceptron. .

본 실시예에서, 콘텐츠 특징 데이터는 이미지 콘텐츠를 설명하는 데이터를 포함할 수 있고, 예를 들면, 이미지 중 인물, 건물, 산수 등 윤곽을 설명하는 데이터를 포함할 수 있다. 스타일 특징 데이터는 이미지 컬러, 화풍 등을 설명하는 데이터를 포함할 수 있고, 예를 들면, 이미지 중 인물, 건물, 산수 등 컬러 계열(예컨데, 웜 컬러 계열, 쿨 컬러 계열 등)을 설명하는 데이터를 포함할 수 있거나, 또는 이미지 중 인물, 건물, 산수 등 화풍(예컨대, 사실적 화풍, 인상적 화풍)을 설명하는 데이터를 포함할 수도 있으며, 여기에서 더이상 일일이 예를 들어 설명하지 않는다.In the present embodiment, the content characteristic data may include data describing image content, for example, data describing outlines of people, buildings, and landscapes among images. The style feature data may include data describing image color and style, for example, data describing color series (eg, warm color series, cool color series, etc.) such as people, buildings, and landscapes in the image. It may include, or may include data describing a style (eg, a realistic style, an impressive style) such as a person, a building, a landscape, etc. in the image, and will not be described in detail here by example.

단계 S13: 적어도 하나의 샘플 이미지의 콘텐츠 특징 데이터 및 라벨링 정보를 이용하여 기설정된 네트워크 모델을 트레이닝시켜, 타깃 이미지를 처리하기 위한 네트워크 모델을 획득한다.Step S13: Train a preset network model using the content feature data and labeling information of at least one sample image to obtain a network model for processing the target image.

일 구현 시나리오에서, 트레이닝하여 획득된 네트워크 모델이 의학적 이미지 분야에 응용될 수 있도록 하기 위해, 샘플 이미지 및 타깃 이미지는 CT 이미지, MR 이미지 등과 같은 의학적 이미지일 수 있다. 또한, 라벨링 정보는 생체기관에 대한 라벨링 정보일 수 있다.In one implementation scenario, the sample image and the target image may be medical images such as CT images, MR images, and the like, so that the network model obtained by training can be applied to the field of medical imaging. In addition, the labeling information may be labeling information for a living organ.

일 구현 시나리오에서, 트레이닝하여 획득된 네트워크 모델이 3차원 이미지에 대해 상응한 처리를 수행할 수 있도록 하기 위해, 샘플 이미지 및 타깃 이미지는 3차원 이미지이고, 라벨링 정보는 3차원 타깃에 대한 라벨링 정보이다. 3차원 이미지는 3차원 핵자기 공명 이미지일 수 있거나, 또는, 3차원 이미지는 CT 이미지, B형 초음파 이미지가 3차원 재구성을 거쳐 획득된 3차원 이미지일 수도 있으며, 여기에서 이에 대해 제한하지 않는다.In one implementation scenario, the sample image and the target image are three-dimensional images, and the labeling information is labeling information for the three-dimensional target, so that the network model obtained by training can perform corresponding processing on the three-dimensional image . The three-dimensional image may be a three-dimensional nuclear magnetic resonance image, or the three-dimensional image may be a three-dimensional image obtained by performing a three-dimensional reconstruction of a CT image or a type B ultrasound image, but the present invention is not limited thereto.

일 구현 시나리오에서, 상이한 응용 시나리오에 적응하기 위해, 기설정된 네트워크 모듈은 실제 상황에 따라, 이미지 분할 네트워크 모델, 이미지 분류 네트워크 모델 및 타깃 검출 네트워크 모델 중 어느 하나로 설정될 수 있다. 예를 들어, 이미지 분할의 경우, 이미지 분할 네트워크 모델은 완전 합성곱 네트워크(Fully Convolutional Network, FCN), Segnet, Enet 등을 포함할 수 있으나 이에 제한되지 않고; 또는, 이미지 분류의 경우, 이미지 분류 네트워크 모델은 VGG 네트워크, Inception 네트워크, Resnet 네트워크 등을 포함할 수 있으나 이에 제한되지 않으며; 또는, 타깃 검출의 경우, 타깃 검출 네트워크 모델은 YOLO(You Only Look Once) 네트워크, SSD(Single Shot MultiBox Detector) 네트워크 등을 포함할 수 있으나 이에 제한되지 않고, 여기에서 이에 대해 제한하지 않는다. 상기 기설정된 네트워크 모델을 트레이닝시킴으로써, 이미지에 대해 분할을 수행하기 위한 네트워크 모델, 이미지 분류를 위한 네트워크 모델, 및 타깃 검출을 위한 네트워크 모델을 각각 획득할 수 있어, 트레이닝하여 획득된 네트워크 모델이 제1 도메인 및 제2 도메인에 속하는 타깃 이미지에 동시에 적용될 수 있도록 한다.In one implementation scenario, in order to adapt to different application scenarios, the preset network module may be set to any one of an image segmentation network model, an image classification network model, and a target detection network model according to an actual situation. For example, in the case of image segmentation, the image segmentation network model may include, but is not limited to, a Fully Convolutional Network (FCN), Segnet, Enet, and the like; Alternatively, in the case of image classification, the image classification network model may include, but is not limited to, a VGG network, an Inception network, a Resnet network, and the like; Alternatively, in the case of target detection, the target detection network model may include, but is not limited to, a You Only Look Once (YOLO) network, a Single Shot MultiBox Detector (SSD) network, and the like, but is not limited thereto. By training the preset network model, it is possible to obtain a network model for performing segmentation on an image, a network model for image classification, and a network model for target detection, respectively, so that the network model obtained by training is the first It allows it to be simultaneously applied to the target image belonging to the domain and the second domain.

일 구현 시나리오에서, 샘플 이미지는 두개골 및 뇌의 CT 이미지이고, 타깃 이미지는 두개골 및 뇌의 MR 이미지이며, 샘플 이미지와 함께 제1 도메인에 속하는 제1 타입 트레이닝 이미지, 및 타깃 이미지와 함께 제2 타입에 속하는 제2 타입 트레이닝 이미지를 통해 얽힘 해제 네트워크를 트레이닝하여 획득함으로써, 얽힘 해제 모델을 이용하여 두개골 및 뇌의 CT 이미지의 콘텐츠 특징 데이터를 추출하여 획득한 다음, 두개골 및 뇌의 CT 이미지의 콘텐츠 특징 데이터 및 라벨링 정보를 이용하여 기설정된 네트워크 모델을 트레이닝시켜, 두개골 및 뇌의 MR 이미지를 처리하기 위한 네트워크 모델을 획득할 수 있다. 다른 응용 시나리오에서는 이와 같이 유추할 수 있고, 여기에서 더이상 일일이 예를 들어 설명하지 않는다.In one implementation scenario, the sample image is a CT image of the skull and brain, the target image is an MR image of the skull and brain, a first type training image belonging to a first domain together with the sample image, and a second type with the target image By training and acquiring the de-entanglement network through the second type training image belonging to By training a preset network model using data and labeling information, it is possible to obtain a network model for processing MR images of the skull and brain. Other application scenarios can be inferred in this way, and examples are not further described here.

상기 수단에서, 샘플 이미지와 함께 제1 도메인에 속하는 한 타입의 트레이닝 이미지, 및 타깃 이미지와 함께 제2 도메인에 속하는 다른 타입의 트레이닝 이미지를 통해 트레이닝하여 획득된 얽힘 해제 모델은, 라벨링 정보가 구비된 샘플 이미지 및 타깃 이미지를 매핑하여, 동일한 도메인에 속하는 콘텐츠 특징 데이터를 획득함으로써, 트레이닝 이미지의 콘텐츠 특징 데이터 및 라벨링 정보를 이용하여 트레이닝하여 획득된 네트워크 모델은 타깃 이미지에 마찬가지로 적용될 수 있고, 라벨링을 더 수행할 필요없어 상이한 도메인의 이미지의 라벨링 비용을 줄이고, 이미지 처리의 정밀도를 향상시킬 수 있다.In the above means, the detangling model obtained by training through one type of training image belonging to the first domain together with the sample image, and another type of training image belonging to the second domain together with the target image is provided with labeling information. By mapping the sample image and the target image to obtain content feature data belonging to the same domain, a network model obtained by training using the content feature data and labeling information of the training image can be similarly applied to the target image, and further labeling It is not necessary to carry out, so it is possible to reduce the labeling cost of images in different domains and improve the precision of image processing.

도 4를 참조하면, 도 4는 본 발명에서 제공되는 이미지 처리 방법의 일 실시예의 흐름 모식도이다. 하기와 같은 단계를 포함할 수 있다.Referring to FIG. 4, FIG. 4 is a flowchart of an embodiment of the image processing method provided in the present invention. It may include the following steps.

단계 S41: 얽힘 해제 모델을 이용하여 타깃 이미지에 대해 콘텐츠 추출을 수행하여, 타깃 이미지의 콘텐츠 특징 데이터를 획득한다.Step S41: Content extraction is performed on the target image by using the de-entanglement model to obtain content characteristic data of the target image.

본 실시예에서, 얽힘 해제 모델은 상이한 도메인에 속하는 두 개 타입의 트레이닝 이미지를 이용하여 트레이닝하여 획득된 것이며, 그 중 한 타입의 트레이닝 이미지와 타깃 이미지는 동일한 분야에 속한다. 얽힘 해제 모델의 트레이닝 과정은 전술한 실시예의 관련 단계를 참조할 수 있으며, 여기에서 더이상 설명하지 않는다.In the present embodiment, the de-entanglement model is obtained by training using two types of training images belonging to different domains, one type of training image and the target image belonging to the same field. The training process of the de-entanglement model may refer to the relevant steps of the foregoing embodiments, which are not further described herein.

일 구현 시나리오에서, 타깃 이미지는 두개골 및 뇌의 MR 이미지일 수 있고, 얽힘 해제 모델을 이용하여 두개골 및 뇌의 MR 이미지에 대해 콘텐츠 추출을 수행하여, 두개골 및 뇌의 MR 이미지의 콘텐츠 특징 데이터를 획득할 수 있다. 다른 응용 시나리오에서는 이와 같이 유추할 수 있고, 여기에서 더이상 일일이 예를 들어 설명하지 않는다.In one implementation scenario, the target image may be an MR image of the skull and brain, and content extraction is performed on the MR image of the skull and brain using a de-entanglement model to obtain content feature data of the MR image of the skull and brain can do. Other application scenarios can be inferred in this way, and examples are not further described here.

단계 S42: 처리 네트워크 모델을 이용하여 타깃 이미지의 콘텐츠 특징 데이터를 처리하여, 타깃 이미지의 처리 결과를 획득한다.Step S42: Process the content characteristic data of the target image by using the processing network model to obtain a processing result of the target image.

본 실시예에서, 처리 네트워크 모델은 상기 임의의 하나의 모델 트레이닝 방법 실시예의 단계를 이용하여 획득된 것이고, 전술한 실시예의 관련 단계를 참조할 수 있으며, 여기에서 더이상 설명하지 않는다.In this embodiment, the processing network model is obtained by using the steps of any one of the above model training method embodiments, and may refer to the relevant steps of the foregoing embodiments, which are not further described herein.

일 구현 시나리오에서, 여전히 타깃 이미지가 두개골 및 뇌의 MR 이미지인 것을 예로 들면, 처리 네트워크 모델은 이미지 분할 네트워크 모델일 수 있고, 이미지 분할 네트워크 모델은 두개골 및 뇌의 CT 이미지의 콘텐츠 특징 데이터 및 그 라벨링 정보(예컨대, 열공성 뇌경색 윤곽 정보)를 이용하여 트레이닝하여 획득된 것이며, 두개골 및 뇌의 CT 이미지의 콘텐츠 특징 데이터는 얽힘 해제 모델을 이용하여 추출하여 획득된 것이고, 얽힘 해제 모델은 또한 두개골 및 뇌의 MR 이미지와 동일한 도메인에 속하는 트레이닝 이미지 및 두개골 및 뇌의 CT 이미지와 동일한 도메인에 속하는 트레이닝 이미지를 이용하여 트레이닝하여 획득된 것이며, 트레이닝 과정은 전술한 실시예의 관련 단계를 참조할 수 있고, 이로써 트레이닝하여 획득된 이미지 분할 네트워크 모델을 이용하여, 두개골 및 뇌의 MR 이미지의 콘텐츠 특징 데이터를 처리하여, 두개골 및 뇌의 MR 이미지 중의 열공성 뇌경색을 분할하여 획득한다.In one implementation scenario, still taking as an example that the target image is an MR image of the skull and brain, the processing network model may be an image segmentation network model, and the image segmentation network model is the content feature data of the CT image of the skull and brain and its labeling It is obtained by training using information (eg, lacunar infarction contour information), the content characteristic data of the CT image of the skull and brain are obtained by extracting using the de-entanglement model, and the de-entanglement model is also obtained by using the de-entanglement model. It is obtained by training using a training image belonging to the same domain as the MR image and a training image belonging to the same domain as the CT image of the skull and brain. Using the image segmentation network model obtained by processing the content feature data of the MR images of the skull and brain, it is obtained by segmenting the hiatus cerebral infarction in the MR images of the skull and brain.

다른 구현 시나리오에서, 여전히 타깃 이미지가 두개골 및 뇌의 MR 이미지인 것을 예로 들면, 처리 네트워크 모델은 이미지 분류 네트워크 모델일 수 있고, 이미지 분류 네트워크 모델은 두개골 및 뇌의 CT 이미지의 콘텐츠 특징 데이터 및 그 분류에 대응되는 라벨링 정보(예컨대, 열공성 뇌경색, 출혈, 뇌백질 희박화, 뇌 위축 등)를 이용하여 트레이닝하여 획득된 것이며, 두개골 및 뇌의 CT 이미지의 콘텐츠 특징 데이터는 얽힘 해제 모델을 이용하여 추출하여 획득된 것이고, 얽힘 해제 모델은 또한 두개골 및 뇌의 MR 이미지와 동일한 도메인에 속하는 트레이닝 이미지, 및 두개골 및 뇌의 CT 이미지와 동일한 도메인에 속하는 트레이닝 이미지를 이용하여 트레이닝하여 획득된 것이며, 트레이닝 과정은 전술한 실시예의 관련 단계를 참조할 수 있고, 이로써 트레이닝하여 획득된 이미지 분류 네트워크 모델을 이용하여, 두개골 및 뇌의 MR 이미지의 콘텐츠 특징 데이터를 처리하여, 두개골 및 뇌의 MR 이미지가 속하는 카테고리(예컨대: 열공성 뇌경색, 출혈, 뇌백질 희박화, 뇌 위축 중 어느 하나)를 결정한다.In another implementation scenario, still taking as an example that the target image is an MR image of the skull and brain, the processing network model may be an image classification network model, and the image classification network model is the content characteristic data of the CT image of the skull and brain and its classification It is obtained by training using the labeling information corresponding to the lacunar infarction, hemorrhage, cerebral white matter thinning, brain atrophy, etc. The entanglement model is also obtained by training using a training image belonging to the same domain as the MR image of the skull and brain, and a training image belonging to the same domain as the CT image of the skull and brain, and the training process is Reference may be made to the relevant steps of the above-described embodiments, whereby the image classification network model obtained by training is used to process the content characteristic data of the MR images of the skull and brain, to which categories (eg, the MR images of the skull and brain) belong. : Determining any one of lacunar cerebral infarction, hemorrhage, cerebral white matter thinning, and brain atrophy).

또 다른 구현 시나리오에서, 여전히 타깃 이미지가 두개골 및 뇌의 MR 이미지인 것을 예로 들면, 처리 네트워크 모델은 타깃 검출 네트워크 모델일 수 있고, 타깃 검출 네트워크 모델은 두개골 및 뇌의 CT 이미지의 콘텐츠 특징 데이터 및 그 중에 포함된 타깃 객체(예컨대: 열공성 뇌경색, 출혈 등)의 타깃 영역의 라벨링 정보(예컨대: 위치 정보)를 이용하여 트레이닝하여 획득된 것이며, 두개골 및 뇌의 CT 이미지의 콘텐츠 특징 데이터는 얽힘 해제 모델을 이용하여 추출하여 획득된 것이고, 얽힘 해제 모델은 또한 두개골 및 뇌의 MR 이미지와 동일한 도메인에 속하는 트레이닝 이미지, 및 두개골 및 뇌의 CT 이미지와 동일한 도메인에 속하는 트레이닝 이미지를 이용하여 트레이닝하여 획득된 것이며, 트레이닝 과정은 전술한 실시예의 관련 단계를 참조할 수 있고, 이로써 트레이닝하여 획득된 타깃 검출 네트워크 모델을 이용하여, 두개골 및 뇌의 MR 이미지의 콘텐츠 특징 데이터를 처리하여, 두개골 및 뇌의 MR 이미지 중의 타깃 객체(열공성 뇌경색, 출혈 등)의 타깃 영역을 획득한다.In another implementation scenario, still taking as an example that the target image is an MR image of the skull and brain, the processing network model may be a target detection network model, and the target detection network model includes content characteristic data of the CT image of the skull and brain and its It is obtained by training using the labeling information (eg, location information) of the target area of the target object (eg, lacunar infarction, hemorrhage, etc.) included in the It is obtained by extracting using , and the entanglement model is also obtained by training using a training image belonging to the same domain as the MR image of the skull and brain, and a training image belonging to the same domain as the CT image of the skull and brain. , the training process may refer to the relevant steps of the above-described embodiments, whereby the target detection network model obtained by training is used to process the content characteristic data of the MR images of the skull and brain, so that among the MR images of the skull and brain, The target area of the target object (lacquer cerebral infarction, hemorrhage, etc.) is acquired.

다른 응용 시나리오에서는 이와 같이 유추할 수 있고, 여기에서 더이상 일일이 예를 들어 설명하지 않는다.Other application scenarios can be inferred in this way, and examples are not further described here.

상기 수단에서, 상기 제1 측면의 모델 트레이닝 방법을 통해 트레이닝하여 획득된 처리 네트워크 모델은, 상기 처리 네트워크 모델을 트레이닝하는 샘플 이미지에 적용될 수 있을 뿐만아니라, 타깃 이미지에도 적용될 수 있으므로, 라벨링을 더 수행할 필요없어 상이한 도메인의 이미지의 라벨링 비용을 줄일 수 있고, 이미지 처리의 정밀도를 향상시킬 수 있다.In the means, the processing network model obtained by training through the model training method of the first aspect can be applied not only to the sample image for training the processing network model, but also to the target image, so that the labeling is further performed. It is not necessary to do this, so it is possible to reduce the labeling cost of images in different domains and improve the precision of image processing.

도 5를 참조하면, 도 5는 본 발명에서 제공되는 이미지 정합 방법의 일 실시예의 흐름 모식도이다. 하기와 같은 단계를 포함할 수 있다.Referring to FIG. 5, FIG. 5 is a flowchart of an embodiment of the image registration method provided in the present invention. It may include the following steps.

단계 S51: 제1 정합할 이미지 및 제2 정합할 이미지를 획득한다.Step S51: Acquire a first image to be registered and a second image to be registered.

본 실시예에서, 제1 정합할 이미지와 제2 정합할 이미지는 상이한 도메인에 속할 수 있다. 예를 들면, 제1 정합할 이미지는 CT 이미지일 수 있고, 제2 정합할 이미지는 MR 이미지일 수 있거나, 또는, 제1 정합할 이미지는 레이저 레이더로 스캔하여 획득한 깊이 이미지일 수 있고, 제2 정합할 이미지는 카메라로 촬영하여 획득한 가시 광선 이미지일 수 있으며, 여기에서 이에 대해 제한하지 않는다.In this embodiment, the first image to be registered and the second image to be registered may belong to different domains. For example, the first image to be registered may be a CT image, the second image to be registered may be an MR image, or the first image to be registered may be a depth image obtained by scanning with a laser radar, 2 The image to be registered may be a visible light image obtained by photographing with a camera, but the present invention is not limited thereto.

단계 S52: 얽힘 해제 모델을 이용하여 제1 정합할 이미지 및 제2 정합할 이미지에 대해 각각 콘텐츠 추출을 수행하여, 제1 정합할 이미지의 콘텐츠 특징 데이터 및 제2 정합할 이미지의 콘텐츠 특징 데이터를 획득한다.Step S52: Perform content extraction on the first image to be registered and the second image to be registered by using the de-entanglement model, respectively, to obtain content feature data of the first image to be registered and content feature data of the second image to be registered do.

본 실시예에서, 얽힘 해제 모델은 상이한 도메인에 속하는 두 개 타입의 트레이닝 이미지를 이용하여 트레이닝하여 획득된 것이며, 그 중 한 타입의 트레이닝 이미지와 제1 정합할 이미지는 제1 도메인에 속하고, 다른 타입의 트레이닝 이미지와 제2 정합할 이미지는 제2 도메인에 속한다. 얽힘 해제 모델의 트레이닝 과정은, 제1 도메인에 속하는 제1 타입 트레이닝 이미지 및 제2 도메인에 속하는 제2 타입 트레이닝 이미지를 획득하고, 원래의 얽힘 해제 모델을 이용하여 제1 타입 트레이닝 이미지 및 제2 타입 트레이닝 이미지에 대해 각각 콘텐츠 및 스타일 추출을 수행하여, 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터, 및 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 획득함으로써, 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터, 및 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 이용하여 재구성하여, 재구성 이미지를 획득하며, 재구성 이미지에 기반하여, 얽힘 해제 모델의 손실값을 획득하고, 나아가 손실값에 기반하여, 얽힘 해제 모델의 파라미터를 조정하는 것을 포함할 수 있다. 구체적으로, 전술한 실시예의 관련 단계를 참조할 수 있으며, 여기에서 더이상 설명하지 않는다.In this embodiment, the de-entanglement model is obtained by training using two types of training images belonging to different domains, and one type of training image and the first image to be matched belongs to the first domain, and the other type of training image belongs to the first domain. The training image of the type and the second image to be matched belong to the second domain. In the training process of the de-entanglement model, a first type training image belonging to the first domain and a second type training image belonging to the second domain are acquired, and the first type training image and the second type training image are obtained using the original de-entanglement model. The first type training image by performing content and style extraction on the training image, respectively, to obtain content feature data and style feature data of the first type training image, and content feature data and style feature data of the second type training image by reconstructing using the content feature data and style feature data of the second type training image, and the content feature data and style feature data of the second type training image to obtain a reconstructed image, and based on the reconstructed image, obtain a loss value of the detangling model, , and further adjusting the parameters of the de-entanglement model based on the loss value. Specifically, reference may be made to the relevant steps of the above-described embodiments, which are not further described herein.

트레이닝하여 획득된 얽힘 해제 모델을 통해, 제1 정합할 이미지 및 제2 정합할 이미지에 대해 각각 콘텐츠 추출을 수행함으로써, 추출하여 획득된 제1 정합할 이미지의 콘텐츠 특징 데이터 및 제2 정합할 이미지의 콘텐츠 특징 데이터가 동일한 데이터 분포를 따르도록 할 수 있으므로, 후속적인 처리에 편리하다.Through the detangling model obtained by training, by performing content extraction on the first image to be registered and the second image to be registered, respectively, the content feature data of the first image to be registered and the second image to be registered Since the content characteristic data can be made to follow the same data distribution, it is convenient for subsequent processing.

도 6을 결합하여 참조하면, 도 6은 본 발명에서 제공되는 이미지 정합의 일 실시예의 과정 모식도이고, 도 6에 도시된 바와 같이, 제1 정합할 이미지(601)는 두개골 및 뇌의 CT 이미지이며, 제2 정합할 이미지(602)는 두개골 및 뇌의 MR 이미지이고, 두개골 및 뇌의 CT 이미지와 함께 제1 도메인에 속하는 트레이닝 이미지, 및 두개골 및 뇌의 MR 이미지와 함께 제2 도메인에 속하는 트레이닝 이미지를 이용하여, 얽힘 해제 모델을 트레이닝하여 획득할 수 있으며, 이로써 트레이닝하여 획득된 얽힘 해제 모델을 이용하여 두개골 및 뇌의 CT 이미지 및 두개골 및 뇌의 MR 이미지에 대해 콘텐츠 추출(얽힘 해제(609))를 수행하여, 제1 정합할 이미지(601)의 콘텐츠 특징 데이터(605) 및 스타일 특징 데이터(606), 제2 정합할 이미지(602)의 콘텐츠 특징 데이터(603) 및 스타일 특징 데이터(604)를 획득할 수 있다.Referring to FIG. 6 in combination, FIG. 6 is a schematic diagram of a process of an embodiment of image registration provided in the present invention, and as shown in FIG. 6 , the first image to be matched 601 is a CT image of the skull and brain. , the second image to be registered 602 is an MR image of the skull and brain, a training image belonging to the first domain together with a CT image of the skull and brain, and a training image belonging to the second domain together with the MR image of the skull and brain can be obtained by training the de-entanglement model using to obtain the content feature data 605 and style feature data 606 of the first image to be matched 601, and the content feature data 603 and style feature data 604 of the second image to be matched 602 can be obtained

단계 S53: 제1 정합할 이미지의 콘텐츠 특징 데이터 및 제2 정합할 이미지의 콘텐츠 특징 데이터에 기반하여, 정합 파라미터를 결정한다.Step S53: Determine a registration parameter according to the content characteristic data of the first image to be registered and the content characteristic data of the second image to be registered.

일 구현 시나리오에서, 제1 정합할 이미지 및 제2 정합할 이미지의 실제 상황에 기반하여 정합 파라미터를 결정할 수 있도록 하기 위해, 정합 파라미터는 강성 변화 파라미터 및 변형 변화 파라미터 중 적어도 하나를 포함할 수 있다. 정합 파라미터가 강성 변화 파라미터일 경우, 이미지는 회전 변화 및/또는 평행 이동 변화만 겪을 뿐, 그 형상은 변경되지 않으며, 정합 파라미터가 변형 변화 파라미터일 경우, 이미지의 형상이 변경된다.In one implementation scenario, the registration parameter may include at least one of a stiffness change parameter and a deformation change parameter so as to be able to determine the registration parameter based on the actual situation of the first image to register and the second image to register. When the registration parameter is a stiffness change parameter, the image only undergoes rotational change and/or translational change, but its shape is not changed, and when the registration parameter is a deformation change parameter, the shape of the image is changed.

계속하여 도 6을 결합하여 참조하면, 제1 정합할 이미지(601)의 콘텐츠 특징 데이터(605) 및 제2 정합할 이미지(602)의 콘텐츠 특징 데이터(603)에 기반하여, 제1 정합할 이미지(601) 및 제2 정합할 이미지(602)의 정합 파라미터(607)를 획득한다.Continuing to refer to FIG. 6 in combination, based on the content characteristic data 605 of the first image to be registered 601 and the content characteristic data 603 of the second image to be registered 602, the first image to be registered (601) and a registration parameter 607 of the second image to be registered 602 are obtained.

일 구현 시나리오에서, 이미지 정합 과정에서, 제1 정합할 이미지 및 제2 정합할 이미지 중 하나를 움직임 이미지로 설정하고, 다른 하나를 고정 이미지로 설정할 수 있다. 예를 들면, 제1 정합할 이미지가 움직임 이미지로 설정되면, 제1 정합할 이미지의 콘텐츠 특징 데이터 및 제2 정합할 이미지의 콘텐츠 특징 데이터에 기반하여, 제1 정합할 이미지에 대응하는 정합 파라미터를 결정할 수 있다.In one implementation scenario, during the image registration process, one of the first image to be registered and the second image to be registered may be set as a moving image, and the other may be set as a fixed image. For example, if the first image to be registered is set as a motion image, a registration parameter corresponding to the first image to be registered is determined based on the content characteristic data of the first image to be registered and the content characteristic data of the second image to be registered. can decide

단계 S54: 정합 파라미터를 이용하여, 제1 정합할 이미지 및 제2 정합할 이미지를 정합한다.Step S54: Using the registration parameter, the first image to be registered and the second image to be registered are registered.

일 구현시나리오에서, 이미지 정합 과정에서, 제1 정합할 이미지 및 제2 정합할 이미지 중 하나를 움직임 이미지로 설정하고, 다른 하나를 고정 이미지로 설정할 수 있다. 예를 들면, 제1 정합할 이미지를 움직임 이미지로 설정하며, 제1 정합할 이미지 및 제2 정합할 이미지에 기반하여, 제1 정합할 이미지의 정합 파라미터를 결정하고, 정합 파라미터를 이용하여 제1 정합할 이미지에 대해 변화 처리(예를 들어, 강성 변화, 변형 변화)를 수행하여, 제1 정합할 이미지에 대응되는 변화 이미지를 획득하며, 변화 이미지의 픽셀점을 제2 정합할 이미지의 대응 픽셀점에 중첩시킴으로써, 이미지 정합을 구현할 수 있다.In one implementation scenario, during the image registration process, one of the first image to be registered and the second image to be registered may be set as a moving image, and the other may be set as a fixed image. For example, a first image to be registered is set as a motion image, a registration parameter of the first image to be registered is determined based on the first image to be registered and a second image to be registered, and the first image to be registered is determined using the registration parameter. Perform change processing (eg, stiffness change, deformation change) on the image to be registered to obtain a change image corresponding to the first image to be registered, and set pixel points of the change image to corresponding pixels of the second image to be registered By superimposing the points, image registration can be implemented.

도 6으로부터 제2 정합할 이미지(602) 및 제1 정합할 이미지(601)에 각각 대응되는 콘텐츠 특징 데이터(603) 및 콘텐츠 특징 데이터(605)가 동일한 모달리티(동일한 분포)로 사용되어, 비지도 이미지 정합을 직접 수행함을 보아낼 수 있다. 계속하여 도 6을 결합하여 참조하면, 제1 정합할 이미지(601)를 움직임 이미지로 사용하고, 제2 정합할 이미지(602)를 고정 이미지로 사용함으로써, 제2 정합할 이미지(602)의 콘텐츠 특징 데이터(603) 및 제1 정합할 이미지(601)의 콘텐츠 특징 데이터(605)에 기반하여, 제2 정합할 이미지(602)의 정합 파라미터(607)를 결정함으로써, 정합 파라미터(607)를 이용하여 제1 정합할 이미지(601)에 대해 강성 변화 처리와 같이 변화 처리를 수행하여, 변화 이미지(608)를 획득하고, 이로써 획득된 변화 이미지(608)의 픽셀점을 제2 정합할 이미지(602)의 대응 픽셀점에 중첩시켜 이미지 정합을 완료한다.From Fig. 6, the content characteristic data 603 and the content characteristic data 605 respectively corresponding to the second image to be registered 602 and the first image to be registered 601 are used with the same modality (same distribution), so that unsupervised It can be seen that image registration is performed directly. Continuing to refer to FIG. 6 in combination, the content of the second image to be registered 602 is by using the first image to be registered 601 as a moving image and the second image to be registered 602 as a fixed image. Using the registration parameter 607 by determining a registration parameter 607 of the second image to register 602 based on the feature data 603 and the content characteristic data 605 of the first image to register 601 Thus, the first image to be registered 601 is subjected to change processing such as the stiffness change processing to obtain a change image 608, and pixel points of the obtained change image 608 are then matched to the second image to register 602 ) to the corresponding pixel point to complete image registration.

일 구현 시나리오에서, 이미지 정합의 정확성을 더 향상시키기 위해, 제1 정합할 이미지 및 제2 정합할 이미지의 정합 파라미터를 결정하고, 정합 파라미터를 이용하여 제1 정합할 이미지에 대해 변화 처리를 수행하여, 대응되는 변화 이미지를 획득한 후, 변화 이미지 및 제2 정합할 이미지 사이의 차이를 집계하고, 집계하여 획득된 차이에 기반하여, 정합 파라미터를 미세 조정한 다음, 미세 조정된 정합 파라미터를 이용하여, 제1 정합할 이미지에 대해 변화 처리를 계속하여 수행하여, 대응되는 변화 이미지를 획득하며, 변화 이미지 및 제2 정합할 이미지 사이의 차이를 집계하고, 집계하여 획득된 차이에 기반하여, 상기 미세 조정된 정합 파라미터를 다시 미세 조정하며, 획득된 변화 이미지와 제2 정합할 이미지 사이의 차이가 허용 범위 내일 때까지, 미세 조정된 정합 파라미터를 이용하여 제1 정합할 이미지에 대해 변화 처리를 수행하는 상기 단계를 반복할 수도 있다.In one implementation scenario, in order to further improve the accuracy of image registration, registration parameters of a first image to register and a second image to be registered are determined, and change processing is performed on the first image to be registered by using the registration parameters. , after acquiring the corresponding change image, aggregate the difference between the change image and the second image to be registered, and fine-tune the registration parameter based on the difference obtained by counting, and then use the fine-tuned registration parameter to , continuously performing change processing on the first to-be-registered image to obtain a corresponding change image, and aggregate the difference between the change image and the second to-be-registered image, and based on the difference obtained by counting, the fine fine-tuning the adjusted registration parameter again, and performing change processing on the first image to be registered using the fine-tuned registration parameter until the difference between the obtained change image and the second image to be registered is within an acceptable range The above steps may be repeated.

상기 수단에서, 제1 정합할 이미지와 함께 제1 도메인에 속하는 한 타입의 트레이닝 이미지, 및 제2 정합할 이미지와 함께 제2 도메인에 속하는 다른 타입의 트레이닝 이미지를 통해 트레이닝하여 획득된 얽힘 해제 모델은, 추출된 제1 정합할 이미지의 콘텐츠 특징 데이터 및 제2 정합할 이미지의 콘텐츠 특징 데이터가 동일한 도메인에 속하도록 할 수 있어, 양자의 콘텐츠 특징 데이터에 기반하여, 직접 양자의 정합 파라미터를 획득하고 정합할 수 있으므로, 상이한 도메인의 이미지 사이에서 비지도 정합을 구현할 수 있고, 나아가 상이한 도메인의 이미지 정합의 비용을 줄이고, 그 정확성을 향상시킬 수 있다.In the above means, the detangling model obtained by training through one type of training image belonging to the first domain together with the first image to be registered, and another type of training image belonging to the second domain together with the second image to be registered is , so that the extracted content feature data of the first image to be matched and the content feature data of the second image to be matched belong to the same domain, based on the content feature data of both, directly obtain and register both matching parameters Therefore, it is possible to implement unsupervised registration between images of different domains, further reducing the cost of image registration of different domains, and improving the accuracy.

본 발명의 실시예는 이미지 억힘 해제에 기반한 비지도 도메인 자기 적응 방법을 제공하고, 이로부터 데이터 라벨링 비용을 크게 줄일 수 있으며, 아울러 상이한 모달리티 사이의 비지도 정합을 해결할 수도 있다. 그러나 관련 기술은 다른 하나의 데이터 분포에서도 라벨링을 수행하는데 많은 라벨링 인건비를 소모해야 하거나, 또는 생성적 적대 네트워크 방식을 사용하여 다른 데이터 분포를 생성하므로, 전체 정밀도가 본 발명의 실시예에서 제공되는 얽힘 해제 방법만큼 효과가 좋지 않다.An embodiment of the present invention provides an unsupervised domain self-adaptation method based on image de-suppression, thereby greatly reducing data labeling cost, and also solving unsupervised matching between different modalities. However, in the related art, it is necessary to consume a lot of labeling labor cost to perform labeling even in one data distribution, or to generate another data distribution by using a generative adversarial network method, so that the overall precision of the entanglement provided in the embodiment of the present invention is Not as effective as the unlock method.

본 발명의 실시예는 잠재 변수를 동일한 인코딩 공간의 콘텐츠 특징 및 상이한 인코딩 공간의 스타일 특징으로 변경함으로써, 상이한 데이터 분포의 이미지가 콘텐츠 특징에서 동일한 분포를 따르도록 할 수 있다. 그러나 관련 기술은 일반적으로 공유 잠재 변수를 사용하므로, 얽힘 해제 효과가 좋지 않다.An embodiment of the present invention can change the latent variable to a content characteristic in the same encoding space and a style characteristic in a different encoding space, so that images of different data distributions follow the same distribution in the content characteristic. However, the related techniques generally use shared latent variables, so the de-entanglement effect is not good.

본 발명의 실시예는 상이한 데이터 분포의 모델의 배치 또는 트레이닝에 사용될 수 있고, 라벨링 비용을 절감하며, 제품 정밀도를 가속화하며, 지능형 의료 보조 진단, 클라우드 플랫폼 보조 스마트 진단, 원격 진단 시스템 등 제품에 적용된다.Embodiments of the present invention can be used for deployment or training of models of different data distributions, reduce labeling costs, accelerate product precision, and apply to products such as intelligent medical-assisted diagnosis, cloud platform-assisted smart diagnosis, remote diagnosis system, etc. do.

도 7을 참조하면, 도 7은 본 발명에서 제공되는 모델 트레이닝 장치(70)의 일 실시예의 프레임워크 모식도이다. 모델 트레이닝 장치(70)는 이미지 획득 모듈(71), 콘텐츠 추출 모듈(72) 및 모델 트레이닝 모듈(73)을 포함하고, 이미지 획득 모듈(71)은 적어도 하나의 샘플 이미지를 획득하도록 구성되되, 샘플 이미지에는 라벨링 정보가 구비되며; 콘텐츠 추출 모듈(72)은 얽힘 해제 모델을 이용하여 적어도 하나의 샘플 이미지에 대해 각각 콘텐츠 추출을 수행하여, 적어도 하나의 샘플 이미지의 콘텐츠 특징 데이터를 획득하도록 구성되고; 모델 트레이닝 모듈(73)은 적어도 하나의 샘플 이미지의 콘텐츠 특징 데이터 및 라벨링 정보를 이용하여 기설정된 네트워크 모델을 트레이닝시켜, 타깃 이미지를 처리하도록 구성되는 네트워크 모델을 획득하도록 구성되며, 얽힘 해제 모델은 상이한 도메인에 속하는 두 개 타입의 트레이닝 이미지를 이용하여 트레이닝하여 획득된 것이며, 그 중 한 타입의 트레이닝 이미지와 샘플 이미지는 제1 도메인에 속하고, 다른 타입의 트레이닝 이미지와 타깃 이미지는 제2 도메인에 속한다.Referring to FIG. 7, FIG. 7 is a schematic diagram of a framework of an embodiment of the model training apparatus 70 provided in the present invention. The model training apparatus 70 includes an image acquisition module 71, a content extraction module 72 and a model training module 73, wherein the image acquisition module 71 is configured to acquire at least one sample image, The image is provided with labeling information; the content extraction module 72 is configured to perform content extraction on each of the at least one sample image by using the de-entanglement model, to obtain content characteristic data of the at least one sample image; The model training module 73 is configured to train a preset network model using the content characteristic data and labeling information of the at least one sample image to obtain a network model configured to process the target image, wherein the de-entanglement model is different It is obtained by training using two types of training images belonging to the domain, of which one type of training image and sample image belong to the first domain, and the other type of training image and the target image belong to the second domain. .

상기 수단에서, 샘플 이미지와 함께 제1 도메인에 속하는 한 타입의 트레이닝 이미지, 및 타깃 이미지와 함께 제2 도메인에 속하는 다른 타입의 트레이닝 이미지를 통해 트레이닝하여 획득된 얽힘 해제 모델은, 라벨링 정보가 구비된 샘플 이미지 및 타깃 이미지를 매핑하여, 동일한 도메인에 속하는 콘텐츠 특징 데이터를 획득함으로써, 트레이닝 이미지의 콘텐츠 특징 데이터 및 라벨링 정보를 이용하여 트레이닝하여 획득된 네트워크 모델은 타깃 이미지에 마찬가지로 적용될 수 있고, 라벨링을 더 수행할 필요없어 상이한 도메인의 이미지의 라벨링 비용을 줄이고, 이미지 처리의 정밀도를 향상시킬 수 있다.In the above means, the detangling model obtained by training through one type of training image belonging to the first domain together with the sample image, and another type of training image belonging to the second domain together with the target image is provided with labeling information. By mapping the sample image and the target image to obtain content feature data belonging to the same domain, a network model obtained by training using the content feature data and labeling information of the training image can be similarly applied to the target image, and further labeling It is not necessary to carry out, so it is possible to reduce the labeling cost of images in different domains and improve the precision of image processing.

일부 실시예에서, 샘플 이미지 및 타깃 이미지는 의학적 이미지이고, 라벨링 정보는 생체기관에 대한 라벨링 정보이며; 및/또는, 샘플 이미지 및 타깃 이미지는 3차원 이미지이고, 라벨링 정보는 3차원 타깃에 대한 라벨링 정보이다.In some embodiments, the sample image and the target image are medical images, and the labeling information is labeling information for a living organ; and/or, the sample image and the target image are three-dimensional images, and the labeling information is labeling information about the three-dimensional target.

전술한 실시예와 달리, 샘플 이미지 및 타깃 이미지를 의학적 이미지로 설정하고, 라벨링 정보는 생체기관의 라벨링 정보이므로, 의학적 이미지 분야에 적용될 수 있으며; 샘플 이미지 및 타깃 이미지를 3차원 이미지로 설정하고, 라벨링 정보를 3차원 타깃에 대한 라벨링 정보로 설정하하므로, 3차원 이미지의 처리에 적용될 수 있다.Unlike the above-described embodiment, the sample image and the target image are set as medical images, and the labeling information is labeling information of a living organ, so it can be applied to the medical image field; Since the sample image and the target image are set as a three-dimensional image, and the labeling information is set as the labeling information for the three-dimensional target, it can be applied to the processing of a three-dimensional image.

일부 실시예에서, 기설정된 네트워크 모델은 이미지 분할 네트워크 모델, 이미지 분류 네트워크 모델 및 타깃 검출 네트워크 모델 중 어느 하나를 포함한다.In some embodiments, the preset network model includes any one of an image segmentation network model, an image classification network model, and a target detection network model.

전술한 실시예와 달리, 기설정된 네트워크 모델을 이미지 분할 네트워크 모델, 이미지 분류 네트워크 모델 및 타깃 검출 네트워크 모델 중 어느 하나로 설정함으로써, 상이한 종류의 기설정된 네트워크 모델에 기반하여, 상이한 이미지 처리 태스크에 적용되는 네트워크 모델을 트레이닝하여 획득할 수 있어, 상이한 도메인의 이미지에 대한 상이한 처리 태스크를 완료할 수 있다.Unlike the above-described embodiment, by setting the preset network model to any one of an image segmentation network model, an image classification network model, and a target detection network model, based on different types of preset network models, different image processing tasks are applied. It can be obtained by training a network model to complete different processing tasks for images in different domains.

일부 실시예에서, 모델 트레이닝 장치(70)는, 제1 도메인에 속하는 제1 타입 트레이닝 이미지 및 제2 도메인에 속하는 제2 타입 트레이닝 이미지를 획득하도록 구성되는 트레이닝 이미지 획득 모듈을 더 포함하고, 모델 트레이닝 장치(70)는, 원래의 얽힘 해제 모델을 이용하여 제1 타입 트레이닝 이미지 및 제2 타입 트레이닝 이미지에 대해 각각 콘텐츠 및 스타일 추출을 수행하여, 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터, 및 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 획득하도록 구성되는 이미지 추출 모듈을 더 포함하며, 모델 트레이닝 장치(70)는, 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터, 및 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 이용하여 재구성하여, 재구성 이미지를 획득하도록 구성되는 이미지 재구성 모듈을 더 포함하고, 모델 트레이닝 장치(70)는, 재구성 이미지에 기반하여, 얽힘 해제 모델의 손실값을 획득하도록 구성되는 손실 산출 모듈을 더 포함하며, 모델 트레이닝 장치(70)는, 손실값에 기반하여, 얽힘 해제 모델의 파라미터를 조정하도록 구성되는 파라미터 조정 모듈을 더 포함한다.In some embodiments, the model training apparatus 70 further includes a training image acquisition module, configured to acquire a first type training image belonging to the first domain and a second type training image belonging to the second domain, The device 70 performs content and style extraction on the first type training image and the second type training image, respectively, using the original de-entanglement model, so that the content characteristic data and the style characteristic data of the first type training image; and an image extraction module, configured to acquire content characteristic data and style characteristic data of the second type training image, wherein the model training apparatus 70 includes: content characteristic data and style characteristic data of the first type training image; and and an image reconstruction module, configured to reconstruct using the content feature data and style feature data of the second type training image to obtain a reconstructed image, wherein the model training device 70 is configured to de-entangle based on the reconstructed image and a loss calculation module, configured to obtain a loss value of the model, wherein the model training apparatus 70 further includes a parameter adjustment module, configured to adjust a parameter of the detangling model based on the loss value.

전술한 실시예와 달리, 원래의 얽힘 해제 모델을 이용하여 제1 도메인에 속하는 제1 타입 트레이닝 이미지 및 제2 도메인에 속하는 제2 타입 트레이닝 이미지에 대해 특징 추출을 수행하고, 추출하여 획득된 콘텐츠 특징 데이터 및 스타일 특징 데이터에 기반하여 재구성함으로써, 재구성하여 획득된 재구성 이미지에 기반하여, 얽힘 해제 모델의 손실값을 획득할 수 있고, 나아가 손실값에 기반하여 얽힘 해제 모델의 파라미터를 조정함으로써, 얽힘 해제 모델을 트레이닝하여 획득할 수 있다.Unlike the above-described embodiment, feature extraction is performed on the first type training image belonging to the first domain and the second type training image belonging to the second domain using the original de-entanglement model, and content features obtained by extraction By reconstructing based on data and style feature data, based on the reconstructed image obtained by reconstructing, it is possible to obtain a loss value of the de-entanglement model, and further, by adjusting the parameters of the de-entanglement model based on the loss value, de-entanglement It can be obtained by training the model.

일부 실시예에서, 이미지 재구성 모듈은, 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 이용하여 재구성하여, 제1 인트라 도메인 재구성 이미지를 획득하고, 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 이용하여 재구성하여, 제2 인트라 도메인 재구성 이미지를 획득하도록 구성되는 인트라 도메인 재구성 서브 모듈을 포함하고, 이미지 재구성 모듈은, 제1 타입 트레이닝 이미지의 스타일 특징 데이터 및 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터를 이용하여 재구성하여, 제1 크로스 도메인 재구성 이미지를 획득하고, 제2 타입 트레이닝 이미지의 스타일 특징 데이터 및 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터를 이용하여 재구성하여, 제2 크로스 도메인 재구성 이미지를 획득하도록 구성되는 크로스 도메인 재구성 서브 모듈을 더 포함한다. 손실 산출 모듈은, 제1 타입 트레이닝 이미지와 제1 인트라 도메인 재구성 이미지 사이의 차이에 기반하여, 제1 인트라 도메인 손실값을 획득하고, 제2 타입 트레이닝 이미지와 제2 인트라 도메인 재구성 이미지 사이의 차이에 기반하여, 제2 인트라 도메인 손실값을 획득하도록 구성되는 인트라 도메인 손실 산출 서브 모듈을 포함하고, 손실 산출 모듈은, 제1 타입 트레이닝 이미지 및 제2 크로스 도메인 재구성 이미지 양자의 콘텐츠 특징 데이터 간의 차이에 기반하여, 제1 콘텐츠 손실값을 획득하고, 제2 타입 트레이닝 이미지 및 제1 크로스 도메인 재구성 이미지 양자의 콘텐츠 특징 데이터 간의 차이에 기반하여, 제2 콘텐츠 손실값을 획득하 도록 구성되는 콘텐츠 손실 산출 서브 모듈을 더 포함하며, 손실 산출 모듈은, 제1 타입 트레이닝 이미지 및 제1 크로스 도메인 재구성 이미지 양자의 스타일 특징 데이터 간의 차이에 기반하여, 제1 스타일 손실값을 획득하고, 제2 타입 트레이닝 이미지 및 제2 크로스 도메인 재구성 이미지 양자의 스타일 특징 데이터 간의 차이에 기반하여, 제2 스타일 손실값을 획득하도록 구성되는 스타일 손실 산출 서브 모듈을 더 포함하고, 손실 산출 모듈은, 제1 타입 트레이닝 이미지와 제1 크로스 도메인 재구성 이미지 사이의 차이에 기반하여, 제1 크로스 도메인 손실값을 획득하고, 제2 타입 트레이닝 이미지와 제2 크로스 도메인 재구성 이미지 사이의 차이에 기반하여, 제2 크로스 도메인 손실값을 획득하도록 구성되는 크로스 도메인 손실 산출 서브 모듈을 더 포함하며, 손실 산출 모듈은, 상기 획득된 손실값에 대해 가중 처리를 수행하여, 얽힘 해제 모델의 손실값을 획득하도록 구성되는 손실 가중 서브 모듈을 더 포함한다.In some embodiments, the image reconstruction module is configured to reconstruct using the content feature data and style feature data of the first type training image to obtain a first intra domain reconstruction image, and the content feature data and style of the second type training image an intra-domain reconstruction sub-module, configured to reconstruct using the feature data to obtain a second intra-domain reconstruction image, wherein the image reconstruction module includes: the style feature data of the first type training image and the content of the second type training image; Reconstructed using feature data to obtain a first cross-domain reconstructed image, and reconstructed using the style feature data of the second type training image and content feature data of the first type training image to obtain a second cross-domain reconstructed image and a cross-domain reconfiguration sub-module, configured to obtain. The loss calculation module is configured to obtain a first intra-domain loss value based on the difference between the first type training image and the first intra-domain reconstructed image, and to obtain a difference between the second type training image and the second intra domain reconstructed image. an intra-domain loss calculating sub-module, configured to obtain a second intra-domain loss value based on the difference, wherein the loss calculating module is configured to: to obtain a first content loss value, and based on the difference between the content characteristic data of both the second type training image and the first cross-domain reconstructed image, a content loss calculation submodule, configured to obtain a second content loss value; The method further comprises: a loss calculation module, configured to obtain a first style loss value based on a difference between the style feature data of both the first type training image and the first cross-domain reconstructed image, the second type training image and the second and a style loss calculation submodule, configured to obtain a second style loss value based on a difference between the style feature data of both the cross-domain reconstructed images, wherein the loss calculation module includes: the first type training image and the first cross-domain a cross, configured to obtain a first cross-domain loss value based on a difference between the reconstructed images, and obtain a second cross-domain loss value based on a difference between the second type training image and the second cross-domain reconstructed image It further includes a domain loss calculation submodule, wherein the loss calculation module further includes a loss weighting submodule, configured to perform weighting processing on the obtained loss value to obtain a loss value of the de-entanglement model.

전술한 실시예와 달리, 인트라 도메인 손실값 및 크로스 도메인 손실값, 및 이미지 재구성 후, 콘텐츠 특징 데이터 및 스타일 특징 데이터에 대응하는 손실값에 기반하여, 가중 처리를 수행함으로써, 얽힘 해제 모델의 손실값을 획득할 수 있고, 나아가 전체 손실값에 기반하여 파라미터 조정을 수행할 수 있으며, 상이한 도메인의 이미지가 얽힘 해제 모델에 의해 추출되어 획득된 콘텐츠 특징 데이터가 동일한 도메인에 위치하도록 할 수 있다.Unlike the above-described embodiment, the loss value of the detangling model by performing weighting processing based on the intra-domain loss value and the cross-domain loss value, and the loss value corresponding to the content feature data and the style feature data after image reconstruction can be obtained, and further, parameter adjustment can be performed based on the overall loss value, and images of different domains can be extracted by the de-entanglement model so that the obtained content feature data are located in the same domain.

도 8을 참조하면, 도 8은 본 발명에서 제공되는 이미지 처리 장치(80)의 일 실시예의 프레임워크 모식도이다. 이미지 처리 장치(80)는 콘텐츠 추출 모듈(81) 및 네트워크 처리 모듈(82)을 포함하고, 콘텐츠 추출 모듈(81)은 얽힘 해제 모델을 이용하여 타깃 이미지에 대해 콘텐츠 추출을 수행하여, 타깃 이미지의 콘텐츠 특징 데이터를 획득하도록 구성되며; 네트워크 처리 모듈(82)은 처리 네트워크 모델을 이용하여 타깃 이미지의 콘텐츠 특징 데이터를 처리하여, 타깃 이미지의 처리 결과를 획득하도록 구성되고, 얽힘 해제 모델은 상이한 도메인에 속하는 두 개 타입의 트레이닝 이미지를 이용하여 트레이닝하여 획득된 것이며, 그 중 한 타입의 트레이닝 이미지와 타깃 이미지는 동일한 도메인에 속하고, 처리 네트워크 모델은 상기 임의의 하나의 모델 트레이닝 장치 실시예의 모델 트레이닝 장치를 이용하여 획득된 것이다.Referring to FIG. 8, FIG. 8 is a schematic diagram of a framework of an embodiment of the image processing apparatus 80 provided in the present invention. The image processing apparatus 80 includes a content extraction module 81 and a network processing module 82, and the content extraction module 81 performs content extraction on the target image using the entangling model, and configured to obtain content characteristic data; The network processing module 82 is configured to process the content characteristic data of the target image by using the processing network model to obtain a processing result of the target image, wherein the detangling model uses two types of training images belonging to different domains is obtained by training, one type of training image and target image belong to the same domain, and the processing network model is obtained by using the model training apparatus of any one of the above model training apparatus embodiments.

상기 수단에서, 상기 임의의 하나의 모델 트레이닝 장치 실시예의 모델 트레이닝 장치를 통해 트레이닝하여 획득된 처리 네트워크 모델은, 상기 처리 네트워크 모델을 트레이닝하는 샘플 이미지에 적용될 수 있을 뿐만아니라, 타깃 이미지에도 적용될 수 있으므로, 라벨링을 더 수행할 필요없어 상이한 도메인의 이미지의 라벨링 비용을 줄일 수 있고, 이미지 처리의 정밀도를 향상시킬 수 있다.In the above means, the processing network model obtained by training through the model training apparatus of any one model training apparatus embodiment can be applied not only to a sample image for training the processing network model, but also to a target image. , it is not necessary to perform further labeling, thereby reducing the labeling cost of images of different domains and improving the precision of image processing.

도 9를 참조하면, 도 9는 본 발명에서 제공되는 이미지 정합 장치(90)의 일 실시예의 프레임워크 모식도이다. 이미지 정합 장치(90)는 이미지 획득 모듈(91), 콘텐츠 추출 모듈(92), 파라미터 결정 모듈(93) 및 이미지 정합 모듈(94)을 포함하고, 이미지 획득 모듈(91)은 제1 정합할 이미지 및 제2 정합할 이미지를 획득하도록 구성되며; 콘텐츠 추출 모듈(92)은 얽힘 해제 모델을 이용하여 제1 정합할 이미지 및 제2 정합할 이미지에 대해 각각 콘텐츠 추출을 수행하여, 제1 정합할 이미지의 콘텐츠 특징 데이터 및 제2 정합할 이미지의 콘텐츠 특징 데이터를 획득하도록 구성되고; 파라미터 결정 모듈(93)은 제1 정합할 이미지의 콘텐츠 특징 데이터 및 제2 정합할 이미지의 콘텐츠 특징 데이터에 기반하여, 정합 파라미터를 결정하도록 구성되며; 이미지 정합 모듈(94)은 정합 파라미터를 이용하여, 제1 정합할 이미지 및 제2 정합할 이미지를 정합하도록 구성되고, 얽힘 해제 모델은 상이한 도메인에 속하는 두 개 타입의 트레이닝 이미지를 이용하여 트레이닝하여 획득된 것이며, 그 중 한 타입의 트레이닝 이미지와 제1 정합할 이미지는 제1 도메인에 속하고, 다른 타입의 트레이닝 이미지와 제2 정합할 이미지는 제2 도메인에 속한다.Referring to FIG. 9, FIG. 9 is a schematic diagram of a framework of an embodiment of the image matching apparatus 90 provided in the present invention. The image registration apparatus 90 includes an image acquisition module 91 , a content extraction module 92 , a parameter determination module 93 and an image registration module 94 , and the image acquisition module 91 includes a first image to be registered and acquiring a second image to be registered; The content extraction module 92 performs content extraction on the first to-be-matched image and the second to-be-registered image by using the de-entanglement model, respectively, so that the content characteristic data of the first to-be-matched image and the content of the second to-be-registered image are configured to acquire feature data; the parameter determining module 93 is configured to determine the registration parameter according to the content characteristic data of the first image to be registered and the content characteristic data of the second image to be registered; The image registration module 94 is configured to register the first image to register and the second image to register using the registration parameter, and the detangling model is obtained by training using two types of training images belonging to different domains. one type of training image and the first image to be matched belong to the first domain, and the other type of training image and the second image to be matched belong to the second domain.

상기 수단에서, 제1 정합할 이미지와 함께 제1 도메인에 속하는 한 타입의 트레이닝 이미지, 및 제2 정합할 이미지와 함께 제2 도메인에 속하는 다른 타입의 트레이닝 이미지를 통해 트레이닝하여 획득된 얽힘 해제 모델은, 추출된 제1 정합할 이미지의 콘텐츠 특징 데이터 및 제2 정합할 이미지의 콘텐츠 특징 데이터가 동일한 도메인에 속하도록 할 수 있어, 양자의 콘텐츠 특징 데이터에 기반하여, 직접 양자의 정합 파라미터를 획득하고 정합할 수 있으므로, 상이한 도메인의 이미지 사이에서 비지도 정합을 구현할 수 있고, 나아가 상이한 도메인의 이미지 정합의 비용을 줄이고, 그 정확성을 향상시킬 수 있다.In the above means, the detangling model obtained by training through one type of training image belonging to the first domain together with the first image to be registered, and another type of training image belonging to the second domain together with the second image to be registered is , so that the extracted content feature data of the first image to be matched and the content feature data of the second image to be matched belong to the same domain, based on the content feature data of both, directly obtain and register both matching parameters Therefore, it is possible to implement unsupervised registration between images of different domains, further reducing the cost of image registration of different domains, and improving the accuracy.

일부 실시예에서, 제1 정합할 이미지 및 제2 정합할 이미지는 의학적 이미지이고; 및/또는, 제1 정합할 이미지 및 제2 정합할 이미지는 3차원 이미지이며; 및/또는, 정합 파라미터는 강성 변화 파라미터 및 변형 변화 파라미터 중 적어도 하나를 포함한다.In some embodiments, the first image to register and the second image to register are medical images; and/or, the first image to register and the second image to register are three-dimensional images; and/or, the matching parameter includes at least one of a stiffness variation parameter and a strain variation parameter.

전술한 실시예와 달리, 제1 정합할 이미지 및 제2 정합할 이미지를 의학적 이미지로 설정함으로써, 이미지 정합이 의학적 이미지의 정합에 응용되도록 할 수 있고; 제1 정합할 이미지 및 제2 정합할 이미지를 3차원 이미지로 설정함으로써, 이미지 정합이 3차원 이미지의 정합에 응용되도록 할 수 있으며; 정합 파라미터는 강성 변화 파라미터 및 변형 변화 파라미터 중 적어도 하나를 포함할 수 있어, 제1 정합할 이미지 및 제2 정합할 이미지가 양자의 실제 상황에 기반하여 상응하게 변화된 후 정합을 구현할 수 있도록 함으로써, 이미지 정합의 정확성을 향상시키는데 유리하다.Unlike the above-described embodiment, by setting the first image to be registered and the second image to be registered as medical images, image registration can be applied to registration of medical images; by setting the first image to be registered and the second image to be registered as three-dimensional images, image registration can be applied to registration of three-dimensional images; The registration parameter may include at least one of a stiffness change parameter and a deformation change parameter, so that the first image to be registered and the second image to be registered are changed correspondingly based on the actual situation of both, and then registration can be implemented, so that the image It is advantageous for improving the accuracy of registration.

일부 실시예에서, 파라미터 결정 모듈(93)은 제1 정합할 이미지의 콘텐츠 특징 데이터 및 제2 정합할 이미지의 콘텐츠 특징 데이터에 기반하여, 제1 정합할 이미지에 대응하는 정합 파라미터를 결정하도록 구성되고, 이미지 정합 모듈(94)은 정합 파라미터를 이용하여 제1 정합할 이미지에 대해 변화 처리를 수행하여, 제1 정합할 이미지에 대응되는 변화 이미지를 획득하도록 구성되는 변화 처리 서브 모듈을 포함하며, 이미지 정합 모듈(94)은 변화 이미지의 픽셀점을 제2 정합할 이미지의 대응 픽셀점에 중첩시키도록 구성되는 픽셀 중첩 모듈을 더 포함한다.In some embodiments, the parameter determining module 93 is configured to determine, based on the content characteristic data of the first image to register and the content characteristic data of the second image to register, a registration parameter corresponding to the first image to register, and , the image registration module 94 includes a change processing submodule, configured to perform change processing on the first image to be registered by using the registration parameter to obtain a change image corresponding to the first image to be registered, the image The registration module 94 further includes a pixel overlap module, configured to superimpose the pixel points of the change image with the corresponding pixel points of the second to-be-registered image.

전술한 실시예와 달리, 제1 정합할 이미지에 대응되는 정합 파라미터를 이용하여 제1 정합할 이미지에 대해 변화 처리를 수행함으로써, 제1 정합할 이미지에 대응되는 변화 이미지를 획득할 수 있고, 변화 이미지의 픽섹점을 제2 정합할 이미지의 대응 픽셀점에 중첩시킴으로써, 상이한 도메인의 이미지 사이의 비지도 정합을 구현할 수 있다.Unlike the above-described embodiment, by performing change processing on the first image to be registered using the registration parameter corresponding to the first image to be registered, a change image corresponding to the first image to be registered can be obtained, and the change Unsupervised registration between images of different domains can be implemented by superimposing the pixel points of the image to the corresponding pixel points of the second image to be registered.

일부 실시예에서, 이미지 정합 장치(90)는, 제1 도메인에 속하는 제1 타입 트레이닝 이미지 및 제2 도메인에 속하는 제2 타입 트레이닝 이미지를 획득하도록 구성되는 트레이닝 이미지 획득 모듈을 더 포함하고, 모델 트레이닝 장치(90)는, 원래의 얽힘 해제 모델을 이용하여 제1 타입 트레이닝 이미지 및 제2 타입 트레이닝 이미지에 대해 각각 콘텐츠 및 스타일 추출을 수행하여, 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터, 및 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 획득하도록 구성되는 이미지 추출 모듈을 더 포함하며, 모델 트레이닝 장치(90)는, 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터, 및 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 이용하여 재구성하여, 재구성 이미지를 획득하도록 구성되는 이미지 재구성 모듈을 더 포함하고, 모델 트레이닝 장치(90)는, 재구성 이미지에 기반하여, 얽힘 해제 모델의 손실값을 획득하도록 구성되는 손실 산출 모듈을 더 포함하며, 모델 트레이닝 장치(90)는, 손실값에 기반하여, 얽힘 해제 모델의 파라미터를 조정하도록 구성되는 파라미터 조정 모듈을 더 포함한다.In some embodiments, the image matching device 90 further includes a training image acquisition module, configured to acquire a first type training image belonging to the first domain and a second type training image belonging to the second domain, The device 90 performs content and style extraction on the first type training image and the second type training image, respectively, using the original de-entanglement model, so that the content characteristic data and the style characteristic data of the first type training image; and an image extraction module, configured to acquire content characteristic data and style characteristic data of the second type training image, wherein the model training apparatus 90 includes: content characteristic data and style characteristic data of the first type training image; and and an image reconstruction module, configured to reconstruct using the content characteristic data and style characteristic data of the second type training image to obtain a reconstructed image, wherein the model training apparatus 90 is configured to de-entangle based on the reconstructed image and a loss calculation module, configured to obtain a loss value of the model, wherein the model training apparatus 90 further includes a parameter adjustment module, configured to adjust a parameter of the detangling model based on the loss value.

전술한 실시예와 달리, 원래의 얽힘 해제 모델을 이용하여 제1 도메인에 속하는 제1 타입 트레이닝 이미지 및 제2 도메인에 속하는 제2 타입 트레이닝 이미지에 대해 특징 추출을 수행하고, 추출하여 획득된 콘텐츠 특징 데이터 및 스타일 특징 데이터에 기반하여 재구성함으로써, 재구성하여 획득된 재구성 이미지에 기반하여, 얽힘 해제 모델의 손실값을 획득할 수 있고, 나아가 손실값에 기반하여 얽힘 해제 모델의 파라미터를 조정함으로써, 얽힘 해제 모델을 트레이닝하여 획득할 수 있다.Unlike the above-described embodiment, feature extraction is performed on the first type training image belonging to the first domain and the second type training image belonging to the second domain using the original de-entanglement model, and content features obtained by extraction By reconstructing based on data and style feature data, based on the reconstructed image obtained by reconstructing, it is possible to obtain a loss value of the de-entanglement model, and further, by adjusting the parameters of the de-entanglement model based on the loss value, de-entanglement It can be obtained by training the model.

도 10을 참조하면, 도 10은 본 발명에서 제공되는 전자 기기(100)의 일 실시예의 프레임워크 모식도이다. 전자 기기(100)는 서로 커플링된 메모리(101) 및 프로세서(102)를 포함하고, 프로세서(102)는 메모리(101)에 저장된 프로그램 명령을 실행하여, 상기 임의의 하나의 모델 트레이닝 방법 실시예의 단계를 구현하거나, 또는 상기 임의의 이미지 처리 방법 실시예의 단계를 구현하거나, 또는 상기 임의의 이미지 정합 방법 실시예의 단계를 구현하도록 구성된다. 본 실시예에서, 전자 기기(100)는 랩톱 컴퓨터, 태블릿 PC, 스마트폰 등 모바일 기기를 포함할 수 있고, 마이크로 컴퓨터, 서버 등 단말 기기를 포함할 수 도 있으며, 여기에서 이에 대해 제한하지 않는다.Referring to FIG. 10 , FIG. 10 is a schematic diagram of a framework of an embodiment of an electronic device 100 provided in the present invention. The electronic device 100 includes a memory 101 and a processor 102 coupled to each other, the processor 102 executing program instructions stored in the memory 101, implement the steps, or implement the steps of any of the above image processing method embodiments, or are configured to implement the steps of any of the above image registration method embodiments. In the present embodiment, the electronic device 100 may include a mobile device such as a laptop computer, a tablet PC, and a smart phone, and may include a terminal device such as a microcomputer and a server, but is not limited thereto.

프로세서(102)는 자체 및 메모리(101)를 제어하여, 상기 임의의 하나의 모델 트레이닝 방법 실시예의 단계를 구현하거나, 또는 상기 임의의 하나의 이미지 처리 방법 실시예의 단계를 구현하거나, 또는 상기 임의의 하나의 이미지 정합 방법 실시예의 단계를 구현하도록 구성된다. 프로세서(102)는 CPU(Central Processing Unit, 중앙 처리 유닛)이라고 할 수도 있다. 프로세서(102)는 신호의 처리 능력을 갖는 하나의 집적 회로 칩일 수 있다. 프로세서(102)는 범용 프로세서, 디지털 신호 프로세서(Digital Signal Processor, DSP), 응용 주문형 집적 회로(Application Specific Integrated Circuit, ASIC), 필드 프로그램 가능 게이트 어레이(Field Programmable Gate Array, FPGA) 또는 다른 프로그램 가능 논리 소자, 개별 게이트 또는 트랜지스터 논리 소자, 개별 하드웨어 컴포넌트 등 일 수도 있다. 범용 프로세서는 마이크로 프로세서일 수 있거나 또는 상기 프로세서는 임의의 통상적인 프로세서 등일 수도 있다. 또한, 프로세서(102)는 집적 회로 칩에 의해 공동으로 구현될 수 있다.The processor 102 controls itself and the memory 101 to implement the steps of any one model training method embodiment above, or implement the steps of any one image processing method embodiment above, or any of the above. and implement the steps of one image registration method embodiment. The processor 102 may be referred to as a central processing unit (CPU). The processor 102 may be one integrated circuit chip with signal processing capability. The processor 102 may be a general purpose processor, a digital signal processor (DSP), an application specific integrated circuit (ASIC), a field programmable gate array (FPGA), or other programmable logic. devices, discrete gate or transistor logic devices, discrete hardware components, and the like. A general purpose processor may be a microprocessor, or the processor may be any conventional processor or the like. Also, the processor 102 may be jointly implemented by an integrated circuit chip.

상기 수단은 상이한 도메인의 이미지의 라벨링 비용을 줄이고, 이미지 처리의 정밀도를 향상시킬 수 있다.The means can reduce the labeling cost of images of different domains and improve the precision of image processing.

도 11을 참조하면, 도 11은 본 발명에서 제공되는 컴퓨터 판독 가능 저장 매체(110)의 일 실시예의 프레임워크 모식도이다. 컴퓨터 판독 가능 저장 매체(110)에는 프로세서에 의해 실행될 수 있는 프로그램 명령(111)이 저장되고, 프로그램 명령(111)은 상기 임의의 하나의 모델 트레이닝 방법 실시예의 단계가 구현되거나, 또는 상기 임의의 하나의 이미지 처리 방법 실시예의 단계가 구현되거나, 또는 상기 임의의 하나의 이미지 정합 방법 실시예의 단계가 구현되도록 구성된다.Referring to FIG. 11, FIG. 11 is a schematic diagram of a framework of an embodiment of the computer-readable storage medium 110 provided in the present invention. The computer-readable storage medium 110 stores program instructions 111 that can be executed by a processor, and the program instructions 111 implement the steps of any one of the model training method embodiments, or any one of the above. A step of an image processing method embodiment of is implemented, or a step of any one of the above image registration method embodiments is configured to be implemented.

본 발명의 실시예는 컴퓨터 프로그램 제품을 더 제공하며, 상기 컴퓨터 프로그램 제품은 하나 또는 다수의 명령을 포함하고, 상기 하나 또는 다수의 명령은 프로세서에 의해 로딩되어, 상기 임의의 하나의 모델 트레이닝 방법 실시예의 단계가 구현되거나, 또는 상기 임의의 하나의 이미지 처리 방법 실시예의 단계가 구현되거나, 또는 상기 임의의 하나의 이미지 정합 방법 실시예의 단계가 구현되기에 적합하다.An embodiment of the present invention further provides a computer program product, wherein the computer program product includes one or more instructions, wherein the one or more instructions are loaded by a processor to implement the any one model training method. It is suitable for the example step to be implemented, or the step of any one of the above image processing method embodiments to be implemented, or the step of any one of the above image registration method embodiments to be implemented.

상기 수단은 상이한 도메인의 이미지의 라벨링 비용을 줄이고, 이미지 처리의 정밀도를 향상시킬 수 있다.The means can reduce the labeling cost of images of different domains and improve the precision of image processing.

본 발명의 실시예에서 제공된 각 실시예에서, 개시된 방법 및 장치는 다른 방식으로 구현될 수 있음을 이해해야 한다. 예를 들면, 위에서 설명된 장치 실시형태는 단지 예시적인 것인바, 예를 들면, 모듈 또는 유닛의 구획은 단지 논리적 기능 구획일 뿐이고, 실제 구현 시 다른 구획 방식이 있을 수 있으며, 예를 들면, 유닛 또는 컴포넌트는 다른 하나의 시스템에 결합 또는 집적될 수 있거나, 또는 일부 특징은 생략되거나 실행되지 않을 수 있다. 또한, 표시 또는 논의된 서로 간의 커플링 또는 직접 커플링 또는 통신 연결은 일부 통신 인터페이스를 통해 구현될 수 있고, 장치 또는 유닛의 간접 커플링 또는 통신 연결은 전기적, 기계적 또는 다른 형식일 수 있다.In each of the embodiments provided in the embodiments of the present invention, it should be understood that the disclosed method and apparatus may be implemented in different ways. For example, the device embodiments described above are merely exemplary, for example, a partition of a module or a unit is only a logical function partition, and there may be other partitioning methods in actual implementation, for example, a unit Or a component may be combined or integrated into one other system, or some features may be omitted or not implemented. Further, the couplings or direct couplings or communication connections between each other as indicated or discussed may be implemented via some communication interface, and the indirect couplings or communication connections of the device or unit may be electrical, mechanical, or other form.

분리 부재로서 설명되는 유닛은 물리적으로 분리된 것일 수 있거나 아닐 수도 있고, 유닛으로서 표시되는 부재는 물리 유닛일 수 있거나 아닐 수도 있으며, 즉 한 곳에 위치할 수 있거나 또는 네트워크 유닛에 분포될 수도 있다. 실제 수요에 따라 그 중의 일부 또는 전부 유닛을 선택하여 본 실시형태의 수단의 목적을 구현할 수 있다.A unit described as a separate member may or may not be physically separate, and a member represented as a unit may or may not be a physical unit, that is, may be located in one place or may be distributed in a network unit. Some or all of the units may be selected according to actual needs to realize the purpose of the means of the present embodiment.

이 밖에, 본 발명의 실시예 중의 각 기능 유닛은 하나의 처리 유닛에 집적될 수 있고, 각각의 유닛이 별도로 물리적으로 존재할 수도 있으며, 두 개 또는 두 개 이상의 유닛이 하나의 유닛에 집적될 수도 있다. 상기 집적된 유닛은 하드웨어 형식을 사용하여 구현될 수 있고, 소프트웨어 기능 유닛을 사용한 형식으로 구현될 수도 있다.In addition, each functional unit in the embodiment of the present invention may be integrated into one processing unit, each unit may be physically present separately, or two or two or more units may be integrated into one unit. . The integrated unit may be implemented using a hardware format or may be implemented using a software functional unit.

집적된 유닛이 소프트웨어 기능 유닛의 형식으로 구현되고, 독립적인 제품으로 판매되거나 사용될 때, 하나의 컴퓨터 판독 가능 저장 매체에 저장될 수 있다. 이러한 이해에 기반하면, 본 발명의 실시예의 기술적 해결수단은 본질적으로 또는 종래 기술에 대해 기여하는 부분 또는 상기 기술적 해결수단의 전부 또는 일부는 소프트웨어 제품 형식으로 구현될 수 있고, 상기 컴퓨터 소프트웨어 제품은 하나의 컴퓨터 기기(개인용 컴퓨터, 서버, 또는 네트워크 기기 등일 수 있음) 또는 프로세서(processor)가 본 발명의 실시예의 각 실시형태에 따른 방법의 전부 또는 일부 단계를 수행하도록 하는 다수의 명령을 포함하는 하나의 저장 매체에 저장된다. 전술한 저장 매체는 USB 메모리, 이동식 저장 기기, 판독 전용 메모리(ROM, Read-Only Memory), 랜덤 액세스 메모리(RAM, Random Access Memory), 자기 디스크 또는 광 디스크 등 프로그램 코드를 저장할 수 있는 다양한 매체를 포함한다.When the integrated unit is implemented in the form of a software functional unit and sold or used as an independent product, it may be stored in one computer-readable storage medium. Based on this understanding, the technical solutions of the embodiments of the present invention essentially or the part contributing to the prior art, or all or part of the technical solutions may be implemented in the form of a software product, and the computer software product is one One computer device (which may be a personal computer, server, or network device, etc.) or processor of is stored on the storage medium. The aforementioned storage medium includes a variety of media capable of storing a program code, such as a USB memory, a removable storage device, a read-only memory (ROM), a random access memory (RAM), a magnetic disk or an optical disk. include

본 실시예에서, 샘플 이미지와 함께 제1 도메인에 속하는 한 타입의 트레이닝 이미지, 및 타깃 이미지와 함께 제2 도메인에 속하는 다른 타입의 트레이닝 이미지를 통해 트레이닝하여 획득된 얽힘 해제 모델은, 라벨링 정보가 구비된 샘플 이미지 및 타깃 이미지를 매핑하여, 동일한 도메인에 속하는 콘텐츠 특징 데이터를 획득함으로써, 트레이닝 이미지의 콘텐츠 특징 데이터 및 라벨링 정보를 이용하여 트레이닝하여 획득된 네트워크 모델은 타깃 이미지에 마찬가지로 적용될 수 있고, 라벨링을 더 수행할 필요없어 상이한 도메인의 이미지의 라벨링 비용을 줄이고, 이미지 처리의 정밀도를 향상시킬 수 있다.In this embodiment, the detangling model obtained by training through one type of training image belonging to the first domain together with the sample image and another type of training image belonging to the second domain together with the target image includes labeling information. By mapping the sample image and the target image to obtain content feature data belonging to the same domain, the network model obtained by training using the content feature data and labeling information of the training image can be applied to the target image as well, Since there is no need to perform more, it is possible to reduce the labeling cost of images in different domains and improve the precision of image processing.

Claims (20)

모델 트레이닝 방법으로서,
적어도 하나의 샘플 이미지를 획득하는 단계 - 상기 샘플 이미지에는 라벨링 정보가 구비됨 - ;
얽힘 해제 모델을 이용하여 상기 적어도 하나의 샘플 이미지에 대해 각각 콘텐츠 추출을 수행하여, 상기 적어도 하나의 샘플 이미지의 콘텐츠 특징 데이터를 획득하는 단계; 및
상기 적어도 하나의 샘플 이미지의 콘텐츠 특징 데이터 및 상기 라벨링 정보를 이용하여 기설정된 네트워크 모델을 트레이닝시켜, 타깃 이미지를 처리하기 위한 네트워크 모델을 획득하는 단계를 포함하고, 상기 얽힘 해제 모델은 상이한 도메인에 속하는 두 개 타입의 트레이닝 이미지를 이용하여 트레이닝하여 획득된 것이며, 한 타입의 상기 트레이닝 이미지와 상기 샘플 이미지는 제1 도메인에 속하고, 다른 타입의 상기 트레이닝 이미지와 상기 타깃 이미지는 제2 도메인에 속하는 모델 트레이닝 방법.
A model training method comprising:
obtaining at least one sample image, the sample image being provided with labeling information;
obtaining content feature data of the at least one sample image by performing content extraction on each of the at least one sample image using a de-entanglement model; and
training a preset network model using the content feature data and the labeling information of the at least one sample image to obtain a network model for processing a target image, wherein the de-entanglement model belongs to a different domain A model obtained by training using two types of training images, wherein one type of the training image and the sample image belong to a first domain, and the other type of the training image and the target image belong to a second domain. training method.
제1항에 있어서,
상기 샘플 이미지 및 상기 타깃 이미지는 의학적 이미지이고, 상기 라벨링 정보는 생체기관에 대한 라벨링 정보인 것; 및
상기 샘플 이미지 및 상기 타깃 이미지는 3차원 이미지이고, 상기 라벨링 정보는 3차원 타깃에 대한 라벨링 정보인 것; 중 적어도 하나인 모델 트레이닝 방법.
According to claim 1,
the sample image and the target image are medical images, and the labeling information is labeling information for a living organ; and
the sample image and the target image are three-dimensional images, and the labeling information is labeling information for a three-dimensional target; At least one of the model training methods.
제1항에 있어서,
상기 기설정된 네트워크 모델은 이미지 분할 네트워크 모델, 이미지 분류 네트워크 모델 및 타깃 검출 네트워크 모델 중 어느 하나를 포함하는 모델 트레이닝 방법.
According to claim 1,
The preset network model includes any one of an image segmentation network model, an image classification network model, and a target detection network model.
제1항에 있어서,
상기 얽힘 해제 모델을 트레이닝하여 획득하도록, 상기 방법은,
상기 제1 도메인에 속하는 제1 타입 트레이닝 이미지 및 상기 제2 도메인에 속하는 제2 타입 트레이닝 이미지를 획득하는 단계;
원래의 얽힘 해제 모델을 이용하여 상기 제1 타입 트레이닝 이미지 및 제2 타입 트레이닝 이미지에 대해 각각 콘텐츠 및 스타일 추출을 수행하여, 상기 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터, 및 상기 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 획득하는 단계;
상기 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터, 및 상기 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 이용하여 재구성하여, 재구성 이미지를 획득하는 단계;
상기 재구성 이미지에 기반하여, 상기 얽힘 해제 모델의 손실값을 획득하는 단계; 및
상기 손실값에 기반하여, 상기 얽힘 해제 모델의 파라미터를 조정하는 단계를 더 포함하는 모델 트레이닝 방법.
According to claim 1,
To obtain by training the de-entanglement model, the method comprises:
acquiring a first type training image belonging to the first domain and a second type training image belonging to the second domain;
Content and style extraction of the first type training image and the second type training image are respectively performed on the first type training image and the second type training image by using the original detangling model, so that the content characteristic data and style characteristic data of the first type training image, and the second type acquiring content feature data and style feature data of a type training image;
obtaining a reconstructed image by reconstructing using the content feature data and style feature data of the first type training image, and the content feature data and style feature data of the second type training image;
obtaining a loss value of the de-entanglement model based on the reconstructed image; and
Based on the loss value, the model training method further comprising the step of adjusting a parameter of the de-entanglement model.
제4항에 있어서,
상기 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터, 및 상기 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 이용하여 재구성하여, 재구성 이미지를 획득하는 단계는,
상기 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 이용하여 재구성하여, 제1 인트라 도메인 재구성 이미지를 획득하고, 상기 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 이용하여 재구성하여, 제2 인트라 도메인 재구성 이미지를 획득하는 단계; 및
상기 제1 타입 트레이닝 이미지의 스타일 특징 데이터 및 상기 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터를 이용하여 재구성하여, 제1 크로스 도메인 재구성 이미지를 획득하고, 상기 제2 타입 트레이닝 이미지의 스타일 특징 데이터 및 상기 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터를 이용하여 재구성하여, 제2 크로스 도메인 재구성 이미지를 획득하는 단계를 포함하고,
상기 재구성 이미지에 기반하여, 상기 얽힘 해제 모델의 손실값을 획득하는 단계는,
상기 제1 타입 트레이닝 이미지와 상기 제1 인트라 도메인 재구성 이미지 사이의 차이에 기반하여, 제1 인트라 도메인 손실값을 획득하고, 상기 제2 타입 트레이닝 이미지와 상기 제2 인트라 도메인 재구성 이미지 사이의 차이에 기반하여, 제2 인트라 도메인 손실값을 획득하는 단계;
상기 제1 타입 트레이닝 이미지 및 상기 제2 크로스 도메인 재구성 이미지의 콘텐츠 특징 데이터 간의 차이에 기반하여, 제1 콘텐츠 손실값을 획득하고, 상기 제1 타입 트레이닝 이미지 및 상기 제1 크로스 도메인 재구성 이미지의 스타일 특징 데이터 간의 차이에 기반하여, 제1 스타일 손실값을 획득하며, 상기 제2 타입 트레이닝 이미지 및 상기 제1 크로스 도메인 재구성 이미지의 콘텐츠 특징 데이터 간의 차이에 기반하여, 제2 콘텐츠 손실값을 획득하고, 상기 제2 타입 트레이닝 이미지 및 상기 제2 크로스 도메인 재구성 이미지의 스타일 특징 데이터 간의 차이에 기반하여, 제2 스타일 손실값을 획득하는 단계;
상기 제1 타입 트레이닝 이미지와 상기 제1 크로스 도메인 재구성 이미지 사이의 차이에 기반하여, 제1 크로스 도메인 손실값을 획득하고, 상기 제2 타입 트레이닝 이미지와 상기 제2 크로스 도메인 재구성 이미지 사이의 차이에 기반하여, 제2 크로스 도메인 손실값을 획득하는 단계; 및
상기 획득된 손실값에 대해 가중 처리를 수행하여, 상기 얽힘 해제 모델의 손실값을 획득하는 단계를 포함하는 모델 트레이닝 방법.
5. The method of claim 4,
Reconstructing using the content feature data and style feature data of the first type training image, and the content feature data and style feature data of the second type training image to obtain a reconstructed image,
Reconstructed using the content feature data and style feature data of the first type training image to obtain a first intra domain reconstructed image, and reconstructed using the content feature data and style feature data of the second type training image, acquiring a second intra-domain reconstruction image; and
Reconstructing using the style characteristic data of the first type training image and the content characteristic data of the second type training image to obtain a first cross-domain reconstructed image, the style characteristic data of the second type training image and the second type of training image Reconstructing using the content feature data of the type 1 training image, comprising the step of obtaining a second cross-domain reconstructed image,
Based on the reconstructed image, obtaining the loss value of the de-entanglement model comprises:
based on a difference between the first type training image and the first intra domain reconstructed image, obtain a first intra domain loss value, and based on the difference between the second type training image and the second intra domain reconstructed image to obtain a second intra-domain loss value;
Based on the difference between the content characteristic data of the first type training image and the second cross-domain reconstructed image, a first content loss value is obtained, and a style characteristic of the first type training image and the first cross-domain reconstructed image is obtained. a first style loss value is obtained based on a difference between the data, and a second content loss value is obtained based on a difference between the content feature data of the second type training image and the first cross-domain reconstructed image; obtaining a second style loss value based on a difference between the second type training image and the style feature data of the second cross-domain reconstructed image;
obtain a first cross-domain loss value based on a difference between the first type training image and the first cross-domain reconstructed image, and based on the difference between the second type training image and the second cross-domain reconstructed image to obtain a second cross-domain loss value; and
and performing weighting processing on the obtained loss value to obtain a loss value of the de-entanglement model.
이미지 처리 방법으로서,
얽힘 해제 모델을 이용하여 타깃 이미지에 대해 콘텐츠 추출을 수행하여, 상기 타깃 이미지의 콘텐츠 특징 데이터를 획득하는 단계; 및
처리 네트워크 모델을 이용하여 상기 타깃 이미지의 콘텐츠 특징 데이터를 처리하여, 상기 타깃 이미지의 처리 결과를 획득하는 단계를 포함하고, 상기 얽힘 해제 모델은 상이한 도메인에 속하는 두 개 타입의 트레이닝 이미지를 이용하여 트레이닝하여 획득된 것이며, 그 중 한 타입의 상기 트레이닝 이미지와 상기 타깃 이미지는 동일한 도메인에 속하고, 상기 처리 네트워크 모델은 제1항 내지 제5항 중 어느 한 항에 따른 방법을 이용하여 트레이닝하여 획득된 것인 이미지 처리 방법.
An image processing method comprising:
performing content extraction on a target image using a de-entanglement model to obtain content characteristic data of the target image; and
processing the content characteristic data of the target image using a processing network model to obtain a processing result of the target image, wherein the de-entanglement model is trained using two types of training images belonging to different domains. The training image and the target image of one type belong to the same domain, and the processing network model is obtained by training using the method according to any one of claims 1 to 5. image processing method.
이미지 정합 방법으로서,
제1 정합할 이미지 및 제2 정합할 이미지를 획득하는 단계;
얽힘 해제 모델을 이용하여 상기 제1 정합할 이미지 및 상기 제2 정합할 이미지에 대해 각각 콘텐츠 추출을 수행하여, 상기 제1 정합할 이미지의 콘텐츠 특징 데이터 및 상기 제2 정합할 이미지의 콘텐츠 특징 데이터를 획득하는 단계;
상기 제1 정합할 이미지의 콘텐츠 특징 데이터 및 상기 제2 정합할 이미지의 콘텐츠 특징 데이터에 기반하여, 정합 파라미터를 결정하는 단계; 및
상기 정합 파라미터를 이용하여, 상기 제1 정합할 이미지 및 상기 제2 정합할 이미지를 정합하는 단계를 포함하고, 상기 얽힘 해제 모델은 상이한 도메인에 속하는 두 개 타입의 트레이닝 이미지를 이용하여 트레이닝하여 획득된 것이며, 그 중 한 타입의 상기 트레이닝 이미지와 상기 제1 정합할 이미지는 제1 도메인에 속하고, 다른 타입의 상기 트레이닝 이미지와 상기 제2 정합할 이미지는 제2 도메인에 속하는 이미지 정합 방법.
An image registration method comprising:
acquiring a first image to be registered and a second image to be registered;
Content extraction is performed on the first image to be matched and the second image to be matched using the de-entanglement model, respectively, to obtain the content feature data of the first image to be registered and the content feature data of the second image to be registered obtaining;
determining a registration parameter based on the content characteristic data of the first image to be matched and the content characteristic data of the second image to be matched; and
using the registration parameter to register the first image to be registered and the second image to be registered, wherein the detangling model is obtained by training using two types of training images belonging to different domains. wherein one type of the training image and the first to-be-registered image belong to a first domain, and the other type of the training image and the second to-be-registered image belong to a second domain.
제7항에 있어서,
상기 제1 정합할 이미지 및 상기 제2 정합할 이미지는 의학적 이미지인 것;
상기 제1 정합할 이미지 및 상기 제2 정합할 이미지는 3차원 이미지인 것; 및
상기 정합 파라미터는 강성 변화 파라미터 및 변형 변화 파라미터 중 적어도 하나를 포함하는 것; 중 적어도 하나인 이미지 정합 방법.
8. The method of claim 7,
the first image to be registered and the second image to be registered are medical images;
the first image to be registered and the second image to be registered are three-dimensional images; and
wherein the matching parameter includes at least one of a stiffness variation parameter and a strain variation parameter; At least one of the image registration methods.
제7항에 있어서,
상기 제1 정합할 이미지의 콘텐츠 특징 데이터 및 상기 제2 정합할 이미지의 콘텐츠 특징 데이터에 기반하여, 정합 파라미터를 결정하는 단계는,
상기 제1 정합할 이미지의 콘텐츠 특징 데이터 및 상기 제2 정합할 이미지의 콘텐츠 특징 데이터에 기반하여, 상기 제1 정합할 이미지에 대응하는 상기 정합 파라미터를 결정하는 단계를 포함하고;
상기 정합 파라미터를 이용하여, 상기 제1 정합할 이미지 및 상기 제2 정합할 이미지를 정합하는 단계는,
상기 정합 파라미터를 이용하여 상기 제1 정합할 이미지에 대해 변화 처리를 수행하여, 상기 제1 정합할 이미지에 대응되는 변화 이미지를 획득하는 단계; 및
상기 변화 이미지의 픽셀점을 상기 제2 정합할 이미지의 대응되는 픽셀점에 중첩시키는 단계를 포함하는 이미지 정합 방법.
8. The method of claim 7,
Determining a registration parameter based on the content characteristic data of the first image to be matched and the content characteristic data of the second image to be matched includes:
determining the registration parameter corresponding to the first image to be registered based on the content characteristic data of the first image to be registered and the content characteristic data of the second image to be registered;
The step of registering the first image to be matched and the second image to be matched using the matching parameter may include:
performing change processing on the first image to be registered using the registration parameter to obtain a change image corresponding to the first image to be registered; and
and superimposing a pixel point of the change image to a corresponding pixel point of the second image to be registered.
제7항에 있어서,
상기 얽힘 해제 모델을 트레이닝하여 획득하도록, 상기 방법은,
상기 제1 도메인에 속하는 제1 타입 트레이닝 이미지 및 상기 제2 도메인에 속하는 제2 타입 트레이닝 이미지를 획득하는 단계;
원래의 얽힘 해제 모델을 이용하여 상기 제1 타입 트레이닝 이미지 및 제2 타입 트레이닝 이미지에 대해 각각 콘텐츠 및 스타일 추출을 수행하여, 상기 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터, 및 상기 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 획득하는 단계;
상기 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터, 및 상기 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 이용하여 재구성하여, 재구성 이미지를 획득하는 단계;
상기 재구성 이미지에 기반하여, 상기 얽힘 해제 모델의 손실값을 획득하는 단계; 및
상기 손실값에 기반하여, 상기 얽힘 해제 모델의 파라미터를 조정하는 단계를 더 포함하는 이미지 정합 방법.
8. The method of claim 7,
To obtain by training the de-entanglement model, the method comprises:
acquiring a first type training image belonging to the first domain and a second type training image belonging to the second domain;
Content and style extraction of the first type training image and the second type training image are respectively performed on the first type training image and the second type training image by using the original detangling model, so that the content characteristic data and style characteristic data of the first type training image, and the second type acquiring content feature data and style feature data of a type training image;
obtaining a reconstructed image by reconstructing using the content feature data and style feature data of the first type training image, and the content feature data and style feature data of the second type training image;
obtaining a loss value of the de-entanglement model based on the reconstructed image; and
Based on the loss value, the image registration method further comprising the step of adjusting a parameter of the de-entanglement model.
모델 트레이닝 장치로서,
적어도 하나의 샘플 이미지를 획득하도록 구성되는 이미지 획득 모듈 - 상기 샘플 이미지에는 라벨링 정보가 구비됨 - ;
얽힘 해제 모델을 이용하여 상기 적어도 하나의 샘플 이미지에 대해 각각 콘텐츠 추출을 수행하여, 상기 적어도 하나의 샘플 이미지의 콘텐츠 특징 데이터를 획득하도록 구성되는 콘텐츠 추출 모듈;
상기 적어도 하나의 샘플 이미지의 콘텐츠 특징 데이터 및 상기 라벨링 정보를 이용하여 기설정된 네트워크 모델을 트레이닝시켜, 타깃 이미지를 처리하기 위한 네트워크 모델을 획득하도록 구성되는 모델 트레이닝 모듈을 포함하고, 상기 얽힘 해제 모델은 상이한 도메인에 속하는 두 개 타입의 트레이닝 이미지를 이용하여 트레이닝하여 획득된 것이며, 한 타입의 상기 트레이닝 이미지와 상기 샘플 이미지는 제1 도메인에 속하고, 다른 타입의 상기 트레이닝 이미지와 상기 타깃 이미지는 제2 도메인에 속하는 모델 트레이닝 장치.
A model training device comprising:
an image acquisition module, configured to acquire at least one sample image, the sample image being provided with labeling information;
a content extraction module, configured to perform content extraction on each of the at least one sample image by using a de-entanglement model to obtain content feature data of the at least one sample image;
a model training module, configured to train a preset network model using the content feature data and the labeling information of the at least one sample image to obtain a network model for processing a target image, wherein the de-entanglement model comprises: It is obtained by training using two types of training images belonging to different domains, one type of the training image and the sample image belong to a first domain, and the other type of the training image and the target image belong to a second domain. A model training device belonging to a domain.
제11항에 있어서,
상기 샘플 이미지 및 상기 타깃 이미지는 의학적 이미지이고, 상기 라벨링 정보는 생체기관에 대한 라벨링 정보인 것; 및
상기 샘플 이미지 및 상기 타깃 이미지는 3차원 이미지이고, 상기 라벨링 정보는 3차원 타깃에 대한 라벨링 정보인 것; 중 적어도 하나인 모델 트레이닝 장치.
12. The method of claim 11,
the sample image and the target image are medical images, and the labeling information is labeling information for a living organ; and
the sample image and the target image are three-dimensional images, and the labeling information is labeling information for a three-dimensional target; At least one of a model training device.
제11항에 있어서,
상기 기설정된 네트워크 모델은 이미지 분할 네트워크 모델, 이미지 분류 네트워크 모델 및 타깃 검출 네트워크 모델 중 어느 하나를 포함하는 모델 트레이닝 장치.
12. The method of claim 11,
The preset network model is a model training apparatus including any one of an image segmentation network model, an image classification network model, and a target detection network model.
제11항에 있어서,
상기 장치는,
상기 제1 도메인에 속하는 제1 타입 트레이닝 이미지 및 상기 제2 도메인에 속하는 제2 타입 트레이닝 이미지를 획득하도록 구성되는 트레이닝 이미지 획득 모듈;
원래의 얽힘 해제 모델을 이용하여 상기 제1 타입 트레이닝 이미지 및 제2 타입 트레이닝 이미지에 대해 각각 콘텐츠 및 스타일 추출을 수행하여, 상기 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터, 및 상기 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 획득하도록 구성되는 이미지 추출 모듈;
상기 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터, 및 상기 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 이용하여 재구성하여, 재구성 이미지를 획득하도록 구성되는 이미지 재구성 모듈;
상기 재구성 이미지에 기반하여, 상기 얽힘 해제 모델의 손실값을 획득하도록 구성되는 손실 산출 모듈; 및
상기 손실값에 기반하여, 상기 얽힘 해제 모델의 파라미터를 조정하도록 구성되는 파라미터 조정 모듈을 더 포함하는 모델 트레이닝 장치.
12. The method of claim 11,
The device is
a training image acquiring module, configured to acquire a first type training image belonging to the first domain and a second type training image belonging to the second domain;
Content and style extraction of the first type training image and the second type training image are respectively performed on the first type training image and the second type training image by using the original detangling model, so that the content characteristic data and style characteristic data of the first type training image, and the second type an image extraction module, configured to acquire content feature data and style feature data of the type training image;
an image reconstruction module, configured to reconstruct using the content feature data and style feature data of the first type training image, and the content feature data and style feature data of the second type training image, to obtain a reconstructed image;
a loss calculation module, configured to obtain a loss value of the de-entanglement model based on the reconstructed image; and
and a parameter adjustment module, configured to adjust a parameter of the de-entanglement model based on the loss value.
제14항에 있어서,
상기 이미지 재구성 모듈은,
상기 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 이용하여 재구성하여, 제1 인트라 도메인 재구성 이미지를 획득하고, 상기 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터 및 스타일 특징 데이터를 이용하여 재구성하여, 제2 인트라 도메인 재구성 이미지를 획득하도록 구성되는 인트라 도메인 재구성 서브 모듈; 및
상기 제1 타입 트레이닝 이미지의 스타일 특징 데이터 및 상기 제2 타입 트레이닝 이미지의 콘텐츠 특징 데이터를 이용하여 재구성하여, 제1 크로스 도메인 재구성 이미지를 획득하고, 상기 제2 타입 트레이닝 이미지의 스타일 특징 데이터 및 상기 제1 타입 트레이닝 이미지의 콘텐츠 특징 데이터를 이용하여 재구성하여, 제2 크로스 도메인 재구성 이미지를 획득하도록 구성되는 크로스 도메인 재구성 서브 모듈을 포함하고;
상기 손실 산출 모듈은,
상기 제1 타입 트레이닝 이미지와 상기 제1 인트라 도메인 재구성 이미지 사이의 차이에 기반하여, 제1 인트라 도메인 손실값을 획득하고, 상기 제2 타입 트레이닝 이미지와 상기 제2 인트라 도메인 재구성 이미지 사이의 차이에 기반하여, 제2 인트라 도메인 손실값을 획득하도록 구성되는 인트라 도메인 손실 산출 서브 모듈;
상기 제1 타입 트레이닝 이미지 및 상기 제2 크로스 도메인 재구성 이미지의 콘텐츠 특징 데이터 간의 차이에 기반하여, 제1 콘텐츠 손실값을 획득하고, 상기 제2 타입 트레이닝 이미지 및 상기 제1 크로스 도메인 재구성 이미지의 콘텐츠 특징 데이터 간의 차이에 기반하여, 제2 콘텐츠 손실값을 획득하도록 구성되는 콘텐츠 손실 산출 서브 모듈;
상기 제1 타입 트레이닝 이미지 및 상기 제1 크로스 도메인 재구성 이미지의 스타일 특징 데이터 간의 차이에 기반하여, 제1 스타일 손실값을 획득하고, 상기 제2 타입 트레이닝 이미지 및 상기 제2 크로스 도메인 재구성 이미지의 스타일 특징 데이터 간의 차이에 기반하여, 제2 스타일 손실값을 획득하도록 구성되는 스타일 손실 산출 서브 모듈;
상기 제1 타입 트레이닝 이미지와 상기 제1 크로스 도메인 재구성 이미지 사이의 차이에 기반하여, 제1 크로스 도메인 손실값을 획득하고, 상기 제2 타입 트레이닝 이미지와 상기 제2 크로스 도메인 재구성 이미지 사이의 차이에 기반하여, 제2 크로스 도메인 손실값을 획득하도록 구성되는 크로스 도메인 손실 산출 서브 모듈; 및
상기 획득된 손실값에 대해 가중 처리를 수행하여, 상기 얽힘 해제 모델의 손실값을 획득하도록 구성되는 손실 가중 서브 모듈을 포함하는 모델 트레이닝 장치.
15. The method of claim 14,
The image reconstruction module,
Reconstructed using the content feature data and style feature data of the first type training image to obtain a first intra domain reconstructed image, and reconstructed using the content feature data and style feature data of the second type training image, an intra-domain reconstruction sub-module, configured to acquire a second intra-domain reconstruction image; and
Reconstructing using the style characteristic data of the first type training image and the content characteristic data of the second type training image to obtain a first cross-domain reconstructed image, the style characteristic data of the second type training image and the second type of training image a cross-domain reconstruction sub-module, configured to reconstruct using the content characteristic data of the type 1 training image to obtain a second cross-domain reconstruction image;
The loss calculation module,
based on a difference between the first type training image and the first intra domain reconstructed image, obtain a first intra domain loss value, and based on the difference between the second type training image and the second intra domain reconstructed image an intra-domain loss calculating sub-module, configured to obtain a second intra-domain loss value;
Based on the difference between the content characteristic data of the first type training image and the second cross-domain reconstructed image, a first content loss value is obtained, and the content characteristic of the second type training image and the first cross-domain reconstructed image a content loss calculation submodule, configured to obtain a second content loss value based on the difference between the data;
Based on the difference between the style feature data of the first type training image and the first cross-domain reconstructed image, a first style loss value is obtained, and the style characteristics of the second type training image and the second cross-domain reconstructed image are obtained. a style loss calculation submodule, configured to obtain a second style loss value based on the difference between the data;
obtain a first cross-domain loss value based on a difference between the first type training image and the first cross-domain reconstructed image, and based on the difference between the second type training image and the second cross-domain reconstructed image a cross-domain loss calculating sub-module, configured to obtain a second cross-domain loss value; and
and a loss weighting submodule, configured to perform weighting processing on the obtained loss value to obtain a loss value of the de-entanglement model.
이미지 처리 장치로서,
얽힘 해제 모델을 이용하여 타깃 이미지에 대해 콘텐츠 추출을 수행하여, 상기 타깃 이미지의 콘텐츠 특징 데이터를 획득하도록 구성되는 콘텐츠 추출 모듈; 및
처리 네트워크 모델을 이용하여 상기 타깃 이미지의 콘텐츠 특징 데이터를 처리하여, 상기 타깃 이미지의 처리 결과를 획득하도록 구성되는 네트워크 처리 모듈을 포함하고,
상기 얽힘 해제 모델은 상이한 도메인에 속하는 두 개 타입의 트레이닝 이미지를 이용하여 트레이닝하여 획득된 것이며, 한 타입의 상기 트레이닝 이미지와 상기 타깃 이미지는 동일한 도메인에 속하고, 상기 처리 네트워크 모델은 제11항에 따른 모델 트레이닝 장치를 이용하여 획득된 것인 이미지 처리 장치.
An image processing device comprising:
a content extraction module, configured to perform content extraction on a target image by using the entanglement model to obtain content characteristic data of the target image; and
a network processing module, configured to process the content characteristic data of the target image by using a processing network model to obtain a processing result of the target image;
The de-entanglement model is obtained by training using two types of training images belonging to different domains, the training image of one type and the target image belong to the same domain, and the processing network model according to claim 11 . An image processing device that is obtained using a model training device according to the
이미지 정합 장치로서,
제1 정합할 이미지 및 제2 정합할 이미지를 획득하도록 구성되는 이미지 획득 모듈;
얽힘 해제 모델을 이용하여 상기 제1 정합할 이미지 및 상기 제2 정합할 이미지에 대해 각각 콘텐츠 추출을 수행하여, 상기 제1 정합할 이미지의 콘텐츠 특징 데이터 및 상기 제2 정합할 이미지의 콘텐츠 특징 데이터를 획득하도록 구성되는 콘텐츠 추출 모듈;
상기 제1 정합할 이미지의 콘텐츠 특징 데이터 및 상기 제2 정합할 이미지의 콘텐츠 특징 데이터에 기반하여, 정합 파라미터를 결정하도록 구성되는 파라미터 결정 모듈; 및
상기 정합 파라미터를 이용하여, 상기 제1 정합할 이미지 및 상기 제2 정합할 이미지를 정합하도록 구성되는 이미지 정합 모듈을 포함하고,
상기 얽힘 해제 모델은 상이한 도메인에 속하는 두 개 타입의 트레이닝 이미지를 이용하여 트레이닝하여 획득된 것이며, 한 타입의 상기 트레이닝 이미지와 상기 제1 정합할 이미지는 제1 도메인에 속하고, 다른 타입의 상기 트레이닝 이미지와 상기 제2 정합할 이미지는 제2 도메인에 속하는 이미지 정합 장치.
An image matching device comprising:
an image acquiring module, configured to acquire a first image to be registered and a second image to be registered;
Content extraction is performed on the first image to be matched and the second image to be matched using the de-entanglement model, respectively, to obtain the content feature data of the first image to be registered and the content feature data of the second image to be registered a content extraction module, configured to acquire;
a parameter determining module, configured to determine a registration parameter based on the content characteristic data of the first image to be registered and the content characteristic data of the second image to be registered; and
an image registration module, configured to register the first image to be registered and the second image to be registered by using the registration parameter;
The de-entanglement model is obtained by training using two types of training images belonging to different domains, one type of the training image and the first image to be matched belong to a first domain, and the other type of the training image belongs to a first domain. The image and the second image to be matched belong to a second domain.
전자 기기로서,
서로 커플링된 메모리 및 프로세서를 포함하며, 상기 프로세서는 상기 메모리에 저장된 프로그램 명령을 실행하여, 제1항 내지 제5항 중 어느 한 항에 따른 모델 트레이닝 방법을 구현하거나, 또는 제6항에 따른 이미지 처리 방법을 구현하거나, 또는 제7항 내지 제10항 중 어느 한 항에 따른 이미지 정합 방법을 구현하는 전자 기기.
As an electronic device,
A memory and a processor coupled to each other, wherein the processor executes program instructions stored in the memory to implement the model training method according to any one of claims 1 to 5, or An electronic device that implements an image processing method or an image registration method according to any one of claims 7 to 10.
컴퓨터 판독 가능 저장 매체로서,
프로그램 명령이 저장되고, 상기 프로그램 명령이 프로세서에 의해 실행될 경우, 제1항 내지 제5항 중 어느 한 항에 따른 모델 트레이닝 방법이 구현되거나, 또는 제6항에 따른 이미지 처리 방법이 구현되거나, 또는 제7항 내지 제10항 중 어느 한 항에 따른 이미지 정합 방법이 구현되는 컴퓨터 판독 가능 저장 매체.
A computer readable storage medium comprising:
A program instruction is stored, and when the program instruction is executed by the processor, a model training method according to any one of claims 1 to 5 is implemented, or an image processing method according to claim 6 is implemented, or A computer readable storage medium on which the image registration method according to any one of claims 7 to 10 is implemented.
컴퓨터 프로그램 제품으로서,
상기 컴퓨터 프로그램 제품은 하나 또는 다수의 명령을 포함하고, 상기 하나 또는 다수의 명령은 프로세서에 의해 로딩되고 실행되어, 제1항 내지 제5항 중 어느 한 항에 따른 모델 트레이닝 방법을 구현하거나, 또는 제6항에 따른 이미지 처리 방법을 구현하거나, 또는 제7항 내지 제10항 중 어느 한 항에 따른 이미지 정합 방법을 구현하는 컴퓨터 프로그램 제품.
A computer program product comprising:
The computer program product comprises one or more instructions, the one or more instructions being loaded and executed by a processor to implement a model training method according to any one of claims 1 to 5, or A computer program product implementing the image processing method according to claim 6 , or implementing the image registration method according to any one of claims 7 to 10 .
KR1020227001100A 2020-10-30 2021-03-04 Model training method, image processing and registration method, apparatus, apparatus, medium KR20220012406A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202011193221.7A CN112348819A (en) 2020-10-30 2020-10-30 Model training method, image processing and registering method, and related device and equipment
CN202011193221.7 2020-10-30
PCT/CN2021/079154 WO2022088572A1 (en) 2020-10-30 2021-03-04 Model training method, image processing and alignment method, apparatus, device, and medium

Publications (1)

Publication Number Publication Date
KR20220012406A true KR20220012406A (en) 2022-02-03

Family

ID=80268932

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227001100A KR20220012406A (en) 2020-10-30 2021-03-04 Model training method, image processing and registration method, apparatus, apparatus, medium

Country Status (2)

Country Link
JP (1) JP2023502813A (en)
KR (1) KR20220012406A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117437459B (en) * 2023-10-08 2024-03-22 昆山市第一人民医院 Method for realizing user knee joint patella softening state analysis based on decision network

Also Published As

Publication number Publication date
JP2023502813A (en) 2023-01-26

Similar Documents

Publication Publication Date Title
Liang et al. MCFNet: Multi-layer concatenation fusion network for medical images fusion
CN113099208B (en) Method and device for generating dynamic human body free viewpoint video based on nerve radiation field
CN112446270B (en) Training method of pedestrian re-recognition network, pedestrian re-recognition method and device
CN110276411B (en) Image classification method, device, equipment, storage medium and medical electronic equipment
WO2022088572A1 (en) Model training method, image processing and alignment method, apparatus, device, and medium
CN113822982B (en) Human body three-dimensional model construction method and device, electronic equipment and storage medium
CN106898044B (en) Organ splitting and operating method and system based on medical images and by utilizing VR technology
Lahoud et al. Fast and efficient zero-learning image fusion
CN109712228B (en) Method and device for establishing three-dimensional reconstruction model, electronic equipment and storage medium
CN112446835B (en) Image restoration method, image restoration network training method, device and storage medium
KR20190042429A (en) Method for image processing
WO2021120961A1 (en) Brain addiction structure map evaluation method and apparatus
CN110009656B (en) Target object determination method and device, storage medium and electronic device
AU2019430369B2 (en) VRDS 4D medical image-based vein Ai endoscopic analysis method and product
CN113112559A (en) Ultrasonic image segmentation method and device, terminal equipment and storage medium
CN113256529A (en) Image processing method, image processing device, computer equipment and storage medium
CN112488971A (en) Medical image fusion method for generating countermeasure network based on spatial attention mechanism and depth convolution
CN106897564B (en) A kind of medical record image modeling system based on medical image
Li et al. S 3 egANet: 3D spinal structures segmentation via adversarial nets
Li et al. Multi-scale residual denoising GAN model for producing super-resolution CTA images
CN115170401A (en) Image completion method, device, equipment and storage medium
KR20220012406A (en) Model training method, image processing and registration method, apparatus, apparatus, medium
CN114049344A (en) Image segmentation method, training method of model thereof, related device and electronic equipment
Iddrisu et al. 3D reconstructions of brain from MRI scans using neural radiance fields
CN108596900B (en) Thyroid-associated ophthalmopathy medical image data processing device and method, computer-readable storage medium and terminal equipment

Legal Events

Date Code Title Description
A201 Request for examination