KR20220016213A - Image detection method and related model training method and related apparatus and apparatus - Google Patents

Image detection method and related model training method and related apparatus and apparatus Download PDF

Info

Publication number
KR20220016213A
KR20220016213A KR1020217043241A KR20217043241A KR20220016213A KR 20220016213 A KR20220016213 A KR 20220016213A KR 1020217043241 A KR1020217043241 A KR 1020217043241A KR 20217043241 A KR20217043241 A KR 20217043241A KR 20220016213 A KR20220016213 A KR 20220016213A
Authority
KR
South Korea
Prior art keywords
detection model
image
medical image
organ
region
Prior art date
Application number
KR1020217043241A
Other languages
Korean (ko)
Inventor
루이 후앙
지치앙 후
샤오팅 장
홍솅 리
Original Assignee
상하이 센스타임 인텔리전트 테크놀로지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 상하이 센스타임 인텔리전트 테크놀로지 컴퍼니 리미티드 filed Critical 상하이 센스타임 인텔리전트 테크놀로지 컴퍼니 리미티드
Publication of KR20220016213A publication Critical patent/KR20220016213A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 발명은 이미지 검출 방법 및 관련 모델의 훈련 방법 및 관련 장치, 기기를 제공하고, 여기서, 이미지 검출 모델의 훈련 방법은, 샘플 의학 영상을 획득하는 단계 - 샘플 의학 영상에는 적어도 하나의 태깅되지 않은 기관의 실제 영역이 슈도 태깅됨 - ; 원본 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 태깅되지 않은 기관의 제1 예측 영역이 포함된 제1 검출 결과를 얻는 단계; 이미지 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 태깅되지 않은 기관의 제2 예측 영역이 포함된 제2 검출 결과를 얻는 단계 - 이미지 검출 모델의 네트워크 파라미터는 원본 검출 모델의 네트워크 파라미터에 기반하여 결정된 것임 - ; 및 제1 예측 영역과 실제 영역, 제2 예측 영역 사이의 차이를 사용하여, 원본 검출 모델의 네트워크 파라미터를 조절하는 단계를 포함한다.The present invention provides an image detection method and a training method of a related model, and a related apparatus and apparatus, wherein the training method of an image detection model includes: acquiring a sample medical image - the sample medical image includes at least one untagged organ Pseudo-tagged real area of - ; obtaining a first detection result including a first prediction region of an untagged organ by performing detection on a sample medical image using the original detection model; obtaining a second detection result including a second predicted region of an untagged organ by performing detection on the sample medical image using the image detection model, wherein the network parameter of the image detection model is based on the network parameter of the original detection model It was decided by -; and adjusting a network parameter of the original detection model by using the difference between the first prediction region, the real region, and the second prediction region.

Description

이미지 검출 방법 및 관련 모델의 훈련 방법 및 관련 장치, 기기Image detection method and related model training method and related apparatus and apparatus

관련 출원의 상호 참조Cross-referencing of related applications

본 발명은 출원번호가 202010362766.X이고 출원일자가 2020년 04월 30일인 중국 특허 출원에 기반하여 제출하였고, 상기 중국 특허 출원의 우선권을 주장하는 바, 상기 중국 특허 출원의 전부 내용을 본 발명에 인용하여 참조로 한다.The present invention was filed based on a Chinese patent application with an application number of 202010362766.X and an application date of April 30, 2020, and claims priority to the Chinese patent application, and the entire contents of the Chinese patent application are cited in the present invention to be referred to.

본 발명은 인공 지능 기술 분야에 관한 것으로서, 특히 이미지 검출 방법 및 관련 모델의 훈련 방법 및 관련 장치, 기기에 관한 것이다.The present invention relates to the field of artificial intelligence technology, and more particularly, to an image detection method and a training method for a related model, and related devices and devices.

전산화 단층촬영(Computed Tomography, CT) 및 자기공명 영상(Magnetic Resonance Imaging, MRI) 등 의학 영상은 임상에서 중요한 의미가 있다. 여기서, CT, MRI 등 의학 영상에서 다중 기관 검출을 수행함으로써, 의학 영상의 각 기관에 대응되는 영역을 결정하고, 예를 들어, 컴퓨터 보조 진단, 방사선 치료 계획 제정 등과 같은 임상 실천에서 광범위하게 응용된다. 따라서, 다중 기관 검출에 적용되는 이미지 검출 모델을 훈련시키는 것은 비교적 높은 응용 가치를 구비한다.Medical imaging, such as Computed Tomography (CT) and Magnetic Resonance Imaging (MRI), has important clinical significance. Here, by performing multi-organ detection in medical images, such as CT and MRI, an area corresponding to each organ in a medical image is determined, and it is widely applied in clinical practice, for example, computer-assisted diagnosis and radiation treatment planning. . Therefore, training an image detection model applied to multi-organ detection has a relatively high application value.

현재, 모델 훈련은 대량의 태깅된 데이터 세트에 의존한다. 하지만, 의료 영상 분야에서, 대량의 고품질의 다중 기관 태그를 획득하는 것은 시간과 힘을 많이 소모하고, 보통 경험이 풍부한 방사선과 의사만이 데이터에 대해 태깅할 수 있다. 이에 한정되어, 기존의 이미지 검출 모델은 다중 기관 검출을 수행할 때, 종종 정확성이 낮은 문제가 존재한다. 이를 감안하여, 다중 기관 검출할 때, 검출 정확성을 향상시키는 방법은 시급히 해결해야 하는 문제가 되었다.Currently, model training relies on large sets of tagged data. However, in the field of medical imaging, obtaining a large amount of high-quality multi-organ tags is time-consuming and energy-consuming, and usually only experienced radiologists can tag the data. Limited to this, the existing image detection model often has a problem of low accuracy when performing multi-organ detection. In view of this, in multi-organ detection, a method for improving detection accuracy has become an urgent problem to be solved.

본 발명은 이미지 검출 방법 및 관련 모델의 훈련 방법 및 관련 장치, 기기를 제공한다.The present invention provides an image detection method, a training method for a related model, and related apparatus and apparatus.

제1 측면에 있어서, 본 발명의 실시예는 이미지 검출 모델의 훈련 방법을 제공하고, 상기 이미지 검출 모델의 훈련 방법은, 샘플 의학 영상을 획득하는 단계 - 샘플 의학 영상에는 적어도 하나의 태깅되지 않은 기관의 실제 영역이 슈도 태깅됨 - ; 원본 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 제1 검출 결과를 얻는 단계 - 제1 검출 결과에는 태깅되지 않은 기관의 제1 예측 영역이 포함됨 - ; 이미지 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 제2 검출 결과를 얻는 단계 - 제2 검출 결과에는 태깅되지 않은 기관의 제2 예측 영역이 포함되고, 이미지 검출 모델의 네트워크 파라미터는 원본 검출 모델의 네트워크 파라미터에 기반하여 결정된 것임 - ; 및 제1 예측 영역과 실제 영역, 제2 예측 영역 사이의 차이를 사용하여, 원본 검출 모델의 네트워크 파라미터를 조절하는 단계를 포함한다.In a first aspect, an embodiment of the present invention provides a method of training an image detection model, the method of training an image detection model comprising: acquiring a sample medical image, the sample medical image being at least one untagged organ Pseudo-tagged real area of - ; obtaining a first detection result by performing detection on the sample medical image using the original detection model, wherein the first detection result includes a first predicted region of an untagged organ; obtaining a second detection result by performing detection on the sample medical image using the image detection model, wherein the second detection result includes a second predicted region of an untagged organ, and the network parameter of the image detection model is the original detection It is determined based on the network parameters of the model - ; and adjusting a network parameter of the original detection model by using the difference between the first prediction region, the real region, and the second prediction region.

따라서, 샘플 의학 영상을 획득하고, 샘플 의학 영상에 적어도 하나의 태깅되지 않은 기관의 실제 영역을 슈도 태깅하는 것을 통해, 샘플 의학 영상에서는 다중 기관에 대해 실제 태깅을 수행할 필요가 없음으로써, 원본 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 태깅되지 않은 기관이 포함된 제1 기설정 영역의 제1 검출 결과를 얻고, 이미지 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 태깅되지 않은 기관이 포함된 제2 예측 영역의 제2 검출 결과를 얻음으로써, 제1 예측 영역과 실제 영역, 제2 예측 영역 사이의 차이를 사용하여, 원본 검출 모델의 네트워크 파라미터를 조절하며, 이미지 검출 모델의 네트워크 파라미터는 원본 검출 모델의 네트워크 파라미터에 기반하여 결정된 것이고, 따라서 이미지 검출 모델로 하여금 원본 검출 모델의 훈련을 모니터링할 수 있도록 하며, 이로써 네트워크 파라미터가 여러 차례 훈련 과정에서 슈도 태깅된 실제 영역에 의해 생성된 누적 오차를 제한하여, 이미지 검출 모델의 정확성을 향상시킬 수 있음으로써, 이미지 검출 모델로 하여금 원본 검출 모델을 정확하게 모니터링하여 훈련을 수행할 수 있도록 하여, 원본 검출 모델로 하여금 훈련 과정에서 네트워크 파라미터를 정확하게 조절할 수 있도록 하여, 따라서, 다중 기관 검출의 과정에서, 이미지 검출 모델의 검출 정확성을 향상시킬 수 있다. Therefore, by acquiring a sample medical image and pseudo-tagging the real area of at least one untagged organ in the sample medical image, there is no need to perform actual tagging for multiple organs in the sample medical image, thereby detecting the original A first detection result of a first preset region including an untagged organ is obtained by performing detection on a sample medical image using the model, and performing detection on a sample medical image by using the image detection model to perform detection on the sample medical image. By obtaining a second detection result of the second prediction region including organs not included, the difference between the first prediction region, the real region, and the second prediction region is used to adjust the network parameters of the original detection model, and the image detection model The network parameters of are determined based on the network parameters of the original detection model, thus allowing the image detection model to monitor the training of the original detection model, so that the network parameters of By limiting the generated cumulative error, the accuracy of the image detection model can be improved, so that the image detection model can accurately monitor the original detection model to perform training, thereby allowing the original detection model to perform network parameters in the training process. can be precisely adjusted, thus improving the detection accuracy of the image detection model in the process of multi-organ detection.

여기서, 원본 검출 모델은 제1 원본 검출 모델 및 제2 원본 검출 모델을 포함하고, 이미지 검출 모델은 제1 원본 검출 모델과 대응되는 제1 이미지 검출 모델 및 제2 원본 검출 모델과 대응되는 제2 이미지 검출 모델이 포함하며; 원본 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 제1 검출 결과를 얻는 단계는, 제1 원본 검출 모델 및 제2 원본 검출 모델을 각각 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 제1 검출 결과를 얻는 단계를 포함하고; 이미지 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 제2 검출 결과를 얻는 단계는, 제1 이미지 검출 모델 및 제2 이미지 검출 모델을 각각 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 제2 검출 결과를 얻는 단계를 포함하며; 제1 예측 영역과 실제 영역, 제2 예측 영역 사이의 차이를 사용하여, 원본 검출 모델의 네트워크 파라미터를 조절하는 단계는, 제1 원본 검출 모델의 제1 예측 영역과 실제 영역, 제2 이미지 검출 모델의 제2 예측 영역 사이의 차이를 사용하여, 제1 원본 검출 모델의 네트워크 파라미터를 조절하는 단계; 및 제2 원본 검출 모델의 제1 예측 영역과 실제 영역, 제1 이미지 검출 모델의 제2 예측 영역 사이의 차이를 사용하여, 제2 원본 검출 모델의 네트워크 파라미터를 조절하는 단계를 포함한다.Here, the original detection model includes a first original detection model and a second original detection model, and the image detection model includes a first image detection model corresponding to the first original detection model and a second image corresponding to the second original detection model detection models include; The step of obtaining a first detection result by performing detection on the sample medical image using the original detection model may include: performing detection on the sample medical image using the first original detection model and the second original detection model, respectively. obtaining a detection result; The step of obtaining a second detection result by performing detection on the sample medical image using the image detection model may include: performing detection on the sample medical image using the first image detection model and the second image detection model, respectively obtaining a detection result; The adjusting the network parameter of the original detection model by using the difference between the first prediction region, the real region, and the second prediction region includes: the first prediction region, the real region of the first original detection model, and the second image detection model adjusting a network parameter of the first original detection model by using the difference between the second prediction regions of ; and adjusting a network parameter of the second original detection model by using the difference between the first prediction region and the real region of the second original detection model and the second prediction region of the first image detection model.

따라서, 원본 검출 모델을 제1 원본 검출 모델 및 제2 원본 검출 모델이 포함되게 설정하고, 이미지 검출 모델을 제1 원본 검출 모델과 대응되는 제1 이미지 검출 모델 및 제2 원본 검출 모델과 대응되는 제2 이미지 검출 모델이 포함되게 설정하며, 제1 원본 검출 모델 및 제2 원본 검출 모델을 각각 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 제1 검출 결과를 얻는 단계를 실행하고, 제1 이미지 검출 모델 및 제2 검출 모델을 각각 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 제2 검출 결과를 얻는 단계를 실행함으로써, 제1 원본 검출 모델의 제1 예측 영역과 실제 영역, 제2 이미지 검출 모델의 제2 예측 영역 사이의 차이를 사용하여, 제1 원본 검출 모델의 네트워크 파라미터를 조절하며, 제2 원본 검출 모델의 제1 예측 영역과 실제 영역, 제1 이미지 검출 모델의 제2 예측 영역 사이의 차이를 사용하여, 제2 원본 검출 모델의 네트워크 파라미터를 조절하고, 따라서 제1 원본 검출 모델과 대응되는 제1 이미지 검출 모델을 사용하여 제2 원본 검출 모델의 훈련을 모니터링하며, 제2 원본 검출 모델과 대응되는 제2 이미지 검출 모델을 사용하여 제1 원본 검출 모델의 훈련을 모니터링할 수 있고, 따라서 네트워크 파라미터가 여러 차례 훈련 과정에서 슈도 태깅된 실제 영역에 의해 생성된 누적 오차를 추가로 제한하여, 이미지 검출 모델의 정확성을 향상시킬 수 있다.Accordingly, the original detection model is set to include the first original detection model and the second original detection model, and the image detection model is set to include the first image detection model corresponding to the first original detection model and the second original detection model corresponding to the second original detection model. 2 image detection models are set to be included, and a step of obtaining a first detection result by performing detection on a sample medical image by using the first original detection model and the second original detection model, respectively, is performed, and the first image detection model and obtaining a second detection result by performing detection on the sample medical image by using the second detection model, respectively, so that the first prediction region and the real region of the first original detection model, and the second image detection model The difference between the two prediction regions is used to adjust a network parameter of the first original detection model, and the difference between the first prediction region and the real region of the second original detection model, and the second prediction region of the first image detection model to adjust the network parameters of the second original detection model, and thus monitor the training of the second original detection model by using the first image detection model corresponding to the first original detection model, corresponding to the second original detection model The training of the first original detection model can be monitored using the second image detection model that is The accuracy of the model can be improved.

여기서, 제1 예측 영역과 실제 영역, 제2 예측 영역 사이의 차이를 사용하여, 원본 검출 모델의 네트워크 파라미터를 조절하는 단계는, 제1 예측 영역 및 실제 영역 사이의 차이를 사용하여, 원본 검출 모델의 제1 손실값을 결정하는 단계; 제1 예측 영역 및 제2 예측 영역 사이의 차이를 사용하여, 원본 검출 모델의 제2 손실값을 결정하는 단계; 및 제1 손실값 및 제2 손실값을 사용하여, 원본 검출 모델의 네트워크 파라미터를 조절하는 단계를 포함한다.Here, using the difference between the first prediction region, the real region, and the second prediction region, adjusting the network parameter of the original detection model includes: using the difference between the first prediction region and the real region, the original detection model determining a first loss value of determining a second loss value of the original detection model by using the difference between the first prediction region and the second prediction region; and adjusting a network parameter of the original detection model by using the first loss value and the second loss value.

따라서, 제1 예측 영역 및 실제 영역 사이의 차이를 통해, 원본 검출 모델의 제1 손실값을 결정하고, 제1 예측 영역 및 제2 예측 영역 사이의 차이를 통해, 원본 검출 모델의 제2 손실값을 결정하며, 제1 손실값 및 제2 손실값을 사용하여, 원본 검출 모델의 네트워크 파라미터를 조절함으로써, 원본 검출 모델에 의해 예측된 제1 예측 영역과 슈도 태깅된 실제 영역, 대응되는 이미지 검출 모델에 의해 예측된 제2 예측 영역 사이의 차이 이 두 개 차원에서 원본 검출 모델의 손실을 측정할 수 있음으로써, 손실 계산의 정확성을 향상시킴에 있어서 유리하여, 원본 검출 모델 네트워크 파라미터의 정확성을 향상시킴에 있어서 유리할 수 있으며, 이미지 검출 모델의 정확성을 향상시킴에 있어서 유리할 수 있다.Therefore, the first loss value of the original detection model is determined through the difference between the first prediction region and the real region, and the second loss value of the original detection model is determined through the difference between the first prediction region and the second prediction region. , and by using the first loss value and the second loss value to adjust the network parameters of the original detection model, the first prediction region predicted by the original detection model, the pseudo-tagged real region, and the corresponding image detection model The difference between the second prediction regions predicted by can measure the loss of the original detection model in two dimensions, which is advantageous in improving the accuracy of the loss calculation, thereby improving the accuracy of the original detection model network parameters. In this case, it may be advantageous in improving the accuracy of the image detection model.

여기서, 제1 예측 영역 및 실제 영역 사이의 차이를 사용하여, 원본 검출 모델의 제1 손실값을 결정하는 단계는, 초점 손실 함수를 사용하여 제1 예측 영역 및 실제 영역에 대해 처리를 수행하여, 초점 제1 손실값을 얻는 단계; 및 집합 유사도 손실 함수를 사용하여 제1 예측 영역 및 실제 영역에 대해 처리를 수행하여, 집합 유사도 제1 손실값을 얻는 단계 중 적어도 하나를 포함한다.Here, the step of determining the first loss value of the original detection model by using the difference between the first prediction region and the real region includes performing processing on the first prediction region and the real region using a focus loss function, obtaining a focus first loss value; and performing processing on the first prediction region and the real region using the set similarity loss function to obtain a first loss value of the set similarity.

여기서, 제1 예측 영역 및 제2 예측 영역 사이의 차이를 사용하여, 원본 검출 모델의 제2 손실값을 결정하는 단계는, 일치성 손실 함수를 사용하여 제1 예측 영역 및 제2 예측 영역에 대해 처리를 수행하여, 제2 손실값을 얻는 단계를 포함한다.Here, the step of determining the second loss value of the original detection model by using the difference between the first prediction region and the second prediction region includes: for the first prediction region and the second prediction region, using a loss-of-concordance function. performing processing to obtain a second loss value.

여기서, 제1 손실값 및 제2 손실값을 사용하여, 원본 검출 모델의 네트워크 파라미터를 조절하는 단계는, 제1 손실값 및 제2 손실값에 대해 가중 처리를 수행하여, 가중 손실값을 얻는 단계; 및 가중 손실값을 사용하여, 원본 검출 모델의 네트워크 파라미터를 조절하는 단계를 포함한다.Here, using the first loss value and the second loss value, adjusting the network parameter of the original detection model includes performing weighting processing on the first loss value and the second loss value to obtain a weighted loss value ; and adjusting a network parameter of the original detection model by using the weighted loss value.

따라서, 초점 손실 함수를 사용하여 제1 예측 영역 및 실제 영역에 대해 처리를 수행하여, 초점 제1 손실값을 얻는 것을 통해, 모델로 하여금 어려운 샘플에 대한 관심도를 향상시킬 수 있음으로써, 이미지 검출 모델의 정확성을 향상시킴에 있어서 유리할 수 있고; 집합 유사도 손실 함수를 사용하여 제1 예측 영역 및 실제 영역에 대해 처리를 수행하여, 집합 유사도 제1 손실값을 얻는 것을 통해, 모델로 하여금 슈도 태깅된 실제 영역을 피팅할 수 있음으로써, 이미지 검출 모델의 정확성을 향상시킴에 있어서 유리할 수 있으며; 일치성 손실 함수를 사용하여 제1 예측 영역 및 제2 예측 영역에 대해 처리를 수행하여, 제2 손실값을 얻는 것을 통해, 원본 모델 및 이미지 검출 모델 예측의 일치성을 향상시킬 수 있고, 따라서 이미지 검출 모델의 정확성을 향상시킴에 있어서 유리할 수 있고; 제1 손실값 및 제2 손실값에 대해 가중 처리를 수행하여, 가중 손실값을 얻고, 가중 손실값을 사용하여, 원본 검출 모델의 네트워크 파라미터를 조절하는 것을 통해, 각 손실값이 훈련 과정에서의 중요성을 균형시킬 수 있음으로써, 네트워크 파라미터의 정확성을 향상시킬 수 있으며, 따라서 이미지 검출 모델의 정확성을 향상시킴에 있어서 유리할 수 있다.Therefore, by performing processing on the first predicted region and the real region using the focus loss function to obtain the focus first loss value, the model can improve the interest in difficult samples, thereby making the image detection model may be advantageous in improving the accuracy of ; By performing processing on the first prediction region and the real region using the set similarity loss function to obtain a first loss value of the set similarity, the model can fit the pseudo-tagged real region, thereby enabling the image detection model may be advantageous in improving the accuracy of By performing processing on the first prediction region and the second prediction region using the coincidence loss function to obtain a second loss value, it is possible to improve the correspondence of the original model and the image detection model prediction, and thus the image It can be advantageous in improving the accuracy of the detection model; Weight processing is performed on the first loss value and the second loss value to obtain a weighted loss value, and by using the weighted loss value to adjust the network parameters of the original detection model, each loss value is determined in the training process. By being able to balance the importance, it is possible to improve the accuracy of the network parameters, and thus it can be advantageous in improving the accuracy of the image detection model.

여기서, 샘플 의학 영상에는 태깅된 기관의 실제 영역이 더 포함되고, 제1 검출 결과에는 태깅된 기관의 제1 예측 영역이 더 포함되며, 제2 검출 결과에는 태깅된 기관의 제2 예측 영역이 더 포함되고; 제1 예측 영역 및 실제 영역 사이의 차이를 사용하여, 원본 검출 모델의 제1 손실값을 결정하는 단계는, 태깅되지 않은 기관 및 태깅된 기관의 제1 예측 영역 및 실제 영역 사이의 차이를 사용하여, 원본 검출 모델의 제1 손실값을 결정하는 단계를 포함하며; 제1 예측 영역 및 제2 예측 영역 사이의 차이를 사용하여, 원본 검출 모델의 제2 손실값을 결정하는 단계는, 태깅되지 않은 기관의 제1 예측 영역 및 대응되는 제2 예측 영역 사이의 차이를 사용하여, 원본 검출 모델의 제2 손실값을 결정하는 단계를 포함한다.Here, the sample medical image further includes an actual area of the tagged organ, the first detection result further includes a first predicted area of the tagged organ, and the second detection result further includes a second predicted area of the tagged organ included; Using the difference between the first predicted region and the real region, determining a first loss value of the original detection model includes: using the difference between the first predicted region and the real region of the untagged and tagged organs , determining a first loss value of the original detection model; Using the difference between the first prediction region and the second prediction region, determining the second loss value of the original detection model may include: determining the difference between the first prediction region and the corresponding second prediction region of the untagged organ. using, determining a second loss value of the original detection model.

따라서, 샘플 의학 영상에서 태깅된 기관의 실제 영역을 설정하고, 제1 검출 결과에는 태깅된 기관의 제1 예측 영역이 더 포함되며, 제2 검출 결과에는 태깅된 기관의 제2 예측 영역이 더 포함되고, 원본 검출 모델의 제1 손실값을 결정하는 과정에 있어서, 제1 예측 영역 및 실제 영역 사이의 차이를 종합적으로 고려하며, 원본 검출 모델의 제2 손실값을 결정하는 과정에 있어서, 태깅되지 않은 기관의 제1 예측 영역 및 대응되는 제2 예측 영역 사이의 차이만 고려함으로써, 원본 검출 모델 및 이미지 검출 모델 일치성 제한의 로버스트를 향상시킬 수 있고, 따라서 이미지 검출 모델의 정확성을 향상시킬 수 있다.Accordingly, an actual area of a tagged organ is set in the sample medical image, a first prediction area of the tagged organ is further included in the first detection result, and a second prediction area of the tagged organ is further included in the second detection result In the process of determining the first loss value of the original detection model, the difference between the first prediction region and the actual region is comprehensively considered, and in the process of determining the second loss value of the original detection model, the tag is not By only considering the difference between the first prediction region and the corresponding second prediction region of the non-organic organ, it is possible to improve the robustness of the original detection model and the image detection model concordance constraint, and thus improve the accuracy of the image detection model. have.

여기서, 제1 예측 영역과 실제 영역, 제2 예측 영역 사이의 차이를 사용하여, 원본 검출 모델의 네트워크 파라미터를 조절한 다음, 이번 훈련 및 이전 복수 번의 훈련에서 조절된 네트워크 파라미터를 사용하여, 이미지 검출 모델의 네트워크 파라미터에 대해 업데이트를 수행하는 단계를 더 포함한다.Here, by using the difference between the first prediction region, the real region, and the second prediction region, the network parameters of the original detection model are adjusted, and then, using the network parameters adjusted in this training and the previous plurality of trainings, image detection is performed. The method further includes performing an update on the network parameters of the model.

따라서, 원본 검출 모델이 이번 훈련 및 이전 복수 번의 훈련에서 조절된 네트워크 파라미터를 사용하여, 이미지 검출 모델의 네트워크 파라미터에 대해 업데이트를 수행하는 것을 통해, 네트워크 파라미터가 여러 차례 훈련 과정에서 슈도 태깅된 실제 영역에 의해 생성된 누적 오차를 추가로 제한하여, 이미지 검출 모델의 정확성을 향상시킬 수 있다.Therefore, the original detection model uses the network parameters adjusted in this training and the previous plurality of trainings to update the network parameters of the image detection model, so that the network parameters are pseudo-tagged in the training process several times. By further limiting the cumulative error generated by , it is possible to improve the accuracy of the image detection model.

여기서, 이번 훈련 및 이전 복수 번의 훈련에서 조절된 네트워크 파라미터를 사용하여, 이미지 검출 모델의 네트워크 파라미터에 대해 업데이트를 수행하는 단계는, 원본 검출 모델이 이번 훈련 및 이전 복수 번의 훈련에서 조절된 네트워크 파라미터의 평균값을 통계하는 단계; 및 이미지 검출 모델의 네트워크 파라미터를 대응되는 원본 검출 모델의 네트워크 파라미터의 평균값으로 업데이트하는 단계를 포함한다.Here, the updating of the network parameters of the image detection model using the network parameters adjusted in this training and the previous plurality of trainings includes: stating the average value; and updating the network parameter of the image detection model to the average value of the network parameter of the corresponding original detection model.

따라서, 원본 검출 모델이 이번 훈련 및 이전 복수 번의 훈련에서 조절된 네트워크 파라미터의 평균값을 통계하고, 이미지 검출 모델의 네트워크 파라미터를 대응되는 원본 검출 모델의 네트워크 파라미터의 평균값으로 업데이트하는 것을 통해, 여러 차례 훈련 과정에서 생성된 누적 오차를 빠르게 제한하는데 유리하여, 이미지 검출 모델의 정확성을 향상시킬 수 있다.Therefore, the original detection model is trained several times by stating the average value of the network parameters adjusted in this training and the previous plurality of training, and updating the network parameter of the image detection model to the average value of the network parameter of the corresponding original detection model. It is advantageous for quickly limiting the accumulated error generated in the process, and thus the accuracy of the image detection model can be improved.

여기서, 샘플 의학 영상을 획득하는 단계는, 슈도 태깅될 의학 영상을 획득하는 단계 - 슈도 태깅될 의학 영상에는 적어도 하나의 태깅되지 않은 기관이 존재함 - ; 각 태깅되지 않은 기관과 대응되는 단일 기관 검출 모델을 각각 사용하여 슈도 태깅될 의학 영상에 대해 검출을 수행함으로써, 각 태깅되지 않은 기관의 기관 예측 영역을 얻는 단계; 및 태깅되지 않은 기관의 기관 예측 영역을 태깅되지 않은 기관의 실제 영역으로 슈도 태깅하고, 슈도 태깅된 슈도 태깅될 의학 영상을 샘플 의학 영상으로 사용하는 단계를 포함한다.Here, the acquiring a sample medical image includes: acquiring a medical image to be pseudo-tagged, wherein at least one untagged organ is present in the medical image to be pseudo-tagged; performing detection on a medical image to be pseudo-tagged using each untagged organ and a corresponding single organ detection model, respectively, to obtain an organ prediction region of each untagged organ; and pseudo-tagging an organ predicted region of an untagged organ as an actual region of an untagged organ, and using the pseudo-tagged pseudo-tagged medical image as a sample medical image.

따라서, 적어도 하나의 태깅되지 않은 기관이 존재하는 슈도 태깅될 의학 영상을 획득하고, 각 태깅되지 않은 기관과 대응되는 단일 기관 검출 모델을 각각 사용하여 슈도 태깅될 의학 영상에 대해 검출을 수행함으로써, 각 태깅되지 않은 기관의 기관 예측 영역을 얻으며, 태깅되지 않은 기관의 기관 예측 영역을 태깅되지 않은 기관의 실제 영역으로 슈도 태깅 하여, 슈도 태깅된 슈도 태깅될 의학 영상을 샘플 의학 영상으로 사용하는 것을 통해, 단일 기관 검출 모델을 사용하여 인공적으로 다중 기관에 대해 태깅을 수행하는 작업량을 피할 수 있음으로써, 다중 기관 검출을 위한 이미지 검출 모델을 훈련하는 인건 비용을 낮추는데 유리하고, 훈련의 효율을 높일 수 있다.Thus, by acquiring a medical image to be pseudo-tagged in which at least one untagged organ exists, and performing detection on the medical image to be pseudo-tagged using each untagged organ and a corresponding single organ detection model, respectively, each Obtaining an organ predicted area of an untagged organ, pseudo-tagging the organ predicted area of an untagged organ with an actual area of an untagged organ, and using pseudo-tagged medical images to be pseudo-tagged as sample medical images, By using a single organ detection model to avoid the workload of artificially performing multi-organ tagging, it is advantageous to lower the labor cost of training an image detection model for multi-organ detection and to increase the training efficiency.

여기서, 슈도 태깅될 의학 영상에는 적어도 하나의 태깅된 기관이 포함되고; 각 태깅되지 않은 기관과 대응되는 단일 기관 검출 모델을 각각 사용하여 슈도 태깅될 의학 영상에 대해 검출을 수행하기 전에, 상기 이미지 검출 방법은, 슈도 태깅될 의학 영상을 사용하여, 슈도 태깅될 의학 영상에서의 태깅된 기관에 대응되는 단일 기관 검출 모델에 대해 훈련을 수행하는 단계를 더 포함한다.Here, the medical image to be pseudo-tagged includes at least one tagged organ; Before performing detection on a medical image to be pseudo-tagged using each untagged organ and a corresponding single-organ detection model, respectively, the image detection method includes: using the medical image to be pseudo-tagged, The method further includes performing training on a single organ detection model corresponding to the tagged organ of .

따라서, 슈도 태깅될 의학 영상에는 적어도 하나의 태깅된 기관이 포함되고, 슈도 태깅될 의학 영상을 사용하여 슈도 태깅될 의학 영상에서의 태깅된 기관에 대응되는 단일 기관 검출 모델에 대해 훈련을 수행하여, 단일 기관 검출 모델의 정확성을 향상시킬 수 있음으로써, 후속적인 슈도 태깅의 정확성을 향상시키는데 유리할 수 있으며, 후속적으로 이미지 검출 모델을 훈련시키는 정확성을 향상시키는데 유리할 수 있다.Accordingly, the medical image to be pseudo-tagged includes at least one tagged organ, and by using the pseudo-tagged medical image to perform training on a single organ detection model corresponding to the tagged organ in the medical image to be pseudo-tagged, By being able to improve the accuracy of a single organ detection model, it may be advantageous to improve the accuracy of subsequent pseudo-tagging, and may be advantageous to subsequently improve the accuracy of training an image detection model.

여기서, 슈도 태깅될 의학 영상을 획득하는 단계는, 3차원 의학 영상을 획득하고, 3차원 의학 영상에 대해 사전 처리를 수행하는 단계; 및 사전 처리된 3차원 의학 영상을 크롭 처리하여, 적어도 하나의 2차원의 슈도 태깅될 의학 영상을 얻는 단계를 포함한다.Here, the acquiring a medical image to be pseudo-tagged may include: acquiring a 3D medical image and performing pre-processing on the 3D medical image; and cropping the pre-processed 3D medical image to obtain at least one 2D pseudo-tagged medical image.

따라서, 3차원 의학 영상을 획득하고, 3차원 의학 영상에 대해 사전 처리를 수행함으로써, 사전 처리된 3차원 의학 영상에 대해 크롭 처리하여, 적어도 하나의 2차원의 슈도 태깅될 의학 영상을 얻는 것을 통해, 모델 훈련을 만족시키는 의학 영상을 얻는데 유리할 수 있음으로써, 후속적인 이미지 검출 모델 훈련의 정확성을 향상시키는데 유리할 수 있다.Therefore, by obtaining a 3D medical image, performing pre-processing on the 3D medical image, and cropping the pre-processed 3D medical image, through obtaining at least one 2D pseudo-tagged medical image , which may be advantageous in obtaining a medical image satisfying model training, thereby improving the accuracy of subsequent image detection model training.

여기서, 3차원 의학 영상에 대해 사전 처리를 수행하는 단계는, 3차원 의학 영상의 복셀 해상도를 기설정 해상도로 조절하는 단계; 기설정 창값을 사용하여 3차원 의학 영상의 복셀 값을 기설정 범위 내로 정규화하는 단계; 및 3차원 의학 영상의 적어도 부분적 복셀에 가우시안 노이즈를 추가하는 단계 중 적어도 하나를 포함한다.Here, the pre-processing of the 3D medical image may include adjusting a voxel resolution of the 3D medical image to a preset resolution; normalizing the voxel value of the 3D medical image within a preset range using a preset window value; and adding Gaussian noise to at least partial voxels of the 3D medical image.

따라서, 3차원 의학 영상의 복셀 해상도를 기설정 해상도로 조절하는 단계는, 후속적인 모델 예측 처리에 유리할 수 있고; 기설정 창값을 사용하여 3차원 의학 영상의 복셀 값을 기설정 범위 내로 정규화하는 단계는, 모델이 정확한 특징을 추출하는데 유리할 수 있으며; 3차원 의학 영상의 적어도 부분적 복셀에 가우시안 노이즈를 추가하는 단계는, 데이터 증강을 구현하여, 데이터 다양성을 향상시키며, 후속적인 모델 훈련의 정확성을 향상시키는데 유리할 수 있다.Therefore, adjusting the voxel resolution of the 3D medical image to the preset resolution may be advantageous for subsequent model prediction processing; Normalizing the voxel value of the 3D medical image within the preset range using the preset window value may be advantageous for the model to extract accurate features; The step of adding Gaussian noise to at least partial voxels of the 3D medical image may be advantageous for implementing data augmentation, improving data diversity, and improving accuracy of subsequent model training.

제2 측면에 있어서, 본 발명의 실시예는 이미지 검출 방법을 제공하고, 상기 이미지 검출 방법은, 검출될 의학 영상을 획득하는 단계 - 검출될 의학 영상에는 복수 개 기관이 포함됨 - ; 및 이미지 검출 모델을 사용하여 검출될 의학 영상에 대해 검출을 수행하여, 복수 개 기관의 예측 영역을 얻는 단계 - 이미지 검출 모델은 상기 제1 측면에서의 이미지 검출 모델의 훈련 방법을 사용하여 훈련하여 얻은 것임 - 를 포함한다.In a second aspect, an embodiment of the present invention provides an image detection method, comprising: obtaining a medical image to be detected, the medical image to be detected including a plurality of organs; and performing detection on the medical image to be detected using the image detection model to obtain prediction regions of a plurality of organs, wherein the image detection model is obtained by training using the training method of the image detection model in the first aspect. is - includes

따라서, 상기 제1 측면에서 훈련하여 얻은 이미지 검출 모델을 사용하여 검출될 의학 영상에 대해 검출을 수행하여, 복수 개 기관의 예측 영역을 얻고, 다중 기관 검출의 과정에 있어서, 검출 정확성을 향상시킬 수 있다.Therefore, by performing detection on the medical image to be detected using the image detection model obtained by training in the first aspect, the prediction area of a plurality of organs is obtained, and in the process of multi-organ detection, the detection accuracy can be improved have.

제3 측면에 있어서, 본 발명의 실시예는 이미지 검출 모델의 훈련 장치를 제공하고, 상기 이미지 검출 모델의 훈련 장치는, 샘플 의학 영상을 획득하도록 구성된 이미지 획득 모듈 - 샘플 의학 영상에는 적어도 하나의 태깅되지 않은 기관의 실제 영역이 슈도 태깅됨 - ; 원본 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 제1 검출 결과를 얻도록 구성된 제1 검출 모듈 - 제1 검출 결과에는 태깅되지 않은 기관의 제1 예측 영역이 포함됨 - ; 이미지 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 제2 검출 결과를 얻도록 구성된 제2 검출 모듈 - 제2 검출 결과에는 태깅되지 않은 기관의 제2 예측 영역이 포함되고, 이미지 검출 모델의 네트워크 파라미터는 원본 검출 모델의 네트워크 파라미터에 기반하여 결정된 것임 - ; 및 제1 예측 영역과 실제 영역, 제2 예측 영역 사이의 차이를 사용하여, 원본 검출 모델의 네트워크 파라미터를 조절하도록 구성된 파라미터 조절 모듈을 포함한다.In a third aspect, an embodiment of the present invention provides an apparatus for training an image detection model, wherein the apparatus for training an image detection model includes: an image acquisition module configured to acquire a sample medical image, the sample medical image is tagged with at least one Pseudo-tagged real areas of organs that are not - ; a first detection module, configured to obtain a first detection result by performing detection on the sample medical image by using the original detection model, wherein the first detection result includes a first predicted region of an untagged organ; a second detection module, configured to obtain a second detection result by performing detection on the sample medical image using the image detection model, the second detection result comprising a second prediction region of an untagged organ; The network parameters are determined based on the network parameters of the original detection model; and a parameter adjustment module, configured to adjust a network parameter of the original detection model by using the difference between the first prediction region, the real region, and the second prediction region.

제4 측면에 있어서, 본 발명의 실시예는 이미지 검출 장치를 제공하고, 상기 이미지 검출 장치는, 검출될 의학 영상을 획득하도록 구성된 이미지 획득 모듈 - 검출될 의학 영상에는 복수 개 기관이 포함됨 - ; 및 이미지 검출 모델을 사용하여 검출될 의학 영상에 대해 검출을 수행하여, 복수 개 기관의 예측 영역을 얻도록 구성된 이미지 검출 모듈 - 이미지 검출 모델은 상기 제2 측면에서의 이미지 검출 모델의 훈련 장치를 사용하여 훈련하여 얻은 것임 - 을 포함한다.In a fourth aspect, an embodiment of the present invention provides an image detection device, comprising: an image acquisition module configured to acquire a medical image to be detected, wherein the medical image to be detected includes a plurality of organs; and an image detection module, configured to perform detection on a medical image to be detected using the image detection model to obtain prediction regions of a plurality of organs, the image detection model using the training device of the image detection model in the second aspect It is obtained through training - including.

제5 측면에 있어서, 본 발명의 실시예는 상호 커플링된 메모리 및 프로세서가 포함되는 전자 기기를 제공하고, 프로세서는 메모리에 저장된 프로그램 명령어를 실행함으로써, 상기 제1 측면에서의 이미지 검출 모델의 훈련 방법을 구현하거나, 상기 제2 측면에서의 이미지 검출 방법을 구현하도록 구성된다.In a fifth aspect, an embodiment of the present invention provides an electronic device including a mutually coupled memory and a processor, wherein the processor executes program instructions stored in the memory, thereby training the image detection model in the first aspect to implement the method, or to implement the image detection method in the second aspect.

제6 측면에 있어서, 본 발명의 실시예는 프로그램 명령어가 저장된 컴퓨터 판독 가능 저장 매체를 제공하고, 프로그램 명령어가 프로세서에 의해 실행될 때 상기 제1 측면에서의 이미지 검출 모델의 훈련 방법을 구현하거나, 상기 제2 측면에서의 이미지 검출 방법을 구현한다.In a sixth aspect, an embodiment of the present invention provides a computer readable storage medium having program instructions stored thereon, and when the program instructions are executed by a processor, implement the method for training an image detection model in the first aspect, or The image detection method in the second aspect is implemented.

제7 측면에 있어서, 본 발명의 실시예는 컴퓨터 판독 가능 코드를 포함하는 컴퓨터 프로그램을 더 제공하고, 상기 컴퓨터 판독 가능 코드가 전자 기기에서 작동될 때, 상기 전자 기기에서의 프로세서는 상기 제1 측면에서의 이미지 검출 모델의 훈련 방법을 구현하거나, 상기 제2 측면에서의 이미지 검출 방법과 같은 방법을 실행한다.In a seventh aspect, an embodiment of the present invention further provides a computer program comprising computer readable code, wherein when the computer readable code is run in an electronic device, the processor in the electronic device is configured to: Implement the training method of the image detection model in , or execute the same method as the image detection method in the second aspect.

상기 방안은, 샘플 의학 영상을 획득하고, 샘플 의학 영상에 적어도 하나의 태깅되지 않은 기관의 실제 영역을 슈도 태깅하는 것을 통해, 샘플 의학 영상에서는 다중 기관에 대해 실제 태깅을 수행할 필요가 없음으로써, 원본 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 태깅되지 않은 기관이 포함된 제1 기설정 영역의 제1 검출 결과를 얻고, 이미지 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 태깅되지 않은 기관이 포함된 제2 예측 영역의 제2 검출 결과를 얻음으로써, 제1 예측 영역과 실제 영역, 제2 예측 영역 사이의 차이를 사용하여, 원본 검출 모델의 네트워크 파라미터를 조절하며, 이미지 검출 모델의 네트워크 파라미터는 원본 검출 모델의 네트워크 파라미터에 기반하여 결정된 것이고, 따라서 이미지 검출 모델로 하여금 원본 검출 모델의 훈련을 모니터링할 수 있도록 하며, 이로써 네트워크 파라미터가 여러 차례 훈련 과정에서 슈도 태깅된 실제 영역에 의해 생성된 누적 오차를 제한하여, 이미지 검출 모델의 정확성을 향상시킬 수 있음으로써, 이미지 검출 모델로 하여금 원본 검출 모델을 정확하게 모니터링하여 훈련을 수행할 수 있도록 하여, 원본 검출 모델로 하여금 훈련 과정에서 네트워크 파라미터를 정확하게 조절할 수 있도록 하여, 따라서, 다중 기관 검출의 과정에서, 이미지 검출 모델의 검출 정확성을 향상시킬 수 있다.The method comprises acquiring a sample medical image and pseudo-tagging the real area of at least one untagged organ in the sample medical image, thereby eliminating the need to perform actual tagging for multiple organs in the sample medical image, By performing detection on a sample medical image using the original detection model to obtain a first detection result of a first preset region including an untagged organ, and performing detection on a sample medical image using the image detection model By obtaining the second detection result of the second prediction region including the untagged organ, the difference between the first prediction region, the real region, and the second prediction region is used to adjust the network parameters of the original detection model, the image The network parameters of the detection model are determined based on the network parameters of the original detection model, thus allowing the image detection model to monitor the training of the original detection model, whereby the network parameters are pseudo-tagged in the training process several times in the real area By limiting the cumulative error generated by It is possible to precisely adjust the network parameters, thus improving the detection accuracy of the image detection model in the process of multi-organ detection.

도 1은 본 발명의 실시예에서 제공하는 이미지 검출 모델의 훈련 방법의 일 실시예의 흐름 예시도이다.
도 2는 도 1 중 단계 S11의 일 실시예의 흐름 예시도이다.
도 3은 본 발명의 실시예에서 제공하는 이미지 검출 모델의 훈련 방법의 다른 실시예의 흐름 예시도이다.
도 4는 본 발명의 실시예에서 제공하는 이미지 검출 모델의 훈련 과정의 일 실시예의 예시도이다.
도 5는 본 발명의 실시예에서 제공하는 이미지 검출 방법의 일 실시예의 흐름 예시도이다.
도 6은 본 발명의 실시예에서 제공하는 이미지 검출 모델의 훈련 장치의 일 실시예의 프레임 예시도이다.
도 7은 본 발명의 실시예에서 제공하는 이미지 검출 장치의 일 실시예의 프레임 예시도이다.
도 8은 본 발명의 실시예에서 제공하는 전자 기기의 일 실시예의 프레임 예시도이다.
도 9는 본 발명의 실시예에서 제공하는 컴퓨터 판독 가능 저장 매체의 일 실시예의 프레임 예시도이다.
1 is a flowchart illustrating an embodiment of a method for training an image detection model provided in an embodiment of the present invention.
FIG. 2 is a flowchart illustrating an embodiment of step S11 in FIG. 1 .
3 is a flowchart illustrating another embodiment of a method for training an image detection model provided in an embodiment of the present invention.
4 is an exemplary diagram of an embodiment of a training process for an image detection model provided in an embodiment of the present invention.
5 is a flowchart illustrating an embodiment of an image detection method provided in an embodiment of the present invention.
6 is a frame diagram of an embodiment of the apparatus for training an image detection model provided in an embodiment of the present invention.
7 is a frame diagram of an embodiment of the image detection apparatus provided in the embodiment of the present invention.
8 is a frame diagram illustrating an embodiment of an electronic device provided in an embodiment of the present invention.
9 is a frame diagram of an embodiment of a computer-readable storage medium provided by an embodiment of the present invention.

아래에 명세서 도면을 결합하여, 본 발명의 실시예의 방안에 대해 상세하게 설명한다.In conjunction with the drawings of the specification below, the method of the embodiment of the present invention will be described in detail.

아래의 설명에서, 설명을 위한 것이지 한정하려는 것은 아니며, 특정된 시스템 구조, 인터페이스, 기술과 같은 세부 사항은 본 발명의 실시예를 완전히 이해하기 위해 제공된다.In the following description, for purposes of explanation and not limitation, details such as specific system structures, interfaces, and techniques are provided in order to fully understand the embodiments of the present invention.

본 명세서에서 용어“시스템” 및 “네트워크”는 본 명세서에서 자주 호환되어 사용될 수 있다. 본 명세서에서 용어 “및/또는”은 다만 관련 대상의 관련 관계를 설명하는 것이고, 세 가지 관계가 존재할 수 있음을 나타내며, 예를 들어, A 및/또는 B는, A가 단독적으로 존재, A 및 B가 동시에 존재, B가 단독적으로 존재하는 세 가지 상황을 나타낼 수 있다. 또한, 본 명세서에서 문자 부호 “/”는 일반적으로 앞뒤 관련 대상이 “또는” 관계임을 나타낸다. 이 밖에, 본 명세서에서의 “복수”는 두 개 또는 두 개 이상을 나타낸다.In this specification, the terms “system” and “network” are frequently used interchangeably herein. As used herein, the term “and/or” merely describes a related relationship of a related subject, and indicates that three relationships may exist, for example, A and/or B means that A exists solely, A and There are three situations in which B exists simultaneously and B exists alone. In addition, in this specification, the character symbol “/” generally indicates that the preceding and following related objects are “or”. In addition, “plurality” in this specification refers to two or more than two.

도 1을 참조하면, 도 1은 본 발명의 실시예에서 제공하는 이미지 검출 모델의 훈련 방법의 일 실시예의 흐름 예시도이다. 여기서, 하기와 같은 단계를 포함할 수 있다.Referring to FIG. 1 , FIG. 1 is a flowchart illustrating an example of a method for training an image detection model provided in an embodiment of the present invention. Here, it may include the following steps.

단계 S11에 있어서, 샘플 의학 영상 - 샘플 의학 영상에는 적어도 하나의 태깅되지 않은 기관의 실제 영역이 슈도 태깅됨 - 을 획득한다.In step S11, a sample medical image, in which at least one untagged real region of an organ is pseudo-tagged, is acquired.

샘플 의학 영상에는 CT 영상, MR 영상이 포함될 수 있고, 여기서 한정하지 않는다. 가능한 실시 시나리오에 있어서, 샘플 의학 영상은 복부, 가슴, 머리 등 부위에 대해 스캔을 수행하여 얻은 것일 수 있고, 실제 응용 상황에 따라 설정될 수 있으며, 여기서 한정하지 않는다. 예를 들어, 복부에 대해 스캔을 수행하면, 샘플 의학 영상에서의 기관에는, 신장, 비장, 간, 췌장 등이 포함될 수 있고, 가슴에 대해 스캔을 수행하면, 샘플 의학 영상에서의 기관에는, 심장, 폐엽, 갑상선 등이 포함될 수 있으며, 머리에 대해 스캔을 수행하면, 샘플 의학 영상에서의 기관에는, 뇌간, 소뇌, 간뇌, 단뇌 등이 포함될 수 있다.Sample medical images may include, but are not limited to, CT images and MR images. In a possible implementation scenario, the sample medical image may be obtained by performing a scan on the abdomen, chest, head, etc., and may be set according to an actual application situation, but is not limited thereto. For example, when a scan is performed on the abdomen, organs in the sample medical image may include a kidney, spleen, liver, pancreas, etc., and when a scan is performed on the chest, organs in the sample medical image include a heart , lung lobe, thyroid gland, etc. may be included, and when a scan is performed on the head, organs in the sample medical image may include brain stem, cerebellum, diencephalon, cerebellum, and the like.

가능한 실시 시나리오에 있어서, 태깅되지 않은 기관의 실제 영역은 태깅되지 않은 기관과 대응되는 단일 기관 검출 모델을 사용하여 검출하여 얻을 것일 수 있고, 예를 들어, 샘플 의학 영상은 복부를 스캔하여 얻은 것이면, 여기서 태깅되지 않은 기관에는, 신장, 비장, 간, 췌장에서의 적어도 하나가 포함될 수 있으며, 신장과 대응되는 단일 기관 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행하여, 신장과 대응되는 기관 예측 영역을 얻을 수 있고, 비장과 대응되는 단일 기관 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행하여, 비장과 대응되는 기관 예측 영역을 얻을 수 있으며, 간과 대응되는 단일 기관 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행하여, 간과 대응되는 기관 예측 영역을 얻을 수 있고, 췌장과 대응되는 단일 기관 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행하여, 췌장과 대응되는 기관 예측 영역을 얻음으로써, 샘플 의학 영상에서 신장, 비장, 간, 췌장과 각각 대응되는 기관 예측 영역을 슈도 태깅 하여, 태깅되지 않은 기관 신장, 비장, 간 및 췌장이 슈도 태깅된 실제 영역을 얻으며, 본 발명의 실시예에서, 슈도 태깅은 단일 기관 검출 모델에 의해 검출된 태깅되지 않은 기관의 기관 예측 영역을 실제 영역으로 사용하는 과정을 의미한다. 태깅되지 않은 기관은 다른 기관인 경우, 이렇게 유추할 수 있고, 여기서 더 이상 일일이 예를 들지 않는다. 가능한 실시 시나리오에 있어서, 태깅되지 않은 기관의 단일 기관 검출 모델은 태깅되지 않은 기관의 실제 영역이 태깅된 단일 기관 데이터 세트를 사용하여 훈련하여 얻은 것이고, 예를 들어, 신장과 대응되는 단일 기관 검출 모델은 신장의 실제 영역이 태깅된 신장 데이터 세트를 사용하여 훈련하여 얻은 것이며, 비장과 대응되는 단일 기관 검출 모델은 비장의 실제 영역이 태깅된 비장 데이터 세트를 사용하여 훈련하여 얻은 것이고, 이렇게 유추하여, 여기서 더 이상 일일이 예를 들지 않는다.In a possible implementation scenario, the actual area of an untagged organ may be obtained by detection using a single organ detection model corresponding to the untagged organ, for example, if the sample medical image is obtained by scanning the abdomen, Here, the untagged organs may include at least one of kidney, spleen, liver, and pancreas, and by performing detection on a sample medical image using a single organ detection model corresponding to the kidney, predicting an organ corresponding to the kidney region can be obtained, and detection is performed on the sample medical image using a single organ detection model corresponding to the spleen, to obtain an organ predicted region corresponding to the spleen, and a single organ detection model corresponding to the liver can be used to obtain the sample Detection is performed on the medical image to obtain an organ prediction region corresponding to the liver, and detection is performed on the sample medical image using a single organ detection model corresponding to the pancreas to obtain an organ prediction region corresponding to the pancreas Thus, in the sample medical image, the predicted regions corresponding to the kidney, spleen, liver, and pancreas are pseudo-tagged to obtain actual regions in which untagged organs kidney, spleen, liver, and pancreas are pseudo-tagged, an embodiment of the present invention In , pseudo tagging refers to the process of using the organ prediction region of an untagged organ detected by a single organ detection model as an actual region. If the untagged organization is another organization, this can be inferred, and I will not give any more examples here. In a possible implementation scenario, a single organ detection model of untagged organs is obtained by training using a single organ data set in which real regions of untagged organs are tagged, e.g., a single organ detection model corresponding to a kidney. is obtained by training using a spleen data set in which real regions of the kidney are tagged, and the single organ detection model corresponding to the spleen is obtained by training using a spleen data set in which real regions of the spleen are tagged, and by inferring in this way, No more examples here.

단계 S12에 있어서, 원본 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 제1 검출 결과 - 제1 검출 결과에는 태깅되지 않은 기관의 제1 예측 영역이 포함됨 - 를 얻는다.In step S12, detection is performed on the sample medical image using the original detection model to obtain a first detection result, wherein the first detection result includes a first predicted region of an untagged organ.

원본 검출 모델에는 Mask R-CNN(Mask Region with Convolutional Neural Network), 완전 컨볼루션 네트워크(Fully Convolutional Network, FCN), 피라미드 장면 파싱 네트워크(Pyramid Scene Parsing Network, PSP-net) 중 어느 하나가 포함될 수 있고, 이 밖에, 원본 검출 모델은 set-net, U-net 등일 수도 있으며, 실제 상황에 따라 설정될 수 있고, 여기서 한정하지 않는다.The original detection model may include any one of Mask Region with Convolutional Neural Network (R-CNN), Fully Convolutional Network (FCN), and Pyramid Scene Parsing Network (PSP-net). , in addition, the original detection model may be set-net, U-net, etc., and may be set according to an actual situation, but is not limited thereto.

원본 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행하여, 태깅되지 않은 기관의 제1 예측 영역이 포함된 제1 검출 결과를 얻을 수 있다. 예를 들어, 샘플 의학 영상은 복부에 대해 스캔하여 얻은 영상이면, 태깅되지 않은 기관에는 신장, 비장, 췌장이 포함되고, 따라서 원본 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행하여, 신장의 제1 예측 영역, 비장의 제1 예측 영역, 췌장의 제1 예측 영역을 얻을 수 있으며, 다른 시나리오는 이렇게 유추할 수 있고, 여기서 더 이상 일일이 예를 들지 않는다.A first detection result including a first prediction region of an untagged organ may be obtained by performing detection on the sample medical image using the original detection model. For example, if the sample medical image is an image obtained by scanning the abdomen, the untagged organs include the kidney, spleen, and pancreas, so detection is performed on the sample medical image using the original detection model, A first prediction region, a first prediction region of the spleen, and a first prediction region of the pancreas can be obtained, and other scenarios can be inferred in this way, and examples are not given one by one here.

단계 S13에 있어서, 이미지 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 제2 검출 결과 - 제2 검출 결과에는 태깅되지 않은 기관의 제2 예측 영역이 포함됨 - 를 얻는다.In step S13, detection is performed on the sample medical image using the image detection model to obtain a second detection result, wherein the second detection result includes a second prediction region of an untagged organ.

원본 검출 모델의 네트워크 구조와 원본 검출 모델에 대응되는 이미지 검출 모델의 네트워크 구조는 동일할 수 있다. 예를 들어, 원본 검출 모델은 Mask R-CNN인 경우 대응되는 이미지 검출 모델도 Mask R-CNN 일 수 있거나; 원본 검출 모델은 FCN인 경우 대응되는 이미지 검출 모델도 FCN 일 수 있거나; 원본 검출 모델은 PSP-net인 경우 대응되는 이미지 검출 모델도 PSP-net 일 수 있고; 원본 검출 모델은 다른 네트워크인 경우, 이렇게 유추할 수 있고, 여기서 더 이상 일일이 예를 들지 않는다.The network structure of the original detection model and the network structure of the image detection model corresponding to the original detection model may be the same. For example, if the original detection model is Mask R-CNN, the corresponding image detection model may also be Mask R-CNN; If the original detection model is FCN, the corresponding image detection model may also be FCN; When the original detection model is PSP-net, the corresponding image detection model may also be PSP-net; If the original detection model is another network, it can be inferred in this way, and examples are no longer given here.

이미지 검출 모델의 네트워크 파라미터는 원본 검출 모델의 네트워크 파라미터에 기반하여 결정된 것일 수 있고, 예를 들어, 이미지 검출 모델의 네트워크 파라미터는 원본 검출 모델이 여러 차례 훈련 과정에서 조절된 네트워크 파라미터에 기반하여 얻은 것일 수 있다. 예를 들어, k 번째 훈련의 과정에 있어서, 이미지 검출 모델의 네트워크 파라미터는 원본 검출 모델이 k-n 번째 내지 k-1 번째 훈련 과정에서 조절된 네트워크 파라미터를 사용하여 얻을 것일 수 있거나; k+1 번째 훈련의 과정에 있어서, 이미지 검출 모델의 네트워크 파라미터는 원본 검출 모델이 k+1-n 번째 내지 k 번째 훈련 과정에서 조절된 네트워크 파라미터를 사용하여 얻을 것일 수 있고, 이렇게 유추하여, 여기서 더 이상 일일이 예를 들지 않는다. 여기서, 상기 여러 차례 훈련의 횟수(즉 n)는 실제 상황에 따라 설정될 수 있고, 예를 들어 5, 10, 15 등으로 설정될 수 있으며, 여기서 한정하지 않는다.The network parameters of the image detection model may be determined based on the network parameters of the original detection model. For example, the network parameters of the image detection model may be obtained based on the network parameters adjusted in the training process of the original detection model several times. can For example, in the course of k-th training, the network parameters of the image detection model may be obtained by using the network parameters the original detection model is adjusted in the k-n-th to k-1-th training process; In the course of k+1th training, the network parameters of the image detection model may be obtained by using the network parameters adjusted in the k+1-nth to kth training courses of the original detection model, and by analogy in this way, where I no longer give examples one by one. Here, the number of times of training (ie, n) may be set according to an actual situation, for example, may be set to 5, 10, 15, etc., but is not limited thereto.

이미지 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행하여, 태깅되지 않은 기관이 포함된 제2 예측 영역의 제2 검출 결과를 얻을 수 있다. 여전히 샘플 의학 영상은 복부에 대해 스캔하여 얻은 영상인 것을 예로 들어, 태깅되지 않은 기관에는 신장, 비장, 췌장이 포함되고, 따라서 이미지 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행하여, 신장의 제2 예측 영역, 비장의 제2 예측 영역, 췌장의 제2 예측 영역을 얻을 수 있으며, 다른 시나리오는 이렇게 유추할 수 있고, 여기서 더 이상 일일이 예를 들지 않는다.Detection may be performed on the sample medical image using the image detection model to obtain a second detection result of a second prediction region including an untagged organ. Still, the sample medical image is an image obtained by scanning the abdomen, for example, the untagged organs include the kidney, spleen, and pancreas, so detection is performed on the sample medical image using the image detection model, A second prediction region, a second prediction region of the spleen, and a second prediction region of the pancreas can be obtained, and other scenarios can be inferred in this way, and examples are not given one by one here.

가능한 실시 시나리오에 있어서, 상기 단계 S12 및 단계 S13은 선후 순서에 따라 실행될 수 있고, 예를 들어, 먼저 단계 S12를 실행한 다음, 단계 S13을 실행하거나; 먼저 단계 S13을 실행한 다음, 단계 S12를 실행한다. 다른 가능한 실시 시나리오에 있어서, 상기 단계 S12 및 단계 S13은 동시에 실행될 수도 있고, 실제 응용에 따라 설정될 수 있으며, 여기서 한정하지 않는다.In a possible implementation scenario, the steps S12 and S13 may be executed in sequential order, for example, first executing step S12 and then executing step S13; First, step S13 is executed, and then step S12 is executed. In another possible implementation scenario, the steps S12 and S13 may be executed at the same time, and may be set according to an actual application, without limitation.

단계 S14에 있어서, 제1 예측 영역과 실제 영역, 제2 예측 영역 사이의 차이를 사용하여, 원본 검출 모델의 네트워크 파라미터를 조절한다.In step S14, the network parameter of the original detection model is adjusted using the difference between the first prediction region, the real region, and the second prediction region.

여기서, 제1 예측 영역 및 실제 영역 사이의 차이를 사용하여, 원본 검출 모델의 제1 손실값을 결정할 수 있다. 예를 들어, 모델이 어려운 샘플에 대한 관심도를 향상시키기 위해, 초점 손실(focal loss) 함수를 사용하여 제1 예측 영역 및 실제 영역에 대해 처리를 수행하여, 초점 제1 손실값을 얻을 수 있거나, 모델로 하여금 슈도 태깅된 실제 영역을 피팅할 수 있도록, 집합 유사도 손실(dice loss) 함수를 사용하여 제1 예측 영역 및 실제 영역에 대해 처리를 수행하여, 집합 유사도 제1 손실값을 얻을 수도 있다.Here, the first loss value of the original detection model may be determined using the difference between the first prediction region and the real region. For example, in order to improve the interest in the sample for which the model is difficult, processing may be performed on the first prediction region and the real region using a focal loss function to obtain a focus first loss value, or In order for the model to fit the pseudo-tagged real region, processing may be performed on the first prediction region and the real region using a set similarity loss function to obtain a first set similarity loss value.

여기서, 제1 예측 영역 및 제2 예측 영역 사이의 차이를 사용하여, 원본 검출 모델의 제2 손실값을 결정할 수도 있다. 예를 들어, 원본 검출 모델 및 이미지 검출 모델 예측의 일치성을 향상시키기 위해, 일치성 손실 함수를 사용하여 제1 예측 영역 및 제2 예측 영역에 대해 처리를 수행하여, 제2 손실값을 얻을 수 있고, 가능한 실시 시나리오에 있어서, 일치성 손실 함수는 교차 엔트로피 손실 함수일 수 있으며, 실제 응용 상황에 따라 설정될 수 있고, 여기서 한정하지 않는다.Here, the second loss value of the original detection model may be determined by using the difference between the first prediction region and the second prediction region. For example, in order to improve the correspondence between the original detection model and the image detection model prediction, processing is performed on the first prediction region and the second prediction region using a loss function to obtain a second loss value. And, in a possible implementation scenario, the consistency loss function may be a cross-entropy loss function, and may be set according to an actual application situation, but is not limited thereto.

여기서, 상기 제1 손실값 및 제2 손실값을 사용하여 원본 검출 모델의 네트워크 파라미터를 조절할 수도 있다. 예를 들어, 각 손실값이 훈련 과정에서의 중요성을 균형시키기 위해, 제1 손실값 및 제2 손실값에 대해 가중 처리를 수행하여, 가중 손실값을 얻음으로써, 가중 손실값을 사용하여 원본 검출 모델의 네트워크 파라미터를 조절할 수 있다. 제1 손실값 및 제2 손실값에 대응되는 가중치는 실제 상황에 따라 설정될 수 있고, 예를 들어, 모두 0.5로 설정되거나; 제1 손실값에 대응되는 가중치는 0.6으로 설정되며, 제2 손실값에 대응되는 가중치는 0.4로 설정되고, 여기서 한정하지 않는다. 이 밖에, 제1 손실값에 초점 제1 손실값 및 집합 유사도 제1 손실값이 포함된 경우, 초점 제1 손실값, 집합 유사도 제1 손실값, 제2 손실값에 대해 가중 처리를 수행하여, 가중 손실값을 얻고, 가중 손실값을 사용하여 원본 검출 모델의 네트워크 파라미터를 조절할 수 있다. 가능한 실시 시나리오에 있어서, 확률적 경사 하강법(Stochastic Gradient Descent, SGD), 배치 경사하강법(Batch Gradient Descent, BGD), 미니 배치 경사하강법(Mini-Batch Gradient Descent, MBGD) 등 형태를 사용할 수 있고, 가중 손실값을 사용하여 원본 검출 모델의 네트워크 파라미터에 대해 조절하며, 여기서, 배치 경사하강법은 매번 반복되는 과정에 있어서, 모든 샘플을 사용하여 파라미터 업데이트를 수행하는 것을 의미하고; 확률적 경사 하강법은 매 번 반복되는 과정에 있어서, 하나의 샘플을 사용하여 파라미터 업데이트를 수행하는 것을 의미하며; 미니 배치 경사하강법은 매번 반복되는 과정에 있어서, 일괄 샘플을 사용하여 파라미터 업데이트를 수행하는 것을 의미하고, 여기서 더 이상 설명하지 않는다.Here, the network parameter of the original detection model may be adjusted using the first loss value and the second loss value. For example, in order to balance the importance of each loss value in the training process, weight processing is performed on the first loss value and the second loss value to obtain a weighted loss value, so that the weighted loss value is used to detect the original. You can adjust the network parameters of the model. Weights corresponding to the first loss value and the second loss value may be set according to an actual situation, for example, both are set to 0.5; The weight corresponding to the first loss value is set to 0.6, and the weight corresponding to the second loss value is set to 0.4, but the present invention is not limited thereto. In addition, when the first loss value includes the focus first loss value and the set similarity first loss value, weighting is performed on the focus first loss value, the set similarity first loss value, and the second loss value, A weighted loss value can be obtained, and the network parameter of the original detection model can be adjusted using the weighted loss value. In a possible implementation scenario, stochastic gradient descent (SGD), batch gradient descent (BGD), mini-batch gradient descent (MBGD), etc. can be used. and use the weight loss value to adjust the network parameters of the original detection model, where batch gradient descent means to perform parameter update using all samples in each iterative process; The stochastic gradient descent method means performing parameter update using one sample in each iteration; The mini-batch gradient descent method means performing parameter updates using batch samples in each iterative process, which is not further described herein.

실시 시나리오에 있어서, 샘플 의학 영상에는 태깅된 기관의 실제 영역이 더 포함될 수 있고, 제1 검출 결과에는 태깅된 기관의 제1 예측 영역이 더 포함될 수 있으며, 제2 검출 결과에는 태깅된 기관의 제2 예측 영역이 더 포함될 수 있다. 여전히 샘플 의학 영상은 복부에 대해 스캔하여 얻은 영상인 것을 예로 들어, 태깅되지 않은 기관에는 신장, 비장, 췌장이 포함되고, 태깅된 기관에는 간이 포함되며, 따라서 원본 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행하여, 태깅되지 않은 기관인 신장에 대응되는 제1 예측 영역, 태깅되지 않은 기관인 비장에 대응되는 제1 예측 영역, 태깅되지 않은 기관인 췌장에 대응되는 제1 예측 영역 및 태깅된 기관인 간에 대응되는 제1 예측 영역을 얻을 수 있고, 원본 검출 모델과 대응되는 이미지 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행하여, 태깅되지 않은 기관인 신장에 대응되는 제2 예측 영역, 태깅되지 않은 기관인 비장에 대응되는 제2 예측 영역, 태깅되지 않은 기관인 췌장에 대응되는 제2 예측 영역 및 태깅된 기관인 간에 대응되는 제2 예측 영역을 얻을 수 있다. 따라서, 태깅되지 않은 기관 및 태깅된 기관의 제1 예측 영역 및 실제 영역 사이의 차이를 사용하여, 원본 검출 모델의 제1 손실값을 결정할 수 있고, 태깅되지 않은 기관의 제1 예측 영역 및 대응되는 제2 예측 영역 사이의 차이를 사용하여, 원본 검출 모델의 제2 손실값을 결정할 수 있다. 여전히 샘플 의학 영상은 복부에 대해 스캔하여 얻은 영상인 것을 예로 들어, 태깅되지 않은 기관에는 신장, 비장, 췌장이 포함되고, 태깅된 기관에는 간이 포함되며, 태깅되지 않은 기관인 신장에 대응되는 제1 예측 영역 및 슈도 태깅된 실제 영역 사이의 차이, 태깅되지 않은 기관인 비장에 대응되는 제1 예측 영역 및 슈도 태깅된 실제 영역 사이의 차이, 태깅되지 않은 기관인 췌장에 대응되는 제1 예측 영역 및 슈도 태깅된 실제 영역 사이의 차이 및 태깅된 기관인 간에 대응되는 제1 예측 영역 및 실제 태깅된 실제 영역 사이의 차이를 사용하여, 원본 검출 모델의 제1 손실값을 결정할 수 있고, 제1 손실값은 초점 제1 손실값, 집합 유사도 제1 손실값에서의 적어도 하나를 포함할 수 있으며, 상기 단계를 참조할 수 있고, 여기서 더 이상 설명하지 않는다. 이 밖에, 태깅되지 않은 기관인 신장에 대응되는 제1 예측 영역 및 제2 예측 영역 사이의 차이, 태깅되지 않은 기관인 비장에 대응되는 제1 예측 영역 및 제2 예측 영역 사이의 차이, 태깅되지 않은 기관인 췌장에 대응되는 제1 예측 영역 및 제2 예측 영역 사이의 차이를 사용하여, 원본 검출 모델의 제2 손실값을 결정할 수도 있고, 제2 손실값은 크로스 엔트로피 손실 함수를 사용하여 계산할 수 있으며, 상기 단계를 참조할 수 있고, 여기서 더 이상 설명하지 않는다. 따라서, 원본 검출 모델의 제1 손실값을 결정하는 과정에 있어서, 제1 예측 영역 및 실제 영역 사이의 차이를 종합적으로 고려하고, 원본 검출 모델의 제2 손실값을 결정하는 과정에 있어서, 태깅되지 않은 기관의 제1 예측 영역 및 대응되는 제2 예측 영역 사이의 차이만 고려함으로써, 원본 검출 모델 및 이미지 검출 모델 일치성 제한의 로버스트를 향상시킬 수 있으며, 따라서 이미지 검출 모델의 정확성을 향상시킬 수 있다.In an implementation scenario, the sample medical image may further include an actual area of the tagged organ, the first detection result may further include a first predicted area of the tagged organ, and the second detection result may include a second area of the tagged organ. 2 prediction regions may be further included. Still, the sample medical image is an image obtained by scanning the abdomen, for example, the untagged organs include the kidney, spleen, and pancreas, and the tagged organs include the liver. The first prediction region corresponding to the untagged organ, the kidney, the first predicted region corresponding to the spleen, which is an untagged organ, the first predicted region corresponding to the pancreas, which is an untagged organ, and the tagged organ. A first prediction region that is a target can be obtained, and detection is performed on a sample medical image using an image detection model corresponding to the original detection model, and a second prediction region corresponding to the kidney, which is an untagged organ, and the spleen, which is an untagged organ. A second prediction region corresponding to , a second prediction region corresponding to the pancreas as an untagged organ, and a second prediction region corresponding to a tagged organ may be obtained. Therefore, using the difference between the first predicted region and the real region of the untagged organ and the tagged organ, it is possible to determine a first loss value of the original detection model, the first predicted region of the untagged organ and the corresponding The difference between the second prediction regions may be used to determine a second loss value of the original detection model. Still, the sample medical image is an image obtained by scanning the abdomen, for example, the untagged organs include the kidney, spleen, and pancreas, the tagged organs include the liver, and the first prediction corresponding to the untagged organ, the kidney The difference between the region and the pseudo-tagged real region, the difference between the pseudo-tagged real region and the first predicted region corresponding to the untagged organ, the spleen, the first predicted region, corresponding to the untagged organ, the pancreas, and the pseudo-tagged real Using the difference between the regions and the difference between the first predicted region and the actual tagged real region corresponding to the tagged organ, a first loss value of the original detection model may be determined, and the first loss value is the first loss of focus value, the set similarity may include at least one in the first loss value, and reference may be made to the above step, which is not further described herein. In addition, the difference between the first prediction region and the second prediction region corresponding to the kidney which is an untagged organ, the difference between the first prediction region and the second prediction region corresponding to the spleen which is an untagged organ, the pancreas as an untagged organ A second loss value of the original detection model may be determined using the difference between the first prediction region and the second prediction region corresponding to , which is not further described herein. Therefore, in the process of determining the first loss value of the original detection model, the difference between the first prediction region and the real region is comprehensively considered, and in the process of determining the second loss value of the original detection model, the tag is not By only considering the difference between the first prediction region and the corresponding second prediction region of the non-organic organ, it is possible to improve the robustness of the original detection model and the image detection model concordance limitation, thus improving the accuracy of the image detection model. have.

다른 실시 시나리오에 있어서, 원본 검출 모델의 네트워크 파라미터에 대해 조절을 수행한 다음, 이번 훈련 및 이전 복수 번의 훈련에서 조절된 네트워크 파라미터를 사용하여, 이미지 검출 모델의 네트워크 파라미터에 대해 업데이트를 수행함으로써, 네트워크 파라미터가 여러 차례 훈련 과정에서 슈도 태깅된 실제 영역에 의해 생성된 누적 오차를 추가로 제한하여, 이미지 검출 모델의 정확성을 향상시킬 수 있다. 이 밖에, 원본 검출 모델의 네트워크 파라미터에 대해 조절을 수행한 다음, 수요에 따라, 이미지 검출 모델의 네트워크 파라미터에 대해 업데이트를 수행하지 않을 수도 있고, 기설정된 수량 횟수(예를 들어, 2 회, 3 회 등) 훈련 후, 다시 이번 훈련 및 이전 복수 번의 훈련에서 조절된 네트워크 파라미터를 사용하여, 이미지 검출 모델의 네트워크 파라미터에 대해 업데이트를 수행할 수도 있으며, 여기서 한정하지 않는다. 예를 들어, k 번째 훈련의 과정에 있어서, 이미지 검출 모델의 네트워크 파라미터에 대해 업데이트를 수행하지 않을 수 있고, k+i 번째 훈련의 과정에 있어서, 원본 검출 모델을 사용하여 k+i-n 번째 내지 k+i 번째에서 훈련과정에서 이미지 검출 모델의 네트워크 파라미터를 조절할 수 있으며, 여기서, i는 실제 상황에 따라 1 보다 작지 않은 정수로 설정될 수 있으며, 예를 들어 1, 2, 3 등으로 설정될 수 있고, 여기서 한정하지 않는다.In another implementation scenario, the network parameters of the original detection model are adjusted, and then the network parameters of the image detection model are updated using the adjusted network parameters in this training and a plurality of previous trainings. The accuracy of the image detection model can be improved by further limiting the cumulative error generated by the pseudo-tagged real region in the training process with the parameter multiple times. In addition, after adjusting the network parameters of the original detection model, the update may not be performed on the network parameters of the image detection model according to the demand, and a preset number of times (eg, 2 times, 3 times) After training, the network parameters of the image detection model may be updated again using the network parameters adjusted in this training and the previous plurality of training, but the present invention is not limited thereto. For example, in the course of k-th training, an update may not be performed on the network parameters of the image detection model, and in the course of k+i-th training, k+in-th through k using the original detection model. In +i-th, the network parameters of the image detection model can be adjusted in the training process, where i may be set to an integer not less than 1 depending on the actual situation, for example, may be set to 1, 2, 3, etc. and is not limited here.

가능한 실시 시나리오에 있어서, 이미지 검출 모델의 네트워크 파라미터에 대해 업데이트를 수행하는 과정에 있어서, 원본 검출 모델이 이번 훈련 및 이전 복수 번의 훈련에서 조절된 네트워크 파라미터의 평균값을 통계하고, 다시 이미지 검출 모델의 네트워크 파라미터를 대응되는 원본 검출 모델의 네트워크 파라미터의 평균값으로 업데이트할 수 있다. 본 발명의 실시예에서, 네트워크 파라미터의 평균값은 모두 동일한 네트워크 파라미터에 대응되는 평균값을 의미하고, 여기서, 동일한 뉴런에 대응되는 특정된 가중(또는 바이어스)이 여러 차례 훈련 과정에서 조절된 값의 평균값일 수 있으며, 따라서 각 뉴런의 각 가중(또는 바이어스)이 여러 차례 훈련 과정에서 조절된 값의 평균값을 통계하여 얻음으로써, 상기 평균값을 사용하여 이미지 검출 모델에서 뉴런에 대응되는 대응 가중(또는 바이어스)에 대해 업데이트를 수행할 수 있다. 예를 들어, 이번 훈련은 k 번째 훈련이고, 원본 검출 모델이 이번 훈련 및 이전 n-1 번의 훈련에서 조절된 네트워크 파라미터의 평균값을 통계할 수 있으며, 여기서, n의 값은 실제 응용 상황에 따라 설정될 수 있고, 예를 들어, 5, 10, 15 등으로 설정될 수 있으며, 여기서 한정하지 않는다. 따라서, k+1 번째 훈련의 과정에 있어서, 이미지 검출 모델의 네트워크 파라미터는 k-n+1 번째 내지 k 번째 훈련 과정에서 조절된 네트워크 파라미터의 평균값을 사용하여 업데이트하여 얻은 것으로써, 여러 차례 훈련 과정에서 생성된 누적 오차를 빠르게 제한하는데 유리하여, 이미지 검출 모델의 정확성을 향상시킬 수 있다.In a possible implementation scenario, in the process of updating the network parameters of the image detection model, the original detection model stats the average value of the network parameters adjusted in this training and a plurality of previous trainings, and again the network of the image detection model The parameter may be updated with the average value of the network parameters of the corresponding original detection model. In an embodiment of the present invention, the average values of the network parameters all mean the average values corresponding to the same network parameters, where a specified weight (or bias) corresponding to the same neuron is the average value of the values adjusted in the training process several times. Therefore, by statistically obtaining the average value of each weight (or bias) of each neuron adjusted in the training process several times, the corresponding weight (or bias) corresponding to the neuron in the image detection model is obtained using the average value. update can be performed. For example, this training is the k-th training, and the original detection model may statistic on the average value of the network parameters adjusted in this training and the previous n-1 training, where the value of n is set according to the actual application situation. may be, for example, may be set to 5, 10, 15, etc., but is not limited thereto. Therefore, in the process of k+1-th training, the network parameters of the image detection model are obtained by updating using the average value of the network parameters adjusted in the k-n+1-th to k-th training process, It is advantageous for quickly limiting the accumulated error generated in , thereby improving the accuracy of the image detection model.

또 다른 실시 시나리오에 있어서, 기설정 훈련 종료 조건을 설정할 수도 있고, 기설정 훈련 종료 조건이 만족되지 않는 경우, 상기 단계 S12 및 후속적인 단계를 다시 실행함으로써, 계속하여 원본 검출 모델의 네트워크 파라미터에 대해 조절을 수행할 수 있다. 가능한 실시 시나리오에 있어서, 기설정 훈련 종료 조건은, 현재 훈련 횟수가 기설정 횟수 임계값(예를 들어, 500 회, 1000 회 등)에 도달하는 것 및 원본 검출 모델의 손실값이 기설정 손실 임계값보다 작은 것 중 어느 하나가 포함될 수 있고, 여기서 한정하지 않는다. 다른 가능한 실시 시나리오에 있어서, 훈련이 종료된 후, 이미지 검출 모델을 사용하여 검출될 의학 영상에 대해 검출을 수행할 수 있음으로써, 검출될 의학 영상 중 복수 개 기관에 대응되는 영역을 직접 얻을 수 있고, 따라서 복수 개 단일 기관 검출을 사용하여 검출될 의학 영상에 대해 각각 검출을 수행하는 동작을 피할 수 있어, 검출 계산량을 낮출 수 있다.In another implementation scenario, a preset training termination condition may be set, and if the preset training termination condition is not satisfied, by re-executing the above step S12 and subsequent steps, the network parameters of the original detection model are continuously evaluated. control can be performed. In a possible implementation scenario, the preset training termination condition is that the current training number reaches a preset number threshold (eg, 500 times, 1000 times, etc.) and that the loss value of the original detection model is a preset loss threshold Any one smaller than the value may be included, but the present invention is not limited thereto. In another possible implementation scenario, after training is completed, the detection may be performed on the medical image to be detected using the image detection model, so that regions corresponding to a plurality of organs among the medical images to be detected may be directly obtained, , thus avoiding the operation of performing detection for each medical image to be detected using a plurality of single organ detection, thereby reducing the amount of detection calculation.

상기 방안은, 샘플 의학 영상을 획득하고, 샘플 의학 영상에 적어도 하나의 태깅되지 않은 기관의 실제 영역을 슈도 태깅하는 것을 통해, 샘플 의학 영상에서는 다중 기관에 대해 실제 태깅을 수행할 필요가 없음으로써, 원본 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 태깅되지 않은 기관이 포함된 제1 기설정 영역의 제1 검출 결과를 얻고, 이미지 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 태깅되지 않은 기관이 포함된 제2 예측 영역의 제2 검출 결과를 얻음으로써, 제1 예측 영역과 실제 영역, 제2 예측 영역 사이의 차이를 사용하여, 원본 검출 모델의 네트워크 파라미터를 조절하며, 이미지 검출 모델의 네트워크 파라미터는 원본 검출 모델의 네트워크 파라미터에 기반하여 결정된 것이고, 따라서 이미지 검출 모델로 하여금 원본 검출 모델의 훈련을 모니터링할 수 있도록 하며, 이로써 네트워크 파라미터가 여러 차례 훈련 과정에서 슈도 태깅된 실제 영역에 의해 생성된 누적 오차를 제한하여, 이미지 검출 모델의 정확성을 향상시킬 수 있음으로써, 이미지 검출 모델로 하여금 원본 검출 모델을 정확하게 모니터링하여 훈련을 수행할 수 있도록 하여, 원본 검출 모델로 하여금 훈련 과정에서 네트워크 파라미터를 정확하게 조절할 수 있도록 하여, 따라서, 다중 기관 검출의 과정에서, 이미지 검출 모델의 검출 정확성을 향상시킬 수 있다.The method comprises acquiring a sample medical image and pseudo-tagging the real area of at least one untagged organ in the sample medical image, thereby eliminating the need to perform actual tagging for multiple organs in the sample medical image, By performing detection on a sample medical image using the original detection model to obtain a first detection result of a first preset region including an untagged organ, and performing detection on a sample medical image using the image detection model By obtaining the second detection result of the second prediction region including the untagged organ, the difference between the first prediction region, the real region, and the second prediction region is used to adjust the network parameters of the original detection model, the image The network parameters of the detection model are determined based on the network parameters of the original detection model, thus allowing the image detection model to monitor the training of the original detection model, whereby the network parameters are pseudo-tagged in the training process several times in the real area By limiting the cumulative error generated by It is possible to precisely adjust the network parameters, thus improving the detection accuracy of the image detection model in the process of multi-organ detection.

도 2를 참조하면, 도 2는 도 1 중 단계 S11의 일 실시예의 흐름 예시도이다. 여기서, 도 2는 샘플 의학 영상을 획득하는 일 실시예의 흐름 예시도이고, 하기와 같은 단계를 포함한다.Referring to FIG. 2 , FIG. 2 is a flowchart illustrating an embodiment of step S11 in FIG. 1 . Here, FIG. 2 is a flowchart illustrating an embodiment of acquiring a sample medical image, and includes the following steps.

단계 S111에 있어서, 슈도 태깅될 의학 영상 - 슈도 태깅될 의학 영상에는 적어도 하나의 태깅되지 않은 기관이 존재함 - 을 획득한다.In step S111, a medical image to be pseudo-tagged in which at least one untagged organ exists in the medical image to be pseudo-tagged is acquired.

슈도 태깅될 의학 영상은 복부에 대해 스캔을 수행하여 얻은 것이고, 슈도 태깅될 의학 영상에서의 태깅되지 않은 기관에는, 신장, 비장, 췌장 등이 포함될 수 있으며, 슈도 태깅될 의학 영상은 예를 들어, 가슴, 머리 등 다른 부위에 대해 스캔을 수행하여 얻은 것일 수도 있고, 전술된 실시예에서의 관련 단계를 참조할 수 있으며, 여기서 한정하지 않는다.The medical image to be pseudo-tagged is obtained by performing a scan on the abdomen, and organs that are not tagged in the medical image to be pseudo-tagged may include a kidney, spleen, pancreas, etc., and the medical image to be pseudo-tagged is, for example, It may be obtained by performing a scan on other areas such as the chest and head, and reference may be made to the relevant steps in the above-described embodiments, but the present invention is not limited thereto.

실시 시나리오에 있어서, 수집하여 얻은 원본 의학 영상은 예를 들어, 3차원 CT 영상, 3차원 MR 영상과 같은 3차원 의학 영상일 수 있고, 여기서 한정하지 않으며, 따라서 3차원 의학 영상에 대해 사전 처리를 수행하고, 사전 처리된 3차원 의학 영상을 크롭 처리하여, 적어도 하나의 슈도 태깅될 의학 영상을 얻을 수 있다. 크롭 처리는 사전 처리된 3차원 의학 영상에 대해 크롭 처리를 수행하는 것일 수 있고, 여기서 한정하지 않는다. 예를 들어, 3차원 의학 영상에 평행되는 특정된 평면에 따라 상기 평면에 수직 되는 차원에서 크롭 하여, 2차원의 슈도 태깅될 의학 영상을 얻을 수 있다. 슈도 태깅될 의학 영상의 사이즈는 실제 상황에 따라 설정될 수 있고, 예를 들어, 352*352일 수 있으며, 여기서 한정하지 않는다.In an implementation scenario, the collected and obtained original medical image may be, for example, a three-dimensional medical image such as a three-dimensional CT image or a three-dimensional MR image, but is not limited thereto, and thus pre-processing is performed on the three-dimensional medical image. and crop the pre-processed 3D medical image to obtain at least one pseudo-tagged medical image. Crop processing may be performing crop processing on a pre-processed 3D medical image, but is not limited thereto. For example, a two-dimensional pseudo-tagged medical image may be obtained by cropping in a dimension perpendicular to the plane according to a specified plane parallel to the three-dimensional medical image. The size of the medical image to be pseudo-tagged may be set according to an actual situation, for example, may be 352*352, but is not limited thereto.

가능한 실시 시나리오에 있어서, 사전 처리에는 3차원 의학 영상의 복셀 해상도를 기설정 해상도로 조절하는 것이 포함될 수 있다. 3차원 의학 영상의 복셀은 3차원 의학 영상이 3차원 공간에서 분할되는 최소 단위이고, 기설정 해상도는 1*1*3mm일 수 있으며, 기설정 해상도는 실제 상황에 따라 예를 들어, 1*1*4mm, 2*2*3mm 등과 같은 다른 해상도로 설정될 수도 있고, 여기서 한정하지 않는다. 3차원 의학 영상의 복셀 해상도를 기설정 해상도로 조절하는 것을 통해, 후속적인 모델 예측 처리에 유리할 수 있다.In a possible implementation scenario, the pre-processing may include adjusting the voxel resolution of the 3D medical image to a preset resolution. A voxel of a 3D medical image is a minimum unit by which a 3D medical image is divided in a 3D space, and a preset resolution may be 1*1*3mm, and the preset resolution may be, for example, 1*1 according to an actual situation. It may be set to other resolutions such as *4mm, 2*2*3mm, etc., but is not limited thereto. By adjusting the voxel resolution of the 3D medical image to a preset resolution, it may be advantageous for subsequent model prediction processing.

다른 가능한 실시 시나리오에 있어서, 사전 처리에는 기설정 창값을 사용하여 3차원 의학 영상의 복셀 값을 기설정 범위 내로 정규화하는 것이 포함될 수도 있다. 복셀값은 3차원 의학 영상의 상이함에 따라, 상이한 값일 수 있고, 예를 들어, 3차원 CT 영상에 대해 말하자면, 복셀값은 하운스필드 유닛(houns field unit, Hu)값일 수 있다. 기설정 창값은 3차원 의학 영상에 대응되는 부위에 따라 설정될 수 있고, 여전히 3차원 CT 영상을 예로 들어, 복부 CT에 대해 말하자면, 기설정 창값은 -125 내지 275로 설정될 수 있으며, 다른 부위는 실제 상황에 따라 설정될 수 있고, 여기서 더 이상 일일이 예를 들지 않는다. 기설정 범위는 실제 응용에 따라 설정될 수 있고, 예를 들어, 기설정 범위는 0 내지 1로 설정될 수 있으며, 여전히 3차원 CT 영상을 예로 들어, 복부 CT에 대해 말하자면, 기설정 창값은 -125 내지 275로 설정될 수 있고, 기설정 범위는 0 내지 1인 경우, 복셀값이 -125보다 작거나 같은 복셀을 일괄적으로 복셀값 0으로 재설정할 수 있으며, 복셀값이 275보다 크거나 같은 복셀을 일괄적으로 복셀값 1로 재설정할 수 있고, 복셀값이 -125 내지 275에 있는 복셀을 복셀값0 내지 1사이로 재설정할 수 있음으로써, 영상 내의 상이한 기관 사이의 명암비를 강화하는데 유리할 수 있으며, 따라서 모델이 정확한 특징을 추출하는데 유리할 수 있다.In another possible implementation scenario, the pre-processing may include normalizing the voxel value of the 3D medical image within a preset range using a preset window value. The voxel value may be a different value according to the difference in the 3D medical image. For example, in the case of a 3D CT image, the voxel value may be a hoons field unit (Hu) value. The preset window value may be set according to a region corresponding to the 3D medical image, and still speaking of abdominal CT using a 3D CT image as an example, the preset window value may be set to -125 to 275, other regions may be set according to the actual situation, and examples are not given one by one here. The preset range can be set according to the actual application, for example, the preset range can be set to 0 to 1, still taking a 3D CT image as an example, speaking of abdominal CT, the preset window value is - It may be set to 125 to 275, and when the preset range is 0 to 1, voxels having a voxel value less than or equal to -125 may be collectively reset to the voxel value 0, and voxels having a voxel value greater than or equal to 275 may be collectively reset. Voxels can be collectively reset to a voxel value of 1, and voxels with a voxel value of -125 to 275 can be reset to a voxel value of 0 to 1, which can be advantageous in enhancing the contrast ratio between different organs in an image. , and thus the model may be advantageous in extracting accurate features.

또 다른 가능한 실시 시나리오에 있어서, 사전 처리에는 3차원 의학 영상의 적어도 부분적 복셀에 가우시안 노이즈를 추가하는 것이 포함될 수도 있다. 적어도 부분적 복셀은 실제 응용에 따라 설정될 수 있고, 예를 들어, 3차원 의학 영상의 1/3 복셀 또는 3차원 의학 영상의 1/2 복셀 또는 3차원 의학 영상의 전체 복셀이며, 여기서 한정하지 않는다. 3차원 의학 영상의 적어도 부분적 복셀에 가우시안 노이즈를 추가하는 것을 통해, 후속적으로 3차원 의학 영상 및 가우시안 노이즈가 추가되지 않은 3차원 의학 영상의 기초에서 크롭을 수행하여 2차원의 슈도 태깅될 의학 영상을 얻음으로써, 데이터 증강을 구현하여, 데이터 다양성을 향상시키며, 후속적인 모델 훈련의 정확성을 향상시키는데 유리할 수 있다.In another possible implementation scenario, the pre-processing may include adding Gaussian noise to at least partial voxels of the 3D medical image. At least partial voxels may be set according to actual applications, for example, 1/3 voxels of a 3D medical image, 1/2 voxels of a 3D medical image, or all voxels of a 3D medical image, but is not limited thereto. . Through adding Gaussian noise to at least partial voxels of the 3D medical image, a 2D pseudo-tagged medical image is subsequently performed by cropping on the basis of the 3D medical image and the 3D medical image to which Gaussian noise is not added. By obtaining , it can be advantageous for implementing data augmentation, improving data diversity, and improving the accuracy of subsequent model training.

단계 S112에 있어서, 각 태깅되지 않은 기관과 대응되는 단일 기관 검출 모델을 각각 사용하여 슈도 태깅될 의학 영상에 대해 검출을 수행함으로써, 각 태깅되지 않은 기관의 기관 예측 영역을 얻는다.In step S112, detection is performed on the medical image to be pseudo-tagged by using each untagged organ and a corresponding single organ detection model, respectively, to obtain an organ prediction region of each untagged organ.

실시 시나리오에 있어서, 각 태깅되지 않은 기관에 대응되는 단일 기관 검출 모델은 태깅되지 않은 기관이 태깅된 단일 기관 데이터 세트를 사용하여 훈련하여 얻은 것일 수 있고, 예를 들어, 신장과 대응되는 단일 기관 검출 모델은 신장이 태깅된 단일 기관 데이터 세트를 사용하여 훈련하여 얻은 것일 수 있으며, 비장과 대응되는 단일 기관 검출 모델은 비장이 태깅된 단일 기관 데이터 세트를 사용하여 훈련하여 얻은 것일 수 있고, 다른 기관은 이렇게 유추할 수 있으며, 여기서 더 이상 일일이 예를 들지 않는다.In an implementation scenario, a single organ detection model corresponding to each untagged organ may be obtained by training using a single organ data set in which untagged organs are tagged, for example, detecting a single organ corresponding to a kidney. The model may be obtained by training using a single organ data set where the kidneys are tagged, the single organ detection model corresponding to the spleen may be obtained by training using a single organ data set in which the spleen is tagged, and the other organs are It can be inferred like this, and I will not give any more examples here.

다른 실시 시나리오에 있어서, 슈도 태깅될 의학 영상에는 적어도 하나의 태깅된 기관이 포함될 수도 있으면, 태깅된 기관이 포함되는 슈도 태깅될 의학 영상을 사용하여, 슈도 태깅될 의학 영상에서의 태깅된 기관에 대응되는 단일 기관 검출 모델에 대해 훈련을 수행함으로써, 대응되는 단일 기관 검출 모델을 얻을 수 있다. 예를 들어, 슈도 태깅될 의학 영상에는 태깅된 간이 포함되면, 태깅된 간이 포함된 슈도 태깅될 의학 영상을 사용하여, 간에 대응되는 단일 기관 검출 모델에 대해 훈련을 수행함으로써, 간에 대응되는 단일 기관 검출 모델을 얻을 수 있고, 다른 기관은 이렇게 유추할 수 있으며, 여기서 더 이상 일일이 예를 들지 않는다.In another implementation scenario, if the medical image to be pseudo-tagged may include at least one tagged organ, the pseudo-tagged medical image including the tagged organ is used to correspond to the tagged organ in the pseudo-tagged medical image. By performing training on the single-organ detection model to be used, a corresponding single-organ detection model can be obtained. For example, if the medical image to be pseudo-tagged includes a tagged liver, by using the pseudo-tagged medical image including the tagged liver to perform training on a single-organ detection model corresponding to the liver, a single organ corresponding to the liver is detected A model can be obtained, and other institutions can infer this, and no more examples are given here.

이 밖에, 단일 기관 검출 모델에는 Mask R-CNN(Mask Region with Convolutional Neural Network), 완전 컨볼루션 네트워크(Fully Convolutional Network, FCN), 피라미드 장면 파싱 네트워크(Pyramid Scene Parsing Network, PSP-net) 중 어느 하나가 포함될 수 있거나, 단일 기관 검출 모델은 set-net, U-net 등일 수도 있고, 실제 상황에 따라 설정될 수 있으며, 여기서 한정하지 않는다.In addition, the single organ detection model includes any one of Mask Region with Convolutional Neural Network (R-CNN), Fully Convolutional Network (FCN), and Pyramid Scene Parsing Network (PSP-net). may be included, or the single organ detection model may be set-net, U-net, etc., and may be set according to actual situations, but is not limited thereto.

각 태깅되지 않은 기관과 대응되는 단일 기관 검출 모델을 사용하여 슈도 태깅될 의학 영상에 대해 검출을 수행하는 것을 통해, 각 태깅되지 않은 기관의 기관 예측 영역을 얻을 수 있다. 슈도 태깅될 의학 영상은 복부에 대해 스캔하여 얻은 영상인 것을 예로 들어, 태깅되지 않은 기관에는 신장, 비장, 췌장이 포함되고, 신장과 대응되는 단일 기관 검출 모델을 사용하여 슈도 태깅될 의학 영상에 대해 검출을 수행하여, 신장의 기관 예측 영역을 얻을 수 있으며, 비장과 대응되는 단일 기관 검출 모델을 사용하여 슈도 태깅될 의학 영상에 대해 검출을 수행하여, 비장의 기관 예측 영역을 얻을 수 있고, 췌장과 대응되는 단일 기관 검출 모델을 사용하여 슈도 태깅될 의학 영상에 대해 검출을 수행하여, 췌장의 기관 예측 영역을 얻을 수 있으며, 각 상기 태깅되지 않은 기관에 대응되는 단일 기관 검출 모델을 사용하여 슈도 태깅될 의학 영상에 대해 검출을 수행하는 단계는 동시에 실행될 수 있고, 최종적으로 각 태깅되지 않은 기관의 기관 예측 영역을 슈도 태깅될 의학 영상에서 슈도 태깅을 수행하면 되며, 따라서 슈도 태깅의 효율을 향상시킬 수 있고, 예를 들어, 상기 신장과 대응되는 단일 기관 검출 모델을 사용하여 슈도 태깅될 의학 영상에 대해 검출을 수행하며, 비장과 대응되는 단일 기관 검출 모델을 사용하여 슈도 태깅될 의학 영상에 대해 검출을 수행하고, 췌장과 대응되는 단일 기관 검출 모델을 사용하여 슈도 태깅될 의학 영상에 대해 검출을 수행하는 단계를 동시에 실행하여, 최종적으로 슈도 태깅될 의학 영상에서 신장, 비장 및 췌장의 단일 기관 예측 영역에 대해 일괄적으로 슈도 태깅을 수행하면 되거나; 각 상기 태깅되지 않은 기관에 대응되는 단일 기관 검출 모델을 사용하여 슈도 태깅될 의학 영상에 대해 검출을 수행하는 단계는 순차적으로 실행될 수도 있음으로써, 각 태깅되지 않은 기관의 기관 예측 영역을 슈도 태깅될 의학 영상에서 슈도 태깅을 수행할 필요가 없으며, 예를 들어, 상기 신장과 대응되는 단일 기관 검출 모델을 사용하여 슈도 태깅될 의학 영상에 대해 검출을 수행하고, 비장과 대응되는 단일 기관 검출 모델을 사용하여 슈도 태깅될 의학 영상에 대해 검출을 수행하며, 췌장과 대응되는 단일 기관 검출 모델을 사용하여 슈도 태깅될 의학 영상에 대해 검출을 수행하는 것을 순차적으로 실행할 수 있으며, 최종적으로 얻은 슈도 태깅될 의학 영상에는 즉 신장, 비장 및 췌장의 단일 기관 예측 영역이 포함될 수 있다. 실제 상황에 따라 설정될 수 있고, 여기서 한정하지 않는다.By performing detection on a medical image to be pseudo-tagged using a single organ detection model corresponding to each untagged organ, an organ prediction region of each untagged organ may be obtained. The medical image to be pseudo-tagged is an image obtained by scanning the abdomen, for example, organs that are not tagged include the kidney, spleen, and pancreas, and for the medical image to be pseudo-tagged using a single organ detection model corresponding to the kidney By performing detection, it is possible to obtain an organ predicted region of the kidney, and by using a single organ detection model corresponding to the spleen, detection is performed on a medical image to be pseudo-tagged, to obtain an organ predicted region of the spleen, pancreas and By performing detection on the medical image to be pseudo-tagged using the corresponding single-organ detection model, an organ prediction region of the pancreas can be obtained, and a single-organ detection model corresponding to each of the untagged organs to be pseudo-tagged is performed. The step of performing the detection on the medical image can be executed simultaneously, and finally, pseudo-tagging of the organ prediction region of each untagged organ is pseudo-tagged on the medical image to be pseudo-tagged, thus improving the efficiency of pseudo-tagging and , for example, performing detection on a medical image to be pseudo-tagged using a single-organ detection model corresponding to the kidney, and performing detection on a medical image to be pseudo-tagged using a single-organ detection model corresponding to the spleen and performing detection on the medical image to be pseudo-tagged using a single-organ detection model corresponding to the pancreas at the same time, and finally, the single-organ prediction regions of the kidney, spleen and pancreas in the medical image to be pseudo-tagged Alternatively, pseudo tagging can be performed in batches; The steps of performing detection on medical images to be pseudo-tagged using a single organ detection model corresponding to each of the untagged organs may be sequentially performed, whereby the organ prediction regions of each untagged organ are pseudo-tagged medical images to be pseudo-tagged. It is not necessary to perform pseudo tagging on the image, for example, by using a single organ detection model corresponding to the kidney to perform detection on a medical image to be pseudo-tagged, and using a single organ detection model corresponding to the spleen The detection may be performed on the medical image to be pseudo-tagged, and detection may be sequentially performed on the medical image to be pseudo-tagged using a single organ detection model corresponding to the pancreas, and the finally obtained pseudo-tagged medical image may include: That is, single organ prediction regions of the kidney, spleen and pancreas may be included. It may be set according to an actual situation, and the present invention is not limited thereto.

단계 S113에 있어서, 태깅되지 않은 기관의 기관 예측 영역을 태깅되지 않은 기관의 실제 영역으로 슈도 태깅하고, 슈도 태깅된 슈도 태깅될 의학 영상을 샘플 의학 영상으로 사용한다.In step S113, a pseudo-tagged organ predicted region of an untagged organ is pseudo-tagged as an actual region of an untagged organ, and a pseudo-tagged pseudo-tagged medical image is used as a sample medical image.

각 태깅되지 않은 기관의 기관 예측 영역을 얻은 후, 태깅되지 않은 기관의 기관 예측 영역을 태깅되지 않은 기관의 실제 영역으로 슈도 태깅하고, 슈도 태깅된 슈도 태깅될 의학 영상을 샘플 의학 영상으로 사용할 수 있다.After obtaining the organ predicted area of each untagged organ, the organ predicted area of the untagged organ is pseudo-tagged as the real area of the untagged organ, and the pseudo-tagged pseudo-tagged medical image can be used as a sample medical image. .

전술된 실시예와는 다르게, 적어도 하나의 태깅되지 않은 기관이 존재하는 슈도 태깅될 의학 영상을 획득하고, 각 태깅되지 않은 기관과 대응되는 단일 기관 검출 모델을 각각 사용하여 슈도 태깅될 의학 영상에 대해 검출을 수행함으로써, 각 태깅되지 않은 기관의 기관 예측 영역을 얻으며, 태깅되지 않은 기관의 기관 예측 영역을 태깅되지 않은 기관의 실제 영역으로 슈도 태깅 하여, 슈도 태깅된 슈도 태깅될 의학 영상을 샘플 의학 영상으로 사용하는 것을 통해, 단일 기관 검출 모델을 사용하여 인공적으로 다중 기관에 대해 태깅을 수행하는 작업량을 피할 수 있음으로써, 다중 기관 검출을 위한 이미지 검출 모델을 훈련하는 인건 비용을 낮추는데 유리하고, 훈련의 효율을 높일 수 있다.Unlike the above-described embodiment, a medical image to be pseudo-tagged in which at least one untagged organ is present is acquired, and a single organ detection model corresponding to each untagged organ is respectively used for the pseudo-tagged medical image. By performing detection, an organ predicted region of each untagged organ is obtained, pseudo-tagged the organ predicted region of an untagged organ with an actual region of an untagged organ, and pseudo-tagged medical images to be pseudo-tagged are sampled medical images. Through the use of a single organ detection model, it is possible to avoid the workload of artificially performing tagging for multiple organs using a single organ detection model, which is advantageous in lowering the labor cost of training an image detection model for multi-organ detection. efficiency can be increased.

도 3을 참조하면, 도 3은 본 발명의 실시예에서 제공하는 이미지 검출 모델의 훈련 방법의 다른 실시예의 흐름 예시도이다. 여기서, 하기와 같은 단계를 포함할 수 있다.Referring to FIG. 3 , FIG. 3 is a flowchart illustrating another embodiment of a method for training an image detection model provided in an embodiment of the present invention. Here, it may include the following steps.

단계 S31에 있어서, 샘플 의학 영상 - 샘플 의학 영상에는 적어도 하나의 태깅되지 않은 기관의 실제 영역이 슈도 태깅됨 - 을 획득한다.In step S31, a sample medical image, in which at least one untagged real region of an organ is pseudo-tagged, is acquired.

여기서, 단계 S31은 전술된 실시예에서의 관련 단계를 참조할 수 있다.Here, step S31 may refer to a related step in the above-described embodiment.

단계 S32에 있어서, 제1 원본 검출 모델 및 제2 원본 검출 모델을 각각 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 제1 검출 결과를 얻는 단계를 실행한다.In step S32, a step of obtaining a first detection result by performing detection on a sample medical image using the first original detection model and the second original detection model, respectively is performed.

원본 검출 모델에는 제1 원본 검출 모델 및 제2 원본 검출 모델이 포함될 수 있다. 제1 원본 검출 모델에는 Mask R-CNN(Mask Region with Convolutional Neural Network), 완전 컨볼루션 네트워크(Fully Convolutional Network, FCN), 피라미드 장면 파싱 네트워크(Pyramid Scene Parsing Network, PSP-net) 중 어느 하나가 포함될 수 있고, 이 밖에, 제1 원본 검출 모델은 set-net, U-net 등일 수도 있으며, 실제 상황에 따라 설정될 수 있고, 여기서 한정하지 않는다. 제2 원본 검출 모델에는 Mask R-CNN(Mask Region with Convolutional Neural Network), 완전 컨볼루션 네트워크(Fully Convolutional Network, FCN), 피라미드 장면 파싱 네트워크(Pyramid Scene Parsing Network, PSP-net) 중 어느 하나가 포함될 수 있고, 이 밖에, 제2 원본 검출 모델은 set-net, U-net 등일 수도 있으며, 실제 상황에 따라 설정될 수 있고, 여기서 한정하지 않는다.The original detection model may include a first original detection model and a second original detection model. The first original detection model may include any one of Mask Region with Convolutional Neural Network (R-CNN), Fully Convolutional Network (FCN), and Pyramid Scene Parsing Network (PSP-net). In addition, the first original detection model may be set-net, U-net, etc., and may be set according to an actual situation, but is not limited thereto. The second original detection model may include any one of Mask Region with Convolutional Neural Network (R-CNN), Fully Convolutional Network (FCN), and Pyramid Scene Parsing Network (PSP-net). In addition, the second original detection model may be set-net, U-net, etc., and may be set according to an actual situation, but is not limited thereto.

제1 원본 검출 모델 및 제2 원본 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 제1 검출 결과를 얻는 것은, 전술된 실시예에서의 관련 단계를 참조할 수 있고, 여기서 더 이상 설명하지 않는다. 실시 시나리오에 있어서, 제1 원본 검출 모델에 의해 검출되어 얻은 제1 검출 결과에는 태깅되지 않은 기관의 제1 예측 영역이 포함될 수 있거나, 제1 원본 검출 모델에 의해 검출되어 얻은 제1 검출 결과에는 태깅되지 않은 기관의 제1 예측 영역 및 태깅된 기관의 제1 예측 영역이 포함될 수도 있다. 다른 실시 시나리오에 있어서, 제2 원본 검출 모델에 의해 검출되어 얻은 제1 검출 결과에는 태깅되지 않은 기관의 제1 예측 영역이 포함될 수 있거나, 제2 원본 검출 모델에 의해 검출되어 얻은 제1 검출 결과에는 태깅되지 않은 기관의 제1 예측 영역 및 태깅된 기관의 제1 예측 영역이 포함될 수도 있다.Obtaining a first detection result by performing detection on a sample medical image by using the first original detection model and the second original detection model may refer to the relevant steps in the above-described embodiments, which are not further described herein does not In an implementation scenario, the first detection result detected and obtained by the first original detection model may include a first prediction region of an untagged organ, or the first detection result detected and obtained by the first original detection model is tagged The first prediction region of non-organized organizations and the first prediction region of tagged organizations may be included. In another implementation scenario, the first detection result detected by the second original detection model may include a first prediction region of an untagged organ, or the first detection result detected and obtained by the second original detection model may include: A first prediction region of an untagged organization and a first prediction region of a tagged organization may be included.

도 4를 결합하여 참조하면, 도 4는 이미지 검출 모델의 훈련 과정의 일 실시예의 예시도이다. 도 4에 나타낸 바와 같이, 설명의 편의를 위해, 제1 원본 검출 모델은 net1로 나타내고, 제2 원본 검출 모델은 net2로 나타낸다. 도 4에 나타낸 바와 같이, 제1 원본 검출 모델 net1은 샘플 의학 영상에 대해 검출을 수행하여, 제1 원본 검출 모델 net1과 대응되는 제1 검출 결과를 얻고, 제2 원본 검출 모델 net2는 샘플 의학 영상에 대해 검출을 수행하여, 제2 원본 검출 모델 net2와 대응되는 제1 검출 결과를 얻는다.Referring to FIG. 4 in combination, FIG. 4 is an exemplary diagram of an embodiment of a training process of an image detection model. 4 , for convenience of description, the first original detection model is denoted by net1, and the second original detection model is denoted by net2. 4 , the first original detection model net1 performs detection on the sample medical image to obtain a first detection result corresponding to the first original detection model net1, and the second original detection model net2 performs detection on the sample medical image. By performing detection on , a first detection result corresponding to the second original detection model net2 is obtained.

단계 S33에 있어서, 제1 이미지 검출 모델 및 제2 이미지 검출 모델을 각각 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 제2 검출 결과를 얻는 단계를 실행한다.In step S33, a step of obtaining a second detection result by performing detection on a sample medical image by using the first image detection model and the second image detection model, respectively, is performed.

이미지 검출 모델에는 제1 원본 검출 모델과 대응되는 제1 이미지 검출 모델 및 제2 원본 검출 모델과 대응되는 제2 이미지 검출 모델, 제1 이미지 검출 모델 및 제2 이미지 검출 모델의 네트워크 구조가 포함될 수 있고, 네트워크 파라미터는 전술된 실시예에서의 관련 단계를 참조할 수 있으며, 여기서 더 이상 설명하지 않는다.The image detection model may include a network structure of a first image detection model corresponding to the first original detection model, a second image detection model corresponding to the second original detection model, a first image detection model, and a second image detection model, , network parameters may refer to the relevant steps in the above-described embodiments, which are not further described herein.

제1 이미지 검출 모델 및 제2 이미지 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 제2 검출 결과를 얻는 것은, 전술된 실시예에서의 관련 단계를 참조할 수 있고, 여기서 더 이상 설명하지 않는다. 실시 시나리오에 있어서, 제1 이미지 검출 모델에 의해 검출되어 얻은 제2 검출 결과에는 태깅되지 않은 기관의 제2 예측 영역이 포함될 수 있거나, 제1 이미지 검출 모델에 의해 검출되어 얻은 제2 검출 결과에는 태깅되지 않은 기관의 제2 예측 영역 및 태깅된 기관의 제2 예측 영역이 포함될 수도 있다. 다른 실시 시나리오에 있어서, 제2 이미지 검출 모델에 의해 검출되어 얻은 제2 검출 결과에는 태깅되지 않은 기관의 제2 예측 영역이 포함될 수 있거나, 제2 이미지 검출 모델에 의해 검출되어 얻은 제2 검출 결과에는 태깅되지 않은 기관의 제2 예측 영역 및 태깅된 기관의 제2 예측 영역이 포함될 수도 있다.Obtaining a second detection result by performing detection on a sample medical image by using the first image detection model and the second image detection model may refer to the relevant steps in the above-described embodiments, which are not further described herein does not In an implementation scenario, the second detection result detected by the first image detection model may include a second prediction region of an untagged organ, or the second detection result detected and obtained by the first image detection model may be tagged A second prediction region of a non-organized organization and a second prediction region of a tagged organization may be included. In another implementation scenario, the second detection result detected by the second image detection model may include a second predicted region of an untagged organ, or the second detection result detected and obtained by the second image detection model may include: A second prediction region of an untagged organization and a second prediction region of a tagged organization may be included.

도 4를 결합하여 참조하면, 설명의 편의를 위해, 제1 원본 검출 모델 net1과 대응되는 제1 이미지 검출 모델을 EMA net1로 나타내고, 제2 원본 검출 모델 net2와 대응되는 제2 이미지 검출 모델을 EMA net2로 나타낸다. 도 4에 나타낸 바와 같이, 제1 이미지 검출 모델 EMA net1은 샘플 의학 영상에 대해 검출을 수행하여, 제1 이미지 검출 모델 EMA net1과 대응되는 제2 검출 결과를 얻고, 제2 이미지 검출 모델 EMA net2는 샘플 의학 영상에 대해 검출을 수행하여, 제2 이미지 검출 모델 EMA net2와 대응되는 제2 검출 결과를 얻는다.4, for convenience of explanation, a first image detection model corresponding to the first original detection model net1 is represented by EMA net1, and a second image detection model corresponding to the second original detection model net2 is represented by EMA It is represented by net2. 4 , the first image detection model EMA net1 performs detection on the sample medical image to obtain a second detection result corresponding to the first image detection model EMA net1, and the second image detection model EMA net2 Detection is performed on the sample medical image to obtain a second detection result corresponding to the second image detection model EMA net2.

실시 시나리오에 있어서, 상기 단계 S32 및 단계 S33은 선후 순서에 따라 실행될 수 있고, 예를 들어, 먼저 단계 S32를 실행한 다음, 단계 S33을 실행하거나; 먼저 단계 S33을 실행한 다음, 단계 S32를 실행한다. 다른 실시 시나리오에 있어서, 상기 단계 S32 및 단계 S33은 동시에 실행될 수도 있고, 실제 응용에 따라 설정될 수 있으며, 여기서 한정하지 않는다.In an implementation scenario, the steps S32 and S33 may be executed in the order of precedence, for example, first executing step S32 and then executing step S33; First, step S33 is executed, and then step S32 is executed. In another implementation scenario, the steps S32 and S33 may be executed at the same time or may be set according to an actual application, but the present invention is not limited thereto.

단계 S34에 있어서, 제1 원본 검출 모델의 제1 예측 영역과 실제 영역, 제2 이미지 검출 모델의 제2 예측 영역 사이의 차이를 사용하여, 제1 원본 검출 모델의 네트워크 파라미터를 조절한다.In step S34, a network parameter of the first original detection model is adjusted by using the difference between the first prediction region and the real region of the first original detection model and the second prediction region of the second image detection model.

여기서, 제1 원본 검출 모델의 제1 예측 영역과 슈도 태깅된 실제 영역 사이의 차이를 사용하여, 제1 원본 검출 모델의 제1 손실값을 결정하고, 제1 원본 검출 모델의 제1 예측 영역과 제2 이미지 검출 모델의 제2 예측 영역 사이의 차이를 사용하여, 제1 원본 검출 모델의 제2 손실값을 결정함으로써, 제1 손실값 및 제2 손실값을 사용하여, 제1 원본 검출 모델의 네트워크 파라미터를 조절할 수 있다. 제1 손실값 및 제2 손실값의 계산 형태는 전술된 실시예에서의 관련 단계를 참조할 수 있고, 여기서 더 이상 설명하지 않는다. 가능한 실시 시나리오에 있어서, 제2 손실값을 계산하는 과정에 있어서, 단지 태깅되지 않은 기관의 제1 예측 영역 및 제2 예측 영역에 대해서만 계산을 수행하므로, 제1 원본 검출 모델 및 제2 이미지 검출 모델 일치성 제한의 로버스트를 향상시킬 수 있고, 따라서 이미지 검출 모델의 정확성을 향상시킬 수 있다.Here, by using the difference between the first prediction region of the first original detection model and the pseudo-tagged real region, a first loss value of the first original detection model is determined, and the first prediction region of the first original detection model and By using the difference between the second prediction regions of the second image detection model to determine a second loss value of the first original detection model, by using the first loss value and the second loss value, You can adjust network parameters. The calculation form of the first loss value and the second loss value may refer to the relevant steps in the above-described embodiments, which are not further described herein. In a possible implementation scenario, in the process of calculating the second loss value, calculations are performed only on the first prediction region and the second prediction region of an untagged organ, so the first original detection model and the second image detection model It is possible to improve the robustness of the concordance constraint, thus improving the accuracy of the image detection model.

단계 S35에 있어서, 제2 원본 검출 모델의 제1 예측 영역과 실제 영역, 제1 이미지 검출 모델의 제2 예측 영역 사이의 차이를 사용하여, 제2 원본 검출 모델의 네트워크 파라미터를 조절한다.In step S35, a network parameter of the second original detection model is adjusted by using the difference between the first prediction region and the real region of the second original detection model and the second prediction region of the first image detection model.

여기서, 제2 원본 검출 모델의 제1 예측 영역과 슈도 태깅된 실제 영역 사이의 차이를 사용하여, 제2 원본 검출 모델의 제1 손실값을 결정하고, 제2 원본 검출 모델의 제1 예측 영역과 제1 이미지 검출 모델의 제2 예측 영역 사이의 차이를 사용하여, 제2 원본 검출 모델의 제2 손실값을 결정함으로써, 제1 손실값 및 제2 손실값을 사용하여, 제2 원본 검출 모델의 네트워크 파라미터를 조절할 수 있다. 제1 손실값 및 제2 손실값의 계산 형태는 전술된 실시예에서의 관련 단계를 참조할 수 있고, 여기서 더 이상 설명하지 않는다. 가능한 실시 시나리오에 있어서, 제2 손실값을 계산하는 과정에 있어서, 단지 태깅되지 않은 기관의 제1 예측 영역 및 제2 예측 영역에 대해서만 계산을 수행하므로, 제2 원본 검출 모델 및 제1 이미지 검출 모델 일치성 제한의 로버스트를 향상시킬 수 있고, 따라서 이미지 검출 모델의 정확성을 향상시킬 수 있다.Here, by using the difference between the first prediction region of the second original detection model and the pseudo-tagged real region, a first loss value of the second original detection model is determined, and the first prediction region of the second original detection model and By using the difference between the second prediction regions of the first image detection model to determine a second loss value of the second original detection model, by using the first loss value and the second loss value, You can adjust network parameters. The calculation form of the first loss value and the second loss value may refer to the relevant steps in the above-described embodiments, which are not further described herein. In a possible implementation scenario, in the process of calculating the second loss value, calculations are performed only on the first prediction region and the second prediction region of an untagged organ, so the second original detection model and the first image detection model It is possible to improve the robustness of the concordance constraint, thus improving the accuracy of the image detection model.

실시 시나리오에 있어서, 상기 단계 S34 및 단계 S35는 선후 순서에 따라 실행될 수 있고, 예를 들어, 먼저 단계 S34를 실행한 다음, 단계 S35를 실행하거나; 먼저 단계 S35를 실행한 다음, 단계 S34를 실행한다. 다른 실시 시나리오에 있어서, 상기 단계 S34 및 단계 S35는 동시에 실행될 수도 있고, 실제 응용에 따라 설정될 수 있으며, 여기서 한정하지 않는다.In an implementation scenario, the steps S34 and S35 may be executed in the order of precedence, for example, first executing step S34 and then executing step S35; First, step S35 is executed, and then step S34 is executed. In another implementation scenario, the steps S34 and S35 may be executed at the same time or may be set according to an actual application, but is not limited thereto.

단계 S36에 있어서, 제1 원본 검출 모델이 이번 훈련 및 이전 복수 번의 훈련에서 조절된 네트워크 파라미터를 사용하여, 제1 이미지 검출 모델의 네트워크 파라미터에 대해 업데이트를 수행한다.In step S36, the first original detection model updates the network parameters of the first image detection model by using the network parameters adjusted in the current training and the previous plurality of trainings.

여기서, 제1 원본 검출 모델이 이번 훈련 및 이전 복수 번의 훈련에서 조절된 네트워크 파라미터의 평균값을 통계하고, 제1 이미지 검출 모델의 네트워크 파라미터를 대응되는 제1 원본 검출 모델의 네트워크 파라미터의 평균값으로 업데이트할 수 있다. 전술된 실시예에서의 관련 단계를 참조할 수 있고, 여기서 더 이상 설명하지 않는다.Here, the first original detection model stats the average value of the network parameters adjusted in this training and a plurality of previous trainings, and the network parameter of the first image detection model is updated with the average value of the network parameter of the corresponding first original detection model. can Reference may be made to the relevant steps in the above-described embodiments, which are not further described herein.

도 4를 결합하여 참조하면, 제1 원본 검출 모델 net1이 이번 훈련 및 이전 복수 번의 훈련에서 조절된 네트워크 파라미터의 평균값을 통계하고, 제1 이미지 검출 모델 EMA net1의 네트워크 파라미터를 제1 원본 검출 모델 net1 네트워크 파라미터의 평균값으로 업데이트할 수 있다.Referring to FIG. 4 in combination, the first original detection model net1 stats the average value of the network parameters adjusted in this training and a plurality of previous trainings, and the network parameters of the first image detection model EMA net1 are calculated as the first original detection model net1 It can be updated with the average value of the network parameters.

단계 S37에 있어서, 제2 원본 검출 모델이 이번 훈련 및 이전 복수 번의 훈련에서 조절된 네트워크 파라미터를 사용하여, 제2 이미지 검출 모델의 네트워크 파라미터에 대해 업데이트를 수행한다.In step S37, the second original detection model updates the network parameters of the second image detection model by using the network parameters adjusted in the current training and the previous plurality of trainings.

여기서, 제2 원본 검출 모델이 이번 훈련 및 이전 복수 번의 훈련에서 조절된 네트워크 파라미터의 평균값을 통계하고, 제2 이미지 검출 모델의 네트워크 파라미터를 대응되는 제2 원본 검출 모델의 네트워크 파라미터의 평균값으로 업데이트할 수 있다. 전술된 실시예에서의 관련 단계를 참조할 수 있고, 여기서 더 이상 설명하지 않는다.Here, the second original detection model stats the average value of the network parameters adjusted in this training and a plurality of previous trainings, and the network parameter of the second image detection model is updated with the average value of the network parameter of the corresponding second original detection model. can Reference may be made to the relevant steps in the above-described embodiments, which are not further described herein.

도 4를 결합하여 참조하면, 제2 원본 검출 모델 net2가 이번 훈련 및 이전 복수 번의 훈련에서 조절된 네트워크 파라미터의 평균값을 통계하고, 제2 이미지 검출 모델 EMA net2의 네트워크 파라미터를 제2 원본 검출 모델 net2 네트워크 파라미터의 평균값으로 업데이트할 수 있다.Referring to FIG. 4 in combination, the second original detection model net2 stats the average value of the network parameters adjusted in this training and a plurality of previous trainings, and the network parameters of the second image detection model EMA net2 are compared to the second original detection model net2 It can be updated with the average value of the network parameters.

실시 시나리오에 있어서, 상기 단계 S36 및 단계 S37은 선후 순서에 따라 실행될 수 있고, 예를 들어, 먼저 단계 S36을 실행한 다음, 단계 S37을 실행하거나; 먼저 단계 S37을 실행한 다음, 단계 S36을 실행한다. 다른 실시 시나리오에 있어서, 상기 단계 S36 및 단계 S37은 동시에 실행될 수도 있고, 실제 응용에 따라 설정될 수 있으며, 여기서 한정하지 않는다.In an implementation scenario, the steps S36 and S37 may be executed in the order of precedence, for example, first executing step S36 and then executing step S37; First, step S37 is executed, and then step S36 is executed. In another implementation scenario, the steps S36 and S37 may be executed at the same time or may be set according to an actual application, but the present invention is not limited thereto.

실시 시나리오에 있어서, 제1 이미지 검출 모델 및 제2 이미지 검출 모델의 네트워크 파라미터에 대해 업데이트를 수행한 다음, 기설정 훈련 종료 조건이 만족되지 않는 경우, 상기 단계 S32 및 후속적인 단계를 다시 실행함으로써, 계속하여 제1 원본 검출 모델 및 제2 원본 검출 모델의 네트워크 파라미터에 대해 조절을 수행하고, 제1 원본 검출 모델과 대응되는 제1 이미지 검출 모델의 네트워크 파라미터 및 제2 원본 검출 모델과 대응되는 제2 이미지 검출 모델의 네트워크 파라미터에 대해 업데이트를 수행할 수 있다. 가능한 실시 시나리오에 있어서, 기설정 훈련 종료 조건은, 현재 훈련 횟수가 기설정 횟수 임계값(예를 들어, 500 회, 1000 회 등)에 도달하는 것, 제1 원본 검출 모델 및 제2 원본 검출 모델의 손실값은 기설정 손실 임계값보다 작은 것 중 어느 하나가 포함될 수 있고, 여기서 한정하지 않는다. 다른 가능한 실시 시나리오에 있어서, 훈련이 종료된 후, 제1 이미지 검출 모델, 제2 이미지 검출 모델에서의 어느 하나를 후속적인 이미지 검출의 네트워크 모델로 사용함으로써, 검출될 의학 영상 중 복수 개 기관에 대응되는 영역을 직접 얻을 수 있고, 따라서 복수 개 단일 기관 검출을 사용하여 검출될 의학 영상에 대해 각각 검출을 수행하는 동작을 피할 수 있어, 검출 계산량을 낮출 수 있다.In the implementation scenario, after updating the network parameters of the first image detection model and the second image detection model, if the preset training termination condition is not satisfied, by executing the above step S32 and subsequent steps again, Then, the network parameters of the first original detection model and the second original detection model are adjusted, and the network parameters of the first image detection model corresponding to the first original detection model and the second corresponding to the second original detection model are adjusted. An update may be performed on the network parameters of the image detection model. In a possible implementation scenario, the preset training termination condition is that the current training number reaches a preset number threshold (eg, 500 times, 1000 times, etc.), the first original detection model and the second original detection model The loss value of may include any one smaller than a preset loss threshold, but is not limited thereto. In another possible implementation scenario, after training is completed, by using any one of the first image detection model and the second image detection model as a network model for subsequent image detection, corresponding to a plurality of organs among medical images to be detected area to be detected can be directly obtained, thus avoiding the operation of performing detection for each medical image to be detected using a plurality of single-organ detection, thereby reducing the amount of detection calculation.

전술된 실시예와는 다르게, 원본 검출 모델을 제1 원본 검출 모델 및 제2 원본 검출 모델이 포함되게 설정하고, 이미지 검출 모델을 제1 원본 검출 모델과 대응되는 제1 이미지 검출 모델 및 제2 원본 검출 모델과 대응되는 제2 이미지 검출 모델이 포함되게 설정하며, 제1 원본 검출 모델 및 제2 원본 검출 모델을 각각 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 제1 검출 결과를 얻는 단계를 실행하고, 제1 이미지 검출 모델 및 제2 검출 모델을 각각 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 제2 검출 결과를 얻는 단계를 실행함으로써, 제1 원본 검출 모델의 제1 예측 영역과 실제 영역, 제2 이미지 검출 모델의 제2 예측 영역 사이의 차이를 사용하여, 제1 원본 검출 모델의 네트워크 파라미터를 조절하며, 제2 원본 검출 모델의 제1 예측 영역과 실제 영역, 제1 이미지 검출 모델의 제2 예측 영역 사이의 차이를 사용하여, 제2 원본 검출 모델의 네트워크 파라미터를 조절하고, 따라서 제1 원본 검출 모델과 대응되는 제1 이미지 검출 모델을 사용하여 제2 원본 검출 모델의 훈련을 모니터링하며, 제2 원본 검출 모델과 대응되는 제2 이미지 검출 모델을 사용하여 제1 원본 검출 모델의 훈련을 모니터링할 수 있고, 따라서 네트워크 파라미터가 여러 차례 훈련 과정에서 슈도 태깅된 실제 영역에 의해 생성된 누적 오차를 추가로 제한하여, 이미지 검출 모델의 정확성을 향상시킬 수 있다.Unlike the above-described embodiment, the original detection model is set to include the first original detection model and the second original detection model, and the image detection model is set to include the first image detection model and the second original corresponding to the first original detection model. Set to include a second image detection model corresponding to the detection model, and perform a step of obtaining a first detection result by performing detection on a sample medical image using the first original detection model and the second original detection model, respectively, , obtaining a second detection result by performing detection on the sample medical image by using the first image detection model and the second detection model, respectively, so that the first predicted area and the actual area of the first original detection model, the second 2 using the difference between the second prediction regions of the image detection model to adjust the network parameters of the first original detection model, the first prediction region and the real region of the second original detection model, and the second of the first image detection model using the difference between the prediction regions to adjust a network parameter of the second original detection model, thus monitoring the training of the second original detection model by using the first original detection model and the corresponding first image detection model; The training of the first original detection model can be monitored by using the second image detection model corresponding to the second original detection model, so that the network parameter adds the cumulative error generated by the pseudo-tagged real region in the training process several times. By limiting to , it is possible to improve the accuracy of the image detection model.

도 5를 참조하면, 도 5는 본 발명의 실시예에서 제공하는 이미지 검출 방법의 일 실시예의 흐름 예시도이다. 여기서, 하기와 같은 단계를 포함할 수 있다.Referring to FIG. 5 , FIG. 5 is a flowchart illustrating an example of an image detection method provided in an embodiment of the present invention. Here, it may include the following steps.

단계 S51에 있어서, 검출될 의학 영상 - 검출될 의학 영상에는 복수 개 기관이 포함됨 - 을 획득한다.In step S51, a medical image to be detected, the medical image to be detected including a plurality of organs, is acquired.

검출될 의학 영상에는 CT 영상, MR 영상이 포함될 수 있고, 여기서 한정하지 않는다. 가능한 실시 시나리오에 있어서, 검출될 의학 영상은 복부, 가슴, 머리 등 부위에 대해 스캔을 수행하여 얻은 것일 수 있고, 실제 응용 상황에 따라 설정될 수 있으며, 여기서 한정하지 않는다. 예를 들어, 복부에 대해 스캔을 수행하면, 검출될 의학 영상에서의 기관에는, 신장, 비장, 간, 췌장 등이 포함될 수 있고, 가슴에 대해 스캔을 수행하면, 검출될 의학 영상에서의 기관에는, 심장, 폐엽, 갑상선 등이 포함될 수 있으며, 머리에 대해 스캔을 수행하면, 검출될 의학 영상에서의 기관에는, 뇌간, 소뇌, 간뇌, 단뇌 등이 포함될 수 있다.The medical image to be detected may include, but is not limited to, a CT image and an MR image. In a possible implementation scenario, the medical image to be detected may be obtained by performing a scan on the abdomen, chest, head, etc., and may be set according to an actual application situation, but is not limited thereto. For example, when a scan is performed on the abdomen, organs in the medical image to be detected include a kidney, spleen, liver, pancreas, etc., and when a scan is performed on the chest, organs in the medical image to be detected include: , heart, lung lobe, thyroid gland, and the like, and organs in a medical image to be detected when the head is scanned may include brain stem, cerebellum, diencephalon, cerebellum, and the like.

단계 S52에 있어서, 이미지 검출 모델을 사용하여 검출될 의학 영상에 대해 검출을 수행하여, 복수 개 기관의 예측 영역을 얻는다.In step S52, detection is performed on the medical image to be detected using the image detection model to obtain prediction regions of a plurality of organs.

이미지 검출 모델은 상기 어느 한 이미지 검출 모델의 훈련 방법 실시예에서의 단계를 사용하여 훈련하여 얻은 것이고, 전술된 실시예에서의 관련 단계를 참조할 수 있고, 여기서 더 이상 설명하지 않는다. 이미지 검출 모델을 사용하여 검출될 의학 영상에 대해 검출을 수행하는 것을 통해, 복수 개 기관의 예측 영역을 직접 얻을 수 있음으로써, 복수 개 단일 기관 검출을 사용하여 검출될 의학 영상에 대해 각각 검출을 수행하는 동작을 피할 수 있어, 검출 계산량을 낮출 수 있다.The image detection model is obtained by training using the steps in the training method embodiments of any of the above image detection models, and may refer to the relevant steps in the above-described embodiments, which are not further described herein. By performing detection on a medical image to be detected using an image detection model, prediction regions of a plurality of organs can be directly obtained, so that each detection is performed for a medical image to be detected using a plurality of single-organ detection operation can be avoided, and the amount of detection calculation can be reduced.

상기 방안은, 상기 어느 한 이미지 검출 모델의 훈련 방법 실시예에서의 단계로 훈련하여 얻은 이미지 검출 모델을 사용하여, 검출될 의학 영상에 대해 검출을 수행하여, 복수 개 기관의 예측 영역을 얻고, 다중 기관 검출의 과정에 있어서, 검출 정확성을 향상시킬 수 있다.The method includes performing detection on a medical image to be detected, using the image detection model trained in the steps in the training method embodiment of the one image detection model, to obtain prediction regions of a plurality of organs, In the process of organ detection, the detection accuracy can be improved.

도 6을 참조하면, 도 6은 본 발명의 실시예에서 제공하는 이미지 검출 모델의 훈련 장치의 일 실시예의 프레임 예시도이다. 이미지 검출 모델의 훈련 장치(60)는, 샘플 의학 영상을 획득하도록 구성된 이미지 획득 모듈(61) - 샘플 의학 영상에는 적어도 하나의 태깅되지 않은 기관의 실제 영역이 슈도 태깅됨 - ; 원본 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 제1 검출 결과를 얻도록 구성된 제1 검출 모듈(62) - 제1 검출 결과에는 태깅되지 않은 기관의 제1 예측 영역이 포함됨 - ; 이미지 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 제2 검출 결과를 얻도록 구성된 제2 검출 모듈(63) - 제2 검출 결과에는 태깅되지 않은 기관의 제2 예측 영역이 포함되고, 이미지 검출 모델의 네트워크 파라미터는 원본 검출 모델의 네트워크 파라미터를 사용하여 결정된 것임 - ; 및 제1 예측 영역과 실제 영역, 제2 예측 영역 사이의 차이를 사용하여, 원본 검출 모델의 네트워크 파라미터를 조절하도록 구성된 파라미터 조절 모듈(64)을 포함한다.Referring to FIG. 6 , FIG. 6 is an exemplary frame diagram of an apparatus for training an image detection model provided in an embodiment of the present invention. The training device 60 of the image detection model includes: an image acquisition module 61 configured to acquire a sample medical image, wherein the sample medical image is pseudo-tagged with at least one untagged real region of the organ; a first detection module 62, configured to obtain a first detection result by performing detection on the sample medical image using the original detection model, wherein the first detection result includes a first predicted region of an untagged organ; a second detection module 63, configured to obtain a second detection result by performing detection on the sample medical image using the image detection model, the second detection result comprising a second predicted region of an untagged organ, the image the network parameters of the detection model are determined using the network parameters of the original detection model; and a parameter adjustment module 64, configured to adjust a network parameter of the original detection model by using the difference between the first prediction region, the real region, and the second prediction region.

상기 방안은, 샘플 의학 영상을 획득하고, 샘플 의학 영상에 적어도 하나의 태깅되지 않은 기관의 실제 영역을 슈도 태깅하는 것을 통해, 샘플 의학 영상에서는 다중 기관에 대해 실제 태깅을 수행할 필요가 없음으로써, 원본 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 태깅되지 않은 기관이 포함된 제1 기설정 영역의 제1 검출 결과를 얻고, 이미지 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 태깅되지 않은 기관이 포함된 제2 예측 영역의 제2 검출 결과를 얻음으로써, 제1 예측 영역과 실제 영역, 제2 예측 영역 사이의 차이를 사용하여, 원본 검출 모델의 네트워크 파라미터를 조절하며, 이미지 검출 모델의 네트워크 파라미터는 원본 검출 모델의 네트워크 파라미터에 기반하여 결정된 것이고, 따라서 이미지 검출 모델로 하여금 원본 검출 모델의 훈련을 모니터링할 수 있도록 하며, 이로써 네트워크 파라미터가 여러 차례 훈련 과정에서 슈도 태깅된 실제 영역에 의해 생성된 누적 오차를 제한하여, 이미지 검출 모델의 정확성을 향상시킬 수 있음으로써, 이미지 검출 모델로 하여금 원본 검출 모델을 정확하게 모니터링하여 훈련을 수행할 수 있도록 하여, 원본 검출 모델로 하여금 훈련 과정에서 네트워크 파라미터를 정확하게 조절할 수 있도록 하여, 따라서, 다중 기관 검출의 과정에서, 이미지 검출 모델의 검출 정확성을 향상시킬 수 있다.The method comprises acquiring a sample medical image and pseudo-tagging the real area of at least one untagged organ in the sample medical image, thereby eliminating the need to perform actual tagging for multiple organs in the sample medical image, By performing detection on a sample medical image using the original detection model to obtain a first detection result of a first preset region including an untagged organ, and performing detection on a sample medical image using the image detection model By obtaining the second detection result of the second prediction region including the untagged organ, the difference between the first prediction region, the real region, and the second prediction region is used to adjust the network parameters of the original detection model, the image The network parameters of the detection model are determined based on the network parameters of the original detection model, thus allowing the image detection model to monitor the training of the original detection model, whereby the network parameters are pseudo-tagged in the training process several times in the real area By limiting the cumulative error generated by It is possible to precisely adjust the network parameters, thus improving the detection accuracy of the image detection model in the process of multi-organ detection.

일부 실시예에 있어서, 원본 검출 모델은 제1 원본 검출 모델 및 제2 원본 검출 모델을 포함하고, 이미지 검출 모델은 제1 원본 검출 모델과 대응되는 제1 이미지 검출 모델 및 제2 원본 검출 모델과 대응되는 제2 이미지 검출 모델을 포함하며, 제1 검출 모듈(62)은 또한 제1 원본 검출 모델 및 제2 원본 검출 모델을 각각 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 제1 검출 결과를 얻는 단계를 실행하도록 구성되고, 제2 검출 모델(63)은 또한 제1 이미지 검출 모델 및 제2 이미지 검출 모델을 각각 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 제2 검출 결과를 얻는 단계를 실행하도록 구성되며, 파라미터 조절 모듈(64)은 또한 제1 원본 검출 모델의 제1 예측 영역과 실제 영역, 제2 이미지 검출 모델의 제2 예측 영역 사이의 차이를 사용하여, 제1 원본 검출 모델의 네트워크 파라미터를 조절하도록 구성되고, 파라미터 조절 모듈(64)은 또한 제2 원본 검출 모델의 제1 예측 영역과 실제 영역, 제1 이미지 검출 모델의 제2 예측 영역 사이의 차이를 사용하여, 제2 원본 검출 모델의 네트워크 파라미터를 조절하도록 구성된다.In some embodiments, the original detection model includes a first original detection model and a second original detection model, and the image detection model corresponds to a first image detection model and a second original detection model corresponding to the first original detection model and a second image detection model being and the second detection model 63 is further configured to execute the step of obtaining a second detection result by performing detection on the sample medical image using the first image detection model and the second image detection model, respectively. and the parameter adjustment module 64 is further configured to use the difference between the first prediction region and the real region of the first original detection model, and the second prediction region of the second image detection model, to adjust the network parameters of the first original detection model configured to adjust, the parameter adjusting module 64 is further configured to use the difference between the first prediction region and the real region of the second original detection model, and the second prediction region of the first image detection model, to adjust the value of the second original detection model configured to adjust network parameters.

전술된 실시예와는 다르게, 원본 검출 모델을 제1 원본 검출 모델 및 제2 원본 검출 모델이 포함되게 설정하고, 이미지 검출 모델을 제1 원본 검출 모델과 대응되는 제1 이미지 검출 모델 및 제2 원본 검출 모델과 대응되는 제2 이미지 검출 모델이 포함되게 설정하며, 제1 원본 검출 모델 및 제2 원본 검출 모델을 각각 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 제1 검출 결과를 얻는 단계를 실행하고, 제1 이미지 검출 모델 및 제2 검출 모델을 각각 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 제2 검출 결과를 얻는 단계를 실행함으로써, 제1 원본 검출 모델의 제1 예측 영역과 실제 영역, 제2 이미지 검출 모델의 제2 예측 영역 사이의 차이를 사용하여, 제1 원본 검출 모델의 네트워크 파라미터를 조절하며, 제2 원본 검출 모델의 제1 예측 영역과 실제 영역, 제1 이미지 검출 모델의 제2 예측 영역 사이의 차이를 사용하여, 제2 원본 검출 모델의 네트워크 파라미터를 조절하고, 따라서 제1 원본 검출 모델과 대응되는 제1 이미지 검출 모델을 사용하여 제2 원본 검출 모델의 훈련을 모니터링하며, 제2 원본 검출 모델과 대응되는 제2 이미지 검출 모델을 사용하여 제1 원본 검출 모델의 훈련을 모니터링할 수 있고, 따라서 네트워크 파라미터가 여러 차례 훈련 과정에서 슈도 태깅된 실제 영역에 의해 생성된 누적 오차를 추가로 제한하여, 이미지 검출 모델의 정확성을 향상시킬 수 있다.Unlike the above-described embodiment, the original detection model is set to include the first original detection model and the second original detection model, and the image detection model is set to include the first image detection model and the second original corresponding to the first original detection model. Set to include a second image detection model corresponding to the detection model, and perform a step of obtaining a first detection result by performing detection on a sample medical image using the first original detection model and the second original detection model, respectively, , obtaining a second detection result by performing detection on the sample medical image by using the first image detection model and the second detection model, respectively, so that the first predicted area and the actual area of the first original detection model, the second 2 using the difference between the second prediction regions of the image detection model to adjust the network parameters of the first original detection model, the first prediction region and the real region of the second original detection model, and the second of the first image detection model using the difference between the prediction regions to adjust a network parameter of the second original detection model, and thus monitor training of the second original detection model using the first original detection model and the corresponding first image detection model; The training of the first original detection model can be monitored by using the second image detection model corresponding to the second original detection model, so that the network parameter adds the cumulative error generated by the pseudo-tagged real region in the training process several times. By limiting to , it is possible to improve the accuracy of the image detection model.

일부 실시예에 있어서, 파라미터 조절 모듈(64)은, 제1 예측 영역 및 실제 영역 사이의 차이를 사용하여, 원본 검출 모델의 제1 손실값을 결정하도록 구성된 제1 손실 결정 서브 모듈; 제1 예측 영역 및 제2 예측 영역 사이의 차이를 사용하여, 원본 검출 모델의 제2 손실값을 결정하도록 구성된 제2 손실 결정 서브 모듈; 및 제1 손실값 및 제2 손실값을 사용하여, 원본 검출 모델의 네트워크 파라미터를 조절하도록 구성된 파라미터 조절 서브 모듈을 포함한다.In some embodiments, the parameter adjustment module 64 includes: a first loss determining submodule, configured to use the difference between the first prediction region and the real region to determine a first loss value of the original detection model; a second loss determining submodule, configured to use the difference between the first prediction region and the second prediction region to determine a second loss value of the original detection model; and a parameter adjustment submodule, configured to adjust a network parameter of the original detection model by using the first loss value and the second loss value.

전술된 실시예와는 다르게, 제1 예측 영역 및 실제 영역 사이의 차이를 통해, 원본 검출 모델의 제1 손실값을 결정하고, 제1 예측 영역 및 제2 예측 영역 사이의 차이를 통해, 원본 검출 모델의 제2 손실값을 결정하며, 제1 손실값 및 제2 손실값을 사용하여, 원본 검출 모델의 네트워크 파라미터를 조절함으로써, 원본 검출 모델에 의해 예측된 제1 예측 영역과 슈도 태깅된 실제 영역, 대응되는 이미지 검출 모델에 의해 예측된 제2 예측 영역 사이의 차이 이 두 개 차원에서 원본 검출 모델의 손실을 측정할 수 있음으로써, 손실 계산의 정확성을 향상시킴에 있어서 유리하여, 원본 검출 모델 네트워크 파라미터의 정확성을 향상시킴에 있어서 유리할 수 있으며, 이미지 검출 모델의 정확성을 향상시킴에 있어서 유리할 수 있다.Unlike the above-described embodiment, the first loss value of the original detection model is determined through the difference between the first prediction region and the real region, and the original is detected through the difference between the first prediction region and the second prediction region. The first predicted region predicted by the original detection model and the pseudo-tagged real region are determined by determining a second loss value of the model, and using the first and second loss values to adjust the network parameters of the original detection model , the difference between the second prediction regions predicted by the corresponding image detection model can measure the loss of the original detection model in two dimensions, which is advantageous in improving the accuracy of the loss calculation, so that the original detection model network It may be advantageous in improving the accuracy of a parameter, and may be advantageous in improving the accuracy of an image detection model.

일부 실시예에 있어서, 제1 손실 결정 서브 모듈은, 초점 손실 함수를 사용하여 제1 예측 영역 및 실제 영역에 대해 처리를 수행하여, 초점 제1 손실값을 얻도록 구성된 초점 손실 결정 유닛; 및 집합 유사도 손실 함수를 사용하여 제1 예측 영역 및 실제 영역에 대해 처리를 수행하여, 집합 유사도 제1 손실값을 얻도록 구성된 집합 유사도 손실 결정 유닛을 포함하고, 제2 손실 결정 서브 모듈은 또한 일치성 손실 함수를 사용하여 제1 예측 영역 및 제2 예측 영역에 대해 처리를 수행하여, 제2 손실값을 얻도록 구성되며, 파라미터 조절 서브 모듈은, 제1 손실값 및 제2 손실값에 대해 가중 처리를 수행하여, 가중 손실값을 얻도록 구성된 가중 처리 유닛; 및 가중 손실값을 사용하여, 원본 검출 모델의 네트워크 파라미터를 조절하도록 구성된 파라미터 조절 유닛을 포함한다.In some embodiments, the first loss determining submodule includes: a focus loss determining unit, configured to perform processing on the first prediction area and the actual area using the focus loss function, to obtain a focus first loss value; and a set similarity loss determining unit, configured to perform processing on the first prediction region and the real region using the set similarity loss function to obtain a first set similarity loss value, wherein the second loss determining submodule is further configured to match and perform processing on the first prediction region and the second prediction region by using a gender loss function to obtain a second loss value, the parameter adjustment submodule comprising: weighting for the first loss value and the second loss value a weighting processing unit, configured to perform processing to obtain a weighted loss value; and a parameter adjusting unit, configured to adjust a network parameter of the original detection model by using the weight loss value.

전술된 실시예와는 다르게, 초점 손실 함수를 사용하여 제1 예측 영역 및 실제 영역에 대해 처리를 수행하여, 초점 제1 손실값을 얻는 것을 통해, 모델로 하여금 어려운 샘플에 대한 관심도를 향상시킬 수 있음으로써, 이미지 검출 모델의 정확성을 향상시킴에 있어서 유리할 수 있고; 집합 유사도 손실 함수를 사용하여 제1 예측 영역 및 실제 영역에 대해 처리를 수행하여, 집합 유사도 제1 손실값을 얻는 것을 통해, 모델로 하여금 슈도 태깅된 실제 영역을 피팅할 수 있음으로써, 이미지 검출 모델의 정확성을 향상시킴에 있어서 유리할 수 있으며; 일치성 손실 함수를 사용하여 제1 예측 영역 및 제2 예측 영역에 대해 처리를 수행하여, 제2 손실값을 얻는 것을 통해, 원본 모델 및 이미지 검출 모델 예측의 일치성을 향상시킬 수 있고, 따라서 이미지 검출 모델의 정확성을 향상시킴에 있어서 유리할 수 있고; 제1 손실값 및 제2 손실값에 대해 가중 처리를 수행하여, 가중 손실값을 얻고, 가중 손실값을 사용하여, 원본 검출 모델의 네트워크 파라미터를 조절하는 것을 통해, 각 손실값이 훈련 과정에서의 중요성을 균형시킬 수 있음으로써, 네트워크 파라미터의 정확성을 향상시킬 수 있으며, 따라서 이미지 검출 모델의 정확성을 향상시킴에 있어서 유리할 수 있다.Unlike the above-described embodiment, processing is performed on the first prediction region and the real region using a focus loss function to obtain a focus first loss value, so that the model can improve interest in difficult samples. As such, it can be advantageous in improving the accuracy of the image detection model; By performing processing on the first prediction region and the real region using the set similarity loss function to obtain a first loss value of the set similarity, the model can fit the pseudo-tagged real region, thereby enabling the image detection model may be advantageous in improving the accuracy of By performing processing on the first prediction region and the second prediction region using the coincidence loss function to obtain a second loss value, it is possible to improve the correspondence between the original model and the image detection model prediction, and thus the image It can be advantageous in improving the accuracy of the detection model; Weight processing is performed on the first loss value and the second loss value to obtain a weighted loss value, and by using the weighted loss value to adjust the network parameters of the original detection model, each loss value is determined in the training process. By being able to balance the importance, the accuracy of the network parameters can be improved, and thus it can be advantageous in improving the accuracy of the image detection model.

일부 실시예에 있어서, 샘플 의학 영상에는 태깅된 기관의 실제 영역이 더 포함되고, 제1 검출 결과에는 태깅된 기관의 제1 예측 영역이 더 포함되며, 제2 검출 결과에는 태깅된 기관의 제2 예측 영역이 더 포함된다. 제1 손실 결정 서브 모듈은 또한 태깅되지 않은 기관 및 태깅된 기관의 제1 예측 영역 및 실제 영역 사이의 차이를 사용하여, 원본 검출 모델의 제1 손실값을 결정하도록 구성되고, 태깅되지 않은 기관의 제1 예측 영역 및 대응되는 제2 예측 영역 사이의 차이를 사용하여, 원본 검출 모델의 제2 손실값을 결정하도록 구성된다.In some embodiments, the sample medical image further includes an actual region of the tagged organ, the first detection result further includes a first predicted region of the tagged organ, and the second detection result includes a second of the tagged organ. A prediction area is further included. The first loss determining submodule is further configured to determine a first loss value of the original detection model by using the difference between the first predicted region and the real region of the untagged organ and the tagged organ, wherein the and use the difference between the first prediction region and the corresponding second prediction region to determine a second loss value of the original detection model.

전술된 실시예와는 다르게, 샘플 의학 영상에서 태깅된 기관의 실제 영역을 설정하고, 제1 검출 결과에는 태깅된 기관의 제1 예측 영역이 더 포함되며, 제2 검출 결과에는 태깅된 기관의 제2 예측 영역이 더 포함되고, 원본 검출 모델의 제1 손실값을 결정하는 과정에 있어서, 제1 예측 영역 및 실제 영역 사이의 차이를 종합적으로 고려하며, 원본 검출 모델의 제2 손실값을 결정하는 과정에 있어서, 태깅되지 않은 기관의 제1 예측 영역 및 대응되는 제2 예측 영역 사이의 차이만 고려함으로써, 원본 검출 모델 및 이미지 검출 모델 일치성 제한의 로버스트를 향상시킬 수 있고, 따라서 이미지 검출 모델의 정확성을 향상시킬 수 있다.Unlike the above-described embodiment, an actual area of a tagged organ is set in the sample medical image, a first prediction area of the tagged organ is further included in the first detection result, and the second detection result of the tagged organ is set in the second detection result. 2 prediction regions are further included, and in the process of determining the first loss value of the original detection model, the difference between the first prediction region and the actual region is comprehensively considered, and the second loss value of the original detection model is determined In the process, by only considering the difference between the first prediction region and the corresponding second prediction region of an untagged organ, it is possible to improve the robustness of the original detection model and the image detection model concordance limitation, and thus the image detection model can improve the accuracy of

일부 실시예에 있어서, 이미지 검출 모델의 훈련 장치(60)는 이번 훈련 및 이전 복수 번의 훈련에서 조절된 네트워크 파라미터를 사용하여, 이미지 검출 모델의 네트워크 파라미터에 대해 업데이트를 수행하도록 구성된 파라미터 업데이트 모듈을 더 포함한다.In some embodiments, the apparatus 60 for training the image detection model further includes a parameter update module configured to perform an update on the network parameters of the image detection model by using the network parameters adjusted in this training and the previous plurality of trainings. include

전술된 실시예와는 다르게, 원본 검출 모델이 이번 훈련 및 이전 복수 번의 훈련에서 조절된 네트워크 파라미터를 사용하여, 이미지 검출 모델의 네트워크 파라미터에 대해 업데이트를 수행하는 것을 통해, 네트워크 파라미터가 여러 차례 훈련 과정에서 슈도 태깅된 실제 영역에 의해 생성된 누적 오차를 추가로 제한하여, 이미지 검출 모델의 정확성을 향상시킬 수 있다.Unlike the above-described embodiment, the original detection model uses the network parameters adjusted in this training and a plurality of previous trainings to update the network parameters of the image detection model, so that the network parameters are changed several times during the training process. By further limiting the cumulative error generated by the pseudo-tagged real region in , the accuracy of the image detection model can be improved.

일부 실시예에 있어서, 파라미터 업데이트 모듈은 원본 검출 모델이 이번 훈련 및 이전 복수 번의 훈련에서 조절된 네트워크 파라미터의 평균값을 통계하도록 구성된 통계 서브 모듈; 및 이미지 검출 모델의 네트워크 파라미터를 대응되는 원본 검출 모델의 네트워크 파라미터의 평균값으로 업데이트하도록 구성된 업데이트 서브 모듈을 포함한다.In some embodiments, the parameter update module includes: a statistics sub-module configured to statistic average values of network parameters adjusted by the original detection model in the current training and the previous plurality of trainings; and an update submodule, configured to update the network parameter of the image detection model to an average value of the network parameter of the corresponding original detection model.

전술된 실시예와는 다르게, 원본 검출 모델이 이번 훈련 및 이전 복수 번의 훈련에서 조절된 네트워크 파라미터의 평균값을 통계하고, 이미지 검출 모델의 네트워크 파라미터를 대응되는 원본 검출 모델의 네트워크 파라미터의 평균값으로 업데이트하는 것을 통해, 여러 차례 훈련 과정에서 생성된 누적 오차를 빠르게 제한하는데 유리하여, 이미지 검출 모델의 정확성을 향상시킬 수 있다.Unlike the above-described embodiment, the original detection model stats the average value of the network parameters adjusted in this training and a plurality of previous trainings, and updates the network parameters of the image detection model to the average values of the network parameters of the corresponding original detection model. Through this, it is advantageous to quickly limit the accumulated error generated in the training process several times, and thus the accuracy of the image detection model can be improved.

일부 실시예에 있어서, 이미지 획득 모듈(61)은 슈도 태깅될 의학 영상을 획득하도록 구성된 이미지 획득 서브 모듈 - 슈도 태깅될 의학 영상에는 적어도 하나의 태깅되지 않은 기관이 존재함 - ; 각 태깅되지 않은 기관과 대응되는 단일 기관 검출 모델을 각각 사용하여 슈도 태깅될 의학 영상에 대해 검출을 수행함으로써, 각 태깅되지 않은 기관의 기관 예측 영역을 얻도록 구성된 단일 기관 검출 서브 모듈; 및 태깅되지 않은 기관의 기관 예측 영역을 태깅되지 않은 기관의 실제 영역으로 슈도 태깅하고, 슈도 태깅된 슈도 태깅될 의학 영상을 샘플 의학 영상으로 사용하도록 구성된 슈도 태깅 서브 모듈을 포함한다.In some embodiments, the image acquisition module 61 includes: an image acquisition submodule configured to acquire a medical image to be pseudo-tagged, wherein at least one untagged organ is present in the medical image to be pseudo-tagged; a single organ detection submodule, configured to perform detection on a medical image to be pseudo-tagged by using each untagged organ and a corresponding single organ detection model, respectively, to obtain an organ prediction region of each untagged organ; and a pseudo-tagging sub-module, configured to pseudo-tag an organ predicted region of an untagged organ to an actual region of an untagged organ, and use the pseudo-tagged pseudo-tagged medical image as a sample medical image.

전술된 실시예와는 다르게, 적어도 하나의 태깅되지 않은 기관이 존재하는 슈도 태깅될 의학 영상을 획득하고, 각 태깅되지 않은 기관과 대응되는 단일 기관 검출 모델을 각각 사용하여 슈도 태깅될 의학 영상에 대해 검출을 수행함으로써, 각 태깅되지 않은 기관의 기관 예측 영역을 얻으며, 태깅되지 않은 기관의 기관 예측 영역을 태깅되지 않은 기관의 실제 영역으로 슈도 태깅 하여, 슈도 태깅된 슈도 태깅될 의학 영상을 샘플 의학 영상으로 사용하는 것을 통해, 단일 기관 검출 모델을 사용하여 인공적으로 다중 기관에 대해 태깅을 수행하는 작업량을 피할 수 있음으로써, 다중 기관 검출을 위한 이미지 검출 모델을 훈련하는 인건 비용을 낮추는데 유리하고, 훈련의 효율을 높일 수 있다.Unlike the above-described embodiment, a medical image to be pseudo-tagged in which at least one untagged organ is present is acquired, and a single organ detection model corresponding to each untagged organ is respectively used for the pseudo-tagged medical image. By performing detection, an organ predicted region of each untagged organ is obtained, pseudo-tagged the organ predicted region of an untagged organ with an actual region of an untagged organ, and pseudo-tagged medical images to be pseudo-tagged are sampled medical images. Through the use of a single organ detection model, it is possible to avoid the workload of artificially performing tagging for multiple organs using a single organ detection model, which is advantageous in lowering the labor cost of training an image detection model for multi-organ detection, and efficiency can be increased.

일부 실시예에 있어서, 슈도 태깅될 의학 영상은 적어도 하나의 태깅된 기관을 포함하고, 이미지 획득 모듈(61)은 슈도 태깅될 의학 영상을 사용하여, 슈도 태깅될 의학 영상에서의 태깅된 기관에 대응되는 단일 기관 검출 모델에 대해 훈련을 수행하도록 구성된 단일 기관 훈련 서브 모듈을 더 포함한다.In some embodiments, the medical image to be pseudo-tagged comprises at least one tagged organ, and the image acquisition module 61 uses the medical image to be pseudo-tagged to correspond to the tagged organ in the medical image to be pseudo-tagged. and a single-organ training sub-module, configured to perform training on the single-organ detection model to be used.

전술된 실시예와는 다르게, 슈도 태깅될 의학 영상에는 적어도 하나의 태깅된 기관이 포함되고, 슈도 태깅될 의학 영상을 사용하여 슈도 태깅될 의학 영상에서의 태깅된 기관에 대응되는 단일 기관 검출 모델에 대해 훈련을 수행하여, 단일 기관 검출 모델의 정확성을 향상시킬 수 있음으로써, 후속적인 슈도 태깅의 정확성을 향상시키는데 유리할 수 있으며, 후속적으로 이미지 검출 모델을 훈련시키는 정확성을 향상시키는데 유리할 수 있다.Unlike the above-described embodiment, at least one tagged organ is included in the medical image to be pseudo-tagged, and a single organ detection model corresponding to the tagged organ in the medical image to be pseudo-tagged is generated using the pseudo-tagged medical image. It may be advantageous to improve the accuracy of subsequent pseudo-tagging by performing training on a single organ detection model, thereby improving the accuracy of subsequently training the image detection model.

일부 실시예에 있어서, 이미지 획득 서브 모듈은 차원 의학 영상을 획득하도록 구성된 3차원 이미지 획득 유닛; 3차원 의학 영상에 대해 사전 처리를 수행하도록 구성된 사전 처리 유닛; 및 사전 처리된 3차원 의학 영상을 크롭 처리하여, 적어도 하나의 2차원의 슈도 태깅될 의학 영상을 얻도록 구성된 이미지 크롭 유닛을 포함한다.In some embodiments, the image acquisition submodule includes: a three-dimensional image acquisition unit, configured to acquire a 3D medical image; a pre-processing unit configured to perform pre-processing on the three-dimensional medical image; and an image cropping unit, configured to crop the pre-processed three-dimensional medical image to obtain at least one two-dimensional pseudo-tagged medical image.

전술된 실시예와는 다르게, 3차원 의학 영상을 획득하고, 3차원 의학 영상에 대해 사전 처리를 수행함으로써, 사전 처리된 3차원 의학 영상에 대해 크롭 처리하여, 적어도 하나의 2차원의 슈도 태깅될 의학 영상을 얻는 것을 통해, 모델 훈련을 만족시키는 의학 영상을 얻는데 유리할 수 있음으로써, 후속적인 이미지 검출 모델 훈련의 정확성을 향상시키는데 유리할 수 있다.Unlike the above-described embodiment, by obtaining a 3D medical image and performing pre-processing on the 3D medical image, the pre-processed 3D medical image is cropped and at least one 2D pseudo-tagged Through obtaining a medical image, it may be advantageous to obtain a medical image that satisfies model training, thereby improving the accuracy of subsequent image detection model training.

일부 실시예에 있어서, 사전 처리 유닛은 또한 3차원 의학 영상의 복셀 해상도를 기설정 해상도로 조절하는 단계; 기설정 창값을 사용하여 3차원 의학 영상의 복셀 값을 기설정 범위 내로 정규화하는 단계; 및 3차원 의학 영상의 적어도 부분적 복셀에 가우시안 노이즈를 추가하는 단계 중 적어도 하나를 실행하도록 구성된다.In some embodiments, the pre-processing unit further comprises: adjusting the voxel resolution of the 3D medical image to a preset resolution; normalizing the voxel value of the 3D medical image within a preset range using a preset window value; and adding Gaussian noise to at least partial voxels of the 3D medical image.

전술된 실시예와는 다르게, 3차원 의학 영상의 복셀 해상도를 기설정 해상도로 조절하는 단계는, 후속적인 모델 예측 처리에 유리할 수 있고; 기설정 창값을 사용하여 3차원 의학 영상의 복셀 값을 기설정 범위 내로 정규화하는 단계는, 모델이 정확한 특징을 추출하는데 유리할 수 있으며; 3차원 의학 영상의 적어도 부분적 복셀에 가우시안 노이즈를 추가하는 단계는, 데이터 증강을 구현하여, 데이터 다양성을 향상시키며, 후속적인 모델 훈련의 정확성을 향상시키는데 유리할 수 있다.Unlike the above-described embodiment, adjusting the voxel resolution of the 3D medical image to the preset resolution may be advantageous for subsequent model prediction processing; Normalizing the voxel value of the 3D medical image within the preset range using the preset window value may be advantageous for the model to extract accurate features; The step of adding Gaussian noise to at least partial voxels of the 3D medical image may be advantageous for implementing data augmentation, improving data diversity, and improving accuracy of subsequent model training.

도 7을 참조하면, 도 7은 본 발명의 실시예에서 제공하는 이미지 검출 장치의 일 실시예의 프레임 예시도이다. 이미지 검출 장치(70)는, 검출될 의학 영상을 획득하도록 구성된 이미지 획득 모듈(71) - 검출될 의학 영상에는 복수 개 기관이 포함됨 - ; 및 이미지 검출 모델을 사용하여 검출될 의학 영상에 대해 검출을 수행하여, 복수 개 기관의 예측 영역을 얻도록 구성된 이미지 검출 모듈(72) - 이미지 검출 모델은 상기 어느 한 이미지 검출 모델의 훈련 장치 실시예에서의 이미지 검출 모델의 훈련 장치를 사용하여 훈련하여 얻은 것임 - 을 포함한다.Referring to FIG. 7 , FIG. 7 is a frame diagram of an embodiment of an image detection apparatus provided in an embodiment of the present invention. The image detection device 70 includes: an image acquisition module 71 configured to acquire a medical image to be detected, wherein the medical image to be detected includes a plurality of organs; and an image detection module 72, configured to perform detection on a medical image to be detected using the image detection model to obtain prediction regions of a plurality of organs, wherein the image detection model is a training device embodiment of any of the above image detection models obtained by training using the training device of the image detection model in

상기 방안은, 상기 어느 한 이미지 검출 모델의 훈련 장치 실시예에서의 이미지 검출 모델의 훈련 장치로 훈련하여 얻은 이미지 검출 모델을 사용하여 검출될 의학 영상에 대해 검출을 수행하여 복수 개 기관의 예측 영역을 얻고, 다중 기관 검출의 과정에 있어서, 검출 정확성을 향상시킬 수 있다.The method includes performing detection on a medical image to be detected using an image detection model obtained by training with a training apparatus for an image detection model in an embodiment of the training apparatus for an image detection model, and predicting regions of a plurality of organs. and improve the detection accuracy in the process of multi-organ detection.

도 8을 참조하면, 도 8은 본 발명의 실시예에서 제공하는 전자 기기의 일 실시예의 프레임 예시도이다. 전자 기기(80)는, 상호 커플링된 메모리(81) 및 프로세서(82)를 포함하고, 프로세서(82)는 메모리(81)에 저장된 프로그램 명령어를 실행함으로써, 상기 어느 한 이미지 검출 모델의 훈련 방법 실시예의 단계를 구현하거나, 상기 어느 한 이미지 검출 방법 실시예에서의 단계를 구현하도록 구성된다. 가능한 실시 시나리오에 있어서, 전자 기기(80)는 마이크로컴퓨터, 서버를 포함할 수 있지만 이에 한정되지 않고, 이 밖에, 전자 기기(80)는 노트북 컴퓨터, 태블릿 컴퓨터 등 모바일 기기를 더 포함할 수 있으며, 여기서 한정하지 않는다.Referring to FIG. 8 , FIG. 8 is a frame diagram of an embodiment of an electronic device provided in an embodiment of the present invention. The electronic device 80 includes a memory 81 and a processor 82 coupled to each other, and the processor 82 executes program instructions stored in the memory 81 , thereby training a method of any one of the image detection models. is configured to implement the steps of the embodiments, or to implement the steps in any of the above image detection method embodiments. In a possible implementation scenario, the electronic device 80 may include, but is not limited to, a microcomputer and a server, in addition, the electronic device 80 may further include a mobile device such as a notebook computer and a tablet computer, It is not limited here.

여기서, 프로세서(82)는 자체 및 메모리(81)를 제어함으로써 상기 어느 한 이미지 검출 모델의 훈련 방법 실시예의 단계를 구현하거나, 상기 어느 한 이미지 검출 방법 실시예에서의 단계를 구현하도록 구성된다. 프로세서(82)는 중앙 처리 장치(Central Processing Unit, CPU)로 지칭될 수도 있다. 프로세서(82)는 신호 처리 능력을 구비한 집적 회로 칩일 수 있다. 프로세서(82)는 범용 프로세서, 디지털 시그널 프로세서(Digital Signal Processor, DSP), 응용 주문형 집적 회로(Application Specific Integrated Circuit, ASIC), 필드 프로그래머블 게이트 어레이(Field Programmable Gate Array, FPGA) 또는 다른 프로그램 가능 논리 소자, 이산 게이트 또는 트랜지스터 논리 장치, 이산 하드웨어 컴포넌트 등일 수도 있다. 범용 프로세서는 마이크로프로세서일 수 있고 또는 상기 프로세서는 임의의 일반적인 프로세서 등일 수도 있다 이 밖에, 프로세서(82)는 집적 회로 칩에 의해 공동으로 구현될 수 있다.Here, the processor 82 is configured to implement the steps of the training method embodiment of the one image detection model, or implement the steps in the one image detection method embodiment by controlling itself and the memory 81 . The processor 82 may also be referred to as a central processing unit (CPU). The processor 82 may be an integrated circuit chip with signal processing capability. The processor 82 may be a general purpose processor, a digital signal processor (DSP), an application specific integrated circuit (ASIC), a field programmable gate array (FPGA), or other programmable logic device. , a discrete gate or transistor logic device, a discrete hardware component, or the like. The general-purpose processor may be a microprocessor, or the processor may be any general processor, etc. Alternatively, the processor 82 may be jointly implemented by an integrated circuit chip.

상기 방안은, 다중 기관 검출의 과정에 있어서, 검출 정확성을 향상시킬 수 있다.The above method can improve detection accuracy in the process of multi-organ detection.

도 9를 참조하면, 도 9는 본 발명의 실시예에서 제공하는 컴퓨터 판독 가능 저장 매체의 일 실시예의 프레임 예시도이다. 컴퓨터 판독 가능 저장 매체(90)에는 프로세서에 의해 작동될 수 있는 프로그램 명령어(901)가 저장되어 있고, 프로그램 명령어(901)는 상기 어느 한 이미지 검출 모델의 훈련 방법 실시예의 단계를 구현하거나, 상기 어느 한 이미지 검출 방법 실시예에서의 단계를 구현하도록 구성된다.Referring to FIG. 9, FIG. 9 is a frame diagram of an embodiment of a computer-readable storage medium provided by an embodiment of the present invention. The computer readable storage medium 90 stores program instructions 901 that can be operated by a processor, and the program instructions 901 implement the steps of an embodiment of the training method of any one of the image detection models, or any of the above and implement the steps in one image detection method embodiment.

상기 방안은, 다중 기관 검출의 과정에 있어서, 검출 정확성을 향상시킬 수 있다.The above method can improve detection accuracy in the process of multi-organ detection.

본 발명의 실시예에서 제공하는 이미지 검출 모델의 훈련 방법 또는 이미지 검출 방법의 컴퓨터 프로그램 제품은, 프로그램 코드가 저장된 컴퓨터 판독 가능 저장 매체를 포함하고, 상기 프로그램 코드에 포함된 명령어는 상기 방법 실시예에 따른 이미지 검출 모델의 훈련 방법 또는 이미지 검출 방법의 단계를 실행하도록 구성될 수 있으며, 상기 방법 실시예를 참조할 수 있고, 여기서 더 이상 설명하지 않는다.The computer program product of the image detection method training method or the image detection method provided in the embodiment of the present invention includes a computer-readable storage medium storing the program code, and the instructions included in the program code are in the method embodiment and may be configured to execute the steps of the image detection method training method or image detection method according to the method, and may refer to the above method embodiments, which are not further described herein.

본 발명의 실시예는 컴퓨터 프로그램을 더 제공하고, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 때, 전술된 실시예의 어느 한 방법을 구현한다. 상기 컴퓨터 프로그램 제품은 하드웨어, 소프트웨어 또는 이들의 결합의 형태를 통해 구현될 수 있다. 선택적인 실시예에 있어서, 상기 컴퓨터 프로그램 제품은 컴퓨터 저장 매체로서 체현되고, 다른 선택적인 실시예에 있어서, 컴퓨터 프로그램 제품은 예를 들어 소프트웨어 개발 키트(Software Development Kit, SDK) 등과 같은 소프트웨어 제품으로서 체현된다.An embodiment of the present invention further provides a computer program, and when the computer program is executed by a processor, it implements the method of any one of the above embodiments. The computer program product may be implemented in the form of hardware, software, or a combination thereof. In an alternative embodiment, the computer program product is embodied as a computer storage medium, and in another alternative embodiment, the computer program product is embodied as a software product, for example, a Software Development Kit (SDK) or the like. do.

본 발명에서 제공하는 몇 개의 실시예에 있어서, 개시된 방법 및 장치는 다른 형태로 구현될 수 있음을 이해해야 한다. 예를 들어, 위에서 설명한 장치 실시 형태는 다만 예시적일 뿐이고, 예를 들어, 모듈 또는 유닛의 분할은 단지 논리적 기능 분할이고, 실제로 구현되는 과정에는 다른 분할 형태가 있을 수 있으며, 예를 들어, 유닛 또는 컴포넌트는 다른 시스템에 결합 또는 통합될 수 있거나 일부 특징을 무시하거나 실행하지 않을 수 있다. 또한, 표시되거나 논의된 상호 간의 커플링 또는 직접 커플링 또는 통신 연결은 일부 인터페이스, 장치 또는 유닛을 통한 간접 커플링 또는 통신 연결일 수 있고, 전기적, 기계적 또는 다른 형태일 수 있다.In the several embodiments provided in the present invention, it should be understood that the disclosed method and apparatus may be embodied in other forms. For example, the device embodiment described above is merely exemplary, for example, the division of a module or unit is merely logical function division, and there may be other division forms in the process actually implemented, for example, a unit or Components may be combined or integrated into other systems, or some features may be ignored or not implemented. Further, the mutual or direct coupling or communication connection shown or discussed may be an indirect coupling or communication connection through some interface, device or unit, and may be in an electrical, mechanical or other form.

분리 부재로서 설명된 유닛은 물리적으로 분리되거나, 분리되지 않을 수도 있고, 유닛으로서 게시된 부재는 물리적 유닛일 수도, 아닐 수도 있으며, 즉 한곳에 위치할 수 있거나, 네트워크 유닛에 분포될 수도 있다. 실제 필요에 따라 그중의 일부 또는 전부를 선택하여 본 실시 형태 방안의 목적을 구현할 수 있다.A unit described as a separate member may or may not be physically separated, and a member posted as a unit may or may not be a physical unit, ie, may be located in one location or distributed in a network unit. According to actual needs, some or all of them may be selected to implement the purpose of the present embodiment method.

또한, 본 발명의 각 실시예에서의 각 기능 유닛은 하나의 처리 유닛에 통합될 수 있고, 각 유닛이 단독 물리적으로 존재할 수도 있으며, 두 개 또는 두 개 이상의 유닛이 하나의 유닛에 통합될 수도 있다. 상기 통합된 유닛은 하드웨어의 형태로 구현될 수 있을 뿐만 아니라, 소프트웨어 기능 유닛의 형태로 구현될 수도 있다.In addition, each functional unit in each embodiment of the present invention may be integrated into one processing unit, each unit may exist alone physically, and two or two or more units may be integrated into one unit. . The integrated unit may be implemented in the form of hardware as well as in the form of a software functional unit.

통합된 유닛은 만약 소프트웨어 기능 유닛의 형태로 구현되고 단독적인 제품으로 판매되거나 사용될 때, 하나의 컴퓨터 판독 가능한 저장 매체에 저장될 수 있다. 이러한 이해에 기반하여, 본 발명의 기술적 방안은 본질적으로 또는 기존 기술에 대해 기여하는 부분이나 상기 기술적 방안의 전부 또는 부분은 소프트웨어 제품의 형태로 구현될 수 있고, 상기 컴퓨터 소프트웨어 제품은 하나의 저장 매체에 저장되며, 컴퓨터 기기(개인용 컴퓨터, 서버, 또는 네트워크 기기 등일 수 있음) 또는 프로세서(processor)로 하여금 본 발명의 각 실시 형태 방법의 전부 또는 부분 단계를 실행하도록 하는 몇 개의 명령어를 포함한다. 전술된 저장 매체는 USB 메모리, 외장 하드, 읽기 전용 메모리(Read-Only Memory, ROM), 랜덤 액세스 메모리(Random Access Memory, RAM), 디스켓 또는 CD 등 프로그램 코드를 저장할 수 있는 다양한 매체를 포함한다.If the integrated unit is implemented in the form of a software functional unit and sold or used as a standalone product, it may be stored in one computer-readable storage medium. Based on this understanding, the technical solution of the present invention essentially or a part contributing to the existing technology, but all or part of the technical solution may be implemented in the form of a software product, and the computer software product is a storage medium and includes several instructions that cause a computer device (which may be a personal computer, a server, or a network device, etc.) or a processor to execute all or partial steps of the method of each embodiment of the present invention. The above-described storage medium includes various media capable of storing a program code, such as a USB memory, an external hard drive, a read-only memory (ROM), a random access memory (RAM), a diskette or a CD.

본 발명의 실시예는 샘플 의학 영상을 획득하고 - 샘플 의학 영상에는 적어도 하나의 태깅되지 않은 기관의 실제 영역이 슈도 태깅됨 - ; 원본 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 태깅되지 않은 기관의 제1 예측 영역이 포함된 제1 검출 결과를 얻으며; 이미지 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 태깅되지 않은 기관의 제2 예측 영역이 포함된 제2 검출 결과를 얻고 - 이미지 검출 모델의 네트워크 파라미터는 원본 검출 모델의 네트워크 파라미터에 기반하여 결정된 것임 - ; 제1 예측 영역과 실제 영역, 제2 예측 영역 사이의 차이를 사용하는 것을 통해 원본 검출 모델의 네트워크 파라미터를 조절한다. 이렇게, 다중 기관 검출의 과정에 있어서, 검출 정확성을 향상시킬 수 있다.Embodiments of the present invention include acquiring a sample medical image, wherein the sample medical image is pseudo-tagged with at least one untagged real area of the organ; performing detection on the sample medical image using the original detection model to obtain a first detection result including a first predicted region of an untagged organ; performing detection on the sample medical image using the image detection model to obtain a second detection result including a second predicted region of an untagged organ - the network parameters of the image detection model are determined based on the network parameters of the original detection model It is decided - ; The network parameters of the original detection model are adjusted by using the difference between the first prediction region, the real region, and the second prediction region. In this way, in the process of multi-organ detection, detection accuracy can be improved.

Claims (19)

이미지 검출 모델의 훈련 방법으로서,
샘플 의학 영상을 획득하는 단계 - 상기 샘플 의학 영상에는 적어도 하나의 태깅되지 않은 기관의 실제 영역이 슈도 태깅됨 - ;
원본 검출 모델을 사용하여 상기 샘플 의학 영상에 대해 검출을 수행함으로써 제1 검출 결과를 얻는 단계 - 상기 제1 검출 결과에는 상기 태깅되지 않은 기관의 제1 예측 영역이 포함됨 - ;
이미지 검출 모델을 사용하여 상기 샘플 의학 영상에 대해 검출을 수행함으로써 제2 검출 결과를 얻는 단계 - 상기 제2 검출 결과에는 상기 태깅되지 않은 기관의 제2 예측 영역이 포함되고, 상기 이미지 검출 모델의 네트워크 파라미터는 상기 원본 검출 모델의 네트워크 파라미터에 기반하여 결정된 것임 - ; 및
상기 제1 예측 영역과 상기 실제 영역, 상기 제2 예측 영역 사이의 차이를 사용하여, 상기 원본 검출 모델의 네트워크 파라미터를 조절하는 단계를 포함하는 것을 특징으로 하는 이미지 검출 모델의 훈련 방법.
A method for training an image detection model, comprising:
acquiring a sample medical image, wherein the sample medical image is pseudo-tagged with at least one untagged real area of the organ;
obtaining a first detection result by performing detection on the sample medical image using an original detection model, wherein the first detection result includes a first predicted region of the untagged organ;
obtaining a second detection result by performing detection on the sample medical image using an image detection model, wherein the second detection result includes a second predicted region of the untagged organ, the network of the image detection model the parameter is determined based on the network parameter of the original detection model; and
and adjusting a network parameter of the original detection model by using a difference between the first prediction region, the real region, and the second prediction region.
제1항에 있어서,
상기 원본 검출 모델은 제1 원본 검출 모델 및 제2 원본 검출 모델을 포함하고, 상기 이미지 검출 모델은 제1 원본 검출 모델과 대응되는 제1 이미지 검출 모델 및 제2 원본 검출 모델과 대응되는 제2 이미지 검출 모델이 포함하며;
상기 원본 검출 모델을 사용하여 상기 샘플 의학 영상에 대해 검출을 수행함으로써 제1 검출 결과를 얻는 단계는,
상기 제1 원본 검출 모델 및 상기 제2 원본 검출 모델을 각각 사용하여 상기 샘플 의학 영상에 대해 검출을 수행함으로써 제1 검출 결과를 얻는 단계를 포함하고;
상기 이미지 검출 모델을 사용하여 상기 샘플 의학 영상에 대해 검출을 수행함으로써 제2 검출 결과를 얻는 단계는,
상기 제1 이미지 검출 모델 및 상기 제2 이미지 검출 모델을 각각 사용하여 상기 샘플 의학 영상에 대해 검출을 수행함으로써 제2 검출 결과를 얻는 단계를 포함하며;
상기 제1 예측 영역과 상기 실제 영역, 상기 제2 예측 영역 사이의 차이를 사용하여, 상기 원본 검출 모델의 네트워크 파라미터를 조절하는 단계는,
상기 제1 원본 검출 모델의 제1 예측 영역과 상기 실제 영역, 상기 제2 이미지 검출 모델의 제2 예측 영역 사이의 차이를 사용하여, 상기 제1 원본 검출 모델의 네트워크 파라미터를 조절하는 단계; 및
상기 제2 원본 검출 모델의 제1 예측 영역과 상기 실제 영역, 상기 제1 이미지 검출 모델의 제2 예측 영역 사이의 차이를 사용하여, 상기 제2 원본 검출 모델의 네트워크 파라미터를 조절하는 단계를 포함하는 것을 특징으로 하는 이미지 검출 모델의 훈련 방법.
According to claim 1,
The original detection model includes a first original detection model and a second original detection model, and the image detection model includes a first image detection model corresponding to the first original detection model and a second image corresponding to the second original detection model detection models include;
Obtaining a first detection result by performing detection on the sample medical image using the original detection model,
obtaining a first detection result by performing detection on the sample medical image using the first original detection model and the second original detection model, respectively;
obtaining a second detection result by performing detection on the sample medical image using the image detection model,
obtaining a second detection result by performing detection on the sample medical image using the first image detection model and the second image detection model, respectively;
adjusting the network parameter of the original detection model by using a difference between the first prediction region, the real region, and the second prediction region,
adjusting a network parameter of the first original detection model by using a difference between a first prediction region of the first original detection model, the real region, and a second prediction region of the second image detection model; and
adjusting a network parameter of the second original detection model by using a difference between the first prediction region of the second original detection model, the real region, and the second prediction region of the first image detection model Training method of the image detection model, characterized in that.
제1항 또는 제2항에 있어서,
상기 제1 예측 영역과 상기 실제 영역, 상기 제2 예측 영역 사이의 차이를 사용하여, 상기 원본 검출 모델의 네트워크 파라미터를 조절하는 단계는,
상기 제1 예측 영역 및 상기 실제 영역 사이의 차이를 사용하여, 상기 원본 검출 모델의 제1 손실값을 결정하는 단계;
상기 제1 예측 영역 및 상기 제2 예측 영역 사이의 차이를 사용하여, 상기 원본 검출 모델의 제2 손실값을 결정하는 단계; 및
상기 제1 손실값 및 상기 제2 손실값을 사용하여, 상기 원본 검출 모델의 네트워크 파라미터를 조절하는 단계를 포함하는 것을 특징으로 하는 이미지 검출 모델의 훈련 방법.
3. The method of claim 1 or 2,
adjusting the network parameter of the original detection model by using a difference between the first prediction region, the real region, and the second prediction region,
determining a first loss value of the original detection model by using a difference between the first prediction region and the real region;
determining a second loss value of the original detection model by using a difference between the first prediction region and the second prediction region; and
and adjusting a network parameter of the original detection model by using the first loss value and the second loss value.
제3항에 있어서,
상기 제1 예측 영역 및 상기 실제 영역 사이의 차이를 사용하여, 상기 원본 검출 모델의 제1 손실값을 결정하는 단계는,
초점 손실 함수를 사용하여 상기 제1 예측 영역 및 상기 실제 영역에 대해 처리를 수행하여, 초점 제1 손실값을 얻는 단계; 및
집합 유사도 손실 함수를 사용하여 상기 제1 예측 영역 및 상기 실제 영역에 대해 처리를 수행하여, 집합 유사도 제1 손실값을 얻는 단계 중 적어도 하나를 포함하는 것을 특징으로 하는 이미지 검출 모델의 훈련 방법.
4. The method of claim 3,
determining a first loss value of the original detection model by using a difference between the first prediction region and the real region,
performing processing on the first prediction region and the actual region using a focus loss function to obtain a focus first loss value; and
and performing processing on the first prediction region and the real region using a set similarity loss function to obtain a first loss value of set similarity.
제3항에 있어서,
상기 제1 예측 영역 및 상기 제2 예측 영역 사이의 차이를 사용하여, 상기 원본 검출 모델의 제2 손실값을 결정하는 단계는,
일치성 손실 함수를 사용하여 상기 제1 예측 영역 및 상기 제2 예측 영역에 대해 처리를 수행하여, 상기 제2 손실값을 얻는 단계를 포함하는 것을 특징으로 하는 이미지 검출 모델의 훈련 방법.
4. The method of claim 3,
determining a second loss value of the original detection model by using a difference between the first prediction region and the second prediction region,
and performing processing on the first prediction region and the second prediction region using a consistency loss function to obtain the second loss value.
제3항에 있어서,
상기 제1 손실값 및 상기 제2 손실값을 사용하여, 상기 원본 검출 모델의 네트워크 파라미터를 조절하는 단계는,
제1 손실값 및 상기 제2 손실값에 대해 가중 처리를 수행하여, 가중 손실값을 얻는 단계; 및
상기 가중 손실값을 사용하여, 상기 원본 검출 모델의 네트워크 파라미터를 조절하는 단계를 포함하는 것을 특징으로 하는 이미지 검출 모델의 훈련 방법.
4. The method of claim 3,
Using the first loss value and the second loss value, adjusting the network parameter of the original detection model includes:
performing weighting processing on the first loss value and the second loss value to obtain a weighted loss value; and
and adjusting a network parameter of the original detection model by using the weight loss value.
제3항 내지 제6항 중 어느 한 항에 있어서,
상기 샘플 의학 영상에는 태깅된 기관의 실제 영역이 더 포함되고, 상기 제1 검출 결과에는 상기 태깅된 기관의 제1 예측 영역이 더 포함되며, 상기 제2 검출 결과에는 상기 태깅된 기관의 제2 예측 영역이 더 포함되고;
상기 제1 예측 영역 및 상기 실제 영역 사이의 차이를 사용하여, 상기 원본 검출 모델의 제1 손실값을 결정하는 단계는,
상기 태깅되지 않은 기관 및 상기 태깅된 기관의 제1 예측 영역 및 상기 실제 영역 사이의 차이를 사용하여, 상기 원본 검출 모델의 제1 손실값을 결정하는 단계를 포함하며;
상기 제1 예측 영역 및 상기 제2 예측 영역 사이의 차이를 사용하여, 상기 원본 검출 모델의 제2 손실값을 결정하는 단계는,
상기 태깅되지 않은 기관의 제1 예측 영역 및 대응되는 상기 제2 예측 영역 사이의 차이를 사용하여, 상기 원본 검출 모델의 제2 손실값을 결정하는 단계를 포함하는 것을 특징으로 하는 이미지 검출 모델의 훈련 방법.
7. The method according to any one of claims 3 to 6,
The sample medical image further includes an actual area of the tagged organ, the first detection result further includes a first predicted area of the tagged organ, and the second detection result includes a second prediction of the tagged organ regions are further included;
determining a first loss value of the original detection model by using a difference between the first prediction region and the real region,
determining a first loss value of the original detection model using a difference between the real region and a first predicted region of the untagged organ and the tagged organ;
determining a second loss value of the original detection model by using a difference between the first prediction region and the second prediction region,
and determining a second loss value of the original detection model using the difference between the first prediction region of the untagged organ and the corresponding second prediction region. Way.
제1항 내지 제7항 중 어느 한 항에 있어서,
상기 제1 예측 영역과 상기 실제 영역, 상기 제2 예측 영역 사이의 차이를 사용하여, 상기 원본 검출 모델의 네트워크 파라미터를 조절한 다음, 상기 이미지 검출 방법은,
이번 훈련 및 이전 복수 번의 훈련에서 조절된 네트워크 파라미터를 사용하여, 상기 이미지 검출 모델의 네트워크 파라미터에 대해 업데이트를 수행하는 단계를 더 포함하는 것을 특징으로 하는 이미지 검출 모델의 훈련 방법.
8. The method according to any one of claims 1 to 7,
Adjusting the network parameter of the original detection model by using the difference between the first prediction region, the real region, and the second prediction region, and then the image detection method comprises:
The method of training an image detection model, further comprising the step of performing an update on the network parameters of the image detection model by using the network parameters adjusted in the current training and the plurality of previous trainings.
제8항에 있어서,
상기 이번 훈련 및 이전 복수 번의 훈련에서 조절된 네트워크 파라미터를 사용하여, 상기 이미지 검출 모델의 네트워크 파라미터에 대해 업데이트를 수행하는 단계는,
상기 원본 검출 모델이 이번 훈련 및 이전 복수 번의 훈련에서 조절된 네트워크 파라미터의 평균값을 통계하는 단계; 및
상기 이미지 검출 모델의 네트워크 파라미터를 대응되는 상기 원본 검출 모델의 상기 네트워크 파라미터의 평균값으로 업데이트하는 단계를 포함하는 것을 특징으로 하는 이미지 검출 모델의 훈련 방법.
9. The method of claim 8,
The updating of the network parameters of the image detection model by using the network parameters adjusted in the current training and the previous plurality of trainings comprises:
stating, by the original detection model, an average value of the network parameters adjusted in this training and a plurality of previous trainings; and
and updating the network parameter of the image detection model to an average value of the network parameter of the corresponding original detection model.
제1항 내지 제9항 중 어느 한 항에 있어서,
상기 샘플 의학 영상을 획득하는 단계는,
슈도 태깅될 의학 영상을 획득하는 단계 - 상기 슈도 태깅될 의학 영상에는 적어도 하나의 상기 태깅되지 않은 기관이 존재함 - ;
각 상기 태깅되지 않은 기관과 대응되는 단일 기관 검출 모델을 각각 사용하여 상기 슈도 태깅될 의학 영상에 대해 검출을 수행함으로써, 각 상기 태깅되지 않은 기관의 기관 예측 영역을 얻는 단계; 및
상기 태깅되지 않은 기관의 기관 예측 영역을 상기 태깅되지 않은 기관의 실제 영역으로 슈도 태깅하고, 슈도 태깅된 슈도 태깅될 의학 영상을 상기 샘플 의학 영상으로 사용하는 단계를 포함하는 것을 특징으로 하는 이미지 검출 모델의 훈련 방법.
10. The method according to any one of claims 1 to 9,
Obtaining the sample medical image comprises:
acquiring a medical image to be pseudo-tagged, wherein at least one said untagged organ is present in the medical image to be pseudo-tagged;
obtaining an organ prediction region of each untagged organ by performing detection on the pseudo-tagged medical image using a single organ detection model corresponding to each of the untagged organs, respectively; and
Pseudo-tagging the organ predicted region of the untagged organ as the real region of the untagged organ, and using the pseudo-tagged pseudo-tagged medical image as the sample medical image. of training methods.
제10항에 있어서,
상기 슈도 태깅될 의학 영상에는 적어도 하나의 태깅된 기관이 포함되고; 각 상기 태깅되지 않은 기관과 대응되는 단일 기관 검출 모델을 각각 사용하여 상기 슈도 태깅될 의학 영상에 대해 검출을 수행하기 전에, 상기 이미지 검출 방법은,
상기 슈도 태깅될 의학 영상을 사용하여, 상기 슈도 태깅될 의학 영상에서의 태깅된 기관에 대응되는 단일 기관 검출 모델에 대해 훈련을 수행하는 단계를 더 포함하는 것을 특징으로 하는 이미지 검출 모델의 훈련 방법.
11. The method of claim 10,
the pseudo-tagged medical image includes at least one tagged organ; Before performing detection on the pseudo-tagged medical image using a single organ detection model corresponding to each of the untagged organs, the image detection method comprises:
The method for training an image detection model, further comprising: using the pseudo-tagged medical image to perform training on a single organ detection model corresponding to a tagged organ in the pseudo-tagged medical image.
제10항에 있어서,
상기 슈도 태깅될 의학 영상을 획득하는 단계는,
3차원 의학 영상을 획득하고, 상기 3차원 의학 영상에 대해 사전 처리를 수행하는 단계; 및
사전 처리된 상기 3차원 의학 영상을 크롭 처리하여, 적어도 하나의 2차원의 슈도 태깅될 의학 영상을 얻는 단계를 포함하는 것을 특징으로 하는 이미지 검출 모델의 훈련 방법.
11. The method of claim 10,
Obtaining the pseudo-tagged medical image comprises:
obtaining a 3D medical image and performing pre-processing on the 3D medical image; and
and cropping the pre-processed three-dimensional medical image to obtain at least one two-dimensional pseudo-tagged medical image.
제12항에 있어서,
상기 3차원 의학 영상에 대해 사전 처리를 수행하는 단계는,
상기 3차원 의학 영상의 복셀 해상도를 기설정 해상도로 조절하는 단계;
기설정 창값을 사용하여 상기 3차원 의학 영상의 복셀 값을 기설정 범위 내로 정규화하는 단계; 및
상기 3차원 의학 영상의 적어도 부분적 복셀에 가우시안 노이즈를 추가하는 단계 중 적어도 하나를 포함하는 것을 특징으로 하는 이미지 검출 모델의 훈련 방법.
13. The method of claim 12,
The pre-processing of the 3D medical image comprises:
adjusting the voxel resolution of the 3D medical image to a preset resolution;
normalizing the voxel value of the 3D medical image within a preset range using a preset window value; and
and at least one of adding Gaussian noise to at least partial voxels of the 3D medical image.
이미지 검출 방법으로서,
검출될 의학 영상을 획득하는 단계 - 상기 검출될 의학 영상에는 복수 개 기관이 포함됨 - ; 및
이미지 검출 모델을 사용하여 상기 검출될 의학 영상에 대해 검출을 수행하여, 복수 개 기관의 예측 영역을 얻는 단계 - 상기 이미지 검출 모델은 제1항 내지 제13항 중 어느 한 항에 따른 이미지 검출 모델의 훈련 방법을 사용하여 훈련하여 얻은 것임 - 를 포함하는 것을 특징으로 하는 이미지 검출 방법.
An image detection method comprising:
acquiring a medical image to be detected, wherein the medical image to be detected includes a plurality of organs; and
performing detection on the medical image to be detected using an image detection model to obtain prediction regions of a plurality of organs, wherein the image detection model is the image detection model according to any one of claims 1 to 13. An image detection method comprising: obtained by training using a training method.
이미지 검출 모델의 훈련 장치로서,
샘플 의학 영상을 획득하도록 구성된 이미지 획득 모듈 - 상기 샘플 의학 영상에는 적어도 하나의 태깅되지 않은 기관의 실제 영역이 슈도 태깅됨 - ;
원본 검출 모델을 사용하여 샘플 의학 영상에 대해 검출을 수행함으로써 제1 검출 결과를 얻도록 구성된 제1 검출 모듈 - 상기 제1 검출 결과에는 상기 태깅되지 않은 기관의 제1 예측 영역이 포함됨 - ;
이미지 검출 모델을 사용하여 상기 샘플 의학 영상에 대해 검출을 수행함으로써 제2 검출 결과를 얻도록 구성된 제2 검출 모듈 - 상기 제2 검출 결과에는 상기 태깅되지 않은 기관의 제2 예측 영역이 포함되고, 상기 이미지 검출 모델의 네트워크 파라미터는 상기 원본 검출 모델의 네트워크 파라미터에 기반하여 결정된 것임 - ; 및
상기 제1 예측 영역과 상기 실제 영역, 상기 제2 예측 영역 사이의 차이를 사용하여, 상기 원본 검출 모델의 네트워크 파라미터를 조절하도록 구성된 파라미터 조절 모듈을 포함하는 것을 특징으로 하는 이미지 검출 모델의 훈련 장치.
A training device for an image detection model, comprising:
an image acquisition module configured to acquire a sample medical image, wherein the sample medical image is pseudo-tagged with an actual region of at least one untagged organ;
a first detection module, configured to obtain a first detection result by performing detection on a sample medical image using the original detection model, wherein the first detection result includes a first predicted region of the untagged organ;
a second detection module, configured to obtain a second detection result by performing detection on the sample medical image using an image detection model, wherein the second detection result includes a second predicted region of the untagged organ; the network parameter of the image detection model is determined based on the network parameter of the original detection model; and
and a parameter adjustment module, configured to adjust a network parameter of the original detection model by using the difference between the first prediction region, the real region, and the second prediction region.
이미지 검출 장치로서,
검출될 의학 영상을 획득하도록 구성된 이미지 획득 모듈 - 상기 검출될 의학 영상에는 복수 개 기관이 포함됨 - ; 및
이미지 검출 모델을 사용하여 상기 검출될 의학 영상에 대해 검출을 수행하여, 상기 복수 개 기관의 예측 영역을 얻도록 구성된 이미지 검출 모듈 - 상기 이미지 검출 모델은 제15항에 따른 이미지 검출 모델의 훈련 장치를 사용하여 훈련하여 얻은 것임 - 를 포함하는 것을 특징으로 하는 이미지 검출 장치.
An image detection device comprising:
an image acquisition module, configured to acquire a medical image to be detected, wherein the medical image to be detected includes a plurality of organs; and
An image detection module, configured to perform detection on the to-be-detected medical image using an image detection model to obtain prediction regions of the plurality of organs, the image detection model comprising: a training apparatus for an image detection model according to claim 15; It is obtained by training using - Image detection device comprising a.
상호 커플링된 메모리 및 프로세서가 포함되는 전자 기기로서,
상기 프로세서는 상기 메모리에 저장된 프로그램 명령어를 실행함으로써, 제1항 내지 제13항 중 어느 한 항에 따른 이미지 검출 모델의 훈련 방법을 구현하거나 제14항에 따른 이미지 검출 방법을 구현하도록 구성되는 것을 특징으로 하는 전자 기기.
An electronic device comprising a memory and a processor coupled thereto, the electronic device comprising:
The processor is configured to implement a training method of an image detection model according to any one of claims 1 to 13 or to implement an image detection method according to claim 14 by executing a program instruction stored in the memory. electronic device with
프로그램 명령어가 저장된 컴퓨터 판독 가능 저장 매체로서,
상기 프로그램 명령어가 프로세서에 의해 실행될 때 제1항 내지 제13항 중 어느 한 항에 따른 이미지 검출 모델의 훈련 방법을 구현하거나 제14항에 따른 이미지 검출 방법을 구현하는 것을 특징으로 하는 컴퓨터 판독 가능 저장 매체.
A computer-readable storage medium having program instructions stored thereon, comprising:
Computer readable storage, characterized in that when said program instructions are executed by a processor it implements a method for training an image detection model according to any one of claims 1 to 13 or for implementing an image detection method according to claim 14 . media.
컴퓨터 프로그램으로서,
컴퓨터 판독 가능 코드를 포함하고, 상기 컴퓨터 판독 가능 코드가 전자 기기에서 작동되는 과정에 있어서, 상기 전자 기기에서의 프로세서는 제1항 내지 제13항 중 어느 한 항에 따른 이미지 검출 모델의 훈련 방법을 구현하거나 제14항에 따른 이미지 검출 방법을 구현하는 것을 특징으로 하는 컴퓨터 프로그램.
A computer program comprising:
14. A process comprising computer readable code, wherein the computer readable code is operated in an electronic device, wherein the processor in the electronic device performs the training method of an image detection model according to any one of claims 1 to 13. A computer program, characterized in that it implements or implements the image detection method according to claim 14 .
KR1020217043241A 2020-04-30 2020-12-28 Image detection method and related model training method and related apparatus and apparatus KR20220016213A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010362766.X 2020-04-30
CN202010362766.XA CN111539947B (en) 2020-04-30 2020-04-30 Image detection method, related model training method, related device and equipment
PCT/CN2020/140325 WO2021218215A1 (en) 2020-04-30 2020-12-28 Image detection method and relevant model training method, relevant apparatuses, and device

Publications (1)

Publication Number Publication Date
KR20220016213A true KR20220016213A (en) 2022-02-08

Family

ID=71967825

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217043241A KR20220016213A (en) 2020-04-30 2020-12-28 Image detection method and related model training method and related apparatus and apparatus

Country Status (5)

Country Link
JP (1) JP2022538137A (en)
KR (1) KR20220016213A (en)
CN (1) CN111539947B (en)
TW (1) TW202145249A (en)
WO (1) WO2021218215A1 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111539947B (en) * 2020-04-30 2024-03-29 上海商汤智能科技有限公司 Image detection method, related model training method, related device and equipment
CN112132206A (en) * 2020-09-18 2020-12-25 青岛商汤科技有限公司 Image recognition method, training method of related model, related device and equipment
CN112307934B (en) * 2020-10-27 2021-11-09 深圳市商汤科技有限公司 Image detection method, and training method, device, equipment and medium of related model
CN112200802B (en) * 2020-10-30 2022-04-26 上海商汤智能科技有限公司 Training method of image detection model, related device, equipment and storage medium
CN112669293A (en) * 2020-12-31 2021-04-16 上海商汤智能科技有限公司 Image detection method, training method of detection model, related device and equipment
CN112749801A (en) * 2021-01-22 2021-05-04 上海商汤智能科技有限公司 Neural network training and image processing method and device
CN112785573A (en) * 2021-01-22 2021-05-11 上海商汤智能科技有限公司 Image processing method and related device and equipment
CN114049344A (en) * 2021-11-23 2022-02-15 上海商汤智能科技有限公司 Image segmentation method, training method of model thereof, related device and electronic equipment
CN114429459A (en) * 2022-01-24 2022-05-03 上海商汤智能科技有限公司 Training method of target detection model and corresponding detection method
CN114155365B (en) * 2022-02-07 2022-06-14 北京航空航天大学杭州创新研究院 Model training method, image processing method and related device
CN114391828B (en) * 2022-03-01 2023-06-06 郑州大学 Active psychological care intervention system for cerebral apoplexy patient
CN117041531B (en) * 2023-09-04 2024-03-15 无锡维凯科技有限公司 Mobile phone camera focusing detection method and system based on image quality evaluation

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8170330B2 (en) * 2007-10-30 2012-05-01 Siemens Aktiengesellschaft Machine learning for tissue labeling segmentation
WO2018033154A1 (en) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 Gesture control method, device, and electronic apparatus
CN108229267B (en) * 2016-12-29 2020-10-16 北京市商汤科技开发有限公司 Object attribute detection, neural network training and region detection method and device
JP6931579B2 (en) * 2017-09-20 2021-09-08 株式会社Screenホールディングス Live cell detection methods, programs and recording media
EP3474192A1 (en) * 2017-10-19 2019-04-24 Koninklijke Philips N.V. Classifying data
WO2019096754A1 (en) * 2017-11-20 2019-05-23 Koninklijke Philips N.V. Training first and second neural network models
JP7066385B2 (en) * 2017-11-28 2022-05-13 キヤノン株式会社 Information processing methods, information processing equipment, information processing systems and programs
CN109166107A (en) * 2018-04-28 2019-01-08 北京市商汤科技开发有限公司 A kind of medical image cutting method and device, electronic equipment and storage medium
CN109086656B (en) * 2018-06-06 2023-04-18 平安科技(深圳)有限公司 Airport foreign matter detection method, device, computer equipment and storage medium
CN109523526B (en) * 2018-11-08 2021-10-22 腾讯科技(深圳)有限公司 Tissue nodule detection and model training method, device, equipment and system thereof
CN109658419B (en) * 2018-11-15 2020-06-19 浙江大学 Method for segmenting small organs in medical image
CN110097557B (en) * 2019-01-31 2021-02-12 卫宁健康科技集团股份有限公司 Medical image automatic segmentation method and system based on 3D-UNet
CN110148142B (en) * 2019-05-27 2023-04-18 腾讯科技(深圳)有限公司 Training method, device and equipment of image segmentation model and storage medium
CN110188829B (en) * 2019-05-31 2022-01-28 北京市商汤科技开发有限公司 Neural network training method, target recognition method and related products
JP2021039748A (en) * 2019-08-30 2021-03-11 キヤノン株式会社 Information processor, information processing method, information processing system, and program
CN111028206A (en) * 2019-11-21 2020-04-17 万达信息股份有限公司 Prostate cancer automatic detection and classification system based on deep learning
CN111062390A (en) * 2019-12-18 2020-04-24 北京推想科技有限公司 Region-of-interest labeling method, device, equipment and storage medium
CN110969245B (en) * 2020-02-28 2020-07-24 北京深睿博联科技有限责任公司 Target detection model training method and device for medical image
CN111539947B (en) * 2020-04-30 2024-03-29 上海商汤智能科技有限公司 Image detection method, related model training method, related device and equipment

Also Published As

Publication number Publication date
WO2021218215A1 (en) 2021-11-04
JP2022538137A (en) 2022-08-31
TW202145249A (en) 2021-12-01
CN111539947A (en) 2020-08-14
CN111539947B (en) 2024-03-29

Similar Documents

Publication Publication Date Title
KR20220016213A (en) Image detection method and related model training method and related apparatus and apparatus
US11393092B2 (en) Motion tracking and strain determination
CN110223323B (en) Target tracking method based on depth feature adaptive correlation filtering
CN109102490A (en) Automated graphics register quality evaluation
US9142030B2 (en) Systems, methods and computer readable storage media storing instructions for automatically segmenting images of a region of interest
CN109102511A (en) A kind of cerebrovascular dividing method, system and electronic equipment
KR102328198B1 (en) Method and apparatus for measuring volume of organ using artificial neural network
US20060242218A1 (en) Prior-constrained mean shift analysis
CN114549445A (en) Image detection and related model training method, related device, equipment and medium
JP2017512522A5 (en)
Upadhyay et al. Uncertainty-aware gan with adaptive loss for robust mri image enhancement
CN116130090A (en) Ejection fraction measuring method and device, electronic device, and storage medium
CN111127521A (en) System and method for generating and tracking the shape of an object
CN111724371B (en) Data processing method and device and electronic equipment
CN113887699A (en) Knowledge distillation method, electronic device and storage medium
Menchón-Lara et al. Fast 4D elastic group-wise image registration. Convolutional interpolation revisited
CN116563096B (en) Method and device for determining deformation field for image registration and electronic equipment
CN115862119B (en) Attention mechanism-based face age estimation method and device
EP4343680A1 (en) De-noising data
CN115810032A (en) Image registration method and device, and medical image motion correction method and system
Zhang et al. Temporal interpolation via motion field prediction
CN110934565A (en) Method and device for measuring pupil diameter and computer readable storage medium
CN117379708A (en) Method, device, equipment and medium for delineating internal target area based on 4D magnetic resonance imaging
Lin et al. Temporal Interpolation via Motion Field Prediction
US20240153089A1 (en) Systems and methods for processing real-time cardiac mri images

Legal Events

Date Code Title Description
A201 Request for examination