JP2022518939A - 検出モデルのトレーニング方法、装置、コンピュータデバイス及びコンピュータプログラム - Google Patents
検出モデルのトレーニング方法、装置、コンピュータデバイス及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2022518939A JP2022518939A JP2021544225A JP2021544225A JP2022518939A JP 2022518939 A JP2022518939 A JP 2022518939A JP 2021544225 A JP2021544225 A JP 2021544225A JP 2021544225 A JP2021544225 A JP 2021544225A JP 2022518939 A JP2022518939 A JP 2022518939A
- Authority
- JP
- Japan
- Prior art keywords
- image
- degree
- target
- sample image
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 293
- 238000012549 training Methods 0.000 title claims abstract description 247
- 238000000034 method Methods 0.000 title claims abstract description 83
- 238000004590 computer program Methods 0.000 title 1
- 230000008859 change Effects 0.000 claims abstract description 74
- 238000012216 screening Methods 0.000 claims abstract description 18
- 238000013145 classification model Methods 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 13
- 238000010801 machine learning Methods 0.000 abstract description 10
- 238000005516 engineering process Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 7
- 238000009607 mammography Methods 0.000 description 6
- 206010006187 Breast cancer Diseases 0.000 description 5
- 208000026310 Breast neoplasm Diseases 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 238000013077 scoring method Methods 0.000 description 2
- 230000008961 swelling Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 210000004293 human mammary gland Anatomy 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30068—Mammography; Breast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
Description
本出願は、2019年6月18日に中国特許庁に提出された、出願番号が第201910528002.0号であり、出願名称が「検出モデルのトレーニング方法、装置、コンピュータデバイス及び記憶媒体」である中国特許出願に対する優先権を主張し、その全ての内容が参照により本明細書に組み込まれる。
具体的には、例えば、X線医療機器を用いて人の乳腺を撮影して得られたマンモグラフィ画像を取得することができ、サンプル画像集合内のサンプル画像は1万枚であってもよい。
例えば、10枚を1サンプル画像グループとして、サンプル画像集合を1000個のサンプル画像グループに分割する。
例えば、MCG法を使用し、各マンモグラフィ画像を分割し、各画像に対応する3000個の候補画像領域を取得することができ、即ち、1枚のマンモグラフィ画像に3000個の候補ボックスがあり得、1つの候補ボックスで囲まれる位置は1つの候補画像領域である。
具体的には、現在のサンプル画像グループが継続的に更新され、例えば、まず1番目のサンプル画像グループを現在のサンプル画像グループとして使用して、1回のモデルトレーニングを完了させ、モデルのパラメータを更新することができる。次に2番目のサンプル画像グループを取得し、再び1回のモデルトレーニングを完了させ、モデルのパラメータを更新する。1000番目のサンプル画像グループを現在のサンプル画像グループとして使用して、1ラウンドのモデルトレーニングが完了するまで続く。
具体的には、第1サンプル画像は、現在のサンプル画像グループ内のサンプル画像であり、ステップ3でサンプル画像の分割が既に完了し、したがって、ステップ3で得られた候補画像領域から、第1サンプル画像を分割して得られた候補画像領域集合を直接取得することができる。
具体的には、複数のラウンドのモデルトレーニングを行うことができる。例えば、第2ラウンドのモデルトレーニングを行う時に、現在のサンプル画像グループが8番目のサンプル画像グループである場合、第1ラウンドのモデルトレーニングの時に8番目のサンプル画像グループを使用してモデルトレーニングを行って得られたモデルを、第1検出モデルとして取得する。第3ラウンドでモデルトレーニングを行う時に、現在のサンプル画像グループが9番目のサンプル画像グループである場合、第2ラウンドトレーニングの時に9番目のサンプル画像グループを使用してモデルトレーニングを行って得られたモデルを、第1検出モデルとして取得する。現在のサンプル画像グループ内の各サンプル画像が対応する候補画像領域を第1検出モデルに入力して、候補画像領域に対応する第1関係度を取得する。
第1ラウンドでモデルトレーニングを行う時に、前のラウンドのモデルトレーニングがないため、完全なサンプル画像に基づいてトレーニングしてターゲット分類モデルを取得し、ターゲット分類モデルを使用してサンプル画像の各候補画像領域をスコアリングする(即ち第3関係度を出力する)ことができる。各サンプル画像に対して、第3関係度が最も高い候補画像領域を第2画像領域として使用し、第2画像領域に基づいて第1ラウンドでモデルトレーニングを行う。
例えば、第2ラウンドでモデルトレーニングを行う時に、現在のサンプル画像グループが8番目のサンプル画像グループである場合、第2ラウンドのモデルトレーニングの時に7番目のサンプル画像グループを使用してモデルトレーニングを行って得られたモデルを、第2検出モデルとして取得する。第3ラウンドでモデルトレーニングを行う時に、現在のサンプル画像グループが9番目のサンプル画像グループである場合、第3ラウンドのモデルトレーニングの時に8番目のサンプル画像グループを使用してモデルトレーニングを行って得られたモデルを、第2検出モデルとして取得する。現在のサンプル画像グループ内の各サンプル画像が対応する候補画像領域を第2検出モデルに入力して、候補画像領域に対応する第2関係度を取得する。
第2関係度から第1関係度を減算し、関係度変化値を得、各第1サンプル画像に対して、関係度変化値が最も大きい候補画像領域を、当該第1サンプル画像に乳がんが含まれる領域とすることができる。
第1検出モデルが収束する場合、更新後の第1検出モデルをターゲット検出モデルとして使用し、ステップ12に入る。第1検出モデルが収束していない場合、ステップ4に戻る。
オブジェクト検出モデルをトレーニングする時に、通常、サンプルを動的に更新しないため、オブジェクト検出モデルをトレーニングする時に、初期に得られたサンプルは、ずっと、トレーニングサンプルとして使用される。また、サンプル画像内にターゲットオブジェクトの位置を手動でアノテーションするコストが高く、例えば、サンプル画像にターゲットオブジェクトの具体的な位置をアノテーションする時に、プロフェッショナルのアノテーション操作者が正確にアノテーションするために数分かかる必要があり、しかもターゲットオブジェクトの位置に対するアノテーションは客観的ではなく、アノテーション操作者のレベル、状態などの主観的要因に大きく影響されるため、大規模なターゲットオブジェクトの位置をアノテーションすることは、現実には非常に困難である。そのため、モデルトレーニングを行う時に、サンプル画像上にターゲットオブジェクトの位置をアノテーションしないケースが多く、サンプル画像全体をターゲットオブジェクトを含む画像として使用するため、モデルの精度を保証することが困難である。
ターゲット画像分類モデルを取得するように構成される分類モデル取得モジュールと、
サンプル集合内の各サンプル画像が対応する候補画像領域をそれぞれターゲット画像分類モデルに入力し、各サンプル画像の候補画像領域がターゲットオブジェクトの所在する領域である第3関係度を出力するように構成される第3関係度取得モジュールと、
第3関係度に基づいて候補画像領域集合からターゲットオブジェクトを含む第2画像領域をスクリーニングするように構成される第2画像領域スクリーニングモジュールと、
第2画像領域に基づいてモデルトレーニングを行って、第1ラウンドでモデルトレーニングして得られた検出モデルを得るように構成される第2モデルトレーニングモジュールと、をさらに備える。
ターゲット画像領域と候補画像領域との画像重畳度を取得するように構成される画像重畳度取得モジュールと、
画像重畳度が第1の予め設定された重畳度より大きい候補画像領域を第3画像領域として取得するように構成される第3画像領域取得モジュールとをさらに備える。
第3画像領域及びターゲット画像領域を正例のサンプル画像領域として使用し、正例のサンプル画像領域に基づいてモデルトレーニングを行い、ターゲット検出モデルを得るように構成される。
ターゲット画像領域と候補画像領域との画像重畳度を取得するように構成される画像重畳度取得モジュールと、
画像重畳度が第2の予め設定された重畳度よりも小さい候補画像領域を第4画像領域として取得するように構成され、第2の予め設定された重畳度が第1の予め設定された重畳度以下である第4画像領域取得モジュールとをさらに備える。
検出対象画像を取得し、検出対象画像を複数の第1画像領域に分割するように構成される検出対象画像取得モジュールと、
各第1画像領域をそれぞれターゲット検出モデルに入力して、各第1画像領域にターゲットオブジェクトが含まれるターゲット関係度を取得するように構成されるターゲット関係度取得モジュールと、
ターゲット関係度に基づき、複数の第1画像領域からターゲットオブジェクトを含む画像領域をスクリーニングして、検出対象画像内のターゲットオブジェクトの位置を得るように構成される位置検出モジュールと、をさらに備える。
120 サーバー
1102 候補画像領域集合取得モジュール
1104 第1関係度取得モジュール
1106 第2関係度取得モジュール
1108 ターゲット画像領域スクリーニングモジュール
1110 第1モデルトレーニングモジュール
Claims (13)
- コンピュータデバイスが実行する、検出モデルのトレーニング方法であって、
第1サンプル画像を分割して得られた候補画像領域集合を取得するステップであって、前記候補画像領域集合に複数の候補画像領域が含まれる、ステップと、
前記候補画像領域にそれぞれ対応する第1関係度を取得するステップであって、前記第1関係度は、前記候補画像領域をそれぞれ第1検出モデルに入力し、出力される前記候補画像領域がターゲットオブジェクトを含む関係度であり、前記第1検出モデルは、前記第1サンプル画像に基づいてモデルトレーニングを行って得られるものである、ステップと、
前記候補画像領域にそれぞれ対応する第2関係度を取得するステップであって、前記第2関係度は、前記候補画像領域をそれぞれ第2検出モデルに入力し、出力される前記候補画像領域がターゲットオブジェクトを含む関係度であり、前記第2検出モデルは、第2サンプル画像を使用して前記第1検出モデルに対してモデルトレーニングを行って得られるものである、ステップと、
前記第1関係度及び前記第2関係度に基づいて関係度変化値を得、前記関係度変化値に基づいて前記候補画像領域集合から、ターゲットオブジェクトを含むターゲット画像領域をスクリーニングするステップと、
前記ターゲット画像領域に基づいてモデルトレーニングを行い、ターゲット検出モデルを得るステップであって、前記ターゲット検出モデルは検出対象画像に対してオブジェクト検出を行うために用いられる、ステップと、を含む方法。 - 第1サンプル画像を分割して得られた候補画像領域集合を取得するステップの前に、
サンプル画像集合を取得し、前記サンプル画像集合に基づいて分割して更新された第1サンプル画像と更新された第2サンプル画像を取得するステップであって、前記サンプル画像集合は複数のサンプル画像を含む、ステップをさらに含み、
前記ターゲット画像領域に基づいてモデルトレーニングを行い、ターゲット検出モデルを得るステップは、
前記ターゲット画像領域に基づいて前記第2検出モデルに対してモデルトレーニングを行い、第1サンプル画像に対応する更新後の第1検出モデルを得るステップと、
前記サンプル画像集合に基づいて分割して更新された第1サンプル画像と更新された第2サンプル画像を取得するステップに戻り、更新後の第1検出モデルが収束し、ターゲット検出モデルを得るまで続くステップと、を含む
ことを特徴とする請求項1に記載の方法。 - 前記サンプル画像集合に基づいて分割して更新された第1サンプル画像と更新された第2サンプル画像を取得するステップは、
前記サンプル画像集合を複数のサンプル画像グループに分割するステップと、
サンプル画像グループをモデルパラメータ調整単位とし、前記サンプル画像集合から現在のサンプル画像グループを順次取得するステップであって、現在のサンプル画像グループのサンプル画像は第1サンプル画像であり、現在のサンプル画像グループ以外のサンプル画像グループのサンプル画像は第2サンプル画像である、ステップと、を含み、
前記サンプル画像集合に基づいて分割して更新された第1サンプル画像と更新された第2サンプル画像を取得するステップに戻るステップは、
サンプル画像グループをモデルパラメータ調整単位とし、前記サンプル画像集合から現在のサンプル画像グループを順次取得するステップに戻るステップであって、現在のサンプル画像グループのサンプル画像は第1サンプル画像であり、現在のサンプル画像グループ以外のサンプル画像グループのサンプル画像は第2サンプル画像である、ステップを含む
ことを特徴とする請求項2に記載の方法。 - 前記候補画像領域にそれぞれ対応する第1関係度を取得するステップは、
前のラウンドのモデルトレーニングの時に同一サンプル画像グループを使用してモデルトレーニングを行って得られたモデルを、更新された第1検出モデルとして使用し、更新された第1検出モデルによって前記候補画像領域にそれぞれ対応する第1関係度を取得するステップを含み、
前記候補画像領域にそれぞれ対応する第2関係度を取得するステップは、
現在のラウンドのモデルトレーニングの時に現在のサンプル画像グループのフォワードサンプルを使用してモデルトレーニングを行って得られたモデルを、更新された第2検出モデルとして使用し、更新された第2検出モデルによって前記候補画像領域にそれぞれ対応する第2関係度を取得するステップを含む
ことを特徴とする請求項3に記載の方法。 - 前記方法は、
ターゲット画像分類モデルを取得するステップと、
前記サンプル画像集合内の各サンプル画像が対応する候補画像領域をそれぞれ前記ターゲット画像分類モデルに入力し、各サンプル画像の候補画像領域がターゲットオブジェクトの所在する領域である第3関係度を出力するステップと、
前記第3関係度に基づいて前記候補画像領域集合からターゲットオブジェクトを含む第2画像領域をスクリーニングするステップと、
前記第2画像領域に基づいてモデルトレーニングを行い、第1ラウンドでモデルトレーニングして得られた検出モデルを得るステップと、をさらに含む
ことを特徴とする請求項4に記載の方法。 - 前記関係度変化値に基づいて前記候補画像領域集合から、ターゲットオブジェクトを含むターゲット画像領域をスクリーニングするステップは、
前記候補画像領域集合から、前記関係度変化値が予め設定された変化条件を満たす候補画像領域を、ターゲットオブジェクトを含むターゲット画像領域としてスクリーニングするステップであって、前記予め設定された変化条件は、関係度変化値が予め設定された順位の前にソートされること、又は前記関係度変化値が予め設定された変化値より大きいことのうちの少なくとも1つを含み、前記関係度変化値は降順でソートされる、ステップを含む
ことを特徴とする請求項1に記載の方法。 - 前記第1関係度及び前記第2関係度に基づいて関係度変化値を得るステップは、
前記第2関係度から前記第1関係度を引き算し又は前記第2関係度を前記第1関係度で割り算し、関係度変化値を得るステップを含む
ことを特徴とする請求項1又は6に記載の方法。 - 前記方法は、
前記ターゲット画像領域と前記候補画像領域との画像重畳度を取得するステップと、
前記画像重畳度が第1の予め設定された重畳度より大きい候補画像領域を第3画像領域として取得するステップと、をさらに含み、
前記ターゲット画像領域に基づいてモデルトレーニングを行い、ターゲット検出モデルを得るステップは、
前記第3画像領域及び前記ターゲット画像領域を正例のサンプル画像領域とし、前記正例のサンプル画像領域に基づいてモデルトレーニングを行い、ターゲット検出モデルを得るステップを含む
ことを特徴とする請求項1に記載の方法。 - 前記方法は、
前記ターゲット画像領域と前記候補画像領域との画像重畳度を取得するステップと、
前記画像重畳度が第2の予め設定された重畳度よりも小さい候補画像領域を第4画像領域として取得するステップと、をさらに含み、
前記ターゲット画像領域に基づいてモデルトレーニングを行い、ターゲット検出モデルを得るステップは、
前記第4画像領域を負例のサンプル画像領域として使用し、前記ターゲット画像領域グループを正例のサンプル画像領域として使用するステップと、
前記正例のサンプル画像領域及び前記負例のサンプル画像領域に基づいてモデルトレーニングを行い、ターゲット検出モデルを得るステップと、を含む
ことを特徴とする請求項1に記載の方法。 - 前記方法は、
検出対象画像を取得し、前記検出対象画像を複数の第1画像領域に分割するステップと、
各前記第1画像領域をそれぞれ前記ターゲット検出モデルに入力し、各前記第1画像領域にターゲットオブジェクトが含まれるターゲット関係度を取得するステップと、
前記ターゲット関係度に基づき、前記複数の第1画像領域からターゲットオブジェクトを含む画像領域をスクリーニングして、前記検出対象画像内のターゲットオブジェクトの位置を得るステップと、をさらに含む
ことを特徴とする請求項1に記載の方法。 - 検出モデルのトレーニング装置であって、
第1サンプル画像を分割して得られた候補画像領域集合を取得するように構成される候補画像領域集合取得モジュールであって、前記候補画像領域集合に複数の候補画像領域が含まれる、候補画像領域集合取得モジュールと、
前記候補画像領域にそれぞれ対応する第1関係度を取得するように構成される第1関係度取得モジュールであって、前記第1関係度は、前記候補画像領域をそれぞれ第1検出モデルに入力し、出力される前記候補画像領域がターゲットオブジェクトを含む関係度であり、前記第1検出モデルは、前記第1サンプル画像に基づいてモデルトレーニングを行って得られるものである、第1関係度取得モジュールと、
前記候補画像領域にそれぞれ対応する第2関係度を取得するように構成される第2関係度取得モジュールであって、前記第2関係度は、前記候補画像領域をそれぞれ第2検出モデルに入力し、出力される前記候補画像領域がターゲットオブジェクトを含む関係度であり、前記第2検出モデルは、第2サンプル画像を使用して前記第1検出モデルに対してモデルトレーニングを行って得られるものである、第2関係度取得モジュールと、
前記第1関係度及び前記第2関係度に基づいて関係度変化値を得、前記関係度変化値に基づいて前記候補画像領域集合から、ターゲットオブジェクトを含むターゲット画像領域をスクリーニングするように構成されるターゲット画像領域スクリーニングモジュールと、
前記ターゲット画像領域に基づいてモデルトレーニングを行い、ターゲット検出モデルを得るように構成される第1モデルトレーニングモジュールであって、前記ターゲット検出モデルは検出対象画像に対してオブジェクト検出を行うために用いられる、第1モデルトレーニングモジュールと、を備える装置。 - コンピュータデバイスであって、メモリとプロセッサとを備え、前記メモリにコンピュータ読み取り可能な命令が記憶され、前記コンピュータ読み取り可能な命令は、前記プロセッサによって実行されると、前記プロセッサに請求項1から10のいずれか一項に記載の方法のステップを実行させる、コンピュータデバイス。
- コンピュータ読み取り可能な命令を記憶している1つ又は複数の不揮発性記憶媒体であって、前記コンピュータ読み取り可能な命令は、1つ又は複数のプロセッサによって実行されると、前記プロセッサに請求項1から10のいずれか一項に記載の方法のステップを実行させる、不揮発性記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910528002.0A CN110245662B (zh) | 2019-06-18 | 2019-06-18 | 检测模型训练方法、装置、计算机设备和存储介质 |
CN201910528002.0 | 2019-06-18 | ||
PCT/CN2020/095854 WO2020253629A1 (zh) | 2019-06-18 | 2020-06-12 | 检测模型训练方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022518939A true JP2022518939A (ja) | 2022-03-17 |
JP7208408B2 JP7208408B2 (ja) | 2023-01-18 |
Family
ID=67887879
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021544225A Active JP7208408B2 (ja) | 2019-06-18 | 2020-06-12 | 検出モデルのトレーニング方法、装置、コンピュータデバイス及びコンピュータプログラム |
Country Status (6)
Country | Link |
---|---|
US (2) | US11842487B2 (ja) |
EP (1) | EP3989119A4 (ja) |
JP (1) | JP7208408B2 (ja) |
KR (1) | KR20210122855A (ja) |
CN (3) | CN110599503B (ja) |
WO (1) | WO2020253629A1 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110599503B (zh) * | 2019-06-18 | 2021-05-28 | 腾讯科技(深圳)有限公司 | 检测模型训练方法、装置、计算机设备和存储介质 |
CN110852285B (zh) * | 2019-11-14 | 2023-04-18 | 腾讯科技(深圳)有限公司 | 对象检测方法、装置、计算机设备和存储介质 |
CN111179227B (zh) * | 2019-12-16 | 2022-04-05 | 西北工业大学 | 基于辅助诊断和主观美学的乳腺超声图像质量评价方法 |
JP7490359B2 (ja) * | 2019-12-24 | 2024-05-27 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN111508019A (zh) * | 2020-03-11 | 2020-08-07 | 上海商汤智能科技有限公司 | 目标检测方法及其模型的训练方法及相关装置、设备 |
CN111462069B (zh) * | 2020-03-30 | 2023-09-01 | 北京金山云网络技术有限公司 | 目标对象检测模型训练方法、装置、电子设备及存储介质 |
CN113515980B (zh) * | 2020-05-20 | 2022-07-05 | 阿里巴巴集团控股有限公司 | 模型训练方法、装置、设备和存储介质 |
CN111696012A (zh) * | 2020-06-15 | 2020-09-22 | 中国医学科学院医学信息研究所 | 医疗影像远程教学方法、装置、设备及存储介质 |
CN113490947A (zh) * | 2020-07-27 | 2021-10-08 | 深圳市大疆创新科技有限公司 | 检测模型训练方法、装置、检测模型使用方法及存储介质 |
CN114067350A (zh) * | 2020-07-31 | 2022-02-18 | 伊姆西Ip控股有限责任公司 | 模型更新方法、设备和计算机程序产品 |
CN112148895B (zh) * | 2020-09-25 | 2024-01-23 | 北京百度网讯科技有限公司 | 检索模型的训练方法、装置、设备和计算机存储介质 |
CN112489020B (zh) * | 2020-12-01 | 2023-05-23 | 济南博观智能科技有限公司 | 一种图像筛选方法、装置、电子设备及存储介质 |
CN112508974B (zh) * | 2020-12-14 | 2024-06-11 | 北京达佳互联信息技术有限公司 | 图像分割模型的训练方法、装置、电子设备和存储介质 |
CN112884782B (zh) * | 2021-03-02 | 2024-01-05 | 深圳市瑞图生物技术有限公司 | 生物对象分割方法、装置、计算机设备和存储介质 |
JP2022160331A (ja) * | 2021-04-06 | 2022-10-19 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
CN112949767B (zh) * | 2021-04-07 | 2023-08-11 | 北京百度网讯科技有限公司 | 样本图像增量、图像检测模型训练及图像检测方法 |
CN113255820B (zh) * | 2021-06-11 | 2023-05-02 | 成都通甲优博科技有限责任公司 | 落石检测模型训练方法、落石检测方法及相关装置 |
CN113408496B (zh) * | 2021-07-30 | 2023-06-16 | 浙江大华技术股份有限公司 | 图像确定方法和装置、存储介质及电子设备 |
CN113989558B (zh) * | 2021-10-28 | 2024-04-30 | 哈尔滨工业大学 | 基于迁移学习与边界框调节的弱监督目标检测方法 |
EP4174726A1 (en) * | 2021-11-02 | 2023-05-03 | Sony Group Corporation | Adapting a detection model |
CN115147348B (zh) * | 2022-05-05 | 2023-06-06 | 合肥工业大学 | 基于改进的YOLOv3的轮胎缺陷检测方法及系统 |
CN115115871A (zh) * | 2022-05-26 | 2022-09-27 | 腾讯科技(成都)有限公司 | 图像识别模型的训练方法、装置、设备及存储介质 |
US20240211712A1 (en) * | 2022-12-26 | 2024-06-27 | Zebra Technologies Corporation | Multiple field of view (fov) vision system |
CN117058498B (zh) * | 2023-10-12 | 2024-02-06 | 腾讯科技(深圳)有限公司 | 分割图评估模型的训练方法、分割图的评估方法及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016143353A (ja) * | 2015-02-04 | 2016-08-08 | エヌ・ティ・ティ・コムウェア株式会社 | 学習装置、学習方法、およびプログラム |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8160296B2 (en) * | 2005-04-15 | 2012-04-17 | Mississippi State University Research And Technology Corporation | Change analyst |
JP4540661B2 (ja) * | 2006-02-28 | 2010-09-08 | 三洋電機株式会社 | 物体検出装置 |
US8488863B2 (en) * | 2008-11-06 | 2013-07-16 | Los Alamos National Security, Llc | Combinational pixel-by-pixel and object-level classifying, segmenting, and agglomerating in performing quantitative image analysis that distinguishes between healthy non-cancerous and cancerous cell nuclei and delineates nuclear, cytoplasm, and stromal material objects from stained biological tissue materials |
JP5919665B2 (ja) * | 2011-07-19 | 2016-05-18 | 日本電気株式会社 | 情報処理装置、物体追跡方法および情報処理プログラム |
CN104881639B (zh) * | 2015-05-14 | 2018-06-26 | 江苏大学 | 一种基于层次tdp模型的人脸检测、分割和表情识别方法 |
JP6639123B2 (ja) * | 2015-07-06 | 2020-02-05 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP6707920B2 (ja) * | 2016-03-14 | 2020-06-10 | 株式会社リコー | 画像処理装置、画像処理方法、およびプログラム |
US10319094B1 (en) * | 2016-05-20 | 2019-06-11 | Ccc Information Services Inc. | Technology for capturing, transmitting, and analyzing images of objects |
CN106529565B (zh) * | 2016-09-23 | 2019-09-13 | 北京市商汤科技开发有限公司 | 目标识别模型训练和目标识别方法及装置、计算设备 |
US10424064B2 (en) * | 2016-10-18 | 2019-09-24 | Adobe Inc. | Instance-level semantic segmentation system |
JP7054787B2 (ja) * | 2016-12-22 | 2022-04-15 | パナソニックIpマネジメント株式会社 | 制御方法、情報端末、及びプログラム |
CN108229488B (zh) * | 2016-12-27 | 2021-01-01 | 北京市商汤科技开发有限公司 | 用于检测物体关键点的方法、装置及电子设备 |
CN106919951B (zh) * | 2017-01-24 | 2020-04-21 | 杭州电子科技大学 | 一种基于点击与视觉融合的弱监督双线性深度学习方法 |
US10489656B2 (en) * | 2017-09-21 | 2019-11-26 | NEX Team Inc. | Methods and systems for ball game analytics with a mobile device |
US10504007B2 (en) * | 2017-10-27 | 2019-12-10 | Facebook, Inc. | Determination of population density using convoluted neural networks |
WO2019089192A1 (en) * | 2017-11-03 | 2019-05-09 | Siemens Aktiengesellschaft | Weakly-supervised semantic segmentation with self-guidance |
CN107977707B (zh) * | 2017-11-23 | 2020-11-06 | 厦门美图之家科技有限公司 | 一种对抗蒸馏神经网络模型的方法及计算设备 |
CN108470138A (zh) * | 2018-01-24 | 2018-08-31 | 博云视觉(北京)科技有限公司 | 用于目标检测的方法和装置 |
CN108764292B (zh) * | 2018-04-27 | 2022-03-18 | 北京大学 | 基于弱监督信息的深度学习图像目标映射及定位方法 |
CN110335269A (zh) * | 2018-05-16 | 2019-10-15 | 腾讯医疗健康(深圳)有限公司 | 眼底图像的类别识别方法和装置 |
CN108898218A (zh) * | 2018-05-24 | 2018-11-27 | 阿里巴巴集团控股有限公司 | 一种神经网络模型的训练方法、装置、及计算机设备 |
CN108985208A (zh) * | 2018-07-06 | 2018-12-11 | 北京字节跳动网络技术有限公司 | 生成图像检测模型的方法和装置 |
CN109034397B (zh) * | 2018-08-10 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 模型训练方法、装置、计算机设备及存储介质 |
CN110956060A (zh) * | 2018-09-27 | 2020-04-03 | 北京市商汤科技开发有限公司 | 动作识别、驾驶动作分析方法和装置及电子设备 |
CN109460820A (zh) * | 2018-09-28 | 2019-03-12 | 深圳百诺国际生命科技有限公司 | 一种神经网络训练方法、装置、计算机设备和存储介质 |
CN109447149B (zh) * | 2018-10-25 | 2021-11-02 | 腾讯医疗健康(深圳)有限公司 | 一种检测模型的训练方法、装置及终端设备 |
CN109697460B (zh) * | 2018-12-05 | 2021-06-29 | 华中科技大学 | 对象检测模型训练方法、目标对象检测方法 |
CN109840588B (zh) * | 2019-01-04 | 2023-09-08 | 平安科技(深圳)有限公司 | 神经网络模型训练方法、装置、计算机设备及存储介质 |
CN109886402B (zh) * | 2019-01-10 | 2024-05-14 | 平安科技(深圳)有限公司 | 深度学习模型训练方法、装置、计算机设备及存储介质 |
CN110599503B (zh) * | 2019-06-18 | 2021-05-28 | 腾讯科技(深圳)有限公司 | 检测模型训练方法、装置、计算机设备和存储介质 |
US11538262B2 (en) * | 2020-03-23 | 2022-12-27 | Zebra Technologies Corporation | Multiple field of view (FOV) vision system |
-
2019
- 2019-06-18 CN CN201910865059.XA patent/CN110599503B/zh active Active
- 2019-06-18 CN CN201910528002.0A patent/CN110245662B/zh active Active
- 2019-06-18 CN CN201910849298.6A patent/CN110490202B/zh active Active
-
2020
- 2020-06-12 WO PCT/CN2020/095854 patent/WO2020253629A1/zh unknown
- 2020-06-12 EP EP20827868.9A patent/EP3989119A4/en active Pending
- 2020-06-12 JP JP2021544225A patent/JP7208408B2/ja active Active
- 2020-06-12 KR KR1020217029167A patent/KR20210122855A/ko not_active Application Discontinuation
-
2021
- 2021-08-26 US US17/458,110 patent/US11842487B2/en active Active
-
2023
- 2023-11-01 US US18/386,229 patent/US20240062369A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016143353A (ja) * | 2015-02-04 | 2016-08-08 | エヌ・ティ・ティ・コムウェア株式会社 | 学習装置、学習方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN110599503A (zh) | 2019-12-20 |
CN110599503B (zh) | 2021-05-28 |
US20210390706A1 (en) | 2021-12-16 |
WO2020253629A1 (zh) | 2020-12-24 |
CN110245662A (zh) | 2019-09-17 |
JP7208408B2 (ja) | 2023-01-18 |
CN110245662B (zh) | 2021-08-10 |
KR20210122855A (ko) | 2021-10-12 |
EP3989119A1 (en) | 2022-04-27 |
US20240062369A1 (en) | 2024-02-22 |
US11842487B2 (en) | 2023-12-12 |
CN110490202B (zh) | 2021-05-25 |
CN110490202A (zh) | 2019-11-22 |
EP3989119A4 (en) | 2022-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022518939A (ja) | 検出モデルのトレーニング方法、装置、コンピュータデバイス及びコンピュータプログラム | |
US11861829B2 (en) | Deep learning based medical image detection method and related device | |
CN111310624B (zh) | 遮挡识别方法、装置、计算机设备及存储介质 | |
CN112052787B (zh) | 基于人工智能的目标检测方法、装置及电子设备 | |
WO2019200747A1 (zh) | 分割股骨近端的方法、装置、计算机设备和存储介质 | |
CN110852285A (zh) | 对象检测方法、装置、计算机设备和存储介质 | |
US20220254134A1 (en) | Region recognition method, apparatus and device, and readable storage medium | |
CN106897738A (zh) | 一种基于半监督学习的行人检测方法 | |
CN112085714B (zh) | 一种肺结节检测方法、模型训练方法、装置、设备及介质 | |
CN111368672A (zh) | 一种用于遗传病面部识别模型的构建方法及装置 | |
WO2022057309A1 (zh) | 肺部特征识别方法、装置、计算机设备及存储介质 | |
CN108804591A (zh) | 一种病历文本的文本分类方法及装置 | |
CN113706481A (zh) | 精子质量检测方法、装置、计算机设备和存储介质 | |
CN113780145A (zh) | 精子形态检测方法、装置、计算机设备和存储介质 | |
CN113705293A (zh) | 图像场景的识别方法、装置、设备及可读存储介质 | |
CN116246147A (zh) | 基于跨层特征融合和线性注意力优化的跨物种目标检测方法 | |
US20210224652A1 (en) | Methods and systems for performing tasks on media using attribute specific joint learning | |
CN111582404B (zh) | 内容分类方法、装置及可读存储介质 | |
CN114898454A (zh) | 一种神经网络模型的训练方法、装置、电子设备及介质 | |
Kalyani et al. | Remembrance of Monocotyledons Using Residual Networks | |
Dinesh Reddy et al. | Deep Neural Transfer Network Technique for Lung Cancer Detection | |
US20240249844A1 (en) | Diagnostic imaging deep learning system and method | |
US20240037920A1 (en) | Continual-learning and transfer-learning based on-site adaptation of image classification and object localization modules | |
Muthusamy et al. | Recognition of Indian Continuous Sign Language Using Spatio-Temporal Hybrid Cue Network. | |
CN114240840A (zh) | 一种数据分类方法、装置、电子设备以及存储设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210728 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220719 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221018 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230105 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7208408 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |