TW202042181A - 深度模型訓練方法及裝置、電子設備及儲存介質 - Google Patents

深度模型訓練方法及裝置、電子設備及儲存介質 Download PDF

Info

Publication number
TW202042181A
TW202042181A TW108148214A TW108148214A TW202042181A TW 202042181 A TW202042181 A TW 202042181A TW 108148214 A TW108148214 A TW 108148214A TW 108148214 A TW108148214 A TW 108148214A TW 202042181 A TW202042181 A TW 202042181A
Authority
TW
Taiwan
Prior art keywords
model
training
training set
segmentation
label information
Prior art date
Application number
TW108148214A
Other languages
English (en)
Other versions
TWI747120B (zh
Inventor
李嘉輝
Original Assignee
大陸商北京市商湯科技開發有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 大陸商北京市商湯科技開發有限公司 filed Critical 大陸商北京市商湯科技開發有限公司
Publication of TW202042181A publication Critical patent/TW202042181A/zh
Application granted granted Critical
Publication of TWI747120B publication Critical patent/TWI747120B/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20096Interactive definition of curve of interest
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)

Abstract

本申請實施例公開了一種深度模型訓練方法及裝置、電子設備及儲存介質。所述深度學習模型訓練方法,包括:獲取第一模型輸出的第n+1第一標注資訊,所述第一模型已經過n輪訓練;以及,獲取第二模型輸出的第n+1第二標注資訊,所述第二模型已經過n輪訓練;n為大於1的整數;基於所述訓練資料及所述第n+1第一標注資訊,生成第二模型的第n+1訓練集,並基於所述訓練資料及所述第n+1第二標注資訊,生成所述第一模型的第n+1訓練集;將所述第二模型的第n+1訓練集輸入至所述第二模型,對所述第二模型進行第n+1輪訓練;將所述第一模型的第n+1訓練集輸入至所述第一模型,對所述第一模型進行第n+1輪訓練。

Description

深度模型訓練方法及裝置、電子設備及 儲存介質
本申請關於資訊技術領域但不限於資訊技術領域,尤其關於一種深度模型訓練方法及裝置、電子設備及儲存介質。
深度學習模型可以通過訓練集的訓練之後,具有一定的分類或識別能力。所述訓練集通常包括:訓練資料及訓練資料的標注資料。但是一般情況下,標注資料都需要人工進行手動標注。一方面純手動標注所有的訓練資料,工作量大、效率低,且標注過程中存在人工錯誤;另一方面,若需要實現高精度的標注,例如以圖像領域的標注為例,需要實現像素級分割,純人工標注要達到像素級分割,難度非常大且標注精度也難以保證。
故基於純人工標注的訓練資料進行深度學習模型的訓練,會存在訓練效率低、訓練得到的模型因為訓練資料自身精度低導致模型的分類或識別能力精度達不到預期。
有鑑於此,本申請實施例期望提供一種深度模型訓練方法及裝置、電子設備及儲存介質。
本申請的技術方案是如下述這樣實現的。
本申請實施例第一方面提供一種深度學習模型訓練方法,包括:
獲取第一模型輸出的第n+1第一標注資訊,所述第一模型經過n輪訓練;以及,獲取第二模型輸出的第n+1第二標注資訊,所述第二模型已經過n輪訓練;n為大於1的整數;
基於所述訓練資料及所述第n+1第一標注資訊,生成第二模型的第n+1訓練集,並基於所述訓練資料及所述第n+1第二標注資訊,生成所述第一模型的第n+1訓練集;
將所述第一模型的第n+1訓練集輸入至所述第二模型,對所述第二模型進行第n+1輪訓練;將所述第二模型的第n+1訓練集輸入至所述第一模型,對所述第一模型進行第n+1輪訓練。
基於上述方案,所述方法包括:
確定n是否小於N,N為最大訓練輪數;
所述獲取第一模型輸出的第n+1第一標注資訊,以及,獲取第二模型輸出的第n+1第二標注資訊;包括:
若n小於N,獲取第一模型輸出的第n+1第一標注資訊,以及,獲取第二模型輸出的第n+1第二標注資訊。
基於上述方案,所述獲取所述訓練資料及所述訓練資料的初始標注資訊,包括:
獲取包含有多個分割目標的訓練圖像及所述分割目標的外接框;
所述基於所述初始標注資訊,生成所述第一模型的第一訓練集和所述第二模型的第一訓練集,包括:
基於所述外接框,在所述外接框內繪製與所述分割目標形狀一致的標注輪廓;
基於所述訓練資料及所述標注輪廓,生成所述第一模型的第一訓練集及所述第二模型的第一訓練集。
基於上述方案,所述基於所述初始標注資訊,生成所述第一模型的第一訓練集和所述第二模型的第一訓練集,還包括:
基於所述外接框,生成具有重疊部分的兩個所述分割目標的分割邊界;
基於所述訓練資料及所述分割邊界,生成所述第一模型的第一訓練集和所述第二模型的第一訓練集。
基於上述方案,所述基於所述外接框,在所述外接框內繪製與所述分割目標形狀一致的標注輪廓,包括:
基於所述外接框,在所述外接框內繪製與細胞形狀一致的所述外接框的內接橢圓。
本申請實施例第二方面提供一種深度學習模型訓練裝置,包括:
標注模組,配置為獲取第一模型輸出的第n+1第一標注資訊,所述第一模型經過n輪訓練;以及,獲取第二模型輸出的第n+1第二標注資訊,所述第二模型已經過n輪訓練;n為大於1的整數;
第一生成模組,配置為基於所述訓練資料及所述第n+1第一標注資訊,生成第二模型的第n+1訓練集,並基於所述訓練資料及所述第n+1第二標注資訊,生成所述第一模型的第n+1訓練集;
訓練模組,配置為將所述第二模型的第n+1訓練集輸入至所述第二模型,對所述第二模型進行第n+1輪訓練;將所述第一模型的第n+1訓練集輸入至所述第一模型,對所述第一模型進行第n+1輪訓練。
基於上述方案,所述裝置包括:
確定模組,配置為確定n是否小於N,N為最大訓練輪數;
所述標注模組,配置為若n小於N,獲取第一模型輸出的第n+1第一標注資訊,以及,獲取第二模型輸出的第n+1第二標注資訊。
基於上述方案,所述裝置包括:
獲取模組,配置為獲取所述訓練資料及所述訓練資料的初始標注資訊;
第二生成模組,配置為基於所述初始標注資訊,生成所述第一模型的第一訓練集和所述第二模型的第一訓練集。
基於上述方案,所述獲取模組,配置為獲取包含有多個分割目標的訓練圖像及所述分割目標的外接框;
所述第二生成模組,配置為基於所述外接框,在所述外接框內繪製與所述分割目標形狀一致的標注輪廓;基於所述訓練資料及所述標注輪廓,生成所述第一模型的第一訓練集及所述第二模型的第一訓練集。
基於上述方案,所述第一生成模組,配置為基於所述外接框,生成具有重疊部分的兩個所述分割目標的分割邊界;基於所述訓練資料及所述分割邊界,生成所述第一模型的第一訓練集和所述第二模型的第一訓練集。
基於上述方案,所述第二生成模組,配置為基於所述外接框,在所述外接框內繪製與細胞形狀一致的所述外接框的內接橢圓。
本申請實施例第三方面提供一種電腦儲存介質,所述電腦儲存介質儲存有電腦可執行指令;所述電腦可執行指令被執行後,能夠實現前述任意一個技術方案提供的深度學習模型訓練方法。
本申請實施例第四方面提供一種電子設備,包括:
記憶體;
處理器,與所述記憶體連接,用於通過執行儲存在所述記憶體上的電腦可執行指令實現前述任意一個技術方案提供的深度學習模型訓練方法。
本申請實施例第五方面提供一種電腦程式產品,所述程式產品包括電腦可執行指令;所述電腦可執行指令被執行後,能夠前述任意一個技術方案提供的深度學習模型訓練方法。
本申請實施例提供的技術方案,會利用深度學習模型前一輪訓練完成之後對訓練資料進行標注獲得標注資訊,該標注資訊用作另外一個模型的下一輪訓練的訓練樣本,可以利用非常少的初始人工標注的訓練資料進行模型訓練,然後利用逐步收斂的第一模型和第二模型識別輸出的標注資料作為另一個模型下一輪的訓練樣本。由於深度學習模型在前一輪訓練過程中模型參數會依據大部分標注正確的資料生成,而少量標注不正確或者標注精度低的資料對深度學模型的模型參數影響小,如此反復反覆運算多次,深度學模型的標注資訊會越來越精確。利用越來越精確的標注資訊作為訓練資料,則會使得深度學習模型的訓練結果也越來越好。由於模型利用自身的標注資訊構建訓練樣本,如此,減少了人工手動標注的資料量,減少了人工手動標注所導致的效率低及人工錯誤,具有模型訓練速度快及訓練效果好的特點,且採用這種方式訓練的深度學習模型,具有分類或識別精確度高的特點。此外,在本實施例中同時訓練至少兩個模型,減少了單一模型在學習了一個錯誤的特徵之後通過反復反覆運算導致最終深度學習模型的學習異常現象。在本實施例中會將一個模型的前一輪訓練之後對訓練資料進行標注的結果,用於另一個模型的下一輪學習,如此,可以利用兩 個模型為彼此準備下一輪訓練資料減少單一模型反復反覆運算加強某些錯誤,從而能夠減少模型學習出錯的現象,提升深度學習模型的訓練效果。
110‧‧‧標注模組
120‧‧‧第一生成模組
130‧‧‧訓練模組
圖1為本申請實施例提供的第一種深度學習模型訓練方法的流程示意圖;
圖2為本申請實施例提供的第二種深度學習模型訓練方法的流程示意圖;
圖3為本申請實施例提供的第三種深度學習模型訓練方法的流程示意圖;
圖4為本申請實施例提供的一種深度學習模型訓練裝置的結構示意圖;
圖5為本申請實施例提供的一種訓練集的變化示意圖;
圖6為本申請實施例提供的一種電子設備的結構示意圖。
以下結合說明書附圖及具體實施例對本申請的技術方案做進一步的詳細闡述。
如圖1所示,本實施例提供一種深度學習模型訓練方法,包括:
步驟S110:獲取第一模型輸出的第n+1第一標注資訊,所述第一模型已經過n輪訓練;以及,獲取第二模型輸出的第n+1第二標注資訊,所述第二模型已經過n輪訓練;n為大於1的整數;
步驟S120:基於所述訓練資料及所述第n+1第一標注資訊,生成第二模型的第n+1訓練集,並基於所述訓練資料及所述第n+1第二標注資訊,生成所述第一模型的第n+1訓練集;
步驟S130:將所述第二模型的第n+1訓練集輸入至所述第二模型,對所述第二模型進行第n+1輪訓練;將所述第一模型的第n+1訓練集輸入至所述第一模型,對所述第一模型進行第n+1輪訓練。
本實施例提供的深度學習模型訓練方法可以用於各種電子設備中,例如,各種大資料模型訓練的伺服器中。
在本申請實施例中所有的第一標注資訊和第二標注資訊,可包括但不限於對圖像的標注資訊。該圖像可包括醫療圖像等。該醫療圖像可為平面(2D)醫療圖像或者由多個2D圖像形成的圖像序列構成的立體(3D)醫療圖像。
各所述第一標注資訊和所述第二標注資訊,可為對醫療圖像中器官和/會組織的標注,也可以是對細胞內不同細胞結構的標注,如,細胞核的標注。
在本實施例中的步驟S110中,會利用已經完成n輪訓練的第一模型對訓練資料進行處理,此時第一模型會獲得輸出,該輸出即為所述第n+1第一標注資料,該第n+1 第一標注資料與訓練資料對應起來,就形成了第二模型的第n+1訓練集。
同樣地,所述步驟S110還會利用已經完成n輪訓練的第二模型對訓練資料進行處理,此時第二模型會獲得輸出,該輸出即為所述第n+1第二標注資料,該第n+1第二標注資料與訓練資料對應起來,就形成了第一模型的第n+1訓練集。
在本申請實施例中,所述第一標注資料均為第一模型對訓練資料進行識別或分類得到的標注資訊;所述第二標注資訊為第二模型對訓練資料進行識別或標識得到的標注資訊。在本實施中,所述第n+1第一標注資料用於第二模型的第n+1輪訓練,而第n+1第二標注資料用於第一模型的第n+1輪訓練。
如此,本實施例中第n+1輪對第一模型和第二模型的訓練樣本就自動生成了,無需用戶手動標注第n+1輪訓練的訓練集,減少了人工手動標注樣本所消耗的時間,提升了深度學習模型的訓練速率,且減少深度學習模型因為手動標注的不準確或不精確導致的模型訓練後的分類或識別結果的不夠精確的現象,提升了深度學習模型訓練後的分類或識別結果的精確度。
此外,在本實施例中,第一模型的第一標注資料用於訓練第二模型,而第二模型的第二標注資料用於訓練第一模型,如此,抑制了第一模型自身的標注資料用於自身 下一輪訓練導致的模型訓練中錯誤加強的現象,如此,可以提升所述第一模型和第二模型訓練效果。
在一些實施例中,所述第一模型和第二模型指代的是兩個獨立的模型,但是這兩個模型可以相同也可以不同。例如,所述第一模型和第二模型可以為同一類深度學習模型,或者為不同類的深度學習模型。
在一些實施例中,所述第一模型和第二模型可為不同網路結構的深度學習模型,例如,所述第一模型為全連接卷積網路(FNN)、第二模型可為普通的卷積神經網路(CNN)。再例如,所述第一模型可為循環神經網路,第二模型可為FNN或CNN。再例如,所述第一模型可為V-NET,所述第二模型可為U-NET等。
若所述第一模型和第二模型不同,則所述第一模型和第二模型在進行訓練時基於相同的第一訓練集產生的相同錯誤的概率就大大降低了,可以進一步抑制在反復反覆運算過程中第一模型和第二模型因為相同的錯誤進行加強的現象,可以再一次提升訓練結果。
在本實施例中完成一輪訓練包括:第一模型和第二模型均對各自訓練集中的每一個訓練樣本都完成了至少一次學習。
例如,以所述訓練資料為S張圖像為例,則第1訓練樣本可為S張圖像及這S張圖像的人工標注結果,若S張圖像中有一張圖像標注圖像精確度不夠,但是第一模型和第二模型在第一輪訓練過程中,由於剩餘S-1張圖像的標注結 構精確度達到預期閾值,則這S-1張圖像及其對應的標注資料對第一模型和第二模型的模型參數圖像更大。在本實施例中,所述深度學習模型包括但不限於神經網路;所述模型參數包括但不限於:神經網路中網路節點的權值和/或閾值。所述神經網路可為各種類型的神經網路,例如,U-net或V-net。所述神經網路可包括:對訓練資料進行特徵提取的編碼部分和基於提取的特徵獲取語義資訊的解碼部分。例如,編碼部分可以對圖像中分割目標所在區域等進行特徵提取,得到區分分割目標和背景的遮罩圖像,解碼器基於遮罩圖像可以得到一些語義資訊,例如,通過像素統計等方式獲得目標的組學特徵等,該組學特徵可包括:目標的面積、體積、形狀等形態特徵,和/或,基於灰度值形成的灰度值特徵等。所述灰度值特徵可包括:長條圖的統計特徵等。
總之,在本實施例中,經過第一輪訓練後的第一模型和第二模型在識別S張圖像時,會自動度標注精度不夠的哪一張圖像,利用從其他S-1張圖像上學習獲得網路參數來進行標注,而此時標注精度是向其他S-1張圖像的標注精度靠齊的,故這一張圖像所對應的第2標注資訊是會比原始的第1標注資訊的精度提升的。如此,構成的第一模型的第2訓練集包括:S張圖像和第二模型生成的第1標注資訊構成的訓練資料。如此,第二模型的第2訓練集包括:訓練資料及第一模型的第1標注資訊。若第一模型在第一輪訓練時出現了錯誤A,但是第2輪訓練時,使用的是訓練資料及第二模型輸出的第2標注資訊,若第二模型未出現該錯誤 A,則第2標注資訊不會受到該錯誤A的影響,如此,利用第二模型的第2標注資訊對第一模型訓練進行第二輪訓練就能夠一直錯誤A在第一模型中的加強。故在本實施例中,可以利用第一模型和第二模型在訓練過程中會基於大多數正確或高精度的標注資訊進行學習,逐步抑制初始標注精度不夠或不正確的訓練樣本的負面影響,且因為兩個模型的標注資料的交叉用於下一輪訓練,不僅能夠實現訓練樣本的人工標注大大的減少,而且還會通過自身反覆運算的特性逐步提升訓練精度,使得訓練後的第一模型和第二模型的精確度達到預期效果。
在上述舉例中所述訓練資料以圖像為例,在一些實施例中,所述訓練資料還可以圖像以外的語音片段、所述圖像以外的文本資訊等;總之,所述訓練資料的形式有多種,不局限於上述任意一種。
在一些實施例中,如圖2所示,所述方法包括:
步驟S100:確定n是否小於N,其中,N為最大訓練輪數;
所述步驟S110可包括:
若n小於N,利用完成第n輪訓練的第一模型對訓練資料進行標注,獲得第n+1第一標注資訊,並利用完成第n輪訓練的第二模型對所述訓練資料進行標注,獲得第n+1第二標注資訊。
在本實施例中在構建第n+1訓練集之前,首先會確定目前已訓練輪數是否達到預定的最大訓練輪數N,若 未大達到才生成第n+1標注資訊,以構建第一模型和第二模型的第n+1訓練集,否則,則確定模型訓練完成停止所述深度學習模型的訓練。
在一些實施例中,所述N的取值可為4、5、6、7或8等經驗值或者統計值。
在一些實施例中,所述N的取值範圍可為3到10之間,所述N的取值可以是訓練設備從人機交互介面接收的使用者輸入值。
在還有一些實施例中,確定是否停止訓練還可包括:
利用測試集進行所述第一模型和第二模型的測試,若測試結果表明所述第一模型和第二模型的對測試集中測試資料的標注結果的精確度達到特定值,則停止所述第一模型和第二模型的訓練,否則進入到所述步驟S110以進入下一輪訓練。此時,所述測試集可為精確標注的資料集,故可以用於衡量一個第一模型和第二模型的每一輪的訓練結果,以判定是否停止第一模型和第二模型的訓練。
在一些實施例中,如圖3所示,所述方法包括:
步驟S210:獲取所述訓練資料及所述訓練資料的初始標注資訊;
步驟S220:基於所述初始標注資訊,生成所述第一模型的第一訓練集和所述第二模型的第一訓練集。
在本實施例中,所述初始標注資訊可為所述訓練資料的原始標注資訊,該原始標注資訊可為人工手動標注 的資訊,也可以是其他設備標注的資訊。例如,具有一定標注能力的其他設備標注的資訊。
本實施例中,獲取到訓練資料及初始標注資訊之後,會基於初始標注資訊生成第1第一標注資訊及第1第二標識資訊。此處的第1第一標注資訊及第1第一標識資訊可直接包括:所述初始標注資訊和/或根據所述初始標準資訊生成的精細化的標注資訊。
例如,若訓練資料為圖像,圖像包含有細胞成像,所述初始標注資訊可為大致標注所述細胞成像所在位置的標注資訊,而精細化的標注資訊可為精確指示所述細胞所在位置的位置標注,總之,在本實施例中,所述精細化的標注資訊對分割物件的標注精確度可高於所述初始標注資訊的精確度。
如此,即便由人工進行所述初始標注資訊的標注,也降低了人工標注的難度,簡化了人工標注。
例如,以細胞成像為例,細胞由於其橢圓球狀態的形態,一般在二維平面圖像內細胞的外輪廓都呈現為橢圓形。所述初始標注資訊可為醫生手動繪製的細胞的外接框。所述精細化的標注資訊可為:訓練設備基於手動標注的外接框生成的內接橢圓。在計算內接橢圓相對於外接框,減少細胞成像中不屬於細胞成像的像素個數,故第一標注資訊的精確度是高於所述初始標注信息的精確度的。
在一些實施例中,所述步驟S210可包括:獲取包含有多個分割目標的訓練圖像及所述分割目標的外接框;
所述步驟S220可包括:基於所述外接框,在所述外接框內繪製與所述分割目標形狀一致的標注輪廓;基於所述訓練資料及所述標注輪廓,生成所述第一模型的第一訓練集及所述第二模型的第一訓練集。
在一些實施例中,所述與分割目標形狀一致的標注輪廓可為前述橢圓形,還可以為圓形,或者,三角形或者其他對邊形等於分割目標形狀一致的形狀,不局限於橢圓形。
在一些實施例中,所述標注輪廓為內接於所述外接框的。所述外接框可為矩形框。
在一些實施例中,所述步驟S220還包括:
基於所述外接框,生成具有重疊部分的兩個所述分割目標的分割邊界;
基於所述訓練資料及所述分割邊界,生成所述第一模型的第一訓練集和所述第二模型的第一訓練集。
在一些實施例中,所述基於所述外接框,在所述外接框內繪製與所述分割目標形狀一致的標注輪廓,包括:基於所述外接框,在所述外接框內繪製與細胞形狀一致的所述外接框的內接橢圓。
在一些圖像中,兩個分割目標之間會有重疊,在本實施例中所述第一標注資訊還包括:兩個重疊分割目標之間的分割邊界。
例如,兩個細胞成像,細胞成像A疊在細胞成像B上,則細胞成像A被繪製出細胞邊界之後和細胞B成像 被繪製出細胞邊界之後,兩個細胞邊界交叉形成一部分框出了兩個細胞成像之間的交集。在本實施例中,可以根據細胞成像A和細胞成像B之間的位置關係,擦除細胞成像B的細胞邊界位於細胞成像A內部的部分,並以細胞成像A的位於細胞成像B中的部分作為所述分割邊界。
總之,在本實施例中,所述步驟S220可包括:利用兩個分割目標的位置關係,在兩者的重疊部分繪製分割邊界。
在一些實施例中,在繪製分割邊界時,可以通過修正兩個具有重疊邊界的分割目標其中一個的邊界來實現。為了突出邊界,可以通過像素膨脹的方式,可以加粗邊界。例如,通過細胞成像A的細胞邊界在所述重疊部分向細胞成像B方向上擴展預定個像素,例如,1個或多個像素,加粗重疊部分的細胞成像A的邊界,從而使得該加粗邊界被識別為分割邊界。
在一些實施例中,所述基於所述外接框,在所述外接框內繪製與所述分割目標形狀一致的標注輪廓,包括:基於所述外接框,在所述外接框內繪製與細胞形狀一致的所述外接框的內接橢圓。
在本本實施例中分割目標為細胞成像,所述標注輪廓包括所述細胞形狀這一張的外接框的內接橢圓。
在本實施例中,所述第一標注資訊包括以下至少之一:
所述細胞成像的細胞邊界(對應於所述內接橢圓);
重疊細胞成像之間的分割邊界。
若在一些實施例中,所述分割目標不是細胞而是其他目標,例如,分割目標為集體相中的人臉,人臉的外接框依然可以是矩形框,但是此時人臉的標注邊界可能是鵝蛋形臉的邊界,圓形臉的邊界等,此時,所述形狀不局限於所述內接橢圓。
當然以上僅是舉例,總之在本實施例中,所述第一模型及第二模型利用另外一個模型前一輪的訓練結果輸出訓練資料的標注資訊,以構建下一輪的訓練集,通過反復反覆運算多次完成模型訓練,無需手動標注大量的訓練樣本,具有訓練速率快及通過反復反覆運算可以提升訓練精確度。
如圖4所示,本申請實施例提供一種深度學習模型訓練裝置,包括:
標注模組110,配置為獲取第一模型輸出的第n+1第一標注資訊,所述第一模型經過n輪訓練;以及,獲取第二模型輸出的第n+1第二標注資訊,所述第二模型已經過n輪訓練;n為大於1的整數;
第一生成模組120,配置為基於所述訓練資料及所述第n+1第一標注資訊,生成第二模型的第n+1訓練集,並基於所述訓練資料及所述第n+1第二標注資訊,生成所述第一模型的第n+1訓練集;
訓練模組130,配置為將所述第二模型的第n+1訓練集輸入至所述第二模型,對所述第二模型進行第n+1輪訓練; 將第一模型的所述第n+1訓練集輸入至所述第一模型,對所述第一模型進行第n+1輪訓練。
在一些實施例中,所述標注模組110,第一生成模組120及訓練模組130可為程式模組,所述程式模組被處理器執行後,能夠實現上述操作。
在還有一些實施例中,所述標注模組110,第一生成模組120及訓練模組130可為軟硬結合模型;所述軟硬結合模組可為各種可程式設計陣列,例如,現場可程式設計陣列或複雜可程式設計陣列。
在另外一些實施例中,所述標注模組110,第一生成模組120及訓練模組130可純硬體模組,所述純硬體模組可為專用積體電路。
在一些實施例中,所述裝置包括:
確定模組,配置為確定n是否小於N,其中,N為最大訓練輪數;
所述標注模組,配置為若n小於N,獲取第一模型輸出的第n+1第一標注資訊;以及,獲取第二模型輸出的第n+1第二標注資訊。
在一些實施例中,所述裝置包括:
獲取模組,配置為獲取所述訓練資料及所述訓練資料的初始標注資訊;
第二生成模組,配置為基於所述初始標注資訊,生成所述第一模型的第一訓練集和所述第二模型的第一訓練集。
在一些實施例中所述獲取模組,配置為獲取包含有多個分割目標的訓練圖像及所述分割目標的外接框;
所述第二生成模組,配置為基於所述外接框,在所述外接框內繪製與所述分割目標形狀一致的標注輪廓;基於所述訓練資料及所述標注輪廓,生成所述第一模型的第一訓練集及所述第二模型的第一訓練集。
在一些實施例中所述第一生成模組,配置為基於所述外接框,生成具有重疊部分的兩個所述分割目標的分割邊界;基於所述訓練資料及所述分割邊界,生成所述第一模型的第一訓練集和所述第二模型的第一訓練集。
在一些實施例中所述第二生成模組,配置為基於所述外接框,在所述外接框內繪製與細胞形狀一致的所述外接框的內接橢圓。
以下結合上述實施例提供一個具體示例。
示例1:
互相學習弱監督演算法,以圖中部分物體的包圍矩形框作為輸入,進行兩個模型互相學習,能夠輸出其他未知圖片中該物體的像素分割結果。
以細胞分割為例子,一開始有圖中部分細胞的包圍矩形標注。觀察發現細胞大部分是橢圓,於是在矩形中畫個最大內接橢圓,不同橢圓之間畫好分割線,橢圓邊緣也畫上分割線。作為初始監督信號。訓練兩個分割模型。然後此分割模型在此圖上預測,得到的預測圖和初始標注圖作並集,作為新的監督信號,兩個模型使用彼此的整合結果,再 重複訓練該分割模型,於是發現圖中的分割結果變得越來越好。
同樣的使用該方法,對於未知的無標注新圖片,第一次兩個模型預測一份結果,然後使用彼此的預測重複上述過程。
如圖5所示,對原始圖像進行標注,第二模型得到一個掩膜圖像構建第一模型的第一訓練集和第二模型的第一訓練集,利用第一訓練集分別進行第一模型及第二模型進行第一輪訓練。第一輪訓練完之後,利用第一模型進行圖像識別得到標注資訊,基於該標注資訊生成第二模型的第二訓練集。並在第一輪訓練之後,利用第二模型進行圖像識別得到標注資訊,該標注資訊用於生成第一模型的第二訓練集。分別進行第一模型和第二模型的第二輪訓練;如此反復交叉形成訓練集之後,進行反覆運算訓練多輪之後停止訓練。
在相關技術中,總是複雜的考慮第一次分割結果的概率圖,做峰值、平緩區域等等的分析,然後做區域生長等,對於閱讀者而言,複現工作量大,實現困難。本示例提供的深度學習模型訓練方法,不對輸出分割概率圖做任何計算,直接拿來和標注圖做並集,再繼續訓練模型,這個過程實現簡單。
如圖6示,本申請實施例提供了一種電子設備,包括:
記憶體,用於儲存資訊;
處理器,與所述記憶體連接,用於通過執行儲存在所述記憶體上的電腦可執行指令,能夠實現前述一個或多個技術方案提供的深度學習模型訓練方法,例如,如圖1至圖3所示的方法中的一個或多個。
該記憶體可為各種類型的記憶體,可為隨機記憶體、唯讀記憶體、快閃記憶體等。所述記憶體可用於資訊儲存,例如,儲存電腦可執行指令等。所述電腦可執行指令可為各種程式指令,例如,目的程式指令和/或來源程式指令等。
所述處理器可為各種類型的處理器,例如,中央處理器、微處理器、數位訊號處理器、可程式設計陣列、數位訊號處理器、專用積體電路或圖像處理器等。
所述處理器可以通過匯流排與所述記憶體連接。所述匯流排可為積體電路匯流排等。
在一些實施例中,所述終端設備還可包括:通信介面,該通信介面可包括:網路介面、例如,局域網介面、收發天線等。所述通信介面同樣與所述處理器連接,能夠用於資訊收發。
在一些實施例中,所述電子設備還包括攝像頭,該攝像頭可採集各種圖像,例如,醫療圖像等。
在一些實施例中,所述終端設備還包括人機交互介面,例如,所述人機交互介面可包括各種輸入輸出設備,例如,鍵盤、觸控式螢幕等。
本申請實施例提供了一種電腦儲存介質,所述電腦儲存介質儲存有電腦可執行代碼;所述電腦可執行代碼被執行後,能夠實現前述一個或多個技術方案提供的深度學習模型訓練方法,例如,如圖1至圖3所示的方法中的一個或多個。
所述儲存介質包括:移動儲存裝置、唯讀記憶體(ROM,Read-Only Memory)、隨機存取記憶體(RAM,Random Access Memory)、磁碟或者光碟等各種可以儲存程式碼的介質。所述儲存介質可為非瞬間儲存介質。
本申請實施例提供一種電腦程式產品,所述程式產品包括電腦可執行指令;所述電腦可執行指令被執行後,能夠實現前述任意實施提供的深度學習模型訓練方法,例如,如圖1至圖3所示的方法中的一個或多個。
在本申請所提供的幾個實施例中,應該理解到,所揭露的設備和方法,可以通過其它的方式實現。以上所描述的設備實施例僅僅是示意性的,例如,所述單元的劃分,僅僅為一種邏輯功能劃分,實際實現時可以有另外的劃分方式,如:多個單元或元件可以結合,或可以集成到另一個系統,或一些特徵可以忽略,或不執行。另外,所顯示或討論的各組成部分相互之間的耦合、或直接耦合、或通信連接可以是通過一些介面,設備或單元的間接耦合或通信連接,可以是電性的、機械的或其它形式的。
上述作為分離部件說明的單元可以是、或也可以不是物理上分開的,作為單元顯示的部件可以是、或也可 以不是物理單元,即可以位於一個地方,也可以分佈到多個網路單元上;可以根據實際的需要選擇其中的部分或全部單元來實現本實施例方案的目的。
另外,在本申請各實施例中的各功能單元可以全部集成在一個處理模組中,也可以是各單元分別單獨作為一個單元,也可以兩個或兩個以上單元集成在一個單元中;上述集成的單元既可以採用硬體的形式實現,也可以採用硬體加軟體功能單元的形式實現。
本領域普通技術人員可以理解:實現上述方法實施例的全部或部分步驟可以通過程式指令相關的硬體來完成,前述的程式可以儲存於一電腦可讀取儲存介質中,該程式在執行時,執行包括上述方法實施例的步驟;而前述的儲存介質包括:移動儲存裝置、唯讀記憶體(ROM,Read-Only Memory)、隨機存取記憶體(RAM,Random Access Memory)、磁碟或者光碟等各種可以儲存程式碼的介質。
以上所述,僅為本申請的具體實施方式,但本申請的保護範圍並不局限於此,任何熟悉本技術領域的技術人員在本申請揭露的技術範圍內,可輕易想到變化或替換,都應涵蓋在本申請的保護範圍之內。因此,本申請的保護範圍應以所述申請專利範圍的保護範圍為準。
圖1代表圖為流程圖,無元件符號簡單說明。

Claims (9)

  1. 一種深度學習模型訓練方法,包括:
    獲取第一模型輸出的第n+1第一標注資訊,所述第一模型經過n輪訓練;以及,獲取第二模型輸出的第n+1第二標注資訊,所述第二模型已經過n輪訓練;n為大於1的整數;
    基於所述訓練資料及所述第n+1第一標注資訊,生成第二模型的第n+1訓練集,並基於所述訓練資料及所述第n+1第二標注資訊,生成所述第一模型的第n+1訓練集;
    將所述第二模型的第n+1訓練集輸入至所述第二模型,對所述第二模型進行第n+1輪訓練;將所述第一模型的第n+1訓練集輸入至所述第一模型,對所述第一模型進行第n+1輪訓練。
  2. 根據請求項1所述的方法,其中,所述方法包括:
    確定n是否小於N,N為最大訓練輪數;
    所述獲取第一模型輸出的第n+1第一標注資訊;以及,獲取第二模型輸出的第n+1第二標注資訊,包括:
    若n小於N,獲取第一模型輸出的第n+1第一標注資訊,以及,獲取第二模型輸出的第n+1第二標注資訊。
  3. 根據請求項1或2所述的方法,其中,所述方法包括:
    獲取所述訓練資料及所述訓練資料的初始標注資訊;
    基於所述初始標注資訊,生成所述第一模型的第一訓練集和所述第二模型的第一訓練集。
  4. 根據請求項3所述的方法,其中,
    所述獲取所述訓練資料及所述訓練資料的初始標注資訊,包括:
    獲取包含有多個分割目標的訓練圖像及所述分割目標的外接框;
    所述基於所述初始標注資訊,生成所述第一模型的第一訓練集和所述第二模型的第一訓練集,包括:
    基於所述外接框,在所述外接框內繪製與所述分割目標形狀一致的標注輪廓;
    基於所述訓練資料及所述標注輪廓,生成所述第一模型的第一訓練集及所述第二模型的第一訓練集。
  5. 根據請求項4所述的方法,其中,所述基於所述初始標注資訊,生成所述第一模型的第一訓練集和所述第二模型的第一訓練集,還包括:
    基於所述外接框,生成具有重疊部分的兩個所述分割目標的分割邊界;
    基於所述訓練資料及所述分割邊界,生成所述第一模型的第一訓練集和所述第二模型的第一訓練集。
  6. 根據請求項4所述的方法,其中,
    所述基於所述外接框,在所述外接框內繪製與所述分割目標形狀一致的標注輪廓,包括:
    基於所述外接框,在所述外接框內繪製與細胞形狀一致的所述外接框的內接橢圓。
  7. 一種深度學習模型訓練裝置,包括:
    標注模組,配置為獲取第一模型輸出的第n+1第一標注資訊,所述第一模型經過n輪訓練;以及,獲取第二模型輸出的第n+1第二標注資訊,所述第二模型已經過n輪訓練;n為大於1的整數;
    第一生成模組,配置為基於所述訓練資料及所述第n+1第一標注資訊,生成第二模型的第n+1訓練集,並基於所述訓練資料及所述第n+1第二標注資訊,生成所述第一模型的第n+1訓練集;
    訓練模組,配置為將所述第二模型的第n+1訓練集輸入至所述第二模型,對所述第二模型進行第n+1輪訓練;將所述第一模型的第n+1訓練集輸入至所述第一模型,對所述第一模型進行第n+1輪訓練。
  8. 一種電腦儲存介質,所述電腦儲存介質儲存有電腦可執行指令;所述電腦可執行指令被執行後,能夠實現請求項1至6任一項所述的方法。
  9. 一種電子設備,包括:
    記憶體;
    處理器,與所述記憶體連接,用於通過執行儲存在所述記憶體上的電腦可執行指令實現前述請求項1至6任一項所述的方法。
TW108148214A 2018-12-29 2019-12-27 深度模型訓練方法及裝置、電子設備及儲存介質 TWI747120B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201811646736.0A CN109740668B (zh) 2018-12-29 2018-12-29 深度模型训练方法及装置、电子设备及存储介质
CN201811646736.0 2018-12-29

Publications (2)

Publication Number Publication Date
TW202042181A true TW202042181A (zh) 2020-11-16
TWI747120B TWI747120B (zh) 2021-11-21

Family

ID=66362835

Family Applications (1)

Application Number Title Priority Date Filing Date
TW108148214A TWI747120B (zh) 2018-12-29 2019-12-27 深度模型訓練方法及裝置、電子設備及儲存介質

Country Status (7)

Country Link
US (1) US20210224598A1 (zh)
JP (1) JP7110493B2 (zh)
KR (1) KR20210042364A (zh)
CN (1) CN109740668B (zh)
SG (1) SG11202103717QA (zh)
TW (1) TWI747120B (zh)
WO (1) WO2020134533A1 (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109740668B (zh) * 2018-12-29 2021-03-30 北京市商汤科技开发有限公司 深度模型训练方法及装置、电子设备及存储介质
CN110909688B (zh) * 2019-11-26 2020-07-28 南京甄视智能科技有限公司 人脸检测小模型优化训练方法、人脸检测方法及计算机系统
CN113515980B (zh) * 2020-05-20 2022-07-05 阿里巴巴集团控股有限公司 模型训练方法、装置、设备和存储介质
CN111738197B (zh) * 2020-06-30 2023-09-05 中国联合网络通信集团有限公司 一种训练图像信息处理的方法和装置
CN113591893A (zh) * 2021-01-26 2021-11-02 腾讯医疗健康(深圳)有限公司 基于人工智能的图像处理方法、装置和计算机设备
EP4348528A1 (en) * 2021-05-28 2024-04-10 Visa International Service Association Metamodel and feature generation for rapid and accurate anomaly detection
CN113947771B (zh) * 2021-10-15 2023-06-27 北京百度网讯科技有限公司 图像识别方法、装置、设备、存储介质以及程序产品
EP4227908A1 (en) * 2022-02-11 2023-08-16 Zenseact AB Iterative refinement of annotated datasets
CN114764874B (zh) * 2022-04-06 2023-04-07 北京百度网讯科技有限公司 深度学习模型的训练方法、对象识别方法和装置
CN115600112B (zh) * 2022-11-23 2023-03-07 北京结慧科技有限公司 获取行为预测模型训练集的方法、装置、设备及介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB216635A (en) * 1923-04-12 1924-06-05 Reginald Mosley Tayler An improved amusement device
SG179302A1 (en) * 2010-09-16 2012-04-27 Advanced Material Engineering Pte Ltd Projectile with strike point marking
CN104346622A (zh) * 2013-07-31 2015-02-11 富士通株式会社 卷积神经网络分类器及其分类方法和训练方法
US9633282B2 (en) * 2015-07-30 2017-04-25 Xerox Corporation Cross-trained convolutional neural networks using multimodal images
CN105389584B (zh) * 2015-10-13 2018-07-10 西北工业大学 基于卷积神经网络与语义转移联合模型的街景语义标注方法
CN105550651B (zh) * 2015-12-14 2019-12-24 中国科学院深圳先进技术研究院 一种数字病理切片全景图像自动分析方法及系统
CN105931226A (zh) * 2016-04-14 2016-09-07 南京信息工程大学 基于深度学习的自适应椭圆拟合细胞自动检测分割方法
CN106096531B (zh) * 2016-05-31 2019-06-14 安徽省云力信息技术有限公司 一种基于深度学习的交通图像多类型车辆检测方法
CN106202997B (zh) * 2016-06-29 2018-10-30 四川大学 一种基于深度学习的细胞分裂检测方法
CN106157308A (zh) * 2016-06-30 2016-11-23 北京大学 矩形目标物检测方法
CN107392125A (zh) * 2017-07-11 2017-11-24 中国科学院上海高等研究院 智能模型的训练方法/系统、计算机可读存储介质及终端
CN107967491A (zh) * 2017-12-14 2018-04-27 北京木业邦科技有限公司 木板识别的机器再学习方法、装置、电子设备及存储介质
CN108021903B (zh) * 2017-12-19 2021-11-16 南京大学 基于神经网络的人工标注白细胞的误差校准方法及装置
CN108074243B (zh) * 2018-02-05 2020-07-24 志诺维思(北京)基因科技有限公司 一种细胞定位方法以及细胞分割方法
CN108615236A (zh) * 2018-05-08 2018-10-02 上海商汤智能科技有限公司 一种图像处理方法及电子设备
CN108932527A (zh) * 2018-06-06 2018-12-04 上海交通大学 使用交叉训练模型检测对抗样本的方法
CN109087306A (zh) * 2018-06-28 2018-12-25 众安信息技术服务有限公司 动脉血管图像模型训练方法、分割方法、装置及电子设备
CN109740668B (zh) * 2018-12-29 2021-03-30 北京市商汤科技开发有限公司 深度模型训练方法及装置、电子设备及存储介质

Also Published As

Publication number Publication date
JP7110493B2 (ja) 2022-08-01
US20210224598A1 (en) 2021-07-22
WO2020134533A1 (zh) 2020-07-02
JP2021536083A (ja) 2021-12-23
SG11202103717QA (en) 2021-05-28
CN109740668B (zh) 2021-03-30
KR20210042364A (ko) 2021-04-19
TWI747120B (zh) 2021-11-21
CN109740668A (zh) 2019-05-10

Similar Documents

Publication Publication Date Title
TWI747120B (zh) 深度模型訓練方法及裝置、電子設備及儲存介質
US11861829B2 (en) Deep learning based medical image detection method and related device
US11842487B2 (en) Detection model training method and apparatus, computer device and storage medium
WO2018108129A1 (zh) 用于识别物体类别的方法及装置、电子设备
CN109740752B (zh) 深度模型训练方法及装置、电子设备及存储介质
CN107895367B (zh) 一种骨龄识别方法、系统及电子设备
WO2020125495A1 (zh) 一种全景分割方法、装置及设备
WO2022001623A1 (zh) 基于人工智能的图像处理方法、装置、设备及存储介质
CN109522900B (zh) 自然场景文字识别方法及装置
CN111476284A (zh) 图像识别模型训练及图像识别方法、装置、电子设备
CN110348294A (zh) Pdf文档中图表的定位方法、装置及计算机设备
CN109559295A (zh) 图像分析系统、方法、计算机可读存储介质、及电子终端
CN112634369A (zh) 空间与或图模型生成方法、装置、电子设备和存储介质
CN113780201B (zh) 手部图像的处理方法及装置、设备和介质
CN114003671A (zh) 一种地图图幅编码识别的方法及其识别系统
CN109299777B (zh) 一种基于人工智能的数据处理方法及其系统
CN113792807B (zh) 皮肤病分类模型训练方法、系统、介质和电子设备
CN112597328B (zh) 标注方法、装置、设备及介质
WO2022227218A1 (zh) 药名识别方法、装置、计算机设备和存储介质
CN117372286B (zh) 一种基于Python的图像噪声优化方法及系统
CN110196981B (zh) 文本表示方法、装置、设备和存储介质
CN116012876A (zh) 生物特征关键点检测方法、装置、终端设备及存储介质
CN114693639A (zh) 一种超声图像识别系统及自优化方法
CN117437423A (zh) 基于sam协同学习和跨层特征聚合增强的弱监督医学图像分割方法及装置
CN115527022A (zh) 一种基于dnn深度学习的腔镜下微创手术自动标注的方法及装置