TWI779238B - 影像處理方法及裝置、電子設備和電腦可讀取的記錄媒體 - Google Patents

影像處理方法及裝置、電子設備和電腦可讀取的記錄媒體 Download PDF

Info

Publication number
TWI779238B
TWI779238B TW108137264A TW108137264A TWI779238B TW I779238 B TWI779238 B TW I779238B TW 108137264 A TW108137264 A TW 108137264A TW 108137264 A TW108137264 A TW 108137264A TW I779238 B TWI779238 B TW I779238B
Authority
TW
Taiwan
Prior art keywords
image
processed
segmentation result
sub
target object
Prior art date
Application number
TW108137264A
Other languages
English (en)
Other versions
TW202038848A (zh
Inventor
崔鶴潔
劉星龍
黃寧
Original Assignee
大陸商北京市商湯科技開發有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 大陸商北京市商湯科技開發有限公司 filed Critical 大陸商北京市商湯科技開發有限公司
Publication of TW202038848A publication Critical patent/TW202038848A/zh
Application granted granted Critical
Publication of TWI779238B publication Critical patent/TWI779238B/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本發明涉及一種影像處理方法及裝置、電子設備和電腦可讀取的記錄媒體,所述方法包括:對待處理圖像進行特徵提取,得到中間處理圖像;對中間處理圖像進行分割處理,得到第一分割結果;根據第一分割結果的結構資訊,對第一分割結果進行結構重構,得到待處理圖像中目標物件的最終分割結果。本發明實施例可以實現根據待處理圖像中目標物件的結構資訊,對待處理圖像的分割結果進行進一步的修正,從而提高分割結果的完整性和準確性,繼而提升影像處理的精度。

Description

影像處理方法及裝置、電子設備和電腦可讀取的記錄媒體
本發明是有關於影像處理技術領域,特別是有關於一種影像處理方法及裝置、電子設備和電腦可讀取的記錄媒體。
人體的肺部是新陳代謝產生氣體的交換場所,包含豐富的氣管和血管組織,結構較為複雜,且肺部血管動靜脈相互纏繞、相伴而行,進一步增加了分割難度,因此,如何對肺部圖像中的血管實現較為精確的分割,成為了目前一個亟待解決的問題。
本發明實施例提供了一種圖像優化的技術方案。本發明提出了一種影像處理技術方案。
根據本發明的一方面,提供了一種影像處理方法,包括:對待處理圖像進行特徵提取,得到中間處理圖像;對所述中間處理圖像進行分割處理,得到第一分割結果;根據所述第一分割結果的結構資訊,對所述第一分割結果進行結構重構,得到所述待處理圖像中目標物件的最終分割結果。
在本發明實施例中,透過對待處理圖像進行特徵提取後進行分割處理,得到初步的分割結果,再基於此初步的分割結果,利用其中的結構資訊進行結構重構,可以得到待處理圖像中目標物件的最終分割結果。透過上述過程可以根據待處理圖像中目標物件的結構資訊,對待處理圖像的分割結果進行進一步的修正,從而提高分割結果的完整性和準確性,繼而提升影像處理的精度。
在一種可能的實現方式中,所述對待處理圖像進行特徵提取,得到中間處理圖像,包括:按照預定方向,對所述待處理圖像進行切割,得到多個待處理子圖像;對每個所述待處理子圖像進行特徵提取,得到與每個待處理子圖像分別對應的中間處理子圖像;根據所述預定方向,將所有所述中間處理子圖像進行拼接,得到中間處理圖像。
在本發明實施例中,透過對待處理圖像進行切割後得到多個待處理子圖像,再分別對每一個待處理子圖像進行特徵提取,然後再根據預定方向將經由特徵提取得到的多個中間處理子圖像進行拼接,則可以得到相應的中間處理圖像,透過這一過程,可以在待處理圖像過大時,將待處理圖像切割成多個大小適宜的待處理子圖像,從而有效減少特徵提取的輸入圖像的大小,減小由於輸入圖像過大導致特徵提取結果的準確性降低的概率,從而提升特徵提取的精度,使得得到的中間處理圖像具有較高的準確性,繼而提升整個影像處理過程的精度,同時,也降低了待處理圖像過大導致的記憶體溢出的概率,可以有效降低記憶體消耗。
在一種可能的實現方式中,所述按照預定方向,對所述待處理圖像進行切割,得到多個待處理子圖像,包括:在所述待處理圖像上確定多個切割中心;按照預定方向,根據所述切割中心的位置,對所述待處理圖像進行切割,得到多個待處理子圖像,其中,每個切割中心分別位於對應的待處理子圖像的中心,相鄰的待處理子圖像之間存在重疊區域。
在本發明實施例中,透過切割使得相鄰的待處理子圖像之間存在重疊區域,可以降低部分由於對待處理圖像切割導致部分目標物件相關圖像資訊的丟失的概率,從而提升得到的特徵提取結果的完整程度和準確程度,繼而提升最終得到的分割結果的精度和完整程度,即提高影像處理的精度。
在一種可能的實現方式中,所述按照預定方向,所述對所述待處理圖像進行切割,得到多個待處理子圖像之前,還包括:對所述待處理圖像在除所述預定方向以外的方向,根據預定參數進行縮放處理。
在本發明實施例中,透過對待處理圖像在除預定方向以外的方向進行縮放處理,可以對待處理圖像的尺寸進行統一,從而方便後續的影像處理的進行,提高影像處理的效率。
在一種可能的實現方式中,所述對待處理圖像進行特徵提取,得到中間處理圖像之前,還包括:獲取訓練樣本資料集;根據所述訓練樣本資料集,訓練用於進行特徵提取的神經網路。
在本發明實施例中,透過訓練用於進行特徵提取的神經網路,可以透過神經網路實現對待處理圖像的特徵提取,從而提高得到的中間處理圖像的精度,繼而可以提高影像處理的精度。
在一種可能的實現方式中,所述獲取訓練樣本資料集包括:對原始資料進行修正,得到修正標注資料;根據所述修正標注資料得到訓練樣本資料集。
在本發明實施例中,透過對原始資料進行修正來得到標注資料,可以提高訓練資料的品質,從而提高訓練得到的神經網路的精度,繼而可以提高特徵提取的精度來進一步提高影像處理的精度。
在一種可能的實現方式中,所述根據所述訓練樣本資料集,訓練用於進行特徵提取的神經網路,包括:根據所述訓練樣本資料集,結合預設的權重係數,分別得到所述神經網路的全域損失和假陽懲罰損失;根據所述全域損失和所述假陽懲罰損失,確定所述神經網路的損失函數;根據所述損失函數反向傳播來訓練所述神經網路。
在本發明實施例中,透過上述形式的損失函數,可以有效地減小由於目標物件在整體圖片中所占比例較小,導致的訓練得到的神經網路具有高假陽率低召回率的問題,因此可以提高訓練得到的神經網路的準確程度,從而提高對待處理圖像進行特徵提取得到的中間處理圖像的精度,繼而提高最終分割結果的精度,提高影像處理的準確性。
在一種可能的實現方式中,所述對所述中間處理圖像進行分割處理,得到第一分割結果,包括:透過Grow Cut對所述中間處理圖像進行分割處理,得到第一分割結果,其中,所述Grow Cut透過深度學習框架在圖形處理器中實現。
在本發明實施例中,在透過Grow Cut對中間處理圖像進行分割處理時,將Grow Cut透過深度學習框架在GPU中實現,可以使得分割處理的速度得到極大提升,從而可以有效的提升整個影像處理方法的速度。
在一種可能的實現方式中,所述根據所述第一分割結果的結構資訊,對所述第一分割結果進行結構重構,得到所述待處理圖像中目標物件的最終分割結果,包括:對所述第一分割結果進行中心提取,得到中心區域圖像和距離場數值集合,其中,所述距離場數值集合為所述中心區域圖像上的所有體素點與所述第一分割結果內目標物件的邊界之間的距離場數值的集合;根據所述中心區域圖像,生成所述目標物件的第一拓撲結構圖;對所述第一拓撲結構圖進行連通處理,得到第二拓撲結構圖;根據所述距離場數值集合,對所述第二拓撲結構圖進行結構重構,得到所述待處理圖像中目標物件的最終分割結果。
在本發明實施例中,透過基於第一分割結果進行結構化重構,即基於真實資料來進行結構化重構,可以使得最終分割結果具有更高的真實性。
在一種可能的實現方式中,所述對所述第一拓撲結構圖進行連通處理,得到第二拓撲結構圖,包括:提取所述第一拓撲結構圖中所述目標物件對應的連通區域;移除所述第一拓撲結構圖中與所述連通區域的連通值低於連通閾值的體素點,得到第二拓撲結構圖。
在本發明實施例中,透過對第一拓撲結構圖進行連通處理,得到第二拓撲結構圖,這一過程可以有效的提升第一分割結果的連通性,移除掉第一分割結果中的雜訊點,對第一分割結果進行有效修正,提高得到的最終分割結果的準確性。
在一種可能的實現方式中,根據所述距離場數值集合,對所述第二拓撲結構圖進行結構重構,得到所述待處理圖像中目標物件的最終分割結果,包括:以所述第二拓撲結構圖中的每個點為球心,所述距離場數值集合中的每個距離場數值為半徑,進行繪製,將所述繪製包括的重疊區域添加至所述第二拓撲結構圖中,得到所述待處理圖像中目標物件的最終分割結果。
在本發明實施例中,透過利用第二拓撲結構圖和距離場數值集合對目標物件進行結構化重構,得到的最終分割結果,可以有效的體現目標物件的各節點和分支資訊,具有較高的精度。
在一種可能的實現方式中,所述對待處理圖像進行特徵提取,得到中間處理圖像之前,還包括:對所述待處理圖像進行預處理,其中,所述預處理包括:重採樣、數值限定以及歸一化中的一種或多種。
在本發明實施例中,透過對待處理圖像進行預處理,可以提高後續對待處理圖像依次進行特徵提取、分割處理和結構重構的處理效率,縮短整個影像處理過程的時間,同時也可以提升圖像分割的準確程度,從而提高影像處理結果的精度。
根據本發明的一方面,提供了一種影像處理裝置,包括:特徵提取模組,用於對待處理圖像進行特徵提取,得到中間處理圖像;分割模組,用於對所述中間處理圖像進行分割處理,得到第一分割結果;結構重構模組,用於根據所述第一分割結果的結構資訊,對所述第一分割結果進行結構重構,得到所述待處理圖像中目標物件的最終分割結果。
在一種可能的實現方式中,所述特徵提取模組包括:切割子模組,用於按照預定方向,對所述待處理圖像進行切割,得到多個待處理子圖像;特徵提取子模組,用於對每個所述待處理子圖像進行特徵提取,得到與每個待處理子圖像分別對應的中間處理子圖像;拼接子模組,用於根據所述預定方向,將所有所述中間處理子圖像進行拼接,得到中間處理圖像。
在一種可能的實現方式中,所述切割子模組用於:在所述待處理圖像上確定多個切割中心;按照預定方向,根據所述切割中心的位置,對所述待處理圖像進行切割,得到多個待處理子圖像,其中,每個切割中心分別位於對應的待處理子圖像的中心,相鄰的待處理子圖像之間存在重疊區域。
在一種可能的實現方式中,所述切割子模組之前還包括縮放子模組,所述縮放子模組用於:對所述待處理圖像在除所述預定方向以外的方向,根據預定參數進行縮放處理。
在一種可能的實現方式中,所述特徵提取模組之前還包括訓練模組,所述訓練模組包括:樣本獲取子模組,用於獲取訓練樣本資料集;訓練子模組,用於根據所述訓練樣本資料集,訓練用於進行特徵提取的神經網路。
在一種可能的實現方式中,所述樣本獲取子模組用於:對原始資料進行修正,得到修正標注資料;根據所述修正標注資料得到訓練樣本資料集。
在一種可能的實現方式中,所述訓練子模組用於:根據所述訓練樣本資料集,結合預設的權重係數,分別得到所述神經網路的全域損失和假陽懲罰損失;根據所述全域損失和所述假陽懲罰損失,確定所述神經網路的損失函數;根據所述損失函數反向傳播來訓練所述神經網路。
在一種可能的實現方式中,所述分割模組用於:透過Grow Cut對所述中間處理圖像進行分割處理,得到第一分割結果,其中,所述Grow Cut透過深度學習框架在圖形處理器中實現。
在一種可能的實現方式中,所述結構重構模組包括:中心提取子模組,用於對所述第一分割結果進行中心提取,得到中心區域圖像和距離場數值集合,其中,所述距離場數值集合為所述中心區域圖像上的所有體素點與所述第一分割結果內目標物件的邊界之間的距離場數值的集合;拓撲結構生成子模組,用於根據所述中心區域圖像,生成所述目標物件的第一拓撲結構圖;連通處理子模組,用於對所述第一拓撲結構圖進行連通處理,得到第二拓撲結構圖;結構重構子模組,用於根據所述距離場數值集合,對所述第二拓撲結構圖進行結構重構,得到所述待處理圖像中目標物件的最終分割結果。
在一種可能的實現方式中,所述連通處理子模組用於:提取所述第一拓撲結構圖中所述目標物件對應的連通區域;移除所述第一拓撲結構圖中與所述連通區域的連通值低於連通閾值的體素點,得到第二拓撲結構圖。
在一種可能的實現方式中,所述結構重構子模組用於:以所述第二拓撲結構圖中的每個點為球心,所述距離場數值集合中的每個距離場數值為半徑,進行繪製,將所述繪製包括的重疊區域添加至所述第二拓撲結構圖中,得到所述待處理圖像中目標物件的最終分割結果。
在一種可能的實現方式中,所述特徵提取模組之前還包括預處理模組,所述預處理模組用於:對所述待處理圖像進行預處理,其中,所述預處理包括:重採樣、數值限定以及歸一化中的一種或多種。
根據本發明的一方面,提供了一種電子設備,包括:處理器;用於儲存處理器可執行指令的記憶體;其中,所述處理器被配置為執行上述影像處理方法。
根據本發明的一方面,提供了一種電腦可讀取的記錄媒體,其上儲存有電腦程式指令,所述電腦程式指令被處理器執行時實現上述影像處理方法。
應當理解的是,以上的一般描述和後文的細節描述僅是示例性和解釋性的,而非限制本發明。
根據下面參考附圖對示例性實施例的詳細說明,本發明的其它特徵及方面將變得清楚。
在本發明被詳細描述之前,應當注意在以下的說明內容中,類似的元件是以相同的編號來表示。以下將參考附圖詳細說明本發明的各種示例性實施例、特徵和方面。附圖中相同的附圖標記表示功能相同或相似的元件。儘管在附圖中示出了實施例的各種方面,但是除非特別指出,不必按比例繪製附圖。
在這裡專用的詞“示例性”意為“用作例子、實施例或說明性”。這裡作為“示例性”所說明的任何實施例不必解釋為優於或好於其它實施例。本文中術語“和/或”,僅僅是一種描述關聯物件的關聯關係,表示可以存在三種關係,例如,A和/或B,可以表示:單獨存在A,同時存在A和B,單獨存在B這三種情況。另外,本文中術語“至少一種”表示多種中的任意一種或多種中的至少兩種的任意組合,例如,包括A、B、C中的至少一種,可以表示包括從A、B和C構成的集合中選擇的任意一個或多個元素。
另外,為了更好地說明本發明,在下文的具體實施方式中給出了眾多的具體細節。本領域技術人員應當理解,沒有某些具體細節,本發明同樣可以實施。在一些實例中,對於本領域技術人員熟知的方法、手段、元件和電路未作詳細描述,以便於凸顯本發明的主旨。可以理解,本發明提及的上述各個方法實施例,在不違背原理邏輯的情況下,均可以彼此相互結合形成結合後的實施例,限於篇幅,本發明不再贅述。
此外,本發明還提供了影像處理裝置、電子設備、電腦可讀取的記錄媒體、程式,上述均可用來實現本發明提供的任一種影像處理方法,相應技術方案和描述和參見方法部分的相應記載,不再贅述。
圖1示出根據本發明一實施例的影像處理方法的流程圖,該方法可以應用於影像處理裝置,影像處理裝置可以為終端設備、伺服器或者其他處理設備等。其中,終端設備可以為使用者設備(User Equipment,UE)、移動設備、使用者終端、終端、蜂窩電話、無線電話、個人數位助理(Personal Digital Assistant,PDA)、手持設備、計算設備、車載設備、可穿戴設備等。
在一些可能的實現方式中,該影像處理方法可以透過處理器調用記憶體中儲存的電腦可讀取的指令的方式來實現。
如圖1所示,所述影像處理方法可以包括: 步驟S11,對待處理圖像進行特徵提取,得到中間處理圖像。 步驟S12,對中間處理圖像進行分割處理,得到第一分割結果。 步驟S13,根據第一分割結果的結構資訊,對第一分割結果進行結構重構,得到待處理圖像中目標物件的最終分割結果。
本發明實施例中,用於進行影像處理的待處理圖像可以是三維圖像,也可以是二維圖像,可以根據實際情況進行選擇,在本發明實施例中不受限制,需要注意的是,如果待處理圖像為三維圖像,則該待處理圖像由多個體素點共同構成,如果待處理圖像為二維圖像,則該待處理圖像由多個圖元點共同構成,在後續各公開實施例中,均以三維圖像為示例,因此均用體素點進行描述,後續不再贅述。用於進行影像處理的待處理圖像的數量在本發明實施例中也不受限制,可以是一張,也可以是多張,根據實際情況進行確定即可。
其中,本發明實施例的影像處理方法可以應用於肺部圖像的處理,例如,用於識別肺部圖像中的目的地區域,該目的地區域可以是肺部圖像中的血管樹,也可以是肺部圖像中的其他器官、病灶、組織等等。在一種可能的實現方式中,本發明實施例的影像處理方法可以應用於肺癌病灶切除手術過程中,可以透過本發明實施例的影像處理方法,確定切除區域;在一個示例中,本發明實施例的影像處理方法可以應用於肺血管相關疾病的診斷,可以透過本發明實施例的影像處理方法,確定肺部血管樹的視覺形態在三維空間中的變化,從而輔助醫生對相關疾病進行診斷。
需要說明的是,本發明實施例的影像處理方法不限於應用在肺部影像處理,可以應用於任意的影像處理,在一個示例中,本發明實施例的影像處理方法可以應用於其他器官或組織內的血管結構的分割;在一個示例中,本發明實施例的影像處理方法可以應用於其他器官或組織內的病灶的分割,本發明對此不作限定。
本發明實施例的影像處理方法,透過對待處理圖像進行特徵提取後,進行分割處理,從而得到初步的分割結果,基於此初步的分割結果,可以利用其中包含的結構資訊,對其進行結構重構,從而得到待處理圖像中目標物件的最終分割結果,透過這一過程,在初步的分割結果的基礎上進行結構重構來得到最終的分割結果,與直接透過分割處理得到分割結果相比,可以對初步的分割結果進行進一步精細修正,從而可以使得最終分割結果包含更為準確的結構化資訊,繼而提升分割結果的完整性和準確性,從而提升影像處理的精度。
步驟S11的實現方式不受限定,任何可以對待處理圖像進行特徵提取的方法均可以作為步驟S11的實現方式。在一種可能的實現方式中,可以直接對完整的待處理圖像進行提取,將輸出結果作為中間處理圖像。圖2示出根據本發明一實施例的影像處理方法的流程圖,如圖所示,在一種可能的實現方式中,步驟S11可以包括: 步驟S111,按照預定方向,對待處理圖像進行切割,得到多個待處理子圖像。 步驟S112,對每個待處理子圖像進行特徵提取,得到與每個待處理子圖像分別對應的中間處理子圖像。 步驟S113,根據預定方向,將所有中間處理子圖像進行拼接,得到中間處理圖像。
上述過程中,對待處理圖像進行切割的預定方向不受限定,可以根據實際情況進行確定,在此不做限定。在一種可能的實現方式中,待處理圖像可以是三維圖像,包含有矢向x、冠向y和軸向z共三個方向,在一個示例中,預定方向可以是軸向z方向,此時可以對待處理圖像沿著z向進行切割,得到多個相應的三維待處理子圖像;在一個示例中,預定方向可以是矢向x方向,此時可以對待處理圖像沿著x向進行切割,得到多個相應的三維待處理子圖像。在一種可能的實現方式中,待處理圖像可以是二維圖像,包含有矢向x和冠向y共兩個方向,在一個示例中,預定方向可以是矢向x方向,此時可以對待處理圖像沿著x向進行切割,得到多個相應的二維待處理子圖像;在一個示例中,預定方向可以是冠向y方向,此時可以對待處理圖像沿著y向進行切割,得到多個相應的二維待處理子圖像;在一個示例中,預定方向可以同時包含矢向x方向和冠向y方向,此時可以對待處理圖像沿著x向和y向同時進行切割,得到多個相應的二維待處理子圖像。
切割後得到的多個待處理子圖像,其數量和大小也均不受限定,可以根據實際切割的方式以及被切割的待處理圖像的大小來確定,在此不做具體數值上的限制。
上述步驟中,特徵提取的方式也不受限定,在一種可能的實現方式中,可以透過神經網路來實現特徵提取。在透過神經網路來進行特徵提取時,具體使用何種神經網路在此也不受限定,可以根據實際情況進行靈活選擇。在一種可能的實現方式中,可以透過3D卷積神經網路完成特徵提取;在一個示例中,透過3D卷積神經網路對待處理子圖像進行特徵提取的具體過程可以為:將待處理子圖像作為一個單通道體素塊輸入到3D卷積神經網路中,經由3D卷積神經網路的處理,可以得到相應的輸出結果,即與輸入的待處理子圖像大小相同的2通道張量,兩通道的其中一個代表每個體素點屬於背景的概率,兩通道的另一個代表每個體素點屬於目標物件的概率。由於3D卷積神經網路有多種可能的實現方式,因此,在本發明實施例中,具體使用哪一具體的3D卷積神經網路也不受限定,可以根據實際情況進行確定,不局限於本發明實施例中所提出的示例。
在一個示例中,進行特徵提取的3D卷積神經網路可以為Unet++網路,圖3示出根據本發明一實施例的Unet++網路的結構示意圖,如圖所示,在一個示例中,利用Unet++網路,可以透過多次下採樣和對應的上採樣過程以及跳躍連接過程,產生不同解析度和多尺度大小的多層輸出,將這些多層輸出進行結合,可以得到最終以概率圖形式存在的特徵提取結果。在一個示例中,進行特徵提取的3D卷積神經網路可以為ResVNet網路,圖4示出根據本發明一實施例的ResVNet網路的結構示意圖,如圖所示,在一個示例中,利用ResVNet網路,可以透過與上述示例中不同的下採樣和上採樣過程,結合適用於本網路中的跳躍連接過程,產生不同解析度和多尺度大小的多層輸出,將這些多層輸出進行結合,可以得到最終以概率圖形式存在的特徵提取結果。
透過對待處理圖像進行切割後得到多個待處理子圖像,再分別對每一個待處理子圖像進行特徵提取,然後再根據預定方向將經由特徵提取得到的多個中間處理子圖像進行拼接,則可以得到相應的中間處理圖像,透過這一過程,可以在待處理圖像過大時,將待處理圖像切割成多個大小適宜的待處理子圖像,從而有效減少特徵提取的輸入圖像的大小,減小由於輸入圖像過大導致特徵提取結果的準確性降低的概率,從而提升特徵提取的精度,使得得到的中間處理圖像具有較高的準確性,繼而提升整個影像處理過程的精度,同時,也降低了待處理圖像過大導致的記憶體溢出的概率,可以有效降低記憶體消耗。
上述公開實施例中已經提出,步驟S111得到的多個待處理子圖像,其數量和大小均不受限定,可以根據實際的切割情況進行確定。而實際上,步驟S111的具體實現方式也不受限定,即對待處理圖像的切割方式不局限於某一種固定的方式,任何可以不丟失待處理圖像中任意圖像資訊的切割方法,均可以作為步驟S111的實現方式。
在一種可能的實現方式中,步驟S111的實現方式可以為不冗餘切割,此時步驟S111可以包括:在待處理圖像上確定多個切割中心;按照預定方向,根據切割中心的位置,對待處理圖像進行切割,得到多個待處理子圖像,其中,每個切割中心分別位於對應的待處理子圖像的中心,相鄰的待處理子圖像之間不存在重疊區域。此時,如果將這些待處理子圖像在預定方向上依次進行拼接,可以還原成原有的完整待處理圖像。在這一不冗餘切割的過程中,切割中心的數量不受限定,可以根據實際情況進行靈活選擇,即最終得到的待處理子圖像的數量不受限定。被切割得到的多個待處理子圖像,其在預定方向的長度,可以相同,也可以不同,即切割時可以為對待處理圖像進行平均切割,也可以為對待處理圖像進行不平均切割。
在一種可能的實現方式中,步驟S111的實現方式可以為冗餘切割,此時步驟S111可以包括:在待處理圖像上確定多個切割中心;按照預定方向,根據切割中心的位置,對待處理圖像進行切割,得到多個待處理子圖像,其中,每個切割中心分別位於對應的待處理子圖像的中心,相鄰的待處理子圖像之間存在重疊區域。此時,如果將這些相鄰的待處理子圖像在預定方向上進行拼接,則除了得到完整的待處理圖像外,在這一完整的待處理圖像上,任意兩個相鄰的待處理子圖像之間都會冗餘出一塊圖像塊。在這一冗餘切割的過程中,切割中心的數量不受限定,可以根據實際情況進行靈活選擇,即最終得到的待處理子圖像的數量不受限定。除此之外,在這一冗餘切割的過程中,被切割得到的多個待處理子圖像,其在預定方向的長度,可以相同,也可以不同,即切割時可以為對待處理圖像進行平均切割,也可以為對待處理圖像進行不平均切割。
圖5示出根據本發明一實施例的冗餘切割的過程示意圖,如圖所示,在一個示例中,被切割的待處理圖像為三維圖像,其大小可以記為z×x×y,本示例中冗餘切割的預定方向為z向,且對該待處理圖像進行的切割為平均切割,則從圖中可以看出,對該待處理圖像進行切割的具體過程可以為:首先在該待處理圖像上確定3個切割中心,然後在z方向上,分別在這3個切割中心的上方和下方各取24個體素點的長度進行切割,因而最終得到了3個相鄰位置均具有重疊區域的待處理子圖像,每個待處理子圖像的大小為48×x×y,第1個待處理子圖像與第2個待處理子圖像之間存在8×x×y大小的重疊區域,第2個待處理子圖像與第3個待處理子圖像之間也存在8×x×y大小的重疊區域。
透過對待處理圖像採用冗餘切割的方式進行切割,可以降低部分由於對待處理圖像切割導致部分目標物件相關圖像資訊的丟失的概率,從而提升得到的特徵提取結果的完整程度和準確程度,繼而提升最終得到的分割結果的精度和完整程度,即提高影像處理的精度。在一種可能的實現方式中,也可以將冗餘切割和不冗餘切割兩種方式進行結合,即根據實際情況靈活選擇對待處理圖像中的部分區域採用冗餘切割,對剩餘區域採用不冗餘切割。
由於步驟S111的實現方式不受限定,因此與之相對的步驟S113,其實現方式也與不受限定,可以根據步驟S111的具體實現過程進行確定。在一種可能的實現方式中,步驟S111可能採取的是不冗餘切割的切割方式,此時與之相對的,步驟S113的實現過程可以為:將所有中間處理子圖像按照預定方向依次進行拼接,得到中間處理圖像。在一種可能的實現方式中,步驟S111可能採取的是冗餘切割的切割方式,此時與之相對的,步驟S113的實現過程可以為:將所有中間處理子圖像按照預定方向依次進行拼接,其中,對相鄰中間處理子圖像之間的重疊區域,取對應的兩個相鄰中間處理子圖像的平均值,作為該重疊區域的值。
在一個示例中,針對於上述圖5對應示例的切割結果,拼接的過程可以為:如圖所示,切割後得到的3個待處理子圖像,分別經過特徵提取得到3個對應的中間處理子圖像,將這3個中間處理子圖像分別記為中間處理子圖像1、中間處理子圖像2和中間處理子圖像3,在z方向上,依次將三個中間處理子圖像進行拼接,則中間處理子圖像1和中間處理子圖像2之間相應的存在重疊區域,記為重疊區域1,中間處理子圖像2和中間處理子圖像3之間相應的存在重疊區域,記為重疊區域2,由於這3個中間處理子圖像均可以表現為概率圖的形式,因此針對於重疊區域1,其概率值可以取中間處理子圖像1在此區域的概率值和中間處理子圖像2在此區域的概率值的平均值,針對於重疊區域2,其概率值可以取中間處理子圖像2在此區域的概率值和中間處理子圖像3在此區域的概率值的平均值,針對於非重疊區域,其概率值直接採用該區域對應的中間處理子圖像的概率值即可,則此時可以得到完整的待處理圖像對應的中間處理圖像,該中間處理圖像以概率圖的形式存在。
除上述各公開實施例以外,在步驟S11的過程中,在步驟S111之前,還可以包括:對待處理圖像在除預定方向以外的方向,根據預定參數進行縮放處理。由於特徵提取可能是透過神經網路來實現,為了提高特徵提取的處理效率,可以考慮將待處理圖像在尺寸上進行統一,因此可以對待處理圖像進行縮放處理,由於輸入到神經網路的待處理子圖像,是待處理圖像在預定方向上進行切割後得到的,因此對於這些待處理子圖像,其在預定方向上的大小可以透過調整切割方式的形式進行統一,因此在步驟S111之前,可以考慮只對待處理圖像在除預定方向以外的方向進行縮放。
在一個示例中,待處理圖像可以是三維圖像,包含有矢向x、冠向y和軸向z共三個方向,預定方向可以是軸向z方向,則此時可以在x方向和y方向上對待處理圖像按照預定參數進行縮放。在一個示例中,待處理圖像可以是二維圖像,包含有矢向x和冠向y共兩個方向,預定方向可以是矢向x方向,則此時可以在y方向上對待處理圖像按照預定參數進行縮放。預定參數可以根據實際情況靈活確定,在此不受限定,任何可以使得待處理圖像縮放後適合用於後續進行特徵提取的預定參數,均適用於本方法。在一個示例中,待處理圖像可以是三維圖像,包含有矢向x、冠向y和軸向z共三個方向,預定方向可以是軸向z方向,預定參數可以是x方向為16的倍數,y方向也為16的倍數,則此時可以在x方向和y方向上對待處理圖像按照預定參數進行縮放,即將待處理圖像在x方向和y方向上均向上取整到16的整數倍。
透過上述公開實施例中可以看出,由於影像處理方法中需要進行特徵提取,在一種可能的實現方式中,特徵提取可以透過神經網路來進行實現,而神經網路的具體網路結構,是需要透過訓練來得到的。因此本發明實施例中提出的方法,在步驟S11之前,還可以包括對神經網路的訓練步驟S10,S10的具體實現方式不受限定,圖6示出根據本發明一實施例的影像處理方法的流程圖,如圖所示,在一種可能的實現方式中,步驟S10可以包括: 步驟S101,獲取訓練樣本資料集。 步驟S102,根據訓練樣本資料集,訓練用於進行特徵提取的神經網路。
其中,步驟S101的實現方式不受限定,圖7示出根據本發明一實施例的影像處理方法的流程圖,如圖所示,在一種可能的實現方式中,步驟S101可以包括: 步驟S1011,對原始資料進行修正,得到修正標注資料。 步驟S1012,根據修正標注資料得到訓練樣本資料集。
在一種可能的實現方式中,原始資料可以是根據傳統的神經網路中訓練資料生成方法所生成的掩模mask標注資料,在一個示例中,在目標物件為肺部血管樹時,由於肺部血管關係複雜,透過傳統的神經網路中訓練資料生成方法,生成的原始資料往往具有較低的品質,從而影響最終得到的訓練後的神經網路的精確程度。因此,在一種可能的實現方式中,可以透過對原始資料進行修正來得到標注資料的方式,來提高訓練資料的品質,在一個示例中,步驟S1011的實現方式可以為:透過傳統方法生成mask標注資料,由專業人士進行手動修正,來得到精度較高可用於訓練的標注資料,其中,傳統方法生成mask表示資料的實現方式不受限定,在一個示例中,生成mask標注資料時可以設定mask閾值為0.02,高於該閾值的體素點為前景,標注為1,低於該閾值的體素點為後景,標注為0。在一種可能的實現方式中,透過步驟S101得到訓練樣本資料集時,可以對訓練樣本資料集中的資料值進行範圍限定,具體限定方式不受限制,在一個示例中,可以將訓練時數值範圍限定為[-0.5, 0.5]。
步驟S1012的實現方式同樣不受限定,在一種可能的實現方式中,修正標注資料可以包括多個完整訓練樣本圖像,修正標注資料包含的完整訓練樣本圖像的數量在此不受限定,可以根據實際情況靈活選擇。在一種可能的實現方式中,完整訓練樣本圖像可以包含目標物件已被修正標注的完整的肺部圖像,在一個示例中,目標物件可以為血管樹,此時的完整訓練樣本圖像可以包括已被修正標注了血管樹的肺部圖像,且此肺部圖像未被切割,是原始的完整圖像。
因此,在一種可能的實現方式中,步驟S1012可以包括:直接將所有完整訓練樣本圖像作為訓練樣本資料集。然而,透過上述各公開實施例可以看出,由於進行特徵提取的物件可能是對肺部圖像切割後得到的肺部子圖像,因此輸入到用於進行特徵提取的神經網路的圖像也可以為肺部子圖像,即基於完整肺部圖像切割後得到的肺部子圖像。為了使神經網路適合於對切割後的肺部子圖像進行特徵提取,在一種可能的實現方式中,用於訓練神經網路的訓練樣本資料集中,包含的圖像也可以是對完整訓練樣本圖像進行切割後得到的訓練樣本子圖像。因此,在一種可能的實現方式中,步驟S1012可以包括:對完整訓練樣本圖像進行切割,得到訓練樣本子圖像,作為訓練樣本資料集。在一個示例中,對完整訓練樣本圖像進行切割,得到訓練樣本子圖像,可以包括: 將完整訓練樣本圖像按照除預定方向以外的方向縮放至預設大小,在預定方向上保持完整訓練樣本圖像的大小不變,使完整訓練樣本圖像進行尺寸統一,得到縮放後的完整訓練樣本圖像。 將所有縮放後的完整訓練樣本圖像按照預定方向進行級聯,得到級聯訓練樣本圖像。 對級聯訓練樣本圖像進行隨機切割取樣,得到訓練樣本子圖像。
在一種可能的實現方式中,完整訓練樣本圖像縮放到的預設大小,其具體的尺寸值不受限定,在一個示例中,完整訓練樣本圖像可以為三維圖像,包含矢向x、冠向y和軸向z共三個方向,其中預定方向為z向,矢向x和冠向y的縮放預設大小均為320,因此可以對尺寸為z×x×y的完整訓練樣本圖像在x方向和y方向上進行縮放,得到的縮放後的完整訓練樣本圖像大小為z×320×320。
在一個示例中,將所有縮放後的完整訓練樣本圖像按照預定方向進行級聯,得到級聯訓練樣本圖像的過程可以為:在本發明示例中,完整訓練樣本圖像的數量共計有n個,對這n個完整訓練樣本圖像透過上述示例進行縮放,則可以得到n個大小分別為zi ×320×320的體素塊,即n個縮放後的完整訓練樣本圖像,其中,zi 代表第i個完整訓練樣本在z方向上的尺寸,i的取值為從1到n。將這n個體素塊在z方向上進行級聯,則可以得到維度為n×z×320×320的級聯體素塊,根據這n個縮放後的完整訓練樣本圖像在z方向上的尺寸,可以確定在z方向上進行隨機取樣時z方向上可選的數值範圍。
得到上述級聯訓練樣本圖像後,則可以對級聯訓練樣本圖像進行隨機切割取樣,得到訓練樣本子圖像,在一個示例中,得到的級聯訓練樣本圖像為上述公開示例中的級聯訓練樣本,此時可以沿z軸,對級聯訓練樣本圖像進行隨機取樣,需要注意的是,隨機取樣的過程雖然是隨機的,但最終得出的所有訓練樣本子圖像,需要可以包含所有標注資料對應的完整訓練樣本圖像內的訓練資料,在一個示例中,取樣過程可以為:首先可以透過隨機值計算生成一個整數j,這個整數j代表在級聯訓練樣本圖像中選定第j個縮放後的完整訓練樣本圖像,然後在第j個縮放後的完整訓練樣本圖像的z軸方向上,隨機計算取樣中心的座標,基於此隨機取樣中心的座標,從這第j個縮放後的完整訓練樣本圖像切割一個預設高度值的體素塊,在一個示例中,這一預設高度值可以為16。
透過上述各公開的實施例,可以得到訓練樣本資料集,根據得到的訓練樣本資料集,可以透過步驟S102訓練用於進行特徵提取的神經網路,步驟S102的實現方式同樣不受限定,圖8示出根據本發明一實施例的影像處理方法的流程圖,如圖所示,在一種可能的實現方式中,步驟S102可以包括: 步驟S1021,根據訓練樣本資料集,結合預設的權重係數,分別得到神經網路的全域損失和假陽懲罰損失。 步驟S1022,根據全域損失和假陽懲罰損失,確定神經網路的損失函數。 步驟S1023,根據損失函數反向傳播來訓練神經網路。
步驟S1021的實現方式不受限定,在一種可能的實現方式中,步驟S1021的實現方式可以包括:根據訓練樣本資料集,結合第一權重係數,得到神經網路的全域損失;根據訓練樣本資料集,結合第一權重係數和第二權重係數,得到神經網路的假陽懲罰損失。
在一種可能的實現方式中,根據訓練樣本資料集,結合第一權重係數,得到神經網路的全域損失,可以包括:透過調整第一權重係數,增加目標物件的損失權重,得到神經網路的全域損失。在一個示例中,神經網路的全域損失的具體實現方式可以為:
Figure 02_image001
(1) 其中,
Figure 02_image003
為神經網路的全域損失,
Figure 02_image005
為正樣本集合,
Figure 02_image007
為負樣本集合,
Figure 02_image009
為預測
Figure 02_image011
屬於正樣本的概率值,
Figure 02_image013
為預測
Figure 02_image015
屬於負樣本的概率值。
由於目標物件作為前景,在整個肺部圖像中所占比例較小,如果採用普通的全域損失函數,很容易由於前後景比例的不平衡而導致整個神經網路在對圖像進行特徵提取時產生過分割的情況,透過引入
Figure 02_image005
Figure 02_image007
這兩個第一權重係數,可以對占比較小的目標物件所帶來的損失給予更大的權重,同時採用上述公開示例中的全域損失函數,可以使得無論訓練資料集的具體大小如何,都可以保證目標物件與背景之間的平衡過程具有數值穩定性,即可以提升訓練過程的梯度穩定性。
在一種可能的實現方式中,根據訓練樣本資料集,結合第一權重係數和第二權重係數,得到神經網路的假陽懲罰損失,可以包括:在第一權重係數的基礎上,透過引入第二權重係數,得到用於懲罰神經網路錯誤預測的假陽懲罰損失。在一個示例中,假陽懲罰損失的具體實現方式可以為:
Figure 02_image016
(2) 其中,
Figure 02_image018
為神經網路的假陽懲罰損失,
Figure 02_image020
為假陽性預測集合,
Figure 02_image022
為假陰性預測集合,
Figure 02_image005
為正樣本集合,
Figure 02_image007
為負樣本集合,
Figure 02_image009
為預測
Figure 02_image011
屬於正樣本的概率值,
Figure 02_image013
為預測
Figure 02_image015
屬於負樣本的概率值,
Figure 02_image024
為假陽預測的權重係數,
Figure 02_image026
為假陰預測的權重係數,
Figure 02_image028
Figure 02_image026
的取值依據為錯誤預測概率與中間值之差的絕對值,中間值的取值可以根據任務的類別而靈活確定,在本發明示例中,中間值的取值為0.5。
透過上述公開示例可以看出,由於目標物件作為前景,在整個肺部圖像中所占比例較小,如果採用普通的全域損失函數,很容易由於前後景比例的不平衡而導致整個神經網路在對圖像進行特徵提取時產生過分割的情況,因此神經網路在訓練過程中產生的預測結果往往具有較高的假陽率和低召回率,為了減少高假陽率低召回率的問題,透過引入
Figure 02_image024
Figure 02_image026
這兩個第二權重係數,可以對神經網路的錯誤預測進行懲罰,從而降低神經網路在預測過程中的假陽率,提高神經網路的訓練準確度。
基於上述公開示例,在一種可能的實現方式中,步驟S1022的實現方式可以為:透過將全域損失的函數和假陽懲罰損失的函數相加,得到神經網路的損失函數,即
Figure 02_image029
,其中,
Figure 02_image031
為神經網路的損失函數。
在訓練神經網路的過程中,除了可以透過上述損失函數來調整神經網路的參數以外,還可以透過一些評價函數來評價訓練的神經網路的優劣,具體選用哪種評價函數並不受限定,可以根據實際情況靈活選擇,在一種可能的實現方式中,可以透過Dice函數來作為評價函數,在一個示例中,Dice函數的具體運算式為:
Figure 02_image033
(3) 其中,
Figure 02_image035
為評價結果,
Figure 02_image037
表示肺部圖片中所有的體素點,
Figure 02_image039
為第
Figure 02_image041
個體素點被預測為目標物件的概率,
Figure 02_image043
為第
Figure 02_image041
個體素點的實際標籤。
透過根據訓練樣本資料集,結合預設的權重係數,分別得到神經網路的全域損失和假陽懲罰損失,再根據全域損失和假陽懲罰損失,確定神經網路的損失函數,最後根據損失函數反向傳播來訓練神經網路,可以有效地減小由於目標物件在整體圖片中所占比例較小,導致的訓練得到的神經網路具有高假陽率低召回率的問題,因此可以提高訓練得到的神經網路的準確程度,從而提高對待處理圖像進行特徵提取得到的中間處理圖像的精度,繼而提高最終分割結果的精度,提高影像處理的準確性。
在透過上述各公開實施例的任意組合形式得到中間處理圖像後,可以透過步驟S12,對中間處理圖像進行分割處理來得到第一分割結果。步驟S12的實現形式同樣不受限定,任何可以對中間處理圖像來進行分割從而得到第一分割結果的方式均可以作為步驟S12的實現形式。
在一種可能的實現方式中,步驟S12可以包括:透過Grow Cut對所述中間處理圖像進行分割處理,得到第一分割結果,其中,所述Grow Cut透過深度學習框架在圖形處理器中實現。Grow Cut是一種互動式圖像分割方法,在一個示例中,利用Grow Cut對中間處理圖像進行分割得到第一分割結果的具體過程可以為: 首先可以設置Grow Cut方法中,種子點的高閾值和低閾值,具體的設定值在此不做限定,根據實際情況進行選擇即可。設置了種子點的高、低閾值後,則可以規定低閾值以下的點作為後景種子點,即代表非目標物件所在的背景區域,標記為0;高閾值以上的點作為前景種子點,即代表目標所在的區域,標記為1;種子點的強度數值可以設定為1,由於上述公開實施例中提出過,中間處理圖像可以為2通道張量,兩通道的其中一個代表每個體素點屬於背景的概率,兩通道的另一個代表每個體素點屬於目標物件的概率,因此透過上述設定,可以得到中間處理圖像中每個體素點的2通道初始狀態向量。
在得到了中間處理圖像中每個體素點的2通道初始狀態向量後,可以設置鄰居範圍window size,並以種子點為起點,依次比較鄰居點狀態,若滿足以下條件:
Figure 02_image045
(4) 其中,
Figure 02_image047
為代表守護者的體素點,
Figure 02_image049
為代表入侵者的體素點,
Figure 02_image051
為代表守護者的體素點的特徵向量,
Figure 02_image053
為代表入侵者的體素點的特徵向量,
Figure 02_image055
為代表入侵者的體素點和代表守護者的體素點之間特徵向量的距離,
Figure 02_image057
為代表守護者的體素點的能量值,
Figure 02_image059
為代表入侵者的體素點的能量值,
Figure 02_image061
為[0,1]之間的隨x單調遞減的函數,且不限定於上述形式,
Figure 02_image063
為體素點的特徵向量能取到的最大值。
則代表入侵者的體素點所具有的能量大於代表守護者的體素點所具有的能量,此時代表入侵者的體素點可以將代表守護者的體素點吞併,此時可以更新對應的圖元點的特徵向量。不斷重複這一比較過程,直至每個體素點的特徵向量均不再變化,則此時得到的結果即為透過Grow Cut對中間處理圖像的分割結果,即第一分割結果,在本發明實施例中,可以將被分割為目標物件的體素點看作代表守護者的體素點,將被分割為背景的體素點看作代表入侵者的體素點,在選定了種子點以後,即可以選定某個代表目標物件的體素點作為分割的起始體素點,然後根據設置的鄰居範圍,選定與種子點的距離在鄰居範圍以內的體素點,這些點即可以看作是種子點的鄰居點,將其與種子點透過上述公式進行比較,從而來判斷鄰居範圍內的體素點是應該被劃分為代表守護者的體素點還是應該被劃分為代表入侵者的體素點,即可以作為代表目標物件的體素點還是可以作為代表背景的體素點,不斷重複上述過程,直至整個中間處理圖像被分割完成,得到第一分割結果。
在一種可能的實現方式中,Grow Cut可以透過中央處理器CPU進行實現。然而透過上述公開示例,可以看到在一種可能的實現方式中,透過Grow Cut對中間處理圖像進行分割的過程中的具體計算過程在實現時,可以將其以卷積運算的形式進行實現,在Grow Cut透過卷積運算的方式進行計算時,則可以利用深度學習框架,在一個示例中,這一深度學習框架可以是PyTorch,將整個Grow Cut過程透過圖形處理器GPU來進行處理,由於GPU在影像處理方面具有更高的運算速度,因此,在透過Grow Cut對中間處理圖像進行分割處理時,將Grow Cut透過深度學習框架在GPU中實現,可以使得步驟S12的速度得到極大提升,從而可以有效的提升整個影像處理方法的速度。
在一種可能的實現方式中,也可以透過其他的演算法對中間處理圖像進行分割,來得到第一分割結果,在此不再一一列舉,根據實際情況進行靈活選擇即可。
在透過上述各公開實施例的任意組合形式得到第一分割結果後,可以透過步驟S13,對第一分割結果進行結構重構,從而得到待處理圖像中目標物件的最終分割結果。步驟S13的實現形式同樣不受限定,任何可以基於第一分割結果來進行結構修正從而得到目標物件的最終分割結果的方式均可以作為步驟S13的實現形式。
圖9示出根據本發明一實施例的影像處理方法的流程圖,如圖所示,在一種可能的實現方式中,步驟S13可以包括: 步驟S131,對第一分割結果進行中心提取,得到中心區域圖像和距離場數值集合。其中,距離場數值集合為中心區域圖像上的所有體素點與第一分割結果內目標物件的邊界之間的距離場數值的集合。 步驟S132,根據中心區域圖像,生成目標物件的第一拓撲結構圖。 步驟S133,對第一拓撲結構圖進行連通處理,得到第二拓撲結構圖。 步驟S134,根據距離場數值集合,對第二拓撲結構圖進行結構重構,得到待處理圖像中目標物件的最終分割結果。 其中,步驟S131的實現方式不受限定,在一種可能的實現方式中,步驟S131的實現方式可以為:對第一分割結果進行中心提取,可以得到反映目標物件在第一分割結果中所在主幹位置的中心區域圖像,則此時可以依次計算第一分割結果中,中心區域圖像內的每個體素點與目標物件在第一分割結果中的邊界之間的最短距離,則中心區域圖像內的每個體素點與目標物件的邊界上的最短距離可以被記為該體素點的距離場數值,將所有中心區域圖像內的體素點的距離場數值統計在一個集合中,則統計的集合可以被記為距離場數值集合。
在上述公開實施例中,對第一分割結果進行中心提取的方式不受限定,任何可以得到反映目標物件在第一分割結果中所在主幹位置的中心區域圖像的方法,均可以作為中心提取的實現方式。在一種可能的實現方式中,可以透過中軸變換函數medial axis來對第一分割結果進行中心提取。在一個示例中,待處理圖像的目標物件可以為肺部圖像中的血管樹,此時在本發明示例中,步驟S131的具體過程可以為:透過medial axis對第一分割結果進行中心提取,生成肺部圖像內血管樹的中心線,此時分別統計中心線上各體素點與第一分割結果中血管樹邊界的最短距離,並將統計結果以集合形式表示,得到距離場數值集合。
步驟S132的實現方式同樣不受限定,任何可以統計中心區域圖像的拓撲結構來生成第一拓撲結構圖的方式,均可以作為步驟S132的實現形式。在一種可能的實現方式中,可以透過networkx這一工具對中心區域圖像進行處理,生成第一拓撲結構圖。圖10示出根據本發明一實施例的第一拓撲結構圖的示意圖,如圖所示,在一個示例中,待處理圖像的目標物件可以為肺部圖像中的血管樹,此時從圖中可以看出,步驟S132生成的第一拓撲結構圖可以為肺部血管樹的拓撲結構圖。
步驟S133的實現方式同樣不受限定,任何可以基於第一拓撲結構圖的連通結構,來對其進行細化得到第二拓撲結構圖的方式,均可以作為步驟S133的實現形式,即連通處理的實現方式不受限定,任何可以基於第一拓撲結構圖中的連通狀態,對第一拓撲結構圖的連通性進行適當修正的方式,均可以作為連通處理的實現方式。圖11示出根據本發明一實施例的影像處理方法的流程圖,如圖所示,在一種可能的實現方式中,步驟S133可以包括: 步驟S1331,提取第一拓撲結構圖中目標物件對應的連通區域。 步驟S1332,移除第一拓撲結構圖中與連通區域的連通值低於連通閾值的體素點,得到第二拓撲結構圖。 步驟S133的主要目的是對生成的第一拓撲結構圖進行修正,由於第一拓撲結構圖中可能存在大量的雜訊點,因此需要對這些雜訊點進行移除,來得到準確性更高的,更加能反映目標物件的連通性和完整性的第二拓撲結構圖。
因此,在一種可能的實現方式中,可以透過對第一拓撲結構圖中的目標物件所在的連通區域進行統計,由於這些孤立弱連通區域很有可能為雜訊點,因此可以移除第一拓撲結構圖中的孤立弱連通區域,來得到第二拓撲結構圖。判斷第一拓撲結構圖中哪些區域為孤立弱連通區域的方式不受限定,可以根據實際情況進行靈活選擇,在一種可能的實現方式中,可以設定一連通閾值,這一連通閾值的具體值可以根據實際情況設置,在此不做限定。在設定了連通閾值後,可以分別計算第一拓撲結構圖中各體素點與連通區域之間的連通值,並將其與連通閾值進行比較,其中連通值低於連通閾值的體素點可以被認為是弱連通區域,需要從第一拓撲結構圖中移除。圖12示出根據本發明一實施例的進行連通處理的示意圖,如圖所示,在一個示例中,待處理圖像的目標物件可以為肺部圖像中的血管樹,第一拓撲結構圖可以為圖10中的示意圖,此時從圖12中可以看出,在連通的樹狀結構外,還存在若干個較為孤立的點,此時可以將這些孤立的點進行移除,則得到的拓撲結構圖可以為第二拓撲結構圖。
步驟S134的實現方式同樣不受限定,任何可以基於距離場數值集合以及第二拓撲結構圖來進行結構重構的方式,均可以作為步驟S134的實現形式。在一種可能的實現方式中,步驟S134可以包括:以第二拓撲結構圖中的每個點為球心,距離場數值集合中的每個距離場數值為半徑,進行繪製,將繪製包括的重疊區域添加至第二拓撲結構圖中,得到待處理圖像中目標物件的最終分割結果。在一個示例中,待處理圖像的目標物件可以為肺部圖像中的血管樹,則第二拓撲結構圖此時可以為經過精細化處理的血管樹拓撲圖,此時步驟S134的具體過程可以為:以精細化處理的血管樹拓撲的中心線上,每個點為球心,距離場中記錄的距離為半徑進行畫球,則可以得到若干個球心不同繪製球,統計這些不同的繪製球之間相互重疊的區域,將其與血管樹拓撲的中心線進行結合,則可以得到完整的血管樹結構,作為待處理圖像中目標物件的最終分割結果。
上述結構化重構的過程,是基於第一分割結果進行的結構化重構,即基於真實資料來進行結構化重構而非針對合成資料進行結構化重構,因此,得到的最終分割結果具有更高的真實性。同時,透過中心提取得到第一分割結果的中心區域圖像和距離場數值集合,並基於此中心區域圖像生成第一拓撲結構圖,並對第一拓撲結構圖進行連通處理,得到第二拓撲結構圖,這一過程可以有效的提升第一分割結果的連通性,移除掉第一分割結果中的雜訊點,對第一分割結果進行有效修正,提高得到的最終分割結果的準確性,同時,利用第二拓撲結構圖和距離場數值集合對目標物件進行結構化重構,得到的最終分割結果,可以有效的體現目標物件的各節點和分支資訊,具有較高的精度。
在一種可能的實現方式中,在步驟S11之前,還可以包括:對待處理圖像進行預處理,其中,預處理包括:重採樣、數值限定以及歸一化中的一種或多種。在一種可能的實現方式中,預處理的方式除了上述幾種可能的實現形式外,也可以包含其他的形式,可以根據實際情況靈活選擇,任何可以提升影像處理方法整體精度的方式,都可以作為預處理的實現形式。在一個示例中,對待處理圖像進行重採樣的過程可以為:使用線性插值方法將待處理圖像的全數據以固定的解析度重新採樣,將其映射到一個同構解析度,在一個示例中,這一同構解析度可以為1mm x1mm x1mm。對待處理圖像進行數值限定的具體限定數值不受限定,在一個示例中,可以將待處理圖像的原始圖像數值限定範圍為[-1500.0, 300.0]。同樣,對待處理圖像進行歸一化,其歸一化的結果也不受限定,在一個示例中,可以將待處理圖像最終歸一化到[0,1]之間。
透過對待處理圖像進行預處理,可以提高後續對待處理圖像依次進行特徵提取、分割處理和結構重構的處理效率,縮短整個影像處理過程的時間,同時也可以提升圖像分割的準確程度,從而提高影像處理結果的精度。應用場景示例
血管樹分割是醫學影像分析領域的熱門研究課題:精準的血管分析對於醫學診斷、治療規劃和臨床效果評估有著極為重要的研究及應用價值。肺部血管作為病灶肺葉切除,肺栓塞等常見肺血管疾病的重要依據,其準確分割對於肺相關疾病的診斷和治療有著重要的作用。
然而,人體的肺部是新陳代謝產生氣體的交換場所,包含豐富的氣管和血管組織,結構較為複雜;同時因雜訊、造影及容積效應等因素的影響,CT圖像存在對比度差,邊界模糊等問題,且肺部血管動靜脈相互纏繞、相伴而行,進一步增加了分割難度。因而針對肺部圖像中血管樹的分割方法仍然面臨著速度慢、分割精度差以及在邊界處存在誤判等問題等缺點,雖然已經有部分方法進行了一定程度的改進,但是仍然存在著一些實際問題,比如肺部邊緣區域過分割現象普遍以及分割過程中易容易出現血管樹斷裂等。因此,一個精度高、分割結果完整性強的分割方法能夠極大減少醫生的工作量,從而提高肺部相關疾病的治療效果。
圖13示出根據本發明一應用示例的示意圖,如圖所示,本發明實施例提出了一種影像處理方法,從圖中可以看出,透過該影像處理方法對肺部圖像進行血管樹分割的具體過程可以為: 首先將完整的三維肺部圖像,本示例中該三維肺部圖像為尺寸大小為z×x×y的單通道灰度圖像,經過資料預處理後輸入至3D神經網路進行特徵提取,得到兩通道的輸出概率圖,其中,兩通道的輸出概率圖中,一個通道代表每個體素點屬於肺血管的概率,另一個通道代表每個體素點屬於背景的概率,兩通道的輸出概率圖大小均為z×x×y。
本發明示例中,採用的3D神經網路具體為VNet卷積神經網路,該三維肺部圖像在卷積神經網路進行特徵提取的具體過程為: 首先對大小為z×x×y的三維肺部圖像沿矢向x方向和冠向y方向兩個方向進行縮放,使得該三維肺部圖像在x和y兩個方向均為16的倍數,分別記為x’和y’,然後對在軸向z方向上對三維肺部圖像進行切割,在本發明示例中,透過切割得到的每個三維肺部子圖像在z方向上的高度應為48個體素,且任意兩個相鄰的三維肺部子圖像在z方向上有8體素的重疊,則得到的每個三維肺部子圖像大小均為48×x’×y’。
在對三維肺部圖像完成切割後,將切割得到的每個三維肺部子圖像分別透過VNet卷積神經網路,得到多個中間處理子圖像,這些中間處理子圖像均為大小為48×x’×y’的二通道體素塊,兩個通道分別代表每個體素點屬於背景和血管樹的概率。
將這些中間處理子圖像按照三維肺部圖像切割的方式進行反向拼接,由於切割時相鄰的三維肺部子圖像在z方向上有8體素的重疊,因此這些中間處理子圖像中,相鄰的中間處理子圖像在z方向上同樣有8體素的重疊,此時,將重疊的體素點處的概率取其對應的兩中間處理子圖像中對應體素點概率的平均值,其餘體素點處的概率值按照對應的中間處理子圖像對應體素點的概率即可。
對拼接後的中間處理圖像,在x和y方向按照之前縮放的方式進行反向縮放,還原至原有的大小,得到大小為z×x×y的兩通道的輸出概率圖。
在得到了大小為z×x×y的兩通道的輸出概率圖後,可以透過Grow Cut演算法對該兩通道的輸出概率圖進行分割,得到二值化圖,其中,在本發明示例中,Grow Cut演算法可以透過PyTorch框架在GPU中進行實現,即將概率圖轉化為二值化圖的過程,可以透過GPU來進行。
在得到了上述二值化圖後,可以透過medial axis對該二值化圖進行處理,生成血管樹的中心線圖像,同時記錄二值化圖中每個代表目標物件的體素點與該中心線的距離場數值,得到距離場數值集合。然後對生成的血管樹的中心線圖像透過NetworkX生成血管樹拓撲結構,並統計生成的血管樹拓撲結構中血管樹的連通區域,將血管樹邊緣上的孤立弱連通區域體素移除,因為這部分極可能是雜訊點,最終可以得到連通性強的血管樹主要枝幹圖。
然後可以以連通性強的血管樹主要枝幹圖的中心線上每個點為球心,距離場數值集合中記錄的距離為半徑畫球,球與球之間相互重疊,最終形成完整的血管樹結構,即代表該三維肺部圖像中肺部血管樹的最終分割結果。
採用本發明的影像處理方法,可以提高肺血管樹整體的分割精度、降低假陽性,同時獲得較準確的肺血管樹結構化資訊,包含分支,端點等,從而對肺血管分割結果進行進一步精細修正,與此同時,在結構重構的過程中,得到的結構化資訊也可用於輔助其他肺部疾病的診斷。需要說明的是,本發明實施例的影像處理方法不限於應用在上述肺部影像處理,可以應用於任意的影像處理,本發明對此不作限定。
可以理解,本發明提及的上述各個方法實施例,在不違背原理邏輯的情況下,均可以彼此相互結合形成結合後的實施例,限於篇幅,本發明不再贅述。本領域技術人員可以理解,在具體實施方式的上述方法中,各步驟的撰寫順序並不意味著嚴格的執行順序而對實施過程構成任何限定,各步驟的具體執行順序應當以其功能和可能的內在邏輯確定。
圖14示出根據本發明實施例的影像處理裝置的方塊圖,如圖所示,所述影像處理裝置包括: 特徵提取模組21,用於對待處理圖像進行特徵提取,得到中間處理圖像; 分割模組22,用於對中間處理圖像進行分割處理,得到第一分割結果; 結構重構模組23,用於根據第一分割結果的結構資訊,對第一分割結果進行結構重構,得到待處理圖像中目標物件的最終分割結果。
在一種可能的實現方式中,特徵提取模組包括:切割子模組,用於按照預定方向,對待處理圖像進行切割,得到多個待處理子圖像;特徵提取子模組,用於對每個待處理子圖像進行特徵提取,得到與每個待處理子圖像分別對應的中間處理子圖像;拼接子模組,用於根據預定方向,將所有中間處理子圖像進行拼接,得到中間處理圖像。
在一種可能的實現方式中,切割子模組用於:在待處理圖像上確定多個切割中心;按照預定方向,根據切割中心的位置,對待處理圖像進行切割,得到多個待處理子圖像,其中,每個切割中心分別位於對應的待處理子圖像的中心,相鄰的待處理子圖像之間存在重疊區域。
在一種可能的實現方式中,切割子模組之前還包括縮放子模組,縮放子模組用於:對待處理圖像在除所述預定方向以外的方向,根據預定參數進行縮放處理。
在一種可能的實現方式中,特徵提取模組之前還包括訓練模組,訓練模組包括:樣本獲取子模組,用於獲取訓練樣本資料集;訓練子模組,用於根據訓練樣本資料集,訓練用於進行特徵提取的神經網路。
在一種可能的實現方式中,樣本獲取子模組用於:對原始資料進行修正,得到修正標注資料;根據修正標注資料得到訓練樣本資料集。
在一種可能的實現方式中,訓練子模組用於:根據訓練樣本資料集,結合預設的權重係數,分別得到神經網路的全域損失和假陽懲罰損失;根據全域損失和假陽懲罰損失,確定神經網路的損失函數;根據損失函數反向傳播來訓練神經網路。
在一種可能的實現方式中,分割模組用於:透過Grow Cut對中間處理圖像進行分割處理,得到第一分割結果,其中, Grow Cut透過深度學習框架在圖形處理器中實現。
在一種可能的實現方式中,結構重構模組包括:中心提取子模組,用於對第一分割結果進行中心提取,得到中心區域圖像和距離場數值集合,其中,距離場數值集合為中心區域圖像上的所有體素點與第一分割結果內目標物件的邊界之間的距離場數值的集合;拓撲結構生成子模組,用於根據中心區域圖像,生成目標物件的第一拓撲結構圖;連通處理子模組,用於對第一拓撲結構圖進行連通處理,得到第二拓撲結構圖;結構重構子模組,用於根據距離場數值集合,對第二拓撲結構圖進行結構重構,得到待處理圖像中目標物件的最終分割結果。
在一種可能的實現方式中,連通處理子模組用於:提取第一拓撲結構圖中目標物件對應的連通區域;移除第一拓撲結構圖中與連通區域的連通值低於連通閾值的體素點,得到第二拓撲結構圖。
在一種可能的實現方式中,結構重構子模組用於:以第二拓撲結構圖中的每個點為球心,距離場數值集合中的每個距離場數值為半徑,進行繪製,將繪製包括的重疊區域添加至第二拓撲結構圖中,得到待處理圖像中目標物件的最終分割結果。
在一種可能的實現方式中,特徵提取模組之前還包括預處理模組,預處理模組用於:對待處理圖像進行預處理,其中,預處理包括:重採樣、數值限定以及歸一化中的一種或多種。
在一些實施例中,本發明實施例提供的裝置具有的功能或包含的模組可以用於執行上文方法實施例描述的方法,其具體實現可以參照上文方法實施例的描述,為了簡潔,這裡不再贅述。
本發明實施例還提出一種電腦可讀取的記錄媒體,其中儲存有電腦程式指令,所述電腦程式指令被處理器執行時實現上述方法。電腦可讀取的記錄媒體可以是非易失性電腦可讀取的記錄媒體。
本發明實施例還提出一種電子設備,包括:處理器;用於儲存處理器可執行指令的記憶體;其中,所述處理器被配置為執行儲存於記憶體中的指令而實現上述方法。電子設備可以被提供為終端、伺服器或其它形態的設備。
圖15是根據一示例性實施例示出的一種電子設備800的方塊圖。例如,電子設備800可以是行動電話、電腦、數位廣播終端、消息收發設備、遊戲控制台、平板設備、醫療設備、健身設備、個人數位助理等終端。
參照圖15,電子設備800可以包括以下一個或多個元件:處理元件802,記憶體804,電源元件806,多媒體元件808,音訊元件810,輸入/輸出(I/ O)的介面812,感測器元件814,以及通信元件816。
處理元件802通常控制電子設備800的整體操作,諸如與顯示、電話呼叫、資料通信、相機操作和記錄操作相關聯的操作。處理元件802可以包括一個或多個處理器820來執行指令,以完成上述的方法的全部或部分步驟。此外,處理元件802可以包括一個或多個模組,便於處理元件802和其他元件之間的交互。例如,處理元件802可以包括多媒體模組,以方便多媒體元件808和處理元件802之間的交互。
記憶體804被配置為儲存各種類型的資料以支援在電子設備800的操作。這些資料的示例包括用於在電子設備800上操作的任何應用程式或方法的指令、連絡人資料、電話簿資料、消息、圖片、視頻等。記憶體804可以由任何類型的易失性或非易失性存放裝置或者它們的組合實現,如靜態隨機存取記憶體(SRAM)、電可擦除可程式設計唯讀記憶體(EEPROM)、可擦除可程式設計唯讀記憶體(EPROM)、可程式設計唯讀記憶體(PROM)、唯讀記憶體(ROM)、磁記憶體、快閃記憶體、磁片或光碟。
電源元件806為電子設備800的各種元件提供電力。電源元件806可以包括電源管理系統、一個或多個電源及其他與為電子設備800生成、管理和分配電力相關聯的組件。
多媒體元件808包括在所述電子設備800和使用者之間的提供一個輸出介面的螢幕。在一些實施例中,螢幕可以包括液晶顯示器(LCD)和觸摸面板(TP)。如果螢幕包括觸摸面板,螢幕可以被實現為觸控式螢幕,以接收來自使用者的輸入信號。觸摸面板包括一個或多個觸摸感測器以感測觸摸、滑動和觸摸面板上的手勢。所述觸摸感測器可以不僅感測觸摸或滑動動作的邊界,而且還檢測與所述觸摸或滑動操作相關的持續時間和壓力。在一些實施例中,多媒體元件808包括一個前置攝像頭和/或後置攝像頭。當電子設備800處於操作模式,如拍攝模式或視訊模式時,前置攝像頭和/或後置攝像頭可以接收外部的多媒體資料。每個前置攝像頭和後置攝像頭可以是一個固定的光學透鏡系統或具有焦距和光學變焦能力。
音訊元件810被配置為輸出和/或輸入音訊信號。例如,音訊元件810包括一個麥克風(MIC),當電子設備800處於操作模式,如呼叫模式、記錄模式和語音辨識模式時,麥克風被配置為接收外部音訊信號。所接收的音訊信號可以被進一步儲存在記憶體804或經由通信元件816發送。在一些實施例中,音訊元件810還包括一個揚聲器,用於輸出音訊信號。
輸入/輸出(I/O)介面812為處理元件802和週邊介面模組之間提供介面,上述週邊介面模組可以是鍵盤、點擊輪、按鈕等。這些按鈕可包括但不限於:主頁按鈕、音量按鈕、啟動按鈕和鎖定按鈕。
感測器元件814包括一個或多個感測器,用於為電子設備800提供各個方面的狀態評估。例如,感測器元件814可以檢測到電子設備800的打開/關閉狀態,元件的相對定位,例如所述元件為電子設備800的顯示器和小鍵盤,感測器元件814還可以檢測電子設備800或電子設備800一個元件的位置改變,使用者與電子設備800接觸的存在或不存在,電子設備800方位或加速/減速和電子設備800的溫度變化。感測器元件814可以包括接近感測器,被配置用來在沒有任何的物理接觸時檢測附近物體的存在。感測器元件814還可以包括光感測器,如CMOS或CCD圖像感測器,用於在成像應用中使用。在一些實施例中,該感測器元件814還可以包括加速度感測器、陀螺儀感測器、磁感測器、壓力感測器或溫度感測器。
通信元件816被配置為便於電子設備800和其他設備之間有線或無線方式的通信。電子設備800可以接入基於通信標準的無線網路,如WiFi、2G或3G,或它們的組合。在一個示例性實施例中,通信元件816經由廣播通道接收來自外部廣播管理系統的廣播信號或廣播相關資訊。在一個示例性實施例中,所述通信元件816還包括近場通信(NFC)模組,以促進短程通信。例如,在NFC模組可基於射頻識別(RFID)技術、紅外資料協會(IrDA)技術、超寬頻(UWB)技術、藍牙(BT)技術和其他技術來實現。
在示例性實施例中,電子設備800可以被一個或多個應用專用積體電路(ASIC)、數位訊號處理器(DSP)、數位信號處理設備(DSPD)、可程式設計邏輯器件(PLD)、現場可程式設計閘陣列(FPGA)、控制器、微控制器、微處理器或其他電子元件實現,用於執行上述方法。
在示例性實施例中,還提供了一種非易失性電腦可讀取的記錄媒體,例如包括電腦程式指令的記憶體804,上述電腦程式指令可由電子設備800的處理器820執行以完成上述方法。
圖16是根據一示例性實施例示出的一種電子設備1900的方塊圖。例如,電子設備1900可以被提供為一伺服器。參照圖16,電子設備1900包括處理元件1922,其進一步包括一個或多個處理器,以及由記憶體1932所代表的記憶體資源,用於儲存可由處理元件1922的執行的指令,例如應用程式。記憶體1932中儲存的應用程式可以包括一個或一個以上的每一個對應於一組指令的模組。此外,處理元件1922被配置為執行指令,以執行上述方法。
電子設備1900還可以包括一個電源元件1926被配置為執行電子設備1900的電源管理,一個有線或無線網路介面1950被配置為將電子設備1900連接到網路,和一個輸入/輸出(I/O)介面1958。電子設備1900可以操作基於儲存在記憶體1932的作業系統,例如Windows ServerTM、Mac OS XTM、UnixTM、 LinuxTM、FreeBSDTM或類似。
在示例性實施例中,還提供了一種非易失性電腦可讀取的記錄媒體,例如包括電腦程式指令的記憶體1932,上述電腦程式指令可由電子設備1900的處理元件1922執行以完成上述方法。
本發明可以是系統、方法和/或電腦程式產品。電腦程式產品可以包括電腦可讀取的記錄媒體,其上載有用於使處理器實現本發明的各個方面的電腦可讀取的程式指令。
電腦可讀取的記錄媒體可以是可以保持和儲存由指令執行設備使用的指令的有形設備。電腦可讀取的記錄媒體例如可以是但不限於電存放裝置、磁存放裝置、光存放裝置、電磁存放裝置、半導體存放裝置或者上述的任意合適的組合。電腦可讀取的記錄媒體的更具體的例子(非窮舉的列表)包括:可攜式電腦盤、硬碟、隨機存取記憶體(RAM)、唯讀記憶體(ROM)、可擦式可程式設計唯讀記憶體(EPROM或快閃記憶體)、靜態隨機存取記憶體(SRAM)、可攜式壓縮磁碟唯讀記憶體(CD-ROM)、數位多功能盤(DVD)、記憶棒、軟碟、機械編碼設備、例如其上儲存有指令的打孔卡或凹槽內凸起結構、以及上述的任意合適的組合。這裡所使用的電腦可讀取的記錄媒體不被解釋為暫態信號本身,諸如無線電波或者其他自由傳播的電磁波、透過波導或其他傳輸媒介傳播的電磁波(例如,透過光纖電纜的光脈衝)、或者透過電線傳輸的電信號。
這裡所描述的電腦可讀取的程式指令可以從電腦可讀取的記錄媒體下載到各個計算/處理設備,或者透過網路、例如網際網路、局域網、廣域網路和/或無線網下載到外部電腦或外部存放裝置。網路可以包括銅傳輸電纜、光纖傳輸、無線傳輸、路由器、防火牆、交換機、閘道電腦和/或邊緣伺服器。每個計算/處理設備中的網路介面卡或者網路介面從網路接收電腦可讀取的程式指令,並轉發該電腦可讀取的程式指令,以供儲存在各個計算/處理設備中的電腦可讀取的記錄媒體中。
用於執行本發明操作的電腦程式指令可以是彙編指令、指令集架構(ISA)指令、機器指令、機器相關指令、微代碼、固件指令、狀態設置資料、或者以一種或多種程式設計語言的任意組合編寫的原始程式碼或目標代碼,所述程式設計語言包括物件導向的程式設計語言—諸如Smalltalk、C++等,以及常規的過程式程式設計語言—諸如“C”語言或類似的程式設計語言。電腦可讀取的程式指令可以完全地在使用者電腦上執行、部分地在使用者電腦上執行、作為一個獨立的套裝軟體執行、部分在使用者電腦上部分在遠端電腦上執行、或者完全在遠端電腦或伺服器上執行。在涉及遠端電腦的情形中,遠端電腦可以透過任意種類的網路包括局域網(LAN)或廣域網路(WAN)連接到使用者電腦,或者,可以連接到外部電腦(例如利用網際網路服務提供者來透過網際網路連接)。在一些實施例中,透過利用電腦可讀程式指令的狀態資訊來個性化定制電子電路,例如可程式設計邏輯電路、現場可程式設計閘陣列(FPGA)或可程式設計邏輯陣列(PLA),該電子電路可以執行電腦可讀程式指令,從而實現本發明的各個方面。
這裡參照根據本發明實施例的方法、裝置(系統)和電腦程式產品的流程圖和/或方塊圖描述了本發明的各個方面。應當理解,流程圖和/或方塊圖的每個方框以及流程圖和/或方塊圖中各方框的組合,都可以由電腦可讀取的程式指令實現。
這些電腦可讀取的程式指令可以提供給通用電腦、專用電腦或其它可程式設計資料處理裝置的處理器,從而生產出一種機器,使得這些指令在透過電腦或其它可程式設計資料處理裝置的處理器執行時,產生了實現流程圖和/或方塊圖中的一個或多個方塊中規定的功能/動作的裝置。也可以把這些電腦可讀取的程式指令儲存在電腦可讀取的記錄媒體中,這些指令使得電腦、可程式設計資料處理裝置和/或其他設備以特定方式工作,從而,儲存有指令的電腦可讀取的記錄媒體則包括一個製造品,其包括實現流程圖和/或方塊圖中的一個或多個方塊中規定的功能/動作的各個方面的指令。
也可以把電腦可讀取的程式指令載入到電腦、其它可程式設計資料處理裝置、或其它設備上,使得在電腦、其它可程式設計資料處理裝置或其它設備上執行一系列操作步驟,以產生電腦實現的過程,從而使得在電腦、其它可程式設計資料處理裝置、或其它設備上執行的指令實現流程圖和/或方塊圖中的一個或多個方塊中規定的功能/動作。
附圖中的流程圖和方塊圖顯示了根據本發明的多個實施例的系統、方法和電腦程式產品的可能實現的體系架構、功能和操作。在這點上,流程圖或方塊圖中的每個方塊可以代表一個模組、程式段或指令的一部分,所述模組、程式段或指令的一部分包含一個或多個用於實現規定的邏輯功能的可執行指令。在有些作為替換的實現中,方塊中所標注的功能也可以以不同於附圖中所標注的順序發生。例如,兩個連續的方塊實際上可以基本並行地執行,它們有時也可以按相反的循序執行,這依所涉及的功能而定。也要注意的是,方塊圖和/或流程圖中的每個方塊、以及方塊圖和/或流程圖中的方塊的組合,可以用執行規定的功能或動作的專用的基於硬體的系統來實現,或者可以用專用硬體與電腦指令的組合來實現。
以上已經描述了本發明的各實施例,上述說明是示例性的,並非窮盡性的,並且也不限於所披露的各實施例。在不偏離所說明的各實施例的範圍和精神的情況下,對於本技術領域的普通技術人員來說許多修改和變更都是顯而易見的。本文中所用術語的選擇,旨在最好地解釋各實施例的原理、實際應用或對市場中的技術的技術改進,或者使本技術領域的其它普通技術人員能理解本文披露的各實施例。
惟以上所述者,僅為本發明之實施例而已,當不能以此限定本發明實施之範圍,凡是依本發明申請專利範圍及專利說明書內容所作之簡單的等效變化與修飾,皆仍屬本發明專利涵蓋之範圍內。
S11~S13:步驟 S111~S113:步驟 S101、S102:步驟 S1011、S1012:步驟 S1021~S1023:步驟 S131~S134:步驟 S1331、S1332:步驟 21:特徵提取模組 22:分割模組 23:結構重構模組 802:處理元件 804:記憶體 806:電源元件 808:多媒體元件 810:音訊元件 812:輸入/輸出介面 814:感測器元件 816:通信元件 820:處理器 1922:處理元件 1926:電源元件 1932:記憶體 1950:網路介面 1958:輸入/輸出介面
此處的附圖被併入說明書中並構成本說明書的一部分,這些附圖示出了符合本發明的實施例,並與說明書一起用於說明本發明的技術方案。 圖1示出根據本發明一實施例的影像處理方法的流程圖; 圖2示出根據本發明一實施例的影像處理方法的流程圖; 圖3示出根據本發明一實施例的Unet++網路的結構示意圖; 圖4示出根據本發明一實施例的ResVNet網路的結構示意圖; 圖5示出根據本發明一實施例的冗餘切割的過程示意圖; 圖6示出根據本發明一實施例的影像處理方法的流程圖; 圖7示出根據本發明一實施例的影像處理方法的流程圖; 圖8示出根據本發明一實施例的影像處理方法的流程圖; 圖9示出根據本發明一實施例的影像處理方法的流程圖; 圖10示出根據本發明一實施例的第一拓撲結構圖的示意圖; 圖11示出根據本發明一實施例的影像處理方法的流程圖; 圖12示出根據本發明一實施例的進行連通處理的示意圖; 圖13示出根據本發明一應用示例的示意圖; 圖14示出根據本發明一實施例的影像處理裝置的方塊圖; 圖15示出根據本發明實施例的一種電子設備的方塊圖;及 圖16示出根據本發明實施例的一種電子設備的方塊圖。
S11~S13:步驟

Claims (14)

  1. 一種影像處理方法,包括:對待處理圖像進行特徵提取,得到中間處理圖像;對所述中間處理圖像進行分割處理,得到第一分割結果;根據所述第一分割結果的結構資訊,對所述第一分割結果進行結構重構,得到所述待處理圖像中目標物件的最終分割結果;其中,所述結構資訊包括所述目標物件的分支資訊和端點資訊;其中,所述根據所述第一分割結果的結構資訊,對所述第一分割結果進行結構重構,得到所述待處理圖像中目標物件的最終分割結果,包括:對所述第一分割結果進行中心提取,得到中心區域圖像和距離場數值集合,其中,所述距離場數值集合為所述中心區域圖像上的所有體素點與所述第一分割結果內目標物件的邊界之間的距離場數值的集合;根據所述中心區域圖像,生成所述目標物件的第一拓撲結構圖;對所述第一拓撲結構圖進行連通處理,得到第二拓撲結構圖;根據所述距離場數值集合,對所述第二拓撲結構圖進行結構重構,得到所述待處理圖像中目標物件的最終分割結果。
  2. 如請求項1所述的影像處理方法,其中,所述對待處理圖像進行特徵提取,得到中間處理圖像,包括:按照預定方向,對所述待處理圖像進行切割,得到多個待處理子圖像;對每個所述待處理子圖像進行特徵提取,得到與每個待處理子圖像分別對應的中間處理子圖像;根據所述預定方向,將所述中間處理子圖像進行拼接,得到中間處理圖像。
  3. 如請求項2所述的影像處理方法,其中,所述按照預定方向,對所述待處理圖像進行切割,得到多個待處理子圖像,包括:在所述待處理圖像上確定多個切割中心;按照預定方向,根據所述切割中心的位置,對所述待處理圖像進行切割,得到多個待處理子圖像,其中,每個切割中心分別位於對應的待處理子圖像的中心,相鄰的待處理子圖像之間存在重疊區域。
  4. 如請求項2或3所述的影像處理方法,其中,所述按照預定方向,所述對所述待處理圖像進行切割,得到多個待處理子圖像之前,還包括:對所述待處理圖像在除所述預定方向以外的方向,根據預定參數進行縮放處理。
  5. 如請求項1所述的影像處理方法,其中,所述對待處理圖像進行特徵提取,得到中間處理圖像之前,還包括:獲取訓練樣本資料集; 根據所述訓練樣本資料集,訓練用於進行特徵提取的神經網路。
  6. 如請求項5所述的影像處理方法,其中,所述獲取訓練樣本資料集包括:對原始資料進行修正,得到修正標注資料;根據所述修正標注資料得到訓練樣本資料集。
  7. 如請求項5或6所述的影像處理方法,其中,所述根據所述訓練樣本資料集,訓練用於進行特徵提取的神經網路,包括:根據所述訓練樣本資料集,結合預設的權重係數,分別得到所述神經網路的全域損失和假陽懲罰損失;根據所述全域損失和所述假陽懲罰損失,確定所述神經網路的損失函數;根據所述損失函數反向傳播來訓練所述神經網路。
  8. 如請求項1所述的影像處理方法,其中,所述對所述中間處理圖像進行分割處理,得到第一分割結果,包括:透過互動式圖像分割方法對所述中間處理圖像進行分割處理,得到第一分割結果,其中,所述互動式圖像分割方法透過深度學習框架在圖形處理器中實現。
  9. 如請求項1所述的影像處理方法,其中,所述對所述第一拓撲結構圖進行連通處理,得到第二拓撲結構圖,包括:提取所述第一拓撲結構圖中所述目標物件對應的連通區域; 移除所述第一拓撲結構圖中與所述連通區域的連通值低於連通閾值的體素點,得到第二拓撲結構圖。
  10. 如請求項1或9所述的影像處理方法,其中,根據所述距離場數值集合,對所述第二拓撲結構圖進行結構重構,得到所述待處理圖像中目標物件的最終分割結果,包括:以所述第二拓撲結構圖中的每個點為球心,所述距離場數值集合中的每個距離場數值為半徑,進行繪製,將所述繪製包括的重疊區域添加至所述第二拓撲結構圖中,得到所述待處理圖像中目標物件的最終分割結果。
  11. 如請求項1所述的影像處理方法,其中,所述對待處理圖像進行特徵提取,得到中間處理圖像之前,還包括:對所述待處理圖像進行預處理,其中,所述預處理包括:重採樣、數值限定以及歸一化中的一種或多種。
  12. 一種影像處理裝置,包括:一特徵提取模組,用於對待處理圖像進行特徵提取,得到中間處理圖像;一分割模組,用於對所述中間處理圖像進行分割處理,得到第一分割結果;及一結構重構模組,用於根據所述第一分割結果的結構資訊,對所述第一分割結果進行結構重構,得到所述待處理圖像中目標物件的最終分割結果;其中,所述結構資訊包括所述目標物件的分支資訊和端點資訊;其中,所述結構重構模組包括: 中心提取子模組,用於對所述第一分割結果進行中心提取,得到中心區域圖像和距離場數值集合,其中,所述距離場數值集合為所述中心區域圖像上的所有體素點與所述第一分割結果內目標物件的邊界之間的距離場數值的集合;拓撲結構生成子模組,用於根據所述中心區域圖像,生成所述目標物件的第一拓撲結構圖;連通處理子模組,用於對所述第一拓撲結構圖進行連通處理,得到第二拓撲結構圖;結構重構子模組,用於根據所述距離場數值集合,對所述第二拓撲結構圖進行結構重構,得到所述待處理圖像中目標物件的最終分割結果。
  13. 一種電子設備,包括:一處理器;一用於儲存所述處理器可執行指令的記憶體;其中,所述處理器被配置為調用所述記憶體儲存的指令,以執行請求項1至11其中任一項所述的影像處理方法。
  14. 一種電腦可讀取的記錄媒體,其中儲存有電腦程式指令,所述電腦程式指令被處理器執行時實現請求項1至11其中任一項所述的影像處理方法。
TW108137264A 2019-04-18 2019-10-16 影像處理方法及裝置、電子設備和電腦可讀取的記錄媒體 TWI779238B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910315190.9 2019-04-18
CN201910315190.9A CN110047078B (zh) 2019-04-18 2019-04-18 图像处理方法及装置、电子设备和存储介质

Publications (2)

Publication Number Publication Date
TW202038848A TW202038848A (zh) 2020-11-01
TWI779238B true TWI779238B (zh) 2022-10-01

Family

ID=67277838

Family Applications (1)

Application Number Title Priority Date Filing Date
TW108137264A TWI779238B (zh) 2019-04-18 2019-10-16 影像處理方法及裝置、電子設備和電腦可讀取的記錄媒體

Country Status (7)

Country Link
US (1) US20210158533A1 (zh)
JP (1) JP7186287B2 (zh)
KR (1) KR20210082234A (zh)
CN (1) CN110047078B (zh)
SG (1) SG11202013156UA (zh)
TW (1) TWI779238B (zh)
WO (1) WO2020211284A1 (zh)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110047078B (zh) * 2019-04-18 2021-11-09 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备和存储介质
CN110428003B (zh) * 2019-07-31 2022-04-22 清华大学 样本类别标签的修正方法、装置以及电子设备
CN112418240A (zh) * 2019-08-21 2021-02-26 上海商汤临港智能科技有限公司 图像处理方法、装置、设备和存储介质
CN112446911A (zh) * 2019-08-29 2021-03-05 阿里巴巴集团控股有限公司 中心线提取、界面交互与模型训练方法、系统及设备
CN110751179B (zh) * 2019-09-18 2022-04-12 无锡祥生医疗科技股份有限公司 超声设备
US11868437B1 (en) * 2019-09-30 2024-01-09 Sighthound, Inc. Training set enhancement for neural networks
US11348246B2 (en) * 2019-11-11 2022-05-31 Adobe Inc. Segmenting objects in vector graphics images
CN111178445A (zh) * 2019-12-31 2020-05-19 上海商汤智能科技有限公司 图像处理方法及装置
CN111179264B (zh) * 2020-01-10 2023-10-03 中国人民解放军总医院 标本的复原图制作方法、装置、标本处理系统、电子设备
CN111325759B (zh) * 2020-03-13 2024-04-16 上海联影智能医疗科技有限公司 血管分割方法、装置、计算机设备及可读存储介质
CN111402268B (zh) * 2020-03-16 2023-05-23 苏州科技大学 一种医学图像中肝脏及其病灶分割的方法
JP7297705B2 (ja) * 2020-03-18 2023-06-26 株式会社東芝 処理装置、処理方法、学習装置およびプログラム
CN111461065B (zh) * 2020-04-24 2024-01-05 上海联影医疗科技股份有限公司 管状结构识别方法、装置、计算机设备和可读存储介质
EP3916633A1 (de) * 2020-05-25 2021-12-01 Sick Ag Kamera und verfahren zum verarbeiten von bilddaten
CN111862045B (zh) * 2020-07-21 2021-09-07 上海杏脉信息科技有限公司 血管模型的生成方法及装置
CN112541876B (zh) * 2020-12-15 2023-08-04 北京百度网讯科技有限公司 卫星图像处理方法、网络训练方法、相关装置及电子设备
CN112785573A (zh) * 2021-01-22 2021-05-11 上海商汤智能科技有限公司 图像处理方法及相关装置、设备
CN113450277B (zh) * 2021-06-29 2023-08-22 上海长征医院 一种医学图像处理方法、介质及电子设备
CN113628215B (zh) * 2021-06-29 2022-10-04 展讯通信(上海)有限公司 图像处理方法、系统、设备及存储介质
DE102022003324A1 (de) 2021-09-15 2023-03-16 Mercedes-Benz Group AG System für die Verbesserung der Lokalisierung von wichtigen Verkehrspunkten und Verfahren davon
CN114092712A (zh) * 2021-11-29 2022-02-25 北京字节跳动网络技术有限公司 图像生成方法、装置、可读介质和电子设备
US20230177747A1 (en) * 2021-12-06 2023-06-08 GE Precision Healthcare LLC Machine learning generation of low-noise and high structural conspicuity images
CN114004836B (zh) * 2022-01-04 2022-04-01 中科曙光南京研究院有限公司 一种基于深度学习的自适应生物医学影像分割方法
US20230237620A1 (en) * 2022-01-27 2023-07-27 Sonic Star Global Limited Image processing system and method for processing image
CN118037622A (zh) * 2022-11-07 2024-05-14 华为云计算技术有限公司 一种图像处理方法、装置、电子设备和存储介质
CN115761383B (zh) * 2023-01-06 2023-04-18 北京匠数科技有限公司 一种图像分类方法、装置、电子设备及介质
CN116486086B (zh) * 2023-04-28 2023-10-03 安徽星太宇科技有限公司 一种基于热红外遥感影像的目标检测方法
CN116758085B (zh) * 2023-08-21 2023-11-03 山东昆仲信息科技有限公司 一种气体污染红外图像视觉辅助检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090136103A1 (en) * 2005-06-24 2009-05-28 Milan Sonka System and methods for image segmentation in N-dimensional space
CN108122236A (zh) * 2017-12-18 2018-06-05 上海交通大学 基于距离调制损失的迭代式眼底图像血管分割方法
CN108171703A (zh) * 2018-01-18 2018-06-15 东北大学 一种从胸部ct图像中自动提取气管树的方法
CN108898578A (zh) * 2018-05-29 2018-11-27 杭州晟视科技有限公司 一种医疗图像的处理方法、装置及计算机存储介质
CN109493328A (zh) * 2018-08-31 2019-03-19 上海联影智能医疗科技有限公司 医学图像显示方法、查看设备以及计算机设备

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101184428B (zh) * 2005-04-01 2013-09-25 视声公司 利用超声波使血管结构三维可视化的方法
US8073226B2 (en) * 2006-06-30 2011-12-06 University Of Louisville Research Foundation, Inc. Automatic detection and monitoring of nodules and shaped targets in image data
JP5567448B2 (ja) * 2010-10-15 2014-08-06 Kddi株式会社 画像領域分割装置、画像領域分割方法および画像領域分割プログラム
CN102324109B (zh) * 2011-09-26 2014-06-18 上海理工大学 基于模糊隶属度模型的非实质性肺结节三维分割方法
CN102917175A (zh) * 2012-09-13 2013-02-06 西北工业大学 基于相机阵列合成孔径成像的遮挡多目标自动抠像方法
CN103247071B (zh) * 2013-03-29 2015-11-11 哈尔滨工业大学深圳研究生院 一种构建三维血管模型方法及设备
CN103247073B (zh) * 2013-04-18 2016-08-10 北京师范大学 基于树状结构的三维脑血管模型构造方法
CN104156935B (zh) * 2013-05-14 2018-01-02 东芝医疗系统株式会社 图像分割装置、图像分割方法和医学图像设备
US9530206B2 (en) * 2015-03-31 2016-12-27 Sony Corporation Automatic 3D segmentation and cortical surfaces reconstruction from T1 MRI
CN105631880B (zh) * 2015-12-31 2019-03-22 百度在线网络技术(北京)有限公司 车道线分割方法和装置
CN107977969B (zh) * 2017-12-11 2020-07-21 北京数字精准医疗科技有限公司 一种内窥镜荧光图像的分割方法、装置及存储介质
CN109345549A (zh) * 2018-10-26 2019-02-15 南京览众智能科技有限公司 一种基于自适应复合近邻图的自然场景图像分割方法
CN110047078B (zh) * 2019-04-18 2021-11-09 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备和存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090136103A1 (en) * 2005-06-24 2009-05-28 Milan Sonka System and methods for image segmentation in N-dimensional space
CN108122236A (zh) * 2017-12-18 2018-06-05 上海交通大学 基于距离调制损失的迭代式眼底图像血管分割方法
CN108171703A (zh) * 2018-01-18 2018-06-15 东北大学 一种从胸部ct图像中自动提取气管树的方法
CN108898578A (zh) * 2018-05-29 2018-11-27 杭州晟视科技有限公司 一种医疗图像的处理方法、装置及计算机存储介质
CN109493328A (zh) * 2018-08-31 2019-03-19 上海联影智能医疗科技有限公司 医学图像显示方法、查看设备以及计算机设备

Also Published As

Publication number Publication date
KR20210082234A (ko) 2021-07-02
US20210158533A1 (en) 2021-05-27
JP2022502739A (ja) 2022-01-11
JP7186287B2 (ja) 2022-12-08
SG11202013156UA (en) 2021-02-25
WO2020211284A1 (zh) 2020-10-22
CN110047078A (zh) 2019-07-23
TW202038848A (zh) 2020-11-01
CN110047078B (zh) 2021-11-09

Similar Documents

Publication Publication Date Title
TWI779238B (zh) 影像處理方法及裝置、電子設備和電腦可讀取的記錄媒體
WO2020211293A1 (zh) 一种图像分割方法及装置、电子设备和存储介质
WO2022151755A1 (zh) 目标检测方法及装置、电子设备、存储介质、计算机程序产品和计算机程序
TW202133787A (zh) 神經網路訓練方法及電子設備和儲存介質
WO2020199528A1 (zh) 图像处理方法及装置、电子设备和存储介质
CN109829920A (zh) 图像处理方法及装置、电子设备和存储介质
CN110110787A (zh) 目标的位置获取方法、装置、计算机设备及存储介质
CN112541928A (zh) 网络训练方法及装置、图像分割方法及装置和电子设备
WO2021259391A2 (zh) 图像处理方法及装置、电子设备和存储介质
CN112767329A (zh) 图像处理方法及装置、电子设备
CN111047602A (zh) 图像分割方法、装置及终端设备
WO2020124360A1 (en) Bidirectional pairing architecture for object detection in video
WO2022032998A1 (zh) 图像处理方法及装置、电子设备、存储介质和程序产品
WO2021259390A2 (zh) 一种冠脉钙化斑块检测方法及装置
CN114820584A (zh) 肺部病灶定位装置
CN114418931B (zh) 术后剩余肺叶的提取方法及装置、电子设备和存储介质
CN109034114A (zh) 一种耳诊方法、设备、系统及计算机可读介质
JP2022548453A (ja) 画像分割方法及び装置、電子デバイス並びに記憶媒体
WO2022012038A1 (zh) 图像处理方法及装置、电子设备、存储介质和程序产品
CN116206175A (zh) 场景分析模型的预训练方法、确定方法、设备及产品
CN115565666A (zh) 脑梗死评估方法及装置、电子设备和存储介质
WO2022226744A1 (en) Texture completion
WO2012131149A1 (en) Method apparatus and computer program product for detection of facial expressions
CN115147434A (zh) 图像处理方法、装置、终端设备及计算机可读存储介质
CN114943723B (zh) 一种对不规则细胞进行分割计数的方法及相关设备

Legal Events

Date Code Title Description
GD4A Issue of patent certificate for granted invention patent