TW202221637A - 影像處理系統及影像處理方法 - Google Patents

影像處理系統及影像處理方法 Download PDF

Info

Publication number
TW202221637A
TW202221637A TW109141552A TW109141552A TW202221637A TW 202221637 A TW202221637 A TW 202221637A TW 109141552 A TW109141552 A TW 109141552A TW 109141552 A TW109141552 A TW 109141552A TW 202221637 A TW202221637 A TW 202221637A
Authority
TW
Taiwan
Prior art keywords
image
map
deep learning
neural
cup
Prior art date
Application number
TW109141552A
Other languages
English (en)
Other versions
TWI746287B (zh
Inventor
余春賢
黃振宇
謝成典
林昀廷
Original Assignee
宏碁股份有限公司
國立臺灣大學醫學院附設醫院
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 宏碁股份有限公司, 國立臺灣大學醫學院附設醫院 filed Critical 宏碁股份有限公司
Priority to TW109141552A priority Critical patent/TWI746287B/zh
Priority to US17/191,909 priority patent/US11887299B2/en
Priority to EP21165333.2A priority patent/EP4006833B1/en
Priority to JP2021129318A priority patent/JP7270686B2/ja
Application granted granted Critical
Publication of TWI746287B publication Critical patent/TWI746287B/zh
Publication of TW202221637A publication Critical patent/TW202221637A/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

一種影像處理方法,影像處理方法的步驟包含:藉由一眼底鏡裝置以取得一彩色眼底圖;以及藉由一處理器接收彩色眼底圖,並透過一電腦視覺演算法或一深度學習模型產生對應彩色眼底圖的一血管切割圖,將彩色眼底圖及該血管切割圖進行一預處理,以得到一初始輸入圖,將初始輸入圖輸入到一卷積神經網路,卷積神經網路輸出一數值;其中處理器依據一杯盤比與數值生成一眼底圖分析資訊。

Description

影像處理系統及影像處理方法
本發明是關於一種處理系統,特別是關於一種應用於分析眼底圖的影像處理系統及影像處理方法。
青光眼為台灣或美國民眾造成失明的第二大主因,且大約只有三分之一的患者意識到自己罹患青光眼並前往診斷。青光眼的確診方式為使用眼科光學同調斷層掃描(Optical Coherence Tomography,OCT)計算視網膜神經纖維層厚度(retinal nerve fiber layer (RNFL) thickness map)。
然而,一般人不會刻意去拍攝光學同調斷層掃描影像,且光學同調斷層掃描的拍攝成本高且不易取得,彩色眼底鏡影像(Color Fundus Photography)相對容易獲取。
因此,如何使用較低成本且便利的方法輔助醫生判讀彩色眼底鏡影像,已成為本領域需解決的問題之一。
為了解決上述的問題,本揭露內容之一態樣提供了一種影像處理系統。影像處理系統包含一眼底鏡裝置以及一處理器。處理器用以接收彩色眼底圖,並透過一電腦視覺演算法或一深度學習模型產生對應彩色眼底圖的一血管切割圖,將彩色眼底圖及血管切割圖進行一預處理,以得到一初始輸入圖,將初始輸入圖輸入到一卷積神經網路,卷積神經網路輸出一數值;其中處理器依據一杯盤比與數值生成一眼底圖分析資訊。
本發明之又一態樣係於提供一種影像處理方法,影像處理方法的步驟包含:藉由一眼底鏡裝置以取得一彩色眼底圖;以及藉由一處理器接收彩色眼底圖,並透過一電腦視覺演算法或一深度學習模型產生對應彩色眼底圖的一血管切割圖,將彩色眼底圖及血管切割圖進行一預處理,以得到一初始輸入圖,將初始輸入圖輸入到一卷積神經網路,卷積神經網路輸出一數值;其中處理器依據一杯盤比與數值生成一眼底圖分析資訊。
本發明所示之影像處理系統及影像處理方法,可以分析彩色眼底圖,進而計算出杯盤比及視神經纖維缺陷的機率,應用眼底圖分析資訊用以輔助醫生使用彩色眼底圖作青光眼的判別,例如,當醫生看到杯盤比落在正常人眼的範圍,且視神經纖維缺陷的機率低於50%,則醫生可能初步認為此病人為正常;當醫生看到杯盤比並非落在正常人眼的範圍,且視神經纖維缺陷的機率低於50%,則醫生可能初步認為此病人為疑似良性青光眼;當醫生看到杯盤比落在正常人眼的範圍(例如小於0.7),且視神經纖維缺陷的機率高於50%,則醫生可能初步認為此病人為疑似惡性青光眼,醫生可建議病人拍攝眼科光學同調斷層掃描,透過斷層掃描圖判斷是否確診;當醫生看到杯盤比落並非落在正常人眼的範圍,且視神經纖維缺陷的機率高於50%,則醫生可能初步認為此病人為疑似惡性青光眼,需要透過拍攝眼科光學同調斷層掃描,依據斷層掃描圖判斷是否確診。藉此,影像處理系統及影像處理方法可以產生許多資訊,綜和視神經纖維缺陷的機率及杯盤比,以協助醫生評估病人的青光眼嚴重程度。
以下說明係為完成發明的較佳實現方式,其目的在於描述本發明的基本精神,但並不用以限定本發明。實際的發明內容必須參考之後的權利要求範圍。
必須了解的是,使用於本說明書中的”包含”、”包括”等詞,係用以表示存在特定的技術特徵、數值、方法步驟、作業處理、元件以及/或組件,但並不排除可加上更多的技術特徵、數值、方法步驟、作業處理、元件、組件,或以上的任意組合。
於權利要求中使用如”第一”、"第二"、"第三"等詞係用來修飾權利要求中的元件,並非用來表示之間具有優先權順序,先行關係,或者是一個元件先於另一個元件,或者是執行方法步驟時的時間先後順序,僅用來區別具有相同名字的元件。
請參照第1~3圖,第1圖係依照本發明一實施例繪示影像處理系統 100之方塊圖。第2圖係依照本發明一實施例繪示影像處理方法200之示意圖。第3圖係依照本發明一實施例繪示血管切割圖330的生成方法之示意圖。
如第1圖所示,影像處理系統 100包含一眼底鏡裝置10及一處理器20。
於一實施例中,眼底鏡裝置10用以取得彩色眼底圖。
於一實施例中,眼底鏡裝置10可以是直接眼底鏡或間接眼底鏡,以直接眼底鏡為例,眼底鏡裝置10可直接檢查眼底,不必散大瞳孔,在暗室中進行檢查,醫生DR將眼底鏡裝置10拿到靠近病人PT的眼睛右眼或左眼。眼底鏡裝置10的正面接觸病人PT,正面的接目口A用以對準病人眼睛,光色旋鈕B用以發光,在一些例子中,光色旋鈕B可以讓醫生DR選擇讓眼底鏡裝置10的正面發出綠光、白光或偏極光,綠光用以觀察血管網膜出血、白光用於一般檢查,偏極光用於消除角膜反光,角膜反光消除後,更容易觀察眼底,鋼圈旋鈕C可以讓醫生DR選擇讓眼底鏡裝置10的正面採用小光圈,大光圈、藍色光圈等等,小光圈用於小瞳孔,大光圈用於大瞳孔,藍色光圈用於螢光染色。
眼底鏡裝置10的反面面對醫生DR,有些眼底鏡裝置10的反面是一顯示器,可以醫生DR可以直接由顯示器看到病人PT的眼底。於一實施例中,眼底鏡裝置10是一數位化眼底照相機,一般採用200萬像素以上的數位照相機,才能獲得高清晰度的眼底圖像,例如第3圖的彩色眼底圖310。數位照相機透過與眼底照相機的專用介面相連接,拍攝所需要的眼底圖像,再通過資料傳輸線LK傳送至電腦系統後進行圖像分析處理、保存及列印等。於一實施例中,處理器20負責接收彩色眼底圖並進行圖像分析。
於一實施例中,眼底鏡裝置10拍攝到的眼底圖像,例如彩色眼底圖310,可以由有線或無線的傳輸方式傳送到電腦系統。
然而,市面上的眼底鏡裝置10有多種款式及型號,此處僅為一例,只要是能拍攝出彩色眼底圖的眼底鏡裝置都可應用於本案。
於一實施例中,處理器20可以位於筆記型電腦、桌機、平板、手機或其它電子裝置。於一實施例中,處理器30可以被實施為例如為微控制單元(microcontroller)、微處理器(microprocessor)、數位訊號處理器(digital signal processor)、特殊應用積體電路(application specific integrated circuit,ASIC)或一邏輯電路。
以下描述影像處理方法200,影像處理方法200可以由影像處理系統100實現之。
於步驟210中,眼底鏡裝置10取得一彩色眼底圖310。
於一實施例中,彩色眼底圖310會是眼球EB影像,眼球EB影像整體大致上為紅色(或紅橘色等近似色)在視神經盤(Optic disc)OD與視神經杯(Optic cup)OC會呈現稍微不同的顏色區塊(例如為黃色)。
更具體而言,醫師DR利用眼底鏡裝置10看入眼底,可看到一處形似圓盤的構造,醫學上稱為視神經盤OD,這是指視神經由眼球後方穿入眼球的部位,臨床上這是視神經的根部,也就由此部位視神經纖維像雨傘一般360度四周放射(視神經纖維即彩色眼底圖310中由視神經盤OD網外擴且可能有分支的部分),而構成視網膜。視神經盤OD會在中央形成一個凹陷,由於形狀像杯子,所以稱為視神經杯OC。而所謂杯盤比(Cup-to-disk Ratio,CDR)是指醫師DR看入眼底,有如俯看一個杯子放在一個盤子上面,視神經杯OC與視神經盤OD直徑的比,就稱為杯盤比,一般杯盤比的比值約小於0.3。後續會詳述之。
於步驟220中,處理器20接收彩色眼底圖310,並透過一影像切割運算320產生對應彩色眼底圖310的一血管切割圖330,將彩色眼底圖310及血管切割圖330進行一預處理,以得到一初始輸入圖410。
於一實施例中,影像切割運算320可以由一電腦視覺演算法或一深度學習模型實現之。其中,電腦視覺演算法或深度學習模型(例如為卷積神經網絡(Convolutional Neural Network、U-Net模型)都可採用現有的方法實現之。
請參閱第3圖,處理器20接收彩色眼底圖310後,需要將彩色眼底圖310中的血管部分切割(segmentation)出來,處理器200透過影像切割運算320(電腦視覺演算法或深度學習模型)產生對應彩色眼底圖310的一血管切割圖330,換言之,處理器20將彩色眼底圖310中,除了血管以外的影像濾除,以生成血管切割圖330。
於一實施例中,血管切割圖330為一灰階圖,預處理是指將彩色眼底圖310及血管切割圖330相疊,以得到初始輸入圖410。
於一實施例中,處理器20濾除彩色眼底圖310中的紅色後,再將濾除紅色的彩色眼底圖310及血管切割圖330相疊,以得到初始輸入圖410。
於一實施例中,處理器20選擇血管切割圖330中一最粗血管影像L以決定一視神經盤影像的長軸,選擇垂直於長軸的另一最粗血管影像W以決定視神經盤影像的短軸,視神經杯影像的長軸平行於視神經盤影像的長軸,視神經杯影像的短軸平行於視神經盤影像的長軸,處理器20依據視神經盤影像的長軸及視神經盤影像的短軸,應用一橢圓擬合演算法裁切出視神經盤影像,依據視神經杯影像的長軸及該視神經杯影像的短軸,應用橢圓擬合演算法裁切出視神經杯影像。關於神經盤影像將於後續詳細敘述之。
於步驟230中,處理器20將初始輸入圖410輸入到深度學習模型,深度學習模型輸出一數值。
於一實施例中,深度學習模型可以是神經網路,例如為卷積神經網絡。
於一實施例中,深度學習模型可以應用U-Net深度學習分割網路。請參閱第5圖,第5圖係依照本發明一實施例繪示U-Net深度學習分割網路之示意圖。第5圖為一簡化版的U-Net深度學習分割網路,僅用於說明U-Net深度學習分割網路的概念,實作時可依出輸結果的精準度調整U-Net深度學習分割網路中的各參數。U-Net深度學習分割網路是在醫學影像上常用於進行影像分割的網路。於一實施例中,U-Net深度學習分割網路由左側解析路徑(contracting path)與右側重組(expansive path)形成,左側使用2x2的最大池化法(max pooling)進行縮減像素採樣(down sample),原始圖像中萃取出來的資料量以長方形表示,因此會看到長方塊面積越來越小,右側則是使用2x2的上捲積(up-convolution)進行上採樣(up-sampling),再合併(concatenate)低深度的同維度特徵張量,因此會看到代表資料量的長方塊越來越大,最後輸出分割圖。此處僅為一例,U-Net深度學習分割網路可以有許多種變化態樣,可以依據實際實作時調整U-Net深度學習分割網路中的各參數或將各參數(例如U-Net深度學習分割網路在縮減像素採樣時所擷取的多個特徵)取出,做其他應用。
於一實施例中,於步驟230,U-Net深度學習分割網路中的部分參數被取出作應用,例如處理器20將U-Net深度學習分割網路擷取到的多個特徵組成神經網路,用以判斷初始輸入圖410是否正常。
請參閱第4圖,第4圖係依照本發明一實施例繪示視神經缺損狀態430的評估方法之示意圖。於一實施例中,處理器20將初始輸入圖410輸入到一深度學習模型420,深度學習模型420輸出視神經缺損狀態430,視神經缺損狀態430可以是一個數值,代表機率,數值越大表示視神經缺損的機率越大,數值越小表示視神經缺損的機率越小。然而,此處數值的定義僅為一例。於一實施例中,深度學習模型420輸出的視神經缺損狀態430是框選出缺損的位置或標示出面積,再由處理器20判斷缺損狀態,例如計算缺損面積占整體初始輸入圖410的比值或判斷缺損位置是在視神經末端或根部。
於一實施例中,處理器20將初始輸入圖410輸入到一神經網路,神經網路輸出數值,其中神經網路是將尚未訓練的U-Net深度學習分割網路所擷取出的複數個特徵進行分類(classification),再將分類後的多個特徵組成神經網路,處理器20將初始輸入圖410輸入到此神經網路,此神經網路輸出數值。於一實施例中,處理器20是取出尚未訓練的U-Net深度學習分割網路在縮減像素採樣時,所擷取的多個特徵,將這些特徵進行分類,再將分類後的多個特徵組成神經網路,處理器20將初始輸入圖410輸入到此神經網路,此神經網路輸出數值。
於一實施例中,處理器20將初始輸入圖410輸入到一神經網路,神經網路輸出數值,其中神經網路是將已訓練的U-Net深度學習分割網路所擷取出的複數個特徵取出,並固定此些特徵各自對應的一權重,再調整一全連接層(Fully Connected layer)的權重以產生神經網路,處理器20將初始輸入圖410輸入到此神經網路,此神經網路輸出數值。
於步驟240中,處理器20依據一杯盤比與數值生成一眼底圖分析資訊。
於一實施例中,處理器20更用以判斷數值是否大於一門檻值(例如為0.5,即一機率值50%),若數值大於門檻值,則將色眼底圖視為異常,當數值不大於門檻值,則將彩色眼底圖310視為正常。因此,眼底圖分析資訊包含彩色眼底圖310為正常或異常的資訊。其中,彩色眼底圖310為正常,代表彩色眼底圖310中的神經纖維正常,彩色眼底圖310為異常,代表彩色眼底圖310中的神經纖維缺損。
請參照第6圖,第6圖係依照本發明一實施例繪示之影像處理方法600的流程圖。其中,步驟620、640可以平行處理、先後處理,並無一定處理順序;步驟650、655可以平行處理、先後處理,並無一定處理順序;步驟660、630都完成後,再進行步驟670。
於步驟610中,處理器20接收彩色眼底圖310。
於步驟620中,處理器20透過一電腦視覺演算法或一深度學習模型產生對應彩色眼底圖310的一血管切割圖330,將彩色眼底圖310及血管切割圖330進行一預處理,以得到一初始輸入圖410。
於步驟630中,處理器20將初始輸入圖410輸入到一卷積神經網路,卷積神經網路輸出一數值。
請一併參照第6圖與第7~9圖,第7圖係依照本發明一實施例繪示之視神經杯盤系統700模型之示意圖。第8圖係依照本發明一實施例繪示之神經盤語意分析圖之示意圖。第9圖係依照本發明一實施例繪示之神經杯語意分析圖之示意圖。以下詳述杯盤比的產生方式,即步驟640~670。
於一實施例中,處理器20定位彩色眼底圖310中的一視神經盤影像(步驟640),並裁切(crop)出視神經盤影像(步驟645)。處理器20將被裁切出來的視神經盤影像輸入到視神經杯盤系統。
於一實施例中,如第3圖所示的血管切割圖330,於此步驟中,處理器20選擇血管切割圖330中一最粗血管影像以決定視神經盤影像的長軸,選擇垂直於長軸的另一最粗血管影像以決定視神經盤影像的短軸,處理器20依據視神經盤影像的長軸及視神經盤影像的短軸,應用一橢圓擬合演算法裁切出視神經盤影像。於一實施例中,處理器20依據視神經盤影像的長軸、短軸及橢圓擬合演算法,能約略圈出視神經盤影像範圍,可以找到框選出視神經盤影像範圍的最小正方形,在裁切時,可以將最小正方形的橫軸與縱軸各自多放大一些(例如橫軸的左右各多5個像素,縱軸的上下各多5個像素),以裁剪出比最小正方形大一些的範圍,確保視神經盤影像都在此範圍中。
於一實施例中,處理器20將視神經盤影像輸入深度學習分割網路U1,深度學習分割網路U1輸出一神經盤語意分析圖800(步驟650)。
請參閱第8圖,神經盤語意分析圖800為一灰階圖,中的白色面積代表神經盤影像範圍POD。於一實施例中,深度學習分割網路U1為一U-Net深度學習分割網路,當處理器20將視神經盤影像輸入此U-Net深度學習分割網路後,此U-Net深度學習分割網路輸出的神經盤語意分析圖800中,神經盤影像範圍POD為白色,其餘部分為黑色。
於一實施例中,處理器20將視神經盤影像輸入深度學習分割網路U2,深度學習分割網路U2輸出一神經杯語意分析圖900(步驟655)。
請參閱第9圖,神經杯語意分析圖900為一灰階圖,中的白色面積代表神經杯影像範圍POC。於一實施例中,深度學習分割網路U2為另一U-Net深度學習分割網路,當處理器20將視神經盤影像輸入此另一U-Net深度學習分割網路,此另一U-Net深度學習分割網路輸出的該神經杯語意分析圖800中,神經杯影像範圍POC為白色,其餘部分為黑色。
於一實施例中,處理器20裁切出視神經盤影像後(步驟645),視神經盤影像的中心點視為原點,進行一極座標轉換,以產生一極座標轉換視神經盤影像,將極座標轉換視神經盤影像輸入深度學習分割網路U1,深度學習分割網路U1輸出神經盤語意分析圖800(步驟650),將極座標轉換視神經盤影像輸入深度學習分割網路U2,深度學習分割網路U2輸出神經杯語意分析圖(步驟655)。由於極座標轉換視神經盤影像為長條圖樣式,相較於辨識圓形圖,深度學習分割網路U1、U2更善於辨識長條圖,因此,將視神經盤影像進行極座標轉換,所產生的極座標轉換視神經盤影像可以提升深度學習分割網路U1、U2辨識的精準度。
於一實施例中,裁切出的視神經盤影像、神經盤語意分析圖800及神經杯語意分析圖900的維度一樣,深度學習分割網路U1、U2的輸入都是同一張裁切出的視神經盤影像,而深度學習分割網路U1輸出神經盤語意分析圖800,深度學習分割網路U2輸出神經杯語意分析圖900。
於步驟660中,處理器20將神經盤語意分析圖800中的白色面積(即神經盤影像範圍POD)除以神經杯語意分析圖900中的白色面積(即神經杯影像範圍POC)得到杯盤比(CDR)。
於步驟670中,處理器20依據杯盤比與數值生成一眼底圖分析資訊。
於一實施例中,眼底圖分析資訊包含杯盤比、杯盤比是否介於正常人眼的範圍內、視神經纖維是否缺陷(視神經纖維正常或異常)…等資訊。
本發明所示之影像處理系統及影像處理方法,可以分析彩色眼底圖,進而計算出杯盤比及視神經纖維缺陷的機率,應用眼底圖分析資訊用以輔助醫生使用彩色眼底圖作青光眼的判別,例如,當醫生看到杯盤比落在正常人眼的範圍,且視神經纖維缺陷的機率低於50%,則醫生可能初步認為此病人為正常;當醫生看到杯盤比並非落在正常人眼的範圍,且視神經纖維缺陷的機率低於50%,則醫生可能初步認為此病人為疑似良性青光眼;當醫生看到杯盤比落在正常人眼的範圍(例如小於0.7),且視神經纖維缺陷的機率高於50%,則醫生可能初步認為此病人為疑似惡性青光眼,醫生可建議病人拍攝眼科光學同調斷層掃描,透過斷層掃描圖判斷是否確診;當醫生看到杯盤比落並非落在正常人眼的範圍,且視神經纖維缺陷的機率高於50%,則醫生可能初步認為此病人為惡似良性青光眼,需要透過拍攝眼科光學同調斷層掃描,依據斷層掃描圖判斷是否確診。藉此,影像處理系統及影像處理方法可以產生許多資訊,綜和視神經纖維缺陷的機率及杯盤比,以協助醫生評估病人的青光眼嚴重程度。
本發明之方法,或特定型態或其部份,可以以程式碼的型態存在。程式碼可以包含於實體媒體,如軟碟、光碟片、硬碟、或是任何其他機器可讀取(如電腦可讀取)儲存媒體,亦或不限於外在形式之電腦程式產品,其中,當程式碼被機器,如電腦載入且執行時,此機器變成用以參與本發明之裝置。程式碼也可以透過一些傳送媒體,如電線或電纜、光纖、或是任何傳輸型態進行傳送,其中,當程式碼被機器,如電腦接收、載入且執行時,此機器變成用以參與本發明之裝置。當在一般用途處理單元實作時,程式碼結合處理單元提供一操作類似於應用特定邏輯電路之獨特裝置。
雖然本發明已以實施方式揭露如上,然其並非用以限定本發明,任何熟習此技藝者,在不脫離本發明之精神和範圍內,當可作各種之更動與潤飾,因此本發明之保護範圍當視後附之申請專利範圍所界定者為準。
100:影像處理系統 PT:病人 10:眼底鏡裝置 A:接目口 B:光色旋鈕 C:鋼圈旋鈕 DR:醫生 LK:資料傳輸線 20:處理器 200:影像處理方法 210~240:步驟 310:彩色眼底圖 EB:眼球 OD:視神經盤 OC:視神經杯 320:影像切割運算 330:血管切割圖 L:最粗血管影像 W:垂直於長軸的另一最粗血管影像 410:初始輸入圖 420:深度學習模型 430:視神經缺損狀態 U1、U2:深度學習分割網路 600:影像處理方法 610~670:步驟 800:神經盤語意分析圖 POD:神經盤影像範圍 900:神經杯語意分析圖 POC:神經杯影像範圍
第1圖係依照本發明一實施例繪示影像處理系統之方塊圖。 第2圖係依照本發明一實施例繪示影像處理方法之示意圖。 第3圖係依照本發明一實施例繪示血管切割圖的生成方法之示意圖。 第4圖係依照本發明一實施例繪示視神經缺損狀態的評估方法之示意圖。 第5圖係依照本發明一實施例繪示U-Net深度學習分割網路之示意圖。 第6圖係依照本發明一實施例繪示影像處理方法的流程圖。 第7圖係依照本發明一實施例繪示之視神經杯盤系統模型之示意圖。 第8圖係依照本發明一實施例繪示之神經盤語意分析圖之示意圖。 第9圖係依照本發明一實施例繪示之神經杯語意分析圖之示意圖。
200:影像處理方法
210~240:步驟

Claims (20)

  1. 一種影像處理系統,包含: 一眼底鏡裝置,用以取得一彩色眼底圖;以及 一處理器,用以接收該彩色眼底圖,並透過一電腦視覺演算法或一深度學習模型產生對應該彩色眼底圖的一血管切割圖,將該彩色眼底圖及該血管切割圖進行一預處理,以得到一初始輸入圖,將該初始輸入圖輸入到一卷積神經網路,該卷積神經網路輸出一數值; 其中該處理器依據一杯盤比與該數值生成一眼底圖分析資訊。
  2. 如請求項1所述之影像處理系統,其中,該處理器更用以判斷該數值是否大於一門檻值,若該數值大於該門檻值,則將該彩色眼底圖視為異常,當該數值不大於該門檻值,則將該彩色眼底圖視為正常。
  3. 如請求項1所述之影像處理系統,其中,該處理器定位該彩色眼底圖中的一視神經盤影像,並裁切出該視神經盤影像,將該視神經盤影像輸入一第一深度學習分割網路,該第一深度學習分割網路輸出一神經盤語意分析圖,將該視神經盤影像輸入一第二深度學習分割網路,該第二深度學習分割網路輸出一神經杯語意分析圖,將該神經盤語意分析圖中的白色面積除以該神經杯語意分析圖中的白色面積得到該杯盤比。
  4. 如請求項3所述之影像處理系統,其中,該第一深度學習分割網路為一第一U-Net深度學習分割網路,當該處理器將該視神經盤影像輸入該第一U-Net深度學習分割網路後,該第一U-Net深度學習分割網路輸出的該神經盤語意分析圖中,神經盤影像範圍為白色,其餘部分為黑色; 該第二深度學習分割網路為一第二U-Net深度學習分割網路,當該處理器將該視神經盤影像輸入該第二U-Net深度學習分割網路後,該第二U-Net深度學習分割網路輸出的該神經杯語意分析圖中,神經杯影像範圍為白色,其餘部分為黑色; 其中,該視神經盤影像、該神經盤語意分析圖及該神經杯語意分析圖的維度一樣。
  5. 如請求項1所述之影像處理系統,其中,該血管切割圖為一灰階圖,該預處理是指將該彩色眼底圖及該血管切割圖相疊。
  6. 如請求項5所述之影像處理系統,其中,該處理器濾除該彩色眼底圖中的紅色後,再將濾除紅色的該彩色眼底圖及該血管切割圖相疊。
  7. 如請求項1所述之影像處理系統,其中,該處理器將該初始輸入圖輸入到一神經網路,該神經網路輸出該數值,其中該神經網路是將尚未訓練的U-Net深度學習分割網路所擷取出的複數個特徵進行分類(classification),再將分類後的該些特徵組成該神經網路。
  8. 如請求項1所述之影像處理系統,其中,該處理器將該初始輸入圖輸入到一神經網路,該神經網路輸出該數值,其中該神經網路是將已訓練的U-Net深度學習分割網路所擷取出的複數個特徵取出,並固定此些特徵各自對應的一權重,再調整一全連接層(Fully Connected layer)的權重以產生該神經網路。
  9. 如請求項3所述之影像處理系統,其中,該處理器裁切出該視神經盤影像後,將該視神經盤影像的中心點視為原點,進行一極座標轉換,以產生一極座標轉換視神經盤影像,將該極座標轉換視神經盤影像輸入該第一深度學習分割網路,該第一深度學習分割網路輸出該神經盤語意分析圖,將該極座標轉換視神經盤影像輸入該第二深度學習分割網路,該第二深度學習分割網路輸出該神經杯語意分析圖。
  10. 如請求項1所述之影像處理系統,其中,該處理器選擇該血管切割圖中一最粗血管影像以決定一視神經盤影像的長軸,選擇垂直於長軸的另一最粗血管影像以決定該視神經盤影像的短軸,該視神經杯影像的長軸平行於該視神經盤影像的長軸,該視神經杯影像的短軸平行於該視神經盤影像的長軸,該處理器依據該視神經盤影像的長軸及該視神經盤影像的短軸,應用一橢圓擬合演算法裁切出該視神經盤影像,依據該視神經杯影像的長軸及該視神經杯影像的短軸,應用該橢圓擬合演算法裁切出該視神經杯影像。
  11. 一種影像處理方法,包含: 藉由一眼底鏡裝置以取得一彩色眼底圖;以及 藉由一處理器接收該彩色眼底圖,並透過一電腦視覺演算法或一深度學習模型產生對應該彩色眼底圖的一血管切割圖,將該彩色眼底圖及該血管切割圖進行一預處理,以得到一初始輸入圖,將該初始輸入圖輸入到一卷積神經網路,該卷積神經網路輸出一數值; 其中該處理器依據一杯盤比與該數值生成一眼底圖分析資訊。
  12. 如請求項11所述之影像處理方法,更包含: 藉由該處理器判斷該數值是否大於一門檻值,若該數值大於該門檻值,則將該彩色眼底圖視為異常,當該數值不大於該門檻值,則將該彩色眼底圖視為正常。
  13. 如請求項11所述之影像處理方法,更包含: 定位該彩色眼底圖中的一視神經盤影像,並裁切出該視神經盤影像; 將該視神經盤影像輸入一第一深度學習分割網路,該第一深度學習分割網路輸出一神經盤語意分析圖; 將該視神經盤影像輸入一第二深度學習分割網路,該第二深度學習分割網路輸出一神經杯語意分析圖;以及 將該神經盤語意分析圖中的白色面積除以該神經杯語意分析圖中的白色面積得到該杯盤比。
  14. 如請求項13所述之影像處理方法,其中,該第一深度學習分割網路為一第一U-Net深度學習分割網路,當該處理器將該視神經盤影像輸入該第一U-Net深度學習分割網路後,該第一U-Net深度學習分割網路輸出的該神經盤語意分析圖中,神經盤影像範圍為白色,其餘部分為黑色; 該第二深度學習分割網路為一第二U-Net深度學習分割網路,當該處理器將該視神經盤影像輸入該第二U-Net深度學習分割網路後,該第二U-Net深度學習分割網路輸出的該神經杯語意分析圖中,神經杯影像範圍為白色,其餘部分為黑色; 其中,該視神經盤影像、該神經盤語意分析圖及該神經杯語意分析圖的維度一樣。
  15. 如請求項11所述之影像處理方法,其中,該血管切割圖為一灰階圖,該預處理是指將該彩色眼底圖及該血管切割圖相疊。
  16. 如請求項15所述之影像處理方法,更包含: 濾除該彩色眼底圖中的紅色後,再將濾除紅色的該彩色眼底圖及該血管切割圖相疊。
  17. 如請求項11所述之影像處理方法,更包含: 將該初始輸入圖輸入到一神經網路,該神經網路輸出該數值; 其中該神經網路是將尚未訓練的U-Net深度學習分割網路所擷取出的複數個特徵進行分類(classification),再將分類後的該些特徵組成該神經網路。
  18. 如請求項11所述之影像處理方法,更包含: 將該初始輸入圖輸入到一神經網路,該神經網路輸出該數值; 其中該神經網路是將已訓練的U-Net深度學習分割網路所擷取出的複數個特徵取出,並固定此些特徵各自對應的一權重,再調整一全連接層( Fully Connected layer )的權重以產生該神經網路。
  19. 如請求項13所述之影像處理方法,更包含: 裁切出該視神經盤影像後,將該視神經盤影像的中心點視為原點,進行一極座標轉換,以產生一極座標轉換視神經盤影像; 將該極座標轉換視神經盤影像輸入該第一深度學習分割網路,該第一深度學習分割網路輸出該神經盤語意分析圖;以及 將該極座標轉換視神經盤影像輸入該第二深度學習分割網路,該第二深度學習分割網路輸出該神經杯語意分析圖。
  20. 如請求項11所述之影像處理方法,更包含: 選擇該血管切割圖中一最粗血管影像以決定一視神經盤影像的長軸; 選擇垂直於長軸的另一最粗血管影像以決定該視神經盤影像的短軸; 其中該視神經杯影像的長軸平行於該視神經盤影像的長軸,該視神經杯影像的短軸平行於該視神經盤影像的長軸; 依據該視神經盤影像的長軸及該視神經盤影像的短軸,應用一橢圓擬合演算法裁切出該視神經盤影像;以及 依據該視神經杯影像的長軸及該視神經杯影像的短軸,應用該橢圓擬合演算法裁切出該視神經杯影像。
TW109141552A 2020-11-26 2020-11-26 影像處理系統及影像處理方法 TWI746287B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
TW109141552A TWI746287B (zh) 2020-11-26 2020-11-26 影像處理系統及影像處理方法
US17/191,909 US11887299B2 (en) 2020-11-26 2021-03-04 Image processing system and image processing method
EP21165333.2A EP4006833B1 (en) 2020-11-26 2021-03-26 Image processing system and image processing method
JP2021129318A JP7270686B2 (ja) 2020-11-26 2021-08-05 画像処理システムおよび画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW109141552A TWI746287B (zh) 2020-11-26 2020-11-26 影像處理系統及影像處理方法

Publications (2)

Publication Number Publication Date
TWI746287B TWI746287B (zh) 2021-11-11
TW202221637A true TW202221637A (zh) 2022-06-01

Family

ID=75252473

Family Applications (1)

Application Number Title Priority Date Filing Date
TW109141552A TWI746287B (zh) 2020-11-26 2020-11-26 影像處理系統及影像處理方法

Country Status (4)

Country Link
US (1) US11887299B2 (zh)
EP (1) EP4006833B1 (zh)
JP (1) JP7270686B2 (zh)
TW (1) TWI746287B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11580673B1 (en) * 2019-06-04 2023-02-14 Duke University Methods, systems, and computer readable media for mask embedding for realistic high-resolution image synthesis
CN111862187B (zh) * 2020-09-21 2021-01-01 平安科技(深圳)有限公司 基于神经网络的杯盘比确定方法、装置、设备及存储介质
TWI784688B (zh) * 2021-08-26 2022-11-21 宏碁股份有限公司 眼睛狀態評估方法及電子裝置
CN117689893B (zh) * 2024-02-04 2024-06-04 智眸医疗(深圳)有限公司 激光扫描超广角眼底图像语义分割方法、系统及终端

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10405739B2 (en) * 2015-10-23 2019-09-10 International Business Machines Corporation Automatically detecting eye type in retinal fundus images
JP6892234B2 (ja) 2016-09-21 2021-06-23 株式会社トプコン 眼科撮影装置
EP3373798B1 (en) 2016-11-22 2020-05-27 Delphinium Clinic Ltd. Method and system for classifying optic nerve head
CN107045720B (zh) * 2017-05-04 2018-11-30 深圳硅基仿生科技有限公司 基于人工神经网络的识别眼底图像病变的处理系统
WO2019083129A1 (ko) * 2017-10-27 2019-05-02 주식회사 뷰노 피검체에 대한 안저 영상의 판독을 지원하는 방법 및 이를 이용한 장치
JP7229881B2 (ja) * 2018-08-14 2023-02-28 キヤノン株式会社 医用画像処理装置、学習済モデル、医用画像処理方法及びプログラム
JP2020103714A (ja) * 2018-12-28 2020-07-09 株式会社トプコン 血流計測装置、その制御方法、プログラム、及び記録媒体
CN110033422B (zh) * 2019-04-10 2021-03-23 北京科技大学 一种眼底oct图像融合方法及装置
CN110992382B (zh) 2019-12-30 2022-07-15 四川大学 用于辅助青光眼筛查的眼底图像视杯视盘分割方法及系统
CN111724381B (zh) * 2020-06-24 2022-11-01 武汉互创联合科技有限公司 基于多视图交叉验证的显微图像细胞计数与姿态识别方法
CN111863241B (zh) 2020-07-10 2023-06-30 北京化工大学 一种基于集成深度学习的眼底照分类系统

Also Published As

Publication number Publication date
EP4006833A1 (en) 2022-06-01
JP2022084511A (ja) 2022-06-07
US11887299B2 (en) 2024-01-30
TWI746287B (zh) 2021-11-11
EP4006833B1 (en) 2024-11-06
JP7270686B2 (ja) 2023-05-10
US20220164947A1 (en) 2022-05-26

Similar Documents

Publication Publication Date Title
US10441160B2 (en) Method and system for classifying optic nerve head
CN111493814B (zh) 眼底病变的识别系统
Patton et al. Retinal image analysis: concepts, applications and potential
TWI746287B (zh) 影像處理系統及影像處理方法
WO2018201632A1 (zh) 用于识别眼底图像病变的人工神经网络及系统
US11284791B2 (en) Image processing method, program, and image processing device
JP2016002380A (ja) 画像処理装置、その作動方法及びプログラム
KR102354980B1 (ko) 전안부 질환 진단 시스템 및 이를 이용한 진단 방법
JP2021184169A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2021534948A (ja) 眼底画像定量分析の前置処理方法および記憶装置
US20220198831A1 (en) System for determining one or more characteristics of a user based on an image of their eye using an ar/vr headset
WO2017020045A1 (en) System and methods for malarial retinopathy screening
US20210259546A1 (en) Portable system for identifying potential cases of diabetic macular oedema using image processing and artificial intelligence
JP2024105697A (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP2008073280A (ja) 眼底画像処理装置
US20240032784A1 (en) Integrated analysis of multiple spectral information for ophthalmology applications
Pinos-Velez et al. Implementation of support tools for the presumptive diagnosis of Glaucoma through identification and processing of medical images of the human eye
US11419495B2 (en) Image processing method, image processing device, and storage medium
Park et al. Localized retinal nerve fiber layer defect location among red-free fundus photographs, en face structural images, and cirrus HD-OCT maps
Raga A smartphone based application for early detection of diabetic retinopathy using normal eye extraction
CN114764777A (zh) 影像处理系统及影像处理方法
JP7579889B2 (ja) 画像処理方法、プログラム、画像処理装置、眼科システム
WO2022157838A1 (ja) 画像処理方法、プログラム、画像処理装置、眼科システム
Kaur et al. Preliminary Study of Retinal Lesions Classification on Retinal Fundus Images for the Diagnosis of Retinal Diseases
Menolotto Artifact removal in digital retinal images