TWI746381B - 利用深度學習分析眼振感測資料的方法及眼振感測分析系統 - Google Patents

利用深度學習分析眼振感測資料的方法及眼振感測分析系統 Download PDF

Info

Publication number
TWI746381B
TWI746381B TW110106638A TW110106638A TWI746381B TW I746381 B TWI746381 B TW I746381B TW 110106638 A TW110106638 A TW 110106638A TW 110106638 A TW110106638 A TW 110106638A TW I746381 B TWI746381 B TW I746381B
Authority
TW
Taiwan
Prior art keywords
data
sensing
patient
processing unit
induction
Prior art date
Application number
TW110106638A
Other languages
English (en)
Other versions
TW202234419A (zh
Inventor
吳靖農
羅盛典
范佐搖
陳嶽鵬
郭昶甫
Original Assignee
長庚醫療財團法人高雄長庚紀念醫院
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 長庚醫療財團法人高雄長庚紀念醫院 filed Critical 長庚醫療財團法人高雄長庚紀念醫院
Priority to TW110106638A priority Critical patent/TWI746381B/zh
Application granted granted Critical
Publication of TWI746381B publication Critical patent/TWI746381B/zh
Publication of TW202234419A publication Critical patent/TW202234419A/zh

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

一種利用深度學習分析眼振感測資料的方法,包含:使用多個參考患者的多個取樣參考眼振感測資料、多個取樣誘導模板資料及多個標註資料,以對比式學習訓練神經網絡模型以產生第一分析模型;根據參考患者的多個參考中樞異常機率統計數值及標註資料,使用分類演算法訓練分類模型以產生第二分析模型;根據每一取樣待分析眼振感測資料及對應的取樣誘導模板資料,使用第一分析模型產生待分析中樞異常機率;根據多個待分析中樞異常機率統計數值,使用第二分析模型產生指示目標患者中樞正常或異常的分類結果。

Description

利用深度學習分析眼振感測資料的方法及眼振感測分析系統
本發明是有關於一種分析方法,特別是指一種利用深度學習分析眼振感測資料的方法。本發明還有關於一種眼振感測分析系統。
急性眩暈至醫院急診就診的人數眾多,其病因可能是輕微的周邊型迷路失衡,也可能是需緊急處置的中樞型病變,如中風。病患求診時常伴隨噁心,嘔吐及全身不適等急性症狀,急診一線醫師不易由病史或理學檢查來判斷其病灶之來源為周邊型迷路失衡還是中樞型病變。若是將需緊急處置的中樞型病變誤診為周邊型迷路失衡,將延誤患者的治療時機;反之,若是將周邊型迷路失衡誤診為需緊急處置的中樞型病變,將造成無謂的影像醫療(如MRI)資源浪費。
如何發展出一種利用深度學習分析眼振感測資料的方法,能從患者的眼振感測資料估測患者是否中樞異常,以增進對急性眩暈病患之檢傷分類的精準度,是本發明進一步要探討的主題。
因此,本發明的目的,即在提供一種利用深度學習分析眼振感測資料的方法。
於是,本發明利用深度學習分析眼振感測資料的方法,藉由一眼振感測分析系統實施,該眼振感測分析系統包含一眼振感測裝置、一輸入單元及一處理單元,該方法包含下列步驟。
該眼振感測裝置對多位參考患者誘導及感測,其中,對於每一參考患者,該眼振感測裝置執行多個誘導感測模式以產生多個對應於該參考患者且分別對應於該等誘導感測模式的參考眼振感測資料,於每一誘導感測模式,該眼振感測裝置根據一對應於該誘導感測模式的誘導模板資料播放一誘導影像並同時感測該參考患者的眼球隨時間移動的軌跡以產生該參考眼振感測資料。
對於每一個誘導模板資料,該處理單元自該誘導模板資料擷取出對應於該誘導模板資料所對應的該誘導感測模式的多個取樣誘導模板資料。
對於每一個參考眼振感測資料,該處理單元自該參考眼振感測資料擷取出多個取樣參考眼振感測資料,該等取樣參考眼振感測資料分別對應於該參考眼振感測資料所對應的該誘導感測模式所對應的該等取樣誘導模板資料,且對應於該參考眼振感測資料所對應的該參考患者。
該處理單元經由該輸入單元接收分別對應於該等參考患者的多個標註資料,每一標註資料指示出對應的該參考患者中樞正常或中樞異常。
該處理單元使用對應於該等參考患者的該等取樣參考眼振感測資料、該等取樣誘導模板資料及該等標註資料,以對比式學習,訓練一神經網絡模型以產生一第一分析模型,其中,對於每一取樣參考眼振感測資料,該處理單元使用該取樣參考眼振感測資料、對應的該取樣誘導模板資料及對應的該參考患者所對應的該標註資料,訓練該神經網絡模型。
對於每一取樣參考眼振感測資料,該處理單元根據該取樣參考眼振感測資料及對應的該取樣誘導模板資料,使用該第一分析模型,產生一參考中樞異常機率,該參考中樞異常機率對應於該取樣參考眼振感測資料所對應的該參考患者,且對應於該取樣誘導模板資料所對應的該誘導感測模式。
對於每一參考患者及每一誘導感測模式,該處理單元根據對應於該參考患者及該誘導感測模式的該等參考中樞異常機率,產生一對應於該參考患者的參考中樞異常機率統計數值。
該處理單元根據對應於該等參考患者的該等參考中樞異常機率統計數值及該等標註資料,使用一分類演算法,訓練一分類模型以產生一第二分析模型,其中,對於每一參考患者,該處理單元使用對應於該參考患者的該等參考中樞異常機率統計數值及該標註資料,訓練該分類模型。
該眼振感測裝置對一目標患者誘導及感測,其中,該眼振感測裝置執行該等誘導感測模式以產生多個對應於該目標患者且分別對應於該等誘導感測模式的待分析眼振感測資料,於每一誘導感測模式,該眼振感測裝置根據對應於該誘導感測模式的該誘導模板資料播放該誘導影像並同時感測該目標患者的眼球隨時間移動的軌跡以產生該待分析眼振感測資料。
對於每一個待分析眼振感測資料,該處理單元自該待分析眼振感測資料擷取出多個取樣待分析眼振感測資料,該等取樣參考眼振感測資料分別對應於該參考眼振感測資料所對應的該誘導感測模式所對應的該等取樣誘導模板資料。
對於每一取樣待分析眼振感測資料,該處理單元根據該取樣待分析眼振感測資料及對應的該取樣誘導模板資料,使用該第一分析模型,產生一待分析中樞異常機率,該待分析中樞異常機率對應於該目標患者,且對應於該取樣誘導模板資料所對應的該誘導感測模式。
對於每一誘導感測模式,該處理單元根據對應於該目標患者及該誘導感測模式的該等待分析中樞異常機率,產生一對應於該目標患者的待分析中樞異常機率統計數值。
該處理單元根據該等待分析中樞異常機率統計數值,使用該第二分析模型,產生一指示該目標患者中樞正常或異常的分類結果。
在一些實施態樣中,該處理單元擷取出該等取樣誘導模板資料及該等取樣參考眼振感測資料的取樣時間部分重疊。
在一些實施態樣中,該分類演算法為最近鄰居法。
在一些實施態樣中,該神經網絡模型為孿生網絡。
在一些實施態樣中,對於每一參考患者及每一誘導感測模式,該處理單元是計算對應於該參考患者及該誘導感測模式的該等參考中樞異常機率的平均值以產生對應於該參考患者的該參考中樞異常機率統計數值。
對於每一誘導感測模式,該處理單元是計算對應於該目標患者及該誘導感測模式的該等待分析中樞異常機率的平均值以產生對應於該目標患者的該待分析中樞異常機率統計數值。
本發明眼振感測分析系統,包含一眼振感測裝置、一輸入單元及一處理單元。該處理單元電連接於該眼振感測裝置及該輸入單元。所述的眼振感測分析系統執行前述利用深度學習分析眼振感測資料的方法的步驟。
本發明的功效在於:藉由該處理單元使用對應於該等參考患者的該等取樣參考眼振感測資料、該等取樣誘導模板資料及該等標註資料以對比式學習訓練該神經網絡模型以產生該第一分析模型,並藉由該處理單元根據對應於該等參考患者的該等參考中樞異常機率統計數值及該等標註資料使用該分類演算法訓練該分類模型以產生該第二分析模型,以供該處理單元透過該第一分析模型及該第二分析模型分析該目標患者的該待分析眼振感測資料而產生指示該目標患者中樞正常或異常的分類結果,從而增進對急性眩暈病患之檢傷分類的精準度。
在本發明被詳細描述之前,應當注意在以下的說明內容中,類似的元件是以相同的編號來表示。
參閱圖1,本發明利用深度學習分析眼振感測資料的方法的一實施例,藉由一眼振感測分析系統100實施,該眼振感測分析系統100包含一眼振感測裝置1、一輸入單元2及一處理單元3。
該眼振感測裝置1在本實施例中是以Frenzel goggle實施,但不以此為限。
該處理單元3電連接於該眼振感測裝置1及該輸入單元2,且可包含(但不限於)一單核處理器、一個多核處理器、一個雙核手機處理器、一微處理器、一微控制器、一數位訊號處理器(DSP)、一現場可程式邏輯閘陣列(FPGA)、一特殊應用積體電路(ASIC)及一射頻積體電路(RFIC)其中至少一者。
參閱圖1及圖2(包含圖2A及圖2B),以下說明本發明利用深度學習分析眼振感測資料的方法當中關於一模型訓練程序的步驟。首先,如步驟S01所示,該眼振感測裝置1對多位參考患者誘導及感測,其中,對於每一參考患者,該眼振感測裝置1執行多個誘導感測模式以產生多個對應於該參考患者且分別對應於該等誘導感測模式的參考眼振感測資料,於每一誘導感測模式,該眼振感測裝置1根據一對應於該誘導感測模式的誘導模板資料播放一誘導影像並同時感測該參考患者的眼球隨時間移動的軌跡以產生該參考眼振感測資料。
該等參考患者為眩暈疾病患者,且經MRI檢查後,部分參考患者中樞正常,部分參考患者中樞異常。
該等誘導感測模式分別為水平追瞄(Pursuit)模式、直立追瞄模式、水平跳視(Saccade)模式、直立跳視模式、水平凝視(Gaze)模式及直立凝視模式。
接著,如步驟S02所示,對於每一個誘導模板資料,該處理單元3自該誘導模板資料擷取出對應於該誘導模板資料所對應的該誘導感測模式的多個取樣誘導模板資料。
在本實施例中,該處理單元3擷取出該等取樣誘導模板資料的取樣時間部分重疊。更具體的說,該處理單元3排除該誘導模板資料前5秒之內容,每一被擷取出的取樣誘導模板資料的取樣時間長度為32秒,且取樣時間的起始時間與前一個取樣誘導模板資料的取樣時間的起始時間相差4秒,舉例來說,第1個取樣誘導模板資料的取樣時間為5~37秒,第2個取樣誘導模板資料的取樣時間為9~41秒。
在另一實施態樣中,該處理單元3擷取出該等取樣誘導模板資料的取樣時間不重疊。更具體的說,該處理單元3排除該誘導模板資料前5秒之內容,每一被擷取出的取樣誘導模板資料的取樣時間長度為32秒,且取樣時間的起始時間為前一個取樣誘導模板資料的取樣時間的結束時間,舉例來說,第1個取樣誘導模板資料的取樣時間為5~37秒,第2個取樣誘導模板資料的取樣時間為37~69秒。
接著,如步驟S03所示,對於每一個參考眼振感測資料,該處理單元3自該參考眼振感測資料擷取出多個取樣參考眼振感測資料,該等取樣參考眼振感測資料分別對應於該參考眼振感測資料所對應的該誘導感測模式所對應的該等取樣誘導模板資料,且對應於該參考眼振感測資料所對應的該參考患者。
在本實施例中,該處理單元3擷取出該等取樣參考眼振感測資料的取樣時間部分重疊。該處理單元3擷取出該等取樣參考眼振感測資料的具體方式與擷取出該等取樣誘導模板資料相同,在此不予贅述。
在另一實施態樣中,該處理單元3擷取出該等取樣參考眼振感測資料的取樣時間不重疊。
接著,如步驟S04所示,該處理單元3經由該輸入單元2接收分別對應於該等參考患者的多個標註資料,每一標註資料指示出對應的該參考患者中樞正常或中樞異常。在本實施例中,該等標註資料來自該等參考患者的MRI檢查報告。
接著,如步驟S05所示並配合參閱圖3,該處理單元3使用對應於該等參考患者的該等取樣參考眼振感測資料、該等取樣誘導模板資料及該等標註資料,以對比式學習(Contrastive learning),訓練一神經網絡模型以產生一第一分析模型,其中,對於每一取樣參考眼振感測資料,該處理單元3使用該取樣參考眼振感測資料、對應的該取樣誘導模板資料及對應的該參考患者所對應的該標註資料,訓練該神經網絡模型。
在本實施例中,該神經網絡模型為孿生網絡(Siamese Net),而包含兩個相同的子網絡,子網絡可以是CNN(Convolutional Neural Network),也可以是LSTM(Long Short-Term Memory)。
接著,如步驟S06所示,對於每一取樣參考眼振感測資料,該處理單元3根據該取樣參考眼振感測資料及對應的該取樣誘導模板資料,使用該第一分析模型,產生一參考中樞異常機率,該參考中樞異常機率對應於該取樣參考眼振感測資料所對應的該參考患者,且對應於該取樣誘導模板資料所對應的該誘導感測模式。該參考中樞異常機率越接近100%代表越可能是中樞異常,越接近0%代表越可能是中樞正常。
接著,如步驟S07所示,對於每一參考患者及每一誘導感測模式,該處理單元3根據對應於該參考患者及該誘導感測模式的該等參考中樞異常機率,產生一對應於該參考患者的參考中樞異常機率統計數值。
在本實施例中,對於每一參考患者及每一誘導感測模式,該處理單元3是計算對應於該參考患者及該誘導感測模式的該等參考中樞異常機率的平均值以產生對應於該參考患者的該參考中樞異常機率統計數值。
接著,如步驟S08所示,該處理單元3根據對應於該等參考患者的該等參考中樞異常機率統計數值及該等標註資料,使用一分類演算法,訓練一分類模型以產生一第二分析模型,其中,對於每一參考患者,該處理單元3使用對應於該參考患者的該等參考中樞異常機率統計數值及該標註資料,訓練該分類模型。
在本實施例中,該分類演算法為最近鄰居法(k-nearest neighbors algorithm,也稱為K-近鄰演算法)。可搭配使用k折交叉驗證(5-fold cross validation)避免模型過擬合。
參閱圖1及圖4,以下說明本發明利用深度學習分析眼振感測資料的方法當中關於一資料分析程序的步驟。首先,如步驟S11所示,該眼振感測裝置1對一目標患者誘導及感測,其中,該眼振感測裝置1執行該等誘導感測模式以產生多個對應於該目標患者且分別對應於該等誘導感測模式的待分析眼振感測資料,於每一誘導感測模式,該眼振感測裝置1根據對應於該誘導感測模式的該誘導模板資料播放該誘導影像並同時感測該目標患者的眼球隨時間移動的軌跡以產生該待分析眼振感測資料。
接著,如步驟S12所示,對於每一個待分析眼振感測資料,該處理單元3自該待分析眼振感測資料擷取出多個取樣待分析眼振感測資料,該等取樣參考眼振感測資料分別對應於該參考眼振感測資料所對應的該誘導感測模式所對應的該等取樣誘導模板資料。
接著,如步驟S13所示,對於每一取樣待分析眼振感測資料,該處理單元3根據該取樣待分析眼振感測資料及對應的該取樣誘導模板資料,使用該第一分析模型,產生一待分析中樞異常機率,該待分析中樞異常機率對應於該目標患者,且對應於該取樣誘導模板資料所對應的該誘導感測模式。
接著,如步驟S14所示,對於每一誘導感測模式,該處理單元3根據對應於該目標患者及該誘導感測模式的該等待分析中樞異常機率,產生一對應於該目標患者的待分析中樞異常機率統計數值。
在本實施例中,對於每一誘導感測模式,該處理單元3是計算對應於該目標患者及該誘導感測模式的該等待分析中樞異常機率的平均值以產生對應於該目標患者的該待分析中樞異常機率統計數值。
最後,如步驟S15所示,該處理單元3根據該等待分析中樞異常機率統計數值,使用該第二分析模型,產生一指示該目標患者中樞正常或異常的分類結果。
綜上所述,本發明利用深度學習分析眼振感測資料的方法藉由該處理單元3使用對應於該等參考患者的該等取樣參考眼振感測資料、該等取樣誘導模板資料及該等標註資料以對比式學習訓練該神經網絡模型以產生該第一分析模型,並藉由該處理單元3根據對應於該等參考患者的該等參考中樞異常機率統計數值及該等標註資料使用該分類演算法訓練該分類模型以產生該第二分析模型,以供該處理單元3透過該第一分析模型及該第二分析模型分析該目標患者的該待分析眼振感測資料而產生指示該目標患者中樞正常或異常的分類結果,從而增進對急性眩暈病患之檢傷分類的精準度,故確實能達成本發明的目的。
惟以上所述者,僅為本發明的實施例而已,當不能以此限定本發明實施的範圍,凡是依本發明申請專利範圍及專利說明書內容所作的簡單的等效變化與修飾,皆仍屬本發明專利涵蓋的範圍內。
100:眼振感測分析系統 1:眼振感測裝置 2:輸入單元 3:處理單元 S01~S08:步驟 S11~S15:步驟
本發明的其他的特徵及功效,將於參照圖式的實施方式中清楚地呈現,其中: 圖1是本發明利用深度學習分析眼振感測資料的方法的一個實施例的一硬體連接關係示意圖; 圖2(包含圖2A及圖2B)是該實施例的一流程圖,說明一模型訓練程序; 圖3是該實施例的一網絡架構圖;及 圖4是該實施例的另一流程圖,說明一資料分析程序。
S01~S08:步驟

Claims (10)

  1. 一種利用深度學習分析眼振感測資料的方法,藉由一眼振感測分析系統實施,該眼振感測分析系統包含一眼振感測裝置、一輸入單元及一處理單元,該方法包含: 該眼振感測裝置對多位參考患者誘導及感測,其中,對於每一參考患者,該眼振感測裝置執行多個誘導感測模式以產生多個對應於該參考患者且分別對應於該等誘導感測模式的參考眼振感測資料,於每一誘導感測模式,該眼振感測裝置根據一對應於該誘導感測模式的誘導模板資料播放一誘導影像並同時感測該參考患者的眼球隨時間移動的軌跡以產生該參考眼振感測資料; 對於每一個誘導模板資料,該處理單元自該誘導模板資料擷取出對應於該誘導模板資料所對應的該誘導感測模式的多個取樣誘導模板資料; 對於每一個參考眼振感測資料,該處理單元自該參考眼振感測資料擷取出多個取樣參考眼振感測資料,該等取樣參考眼振感測資料分別對應於該參考眼振感測資料所對應的該誘導感測模式所對應的該等取樣誘導模板資料,且對應於該參考眼振感測資料所對應的該參考患者; 該處理單元經由該輸入單元接收分別對應於該等參考患者的多個標註資料,每一標註資料指示出對應的該參考患者中樞正常或中樞異常; 該處理單元使用對應於該等參考患者的該等取樣參考眼振感測資料、該等取樣誘導模板資料及該等標註資料,以對比式學習,訓練一神經網絡模型以產生一第一分析模型,其中,對於每一取樣參考眼振感測資料,該處理單元使用該取樣參考眼振感測資料、對應的該取樣誘導模板資料及對應的該參考患者所對應的該標註資料,訓練該神經網絡模型; 對於每一取樣參考眼振感測資料,該處理單元根據該取樣參考眼振感測資料及對應的該取樣誘導模板資料,使用該第一分析模型,產生一參考中樞異常機率,該參考中樞異常機率對應於該取樣參考眼振感測資料所對應的該參考患者,且對應於該取樣誘導模板資料所對應的該誘導感測模式; 對於每一參考患者及每一誘導感測模式,該處理單元根據對應於該參考患者及該誘導感測模式的該等參考中樞異常機率,產生一對應於該參考患者的參考中樞異常機率統計數值; 該處理單元根據對應於該等參考患者的該等參考中樞異常機率統計數值及該等標註資料,使用一分類演算法,訓練一分類模型以產生一第二分析模型,其中,對於每一參考患者,該處理單元使用對應於該參考患者的該等參考中樞異常機率統計數值及該標註資料,訓練該分類模型; 該眼振感測裝置對一目標患者誘導及感測,其中,該眼振感測裝置執行該等誘導感測模式以產生多個對應於該目標患者且分別對應於該等誘導感測模式的待分析眼振感測資料,於每一誘導感測模式,該眼振感測裝置根據對應於該誘導感測模式的該誘導模板資料播放該誘導影像並同時感測該目標患者的眼球隨時間移動的軌跡以產生該待分析眼振感測資料; 對於每一個待分析眼振感測資料,該處理單元自該待分析眼振感測資料擷取出多個取樣待分析眼振感測資料,該等取樣參考眼振感測資料分別對應於該參考眼振感測資料所對應的該誘導感測模式所對應的該等取樣誘導模板資料; 對於每一取樣待分析眼振感測資料,該處理單元根據該取樣待分析眼振感測資料及對應的該取樣誘導模板資料,使用該第一分析模型,產生一待分析中樞異常機率,該待分析中樞異常機率對應於該目標患者,且對應於該取樣誘導模板資料所對應的該誘導感測模式; 對於每一誘導感測模式,該處理單元根據對應於該目標患者及該誘導感測模式的該等待分析中樞異常機率,產生一對應於該目標患者的待分析中樞異常機率統計數值;及 該處理單元根據該等待分析中樞異常機率統計數值,使用該第二分析模型,產生一指示該目標患者中樞正常或異常的分類結果。
  2. 如請求項1所述的利用深度學習分析眼振感測資料的方法,其中,該處理單元擷取出該等取樣誘導模板資料及該等取樣參考眼振感測資料的取樣時間部分重疊。
  3. 如請求項1所述的利用深度學習分析眼振感測資料的方法,其中,該分類演算法為最近鄰居法。
  4. 如請求項1所述的利用深度學習分析眼振感測資料的方法,其中,該神經網絡模型為孿生網絡。
  5. 如請求項1所述的利用深度學習分析眼振感測資料的方法,其中,對於每一參考患者及每一誘導感測模式,該處理單元是計算對應於該參考患者及該誘導感測模式的該等參考中樞異常機率的平均值以產生對應於該參考患者的該參考中樞異常機率統計數值; 對於每一誘導感測模式,該處理單元是計算對應於該目標患者及該誘導感測模式的該等待分析中樞異常機率的平均值以產生對應於該目標患者的該待分析中樞異常機率統計數值。
  6. 一種眼振感測分析系統,包含: 一眼振感測裝置; 一輸入單元;及 一處理單元,電連接於該眼振感測裝置及該輸入單元; 該眼振感測裝置對多位參考患者誘導及感測,其中,對於每一參考患者,該眼振感測裝置執行多個誘導感測模式以產生多個對應於該參考患者且分別對應於該等誘導感測模式的參考眼振感測資料,於每一誘導感測模式,該眼振感測裝置根據一對應於該誘導感測模式的誘導模板資料播放一誘導影像並同時感測該參考患者的眼球隨時間移動的軌跡以產生該參考眼振感測資料; 對於每一個誘導模板資料,該處理單元自該誘導模板資料擷取出對應於該誘導模板資料所對應的該誘導感測模式的多個取樣誘導模板資料; 對於每一個參考眼振感測資料,該處理單元自該參考眼振感測資料擷取出多個取樣參考眼振感測資料,該等取樣參考眼振感測資料分別對應於該參考眼振感測資料所對應的該誘導感測模式所對應的該等取樣誘導模板資料,且對應於該參考眼振感測資料所對應的該參考患者; 該處理單元經由該輸入單元接收分別對應於該等參考患者的多個標註資料,每一標註資料指示出對應的該參考患者中樞正常或中樞異常; 該處理單元使用對應於該等參考患者的該等取樣參考眼振感測資料、該等取樣誘導模板資料及該等標註資料,以對比式學習,訓練一神經網絡模型以產生一第一分析模型,其中,對於每一取樣參考眼振感測資料,該處理單元使用該取樣參考眼振感測資料、對應的該取樣誘導模板資料及對應的該參考患者所對應的該標註資料,訓練該神經網絡模型; 對於每一取樣參考眼振感測資料,該處理單元根據該取樣參考眼振感測資料及對應的該取樣誘導模板資料,使用該第一分析模型,產生一參考中樞異常機率,該參考中樞異常機率對應於該取樣參考眼振感測資料所對應的該參考患者,且對應於該取樣誘導模板資料所對應的該誘導感測模式; 對於每一參考患者及每一誘導感測模式,該處理單元根據對應於該參考患者及該誘導感測模式的該等參考中樞異常機率,產生一對應於該參考患者的參考中樞異常機率統計數值; 該處理單元根據對應於該等參考患者的該等參考中樞異常機率統計數值及該等標註資料,使用一分類演算法,訓練一分類模型以產生一第二分析模型,其中,對於每一參考患者,該處理單元使用對應於該參考患者的該等參考中樞異常機率統計數值及該標註資料,訓練該分類模型; 該眼振感測裝置對一目標患者誘導及感測,其中,該眼振感測裝置執行該等誘導感測模式以產生多個對應於該目標患者且分別對應於該等誘導感測模式的待分析眼振感測資料,於每一誘導感測模式,該眼振感測裝置根據對應於該誘導感測模式的該誘導模板資料播放該誘導影像並同時感測該目標患者的眼球隨時間移動的軌跡以產生該待分析眼振感測資料; 對於每一個待分析眼振感測資料,該處理單元自該待分析眼振感測資料擷取出多個取樣待分析眼振感測資料,該等取樣參考眼振感測資料分別對應於該參考眼振感測資料所對應的該誘導感測模式所對應的該等取樣誘導模板資料; 對於每一取樣待分析眼振感測資料,該處理單元根據該取樣待分析眼振感測資料及對應的該取樣誘導模板資料,使用該第一分析模型,產生一待分析中樞異常機率,該待分析中樞異常機率對應於該目標患者,且對應於該取樣誘導模板資料所對應的該誘導感測模式; 對於每一誘導感測模式,該處理單元根據對應於該目標患者及該誘導感測模式的該等待分析中樞異常機率,產生一對應於該目標患者的待分析中樞異常機率統計數值; 該處理單元根據該等待分析中樞異常機率統計數值,使用該第二分析模型,產生一指示該目標患者中樞正常或異常的分類結果。
  7. 如請求項6所述的眼振感測分析系統,其中,該處理單元擷取出該等取樣誘導模板資料及該等取樣參考眼振感測資料的取樣時間部分重疊。
  8. 如請求項6所述的眼振感測分析系統,其中,該分類演算法為最近鄰居法。
  9. 如請求項6所述的眼振感測分析系統,其中,該神經網絡模型為孿生網絡。
  10. 如請求項6所述的眼振感測分析系統,其中,對於每一參考患者及每一誘導感測模式,該處理單元是計算對應於該參考患者及該誘導感測模式的該等參考中樞異常機率的平均值以產生對應於該參考患者的該參考中樞異常機率統計數值; 對於每一誘導感測模式,該處理單元是計算對應於該目標患者及該誘導感測模式的該等待分析中樞異常機率的平均值以產生對應於該目標患者的該待分析中樞異常機率統計數值。
TW110106638A 2021-02-25 2021-02-25 利用深度學習分析眼振感測資料的方法及眼振感測分析系統 TWI746381B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
TW110106638A TWI746381B (zh) 2021-02-25 2021-02-25 利用深度學習分析眼振感測資料的方法及眼振感測分析系統

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW110106638A TWI746381B (zh) 2021-02-25 2021-02-25 利用深度學習分析眼振感測資料的方法及眼振感測分析系統

Publications (2)

Publication Number Publication Date
TWI746381B true TWI746381B (zh) 2021-11-11
TW202234419A TW202234419A (zh) 2022-09-01

Family

ID=79907622

Family Applications (1)

Application Number Title Priority Date Filing Date
TW110106638A TWI746381B (zh) 2021-02-25 2021-02-25 利用深度學習分析眼振感測資料的方法及眼振感測分析系統

Country Status (1)

Country Link
TW (1) TWI746381B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105228508A (zh) * 2013-03-08 2016-01-06 新加坡健康服务有限公司 一种测定用于分类的危险评分的系统和方法
CN106934253A (zh) * 2011-06-10 2017-07-07 菲利普莫里斯生产公司 用于基于网络的生物活动评价的系统和方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106934253A (zh) * 2011-06-10 2017-07-07 菲利普莫里斯生产公司 用于基于网络的生物活动评价的系统和方法
CN106940758A (zh) * 2011-06-10 2017-07-11 菲利普莫里斯生产公司 用于量化生物扰动的影响的系统和方法
CN105228508A (zh) * 2013-03-08 2016-01-06 新加坡健康服务有限公司 一种测定用于分类的危险评分的系统和方法

Also Published As

Publication number Publication date
TW202234419A (zh) 2022-09-01

Similar Documents

Publication Publication Date Title
Rohmetra et al. AI-enabled remote monitoring of vital signs for COVID-19: methods, prospects and challenges
US20170147777A1 (en) Method and apparatus for predicting health data value through generation of health data pattern
Chauhan et al. Comparative analysis of machine learning algorithms for prediction of pcos
JP2019523027A (ja) 記憶及び機能の衰えの記録及び分析のための装置及び方法
US20230230232A1 (en) Machine Learning for Detection of Diseases from External Anterior Eye Images
US20220245812A1 (en) Platform to detect patient health condition based on images of physiological activity of a patient
Mesin et al. Investigation of nonlinear pupil dynamics by recurrence quantification analysis
Sun et al. Contactless facial video recording with deep learning models for the detection of atrial fibrillation
Palermo et al. Sensitivity and specificity of handheld fundus cameras for eye disease: a systematic review and pooled analysis
WO2018053521A1 (en) Stroke detection and prevention system and method
Franco et al. Glaucoma patient screening from online retinal fundus images via Artificial Intelligence
Al Turk et al. Evidence based prediction and progression monitoring on retinal images from three nations
Wellons et al. Estimating the minimal clinically important difference for balance and gait outcome measures in individuals with vestibular disorders
TWI746381B (zh) 利用深度學習分析眼振感測資料的方法及眼振感測分析系統
Gairola et al. Keratoconus classifier for smartphone-based corneal topographer
Kumar et al. Prediction and comparison of psychological health during COVID-19 among Indian population and Rajyoga meditators using machine learning algorithms
Khalaf et al. Ophthalmic Diseases Classification Based on YOLOv8
US20240008765A1 (en) Establishing method of sleep apnea assessment program, sleep apnea assessment system, and sleep apnea assessment method
Hajder et al. Architecture and organization of a Platform for diagnostics, therapy and post-covid complications using AI and mobile monitoring
US20240203542A1 (en) Self-sampling management electronic device, self-sampling management method, and computer readable medium storing program to perform the method
Sarker et al. Analysis of smooth pursuit assessment in virtual reality and concussion detection using bilstm
Paraschiv et al. Underpinning Improved Outcomes through Preventative Patient Care Models Based on Remote Monitoring and AI
Irshad et al. Intelligent healthcare provided by nano-enhanced biosensing systems: Progress in COVID-19 management via the artificial neural network approach
Kaviya et al. INTELLIGENT WEARABLE DEVICE FOR EARLY DETECTION OF MYOCARDIAL INFARCTION USING IoT
US11935650B2 (en) Method for fusing sensor data for cardiac monitoring and devices thereof