TWI727237B - 神經網路模型融合方法及應用其之電子裝置 - Google Patents
神經網路模型融合方法及應用其之電子裝置 Download PDFInfo
- Publication number
- TWI727237B TWI727237B TW107145180A TW107145180A TWI727237B TW I727237 B TWI727237 B TW I727237B TW 107145180 A TW107145180 A TW 107145180A TW 107145180 A TW107145180 A TW 107145180A TW I727237 B TWI727237 B TW I727237B
- Authority
- TW
- Taiwan
- Prior art keywords
- model
- neural network
- probability matrix
- matrix
- fusion method
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/032—Recognition of patterns in medical or anatomical images of protuberances, polyps nodules, etc.
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
一種神經網路模型融合方法及應用其之電子裝置。神經網路模型融合方法包括以下步驟。接收一影像。透過數個神經網路模型,對影像進行分析。此些神經網路模型包含一程度分級模型、一多分類辨識模型及一物件偵測模型之至少其中之二。依據此些神經網路模型獲得數個分析結果,轉換此些分析結果為數筆轉換資料。將此些轉換資料輸入一融合模型,以獲得一融合結果。
Description
本揭露是有關於一種神經網路模型融合方法及應用其之電子裝置。
影像辨識技術的應用層面相當廣泛,尤其在醫療影像之病徵判讀、資訊安全控管、犯罪偵查等應用,更是需要高精準度的影像辨識技術。
以醫療影像之病徵判讀為例,目前僅採用嚴重程度分級模型來進行醫療影像的判讀,常常無法獲得足夠高的準確度。如果能夠提提高影像辨識技術的精準度,對於病患將會產生相當大的貢獻。因此,醫學界與工程界研究人員均致力此方面的研究。
本揭露係有關於一種神經網路模型融合方法及應用其之電子裝置。
根據本揭露之一實施例,提出一種神經網路模型融合方法。神經網路模型融合方法包括以下步驟。接收一影像。透過數個神經網路模型,對影像進行分析。此些神經網路模型包含一程度分級模型、一多分類辨識模型及一物件偵測模型之至少其中之二。依據此些神經網路模型獲得數個分析結果。轉換此些分析結果為數筆轉換資料。將此些轉換資料輸入一融合模型,以獲得一融合結果。
根據本揭露之另一實施例,提出一種電子裝置。電子裝置包括一處理器。處理器用以執行一神經網路模型融合方法。神經網路模型融合方法包括以下步驟。接收一影像。透過數個神經網路模型,對影像進行分析。此些神經網路模型包含一程度分級模型、一多分類辨識模型及一物件偵測模型之至少其中之二。依據此些神經網路模型獲得數個分析結果。轉換此些分析結果為數筆轉換資料。將此些轉換資料輸入一融合模型,以獲得一融合結果。
為了對本揭露之上述及其他方面有更佳的瞭解,下文特舉實施例,並配合所附圖式詳細說明如下:
100:電子裝置
110:傳輸介面
120:處理器
121:推論模組
122:決定模組
130:儲存裝置
AR:分析結果
B0:影像區塊
L:病徵
L0、L1、L2、L3、L4:程度
H:出血
HE:硬滲出物
MA:微血管瘤
MD1:程度分級模型
MD2:多分類辨識模型
MD3:物件偵測模型
ML:融合模型
MX11:分配機率矩陣
MX12:加權機率矩陣
MX21:個別機率矩陣
MX22:分配機率矩陣
MX31:個別範圍描述矩陣
MX32:全體物件範圍描述矩陣
NEO:新生血管
P0、P10、P11、P12、P13、P14:影像
RS1、RS2、RS3、RS4:融合結果
SE:軟滲出物
S110、S120、S130、S140、S141、S142、S143、S150、S160、S170:步驟
TD:轉換資料
第1圖繪示根據一實施例之神經網路模型融合方法的實施架構。
第2A~2E圖示例說明分配機率矩陣。
第3A~3E圖示例說明個別機率矩陣。
第4A~4D圖示例說明個別範圍描述矩陣。
第5圖繪示根據一實施例之神經網路模型融合方法的流程圖。
第6圖繪示根據一實施例之電子裝置的示意圖。
第7圖繪示根據另一實施例之神經網路模型融合方法的實施架構。
第8圖繪示根據另一實施例之神經網路模型融合方法的實施架構。
第9圖繪示根據另一實施例之神經網路模型融合方法的實施架構。
以下揭露各種實施例之神經網路模型融合方法,其透過機器學習之方式融合不同任務標的之神經網路模型,例如程度分級模型(例如用以分析病變嚴重程度分級結果)、多分類辨識模型(例如用以分析病徵種類等多病徵辨識結果)或物件偵測模型(例如用以分析病徵範圍等病徵偵測結果),使得影像辨識的效能能夠有效提升。尤其是在醫療影像之判讀上,本揭露之神經網路模型融合方法能夠有效提升病變嚴重程度的分級以及病徵判讀的準確性。
請參照第1圖,其繪示根據一實施例之神經網路模型融合方法的實施架構。影像P0經過切割程序(crop)後,切割成數個影像區塊B0。影像P0例如是醫療影像、人臉影像、監視器影像等,本發明不以此為限。三個神經網路模型包括程度分級模型MD1、多分類辨識模型MD2、及物件偵測模型MD3。程度分級模型MD1、多分類辨識模型MD2、及物件偵測模型MD3對影像區塊B0進行分析獲得分析結果AR(例如分別是病變嚴重程度分級結果、多病徵辨識結果、及病徵偵測結果),並轉換為轉換資料TD後,透過機器學習的融合模型ML獲得融合結果RS1。
詳細來說,程度分級模型MD1分析影像P0之影像區塊B0所獲得之分析結果AR係為數個程度L0~L4之一分配機率矩陣MX11,本發明不以此為限。舉例來說,請參照第2A~2E圖及表一,第2A~2E圖示例說明分配機率矩陣MX11,表一整理影像P10~P14之分配機率矩陣MX11。程度L0~L4之數量並非用以侷限本揭露之範圍。程度L0~L4所考慮之因素可以不僅僅是病徵之數量,亦有可能包含病徵之大小、病徵之類型、病徵分散程度、病徵之顏色等等,本發明不以此為限。程度L0~L4所對應之數值為其分配機率值,其總和為1。分配機率矩陣MX11之元素的數值越高者,代表越有可能被歸類為該程度。分配機率矩陣MX11之元素中的最大值所對應之程度,即代表歸類後的程度。
如第2A圖所示,沒有病徵L之影像P10的分配機率矩陣MX11為[L0,L1,L2,L3,L4]=[0.9,0.1,0.0,0.0,0.0],程度L0的機率最高,而被歸類為程度L0。
如第2B圖所示,含有1個病徵L之影像P11的分配機率矩陣MX11為[L0,L1,L2,L3,L4]=[0.1,0.8,0.1,0.0,0.0],程度L1的機率最高,而被歸類為程度L1。
如第2C圖所示,含有2個病徵L之影像P12的分配機率矩陣MX11為[L0,L1,L2,L3,L4]=[0.0,0.1,0.8,0.1,0.0],程度L2的機率最高,而被歸類為程度L2。
如第2D圖所示,含有3個病徵L之影像P13的分配機率矩陣MX11為[L0,L1,L2,L3,L4]=[0.0,0.0,0.1,0.8,0.1],程度L3的機率最高,而被歸類為程度L3。
如第2E圖所示,含有5個病徵L之影像P14的分配機率矩陣MX11為[L0,L1,L2,L3,L4]=[0.0,0.0,0.0,0.1,0.9],程度L4的機率最高,而被歸類為程度L4。
如第1圖所示,多分類辨識模型MD2分析影像P0之影像區塊B0所獲得之分析結果AR係為微血管瘤MA、出血H、硬滲出物HE、軟滲出物SE及新生血管NEO之至少一個別機率矩陣MX21,本發明不以此為限。
舉例來說,請參照第3A~3E圖及表二,第3A~3E圖示例說明個別機率矩陣MX21,表二整理影像P10~P14之個別機率矩陣MX21。在個別機率矩陣MX21中,微血管瘤MA、出血H、硬滲出物HE、軟滲出物SE及新生血管NEO所對應之數值為其個別機率值,各個個別機率值為0.0~1.0之數值。個別機率值越高者,代表越有可能含有該病徵。
如第3A圖所示,沒有任何病徵之影像P10的個別機率矩陣MX21為[MA,H,HE,SE,NEO]=[0.0,0.0,0.0,0.0,0.0]。
如第3B圖所示,含有微血管瘤MA之影像P11的個別機率矩陣MX21為[MA,H,HE,SE,NEO]=[0.8,0.0,0.0,0.0,0.0]。
如第3C圖所示,含有微血管瘤MA及出血H之影像P12的個別機率矩陣MX21為[MA,H,HE,SE,NEO]=[0.8,0.9,0.0,0.0,0.0]。
如第3D圖所示,含有微血管瘤MA、出血H及硬滲出物HE之影像P13的個別機率矩陣MX21為[MA,H,HE,SE,NEO]=[0.8,0.9,0.8,0.0,0.0]。
如第3E圖所示,含有微血管瘤MA、出血H、硬滲出物HE、軟滲出物SE及新生血管NEO之影像P14的個別機率矩陣MX21為[MA,H,HE,SE,NEO]=[0.8,0.9,0.8,0.8,0.8]。
如第1圖所示,物件偵測模型MD3分析影像P0之影像區塊B0所獲得之分析結果AR係為微血管瘤MA、出血H、硬滲出物HE、軟滲出物SE及新生血管NEO之影像P14等物件之個別範圍描述矩陣MX31。舉例來說,請參照第4A~4D圖及表三,第4A~4D圖示例說明個別範圍描述矩陣MX31,表三整理影像P11~P14之個別範圍描述矩陣MX31。個別範圍描述矩陣MX31中,LC為病徵類型、X為範圍起點橫軸座標、Y為範圍起點縱軸座標、W為範圍寬度、H為範圍高度,C為信心度,本發明不以此為限。座標以左上角為原點(0,0),沿橫軸往右為正,沿縱軸往下為正。
如第4A圖所示,含有微血管瘤MA之影像P11的個別範圍描述矩陣MX31為[LC,X,Y,W,H,C]...=[0,5,5,2,2,0.90]。
如第4B圖所示,含有微血管瘤MA及出血H之影像P12的個別範圍描述矩陣MX31為[LC,X,Y,W,H,C]...=[0,5,5,2,2,0.90],[1,9,9,3,3,0.92]。
如第4C圖所示,含有微血管瘤MA、出血H及硬滲出物HE之影像P13的個別範圍描述矩陣MX31為[LC,X,Y,W,H,C]...=[0,5,5,2,2,0.90],[1,9,9,3,3,0.92],[2,4,10,2,2,0.8]。
如第4D圖所示,含有微血管瘤MA、出血H、硬滲出物HE、軟滲出物SE及新生血管NEO之影像P14的個別範圍描述矩陣MX31為[LC,X,Y,W,H,C]...=[0,5,5,2,2,0.90],[1,9,9,3,3,0.92],[2,4,10,2,2,0.8],[3,14,8,3,3,0.8],[4,13,12,2,2,0.9]。
上述程度分級模型MD1、多分類辨識模型MD2及物件偵測模型MD3針對影像P0進行不同的分析,以獲得不同的分析結果AR。本揭露之神經網路模型融合方法能夠融合上述程度分級模型MD1、多分類辨識模型MD2及物件偵測模型MD3,以有效提升判讀的準確性。舉例來說,經實驗數據發現單獨採用程度分級模型MD1,其所獲得之分析結果AR為程度L1。但同時採用程度分級模型MD1、多分類辨識模型MD2及物件偵測模型MD3時,最終所獲得之融合結果RS1改變為程度L2,而程度L2才為正確的結果,有效提升了判讀的準確性。
請參照第5圖及第6圖,第5圖繪示根據一實施例之神經網路模型融合方法的流程圖,第6圖繪示根據一實施例之電子裝置的示意圖。電子裝置100例如是一個人電腦、一平板電腦、一筆記型電腦或一伺服器等,不以此為限。電子裝置100包括一傳輸介面110、一處理器120及一儲存裝置130。傳輸介面110例如是一有線網路模組或一無線網路模組等,不以此為限。儲存裝置130例如是一硬碟、或一記憶體。處理器120例如是一中央處理器、或一圖形處理器等,不以此為限。處理器120包括一推論模組121及一決定模組122。神經網路模型融合方法可以透過第6圖之電子裝置100之處理器120來執行。
在步驟S110中,提供影像P0。影像P0例如是透過網路900傳遞至傳輸介面110。
接著,在步驟S120中,推論模組121判斷影像P0之尺寸是否小於一預定尺寸。若影像P0之尺寸小於預定尺寸,則流程進入步驟S130。
在步驟S130中,推論模組121調整影像P0之尺寸,以使影像P0之尺寸符合預定尺寸。
在步驟S140中,推論模組121透過程度分級模型MD1、多分類辨識模型MD2及物件偵測模型MD3,對影像P0進行分析。步驟S140例如是包括:推論模組121透過程度分級模型MD1對影像P0進行分析;推論模組121透過多分類辨識模型MD2對影像P0進行分析;推論模組121透過物件偵測模型MD3對影像P0進行分析。
接著,在步驟S150中,推論模組121依據程度分級模型MD1、多分類辨識模型MD2及物件偵測模型MD3獲得數個分析結果AR。
然後,在步驟S160中,決定模組122轉換此些分析結果AR為數筆轉換資料TD。舉例來說,請參照表四,程度分級模型MD1之分析結果AR係為分配機率矩陣MX11。分配機率矩陣MX11與一權重矩陣進行一元素積運算(Hadamard product,element-wise product or point-wise product(權重矩陣例如為[1,2,3,4,5],但非用以侷限本揭露之範圍),而轉換為一加權機率矩陣MX12,以作為程度分級模型MD11之轉換資料TD。分配機率矩陣MX11與權重矩陣所進行之元素積運算係為分配機率矩陣
MX11與權重矩陣之對應元素相乘。權重矩陣可以適當地強調出各個程度L0~L4的重要性,依照經驗,對於不同的應用來強調權重矩陣之內容,以因應不同的使用情境。
請參照表五,多分類辨識模型MD2之分析結果AR係為個別機率矩陣MX21。個別機率矩陣MX21係透過一轉換模型或一對應表,轉換為程度L0~L4之一分配機率矩陣MX22,以作為多分類辨識模型MD2之轉換資料TD。多分類辨識模型MD2之分配機率矩陣MX22之程度L0~L4的數量為5,程度分級模型MD1之分配機率矩陣MX11之程度L0~L4之數量也為5,兩者相同。
請參照表六,物件偵測模型MD3之分析結果AR係為個別範圍描述矩陣MX31。個別範圍描述矩陣MX31轉換為微血管瘤MA、出血H、硬滲出物HE、軟滲出物SE及新生血管NEO等物件之一全體物件範圍描述矩陣MX32。全體物件範圍描述矩陣MX32中,A為物件面積,N為物件數量。
接著,在步驟S170中,決定模組122將此些轉換資料TD輸入融合模型ML,以獲得融合結果RS1。
如上所述,程度分級模型MD1、多分類辨識模型MD2及物件偵測模型MD3之分析結果AR可以經由機器學習之方式進行融合,而獲得融合結果RS1。融合結果RS1結合了不同目的之神經網路模型的優點,使得影像辨識的效能能夠有效提升。尤其是在醫療影像之判讀上,本揭露之神經網路模型融合方法能夠有效提升病徵判讀的準確性。
除了上述實施例以外,本揭露之神經網路模型融合方法亦可以應用於不同的模型組合。舉例來說,請參照第7圖,其繪示根據另一實施例之神經網路模型融合方法的實施架構。本揭露之神經網路模型融合方法亦可以應用於程度分級模型MD1與多分類辨識模型MD2之融合,以獲得融合結果RS2。請參照第8圖,其繪示根據另一實施例之神經網路模型融合方法的實施架構。本揭露之神經網路模型融合方法亦可以應用於程度分級模型MD1與物件偵測模型MD3之融合,以獲得融合結果RS3。請參照第9圖,其繪示根據另一實施例之神經網路模型融合方法的實施架構。本揭露之神經網路模型融合方法亦可以應用於多分類辨識模型MD2與物件偵測模型MD3之融合,以獲得融合結果RS4。
綜上所述,雖然本揭露已以實施例揭露如上,然其並非用以限定本揭露。本揭露所屬技術領域中具有通常知識者,在不脫離本揭露之精神和範圍內,當可作各種之更動與潤飾。因此,本揭露之保護範圍當視後附之申請專利範圍所界定者為準。
AR:分析結果
B0:影像區塊
MD1:程度分級模型
MD2:多分類辨識模型
MD3:物件偵測模型
ML:融合模型
MX11:分配機率矩陣
MX12:加權機率矩陣
MX21:個別機率矩陣
MX22:分配機率矩陣
MX31:個別範圍描述矩陣
MX32:全體物件範圍描述矩陣
P0:影像
RS1:融合結果
TD:轉換資料
Claims (18)
- 一種神經網路模型融合方法,包括:接收一影像;透過複數個神經網路模型,對該影像進行分析,該些神經網路模型包含一程度分級模型、一多分類辨識模型及一物件偵測模型之至少其中之二;依據該些神經網路模型獲得複數個分析結果;轉換該些分析結果為複數筆轉換資料;以及將該些轉換資料輸入一融合模型,以獲得一融合結果;其中該些神經網路模型包括該程度分級模型,該程度分級模型之該分析結果係為複數個程度之一分配機率矩陣,該分配機率矩陣具有複數個分配機率值,該些分配機率值之總和為1,該分配機率矩陣與一權重矩陣進行一元素積運算,而轉換為一加權機率矩陣,以作為該程度分級模型之該轉換資料;其中該些神經網路模型包含該多分類辨識模型,該多分類辨識模型之該分析結果係為複數個分類之一個別機率矩陣。
- 如申請專利範圍第1項所述之神經網路模型融合方法,其中該程度分級模型之該分析結果係為一病變嚴重程度分級結果。
- 如申請專利範圍第1項所述之神經網路模型融合方法,其中該個別機率矩陣具有複數個個別機率值,各該個別機 率值為0.0~1.0之數值,該個別機率矩陣係透過一轉換模型,轉換為複數個程度之一分配機率矩陣,以作為該多分類辨識模型之該轉換資料。
- 如申請專利範圍第3項所述之神經網路模型融合方法,其中該多分類辨識模型之該分配機率矩陣之該些程度的數量相同於該程度分級模型之該分配機率矩陣之該些程度之數量。
- 如申請專利範圍第1項所述之神經網路模型融合方法,其中該多分類辨識模型之該分析結果係為一多病徵辨識結果。
- 如申請專利範圍第1項所述之神經網路模型融合方法,其中該個別機率矩陣係透過一對應表轉換為複數個程度之一分配機率矩陣,以作為該多分類辨識模型之該轉換資料。
- 如申請專利範圍第6項所述之神經網路模型融合方法,其中該多分類辨識模型之該分配機率矩陣之該些程度的數量相同於該程度分級模型之該分配機率矩陣之該些程度之數量。
- 如申請專利範圍第1項所述之神經網路模型融合方法,其中該些神經網路模型包含該物件偵測模型,該物件偵測模型之該分析結果係為複數個物件之至少一個別範圍描述矩陣, 該至少一個別範圍描述矩陣轉換為該些物件之一全體物件範圍描述矩陣,以作為該物件偵測模型之該轉換資料。
- 如申請專利範圍第8項所述之神經網路模型融合方法,其中該物件偵測模型之該分析結果係為一病徵偵測結果。
- 一種電子裝置,包括:一處理器,用以執行一神經網路模型融合方法,該神經網路模型融合方法包括:接收一影像;透過複數個神經網路模型,對該影像進行分析,該些神經網路模型包含一程度分級模型、一多分類辨識模型及一物件偵測模型之至少其中之二;依據該些神經網路模型獲得複數個分析結果;轉換該些分析結果為複數筆轉換資料;以及將該些轉換資料輸入一融合模型,以獲得一融合結果;其中該些神經網路模型包括該程度分級模型,該程度分級模型之該分析結果係為複數個程度之一分配機率矩陣,該分配機率矩陣具有複數個分配機率值,該些分配機率值之總和為1該分配機率矩陣與一權重矩陣進行一元素積運算,而轉換為一加權機率矩陣,以作為該程度分級模型之該轉換資料;其中該些神經網路模型包含該多分類辨識模型,該多分類辨識模型之該分析結果係為複數個分類之一個別機率矩陣。
- 如申請專利範圍第10項所述之電子裝置,其中該程度分級模型之該分析結果係為一病變嚴重程度分級結果。
- 如申請專利範圍第10項所述之電子裝置,其中該個別機率矩陣具有複數個個別機率值,各該個別機率值為0.0~1.0之數值,該個別機率矩陣係透過一轉換模型,轉換為複數個程度之一分配機率矩陣,以作為該多分類辨識模型之該轉換資料。
- 如申請專利範圍第12項所述之電子裝置,其中該多分類辨識模型之該分配機率矩陣之該些程度的數量相同於該程度分級模型之該分配機率矩陣之該些程度之數量。
- 如申請專利範圍第10項所述之電子裝置,其中該多分類辨識模型之該分析結果係為一多病徵辨識結果。
- 如申請專利範圍第10項所述之電子裝置,其中該個別機率矩陣係透過一對應表轉換為複數個程度之一分配機率矩陣,以作為該多分類辨識模型之該轉換資料。
- 如申請專利範圍第15項所述之電子裝置,其中該多分類辨識模型之該分配機率矩陣之該些程度的數量相同於該程度分級模型之該分配機率矩陣之該些程度之數量。
- 如申請專利範圍第10項所述之電子裝置,其中該些神經網路模型包含該物件偵測模型,該物件偵測模型之該分析結果係為複數個物件之至少一個別範圍描述矩陣,該至少一個別範圍描述矩陣轉換為該些物件之一全體物件範圍描述矩陣,以作為該物件偵測模型之該轉換資料。
- 如申請專利範圍第17項所述之電子裝置,其中該物件偵測模型之該分析結果係為一病徵偵測結果。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW107145180A TWI727237B (zh) | 2018-12-14 | 2018-12-14 | 神經網路模型融合方法及應用其之電子裝置 |
CN201811577292.XA CN111325231B (zh) | 2018-12-14 | 2018-12-21 | 神经网络模型融合方法及应用其的电子装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW107145180A TWI727237B (zh) | 2018-12-14 | 2018-12-14 | 神經網路模型融合方法及應用其之電子裝置 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW202022796A TW202022796A (zh) | 2020-06-16 |
TWI727237B true TWI727237B (zh) | 2021-05-11 |
Family
ID=71168493
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW107145180A TWI727237B (zh) | 2018-12-14 | 2018-12-14 | 神經網路模型融合方法及應用其之電子裝置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111325231B (zh) |
TW (1) | TWI727237B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115578783B (zh) * | 2022-11-09 | 2023-10-31 | 北京鹰瞳科技发展股份有限公司 | 基于眼部图像进行眼部疾病识别的装置、方法及相关产品 |
GB2624910A (en) * | 2022-11-30 | 2024-06-05 | Ocado Innovation Ltd | Detecting an identification marker on a picking station |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW514513B (en) * | 1996-02-06 | 2002-12-21 | Deus Technologies Inc | Method for the detection of lung nodule in radiological images using digital image processing and artificial neural network |
TWM527991U (zh) * | 2016-01-28 | 2016-09-01 | 太豪生醫股份有限公司 | 醫療影像處理裝置 |
CN107967688A (zh) * | 2017-12-21 | 2018-04-27 | 联想(北京)有限公司 | 对图像中的对象进行分割的方法及系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102855640A (zh) * | 2012-08-10 | 2013-01-02 | 上海电机学院 | 基于神经网络的水果等级分类系统 |
EP3273387B1 (en) * | 2016-07-19 | 2024-05-15 | Siemens Healthineers AG | Medical image segmentation with a multi-task neural network system |
CN107103187B (zh) * | 2017-04-10 | 2020-12-29 | 四川省肿瘤医院 | 基于深度学习的肺结节检测分级与管理的方法及系统 |
CN108090429B (zh) * | 2017-12-08 | 2020-07-24 | 浙江捷尚视觉科技股份有限公司 | 一种分级前脸卡口车型识别方法 |
CN108319968A (zh) * | 2017-12-27 | 2018-07-24 | 中国农业大学 | 一种基于模型融合的果蔬图像分类识别方法及系统 |
-
2018
- 2018-12-14 TW TW107145180A patent/TWI727237B/zh active
- 2018-12-21 CN CN201811577292.XA patent/CN111325231B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW514513B (en) * | 1996-02-06 | 2002-12-21 | Deus Technologies Inc | Method for the detection of lung nodule in radiological images using digital image processing and artificial neural network |
TWM527991U (zh) * | 2016-01-28 | 2016-09-01 | 太豪生醫股份有限公司 | 醫療影像處理裝置 |
CN107967688A (zh) * | 2017-12-21 | 2018-04-27 | 联想(北京)有限公司 | 对图像中的对象进行分割的方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111325231A (zh) | 2020-06-23 |
CN111325231B (zh) | 2023-08-15 |
TW202022796A (zh) | 2020-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020224403A1 (zh) | 分类任务模型的训练方法、装置、设备及存储介质 | |
US11055516B2 (en) | Behavior prediction method, behavior prediction system, and non-transitory recording medium | |
US20210012093A1 (en) | Method and apparatus for generating face rotation image | |
US10963757B2 (en) | Neural network model fusion method and electronic device using the same | |
WO2018166438A1 (zh) | 图像处理方法、装置及电子设备 | |
CN111524106A (zh) | 颅骨骨折检测和模型训练方法、装置、设备和存储介质 | |
US11068754B1 (en) | Systems and methods regarding image distification and prediction models | |
JP2016085704A (ja) | 情報処理システム、情報処理装置、情報処理方法、及びプログラム | |
Ise et al. | Forecasting climatic trends using neural networks: an experimental study using global historical data | |
KR20200084808A (ko) | 확장 컨벌루션 연산을 수행하는 시스템 및 방법 | |
TWI727237B (zh) | 神經網路模型融合方法及應用其之電子裝置 | |
RU2689818C1 (ru) | Способ интерпретации искусственных нейронных сетей | |
US20220198836A1 (en) | Gesture recognition method, electronic device, computer-readable storage medium, and chip | |
CN113191390A (zh) | 一种图像分类模型的构建方法、图像分类方法及存储介质 | |
US20220292405A1 (en) | Methods, systems, and frameworks for data analytics using machine learning | |
Naeem et al. | A deep convolutional neural network stacked ensemble for malware threat classification in internet of things | |
CN110415182B (zh) | 眼底oct影像增强方法、装置、设备及存储介质 | |
Tapia et al. | Semantic segmentation of periocular near-infra-red eye images under alcohol effects | |
US20210118133A1 (en) | System, method, apparatus and computer program product for the detection and classification of different types of skin lesions | |
JP2022190920A (ja) | 情報処理装置、クラス判定方法、プログラム | |
Boyun | The principles of organizing the search for an object in an image, tracking an object and the selection of informative features based on the visual perception of a person | |
CN117671353A (zh) | 动作抖动与骨架噪声抑制的多尺度时空交互骨架动作分类方法、系统、设备及介质 | |
JP6849887B2 (ja) | 検出装置及び方法、画像処理装置及びシステム、並びに記憶媒体 | |
Arshad et al. | Hybrid machine learning techniques to detect real time human activity using UCI dataset | |
Samal et al. | ASYv3: Attention‐enabled pooling embedded Swin transformer‐based YOLOv3 for obscenity detection |