TWI810510B - 多模態資料處理方法及裝置、電子裝置及存儲介質 - Google Patents

多模態資料處理方法及裝置、電子裝置及存儲介質 Download PDF

Info

Publication number
TWI810510B
TWI810510B TW110100175A TW110100175A TWI810510B TW I810510 B TWI810510 B TW I810510B TW 110100175 A TW110100175 A TW 110100175A TW 110100175 A TW110100175 A TW 110100175A TW I810510 B TWI810510 B TW I810510B
Authority
TW
Taiwan
Prior art keywords
neural network
training
network model
modal
samples
Prior art date
Application number
TW110100175A
Other languages
English (en)
Other versions
TW202228025A (zh
Inventor
孫國欽
郭錦斌
蔡東佐
Original Assignee
鴻海精密工業股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 鴻海精密工業股份有限公司 filed Critical 鴻海精密工業股份有限公司
Priority to TW110100175A priority Critical patent/TWI810510B/zh
Publication of TW202228025A publication Critical patent/TW202228025A/zh
Application granted granted Critical
Publication of TWI810510B publication Critical patent/TWI810510B/zh

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

一種多模態資料處理方法包括:獲取利用多模態之訓練樣本訓練神經網路模型時得到之訓練權重,所述神經網路模型包括一個輸入層、一個與所述輸入層連接之神經網路骨幹及多個與所述神經網路骨幹連接之不同之輸出層;載入所述訓練權重至所述神經網路模型中以藉由所述神經網路模型對多模態之測試樣本進行測試來輸出測試結果。本案還提供一種多模態資料處理裝置、一種電子裝置及一種電腦可讀存儲介質,可無需多個神經網路模型。

Description

多模態資料處理方法及裝置、電子裝置及存儲介質
本發明涉及資料處理領域,具體涉及一種多模態資料處理方法及裝置、電子裝置及存儲介質。
目前之多模態資料處理方法需要採用多個神經網路模型,每個神經網路模型對應一模態之資料。如此,由於需要多個神經網路模型,在訓練多個所述神經網路模型時將會需要收集多個模態之大量資料,將會增加收集多模態之資料之時間,同時多個神經網路模型之間相互獨立,無法交換資訊,將使得它們在訓練時之學習無法相互交換,可能會造成重複之學習,造成資源之浪費。
鑒於此,有必要提供一種多模態資料處理方法及裝置、電子裝置及電腦可讀存儲介質,可無需多個神經網路模型。
本申請之第一方面提供一種多模態資料處理方法,所述多模態資料處理方法包括:獲取利用多模態之訓練樣本訓練神經網路模型時得到之訓練權重,所述神經網路模型包括一個輸入層、一個與所述輸入層連接之神經網路骨幹及多個與所述神經網路骨幹連接之不同之輸出層;載入所述訓練權重至所述神經網路模型中以藉由所述神經網路模型對多模態之測試樣本進行測試來輸出測試結果。
較佳地,所述載入所述訓練權重至所述神經網路模型中以藉由所述神經網路模型對多模態之測試樣本進行測試來輸出測試結果包括: 載入所述訓練權重至所述神經網路模型中以藉由所述神經網路模型對多模態之測試樣本進行測試來藉由所述輸出層輸出原始測試結果;對所述原始測試結果進行後處理來輸出所述測試結果。
較佳地,所述多模態資料處理方法還包括:建立所述神經網路模型,所述神經網路模型包括所述輸入層、所述神經網路骨幹及所述輸出層,所述輸入層用於接收多模態之樣本,所述多模態之樣本包括多模態之訓練樣本及多模態之測試樣本;所述神經網路骨幹用於接收所述輸入層之輸入,並對輸入之所述多模態之樣本進行特徵提取;每個輸出層用於將所述特徵組合,每個輸出層對應一模態。
較佳地,所述神經網路骨幹包括深度殘差網路之殘差塊、Inception網路之Inception模組及自編碼器之編碼器及解碼器。
較佳地,每個輸出層包括卷積層或全連接層。
較佳地,所述多模態資料處理方法還包括:獲取多模態之訓練樣本;將所述多模態之訓練樣本輸入至所述神經網路模型中進行訓練來產生所述神經網路模型之訓練權重。
較佳地,所述多模態資料處理方法還包括:建立一個損失函數組,所述損失函數組包括多個不同之損失函數,每個損失函數與一輸出層連接,每個損失函數對應一模態,所述損失函數組與所述輸入層及所述神經網路骨幹連接;所述將所述多模態之訓練樣本輸入至所述神經網路模型中進行訓練來產生所述神經網路模型之訓練權重包括:將所述多模態之訓練樣本輸入至所述神經網路模型中進行訓練來藉由每個輸出層產生訓練結果;將每個訓練結果輸入至對應之損失函數來利用所述損失函數調整所述神經網路模型之權重直至完成所述神經網路模型之訓練來產生所述神經網路模型之訓練權重。
本申請之第二方面提供一種多模態資料處理裝置,所述多模態資料處理裝置包括:訓練權重獲取模組,用於獲取利用多模態之訓練樣本訓練神經網路模型時得到之訓練權重,所述神經網路模型包括一個輸入層、一個與所述輸入層連接之神經網路骨幹及多個與所述神經網路骨幹連接之不同之輸出層;測試模組,用於載入所述訓練權重至所述神經網路模型中以藉由所述神經網路模型對多模態之測試樣本進行測試來輸出測試結果。
本申請之第三方面提供一種電子裝置,所述電子裝置包括一個或多個處理器及記憶體,所述處理器用於執行所述記憶體中存儲之至少一個指令時實現如上任意一項所述之多模態資料處理方法。
本申請之第四方面提供一種電腦可讀存儲介質,所述電腦可讀存儲介質存儲有至少一個指令,所述至少一個指令被處理器執行以實現如上任意一項所述之多模態資料處理方法。
本案藉由獲取利用多模態之訓練樣本訓練神經網路模型時得到之訓練權重,所述神經網路模型包括一個輸入層、一個與所述輸入層連接之神經網路骨幹及多個與所述神經網路骨幹連接之不同之輸出層;載入所述訓練權重至所述神經網路模型中以藉由所述神經網路模型對多模態之測試樣本進行測試來輸出測試結果,可無需多個神經網路模型。
10,20:多模態資料處理裝置
101,203:訓練權重獲取模組
102,204:測試模組
201:訓練樣本獲取模組
202:訓練模組
S31~S32:步驟
S51~S54:步驟
7:電子裝置
71:記憶體
72:處理器
73:電腦程式
圖1係本發明實施例一提供之多模態資料處理裝置之方框圖。
圖2係本發明實施例二提供之多模態資料處理裝置之方框圖。
圖3係本發明實施例三提供之多模態資料處理方法之流程圖。
圖4係本發明之神經網路模型之示意圖。
圖5係本發明實施例四提供之多模態資料處理方法之流程圖。
圖6係本發明實施例四提供之多模態資料處理方法中將所述多模態之訓練樣本輸入至所述神經網路模型中進行訓練時之示意圖。
圖7係本發明實施例五提供之電子裝置之方框圖。
為了能夠更清楚地理解本發明之上述目的、特徵和優點,下面結合附圖和具體實施例對本發明進行詳細描述。需要說明之是,在不衝突之情況下,本申請之實施例及實施例中之特徵可以相互組合。
在下面之描述中闡述了很多具體細節以便於充分理解本發明,所描述之實施例僅是本發明一部分實施例,而不是全部之實施例。基於本發明中之實施例,本領域具有通常技藝者在沒有做出創造性勞動前提下所獲得之所有其他實施例,都屬於本發明保護之範圍。
除非另有定義,本文所使用之所有之技術和科學術語與屬於本發明之技術領域之技術人員通常理解之含義相同。本文中在本發明之說明書中所使用之術語只是為了描述具體之實施例之目的,不是旨在於限制本發明。
圖1係本發明實施例一提供之多模態資料處理裝置之方框圖。所述多模態資料處理裝置10應用於電子裝置上。所述電子裝置可為智慧手機、桌上電腦、平板電腦等。所述多模態資料處理裝置10包括訓練權重獲取模組101及測試模組102。所述訓練權重獲取模組101用於獲取利用多模態之訓練樣本訓練神經網路模型時得到之訓練權重,所述神經網路模型包括一個輸入層、一個與所述輸入層連接之神經網路骨幹及多個與所述神經網路骨幹連接之不同之輸出層。所述測試模組102用於載入所述訓練權重至所述神經網路模型中以藉由所述神經網路模型對多模態之測試樣本進行測試來輸出測試結果。
圖2係本發明實施例二提供之多模態資料處理裝置之方框圖。所述多模態資料處理裝置20應用於電子裝置上。所述電子裝置可為智慧手機、桌上電腦、平板電腦等。所述多模態資料處理裝置20包括訓練樣本獲取模組201、訓練模組202、訓練權重獲取模組203及測試模組204。所述訓練樣本獲取模組201用於獲取多模態之訓練樣本。所述訓練模組202用於將所述多模態之訓練樣本輸入至所述神經網路模型中進行訓練來產生所述神經網路模型之訓練權重。所述訓練權重獲取模組203用於獲取利用多模態之訓練樣本訓練神經網路模型 時得到之訓練權重,所述神經網路模型包括一個輸入層、一個與所述輸入層連接之神經網路骨幹及多個與所述神經網路骨幹連接之不同之輸出層。所述測試模組204用於載入所述訓練權重至所述神經網路模型中以藉由所述神經網路模型對多模態之測試樣本進行測試來輸出測試結果。
以下將結合一種多模態資料處理方法之流程圖來詳細描述模組101~102及模組201~204之具體功能。
圖3係本發明實施例三提供之多模態資料處理方法之流程圖。所述多模態資料處理方法可包括以下步驟:
S31:獲取利用多模態之訓練樣本訓練神經網路模型時得到之訓練權重,所述神經網路模型包括一個輸入層、一個與所述輸入層連接之神經網路骨幹及多個與所述神經網路骨幹連接之不同之輸出層。
所述多模態之訓練樣本為藉由不同之方法或視角收集到之待描述事物(目標、場景等)之樣本。所述方法還包括:建立所述神經網路模型。如圖4所示,所述神經網路模型包括所述輸入層、所述神經網路骨幹及所述輸出層。所述輸入層用於接收多模態之樣本,所述多模態之樣本包括多模態之訓練樣本及多模態之測試樣本。所述神經網路骨幹用於接收所述輸入層之輸入,並對輸入之所述多模態之樣本進行特徵提取。在圖4中,多個所述輸出層包括輸出層1,輸出層2,…,輸出層N-1及輸出層N。每個輸出層用於將所述特徵組合,每個輸出層對應一模態。所述神經網路骨幹包括深度殘差網路之殘差塊、Inception網路之Inception模組及自編碼器之編碼器及解碼器等。所述神經網路骨幹包括多個互連之神經節點,從而所述神經網路骨幹內之資訊是共用之。每個輸出層包括卷積層或全連接層等。
S32:載入所述訓練權重至所述神經網路模型中以藉由所述神經網路模型對多模態之測試樣本進行測試來輸出測試結果。
在本實施例中,在所述載入所述訓練權重至所述神經網路模型中以藉由所述神經網路模型對多模態之測試樣本進行測試來輸出測試結果之前,所述方法還包括: 獲取產品上之感測器感測之多模態之測試樣本。
所述載入所述訓練權重至所述神經網路模型中以藉由所述神經網路模型對多模態之測試樣本進行測試來輸出測試結果包括:
a1:載入所述訓練權重至所述神經網路模型中以藉由所述神經網路模型對多模態之測試樣本進行測試來藉由所述輸出層輸出原始測試結果。
a2:對所述原始測試結果進行後處理來輸出所述測試結果。
在本實施例中,所述對所述原始測試結果進行後處理來輸出所述測試結果包括將每個原始測試結果輸入至對應之後處理函數來以文字或圖像之形式輸出所述測試結果,其中,每個後處理函數與一輸出層連接,且每個後處理函數對應一模態。
在本實施例中,所述方法還包括:顯示所述測試結果或根據所述測試結果控制所述產品之行為。
實施例三藉由獲取利用多模態之訓練樣本訓練神經網路模型時得到之訓練權重,所述神經網路模型包括一個輸入層、一個與所述輸入層連接之神經網路骨幹及多個與所述神經網路骨幹連接之不同之輸出層,載入所述訓練權重至所述神經網路模型中以藉由所述神經網路模型對多模態之測試樣本進行測試來輸出測試結果。從而,本案可藉由一個神經網路模型來對多模態之測試樣本進行測試,無需多個神經網路模型,則在訓練時無需收集多個模態之大量資料,且所述神經網路模型包括一個輸入層、一個與所述輸入層連接之神經網路骨幹及多個與所述神經網路骨幹連接之不同之輸出層,由於所述神經網路骨幹在多個模態之間是共用之,則它們之學習是共用之,避免了資源之浪費。
圖5係本發明實施例四提供之多模態資料處理方法之流程圖。所述多模態資料處理方法可包括以下步驟:
S51:獲取多模態之訓練樣本。
所述獲取多模態之訓練樣本包括:
b1:以預設之週期獲取產品上之感測器感測之多模態之樣本。所述預設之週期可為固定之週期或不固定之週期。
b2:根據獲取之所述多模態之樣本建立包括多模態之訓練樣本之資料庫。
S52:將所述多模態之訓練樣本輸入至神經網路模型中進行訓練來產生所述神經網路模型之訓練權重。
在本實施例中,所述方法還包括:建立一個損失函數組。如圖6所示,所述損失函數組包括多個不同之損失函數,每個損失函數與一輸出層連接,每個損失函數對應一模態,所述損失函數組與所述輸入層及所述神經網路骨幹連接。在圖6中,多個所述損失函數包括損失函數1,損失函數2,…,損失函數N-1及損失函數N。在本實施例中,所述輸出層之輸出之維度與所述損失函數之維度相同。
所述將所述多模態之訓練樣本輸入至所述神經網路模型中進行訓練來產生所述神經網路模型之訓練權重包括:
c1:將所述多模態之訓練樣本輸入至所述神經網路模型中進行訓練來藉由每個輸出層產生訓練結果。
c2:將每個訓練結果輸入至對應之損失函數來利用所述損失函數調整所述神經網路模型之權重直至完成所述神經網路模型之訓練來產生所述神經網路模型之訓練權重。
S53:獲取利用多模態之訓練樣本訓練神經網路模型時得到之訓練權重,所述神經網路模型包括一個輸入層、一個與所述輸入層連接之神經網路骨幹及多個與所述神經網路骨幹連接之不同之輸出層。
本實施例之步驟S53與實施例三之步驟S31相似,具體請參閱實施例三中對步驟S31之詳細描述,在此不進行贅述。
S54:載入所述訓練權重至所述神經網路模型中以藉由所述神經網路模型對多模態之測試樣本進行測試來輸出測試結果。
本實施例之步驟S54與實施例三之步驟S32相似,具體請參閱實施例三中對步驟S32之詳細描述,在此不進行贅述。
實施例四藉由獲取多模態之訓練樣本,將所述多模態之訓練樣本輸入至所述神經網路模型中進行訓練來產生所述神經網路模型之訓練權重,獲取利用多模態之訓練樣本訓練神經網路模型時得到之訓練權重,所述神經網路模型包括一個輸入層、一個與所述輸入層連接之神經網路骨幹及多個與所述神經網路骨幹連接之不同之輸出層,載入所述訓練權重至所述神經網路模型中以藉由所述神經網路模型對多模態之測試樣本進行測試來輸出測試結果。從而,本案可藉由對一個神經網路模型進行訓練來產生所述訓練權重,由於所述神經網路模型包括多個與所述神經網路骨幹連接之不同之輸出層,則每個輸出層可學習對應之功能,可藉由一個輸入層、一個神經網路骨幹及多個輸出層對應於多個現有之神經網路。本案還藉由一個神經網路模型來對多模態之測試樣本進行測試,無需多個神經網路模型,且所述神經網路模型包括一個輸入層、一個與所述輸入層連接之神經網路骨幹及多個與所述神經網路骨幹連接之不同之輸出層,由於所述神經網路骨幹在多個模態之間是共用之,則它們之學習是共用之,避免了資源之浪費。
圖7係本發明實施例五提供之電子裝置之方框圖。所述電子裝置7包括:記憶體71、至少一個處理器72、及存儲在所述記憶體71中並可在所述至少一個處理器72上運行之電腦程式73。所述至少一個處理器72執行所述電腦程式73時實現上述方法實施例中之步驟。或者,所述至少一個處理器72執行所述電腦程式73時實現上述裝置實施例中之各模組之功能。
示例性之,所述電腦程式73可以被分割成一個或多個模組/單元,所述一個或者多個模組/單元被存儲在所述記憶體71中,並由所述至少一個處理器72執行,以完成本發明。所述一個或多個模組/單元可以是能夠完成特定功能之一系列電腦程式指令段,該指令段用於描述所述電腦程式73在所述電子裝置7中之執行過程。例如,所述電腦程式73可以被分割成圖1所示之模組或圖2所示之模組,各模組具體功能參見實施例一或實施例二。
所述電子裝置7可以為任何一種電子產品,例如,個人電腦、平板電腦、智慧手機、個人數位助理(Personal Digital Assistant,PDA)等。本領 域具有通常技藝者可以理解,所述示意圖7僅是電子裝置7之示例,並不構成對電子裝置7之限定,可以包括比圖示更多或更少之部件,或者組合某些部件,或者不同之部件,例如所述電子裝置7還可以包括匯流排等。
所述至少一個處理器72可以是中央處理單元(Central Processing Unit,CPU),還可以是其他通用處理器、數字信號處理器(Digital Signal Processor,DSP)、專用積體電路(Application Specific Integrated Circuit,ASIC)、現成可程式設計閘陣列(Field-Programmable Gate Array,FPGA)或者其他可程式設計邏輯器件、分立門或者電晶體邏輯器件、分立硬體元件等。該處理器72可以是微處理器或者該處理器72也可以是任何常規之處理器等,所述處理器72是所述電子裝置7之控制中心,利用各種介面和線路連接整個電子裝置7之各個部分。
所述記憶體71可用於存儲所述電腦程式73和/或模組/單元,所述處理器72藉由運行或執行存儲在所述記憶體71內之電腦可讀指令和/或模組/單元,以及調用存儲在記憶體71內之資料,實現所述電子裝置7之各種功能。所述記憶體71可主要包括存儲程式區和存儲資料區,其中,存儲程式區可存儲作業系統、至少一個功能所需之應用程式(比如聲音播放功能、圖像播放功能等)等;存儲資料區可存儲根據電子裝置7之使用所創建之資料(比如音訊資料等)等。此外,記憶體71可以包括非易失性電腦可讀記憶體,例如硬碟、記憶體、插接式硬碟,智慧存儲卡(Smart Media Card,SMC),安全數位(Secure Digital,SD)卡,快閃記憶體卡(Flash Card)、至少一個磁碟記憶體件、快閃記憶體器件、或其他非易失性固態記憶體件。
所述電子裝置7集成之模組/單元如果以軟體功能單元之形式實現並作為獨立之產品銷售或使用時,可以存儲在一個電腦可讀存儲介質中。基於這樣之理解,本發明實現上述實施例方法中之全部或部分流程,也可以藉由電腦程式來指令相關之硬體來完成,所述之電腦程式可存儲於一電腦可讀存儲介質中,該電腦程式在被處理器執行時,可實現上述各個方法實施例之步驟。其中,所述電腦程式包括電腦程式代碼,所述電腦程式代碼可以為原始程式碼形式、物件代碼形式、可執行檔或某些中間形式等。所述電腦可讀介質可以包括: 能夠攜帶所述電腦程式代碼之任何實體或裝置、記錄介質、隨身碟、移動硬碟、磁碟、光碟、電腦記憶體、唯讀記憶體(ROM,Read-Only Memory)等。
最後應說明之是,以上實施例僅用以說明本發明之技術方案而非限制,儘管參照較佳實施例對本發明進行了詳細說明,本領域具有通常技藝者之應當理解,可以對本發明之技術方案進行修改或等同替換,而不脫離本發明技術方案之精神範圍。
S31~S32:步驟

Claims (9)

  1. 一種多模態資料處理方法,其中,所述多模態資料處理方法包括:獲取利用多模態之訓練樣本訓練神經網路模型時得到之訓練權重,所述神經網路模型包括一個輸入層、一個與所述輸入層連接之神經網路骨幹及多個與所述神經網路骨幹連接之不同之輸出層;載入所述訓練權重至所述神經網路模型中以藉由所述神經網路模型對多模態之測試樣本進行測試來輸出測試結果;其中,所述多模態資料處理方法還包括:建立一個損失函數組,所述損失函數組包括多個不同之損失函數,每個所述損失函數與一所述輸出層連接,每個所述損失函數對應一模態,所述損失函數組與所述輸入層及所述神經網路骨幹連接;將所述多模態之訓練樣本輸入至所述神經網路模型中進行訓練來藉由每個所述輸出層產生訓練結果;將每個所述訓練結果輸入至對應之損失函數來利用所述損失函數調整所述神經網路模型之權重直至完成所述神經網路模型之訓練來產生所述訓練權重。
  2. 如請求項1所述之多模態資料處理方法,其中,所述載入所述訓練權重至所述神經網路模型中以藉由所述神經網路模型對多模態之測試樣本進行測試來輸出測試結果包括:載入所述訓練權重至所述神經網路模型中以藉由所述神經網路模型對多模態之測試樣本進行測試來藉由所述輸出層輸出原始測試結果;對所述原始測試結果進行後處理來輸出所述測試結果。
  3. 如請求項1所述之多模態資料處理方法,其中,所述多模態資料處理方法還包括:建立所述神經網路模型,所述神經網路模型包括所述輸入層、所述神經網路骨幹及所述輸出層,所述輸入層用於接收多模態之樣本,所述多模態之樣本包括多模態之訓練樣本及多模態之測試樣本;所述神經網路骨幹用於接收所述 輸入層之輸入,並對輸入之所述多模態之樣本進行特徵提取;每個輸出層用於將所述特徵組合,每個輸出層對應一模態。
  4. 如請求項3所述之多模態資料處理方法,其中:所述神經網路骨幹包括深度殘差網路之殘差塊、Inception網路之Inception模組及自編碼器之編碼器及解碼器。
  5. 如請求項3所述之多模態資料處理方法,其中:每個輸出層包括卷積層或全連接層。
  6. 如請求項3所述之多模態資料處理方法,其中,所述多模態資料處理方法還包括:獲取多模態之訓練樣本;將所述多模態之訓練樣本輸入至所述神經網路模型中進行訓練來產生所述神經網路模型之訓練權重。
  7. 一種多模態資料處理裝置,其中,所述多模態資料處理裝置包括:訓練權重獲取模組,用於獲取利用多模態之訓練樣本訓練神經網路模型時得到之訓練權重,所述神經網路模型包括一個輸入層、一個與所述輸入層連接之神經網路骨幹及多個與所述神經網路骨幹連接之不同之輸出層;測試模組,用於載入所述訓練權重至所述神經網路模型中以藉由所述神經網路模型對多模態之測試樣本進行測試來輸出測試結果;損失函數組,所述損失函數組包括多個不同之損失函數,每個所述損失函數與一所述輸出層連接,每個所述損失函數對應一模態,所述損失函數組與所述輸入層及所述神經網路骨幹連接,其中,將所述多模態之訓練樣本輸入至所述神經網路模型中進行訓練來藉由每個所述輸出層產生訓練結果;將每個所述訓練結果輸入至對應之損失函數來利用所述損失函數調整所述神經網路模型之權重直至完成所述神經網路模型之訓練來產生所述訓練權重。
  8. 一種電子裝置,其中,所述電子裝置包括一個或多個處理器及記憶體,所述處理器用於執行所述記憶體中存儲之至少一個指令時實現如請求項1至6中任意一項所述之多模態資料處理方法。
  9. 一種電腦可讀存儲介質,其中,所述電腦可讀存儲介質存儲有至少一個指令,所述至少一個指令被處理器執行以實現如請求項1至6中任意一項所述之多模態資料處理方法。
TW110100175A 2021-01-04 2021-01-04 多模態資料處理方法及裝置、電子裝置及存儲介質 TWI810510B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
TW110100175A TWI810510B (zh) 2021-01-04 2021-01-04 多模態資料處理方法及裝置、電子裝置及存儲介質

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW110100175A TWI810510B (zh) 2021-01-04 2021-01-04 多模態資料處理方法及裝置、電子裝置及存儲介質

Publications (2)

Publication Number Publication Date
TW202228025A TW202228025A (zh) 2022-07-16
TWI810510B true TWI810510B (zh) 2023-08-01

Family

ID=83436878

Family Applications (1)

Application Number Title Priority Date Filing Date
TW110100175A TWI810510B (zh) 2021-01-04 2021-01-04 多模態資料處理方法及裝置、電子裝置及存儲介質

Country Status (1)

Country Link
TW (1) TWI810510B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111640510A (zh) * 2020-04-09 2020-09-08 之江实验室 一种基于深度半监督多任务学习生存分析的疾病预后预测系统
CN111797862A (zh) * 2019-04-09 2020-10-20 Oppo广东移动通信有限公司 任务处理方法、装置、存储介质和电子设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111797862A (zh) * 2019-04-09 2020-10-20 Oppo广东移动通信有限公司 任务处理方法、装置、存储介质和电子设备
CN111640510A (zh) * 2020-04-09 2020-09-08 之江实验室 一种基于深度半监督多任务学习生存分析的疾病预后预测系统

Also Published As

Publication number Publication date
TW202228025A (zh) 2022-07-16

Similar Documents

Publication Publication Date Title
CN110554958B (zh) 图数据库测试方法、系统、设备和存储介质
CN112560980B (zh) 目标检测模型的训练方法、装置及终端设备
WO2022105608A1 (zh) 一种快速人脸密度预测和人脸检测方法、装置、电子设备及存储介质
CN110955715B (zh) Erp系统和目标平台的数据转换方法、装置以及电子设备
JP2020198075A (ja) ユーザ端末ハードウェア検出方法、装置、コンピュータ装置、および記憶媒体
CN110738235A (zh) 肺结核判定方法、装置、计算机设备及存储介质
CN112667778A (zh) 结合rpa和ai的信息录入方法、装置、设备及存储介质
CN111079507B (zh) 一种行为识别方法及装置、计算机装置及可读存储介质
US20220222799A1 (en) Method for detecting defect in products and electronic device using method
CN111738133A (zh) 模型训练方法、目标检测方法、装置、电子设备及可读存储介质
CN112733724B (zh) 基于判别样本元挖掘器的亲属关系验证方法和装置
TWI810510B (zh) 多模態資料處理方法及裝置、電子裝置及存儲介質
TWI769603B (zh) 影像處理方法及存儲介質
CN111950517A (zh) 一种目标检测方法、模型训练方法,电子设备及存储介质
TWI818496B (zh) 指紋識別方法、指紋模組及電子設備
US11348213B2 (en) Multistage process model training
CN114722992A (zh) 多模态数据处理方法及装置、电子装置及存储介质
CN112527631A (zh) bug定位方法、系统、电子设备及存储介质
TWI755176B (zh) 細胞密度分類方法及裝置、電子裝置及存儲介質
TWI792135B (zh) 缺陷檢測方法及裝置、電子裝置及電腦可讀存儲介質
TWI766419B (zh) 測試方法及裝置、電子裝置及電腦可讀存儲介質
JP2020170403A (ja) シミュレーションシステム、収集装置、収集方法およびシミュレーション方法
WO2022155787A1 (zh) 一种极限学习机训练方法、训练装置以及终端设备
CN109614314B (zh) 性能测试方法、装置、服务器及可读存储介质
CN116910758B (zh) 恶意软件检测方法、装置、电子设备、芯片及存储介质