TWI617993B - 辨識系統及辨識方法 - Google Patents

辨識系統及辨識方法 Download PDF

Info

Publication number
TWI617993B
TWI617993B TW106107076A TW106107076A TWI617993B TW I617993 B TWI617993 B TW I617993B TW 106107076 A TW106107076 A TW 106107076A TW 106107076 A TW106107076 A TW 106107076A TW I617993 B TWI617993 B TW I617993B
Authority
TW
Taiwan
Prior art keywords
feature
data
pooling
convolution
groups
Prior art date
Application number
TW106107076A
Other languages
English (en)
Other versions
TW201833814A (zh
Inventor
江振國
游智翔
陳柏年
Original Assignee
財團法人資訊工業策進會
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 財團法人資訊工業策進會 filed Critical 財團法人資訊工業策進會
Priority to TW106107076A priority Critical patent/TWI617993B/zh
Priority to CN201710212316.0A priority patent/CN108536278B/zh
Priority to US15/499,878 priority patent/US10185870B2/en
Application granted granted Critical
Publication of TWI617993B publication Critical patent/TWI617993B/zh
Publication of TW201833814A publication Critical patent/TW201833814A/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Psychiatry (AREA)
  • Multimedia (AREA)
  • Social Psychology (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

一種辨識方法,包含:感測一移動資料;由移動資料中擷取出複數個特徵資料。將第一特徵資料切割為複數個第一特徵區段,並將此些第一特徵區段進行分組,以得到複數個第一特徵組,並計算此些第一特徵組各別與複數個通道所對應的複數個第一相似度參數;依據此些第一相似度參數將該些第一特徵組對應至該些通道;藉由一卷積演算法分別將該些通道各自對應的此些第一特徵組進行化簡,以取得對應該些第一特徵組的複數個第一卷積結果;藉由一池化演算法分別將對應此些第一特徵組的該些第一卷積結果進行化簡,以得到對應此些第一特徵組的複數個第一池化結果;及結合對應此些第一特徵組的此些第一池化結果,以產生一第一特徵地圖。

Description

辨識系統及辨識方法
本案是關於一種辨識系統及辨識方法,特別是關於一種辨識動作的辨識系統及辨識方法。
目前應用於電子裝置的動作辨識方法主要係透過機器學習及統計分析來訓練模型、辨識狀態或持續監控,如:在遊戲中進行操作、辨識異常行為等。然而,當使用者的動作種類較多或是動作差異不足時,現有的動作辨識方法容易被此些動作混淆,而難以準確地辨識此些動作的關鍵特徵。
本說明書所揭露之各實施例係提供一種辨識系統及辨識方法。
該辨識系統,包含一處理器。處理器用以接收來自一感測裝置之一移動資料,該處理器包含一前處理模組、一資料切割模組、一通道配合模組、一資料整合模組及一模型訓練模組。前處理模組用以 由移動資料中擷取出複數個特徵資料。其中,此些特徵資料包含一第一特徵資料及一第二特徵資料。資料切割模組用以將第一特徵資料切割為複數個第一特徵區段,並將此些第一特徵區段進行分組,以得到複數個第一特徵組,並計算此些第一特徵組各別與複數個通道所對應的複數個第一相似度參數。通道配合模組用以依據此些第一相似度參數將此些第一特徵組對應至此些通道。資料整合模組用以藉由一卷積(convolution)演算法分別將該些通道各自對應的該些第一特徵組進行化簡,以取得對應此些第一特徵組的複數個第一卷積結果,藉由一池化(pooling)演算法分別將對應此些第一特徵組的此些第一卷積結果進行化簡,以得到對應此些第一特徵組的複數個第一池化結果,並結合對應此些第一特徵組的此些第一池化結果,以產生一第一特徵地圖,並將此第一特徵地圖與一第二特徵地圖再次代入此卷積演算法,以取得一第二卷積結果,並將此第二卷積結果再次代入此池化演算法,以取得一第二池化結果。模型訓練模組用以將此第二池化結果代入一模型訓練演算法,以產生一辨識模型。
該辨識方法,包含:感測一移動資料;由移動資料中擷取出複數個特徵資料;其中,此些特徵資料包含一第一特徵資料及一第二特徵資料;將第一特徵資料切割為複數個第一特徵區段,並將此些第 一特徵區段進行分組,以得到複數個第一特徵組,並計算此些第一特徵組各別與複數個通道所對應的複數個第一相似度參數;依據此些第一相似度參數將該些第一特徵組對應至該些通道;藉由一卷積演算法分別將該些通道各自對應的此些第一特徵組進行化簡,以取得對應該些第一特徵組的複數個第一卷積結果;藉由一池化演算法分別將對應此些第一特徵組的該些第一卷積結果進行化簡,以得到對應此些第一特徵組的複數個第一池化結果;結合對應此些第一特徵組的此些第一池化結果,以產生一第一特徵地圖;將此第一特徵地圖與一第二特徵地圖再次代入此卷積演算法,以取得一第二卷積結果;將此第二卷積結果再次代入此池化演算法,以取得一第二池化結果;以及將此第二池化結果代入一模型訓練演算法,以產生一辨識模型。
藉由本案所述之辨識系統及辨識方法,可自動化地依據時間序列擷取特徵,可清楚地分析持續性(sustained)及非持續性(nonsustained)動作;其中,持續性動作代表一段時間(如3分鐘)都做同樣動作(例如刷牙一直橫刷),並且重覆多次;而非持續性動作可為單一特定動作或連續多種動作,例如,單一特定動作代表一段較短時間(如1秒鐘)進行一個畫圓動作,此畫圓動作只進行一次,而連續多種動作,亦即連續性(continuous)動作,代表一段時間(如 30秒)內做了多個「單一特定動作」(例如畫圓動作之後接閃電動作,閃電動作之後接砍殺動作,其中也包含多個畫圓動作),藉由區分此些動作,本案可更準確地區分動作差異,以達到提升辨識動作之精準度的功效。此外,本案應用池化演算法及卷積演算法,可大幅降低運算量,並能夠精準地取得關鍵動作特徵。
D1‧‧‧電子裝置
L1‧‧‧通訊連結
10‧‧‧感測裝置
A‧‧‧使用者
11‧‧‧處理器
13‧‧‧前處理模組
15‧‧‧資料切割模組
17‧‧‧通道配合模組
19‧‧‧資料整合模組
21‧‧‧模型訓練模組
30‧‧‧儲存裝置
40‧‧‧顯示器
200‧‧‧辨識方法
210~260、221~223‧‧‧步驟
g(x)、b(x)、g(y)、b(y)、g(z)、b(z)‧‧‧特徵資料
400~420‧‧‧辨識方法之部分
261、263、265‧‧‧第三卷積結果
262、264、266‧‧‧第三池化結果
267、268‧‧‧隱藏層
269‧‧‧分類器
d1~d8‧‧‧第一特徵區段
ch1~ch4‧‧‧通道
C11~C14、C21~C24‧‧‧第一卷積結果
P11~P14、P21~P24‧‧‧第一池化結果
f1‧‧‧第一特徵地圖
f2‧‧‧第二特徵地圖
C30‧‧‧第二卷積結果
P30‧‧‧第二池化結果
M1~M25、K1~K9、R1~R9、S1~S4‧‧‧內容值
DA‧‧‧第一特徵組
KR‧‧‧特徵映射核心
PLI‧‧‧第一卷積結果
PLO‧‧‧方陣
BS‧‧‧牙刷圖示
VRG‧‧‧虛擬實境眼鏡
為讓本揭示內容之上述和其他目的、特徵、優點與實施例能更明顯易懂,所附圖示之說明如下:第1A~1B圖為根據本案一實施例繪示的一種辨識系統的使用情境圖;第2圖為根據本案一實施例繪示的一種辨識方法的流程圖;第3圖為根據本案一實施例繪示的一種辨識系統的操作流程示意圖;第4圖為根據本案一實施例繪示的一種辨識方法之部分的示意圖;第5A~5D圖為根據本案一實施例繪示的一種通道配合方法的示意圖;第6圖為根據本案一實施例繪示的一種卷積演算法的示意圖; 第7圖為根據本案一實施例繪示的一種池化演算法的示意圖;第8A~8B圖為根據本案一實施例繪示的一種辨識系統之應用的示意圖;以及第9A~9C圖為根據本案一實施例繪示的一種辨識系統之應用的示意圖。
請參閱第1A~1B圖,第1A圖為根據本案一實施例繪示的一種辨識系統的使用情境圖。第1B圖為根據本案一實施例繪示的一種辨識系統100的方塊圖。如第1A圖所示,當使用者穿戴感測裝置10時,感測裝置10可用以感測移動資訊。感測裝置10例如為智慧型手錶、智慧型手環或其他可用以感測使用者移動的電子裝置。
於一實施例中,感測裝置10所感測的移動資訊可包含持續性動作(如騎車、跑步)及非持續性動作,其中,非持續性動作可為單一特定動作(如空中畫圓)或連續多種動作(如空中寫字)。
於一實施例中,感測裝置10可透過其傳輸模組(如藍牙、Wi-Fi)與電子裝置D1建立通訊連結L1,並藉由通訊連結L1將感測資訊傳送到電子裝置D1中。
舉例而言,當感測裝置10是由一智慧型手錶實現時,此智慧型手錶可獲得使用者手部動作之加速 度的值;換言之,使用者手部在動時,加速度的值會不斷產生,若以二維圖示表示時(例如橫軸為時間,橫軸為加速度的值),此加速度的值可以是一條波形,藉此可表示使用者的動作之間有先後順序的關係。
於一實施例中,電子裝置D1例如為手機、平板、桌上型電腦、筆記型電腦或其他具有運算功能的電子裝置。於一實施例中,電子裝置D1可以是位於雲端系統中的一伺服器。
於一實施例中,辨識系統100包含處理器11。處理器11用以接收來自感測裝置10的移動資料。於一實施例中,處理器11包含前處理模組13、資料切割模組15、通道配合模組17、資料整合模組19及模型訓練模組21。
於一實施例中,前處理模組13、資料切割模組15、通道配合模組17、資料整合模組19及模型訓練模組21可分別或合併被實施為微控制單元(microcontroller)、微處理器(microprocessor)、數位訊號處理器(digital signal processor)、特殊應用積體電路(application specific integrated circuit,ASIC)或一邏輯電路。
於一實施例中,辨識系統100更包含儲存裝置30,用以儲存處理器11的運算結果及/或由感測裝置10所傳來的移動資料。
於一實施例中,辨識系統100更包含顯示器40,用以顯示處理器11的運算結果及/或由感測裝置10所傳來的移動資料。
於一實施例中,儲存裝置30可被實作為唯讀記憶體、快閃記憶體、軟碟、硬碟、光碟、隨身碟、磁帶、可由網路存取之資料庫或熟悉此技藝者可輕易思及具有相同功能之儲存媒體。
請參閱第2圖,第2圖為根據本案一實施例繪示的一種辨識方法200的流程圖。
於步驟210中,處理器11接收來自感測裝置10的移動資料。
於步驟220中,前處理模組13由移動資料中擷取出多個特徵資料。
請參閱第3~4圖,第3圖為根據本案一實施例繪示的一種辨識系統的操作流程示意圖。第4圖為根據本案一實施例繪示的一種辨識方法之部分400的示意圖。如第3圖可知,於步驟221~223中,前處理模組13將移動資料依序帶入中值濾波法(Median filter)、特徵值抽取(feature extraction)演算法及正規化(Normalization)演算法進行處理,於此些步驟中可採用現有的中值濾波法、特徵值抽取及正規化等演算法,以進行資料處理,且此些步驟可應用已知的動作辨識方法進行前處理,故此處不贅述之。
於一實施例中,此些特徵資料包含一第一特徵資料(如g(x))及一第二特徵資料(如b(x))。於一實施例中,若移動資料為x軸加速度資料則可產生第一特徵資料g(x)及第二特徵資料b(x),並將第一特徵資料g(x)及第二特徵資料b(x)作為辨識方法之部分400的輸入資料;若移動資料為y軸加速度資料則可產生第一特徵資料g(y)及第二特徵資料b(y),並將第一特徵資料g(y)及第二特徵資料b(y)作為辨識方法之部分410的輸入資料;若移動資料為z軸加速度資料則可產生第一特徵資料g(z)及第二特徵資料b(z),並將第一特徵資料g(z)及第二特徵資料b(z)作為辨識方法之部分420的輸入資料。
此外,由於辨識方法之部分400、410及420內的步驟相似,故後續僅針對辨識方法之部分400進行詳述,辨識方法之部分410及辨識方法之部分420的部分不再贅述之。
於一實施例中,當前處理模組13由移動資料(例如為x軸加速度資料)取出第一特徵資料(例如為加速度資料中的重力資料g(x))後,前處理模組13可去除移動資料中的第一特徵資料,其所得之一剩餘資料視為第二特徵資料,即,第一特徵資料中除去重力特徵資料以外的移動資料部分視為第二特徵資料(如b(x))。
於另一實施例中,當前處理模組13由移動資取出第一特徵資料及第二特徵資料後,將移動資料去除第一特徵資料及第二特徵資料後,所得的剩餘資料視為第三特徵資料。
由此可知,移動資料經過前處理模組13的特徵轉換,而分成多種特徵資料後(例如為第一特徵資料、第二特徵資料及第三特徵資料),所有特徵資料的結合仍能組成原始的移動資料。
因此,藉由此種特徵轉換的方式,可避免移動資料經過特徵轉換時所產生資訊遺失(information loss)的問題。
於步驟230中,資料切割模組15將第一特徵資料切割為多個第一特徵區段,並將此些第一特徵區段進行分組,以得到多個第一特徵組,並計算此些第一特徵組各別與多個通道所對應的多個第一相似度參數。
於一實施例中,如第4圖所示,當第一特徵資料g(x)作為辨識方法之部分400的輸入資料時,則資料切割模組15依據時間序列,將第一特徵資料g(x)切割為8個第一特徵區段d1~d8,並將此些第一特徵區段d1~d8依據時間序列進行分組,例如為兩兩一組(如第一特徵區段d1、d2一組,第一特徵區段d3、d4一組,第一特徵區段d5、d6一組,第一特徵區段d7、d8一組),以得到此些第一特徵組。
其中,時間序列是指第一特徵資料d1~d8中的第一特徵區段被產生的先後順序(例如與使用者手部搖晃方式的先後順序相關)。
於一實施例中,第一特徵組的數量與通道的數量相同。例如,通道的數量為4,則將此些第一特徵區段d1~d8分為4組。
於一實施例中,資料切割模組15將第二特徵資料(如b(x))切割為多個第二特徵區段,並將此些第二特徵區段進行分組,以得到多個第二特徵組。於一實施例中,第二特徵組的數量與通道的數量相同。
接著,資料切割模組15計算此些第一特徵組(例如將第一特徵區段d1、d2視為一第一特徵組,將第一特徵區段d3、d4視為一第一特徵組,將第一特徵區段d5、d6視為一第一特徵組,將第一特徵區段d7、d8視為一第一特徵組)各別與多個通道所對應的多個第一相似度參數。
於一實施例中,通道配合模組17計算各此些第一特徵組中的多個內容值之一平均值、一共變異數(covariance)、一距離值及/或一相關係數值,以取得此些第一相似度參數。
舉例而言,此些第一特徵組中的其中一組(例如將第一特徵區段d1、d2是為此些第一特徵組中的其中一組)的內容值包含2、4(例如第一特徵區段d1的內容值為2,第一特徵區段d2的內容值為4),則將 此兩個數值取平均值(2+4/2=3)得到3,將此組第一特徵組的相似度參數值視為3,並依此類推,以計算其他第一特徵組的相似度參數值。
於步驟240中,通道配合模組17依據此些第一相似度參數將此些第一特徵組對應至此些通道。
請參閱第5A~5D圖,第5A~5D圖為根據本案一實施例繪示的一種通道配合方法的示意圖。於一實施例中,通道配合模組17可分別計算此些第一相似度參數與各通道之距離。
於一實施例中,第一特徵區段d1~d8中的內容可分別對應為[1,2,3,4,5,6,7,8]等8段資料(依據時間序列排序),資料切割模組15於將此些資料分為4個第一特徵組後,此些第一特徵組的內容值分別為[1,2]、[3,4]、[5,6]及[7,8],依據此些第一特徵組之內容值算出各自的相似度參數值後(如利用前述的平均值、共變異數(covariance)、距離值及/或相關係數值等已知的統計方法以計算出此些第一特徵組各自的相似度參數值),於步驟240中,通道配合模組17依據此些第一相似度參數將此些第一特徵組對應至此些通道(例如4個通道ch1~ch4)。
於一實施例中,通道配合模組17可藉由計算此些第一相似度參數分別對應至此些通道的距離值,並持續選擇距離最小者進入通道,以配置最適當的 通道。以下透過第5A~5D圖以舉例說明通道配合方法的一種實施例,然本發明不僅限於此。
如第5A所示,若通道配合模組17計算第一特徵組的內容值[1,2]、[3,4]、[5,6]及[7,8]各自的第一相似度參數後(例如算出第一特徵組的內容值[1,2]的第一相似度參數、算出第一特徵組的內容值[3,4]的第一相似度參數、算出第一特徵組的內容值[5,6]的第一相似度參數及算出第一特徵組的內容值[7,8]的第一相似度參數),再算出此些第一相似度參數分別對應至通道ch1的距離值為13、9、5、1時(如利用前述的平均值、共變異數、距離值及/或相關係數值等已知的統計方法以計算出此些第一特徵組各自的相似度參數值已計算之),則可找出第一特徵組[7,8]對應至通道ch1具有最小距離值為1,因此,將第一特徵組[7,8]藉由通道ch1進行傳輸,由於通道ch1及第一特徵組[7,8]已完成配對,故於後續第5B~5D圖中,不再考慮與通道ch1(行)及第一特徵組[7,8](列)相關的欄位。
接著,如第5B所示,若通道配合模組17計算第一特徵組[1,2]、[3,4]及[5,6]各自的第一相似度參數分別對應至通道ch2的距離值為14、10、6時,則可找出第一特徵組[5,6]對應至通道ch2具有最小距離值為6,因此,將第一特徵組[5,6]藉由通道ch2進行傳輸,由於通道ch2及第一特徵組[5,6]已完成 配對,故於後續第5C~5D圖中,不再考慮與通道ch2(行)及第一特徵組[5,6](列)相關的欄位。
接著,如第5C所示,若通道配合模組17計算第一特徵組[1,2]及[3,4]各自的第一相似度參數分別對應至通道ch3的距離值為15、11時,則可找出第一特徵組[3,4]對應至通道ch3具有最小距離值為11,因此,將第一特徵組[3,4]藉由通道ch3進行傳輸,由於通道ch3及第一特徵組[3,4]已完成配對,故於後續第5D圖中,不再考慮與通道ch3(行)及第一特徵組[3,4](列)相關的欄位。
接著,如第5D所示,若通道配合模組17判斷只剩下一組第一特徵組[1,2]尚未配對時,則將第一特徵組[3,4]對應至通道ch4。
藉此,通道配合模組17可依據此些第一相似度參數將此些第一特徵組對應至此些通道。
於一實施例中,相似地,通道配合模組17計算此些第二特徵組各別與此些通道ch1~ch4所對應的多個第二相似度參數,並依據此些第二相似度參數將此些第二特徵組對應至此些通道ch1~ch4。
然,上述的第一特徵組的值僅為一簡例,實際系統應用時的資料量可能以包含大量數值的矩陣方式呈現,故本發明並不以此為限。
於步驟250中,資料整合模組19用以藉由一卷積(convolution)演算法分別將此些通道各自對應的 此些第一特徵組進行化簡,以取得對應此些第一特徵組的多個第一卷積結果,藉由一池化(pooling)演算法分別將對應此些第一特徵組的此些第一卷積結果進行化簡,以得到對應此些第一特徵組的多個第一池化結果,並結合對應此些第一特徵組的此些第一池化結果,以產生一第一特徵地圖f1,並將此第一特徵地圖f1與一第二特徵地圖f2再次代入此卷積演算法,以取得一第二卷積結果,並將此第二卷積結果再次代入此池化演算法,以取得一第二池化結果。
於一實施例中,如第4圖所示,資料整合模組19藉由卷積演算法分別將通道ch1~ch4各自對應的此些第一特徵組進行化簡後,產生對應此些第一特徵組的多個第一卷積結果C11~C14(例如,資料整合模組19藉由卷積演算法分別將通道ch1中的第一特徵組進行化簡後,產生第一卷積結果C11),接著,藉由池化演算法分別將對應此些第一特徵組的此些第一卷積結果C11~C14進行化簡,以得到對應此些第一特徵組的多個第一池化結果P11~P14(例如,資料整合模組19藉由藉由池化演算法分別將對應此些第一特徵組的此些第一卷積結果C11進行化簡,以得到第一池化結果P11),以產生一第一特徵地圖f1。其中,第一特徵地圖f1是由第一池化結果P11~P14所組成。
相似地,資料整合模組19藉由卷積演算法分別將通道ch1~ch4各自對應的此些第二特徵組進行化簡,以取得對應此些第二特徵組的此些第一卷積結果C21~C24,藉由池化演算法分別將對應此些第二特徵組的此些第一卷積結果C21~C24進行化簡,以得到對應此些第二特徵組的此些第一池化結果P21~P24,並結合對應此些第二特徵組的此些第一池化結果P21~P24,以產生第二特徵地圖f2。其中,第二特徵地圖f2是由第一池化結果P21~P24所組成。
接著,資料整合模組19將第一特徵地圖f1與一第二特徵地圖f2一併再次代入卷積演算法,以取得一第二卷積結果C30,並將第二卷積結果C30再次代入池化演算法,以取得一第二池化結果P30。
接著將第二池化結果P30代回到第3圖繼續進行化簡以得到第三卷積結果(如第三卷積結果261),此外,由於辨識方法之部分400、410及420內的步驟相似,故辨識方法之部分410及辨識方法之部分420亦能取得依據第一特徵資料g(y)及第二特徵資料b(y)、第一特徵資料g(z)及第二特徵資料b(z)分別產生其第二池化結果,故此處不再贅述之。
以下敘述卷積演算法之一例,請參閱第6圖,第6圖為根據本案一實施例繪示的一種卷積演算法的示意圖。於第6圖中,第一特徵組DA代表多個第一特徵組的其中之一組,其包含內容值M1~M25, 特徵映射核心KR包含K1~K9個內容值,特徵映射核心KR用以簡化此第一特徵組DA。首先,先將特徵映射核心KR中的內容值K1~K9依序對應至第一特徵組DA的內容值M1、M2、M3、M6、M7、M8、M11、M12及M13,並將分別對應的內容值相乘後相加,例如,內容值K1、K2、K3、K4、K5、K6、K7、K8、K9分別對應的值為1、0、1、0、2、3、1、1、0,內容值M1、M2、M3、M6、M7、M8、M11、M12、M13分別對應的值為2、3、0、1、2、0、0、1、2,將分別對應的內容值相乘後相加,則可得到1*2+0*3+1*0+0*1+2*2+3*0+1*0+1*1+0*2=7(第一個化簡值);接著,特徵映射核心KR整體往右平移一格,使得內容值K1~K9依序對應至第一特徵組DA的內容值M2、M3、M4、M7、M8、M9、M12、M13及M14,並以上述類似方式將內容值K1~K9及內容值M2、M3、M4、M7、M8、M9、M12、M13及M14分別對應的內容值相乘後相加,以得到第二個化簡值;再接著,特徵映射核心KR整體往右平移一格,使得內容值K1~K9依序對應至第一特徵組DA的內容值M3、M4、M5、M8、M9、M10、M13、M14及M15,並以上述類似方式將內容值K1~K9及內容值M3、M4、M5、M8、M9、M10、M13、M14及M15分別對應的內容值相乘後相加,以得到第三個化簡值;再接著,特徵映射核心KR整體往下移一格並靠 到最左方,使得內容值K1~K9依序對應至第一特徵組DA的內容值M6、M7、M8、M11、M12、M13、M16、M17及M18,並以上述類似方式將內容值K1~K9及內容值M6、M7、M8、M11、M12、M13、M16、M17及M18分別對應的內容值相乘後相加,以得到第四個化簡值...其餘化簡值的計算方式依此類推,據此,最後可以得到9個化簡值,例如可序排列成九宮格形狀的方陣(卷積結果)。
由此可知,此演算法可將原本包含有25個內容值的第一特徵組DA藉由特徵映射核心KR化簡為9個化簡值,換言之,第一特徵組DA原為5*5的方陣,藉由卷積演算法化簡後,可得到3*3的方陣。此外,映射核心KR中的內容值可依據資料的特徵以設定之,藉此,可達到萃取出重要資訊並大量減少後續運算量的效果。
以下敘述池化演算法之一例,請參閱第7圖,第7圖為根據本案一實施例繪示的一種池化演算法的示意圖。於一實施例中,當第一卷積結果PLI輸入池化演算法後,可藉由方陣PLO進行化簡。例如,將方陣PLO中的內容值S1、S2、S3、S4分別對應到第一卷積結果PLI的內容值R1、R2、R4、R5後,可選出內容值R1、R2、R4、R5(如分別為1、2、3、4)中的最大值(如4)作為第一個化簡值;接著,方陣PLO往右平移一格,將方陣PLO中的內容值S1、S2、S3、 S4分別對應到第一卷積結果PLI的內容值R2、R3、R5、R6後,可選出內容值R2、R3、R5、R6中的最大值作為第二個化簡值;接著,方陣PLO往下移一格並靠到最左方,將方陣PLO中的內容值S1、S2、S3、S4分別對應到第一卷積結果PLI的內容值R4、R5、R7、R8後,可選出內容值R4、R5、R7、R8中的最大值作為第三個化簡值;接著,方陣PLO往右移一格,將方陣PLO中的內容值S1、S2、S3、S4分別對應到第一卷積結果PLI的內容值R5、R6、R8、R9後,可選出內容值R5、R6、R8、R9中的最大值作為第四個化簡值。據此,最後可以得到4個化簡值,例如可序排列成四宮格形狀的方陣(池化結果)。
由此可知,此池化演算法可將原本包含有9個內容值的第一卷積結果PLI化簡為4個化簡值,換言之,第一卷積結果PLI原為3*3的方陣,藉由池化演算法化簡後,可得到2*2的方陣。藉此,池化演算法可達到進一步萃取出重要資訊並大量減少後續運算量的效果。
須注意的是,本案並不僅限於採用4個容值中的最大值作為化簡值,亦可採用平均數、最小值、中間值...等各種方式以化簡出池化結果。
於步驟260中,模型訓練模組21將第二池化結果代入一模型訓練演算法,以產生一辨識模型。
於一實施例中,如第3圖所示,資料整合模組19透過方法400、410、420,以產生多個第二池化結果後(即完成第4圖所示的步驟P30後),將此些第二池化結果代入卷積演算法,以產生多個第三卷積結果261、263、265,並將該第三積結果代入池化演算法,以取得多個第三池化結果262、264、266。
於一實施例中,第三卷積結果261依據由方法400、410及420所產生的第二池化結果運算而得。另外,第三卷積結果263、265的產生方式與第三卷積結果261類似,故此處不再贅述之。
於一實施例中,模型訓練模組21依據此些第三池化結果,以訓練模型並產生辨識模型。
於一實施例中,模型訓練演算法為一類神經網路演算法、一支持向量機(Support Vector Machines)、決策樹(Decision Tree)、一貝氏分類器(Bayesian Classifier)、一期望最大演算法(Expectation Maximization)及一K最近鄰居法(K-Nearest Neighbor)至少其中之一者,其中當模型訓練演算法為類神經網路演算法時,藉由類神經網路演算法的至少一隱藏層267、268(hidden layer)及一分類器269(classifier)以產生辨識模型。
由於步驟260所述的用以產生辨識模型的模型訓練演算法可由現有技術加以應用,故此處不贅述之。
於一實施例中,當辨識模型建立後,若電子裝置D1接收到新的感測資訊時,可經過前述步驟210~250,以辨識此感測資訊中的關鍵特徵,再利用辨識模型以判斷此感測資訊對應到使用者的何種動作。
於一實施例中,辨識模型可接收多維度資料(即新的感測資訊經由上述步驟210~250化簡後的資料)、接收數值列表或範圍(例如為3個動作數及其各自對應的數值列表或範圍)及/或接收模型以調整好的參數。於一實施例中,處理器11中的辨識模型可依據多維度資料稍作運算(如比對、求平均值、求變異數或其他統計方法)後,以找出對應此多維度資料的使用者動作。
例如,當多維度資料中所有值的平均值位於對應到手部畫圓的數值列表或範圍中,則處理器11判斷使用者的手部動作為畫圓。
又例如,當處理器11依據多維度資料中所有值的變異數以判斷其動作對應到手部左右晃動的機率為10%,而對應到手部上下晃動的機率為90%,則處理器11判斷使用者的手部動作為上下晃動。
請參閱第8A~8B圖,第8A~8B圖為根據本案一實施例繪示的一種辨識系統之應用的示意圖。於一實施例中,本案的辨識方法可實作於電子裝置D1(如手機)的應用程式(APP)中,或是透過應用程式將感 測裝置10收集到的資料傳至遠端的電子裝置D1(如雲端伺服器)進行運算。於此例中,當感測裝置10為一智慧型手錶時,使用者可穿戴此感測裝置10並進行刷牙,感測裝置10可將使用者手部拿取牙刷的動作傳送到感測裝置10,此感測裝置10可精準的判斷使用者的刷牙動作,將牙刷圖示BS對應牙齒的位置透過電子裝置D1的顯示器40以顯示之,並於使用者刷牙結束後,藉由應用程式的使用者介面顯示使用者的刷牙情形(如第8B圖)所示,藉此讓使用者了解是否已正確地完成刷牙。
請參閱第9A~9C圖,第9A~9C圖為根據本案一實施例繪示的一種辨識系統之應用的示意圖。如第9A~9C圖所示,本案辨識系統100亦可應用於虛擬實境的操作中,例如當使用者於頭部穿戴虛擬實境眼鏡VRG並於手部穿戴感測裝置10時,本案的辨識系統100能夠透過依據時間序列精準的擷取特徵,藉此過濾掉不必要的雜訊(例如畫圓的起手動作、線段長度過短等情況),以精準地辨識使用者畫圓(如第9A圖)、左右晃動(如第9B圖)或閃電形狀揮動(如第9C圖)等動作。然,本發明並不僅限於判斷此些手勢之例子。
藉由本案所述之辨識系統及辨識方法,可自動化地依據時間序列擷取特徵,可清楚地分析持續性(sustained)及非持續性(nonsustained)動作;其中, 持續性動作代表一段時間(如3分鐘)都做同樣動作(例如刷牙一直橫刷),並且重覆多次;而非持續性動作可為單一特定動作或連續多種動作,例如,單一特定動作代表一段較短時間(如1秒鐘)進行一個畫圓動作,此畫圓動作只進行一次,而連續多種動作,亦即連續性(continuous)動作,代表一段時間(如30秒)內做了多個「單一特定動作」(例如畫圓動作之後接閃電動作,閃電動作之後接砍殺動作,此些動作之間也包含多個畫圓動作),藉由區分此些動作,本案可更準確地區分動作差異,以達到提升辨識動作之精準度的功效。此外,本案應用池化演算法及卷積演算法,可大幅降低運算量,並能夠精準地取得關鍵動作特徵。
雖然本案已以實施例揭露如上,然其並非用以限定本案,任何熟習此技藝者,在不脫離本案之精神和範圍內,當可作各種之更動與潤飾,因此本案之保護範圍當視後附之申請專利範圍所界定者為準。

Claims (14)

  1. 一種辨識系統,包含:一處理器,用以接收來自一感測裝置之一移動資料,該處理器包含:一前處理模組,用以由該移動資料中擷取出複數個特徵資料;其中,該些特徵資料包含一第一特徵資料及一第二特徵資料;一資料切割模組,用以將該第一特徵資料切割為複數個第一特徵區段,並將該些第一特徵區段進行分組,以得到複數個第一特徵組,並計算該些第一特徵組各別與複數個通道所對應的複數個第一相似度參數,以及將該第二特徵資料切割為複數個第二特徵區段,並將該些第二特徵區段進行分組,以得到複數個第二特徵組;一通道配合模組,用以依據該些第一相似度參數將該些第一特徵組對應至該些通道,以及計算該些第二特徵組各別與該些通道所對應的複數個第二相似度參數,並依據該些第二相似度參數將該些第二特徵組對應至該些通道;一資料整合模組,用以藉由一卷積(convolution)演算法分別將該些通道各自對應的該些第一特徵組進行化簡,以取得對應該些第一特徵組的複數個第一卷積結果,藉由一池化(pooling)演算法分別將對應該些第一特徵組的該些第一卷積結果進行化簡,以得到對應該些第一特徵組的複數 個第一池化結果,並結合對應該些第一特徵組的該些第一池化結果,以產生一第一特徵地圖,以及藉由該卷積演算法分別將該些通道各自對應的該些第二特徵組進行化簡,以取得對應該些第二特徵組的該些第一卷積結果,藉由該池化演算法分別將對應該些第二特徵組的該些第一卷積結果進行化簡,以得到對應該些第二特徵組的該些第一池化結果,並結合對應該些第二特徵組的該些第一池化結果,以產生該第二特徵地圖,以及將該第一特徵地圖與該第二特徵地圖再次代入該卷積演算法,以取得一第二卷積結果,並將該第二卷積結果再次代入該池化演算法,以取得一第二池化結果;以及一模型訓練模組,用以將該第二池化結果代入一模型訓練演算法,以產生一辨識模型。
  2. 如申請專利範圍第1項所述之辨識系統,其中該資料切割模組更用以依據一時間序列,將該第一特徵資料切割為該些第一特徵區段,並將該些第一特徵區段依據該時間序列進行分組,以得到該些第一特徵組,其中,該時間序列是指該第一特徵資料中的該些特徵區段被產生的先後順序。
  3. 如申請專利範圍第1項所述之辨識 系統,其中該前處理模組由該移動資料中先擷取出該第一特徵資料後,將去除該移動資料中的該第一特徵資料後所得之一剩餘資料視為該第二特徵資料。
  4. 如申請專利範圍第1項所述之辨識系統,其中該移動資料為一加速度資料,該第一特徵資料為一重力資料。
  5. 如申請專利範圍第1項所述之辨識系統,其中該資料整合模組更用以產生複數個第二池化結果,並將該些第二池化結果代入該卷積演算法,以產生複數個第三卷積結果,並將該些第三積結果分別代入該池化演算法,以取得複數個第三池化結果。
  6. 如申請專利範圍第5項所述之辨識系統,其中該模型訓練模組依據該些第三池化結果以產生該辨識模型。
  7. 如申請專利範圍第1項所述之辨識系統,其中該通道配合模組計算各該些第一特徵組中的複數個內容值之一平均值、一共變異數(covariance)、一距離值或一相關係數值,以取得該些第一相似度參數。
  8. 一種辨識方法,包含:感測一移動資料;由該移動資料中擷取出複數個特徵資料;其中,該些特徵資料包含一第一特徵資料及一第二特徵資料;將該第一特徵資料切割為複數個第一特徵區段,並將該些第一特徵區段進行分組,以得到複數個第一特徵組,並計算該些第一特徵組各別與複數個通道所對應的複數個第一相似度參數,以及將該第二特徵資料切割為複數個第二特徵區段,並將該些第二特徵區段進行分組,以得到複數個第二特徵組;依據該些第一相似度參數將該些第一特徵組對應至該些通道,以及計算該些第二特徵組各別與該些通道所對應的複數個第二相似度參數,並依據該些第二相似度參數將該些第二特徵組對應至該些通道;藉由一卷積(convolution)演算法分別將該些通道各自對應的該些第一特徵組進行化簡,以取得對應該些第一特徵組的複數個第一卷積結果,以及藉由該卷積演算法分別將該些通道各自對應的該些第二特徵組進行化簡,以取得對應該些第二特徵組的該些第一卷積結果;藉由一池化(pooling)演算法分別將對應該些 第一特徵組的該些第一卷積結果進行化簡,以得到對應該些第一特徵組的複數個第一池化結果,以及藉由該池化演算法分別將對應該些第二特徵組的該些第一卷積結果進行化簡,以得到對應該些第二特徵組的該些第一池化結果;結合對應該些第一特徵組的該些第一池化結果,以產生一第一特徵地圖,以及結合對應該些第二特徵組的該些第一池化結果,產生一第二特徵地圖;將該第一特徵地圖與該第二特徵地圖再次代入該卷積演算法,以取得一第二卷積結果;將該第二卷積結果再次代入該池化演算法,以取得一第二池化結果;以及將該第二池化結果代入一模型訓練演算法,以產生一辨識模型。
  9. 如申請專利範圍第8項所述之辨識方法,更包含:依據一時間序列,將該第一特徵資料切割為該些第一特徵區段,並將該些第一特徵區段依據該時間序列進行分組,以得到該些第一特徵組,其中,該時間序列是指該第一特徵資料中的該些第一特徵區段被產生的先後順序。
  10. 如申請專利範圍第8項所述之辨 識方法,更包含:由該移動資料中先擷取出該第一特徵資料後,將去除該移動資料中的該第一特徵資料後所得之一剩餘資料視為該第二特徵資料。
  11. 如申請專利範圍第8項所述之辨識方法,其中該移動資料為一加速度資料,該第一特徵資料為一重力資料。
  12. 如申請專利範圍第8項所述之辨識方法,更包含:產生複數個第二池化結果,並將該些第二池化結果代入該卷積演算法,以產生複數個第三卷積結果;將該些第三積結果分別代入該池化演算法,以取得複數個第三池化結果。
  13. 如申請專利範圍第12項所述之辨識方法,其中該模型訓練模組依據該些第三池化結果以產生該辨識模型。
  14. 如申請專利範圍第8項所述之辨識方法,更包含:計算各該些第一特徵組中的複數個內容值之一平均值、一共變異數(covariance)、一距離值或一相關係數值,以取得該些第一相似度參數。
TW106107076A 2017-03-03 2017-03-03 辨識系統及辨識方法 TWI617993B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
TW106107076A TWI617993B (zh) 2017-03-03 2017-03-03 辨識系統及辨識方法
CN201710212316.0A CN108536278B (zh) 2017-03-03 2017-04-01 辨识系统及辨识方法
US15/499,878 US10185870B2 (en) 2017-03-03 2017-04-27 Identification system and identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW106107076A TWI617993B (zh) 2017-03-03 2017-03-03 辨識系統及辨識方法

Publications (2)

Publication Number Publication Date
TWI617993B true TWI617993B (zh) 2018-03-11
TW201833814A TW201833814A (zh) 2018-09-16

Family

ID=62189314

Family Applications (1)

Application Number Title Priority Date Filing Date
TW106107076A TWI617993B (zh) 2017-03-03 2017-03-03 辨識系統及辨識方法

Country Status (3)

Country Link
US (1) US10185870B2 (zh)
CN (1) CN108536278B (zh)
TW (1) TWI617993B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI701608B (zh) * 2018-09-07 2020-08-11 香港商阿里巴巴集團服務有限公司 用於圖片匹配定位的神經網路系統、方法及裝置
TWI723634B (zh) * 2019-10-01 2021-04-01 創鑫智慧股份有限公司 資料處理系統及其資料處理方法
TWI758749B (zh) * 2020-06-16 2022-03-21 國立臺北科技大學 動作判斷方法及系統
US11409999B2 (en) 2020-04-21 2022-08-09 Industrial Technology Research Institute Method of labelling features for image recognition and apparatus thereof
TWI785277B (zh) * 2018-10-26 2022-12-01 美商戴爾產品有限公司 用於預測系統回應的聚合隨機方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI682325B (zh) * 2018-11-20 2020-01-11 新唐科技股份有限公司 辨識系統及辨識方法
CN109635925A (zh) * 2018-11-30 2019-04-16 北京首钢自动化信息技术有限公司 一种运动员辅助训练数据获取方法、装置及电子设备
CN111681248B (zh) * 2020-05-06 2023-05-05 安徽省迪盛织造整理有限公司 一种组合型布料识别分割方法和系统
CN114818991B (zh) * 2022-06-22 2022-09-27 西南石油大学 基于卷积神经网络和加速度传感器的跑步行为识别方法
CN115099361B (zh) * 2022-07-15 2024-08-06 井芯微电子技术(天津)有限公司 一种基于ai识别的异构体多路数据匹配算法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5454043A (en) * 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
TW201227460A (en) * 2010-12-17 2012-07-01 Nokia Corp Method and apparatus for providing different user interface effects for different implementation characteristics of a touch event
CN104933417A (zh) * 2015-06-26 2015-09-23 苏州大学 一种基于稀疏时空特征的行为识别方法
TW201617941A (zh) * 2014-08-11 2016-05-16 微軟技術授權有限責任公司 產生與使用知識增強模型
CN105930793A (zh) * 2016-04-19 2016-09-07 中山大学 一种基于sae特征可视化学习的人体检测方法
TW201640419A (zh) * 2015-05-13 2016-11-16 盾心科技股份有限公司 影像辨識與監控系統及其實施方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL231862A (en) * 2014-04-01 2015-04-30 Superfish Ltd Image representation using a neural network
JP6388356B2 (ja) * 2014-06-17 2018-09-12 ナント ホールディングス アイピー, エルエルシー 行動認識システム及び方法
US9473803B2 (en) * 2014-08-08 2016-10-18 TCL Research America Inc. Personalized channel recommendation method and system
TWI534656B (zh) * 2014-08-28 2016-05-21 財團法人資訊工業策進會 辨識裝置、智慧裝置以及資訊提供方法
JP2017034350A (ja) * 2015-07-29 2017-02-09 キヤノン株式会社 音響装置及びその制御方法、コンピュータプログラム
CN105654037B (zh) * 2015-12-21 2019-05-21 浙江大学 一种基于深度学习和特征图像的肌电信号手势识别方法
CN106155327A (zh) * 2016-08-01 2016-11-23 乐视控股(北京)有限公司 手势识别方法和系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5454043A (en) * 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
TW201227460A (en) * 2010-12-17 2012-07-01 Nokia Corp Method and apparatus for providing different user interface effects for different implementation characteristics of a touch event
TW201617941A (zh) * 2014-08-11 2016-05-16 微軟技術授權有限責任公司 產生與使用知識增強模型
TW201640419A (zh) * 2015-05-13 2016-11-16 盾心科技股份有限公司 影像辨識與監控系統及其實施方法
CN104933417A (zh) * 2015-06-26 2015-09-23 苏州大学 一种基于稀疏时空特征的行为识别方法
CN105930793A (zh) * 2016-04-19 2016-09-07 中山大学 一种基于sae特征可视化学习的人体检测方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI701608B (zh) * 2018-09-07 2020-08-11 香港商阿里巴巴集團服務有限公司 用於圖片匹配定位的神經網路系統、方法及裝置
TWI785277B (zh) * 2018-10-26 2022-12-01 美商戴爾產品有限公司 用於預測系統回應的聚合隨機方法
TWI723634B (zh) * 2019-10-01 2021-04-01 創鑫智慧股份有限公司 資料處理系統及其資料處理方法
US11409999B2 (en) 2020-04-21 2022-08-09 Industrial Technology Research Institute Method of labelling features for image recognition and apparatus thereof
TWI758749B (zh) * 2020-06-16 2022-03-21 國立臺北科技大學 動作判斷方法及系統

Also Published As

Publication number Publication date
CN108536278B (zh) 2021-03-19
US20180253594A1 (en) 2018-09-06
US10185870B2 (en) 2019-01-22
TW201833814A (zh) 2018-09-16
CN108536278A (zh) 2018-09-14

Similar Documents

Publication Publication Date Title
TWI617993B (zh) 辨識系統及辨識方法
Shao et al. Clustering on multiple incomplete datasets via collective kernel learning
JP6243080B1 (ja) プリプロセッサおよび異常予兆診断システム
US7437308B2 (en) Methods for estimating the seasonality of groups of similar items of commerce data sets based on historical sales date values and associated error information
CN111401339B (zh) 识别人脸图像中的人的年龄的方法、装置及电子设备
CN107368820B (zh) 一种精细化手势识别方法、装置及设备
CN113254549B (zh) 人物关系挖掘模型的训练方法、人物关系挖掘方法及装置
CN103714135B (zh) 海量用户的二度人脉关系MapReduce推荐方法及系统
CN115391670B (zh) 一种基于知识图谱的互联网行为分析方法与系统
CN103942571A (zh) 一种基于遗传规划算法的图形图像分类方法
CN106264545B (zh) 步伐识别方法及装置
CN112149737A (zh) 选择模型训练方法、模型选择方法、装置及电子设备
CN110956277A (zh) 一种交互式的迭代建模系统及方法
US20230139218A1 (en) Data processing device, system, data processing method, and recording medium
CN107463689A (zh) 运动特征数据库的生成方法、运动状态识别方法及终端
JP6929260B2 (ja) 時系列特徴抽出装置、時系列特徴抽出方法及びプログラム
JP5846165B2 (ja) 特徴量抽出装置、方法、およびプログラム
KR102549937B1 (ko) Sns 텍스트 기반의 사용자의 인테리어 스타일 분석 모델 제공 장치 및 방법
US11094047B2 (en) Computer architecture for emulating an irregular lattice correlithm object generator in a correlithm object processing system
US10990649B2 (en) Computer architecture for emulating a string correlithm object velocity detector in a correlithm object processing system
JP2021022199A5 (zh)
Mital Detection of Parkinson's disease through static and dynamic spiral test drawings: a transfer learning approach
US11263290B2 (en) Computer architecture for emulating a bidirectional string correlithm object generator in a correlithm object processing system
US11107003B2 (en) Computer architecture for emulating a triangle lattice correlithm object generator in a correlithm object processing system
US10915345B2 (en) Computer architecture for emulating intersecting multiple string correlithm objects in a correlithm object processing system