TW202211005A - 行為識別方法、行為識別系統及手寫辨識系統 - Google Patents
行為識別方法、行為識別系統及手寫辨識系統 Download PDFInfo
- Publication number
- TW202211005A TW202211005A TW109130364A TW109130364A TW202211005A TW 202211005 A TW202211005 A TW 202211005A TW 109130364 A TW109130364 A TW 109130364A TW 109130364 A TW109130364 A TW 109130364A TW 202211005 A TW202211005 A TW 202211005A
- Authority
- TW
- Taiwan
- Prior art keywords
- behavior
- value
- embedded
- control unit
- sensor
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Character Discrimination (AREA)
Abstract
本案係關於一種行為識別方法,包括步驟:取得複數個嵌入特徵值;將至少一感測器所得之數據集轉換為行為特徵值;比對行為特徵值及複數個嵌入特徵值並產生比對結果;以及根據比對結果進行一行為識別。藉此,本案可達到準確判斷行為之功效。
Description
本案係關於一種識別方法,尤指一種行為識別方法、行為識別系統及手寫辨識系統。
人工智慧(Artificial Intelligence, AI)主要是指透過電腦程式來呈現人類智慧的技術,目前的初步成果在語言分析及棋類遊戲等領域已經有超越人類智慧的表現。人工智慧在行為識別的應用仍在持續發展中,期望在未來能有更好的效果,帶來更便利的生活。
請參閱第1圖及第2圖,其中第1圖係顯示傳統人工智慧模型過於泛化的統計示意圖,以及第2圖係顯示傳統人工智慧模型過於最佳化的統計示意圖。在第1圖及第2圖中,曲線代表的是模型的匹配曲線,各個點代表的是實際的數據。由第1圖可看出,當人工智慧模型的匹配曲線與實際數據相差甚大的時候,屬於過於泛化(Generalization)的人工智慧模型,無法有效對應實際數據;另第2圖屬於現行的多數人工智慧模型,在判斷人類行為時,在模型訓練集(Training set)的表現佳,但在測試集(Test set),即從未見過的數據的表現極差,屬於過於最佳化(Optimization)的人工智慧模型,表示現行的多數人工智慧模型沒有足夠的泛化能力。
具體而言,泛化說明人工智慧模型對於未見過的資料的表現能力;而最佳化的目的是找到最小化訓練集損失的最佳參數。在機器學習中,最佳化和泛化之間的權衡是當前的重要課題。在調整最佳化及泛化的平衡過程中,亦有可能造成基本行為判斷失準的問題。
故此,如何發展一種可有效解決前述先前技術之問題與缺點,準確判斷行為且能達到足夠泛化能力並節省資源的行為識別方法、行為識別系統及手寫辨識系統,實為目前尚待解決的問題。
本案之主要目的為提供一種行為識別方法、行為識別系統及手寫辨識系統,俾解決並改善前述先前技術之問題與缺點。
本案之另一目的為提供一種行為識別方法、行為識別系統及手寫辨識系統,藉由感測器取得之數據集轉換為行為特徵值,並比對行為特徵值及複數個嵌入特徵值以產生比對結果,並根據比對結果進行行為識別,可以達到準確判斷行為之功效。
本案之另一目的為提供一種行為識別方法、行為識別系統及手寫辨識系統,透過以人工智慧自動學習且持續學習的方法與架構,可使本案的行為識別能力持續被調整及訓練,以使行為識別能力更為吻合使用者行為動作,有效提升泛化能力,且不會過於最佳化。此外,由於本案僅儲存行為特徵值對應的計數值以及被調整後的中心點數值,可以有效減少計算量及記憶體用量,以減少資源的浪費,進而達到更好的效能。
為達上述目的,本案之一較佳實施態樣為提供一種行為識別方法,包括步驟:(a)取得複數個嵌入特徵值;(b)將至少一感測器所得之數據集轉換為一行為特徵值;(c)比對該行為特徵值及該複數個嵌入特徵值,並產生一比對結果;以及(d)根據該比對結果,進行一行為識別。
為達上述目的,本案之一較佳實施態樣為提供一種行為識別系統,包括:一控制單元;一第一感測器,與該控制單元相連接,其中該第一感測器根據一使用者的一行為取得一第一感測資料;一第二感測器,與該控制單元相連接,其中該第二感測器根據該使用者的該行為取得一第二感測資料;以及一資料庫,與該控制單元相連接,用以儲存複數個嵌入特徵值;其中,該控制單元將該第一感測資料及該第二感測資料轉換為一行為特徵值,並比對該行為特徵值及該複數個嵌入特徵值,以對該行為進行一行為識別。
為達上述目的,本案之一較佳實施態樣為提供一種手寫辨識系統,包括:一控制單元;一感測器,與該控制單元相連接,其中該感測器根據一簽署者的一簽名動作取得一手寫筆跡;以及一資料庫,與該控制單元相連接,用以儲存至少一嵌入特徵筆跡,其中該嵌入特徵筆跡對應至一註冊者;其中,該控制單元係以K-平均演算法計算該手寫筆跡至該嵌入特徵筆跡的一歐氏距離,且當該歐氏距離小於或等於一閾值時,判斷該簽署者與該註冊者為相同。
體現本案特徵與優點的一些典型實施例將在後段的說明中詳細敘述。應理解的是本案能夠在不同的態樣上具有各種的變化,其皆不脫離本案的範圍,且其中的說明及圖示在本質上係當作說明之用,而非架構於限制本案。
請參閱第3圖及第4圖,其中第3圖係顯示本案一實施例之行為識別方法之流程圖,以及第4圖係顯示本案一實施例之行為識別系統之架構方塊圖。如第3圖及第4圖所示,本案一較佳實施例之行為識別方法包括以下步驟:首先,如步驟S100所示,取得複數個嵌入特徵值。其次,如步驟S200所示,將至少一感測器取得之數據集轉換為行為特徵值,應特別注意的是,感測器所取得的數據集,係經過人工智慧模型(AI Model)後轉換為行為特徵值,但不以此為限。接著,如步驟S300所示,比對行為特徵值及複數個嵌入特徵值,並產生比對結果;然後,如步驟S400所示,根據比對結果,進行行為識別。藉此,本案之行為識別方法可以達到準確判斷行為之功效。
在一些實施例中,本案之行為識別方法可以行為識別系統1實現。行為識別系統1包括控制單元10、第一感測器11、第二感測器12以及資料庫13。第一感測器11與控制單元10相連接,第二感測器12與控制單元10相連接,且資料庫13與控制單元10相連接。本案之行為識別方法之步驟S100可由控制單元10配合資料庫13實現,步驟S200可由第一感測器11配合控制單元10實現,亦可由第一感測器11及第二感測器12配合控制單元10實現。此外,本案之行為識別方法之步驟S300及步驟S400係可由控制單元10配合資料庫13實現,其中資料庫13用以儲存複數個嵌入特徵值。具體而言,第一感測器11根據使用者的行為取得第一感測資料,第二感測器12根據使用者的行為取得第二感測資料,且控制單元10將第一感測資料及第二感測資料轉換為行為特徵值,並比對行為特徵值及複數個嵌入特徵值,以對使用者的行為進行行為識別。
在一些實施例中,第一感測器11為加速度感測器(Accelerometer),亦稱為重力感測器(G-Sensor),第二感測器12為陀螺儀(Gyroscope, Gyro-Sensor),但不以此為限。藉由加速度感測器搭配陀螺儀的感測,本案行為識別方法係可將六軸的數值整合為行為特徵值。當然,本案的實際應用不以六軸數值為限,搭配的感測器數量可依實際需求選用之。
在一些實施例中,本案行為識別系統可進一步包括第三感測器14,其中第三感測器14與控制單元10相連接,且第三感測器14為加速度感測器、陀螺儀、磁力感測器(M-Sensor)、氣壓感測器或壓力感測器,可配合第一感測器11及第二感測器12提供九軸的數值整合為行為特徵值,以提升行為識別的精準度,亦可感測壓力變化而輔助判斷在特定環境下的行為,例如登山及潛水等,但不以此為限。
請參閱第5圖及第6圖並配合第3圖,其中第5圖係顯示本案行為識別方法之複數個嵌入特徵值對應的行為示意圖,以及第6圖係顯示可能對應至同一嵌入特徵值的行為特徵值對應的行為示意圖。如第3圖、第5圖及第6圖所示,在本案之行為識別方法中,比對結果係將行為特徵值從複數個嵌入特徵值中比對出數值最接近之嵌入特徵值,且每一個嵌入特徵值各別對應至一行為。具體而言,本案的複數個嵌入特徵值可如第5圖所示,分別對應至例如:下樓梯、上樓梯、跳躍、行走、奔跑、騎自行車及跳繩等,但不以此為限。以跳躍為例,當一使用者進行第6圖所示的十個行為中的任一個時,感測器取得的行為特徵值皆會對應至如第5圖所框示的跳躍行為的嵌入特徵值。也就是說,第6圖所示的10個行為在步驟S300的步驟中皆會被視為是跳躍。
請參閱第7圖,其係顯示本案一實施例之行為識別方法之流程圖。如第7圖所示,本案一較佳實施例之行為識別方法之步驟S100係進一步包括步驟S110及步驟S120。其中,在步驟S110中,至少一感測器從使用者初次進行的多個行為中,各別取得原始數據(Raw Data);接著,在步驟S120中,係將原始數據作為輸入資料,以人工智慧訓練產生複數個嵌入特徵值。具體而言,步驟S110及步驟S120為輸入資料前處理之步驟。舉例來說,當本案之行為識別方法取得例如六軸感測器的原始數據後,係將該等數據視為一幀(Frame),訓練出行為對應的嵌入特徵值,組成一幀後會進行標準化(Normalize),而在完成一幀後可以再進行前處理,將該幀的FLOAT32資料量化為INT8,之後對該幀進行平均演算、標準差演算及/或預白化演算(Pre-whitening),但不以此為限。
請參閱第8圖,其係顯示本案一實施例之行為識別方法之流程圖。如第8圖所示,本案一較佳實施例之行為識別方法之步驟S100係進一步包括步驟S150。在步驟S150中,係以人工智慧訓練產生複數個嵌入特徵值。在此實施例中,訓練資料可採用例如採樣率(Sample rate)為200次/秒 (Hz),將每2.5秒視為一幀,若採用六軸感測器則一幀的尺寸會是6*200*2.5,接著將圖片幀做卷積神經網路的批量標準化(Batch normalization),完成後透過深度學習(Deep Learning)架構,後面再進行L2 範數(Norm)產生嵌入特徵值,訓練好的嵌入特徵值可以是128至1024維度,但不以此為限。
本案行為識別方法所採用的人工智慧訓練可另以第9圖舉例。請參閱第9圖,其係顯示本案行為識別方法之錨點行為、正值行為及負值行為以及經過學習調整的距離關係示意圖。如第9圖所示,當一普通行走的行為被視為錨點行為時,若以相近的方式行走會被視為正值行為;而若進行如奔跑等差異較大的行為則會被視為負值行為。在以人工智慧訓練之前,可能會存在負值行為較為接近錨點行為而正值行為較為遠離錨點行為的狀況。然而,透過本案之行為識別方法所採用的人工智慧訓練進行學習後,可有效校正,使得正值行為較為接近錨點行為且負值行為較為遠離錨點行為,使得行為識別的準確度大幅提昇。
請參閱第10圖並配合第8圖,其中第10圖係顯示本案行為識別方法在一歐氏空間中註冊第一行為、第二行為及第三行為作為嵌入特徵值之中心點數值之示意圖。如第8圖及第10圖所示,在本案之行為識別方法之一實施例中,。換言之,在使用者第一次進行一個新行為時,感測器所取得的行為特徵值會被註冊為一個嵌入特徵值,以對應至新行為。舉例來說,當使用者第一次進行第一行為時,第一行為被感測器取得的行為特徵值會在一歐氏空間中被註冊為對應第一行為的嵌入特徵值的中心點數值,即第一行為群集的群心;當使用者第一次進行第二行為時,第二行為被感測器取得的行為特徵值會在歐氏空間中被註冊為對應第二行為的嵌入特徵值的中心點數值,即第二行為群集的群心;當使用者第一次進行第三行為時,第三行為被感測器取得的行為特徵值會在歐氏空間中被註冊為對應第三行為的嵌入特徵值的中心點數值,即第三行為群集的群心。此外,每一個嵌入特徵值係各別大於或等於中心點數值減去一差值且小於或等於中心點數值加上該差值,亦即差值大小會決定嵌入特徵值的維度。差值的定義或選用可以依照實際需求進行變化,但不以此為限。
請參閱第11圖及第12圖、第13圖並配合第10圖,其中第11圖係顯示本案一實施例之行為識別方法之流程圖,第12圖係顯示本案行為識別方法在第10圖所示之歐氏空間中的行為特徵值示意圖,以及第13圖係顯示本案行為識別方法在第10圖所示之歐氏空間中的行為特徵值示意圖。如第10圖、第11圖、第12圖及第13圖所示,本案一實施例之行為識別方法於步驟S400之後係進一步包括步驟S500,以K-平均演算法計算並調整中心點數值,即調整歐氏空間中的群心位置。於此步驟S400中,較佳係以K-平均演算法(K-means)計算行為特徵值至對應的嵌入特徵值的歐氏距離。然而,在以下的幾種狀況:(1)當歐氏距離大於第一閾值,(2)對應各嵌入特徵值的歐式距離之間,其差距小於一特定值(例如:歐式距離之最大值與最小值間,差異小於0.2),或(3)存在具有兩相同的歐式距離,將排除行為特徵值,不調整該中心點數值。其中,於狀況(1)中,第一閾值可為4。
對前段作更進一步說明,當一行為特徵值在歐氏空間中極度遠離各群心時(如第12圖所示的加大體積點對應的行為特徵值),歐氏距離大於第一閾值,例如大於4,代表行為特徵值與各嵌入特徵值皆不吻合,不存在調整的必要,或調整後反而會造成不準確,故本案之行為識別方法排除該行為特徵值,不調整群心的位置。另外,當各嵌入特徵值的歐式距離之間差距過小(如第13圖所示的加大體積點對應的行為特徵值),或具有兩相同的歐式距離之時,因無法準確判斷使用者實際動作,故本案之行為識別方法亦會排除該行為特徵值,不調整群心的位置。
進一步地,當歐氏距離小於或等於第一閾值時,調整中心點數值,即調整歐氏空間中的群心位置。藉此,本案之行為識別方法之行為識別能力可隨著調整的次數更為吻合使用者行為動作。值得注意的是,本案之行為識別方法在中心點數值被調整後,係儲存行為特徵值對應的計數值及被調整後的中心點數值,且不記錄行為特徵值本身。因此,不論取得多少次的行為特徵值,都僅有佔用一個計數值以及調整後的中心點數值的儲存空間,可以有效減少計算量及記憶體用量,以減少資源的浪費,進而達到更好的效能。舉例來說,如第13圖所示,當代表第三行為的點已有M點,假設群心為U,新增的點為i,本案的新群心Unew = (U*M+i)/M+1,如此只需儲存計算值(Count)以及各群心的值,可有效減少計算量及記憶體用量。
請參閱第14圖並配合第4圖,其中第14圖係顯示本案一實施例之行為識別方法之流程圖。如第4圖及第14圖所示,本案一實施例之行為識別方法於步驟S500之後係進一步包括步驟S600,將被步驟S500中被排除的行為特徵值及其對應的歐氏距離記錄於學習資料庫,其中學習資料庫可內建於行為識別系統1的資料庫13,亦可獨立存在,但不以此為限。當學習資料庫中存在特定數量的行為特徵值彼此之間的歐氏距離皆小於第二閾值時,將特定數量的行為特徵值對應建立新嵌入特徵值,並將新嵌入特徵值對應至新行為,其中第二閾值可為2。換言之,當使用者多次進行新行為且每次的行為特徵值相近,在累積到一定次數後,本案之行為識別方法及行為識別系統會自動學習並對應建立新嵌入特徵值及其對應之新行為。
請參閱第15圖,其係顯示本案之人工智慧模型之泛化能力的統計示意圖。綜合上述各實施例之行為識別方法及行為識別系統,本案所能達到的人工智慧泛化能力係如第15圖所示,匹配曲線可以有效對應至各個行為特徵,泛化能力好。由此可見,本案之行為識別方法可提供人工智慧自動學習且持續學習的特徵,使本案的行為識別能力持續被調整及訓練,以使行為識別能力更為吻合使用者行為動作,有效提升泛化能力,且不會過於最佳化。
另一方面,基於本案之方法與架構,更可衍生應用於其他領域進行識別或辨識。請參閱第16圖,其係顯示本案一實施例之手寫辨識系統之架構方塊圖。如第16圖所示,本案一較佳實施例之手寫辨識系統2包括控制單元20、感測器21及資料庫22。其中,感測器21與控制單元20相連接。感測器21根據簽署者的簽名動作取得手寫筆跡。資料庫22與控制單元20相連接,用以儲存至少一嵌入特徵筆跡。嵌入特徵筆跡對應至註冊者。控制單元20係以K-平均演算法計算手寫筆跡至嵌入特徵筆跡的歐氏距離,且當歐氏距離小於或等於閾值時,判斷簽署者與註冊者為相同。藉此,本案之手寫辨識系統可以提供給金融機構或其他領域之應用,以對照簽署者是否為註冊者本人。進一步地,此手寫辨識系統也可以具備如前述行為識別方法及行為識別系統的自動學習且持續學習的特徵,增加日後的泛化能力與準確率,亦可綁定智慧筆硬體,取代人工比對筆跡的方式。
綜上所述,本案提供一種行為識別方法、行為識別系統及手寫辨識系統,藉由感測器取得行為特徵值並與複數個嵌入特徵值比對產生比對結果,並根據比對結果進行行為識別,可以達到準確判斷行為之功效。同時,透過以人工智慧自動學習且持續學習的方法與架構,可使本案的行為識別能力持續被調整及訓練,以使行為識別能力更為吻合使用者行為動作,有效提升泛化能力,且不會過於最佳化。此外,由於本案僅儲存行為特徵值對應的計數值以及被調整後的中心點數值,可以有效減少計算量及記憶體用量,以減少資源的浪費,進而達到更好的效能。
縱使本發明已由上述之實施例詳細敘述而可由熟悉本技藝之人士任施匠思而為諸般修飾,然皆不脫如附申請專利範圍所欲保護者。
1:行為識別系統
10:控制單元
11:第一感測器
12:第二感測器
13:資料庫
14:第三感測器
2:手寫辨識系統
20:控制單元
21:感測器
22:資料庫
S100:步驟
S110:步驟
S120:步驟
S150:步驟
S200:步驟
S300:步驟
S400:步驟
S500:步驟
S600:步驟
第1圖係顯示傳統人工智慧模型過於泛化的統計示意圖。
第2圖係顯示傳統人工智慧模型過於最佳化的統計示意圖。
第3圖係顯示本案一實施例之行為識別方法之流程圖。
第4圖係顯示本案一實施例之行為識別系統之架構方塊圖。
第5圖係顯示本案行為識別方法之複數個嵌入特徵值對應的行為示意圖。
第6圖係顯示可能對應至同一嵌入特徵值的行為特徵值對應的行為示意圖。
第7圖係顯示本案一實施例之行為識別方法之流程圖。
第8圖係顯示本案一實施例之行為識別方法之流程圖。
第9圖係顯示本案行為識別方法之錨點行為、正值行為及負值行為以及經過學習調整的距離關係示意圖。
第10圖係顯示本案行為識別方法在一歐氏空間中註冊第一行為、第二行為及第三行為作為嵌入特徵值之中心點數值之示意圖。
第11圖係顯示本案一實施例之行為識別方法之流程圖。
第12圖係顯示本案行為識別方法在第10圖所示之歐氏空間中的行為特徵值示意圖。
第13圖係顯示本案行為識別方法在第10圖所示之歐氏空間中的行為特徵值示意圖。
第14圖係顯示本案一實施例之行為識別方法之流程圖。
第15圖係顯示本案之人工智慧模型之泛化能力的統計示意圖。
第16圖係顯示本案一實施例之手寫辨識系統之架構方塊圖。
S100:步驟
S200:步驟
S300:步驟
S400:步驟
Claims (13)
- 一種行為識別方法,包括步驟: (a)取得複數個嵌入特徵值; (b)將至少一感測器所得之數據集轉換為一行為特徵值; (c)比對該行為特徵值及該複數個嵌入特徵值,並產生一比對結果;以及 (d)根據該比對結果,進行一行為識別。
- 如請求項1所述之行為識別方法,其中於該步驟(a)更包括步驟: (a1) 該至少一感測器從一使用者初次進行的多個行為中,各別取得一原始數據;以及 (a2)將該原始數據作為一輸入資料,以人工智慧訓練產生該複數個嵌入特徵值。
- 如請求項1所述之行為識別方法,其中於該步驟(a)更包括步驟:(a0)以人工智慧訓練產生該複數個嵌入特徵值。
- 如請求項1所述之行為識別方法,其中該比對結果係將該行為特徵值從該複數個嵌入特徵值中比對出數值最接近之該嵌入特徵值,且每該嵌入特徵值各別對應至一行為。
- 如請求項4所述之行為識別方法,其中每該嵌入特徵值係各別大於或等於一中心點數值減去一差值且小於或等於該中心點數值加上該差值。
- 如請求項5所述之行為識別方法,於該步驟(d)之後更包括步驟:(e)以一K-平均演算法計算並調整該中心點數值。
- 如請求項6所述之行為識別方法,其中於該步驟(e)中,係以K-平均演算法計算該行為特徵值至對應的該嵌入特徵值的一歐氏距離,當(1)該歐氏距離大於一第一閾值、(2)對應各該嵌入特徵值的歐氏距離之間,其差距小於一特定值,或(3)存在具有兩相同的歐式距離時,排除該行為特徵值,不調整該中心點數值。
- 如請求項7所述之行為識別方法,且當該歐氏距離小於或等於該第一閾值,調整該中心點數值。
- 如請求項8所述之行為識別方法,其中在該中心點數值被調整後,儲存該行為特徵值對應的計數值及被調整後的該中心點數值,且不記錄該行為特徵值。
- 如請求項7所述之行為識別方法,於該步驟(e)之後更包括步驟:(f)將該步驟(e)中被排除的該行為特徵值及其對應的該歐氏距離記錄於一學習資料庫,其中當該學習資料庫中存在一特定數量的該行為特徵值彼此之間的該歐氏距離皆小於一第二閾值時,將該特定數量的該行為特徵值對應建立一新嵌入特徵值,並將該新嵌入特徵值對應至一新行為。
- 如請求項10所述之行為識別方法,其中該第一閾值為4,且該第二閾值為2。
- 一種行為識別系統,包括: 一控制單元; 一第一感測器,與該控制單元相連接,其中該第一感測器根據一使用者的一行為取得一第一感測資料; 一第二感測器,與該控制單元相連接,其中該第二感測器根據該使用者的該行為取得一第二感測資料;以及 一資料庫,與該控制單元相連接,用以儲存複數個嵌入特徵值; 其中,該控制單元將該第一感測資料及該第二感測資料轉換為一行為特徵值,並比對該行為特徵值及該複數個嵌入特徵值,以對該行為進行一行為識別。
- 一種手寫辨識系統,包括: 一控制單元; 一感測器,與該控制單元相連接,其中該感測器根據一簽署者的一簽名動作取得一手寫筆跡;以及 一資料庫,與該控制單元相連接,用以儲存至少一嵌入特徵筆跡,其中該嵌入特徵筆跡對應至一註冊者; 其中,該控制單元係以K-平均演算法計算該手寫筆跡至該嵌入特徵筆跡的一歐氏距離,且當該歐氏距離小於或等於一閾值時,判斷該簽署者與該註冊者為相同。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW109130364A TWI820347B (zh) | 2020-09-04 | 2020-09-04 | 行為識別方法、行為識別系統及手寫辨識系統 |
US17/074,940 US11157087B1 (en) | 2020-09-04 | 2020-10-20 | Activity recognition method, activity recognition system, and handwriting identification system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW109130364A TWI820347B (zh) | 2020-09-04 | 2020-09-04 | 行為識別方法、行為識別系統及手寫辨識系統 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW202211005A true TW202211005A (zh) | 2022-03-16 |
TWI820347B TWI820347B (zh) | 2023-11-01 |
Family
ID=78219038
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW109130364A TWI820347B (zh) | 2020-09-04 | 2020-09-04 | 行為識別方法、行為識別系統及手寫辨識系統 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11157087B1 (zh) |
TW (1) | TWI820347B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11673025B2 (en) * | 2018-06-29 | 2023-06-13 | PEAR Sports LLC | Workout recommendation engine |
KR102595537B1 (ko) * | 2022-11-15 | 2023-10-30 | 주식회사 에딘트 | 행동 모니터링을 위한 딥러닝 모델의 학습 방법, 프로그램 및 장치 |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6012058A (en) * | 1998-03-17 | 2000-01-04 | Microsoft Corporation | Scalable system for K-means clustering of large databases |
TWI254880B (en) * | 2004-10-18 | 2006-05-11 | Avectec Com Inc | Method for classifying electronic document analysis |
US20090027398A1 (en) * | 2007-07-26 | 2009-01-29 | Tufts University | Method for recognizing a shape from a path of a digitizing device |
US10917431B2 (en) * | 2010-11-29 | 2021-02-09 | Biocatch Ltd. | System, method, and device of authenticating a user based on selfie image or selfie video |
US9110510B2 (en) * | 2011-06-03 | 2015-08-18 | Apple Inc. | Motion pattern classification and gesture recognition |
US9547369B1 (en) * | 2011-06-19 | 2017-01-17 | Mr. Buzz, Inc. | Dynamic sorting and inference using gesture based machine learning |
US20140278219A1 (en) | 2013-03-15 | 2014-09-18 | Focus Ventures, Inc. | System and Method For Monitoring Movements of a User |
US9594983B2 (en) * | 2013-08-02 | 2017-03-14 | Digimarc Corporation | Learning systems and methods |
EP3030952B1 (en) * | 2013-08-07 | 2021-03-10 | NIKE Innovate C.V. | Wrist-worn athletic device with gesture recognition and power management |
US9354709B1 (en) * | 2014-06-17 | 2016-05-31 | Amazon Technologies, Inc. | Tilt gesture detection |
US10101793B2 (en) | 2014-07-18 | 2018-10-16 | Apple Inc. | Raise gesture detection in a device |
US9911031B2 (en) * | 2014-09-05 | 2018-03-06 | The Boeing Company | Obtaining metrics for a position using frames classified by an associative memory |
GB2539705B (en) * | 2015-06-25 | 2017-10-25 | Aimbrain Solutions Ltd | Conditional behavioural biometrics |
US20170039480A1 (en) | 2015-08-06 | 2017-02-09 | Microsoft Technology Licensing, Llc | Workout Pattern Detection |
US10348355B2 (en) | 2015-09-16 | 2019-07-09 | Intel Corporation | Techniques for gesture recognition using photoplethysmographic (PPMG) sensor and low-power wearable gesture recognition device using the same |
TWI625114B (zh) | 2015-09-25 | 2018-06-01 | 晶翔微系統股份有限公司 | 運動辨識裝置及方法 |
TWI592136B (zh) | 2016-06-24 | 2017-07-21 | 晶翔微系統股份有限公司 | 穿戴裝置及其心率讀值的補償方法 |
US10747327B2 (en) * | 2016-06-28 | 2020-08-18 | Intel Corporation | Technologies for adaptive downsampling for gesture recognition |
US9977976B2 (en) * | 2016-06-29 | 2018-05-22 | Konica Minolta Laboratory U.S.A., Inc. | Path score calculating method for intelligent character recognition |
US10467394B2 (en) * | 2016-07-11 | 2019-11-05 | International Business Machines Corporation | Pointing device biometrics for continuous user authentication |
US10133949B2 (en) * | 2016-07-15 | 2018-11-20 | University Of Central Florida Research Foundation, Inc. | Synthetic data generation of time series data |
US10417530B2 (en) * | 2016-09-30 | 2019-09-17 | Cylance Inc. | Centroid for improving machine learning classification and info retrieval |
US20180330238A1 (en) * | 2017-05-09 | 2018-11-15 | Neurala, Inc. | Systems and methods to enable continual, memory-bounded learning in artificial intelligence and deep learning continuously operating applications across networked compute edges |
US11386598B2 (en) * | 2017-12-05 | 2022-07-12 | Samsung Electronica Da Amazonia Ltda. | Method and system for sensor data recognition using data enrichment for the learning process |
US20200042580A1 (en) * | 2018-03-05 | 2020-02-06 | amplified ai, a Delaware corp. | Systems and methods for enhancing and refining knowledge representations of large document corpora |
WO2019241145A1 (en) * | 2018-06-12 | 2019-12-19 | Intergraph Corporation | Artificial intelligence applications for computer-aided dispatch systems |
US11704568B2 (en) * | 2018-10-16 | 2023-07-18 | Carnegie Mellon University | Method and system for hand activity sensing |
US11270786B2 (en) * | 2019-06-26 | 2022-03-08 | International Business Machines Corporation | Context-based personalized activity schedule |
US11232296B2 (en) * | 2019-07-10 | 2022-01-25 | Hrl Laboratories, Llc | Action classification using deep embedded clustering |
-
2020
- 2020-09-04 TW TW109130364A patent/TWI820347B/zh active
- 2020-10-20 US US17/074,940 patent/US11157087B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11157087B1 (en) | 2021-10-26 |
TWI820347B (zh) | 2023-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11393206B2 (en) | Image recognition method and apparatus, terminal, and storage medium | |
CN109902546B (zh) | 人脸识别方法、装置及计算机可读介质 | |
JP6754619B2 (ja) | 顔認識方法及び装置 | |
JP4590717B2 (ja) | 顔識別装置及び顔識別方法 | |
CN111178288B (zh) | 基于局部误差逐层训练的人体姿态识别方法和装置 | |
JPWO2002099545A1 (ja) | マン・マシン・インターフェースユニットの制御方法、並びにロボット装置及びその行動制御方法 | |
CN113128671B (zh) | 一种基于多模态机器学习的服务需求动态预测方法及系统 | |
CN111401219B (zh) | 一种手掌关键点检测方法和装置 | |
TWI820347B (zh) | 行為識別方法、行為識別系統及手寫辨識系統 | |
WO2021031817A1 (zh) | 情绪识别方法、装置、计算机装置及存储介质 | |
CN113516005A (zh) | 一种基于深度学习和姿态估计的舞蹈动作评价系统 | |
CN113434699A (zh) | Bert模型的预训练方法、计算机装置和存储介质 | |
CN117690178B (zh) | 一种基于计算机视觉的人脸图像识别方法与系统 | |
JP2020107331A (ja) | 一般化されたユーザモデルを用いたユーザ認証方法及び装置 | |
CN109190521A (zh) | 一种基于知识提纯的人脸识别模型的构建方法及应用 | |
CN116821809A (zh) | 基于人工智能的生命体征数据采集系统 | |
CN112101473A (zh) | 一种基于小样本学习的烟雾检测算法 | |
Hoang et al. | Advances in skeleton-based fall detection in RGB videos: From handcrafted to deep learning approaches | |
Tong et al. | Research on face recognition method based on deep neural network | |
Kumar et al. | Detection of Parkinson’s disease using LightGBM Classifier | |
CN117437507A (zh) | 一种用于评价图像识别模型的偏见性评估方法 | |
KR20200140571A (ko) | 데이터 인식 방법 및 장치 | |
CN115954019A (zh) | 一种融合自注意力和卷积操作的环境噪声识别方法及系统 | |
CN116959070A (zh) | 一种心理健康预警系统及其特征提取模型的建立方法 | |
CN114675539A (zh) | 一种自主学习的门窗智能控制系统 |