TWI828174B - 動態訓練動作與靜態訓練動作的偵測方法及裝置 - Google Patents
動態訓練動作與靜態訓練動作的偵測方法及裝置 Download PDFInfo
- Publication number
- TWI828174B TWI828174B TW111120512A TW111120512A TWI828174B TW I828174 B TWI828174 B TW I828174B TW 111120512 A TW111120512 A TW 111120512A TW 111120512 A TW111120512 A TW 111120512A TW I828174 B TWI828174 B TW I828174B
- Authority
- TW
- Taiwan
- Prior art keywords
- specific object
- processing module
- image data
- skeleton
- node
- Prior art date
Links
- 238000012549 training Methods 0.000 title claims abstract description 285
- 230000003068 static effect Effects 0.000 title claims abstract description 103
- 238000001514 detection method Methods 0.000 title claims description 53
- 230000009471 action Effects 0.000 claims abstract description 153
- 238000012545 processing Methods 0.000 claims abstract description 82
- 238000000034 method Methods 0.000 claims abstract description 42
- 238000004458 analytical method Methods 0.000 claims abstract description 22
- 238000003709 image segmentation Methods 0.000 claims abstract description 5
- 238000013527 convolutional neural network Methods 0.000 claims description 17
- 238000013145 classification model Methods 0.000 claims description 11
- 238000013135 deep learning Methods 0.000 claims description 9
- 230000005484 gravity Effects 0.000 claims description 7
- 230000036544 posture Effects 0.000 description 23
- 238000010586 diagram Methods 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
一種動態訓練動作與靜態訓練動作的偵測方法及裝置,裝置包括影像擷取模組以及處理模組,用以執行擷取特定對象之動態訓練動作的影像資料、判斷出特定對象之骨架節點、設定檢核點、判斷骨架節點之位置是否符合檢核點,以及依據符合檢核點之次序計算動態訓練動作之執行次數;或者用以執行擷取特定對象之靜態訓練動作的影像資料、對影像資料進行影像分類、進行影像切割、進行特徵增強以取得特定對象之輪廓線段,以及對輪廓線段進行模型分析,以判斷靜態訓練動作是否符合標準。
Description
應用於健身訓練領域之一種動態訓練動作與靜態訓練動作的偵測方法及裝置。
基於對健康的重視,許多人有健身訓練方面的需求,其中,訓練動作可大致分為動態訓練動作及靜態訓練動作,動態訓練動作為循環變換姿勢,例如深蹲或伏地挺身等等;靜態訓練動作則是維持一固定姿勢,例如棒式或各種瑜珈姿勢。
習知技術中將健身訓練動作數值化及記錄的方式之一為人工記錄,然而這對日常訓練而言過於麻煩。非人工的方式則有透過機械或電子裝置進行數值化及記錄,包括透過健身器材上附設的機械或電子裝置,或者透過穿戴式裝置(例如電子手環、手錶)。然而透過健身器材的附設裝置將必須針對訓練動作的種類使用特定的器材,缺乏彈性,一些較大的器材也有場地方面的限制。另一方面,穿戴式裝置的偵測能力有限,透過陀螺儀或加速度感測器僅能偵測擺動或震動等較為簡單之動作,對於較複雜的動作可能會產生誤判,也無法判斷訓練動作是否正確。更進一步而言,不論是健身器材附設裝置或穿戴式裝置,單一產品能夠偵測並數值化的訓練動作種類有限,難以同時適用於各種動態訓練動作及靜態訓練動作。
因此,如何能提供一種可適用於各種動態訓練動作及靜態訓練動作,並可採用客觀標準精確數值化訓練動作之動態訓練動作與靜態訓練動作的偵測方法及裝置,遂成為業界亟待解決的課題。
為解決前述習知技術的種種問題,本發明之一目的,即在於提供一種可適用於各種動態訓練動作及靜態訓練動作,並可採用客觀標準精確數值化訓練動作之動態訓練動作與靜態訓練動作的偵測方法及裝置。
為了達到前述目的,本發明之動態訓練動作的偵測方法,包括:擷取特定對象之動態訓練動作的影像資料;依據影像資料判斷出特定對象之骨架節點;依據骨架節點及動態訓練動作設定檢核點;判斷骨架節點之位置是否符合檢核點;以及依據骨架節點符合檢核點之次序計算動態訓練動作之執行次數。
於本發明之一實施型態中,擷取特定對象之動態訓練動作的影像資料之步驟還包括:將影像資料轉換為圖片資料;以及將圖片資料轉換為數值資料。
於本發明之一實施型態中,依據影像資料判斷出特定對象之骨架節點之步驟還包括:透過卷積神經網路(Convolutional Neural Network,CNN)模型,依據數值資料判斷出特定對象之骨架節點。
於本發明之一實施型態中,依據骨架節點及動態訓練動作設定檢核點之步驟還包括:依據骨架節點之位置或骨架節點之間的相對關係設定檢核點。
本發明還提供一種動態訓練動作的偵測裝置,包括影像擷取模組以及處理模組。影像擷取模組用以擷取特定對象之動態訓練動作的影像資
料;以及處理模組用以依據影像資料判斷出特定對象之骨架節點和依據骨架節點及動態訓練動作設定檢核點,並用以判斷骨架節點之位置是否符合檢核點,以及用以依據骨架節點符合檢核點之次序計算動態訓練動作之執行次數。
於本發明之一實施型態中,處理模組還用以將影像資料轉換為圖片資料,以及用以將圖片資料轉換為數值資料。
於本發明之一實施型態中,處理模組還用以透過卷積神經網路模型,依據數值資料判斷出特定對象之骨架節點。
於本發明之一實施型態中,處理模組還用以依據骨架節點之位置或骨架節點之間的相對關係設定檢核點。
於本發明之一實施型態中,動態訓練動作的偵測裝置還包括儲存模組以及顯示模組。儲存模組用以記錄該動態訓練動作之執行次數,以及顯示模組用以顯示該執行次數。
本發明還提供一種動態訓練動作的偵測方法,包括:擷取特定對象之動態訓練動作的影像資料;依據影像資料判斷出特定對象之骨架節點;依據骨架節點及動態訓練動作產生輔助節點;依據骨架節點、輔助節點及動態訓練動作設定檢核點;判斷骨架節點或輔助節點之位置是否符合檢核點;以及依據骨架節點或輔助節點符合檢核點之次序計算動態訓練動作之執行次數。
於本發明之一實施型態中,擷取特定對象之動態訓練動作的影像資料之步驟還包括:將影像資料轉換為圖片資料;以及將圖片資料轉換為數值資料。
於本發明之一實施型態中,依據影像資料判斷出特定對象之骨架節點之步驟還包括:透過卷積神經網路模型,依據數值資料判斷出特定對象之骨架節點。
於本發明之一實施型態中,依據骨架節點及動態訓練動作產生輔助節點之步驟還包括:由骨架節點選擇出特徵節點;以及計算特徵節點之重心以產生輔助節點。
於本發明之一實施型態中,依據骨架節點、輔助節點及動態訓練動作設定檢核點之步驟還包括:依據骨架節點或輔助節點之位置設定檢核點,或者依據骨架節點或輔助節點之間的相對關係設定檢核點。
本發明還提供一種動態訓練動作的偵測裝置,包括:影像擷取模組以及處理模組。影像擷取模組用以擷取特定對象之動態訓練動作的影像資料;以及處理模組用以依據影像資料判斷出特定對象之骨架節點,用以依據骨架節點及動態訓練動作產生輔助節點,用以依據骨架節點、輔助節點及動態訓練動作設定檢核點,並用以判斷骨架節點或輔助節點之位置是否符合檢核點,以及用以依據骨架節點或輔助節點符合檢核點之次序計算動態訓練動作之執行次數。
於本發明之一實施型態中,處理模組還用以將影像資料轉換為圖片資料,以及用以將圖片資料轉換為數值資料。
於本發明之一實施型態中,處理模組還用以透過卷積神經網路模型,依據數值資料判斷出特定對象之骨架節點。
於本發明之一實施型態中,處理模組還用以依據骨架節點或輔助節點之位置設定檢核點,或者依據骨架節點或輔助節點之間的相對關係設定檢核點。
於本發明之一實施型態中,動態訓練動作的偵測裝置還包括儲存模組以及顯示模組。儲存模組用以記錄該動態訓練動作之執行次數,以及顯示模組用以顯示該執行次數。
本發明還提供一種靜態訓練動作的偵測方法,包括:擷取特定對象之靜態訓練動作的影像資料;對影像資料進行影像分類,以分辨特定對象及背景;對影像資料進行影像切割,以去除背景;對影像資料進行特徵增強,以取得特定對象之輪廓線段;以及對特定對象之輪廓線段進行模型分析,以判斷特定對象之靜態訓練動作是否符合標準。
於本發明之一實施型態中,靜態訓練動作的偵測方法還包括:計算特定對象之靜態訓練動作符合標準的持續時間。
於本發明之一實施型態中,擷取特定對象之靜態訓練動作的影像資料之步驟還包括:將影像資料轉換為圖片資料;以及將圖片資料轉換為數值資料。
於本發明之一實施型態中,對影像資料進行影像分類,以分辨特定對象及背景之步驟還包括:透過全卷積網路模型(Fully-Convolutional Network,FCN)對影像資料進行影像分類,以分辨特定對象及背景。
於本發明之一實施型態中,對特定對象之輪廓線段進行模型分析,以判斷特定對象之靜態訓練動作是否符合標準之步驟還包括:透過深度學習分類模型對特定對象之輪廓線段進行模型分析,以判斷特定對象之靜態訓練動作是否符合標準。
本發明還提供一種靜態訓練動作的偵測裝置,包括影像擷取模組以及處理模組。影像擷取模組用以擷取特定對象之靜態訓練動作的影像資料;以及處理模組用以對影像資料進行影像分類,以分辨特定對象及背景,用以對影像資料進行影像切割,以去除背景,用以對影像資料進行特徵增
強,以取得特定對象之輪廓線段,以及用以對特定對象之輪廓線段進行模型分析,以判斷特定對象之靜態訓練動作是否符合標準。
於本發明之一實施型態中,處理模組還用以計算特定對象之靜態訓練動作符合標準的持續時間。
於本發明之一實施型態中,處理模組還用以將影像資料轉換為圖片資料,以及用以將圖片資料轉換為數值資料。
於本發明之一實施型態中,處理模組還用以透過全卷積網路模型對影像資料進行影像分類,以分辨特定對象及背景。
於本發明之一實施型態中,處理模組還用以透過深度學習分類模型對特定對象之輪廓線段進行模型分析,以判斷特定對象之靜態訓練動作是否符合標準。
於本發明之一實施型態中,靜態訓練動作的偵測裝置還包括儲存模組以及顯示模組。儲存模組用以記錄靜態訓練動作符合標準的持續時間,以及顯示模組用以顯示持續時間。
綜上所述,本發明之動態訓練動作的偵測方法擷取特定對象之動態訓練動作的影像資料,並判斷出特定對象之骨架節點以及設定檢核點,以及藉由骨架節點符合檢核點之次序計算動態訓練動作之執行次數。假如因為動態訓練動作的姿勢而使得難以判斷骨架節點之位置是否符合檢核點,可依據骨架節點及動態訓練動作另外產生輔助節點,用以輔助動態訓練動作執行次數的判斷及計算。透過本發明之技術手段,可採用客觀標準精確數值化動態訓練動作,並且適用於各種動態訓練動作。
另一方面,本發明之靜態訓練動作的偵測方法擷取特定對象之靜態訓練動作的影像資料,並對影像資料進行影像分類、進行影像切割以及進行特徵增強,經處理過後的特定對象之輪廓線段可用於進行模型分析,
以判斷特定對象之靜態訓練動作是否符合標準。透過本發明之技術手段,可採用客觀標準精確數值化靜態訓練動作,並且適用於各種靜態訓練動作。
由於本發明之動態訓練動作的偵測方法及靜態訓練動作的偵測方法皆可由具有影像擷取模組以及處理模組之偵測裝置(例如手機)來執行,相較於習知技術所使用之健身器材附設裝置或穿戴裝置而言更容易普及,且不受場地限制,更可同時適用於各種動態訓練動作及靜態訓練動作,充分解決了習知技術中所具有的問題。
20:特定對象
21:骨架節點
30:特定對象
31a、32a、33a:骨架節點
31b、32b、33b:骨架節點
70:影像擷取模組
71:處理模組
72:儲存模組
73:顯示模組
90:特定對象
91a、92a:骨架節點
91b、92b:骨架節點
93a:預設範圍
93b:預設範圍
140:影像擷取模組
141:處理模組
142:儲存模組
143:顯示模組
160a~160d:影像資料
210:影像擷取模組
211:處理模組
212:儲存模組
213:顯示模組
S100~S104:步驟
S400~S401:步驟
S500:步驟
S600:步驟
S800~S805:步驟
S1000~S1001:步驟
S1100:步驟
S1200~S1201:步驟
S1300:步驟
S1500~S1504:步驟
S1700:步驟
S1800~S1801:步驟
S1900:步驟
S2000:步驟
圖1係為本發明第一實施例之動態訓練動作的偵測方法的步驟流程圖。
圖2係為本發明第二實施例之特定對象之骨架節點的影像示意圖。
圖3a、3b係為本發明第三實施例之特定對象之骨架節點的影像示意圖。
圖4係為本發明第四實施例之動態訓練動作的偵測方法的步驟流程圖。
圖5係為本發明第五實施例之動態訓練動作的偵測方法的步驟流程圖。
圖6係為本發明第六實施例之動態訓練動作的偵測方法的步驟流程圖。
圖7係為本發明第七實施例之動態訓練動作的偵測裝置的架構示意圖。
圖8係為本發明第八實施例之動態訓練動作的偵測方法的步驟流程圖。
圖9a、9b係為本發明第九實施例之特定對象之骨架節點及輔助節點的影像示意圖。
圖10係為本發明第十實施例之動態訓練動作的偵測方法的步驟流程圖。
圖11係為本發明第十一實施例之動態訓練動作的偵測方法的步驟流程圖。
圖12係為本發明第十二實施例之動態訓練動作的偵測方法的步驟流程圖。
圖13係為本發明第十三實施例之動態訓練動作的偵測方法的步驟流程圖。
圖14係為本發明第十四實施例之動態訓練動作的偵測裝置的架構示意圖。
圖15係為本發明第十五實施例之靜態訓練動作的偵測方法的步驟流程圖。
圖16a-16d係為本發明第十六實施例之靜態訓練動作的偵測方法的影像處理示意圖。
圖17係為本發明第十七實施例之靜態訓練動作的偵測方法的步驟流程圖。
圖18係為本發明第十八實施例之靜態訓練動作的偵測方法的步驟流程圖。
圖19係為本發明第十九實施例之靜態訓練動作的偵測方法的步驟流程圖。
圖20係為本發明第二十實施例之靜態訓練動作的偵測方法的步驟流程圖。
圖21係為本發明第二十一實施例之靜態訓練動作的偵測裝置的架構示意圖。
以下藉由特定的具體實施例說明本發明之實施方式,熟悉此技藝之人士可由本說明書所揭示之內容輕易地瞭解本發明之其他優點與功效。本發明亦可藉由其他不同的具體實施例加以施行或應用,本說明書中的各項細節亦可基於不同觀點與應用,在不悖離本發明之精神下進行各種修飾與變更。
請參閱圖1,圖1係為本發明第一實施例之動態訓練動作的偵測方法的步驟流程圖。如圖所示,本發明之動態訓練動作的偵測方法,包括:
S100.擷取特定對象之動態訓練動作的影像資料。
S101.依據影像資料判斷出特定對象之骨架節點。
S102.依據骨架節點及動態訓練動作設定檢核點。
S103.判斷骨架節點之位置是否符合檢核點。
S104.依據骨架節點符合檢核點之次序計算動態訓練動作之執行次數。
在步驟S100中,可透過具有影像擷取模組之裝置來擷取特定對象之動態訓練動作的影像資料。舉例而言,可使用手機拍攝使用者進行深蹲等動態訓練動作時的影像。
在步驟S101中,可透過具有處理模組之裝置,依據影像資料判斷出特定對象之骨架節點。
請參閱圖2,圖2係為本發明第二實施例之特定對象之骨架節點的影像示意圖。如圖所示,於影像中標示出特定對象20之骨架節點21,並可進一步將各骨架節點21以線段串連。由於在不同的動態訓練動作中活動的骨架節點21並不相同,為了讓判斷更為精準,可針對不同的動態訓練動作改變拍攝特定對象20之角度,例如由側面拍攝,並不以圖2之正面角度拍攝為限。
在步驟S102中,依據骨架節點及動態訓練動作設定檢核點。進一步而言,可依據骨架節點之位置或骨架節點之間的相對關係設定檢核點。
請參閱圖3a、3b,圖3a、3b係為本發明第三實施例之特定對象之骨架節點的影像示意圖。如圖3a所示,於影像中標示出特定對象30側面之骨架節點31a、32a、33a,可分別對應人體之肩膀、腹部及膝蓋。
首先設定第一檢核點。在本實施例中以動態訓練動作為深蹲時為例,如圖3a所示,依據骨架節點31a、32a、33a及深蹲動作設定第一檢核點,例如將特定對象30進行深蹲站立姿勢時之骨架節點31a、32a、33a之座標設定為第一檢核點,也可將座標附近之預設範圍設為第一檢核點。
接著設定第二檢核點。如圖3b所示,依據骨架節點31b、32b、33b及深蹲動作設定第二檢核點,例如將特定對象30進行深蹲蹲下姿勢時之骨架節點31b、32b、33b之座標設定為第二檢核點,也可將座標附近之預設範圍設為第二檢核點。需注意的是,依據不同的動態訓練動作可設定更多或更少的檢核點,本發明於此不加以限制。
在步驟S103中,判斷骨架節點之位置是否符合檢核點。舉例而言,當骨架節點31a、32a、33a之座標位於第一檢核點所設定之範圍內時,判斷符合第一檢核點。
在步驟S104中,依據骨架節點符合檢核點之次序計算動態訓練動作之執行次數。舉例而言,當特定對象30進行深蹲動作時,首先特定對象30處於站立姿勢,可判斷出此時骨架節點31a、32a、33a之位置符合第一檢核點。接者特定對象30由站立姿勢轉換為蹲下姿勢,可判斷出此時骨架節點31b、32b、33b之位置符合第二檢核點。最後特定對象30由蹲下姿勢轉換為站立姿勢,可判斷出此時骨架節點31a、32a、33a之位置符合第一檢核點。一旦檢測到特定對象30完成上述循環則計數一次。透過以上步驟,可以採用客觀標準精確數值化動態訓練動作,以作為使用者對於訓練規劃之評估標準。
請參閱圖4,圖4係為本發明第四實施例之動態訓練動作的偵測方法的步驟流程圖。在一實施例中,擷取特定對象之動態訓練動作的影像資料之步驟S100還包括:
S400.將影像資料轉換為圖片資料。
S401.將圖片資料轉換為數值資料。
在步驟S400中,將影像資料轉換為圖片資料。舉例而言,可將連續的影像轉換為複數張單幀圖片。
在步驟S401中,將圖片資料轉換為數值資料。舉例而言,可將圖片資料的各像素(pixels)之顏色或深淺以數字代碼(例如RGB光譜值)的方式表示,例如一數值資料的規格以陣列[1,192,192,3]表示,其中的4個數字分別代表圖片的組成張量、圖片長度像素、圖片寬度像素、圖片通道數。
請參閱圖5,圖5係為本發明第五實施例之動態訓練動作的偵測方法的步驟流程圖。在一實施例中,依據影像資料判斷出特定對象之骨架節點之步驟S101還包括:
S500.透過卷積神經網路模型,依據數值資料判斷出特定對象之骨架節點。
在步驟S500中,透過卷積神經網路模型,依據數值資料判斷出特定對象之骨架節點。CNN在影像辨識領域上是公認有良好分析效果之模型,可利用圖片進行CNN模型訓練,訓練完畢後,可以辨識圖片內是否存在人體關節,並計算出圖片上最高機率是人體關節的像素區域,並且使用熱區圖(Heatmap)顯示。Heatmap的機率分布資料將進一步轉化成「點位分布資料」,可包括編號、X軸位置、Y軸位置及可信度,並經減少無效資料後,將可信度大於預設值的點位判斷為特定對象之骨架節點。
請參閱圖6,圖6係為本發明第六實施例之動態訓練動作的偵測方法的步驟流程圖。在一實施例中,依據骨架節點及動態訓練動作設定檢核點之步驟S102還包括:
S600.依據骨架節點之位置或骨架節點之間的相對關係設定檢核點。
在步驟S600中,依據骨架節點之位置或骨架節點之間的相對關係設定檢核點。以圖3a的實施例為例,第一檢核點可設定為特定對象30在站立姿勢的骨架節點31a、32a、33a之座標位置。或者依據特定對象30在站立姿勢的骨架節點31a、32a、33a的相對關係設定第一檢核點,其中,將條件設定為31a-32a線段與32a-33a線段的長度和不得大於31a-33a線段之5%,當骨架節點31a、32a、33a的相對關係符合上述條件即表示骨架節點31a、32a、33a之位置符合第一檢核點。以圖3b的實施例為例,第二檢核點可設定為骨架節點32b的高度(以圖示上方為原點)大於骨架節點33b的高度。
請參閱圖7,圖7係為本發明第七實施例之動態訓練動作的偵測裝置的架構示意圖。如圖所示,本發明還提供一種動態訓練動作的偵測裝置,包括影像擷取模組70以及處理模組71。影像擷取模組70用以擷取特定對象之動態訓練動作的影像資料。處理模組71用以依據影像資料判斷出特定對象之骨架節點和依據骨架節點及動態訓練動作設定檢核點,並用以判斷骨
架節點之位置是否符合檢核點,以及用以依據骨架節點符合檢核點之次序計算動態訓練動作之執行次數。
舉例而言,本發明之動態訓練動作的偵測裝置可例如為手機或平板電腦,也可是攝像鏡頭與電腦的組合,但不以此為限。影像擷取模組70可例如為手機之鏡頭,以及處理模組71可例如為手機之處理器,但不以此為限。
在一實施例中,處理模組71還可用以將影像資料轉換為圖片資料,以及用以將圖片資料轉換為數值資料。
在一實施例中,處理模組71還可用以透過卷積神經網路模型,依據數值資料判斷出特定對象之骨架節點。
在一實施例中,處理模組71還可用以依據骨架節點之位置或骨架節點之間的相對關係設定檢核點。
在一實施例中,動態訓練動作的偵測裝置還可包括儲存模組72以及顯示模組73。儲存模組72用以記錄該動態訓練動作之執行次數,以及顯示模組73用以顯示該執行次數。儲存模組72可例如為記憶體,顯示模組73可例如為螢幕,但不以此為限。
請參閱圖8,圖8係為本發明第八實施例之動態訓練動作的偵測方法的步驟流程圖。如圖所示,本發明還提供一種動態訓練動作的偵測方法,包括:
S800.擷取特定對象之動態訓練動作的影像資料。
S801.依據影像資料判斷出特定對象之骨架節點。
S802.依據骨架節點及動態訓練動作產生輔助節點。
S803.依據骨架節點、輔助節點及動態訓練動作設定檢核點。
S804.判斷骨架節點或輔助節點之位置是否符合檢核點。
S805.依據骨架節點或輔助節點符合檢核點之次序計算動態訓練動作之執行次數。
在步驟S800中,可透過具有影像擷取模組之裝置來擷取特定對象之動態訓練動作的影像資料。舉例而言,可使用手機拍攝使用者進行深蹲等動態訓練動作時的影像。
在步驟S801中,可透過具有處理模組之裝置,依據影像資料判斷出特定對象之骨架節點。
在步驟S802中,依據骨架節點及動態訓練動作產生輔助節點。
請參閱圖9a、9b,圖9a、9b係為本發明第九實施例之特定對象之骨架節點及輔助節點的影像示意圖。以使用者進行伏地挺身的實施例為例,伏地挺身可分為挺身姿勢以及伏地姿勢,使用者循環交替進行此2個姿勢。如圖9a所示,在步驟S801中已判斷出在挺身姿勢下特定對象90之骨架節點91a,於此實施例中有8個骨架節點91a。在步驟S802中則進一步依據骨架節點91a及動態訓練動作產生輔助節點92a。更詳細而言,依據8個骨架節點91a之座標進行重心計算後,產生輔助節點92a。
如圖9b所示,在步驟S801中已判斷出在伏地姿勢下特定對象90之骨架節點91b,於此實施例中有4個骨架節點91b。在步驟S802中則進一步依據骨架節點91b及動態訓練動作產生輔助節點92b。更詳細而言,依據4個骨架節點91b之座標進行重心計算後,產生輔助節點92a。
根據不同的姿勢,透過CNN模型判斷出來的骨架節點之位置或數量有可能不同,假如因此狀況而難以設定檢核點,則可依據骨架節點之重心或針對動態訓練動作個別調整來產生輔助節點。輔助節點有助於進一步設定檢核點。
在步驟S803中,依據骨架節點91a、91b、輔助節點92a、92b及動態訓練動作設定檢核點。舉例而言,可將特定對象90挺身姿勢下的輔助節點92a之座標設定為第一檢核點,也可將座標附近之預設範圍93a設為第一檢核點。可將特定對象90伏地姿勢下的輔助節點92b之座標設定為第二檢核點,也可將座標附近之預設範圍93b設為第二檢核點。
在步驟S804中,判斷骨架節點91a、91b或輔助節點92a、92b之位置是否符合檢核點。舉例而言,當輔助節點92a位於預設範圍93a時即判斷符合第一檢核點,以及當輔助節點92b位於預設範圍93b時即判斷符合第二檢核點。
在步驟S805中,依據骨架節點91a、91b或輔助節點92a、92b符合檢核點之次序計算動態訓練動作之執行次數。舉例而言,當特定對象90進行伏地挺身動作時,首先特定對象90處於挺身姿勢,可判斷出此時輔助節點92a之位置符合第一檢核點。接者特定對象90由挺身姿勢轉換為伏地姿勢,可判斷出此時輔助節點92b之位置符合第二檢核點。最後特定對象90由伏地姿勢轉換為挺身姿勢,可判斷出此時輔助節點92a之位置符合第一檢核點。一旦檢測到特定對象90完成上述循環則計數一次。透過以上步驟,可以採用客觀標準精確數值化動態訓練動作,以作為使用者對於訓練規劃之評估標準。
請參閱圖10,圖10係為本發明第十實施例之動態訓練動作的偵測方法的步驟流程圖。在一實施例中,擷取特定對象之動態訓練動作的影像資料之步驟S800還包括:
S1000.將影像資料轉換為圖片資料。
S1001.將圖片資料轉換為數值資料。
請參閱圖11,圖11係為本發明第十一實施例之動態訓練動作的偵測方法的步驟流程圖。在一實施例中,依據影像資料判斷出特定對象之骨架節點之步驟S801還包括:
S1100.透過卷積神經網路模型,依據數值資料判斷出特定對象之骨架節點。
請參閱圖12,圖12係為本發明第十二實施例之動態訓練動作的偵測方法的步驟流程圖。在一實施例中,依據骨架節點及動態訓練動作產生輔助節點之步驟S802還包括:
S1200.由骨架節點選擇出特徵節點。
S1201.計算特徵節點之重心以產生輔助節點。
在一實施例中,並不以所有骨架節點之中心作為輔助節點,而是從中選出較能作為判斷標準之骨架節點來計算重心,例如選擇可信度較高之骨架節點作為特徵節點。
請參閱圖13,圖13係為本發明第十三實施例之動態訓練動作的偵測方法的步驟流程圖。在一實施例中,依據骨架節點、輔助節點及動態訓練動作設定檢核點之步驟S803還包括:
S1300.依據骨架節點或輔助節點之位置設定檢核點,或者依據骨架節點或輔助節點之間的相對關係設定檢核點。
請參閱圖14,圖14係為本發明第十四實施例之動態訓練動作的偵測裝置的架構示意圖。如圖所示,本發明還提供一種動態訓練動作的偵測裝置,包括:影像擷取模組140以及處理模組141。影像擷取模組140用以擷取特定對象之動態訓練動作的影像資料;以及處理模組141用以依據影像資料判斷出特定對象之骨架節點,用以依據骨架節點及動態訓練動作產生輔助節點,用以依據骨架節點、輔助節點及動態訓練動作設定檢核點,並用
以判斷骨架節點或輔助節點之位置是否符合檢核點,以及用以依據骨架節點或輔助節點符合檢核點之次序計算動態訓練動作之執行次數。
在一實施例中,處理模組141還可用以將影像資料轉換為圖片資料,以及用以將圖片資料轉換為數值資料。
在一實施例中,處理模組141還可用以透過卷積神經網路模型,依據數值資料判斷出特定對象之骨架節點。
在一實施例中,處理模組141還可用以依據骨架節點或輔助節點之位置設定檢核點,或者依據骨架節點或輔助節點之間的相對關係設定檢核點。
在一實施例中,動態訓練動作的偵測裝置還可包括儲存模組142以及顯示模組143。儲存模組142用以記錄該動態訓練動作之執行次數,以及顯示模組143用以顯示該執行次數。
請參閱圖15及圖16a-16d,圖15係為本發明第十五實施例之靜態訓練動作的偵測方法的步驟流程圖,圖16a-16d係為本發明第十六實施例之靜態訓練動作的偵測方法的影像處理示意圖。如圖所示,本發明還提供一種靜態訓練動作的偵測方法,包括:
S1500.擷取特定對象之靜態訓練動作的影像資料。
S1501.對影像資料進行影像分類,以分辨特定對象及背景。
S1502.對影像資料進行影像切割,以去除背景。
S1503.對影像資料進行特徵增強,以取得特定對象之輪廓線段。
S1504.對特定對象之輪廓線段進行模型分析,以判斷特定對象之靜態訓練動作是否符合標準。
在步驟S1500中,可透過具有影像擷取模組之裝置來擷取特定對象之靜態訓練動作的影像資料。舉例而言,可使用手機拍攝使用者進行棒式
等靜態訓練動作時的影像。所擷取的原始影像資料如圖16a所示,其中的物件包括特定對象以及背景。
在步驟S1501中,對影像資料進行影像分類,以分辨特定對象及背景。透過模型計算,將影像資料中的物件分類為特定對象以及特定對象以外的背景。
在步驟S1502中,對影像資料進行影像切割,以去除背景,僅保留影像資料中的特定對象物件。舉例而言,去除背景後的影像資料如圖16b所示。
在步驟S1503中,對影像資料進行特徵增強,以取得特定對象之輪廓線段。特定對象之輪廓線段如圖16c所示,舉例而言,透過演算法進行高斯濾波、降低噪音、計算亮度梯度與其方向性,可以計算出影像中不同類型像素之間的邊緣範圍,獲得特定對象的輪廓線段,可以近乎獲得單純人體動作的邊緣影像,演算法可例如為Canny演算法。
在步驟S1504中,對特定對象之輪廓線段進行模型分析,以判斷特定對象之靜態訓練動作是否符合標準。如圖16d所示,透過以圖片訓練過之分類模型,對特定對象之輪廓線段進行模型分析,可判斷出特定對象之靜態訓練動作是否符合標準。
請參閱圖17,圖17係為本發明第十七實施例之靜態訓練動作的偵測方法的步驟流程圖。在一實施例中,靜態訓練動作的偵測方法還包括:S1700.計算特定對象之靜態訓練動作符合標準的持續時間。
在步驟S1700中,計算特定對象之靜態訓練動作符合標準的持續時間,以客觀標準精確數值化靜態訓練動作,可作為使用者對於訓練規劃之評估標準。以靜態訓練動作為棒式為例,可計算出特定對象維持符合標準的棒式姿勢之秒數,作為訓練量之參考。
請參閱圖18,圖18係為本發明第十八實施例之靜態訓練動作的偵測方法的步驟流程圖。在一實施例中,擷取特定對象之靜態訓練動作的影像資料之步驟S1500還包括:
S1800.將影像資料轉換為圖片資料。
S1801.將圖片資料轉換為數值資料。
請參閱圖19,圖19係為本發明第十九實施例之靜態訓練動作的偵測方法的步驟流程圖。在一實施例中,對影像資料進行影像分類,以分辨特定對象及背景之步驟S1501還包括:
S1900.透過全卷積網路模型對影像資料進行影像分類,以分辨特定對象及背景。
在步驟1900中,透過全卷積網路模型對影像資料進行影像分類,更詳細而言,透過語意切割(Segmentation)模型之全卷積網路模型(FCN)對影像資料進行影像分類,例如Pytorch的FCN-ResNet101模型,其主要目標為辨識日常生活影像中的物體。「語意切割」是將影像像素進行多元分類成不同的像素區域,不同像素區域可以標籤化,進行分類的準度評估,使得影像具有共同的視覺特性與視覺意義。FCN在原特徵輸出的部分持續採用卷積層,並且使用上取樣(Upsampling)技術,經過卷積層修改後的資料維度,轉換成二維矩陣,並將矩陣大小調整成原影像大小,保持其空間維度與空間資訊,其結果則會返還二維影像,以分辨特定對象及背景。
請參閱圖20,圖20係為本發明第二十實施例之靜態訓練動作的偵測方法的步驟流程圖。在一實施例中,對特定對象之輪廓線段進行模型分析,以判斷特定對象之靜態訓練動作是否符合標準之步驟S1504還包括:S2000.透過深度學習分類模型對特定對象之輪廓線段進行模型分析,以判斷特定對象之靜態訓練動作是否符合標準。
在步驟2000中,透過深度學習分類模型對特定對象之輪廓線段進行模型分析,舉例而言,可使用VGGNet進行模型分析。深度學習分類模型在影像上可以有效擷取影像特徵,可利用此特性之神經元進行靜態訓練動作影像的特徵擷取,其中,「全連結層」需要進行修改,將原本輸出多種類物體的結構修改成輸出二類,並將其辨識物體能力的參數進行初始化,重新訓練成辨識特定靜態訓練動作影像之參數。
進一步而言,深度學習分類模型計算結果為類別之機率矩陣,其代表模型判斷結果各類別的可信度機率。一般之分類模型上採用「最大值」的類別作為結果,但為了排除不確定性,本發明以機率矩陣另外設計二元結果判斷機制。在一實施例中,根據迴歸運算結果,使用「Precision(精確度)」、「Recall(召回率)」、「F1-Score」三種指數判斷,最佳threshold的選擇方式為F1-Score擇優但recall應為最高,避免正確動作被漏判的機率,因此選擇最佳threshold為0.6,大於0.6則全部修正為機率1,反之則修正為機率0,如下表1。
如表1所示,依據threshold為0.6修正樣本之機率,並採用二元結果判斷機制,僅在類別0機率修正後為1且類別1機率修正後為0時,判斷特定對象之靜態訓練動作符合標準。
請參閱圖21,圖21係為本發明第二十一實施例之靜態訓練動作的偵測裝置的架構示意圖。如圖所示,本發明還提供一種靜態訓練動作的偵測裝置,包括影像擷取模組210以及處理模組211。影像擷取模組210用以擷取特定對象之靜態訓練動作的影像資料;以及處理模組211用以對影像資料進行影像分類,以分辨特定對象及背景,用以對影像資料進行影像切割,以去除背景,用以對影像資料進行特徵增強,以取得特定對象之輪廓線段,以及用以對特定對象之輪廓線段進行模型分析,以判斷特定對象之靜態訓練動作是否符合標準。
舉例而言,本發明之靜態訓練動作的偵測裝置可例如為手機或平板電腦,也可是攝像鏡頭與電腦的組合,但不以此為限。影像擷取模組210可例如為手機之鏡頭,以及處理模組211可例如為手機之處理器,但不以此為限。
在一實施例中,處理模組211還用以計算特定對象之靜態訓練動作符合標準的持續時間。
在一實施例中,處理模組211還用以將影像資料轉換為圖片資料,以及用以將圖片資料轉換為數值資料。
在一實施例中,處理模組211還用以透過全卷積網路模型對影像資料進行影像分類,以分辨特定對象及背景。
在一實施例中,處理模組211還用以透過深度學習分類模型對特定對象之輪廓線段進行模型分析,以判斷特定對象之靜態訓練動作是否符合標準。
在一實施例中,靜態訓練動作的偵測裝置還包括儲存模組212以及顯示模組213。儲存模組212用以記錄靜態訓練動作符合標準的持續時間,以及顯示模組213用以顯示持續時間。儲存模組72可例如為記憶體,顯示模組73可例如為螢幕,但不以此為限。
綜上所述,本發明之動態訓練動作的偵測方法擷取特定對象之動態訓練動作的影像資料,並判斷出特定對象之骨架節點以及設定檢核點,以及藉由骨架節點符合檢核點之次序計算動態訓練動作之執行次數。假如因為動態訓練動作的姿勢而使得難以判斷骨架節點之位置是否符合檢核點,可依據骨架節點及動態訓練動作另外產生輔助節點,用以輔助動態訓練動作執行次數的判斷及計算。透過本發明之技術手段,可採用客觀標準精確數值化動態訓練動作,並且適用於各種動態訓練動作。
另一方面,本發明之靜態訓練動作的偵測方法擷取特定對象之靜態訓練動作的影像資料,並對影像資料進行影像分類、進行影像切割以及進行特徵增強,經處理過後的特定對象之輪廓線段可用於進行模型分析,以判斷特定對象之靜態訓練動作是否符合標準。透過本發明之技術手段,可採用客觀標準精確數值化靜態訓練動作,並且適用於各種靜態訓練動作。
由於本發明之動態訓練動作的偵測方法及靜態訓練動作的偵測方法皆可由具有影像擷取模組以及處理模組之偵測裝置(例如手機)來執行,相較於習知技術所使用之健身器材附設裝置或穿戴裝置而言更容易普及,且不受場地限制,更可同時適用於各種動態訓練動作及靜態訓練動作,充分解決了習知技術中所具有的問題。
上述實施方式僅為例示性說明本發明之原理及其功效,而非用於限制本發明。任何熟習此項技藝之人士均可在不違背本發明之精神及範疇
下,對上述實施例進行修飾與變化。因此,本發明之權利保護範圍,應如後述之申請專利範圍所列。
S100~S104:步驟
Claims (24)
- 一種動態訓練動作的偵測方法,包括:藉由影像擷取模組擷取特定對象之動態訓練動作的影像資料;藉由處理模組依據該影像資料判斷出該特定對象之骨架節點;藉由該處理模組依據該骨架節點及該動態訓練動作設定檢核點,包括:藉由該處理模組依據該骨架節點之位置或該骨架節點之間的相對關係設定該檢核點;藉由該處理模組判斷該骨架節點之位置是否符合該檢核點;以及藉由該處理模組依據該骨架節點符合該檢核點之次序計算該動態訓練動作之執行次數。
- 如請求項1所述的動態訓練動作的偵測方法,其中,藉由影像擷取模組擷取特定對象之動態訓練動作的影像資料之步驟還包括:藉由該影像擷取模組將該影像資料轉換為圖片資料;以及藉由該影像擷取模組將該圖片資料轉換為數值資料。
- 如請求項2所述的動態訓練動作的偵測方法,其中,藉由處理模組依據該影像資料判斷出該特定對象之骨架節點之步驟還包括:藉由該處理模組透過卷積神經網路模型,依據該數值資料判斷出該特定對象之骨架節點。
- 一種動態訓練動作的偵測裝置,包括:影像擷取模組,用以擷取特定對象之動態訓練動作的影像資料;以及處理模組,用以依據該影像資料判斷出該特定對象之骨架節點和依據該骨架節點及該動態訓練動作設定檢核點,並用以判斷該骨架節點之位置是 否符合該檢核點,以及用以依據該骨架節點符合該檢核點之次序計算該動態訓練動作之執行次數,其中,該處理模組還用以依據該骨架節點之位置或該骨架節點之間的相對關係設定該檢核點。
- 如請求項4所述的動態訓練動作的偵測裝置,其中,該處理模組還用以將該影像資料轉換為圖片資料,以及用以將該圖片資料轉換為數值資料。
- 如請求項5所述的動態訓練動作的偵測裝置,其中,該處理模組還用以透過卷積神經網路模型,依據該數值資料判斷出該特定對象之骨架節點。
- 如請求項4所述的動態訓練動作的偵測裝置,還包括:儲存模組,用以記錄該動態訓練動作之執行次數;以及顯示模組,用以顯示該執行次數。
- 一種動態訓練動作的偵測方法,包括:藉由影像擷取模組擷取特定對象之動態訓練動作的影像資料;藉由處理模組依據該影像資料判斷出該特定對象之骨架節點;藉由該處理模組依據該骨架節點及該動態訓練動作產生輔助節點;藉由該處理模組依據該骨架節點、該輔助節點及該動態訓練動作設定檢核點,包括:藉由該處理模組依據該骨架節點或該輔助節點之位置設定該檢核點,或者依據該骨架節點或該輔助節點之間的相對關係設定該檢核點;藉由該處理模組判斷該骨架節點或該輔助節點之位置是否符合該檢核點;以及藉由該處理模組依據該骨架節點或該輔助節點符合該檢核點之次序計算該動態訓練動作之執行次數。
- 如請求項8所述的動態訓練動作的偵測方法,其中,藉由影像擷取模組擷取特定對象之動態訓練動作的影像資料之步驟還包括:藉由該影像擷取模組將該影像資料轉換為圖片資料;以及藉由該影像擷取模組將該圖片資料轉換為數值資料。
- 如請求項9所述的動態訓練動作的偵測方法,其中,藉由處理模組依據該影像資料判斷出該特定對象之骨架節點之步驟還包括:藉由該處理模組透過卷積神經網路模型,依據該數值資料判斷出該特定對象之骨架節點。
- 如請求項8所述的動態訓練動作的偵測方法,其中,藉由該處理模組依據該骨架節點及該動態訓練動作產生輔助節點之步驟還包括:藉由該處理模組由該骨架節點選擇出特徵節點;以及藉由該處理模組計算該特徵節點之重心以產生該輔助節點。
- 一種動態訓練動作的偵測裝置,包括:影像擷取模組,用以擷取特定對象之動態訓練動作的影像資料;以及處理模組,用以依據該影像資料判斷出該特定對象之骨架節點,用以依據該骨架節點及該動態訓練動作產生輔助節點,用以依據該骨架節點、該輔助節點及該動態訓練動作設定檢核點,並用以判斷該骨架節點或該輔助節點之位置是否符合該檢核點,以及用以依據該骨架節點或該輔助節點符合該檢核點之次序計算該動態訓練動作之執行次數,其中,該處理模組還用以依據該骨架節點或該輔助節點之位置設定該檢核點,或者依據該骨架節點或該輔助節點之間的相對關係設定該檢核點。
- 如請求項12所述的動態訓練動作的偵測裝置,其中,該處理模組還用以將該影像資料轉換為圖片資料,以及用以將該圖片資料轉換為數值資料。
- 如請求項13所述的動態訓練動作的偵測裝置,其中,該處理模組還用以透過卷積神經網路模型,依據該數值資料判斷出該特定對象之骨架節點。
- 如請求項12所述的動態訓練動作的偵測裝置,還包括:儲存模組,用以記錄該動態訓練動作之執行次數;以及顯示模組,用以顯示該執行次數。
- 一種靜態訓練動作的偵測方法,包括:藉由影像擷取模組擷取特定對象之靜態訓練動作的影像資料;藉由處理模組透過全卷積網路模型對該影像資料進行影像分類,以分辨該特定對象及背景;藉由該處理模組對該影像資料進行影像切割,以去除該背景;藉由該處理模組對該影像資料進行特徵增強,以取得該特定對象之輪廓線段;以及藉由該處理模組對該特定對象之輪廓線段進行模型分析,以判斷該特定對象之靜態訓練動作是否符合標準。
- 如請求項16所述的靜態訓練動作的偵測方法,還包括:藉由該處理模組計算該特定對象之靜態訓練動作符合標準的持續時間。
- 如請求項16所述的靜態訓練動作的偵測方法,其中,藉由影像擷取模組擷取特定對象之靜態訓練動作的影像資料之步驟還包括:藉由該影像擷取模組將該影像資料轉換為圖片資料;以及藉由該影像擷取模組將該圖片資料轉換為數值資料。
- 如請求項17所述的靜態訓練動作的偵測方法,其中,藉由該處理模組對該特定對象之輪廓線段進行模型分析,以判斷該特定對象之靜態訓練動作是否符合標準之步驟還包括:藉由該處理模組透過深度學習分類模型對該特定對象之輪廓線段進行模型分析,以判斷該特定對象之靜態訓練動作是否符合標準。
- 一種靜態訓練動作的偵測裝置,包括:影像擷取模組,用以擷取特定對象之靜態訓練動作的影像資料;以及處理模組,用以透過全卷積網路模型對該影像資料進行影像分類,以分辨該特定對象及背景,用以對該影像資料進行影像切割,以去除該背景,用以對該影像資料進行特徵增強,以取得該特定對象之輪廓線段,以及用以對該特定對象之輪廓線段進行模型分析,以判斷該特定對象之靜態訓練動作是否符合標準。
- 如請求項20所述的靜態訓練動作的偵測裝置,其中,該處理模組還用以計算該特定對象之靜態訓練動作符合標準的持續時間。
- 如請求項20所述的靜態訓練動作的偵測裝置,其中,該處理模組還用以將該影像資料轉換為圖片資料,以及用以將該圖片資料轉換為數值資料。
- 如請求項20所述的靜態訓練動作的偵測裝置,其中,該處理模組還用以透過深度學習分類模型對該特定對象之輪廓線段進行模型分析,以判斷該特定對象之靜態訓練動作是否符合標準。
- 如請求項21所述的靜態訓練動作的偵測裝置,還包括:儲存模組,用以記錄該靜態訓練動作符合標準的持續時間;以及顯示模組,用以顯示該持續時間。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163196716P | 2021-06-04 | 2021-06-04 | |
US63/196,716 | 2021-06-04 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW202248898A TW202248898A (zh) | 2022-12-16 |
TWI828174B true TWI828174B (zh) | 2024-01-01 |
Family
ID=85793568
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW111120512A TWI828174B (zh) | 2021-06-04 | 2022-06-01 | 動態訓練動作與靜態訓練動作的偵測方法及裝置 |
Country Status (1)
Country | Link |
---|---|
TW (1) | TWI828174B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWM531862U (zh) * | 2016-05-19 | 2016-11-11 | Univ Tajen | 智慧型體適能檢測系統 |
CN110163489A (zh) * | 2019-04-28 | 2019-08-23 | 湖南师范大学 | 一种戒毒运动锻炼成效评价方法 |
US20210049356A1 (en) * | 2018-11-07 | 2021-02-18 | Beijing Dajia Internet Information Technology Co., Ltd. | Method for Detecting Key Points in Skeleton, Apparatus, Electronic Device and Storage Medium |
CN112801061A (zh) * | 2021-04-07 | 2021-05-14 | 南京百伦斯智能科技有限公司 | 一种体态识别方法及系统 |
-
2022
- 2022-06-01 TW TW111120512A patent/TWI828174B/zh active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWM531862U (zh) * | 2016-05-19 | 2016-11-11 | Univ Tajen | 智慧型體適能檢測系統 |
US20210049356A1 (en) * | 2018-11-07 | 2021-02-18 | Beijing Dajia Internet Information Technology Co., Ltd. | Method for Detecting Key Points in Skeleton, Apparatus, Electronic Device and Storage Medium |
CN110163489A (zh) * | 2019-04-28 | 2019-08-23 | 湖南师范大学 | 一种戒毒运动锻炼成效评价方法 |
CN112801061A (zh) * | 2021-04-07 | 2021-05-14 | 南京百伦斯智能科技有限公司 | 一种体态识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
TW202248898A (zh) | 2022-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110532984B (zh) | 关键点检测方法、手势识别方法、装置及系统 | |
CN112330526B (zh) | 一种人脸转换模型的训练方法、存储介质及终端设备 | |
JP4860749B2 (ja) | 画像中の人物における位置決め指示との適合性を判定する機器、システム、及び方法 | |
CN110969114A (zh) | 一种人体动作功能检测系统、检测方法及检测仪 | |
CN111104816A (zh) | 一种目标物的姿态识别方法、装置及摄像机 | |
JP6779699B2 (ja) | 画像処理装置、情報処理方法及びプログラム | |
CN110287862B (zh) | 基于深度学习的防偷拍检测方法 | |
TWI669664B (zh) | 眼睛狀態檢測系統及眼睛狀態檢測系統的操作方法 | |
WO2017161734A1 (zh) | 通过电视和体感配件矫正人体动作及系统 | |
JP2000251078A (ja) | 人物の3次元姿勢推定方法および装置ならびに人物の肘の位置推定方法および装置 | |
CN110991266A (zh) | 一种双目人脸活体检测方法及装置 | |
US20240169518A1 (en) | Method and apparatus for identifying body constitution in traditional chinese medicine, electronic device, storage medium and program | |
JP6381368B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
CN112287802A (zh) | 人脸图像检测方法、系统、存储介质及设备 | |
JP2007052609A (ja) | 手領域検出装置及び手領域検出方法、並びにプログラム | |
KR20220024494A (ko) | 사람의 단안 깊이 추정을 위한 방법 및 시스템 | |
CN113229807A (zh) | 人体康复评估装置、方法、电子设备及存储介质 | |
JP5995217B2 (ja) | 瞳孔部分を近似する楕円の検出を行う方法 | |
CN114120204A (zh) | 仰卧起坐姿态评估方法、装置及存储介质 | |
Santos et al. | Eye gaze as a human-computer interface | |
TWI828174B (zh) | 動態訓練動作與靜態訓練動作的偵測方法及裝置 | |
TWM610371U (zh) | 動作識別系統 | |
CN111753796A (zh) | 图像中关键点的识别方法、装置、电子设备及存储介质 | |
JP2015198789A (ja) | 情報処理装置、脈波計測プログラムおよび脈波計測方法 | |
CN114495256A (zh) | 一种基于深度传感器和机器学习的异常跑姿识别方法 |