TWI797956B - 手部辨識裝置控制系統 - Google Patents

手部辨識裝置控制系統 Download PDF

Info

Publication number
TWI797956B
TWI797956B TW111101444A TW111101444A TWI797956B TW I797956 B TWI797956 B TW I797956B TW 111101444 A TW111101444 A TW 111101444A TW 111101444 A TW111101444 A TW 111101444A TW I797956 B TWI797956 B TW I797956B
Authority
TW
Taiwan
Prior art keywords
gesture
hand
sample
module
feature
Prior art date
Application number
TW111101444A
Other languages
English (en)
Other versions
TW202328976A (zh
Inventor
吳世光
Original Assignee
國立勤益科技大學
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 國立勤益科技大學 filed Critical 國立勤益科技大學
Priority to TW111101444A priority Critical patent/TWI797956B/zh
Application granted granted Critical
Publication of TWI797956B publication Critical patent/TWI797956B/zh
Publication of TW202328976A publication Critical patent/TW202328976A/zh

Links

Images

Landscapes

  • Manipulator (AREA)
  • Selective Calling Equipment (AREA)

Abstract

本發明提供一種手部辨識裝置控制系統,其包含:一攝影模組、一分析模組、一運算處理模組以及一通訊模組;攝影模組拍攝一手部動作,並產生一影像資訊;分析模組對影像資訊進行取樣及特徵萃取,以取得手部動作之一手勢特徵;運算處理模組將手勢特徵與手勢樣本進行特徵比對以產生一匹配結果,運算處理模組依據匹配結果取得對應行為指令,並輸出一控制訊號;通訊模組將控制訊號傳送至終端裝置,以執行對應之行為指令;藉此,能夠對使用者的手勢進行辨識,而不會有語音辨識方面的問題,進而能夠輕鬆對裝置進行控制。

Description

手部辨識裝置控制系統
本發明係關於一種手部分析相關領域,尤指一種手部辨識裝置控制系統。
隨著資料傳輸技術以及雲端服務的成熟,帶動了近幾年來物聯網(Internet of Things, IoT)的蓬勃發展,各廠商皆積極推出各式智慧連網設備,令消費者能夠將物聯網整合於日常裝置上,並可透過手機、平板電腦遠端連線並以語音控制家中裝置,例如:電視、冷氣、掃地機器人等家電或監視器的開關。
然而,以語音控制裝置存在極大的侷限性,其中,使用者的口音為系統語音識別上面臨的巨大挑戰,以英語舉例說明,光是英式口音與美式口音就存在極大差異,更何況對於非英文母語的人來說,在發音上更會受到母語發音的強烈影響,更無法說出系統所能辨識的語音指令。此外,若使用者因為生理或心理等因素而無法開口說話,自然也沒辦法透過語音控制使用智慧連網設備。
在系統無法辨識使用者所執行的語音指令,或是只能以語音控制系統執行控制的情況之下,即使智慧連網設備的功能再多樣,使用者也會因為使用體驗很差而拒絕使用。
為解決上述課題,本發明提供一種手部辨識裝置控制系統,其能夠對使用者的手勢進行辨識,而不會有語音辨識方面的問題,進而能夠輕鬆對裝置進行控制。
本發明之一項實施例提供一種手部辨識裝置控制系統,其架設於伺服器且能運行於終端裝置,手部辨識裝置控制系統包含:一攝影模組、一資料庫、一建構學習模組、一分析模組、一運算處理模組以及一通訊模組;攝影模組拍攝一手部動作,並產生一影像資訊;資料庫存有複數手勢樣本以及對應每一手勢樣本之行為指令;建構學習模組與攝影模組及資料庫耦接,建構學習模組用以建立所述手勢樣本,以及對應每一手勢樣本之行為指令;分析模組與攝影模組耦接,分析模組具有相互連接之一影像處理單元以及一特徵萃取單元,影像處理單元接收影像資訊,並在影像資訊上形成一辨識框,影像處理單元在辨識框內進行取樣而產生一關節標示,特徵萃取單元對關節標示以一處理程式進行特徵萃取,以取得手部動作之一手勢特徵;運算處理模組與資料庫以及分析模組耦接,運算處理模組具有相互連接之一比對單元以及一控制單元,比對單元由分析模組取得手勢特徵,並將手勢特徵與資料庫之手勢樣本進行特徵比對,以產生一匹配結果,控制單元依據匹配結果由資料庫取得對應之所述行為指令,並輸出一控制訊號;通訊模組與運算處理模組及終端裝置耦接,通訊模組由運算處理模組取得控制訊號,通訊模組將控制訊號傳送至終端裝置,以執行對應之行為指令。
藉此,本發明能夠以手勢對連網的終端裝置進行控制,除了不侷限於使用遙控器或觸控面板對終端裝置進行操控外,更不會產生如語音控制無法辨識使用者所執行的語音指令的問題,而大幅增加使用上的便利性並帶給使用者良好的使用體驗。
再者,本發明利用分析模組對手部影像進行標識以及特徵萃取,能夠以人工智能快速識別手部動作的手勢特徵,並透過運算處理模組將測得的手勢特徵與資料庫預存的手勢樣本進行比對而取得匹配結果,而能達到精準辨識且快速判斷使用者所執行的手部動作的功效。
為便於說明本發明於上述發明內容一欄中所表示的中心思想,茲以具體實施例表達。實施例中各種不同物件係按適於說明之比例、尺寸、變形量或位移量而描繪,而非按實際元件的比例予以繪製,合先敘明。
請參閱圖1至圖7所示,本發明提供一種手部辨識裝置控制系統100,其架設於一伺服器1且能運行於終端裝置2,手部辨識裝置控制系統100包含相互耦接之一攝影模組10、一資料庫20、一建構學習模組30、一分析模組40、一運算處理模組50以及一通訊模組60。
攝影模組10能夠其拍攝一使用者3的手部動作,並產生一影像資訊11;於本實施例中,攝影模組10所之影像資訊11可透過終端裝置2的螢幕供使用者3檢視,以確保手部動作能夠被攝影模組10完整擷取;於本實施例中,攝影模組10會自動連續拍攝使用者3的手部動作,以產生連續性的影像資訊11。
資料庫20預存有複數手勢樣本21以及對應每一手勢樣本21之行為指令22;於本實施例中,資料庫20存有的手勢樣本21與其所對應的行為指令22除了廠商的初始設定外,亦可由使用者3根據需求自由建立與擴充。
建構學習模組30與攝影模組10以及資料庫20耦接,建構學習模組30具有相互連接之一建構單元31以及一訓練單元32,建構學習模組30可供使用者3自行建立手勢樣本21以及所述手勢樣本21對應的行為指令22。
建構單元31取得攝影模組10拍攝之一手勢變形組合所產生的複數樣本影像資訊12,並供使用者3輸入而建立一對應手勢變形組合之所述行為指令22;於本實施例中,手勢變形組合為複數拍攝大小、位置及角度不同但姿勢相同的手部動作。
進一步說明,建構單元31於終端裝置2之螢幕顯示並提供使用者3一建立樣本選項,使用者3可透過點選建立樣本選項連結至攝影模組10,使用者3可在一段紀錄時間內對攝影模組10比出一個手部動作,並在手部動作不改變姿勢的情況下,依據建構單元31的指示調整手與攝影模組10的之間的距離與相對位置,或是任意旋轉與平移,以形成手勢變形組合供攝影模組10拍攝;於本實施例中,紀錄時間為60秒;紀錄一次手勢變形組合所產生的樣本影像資訊12包含約為100至200張圖片。
建構單元31在前述紀錄時間結束後,於終端裝置2之螢幕顯示並提供使用者3輸入並建立欲執行的行為指令22。
訓練單元32能夠對所述手勢變形組合之樣本影像資訊12以一訓練程式321進行深度學習與特徵萃取,並測試所述樣本影像資訊12的正確率,進而取得所述手勢變形組合之一樣本特徵322;於本實施例中,訓練程式321為卷積神經網路(Convolutional Neural Network, CNN)處理技術,透過卷積神經網路技術能夠避免系統對樣本影像資訊12前期複雜的預處理,不用去人工設計和提取特徵,而能夠節省大量的時間與人工成本。
樣本特徵322包含複數個局部樣本特徵3221,其中,局部樣本特徵3221包含手掌、手腕以及各個手指的彎曲程度、移動方向以及手部朝向;於本實施例中,訓練單元32將手部分割為手掌、手腕以及各個手指等複數區域,並依此取得各區域的局部樣本特徵3221。
於本實施例中,訓練單元32將樣本特徵322中其中一手部區域的局部樣本特徵3221定義為一主要特徵,以利於後續影像辨識。
訓練單元32統整所述樣本特徵322與使用者3輸入的行為指令22,進而產生手勢樣本21,訓練單元32將各手勢樣本21以及對應之行為指令22儲存於資料庫20。
分析模組40與攝影模組10耦接,分析模組40具有相互連接之一影像處理單元41以及一特徵萃取單元42。
影像處理單元41接收攝影模組10測得的影像資訊11,並在影像資訊11內手部之位置形成一辨識框411,影像處理單元41在辨識框411內進行取樣而產生一關節標示412。
於本實施例中,關節標示412具有複數關節取樣點P以及複數連接段S(如圖3所示),其中,關節取樣點P分別位於手腕、拇指腕掌關節、拇指第一掌指關節、拇指指間關節、拇指指尖、食指掌指關節、食指近端指間關節、食指遠端指間關節、食指指尖、中指掌指關節、中指近端指間關節、中指遠端指間關節、中指指尖、無名指掌指關節、無名指近端指間關節、無名指遠端指間關節、無名指指尖、小指掌指關節、小指近端指間關節、小指遠端指間關節以及小指指尖,每兩關節取樣點P由一個連接段S連接以形成關節標示412。
特徵萃取單元42對關節標示412以一處理程式421進行特徵萃取,以取得使用者3之手部動作之一手勢特徵422;於本實施例中,處理程式421採用之處理程式421為卷積神經網路(Convolutional Neural Network, CNN)搭配多重解析度分析(Multiresolution Analysis, MRA)處理技術。
手勢特徵422包含複數個局部手勢特徵4221,其中,局部手勢特徵4221包含手掌、手腕以及各個手指的彎曲程度、移動方向以及手部朝向;於本實施例中,特徵萃取單元42將關節標示412分割為手掌、手腕以及各個手指而取得各區域的局部手勢特徵4221。
運算處理模組50與資料庫20以及分析模組40耦接,運算處理模組50具有相互連接之一比對單元51以及一控制單元52。
比對單元51由分析模組40取得使用者3之手部動作的手勢特徵422,並將所述手勢特徵422與資料庫20預存之手勢樣本21進行特徵比對,以產生一匹配結果511,藉此,精準辨識使用者3所執行的手部動作,並大幅降低誤判的可能。
進一步說明,比對單元51進行比對時,是將相同手部區域的局部手勢特徵4221以及局部樣本特徵3221進行比對,經過計算與統整各手部區域的匹配程度後,比對單元51對應各手勢樣本21標註一匹配率,比對單元51選取匹配率最高之手勢樣本21以產生匹配結果511。
更進一步說明,比對單元51進行比對時,首先自每一手勢樣本21中定義為主要特徵的局部樣本特徵3221所對應的手部區域開始比對,當局部手勢特徵4221與被定義為主要特徵的局部樣本特徵3221的匹配程度高於一預設值,比對單元51即選取所述手勢樣本21而產生匹配結果511,而不需要完整的將所有的局部手勢特徵4221以及局部樣本特徵3221進行比對,再選擇匹配率最高的手勢樣本21而產生匹配結果511,進而快速達到手部辨識的效果。
舉例來說,假設一手勢樣本21的手指區域的局部樣本特徵3221被定義為主要特徵,當比對單元51將使用者3之手勢特徵422時與所述手勢樣本21時進行特徵比對時,比對單元51會首先比對手指區域的局部手勢特徵4221,若兩者的匹配程度高於預設值,比對單元51即選取此手勢樣本21而產生匹配結果511。
若兩者的匹配程度未高於預設值,比對單元51則接續比對其他相同手部區域的局部手勢特徵4221以及局部樣本特徵3221,並在計算與統整各手部區域的匹配程度後標註一匹配率,比對單元51最後在完成其他各手勢樣本21匹配率的標註後選取匹配率最高之手勢樣本21以產生匹配結果511。
控制單元52接收匹配結果511,並依據匹配結果511由資料庫20取得對應的行為指令22,控制單元52根據行為指令22而輸出一控制訊號521,其中,控制訊號521可為對家電的開啟、關閉與動作調整,以實現智能家電的主動性動作響應。
通訊模組60與運算處理模組50及終端裝置2耦接,通訊模組60由控制單元52取得控制訊號521,通訊模組60將控制訊號521傳送至終端裝置2,以對如電視、冷氣、掃地機器人、電燈等家電或監視器執行對應的行為指令22;於本實施例中,通訊模組60透過Wi-Fi無線網路將行為指令22傳送至終端裝置2。
參閱圖4至圖5所示,本發明手部辨識裝置控制系統100以控制家電為例,手部辨識裝置控制系統100能夠以家中設有的可視門鈴對講機為載體進行結合,若使用者3欲利用手部辨識以控制家電如電燈的明亮度,或是開啟電視並調整頻道,使用者3能夠對可視門鈴對講機之攝影模組10比出與手勢樣本21相同的手部動作,分析模組40在取得攝影模組10所測得的影像資訊11後,即可進一步進行特徵萃取,並透過運算處理模組50辨別使用者3所執行的手部動作以產生匹配結果511,而輸出對應的「調整電燈明亮度」或「開啟電視」行為指令22,最後透過通訊模組60將行為指令22傳送至控制各家電的終端裝置2,藉此達到家電控制的效果。
此外,參閱圖6至圖7所示,本發明手部辨識裝置控制系統100亦能夠應用於醫院或療養院,當使用者3為因插管而無法開口表達且行動不便之病患,若使用者3遇到緊急事件需通知護士導診台,在無法開口表達的情況下,使用者3可透過架設於病床旁的終端裝置2,對攝影模組10比出與手勢樣本21相同的手部動作,在分析模組40與運算處理模組50進行特徵萃取以及手勢辨識後,輸出「通知護士導診台」的行為指令22,並透過通訊模組60將呼叫訊息傳送至護士導診台以達到緊急通知的效果。
綜合上述,本發明能夠達成之功效如下:
一、本發明手部辨識裝置控制系統100能夠以手勢對終端裝置2進行控制,除了不侷限於使用遙控器或觸控面板對終端裝置2進行操控外,更不會產生如語音控制無法辨識使用者3所執行的語音指令的問題,而大幅增加使用上的便利性並帶給使用者3良好的使用體驗。
二、本發明利用分析模組40對手部影像進行標識以及特徵萃取,能夠以人工智能快速識別手部動作的手勢特徵422,並透過運算處理模組50將測得的手勢特徵422與資料庫20預存的手勢樣本21進行特徵比對而取得匹配結果511,而達到精準辨識使用者3所執行的手部動作的功效。
三、本發明訓練單元32預先將樣本特徵322中其中一手部區域的局部樣本特徵3221定義為一主要特徵,比對單元51進行比對時首先自每一手勢樣本21中定義為主要特徵的局部樣本特徵3221所對應的手部區域開始比對,藉此達到快速辨識的效果。
以上所舉實施例僅用以說明本發明而已,非用以限制本發明之範圍。舉凡不違本發明精神所從事的種種修改或變化,俱屬本發明意欲保護之範疇。
1:伺服器 2:終端裝置 3:使用者 100:手部辨識裝置控制系統 10:攝影模組 11:影像資訊 12:樣本影像資訊 20:資料庫 21:手勢樣本 22:行為指令 30:建構學習模組  31:建構單元 32:訓練單元 321:訓練程式 322:樣本特徵 3221:局部樣本特徵 40:分析模組 41:影像處理單元 411:辨識框 412:關節標示 42:特徵萃取單元 421:處理程式 422:手勢特徵 4221:局部手勢特徵 50:運算處理模組 51:比對單元 511:匹配結果 52:控制單元 521:控制訊號 60:通訊模組 P:關節取樣點 S:連接段
圖1係本發明系統連結示意圖。 圖2係本發明系統方塊圖。 圖3係本發明分析模組進行影像辨識處理示意圖。 圖4係本發明實施例之實施狀態示意圖(一),用於表示使用者利用手勢進行家電控制。 圖5係本發明實施例之實施狀態示意圖(二),用於表示使用者利用手勢進行家電控制。 圖6係本發明實施例之實施狀態示意圖(三),用於表示使用者利用手勢進行緊急呼叫。 圖7係本發明實施例之實施狀態示意圖(四),用於表示使用者利用手勢進行緊急呼叫。
100:手部辨識裝置控制系統
10:攝影模組
11:影像資訊
12:樣本影像資訊
20:資料庫
21:手勢樣本
22:行為指令
30:建構學習模組
31:建構單元
32:訓練單元
321:訓練程式
322:樣本特徵
3221:局部樣本特徵
40:分析模組
41:影像處理單元
411:辨識框
412:關節標示
42:特徵萃取單元
421:處理程式
422:手勢特徵
4221:局部手勢特徵
50:運算處理模組
51:比對單元
511:匹配結果
52:控制單元
521:控制訊號
60:通訊模組

Claims (10)

  1. 一種手部辨識裝置控制系統,其架設於伺服器且能運行於終端裝置,該手部辨識裝置控制系統包含:一攝影模組,其拍攝一手部動作,並產生一影像資訊;一資料庫,其存有複數手勢樣本以及對應每一手勢樣本之行為指令;一建構學習模組,其與該攝影模組及該資料庫耦接,該建構學習模組用以建立該些手勢樣本,以及對應每一手勢樣本之行為指令;一分析模組,其與該攝影模組耦接,該分析模組具有相互連接之一影像處理單元以及一特徵萃取單元,該影像處理單元接收該影像資訊,並在該影像資訊上形成一辨識框,該影像處理單元在該辨識框內進行取樣而產生一關節標示,該特徵萃取單元對該關節標示以一處理程式進行特徵萃取,以取得該手部動作之一手勢特徵,其中,該處理程式為卷積神經網路(Convolutional Neural Network,CNN)搭配多重解析度分析(Multiresolution Analysis,MRA)處理技術;一運算處理模組,其與該資料庫以及該分析模組耦接,該運算處理模組具有相互連接之一比對單元以及一控制單元,該比對單元由該分析模組取得該手勢特徵,並將該手勢特徵與該資料庫之該些手勢樣本進行特徵比對,以產生一匹配結果,該控制單元依據該匹配結果由該資料庫取得對應之所述行為指令,並輸出一控制訊號;以及一通訊模組,其與該運算處理模組及終端裝置耦接,該通訊模組由該運算處理模組取得該控制訊號,該通訊模組將該控制訊號傳送至終端裝置,以執行對應之行為指令。
  2. 如請求項1所述之手部辨識裝置控制系統,其中,該建構學習模 組具有一建構單元,該建構單元取得該攝影模組拍攝之一手勢變形組合所產生的複數樣本影像資訊,並建立一對應該手勢變形組合之所述行為指令。
  3. 如請求項2所述之手部辨識裝置控制系統,其中,該手勢變形組合為複數拍攝大小、位置及角度不同但姿勢相同的手部動作。
  4. 如請求項2所述之手部辨識裝置控制系統,其中,該建構學習模組更具有一訓練單元,該訓練單元對所述手勢變形組合之樣本影像資訊以一訓練程式進行深度學習與特徵萃取,而取得所述手勢變形組合之一樣本特徵,並依該樣本特徵產生所述手勢樣本,該訓練單元將各該手勢樣本以及對應之行為指令儲存於該資料庫。
  5. 如請求項4所述之手部辨識裝置控制系統,其中,該樣本特徵包含複數個局部樣本特徵,所述局部樣本特徵包含手掌、手腕以及各個手指的彎曲程度、移動方向以及手部朝向。
  6. 如請求項5所述之手部辨識裝置控制系統,其中,該手勢特徵包含複數個局部手勢特徵,該特徵萃取單元將該關節標示分割為不同手部區域而取得各該局部手勢特徵,所述局部手勢特徵包含手掌、手腕以及各個手指的彎曲程度、移動方向以及手部朝向。
  7. 如請求項6所述之手部辨識裝置控制系統,其中,該比對單元對相同手部區域之所述局部手勢特徵與所述局部樣本特徵進行比對,並對應各手勢樣本標註一匹配率,該比對單元選取該匹配率最高之所述手勢樣本而產生該匹配結果。
  8. 如請求項7所述之手部辨識裝置控制系統,其中,該訓練單元將該樣本特徵中其中一手部區域之該局部樣本特徵定義為一主要特徵,該比對單 元進行比對時,自每一手勢樣本中所述主要特徵所對應的手部區域開始比對,當該局部手勢特徵與該主要特徵匹配程度高於一預設值,該比對單元即選取所述手勢樣本而產生該匹配結果。
  9. 如請求項4所述之手部辨識裝置控制系統,其中,該訓練單元採用之訓練程式為卷積神經網路(Convolutional Neural Network,CNN)處理技術。
  10. 如請求項1所述之手部辨識裝置控制系統,其中,該關節標示具有複數關節取樣點以及複數連接段,每兩關節取樣點由一個連接段連接。
TW111101444A 2022-01-13 2022-01-13 手部辨識裝置控制系統 TWI797956B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
TW111101444A TWI797956B (zh) 2022-01-13 2022-01-13 手部辨識裝置控制系統

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW111101444A TWI797956B (zh) 2022-01-13 2022-01-13 手部辨識裝置控制系統

Publications (2)

Publication Number Publication Date
TWI797956B true TWI797956B (zh) 2023-04-01
TW202328976A TW202328976A (zh) 2023-07-16

Family

ID=86945063

Family Applications (1)

Application Number Title Priority Date Filing Date
TW111101444A TWI797956B (zh) 2022-01-13 2022-01-13 手部辨識裝置控制系統

Country Status (1)

Country Link
TW (1) TWI797956B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107506712A (zh) * 2017-08-15 2017-12-22 成都考拉悠然科技有限公司 一种基于3d深度卷积网络的人类行为识别的方法
US10304208B1 (en) * 2018-02-12 2019-05-28 Avodah Labs, Inc. Automated gesture identification using neural networks
CN113177472A (zh) * 2021-04-28 2021-07-27 北京百度网讯科技有限公司 动态手势识别方法、装置、设备以及存储介质
TWI742079B (zh) * 2016-09-29 2021-10-11 香港商阿里巴巴集團服務有限公司 基於手勢的互動方法及裝置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI742079B (zh) * 2016-09-29 2021-10-11 香港商阿里巴巴集團服務有限公司 基於手勢的互動方法及裝置
CN107506712A (zh) * 2017-08-15 2017-12-22 成都考拉悠然科技有限公司 一种基于3d深度卷积网络的人类行为识别的方法
US10304208B1 (en) * 2018-02-12 2019-05-28 Avodah Labs, Inc. Automated gesture identification using neural networks
CN113177472A (zh) * 2021-04-28 2021-07-27 北京百度网讯科技有限公司 动态手势识别方法、装置、设备以及存储介质

Also Published As

Publication number Publication date
TW202328976A (zh) 2023-07-16

Similar Documents

Publication Publication Date Title
US10521648B2 (en) Body information analysis apparatus and method of auxiliary comparison of eyebrow shapes thereof
CN105487673B (zh) 一种人机交互系统、方法及装置
CN107765855A (zh) 一种基于手势识别控制机器人运动的方法和系统
CN108427910A (zh) 深层神经网络ar手语翻译学习方法、客户端及服务器
CN106363637A (zh) 一种机器人快速示教方法及装置
WO2018000519A1 (zh) 一种基于投影的用户交互图标的交互控制方法及系统
CN109145802B (zh) 基于Kinect的多人手势人机交互方法及装置
CN106354264A (zh) 基于视线追踪的实时人机交互系统及其工作方法
WO2023273372A1 (zh) 手势识别对象确定方法及装置
CN106406518A (zh) 手势控制装置及手势识别方法
CN112183424A (zh) 一种基于视频的实时手部追踪方法和系统
CN111158478B (zh) 响应方法及电子设备
CN112286360A (zh) 用于操作移动设备的方法和装置
TWI797956B (zh) 手部辨識裝置控制系統
CN111240489A (zh) 基于手势识别手套的手势识别方法、系统及手势识别手套
CN106325480A (zh) 基于视线追踪的鼠标控制设备及其方法
Christian et al. Hand gesture recognition and infrared information system
CN118466805A (zh) 机器视觉和手势识别的非接触式三维模型人机交互方法
CN111857338A (zh) 一种适合大屏幕上使用移动应用的方法
CN115407878A (zh) 一种xr手势输入实现方法和系统
CN113657173B (zh) 一种数据处理方法、装置和用于数据处理的装置
CN116543452A (zh) 手势识别、手势交互方法及装置
Chaudhary Finger-stylus for non touch-enable systems
CN116071782A (zh) 基于uwb雷达的手势骨架检测方法及系统
CN105302310B (zh) 一种手势识别装置、系统及方法