TW201510781A - 手勢辨識方法及穿戴式裝置 - Google Patents

手勢辨識方法及穿戴式裝置 Download PDF

Info

Publication number
TW201510781A
TW201510781A TW102131738A TW102131738A TW201510781A TW 201510781 A TW201510781 A TW 201510781A TW 102131738 A TW102131738 A TW 102131738A TW 102131738 A TW102131738 A TW 102131738A TW 201510781 A TW201510781 A TW 201510781A
Authority
TW
Taiwan
Prior art keywords
speed
preset
reference speed
curve
allowable range
Prior art date
Application number
TW102131738A
Other languages
English (en)
Other versions
TWI567592B (zh
Inventor
Hsih-Bin Dai
Chih-Kang Chen
Wei-Yu Chen
Chien-Chi Shen
Kuo-Hsing Wang
Yi-Sheng Kao
Original Assignee
Wistron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wistron Corp filed Critical Wistron Corp
Priority to TW102131738A priority Critical patent/TWI567592B/zh
Priority to CN201310430029.9A priority patent/CN104423566B/zh
Priority to US14/094,821 priority patent/US9383824B2/en
Publication of TW201510781A publication Critical patent/TW201510781A/zh
Application granted granted Critical
Publication of TWI567592B publication Critical patent/TWI567592B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Abstract

一種手勢辨識方法及穿戴式裝置。穿戴式裝置包括使用者介面、動作感測器、微處理器及中央處理器。動作感測器於一使用模式下,感測目前手部軌跡。微處理器根據目前手部軌跡產生座標軸上之速度曲線,並根據第一預設速度及第二預設速度於速度曲線上取樣出速度取樣點。微處理器判斷速度取樣點與速度特徵點之相符個數是否大於一閥值。當相符個數是否大於閥值,表示目前手部軌跡與預設手部軌跡相符。當目前手部軌跡與預設手部軌跡相符,中央處理器執行與預設手部軌跡相對應之系統操作。

Description

手勢辨識方法及穿戴式裝置
本發明是有關於一種電子裝置,且特別是有關於一種手勢辨識方法及穿戴式裝置。
使用者在對電腦系統、電腦/電視遊戲、資訊家電等產品進行操作時,需要透過人機介面來對電腦系統、電腦/電視遊戲、資訊家電等產品下達命令,並透過人機介面取得電腦系統、電腦/電視遊戲、資訊家電等產品所產生的執行結果。而隨著科技的進步,使用者與電腦系統、電腦/電視遊戲、資訊家電等產品之間的溝通模式也越來越多樣化。換言之,人機介面所能接收的使用者訊息也不再侷限於鍵盤或滑鼠所產生的指令。
不論是滑鼠、鍵盤、觸控面板或遙控器,電子產品的操控上始終強調使用的方便性與功能性。近年來,由於影像偵測式人機介面技術的提升,非接觸式的手勢操控介面隨之興起,但不論技術如何演變,以人為中心的產品設計理念依然不變。換言之,手勢操控介面是否具直覺便利的特性將左右消費者接受該產品的重要因素。
本發明係有關於一種手勢辨識方法及穿戴式裝置。
根據本發明,提出一種手勢辨識方法。手勢辨識方法包括:於一使用模式下,感測一目前手部軌跡;根據目前手部軌跡產生座標軸上之速度曲線;根據第一預設速度及第二預設速度於速度曲線上取樣出速度取樣點;判斷速度取樣點與速度特徵點之相符個數是否大於一閥值,當相符個數是否大於該閥值,表示目前手部軌跡與預設手部軌跡相符;以及當目前手部軌跡與預設手部軌跡相符,執行與預設手部軌跡相對應之系統操作。
根據本發明,提出一種穿戴式裝置。穿戴式裝置包括使用者介面、動作感測器、微處理器及中央處理器。動作感測器於一使用模式下,感測目前手部軌跡。微處理器根據目前手部軌跡產生座標軸上之速度曲線,並根據第一預設速度及第二預設速度於速度曲線上取樣出速度取樣點。微處理器判斷速度取樣點與速度特徵點之相符個數是否大於一閥值。當相符個數是否大於閥值,表示目前手部軌跡與預設手部軌跡相符。當目前手部軌跡與預設手部軌跡相符,中央處理器執行與預設手部軌跡相對應之系統操作。
為了對本發明之上述及其他方面有更佳的瞭解,下文特舉較佳實施例,並配合所附圖式,作詳細說明如下:
1‧‧‧穿戴式裝置
11‧‧‧使用者介面
12‧‧‧動作感測器
13‧‧‧微處理器
14‧‧‧處理器
15‧‧‧儲存裝置
21~25‧‧‧步驟
V1‧‧‧第一預設速度
V2‧‧‧第二預設速度
VX‧‧‧x軸上之速度曲線
VY‧‧‧y軸上之速度曲線
VZ‧‧‧z軸上之速度曲線
VS‧‧‧速度取樣點
VR1‧‧‧第一參考速度曲線
VR2‧‧‧第二參考速度曲線
VA1‧‧‧第一參考速度
VA2‧‧‧第三參考速度
VA3‧‧‧第五參考速度
VB1‧‧‧第二參考速度
VB2‧‧‧第四參考速度
VB3‧‧‧第六參考速度
△V1‧‧‧第一容許範圍
△V2‧‧‧第二容許範圍
第1圖繪示係為依照第一實施例之一種穿戴式裝置之方塊圖。
第2圖繪示係為一種手勢辨識方法之流程圖。
第3圖繪示係為x軸、y軸及z軸上之速度曲線。
第4圖繪示係為x軸上之速度曲線。
第5圖繪示係為y軸上之速度曲線。
第6圖繪示係為z軸上之速度曲線。
第7圖繪示係為第一測量速度曲線之示意圖。
第8圖繪示係為第二測量速度曲線之示意圖。
第9圖繪示係為第一容許範圍及第二容許範圍之示意圖。
第10圖繪示係為目標速度曲線之示意圖。
請同時參照第1圖及第2圖,第1圖繪示係為一種穿戴式 裝置之方塊圖,第2圖繪示係為一種手勢辨識方法之流程圖。穿戴式裝置1包括使用者介面11、動作感測器(motion sensor)12、微處理器13、處理器14及儲存裝置15。穿戴式裝置1例如為手錶,而使用者介面11例如為喇叭、顯示螢幕或觸控面板。儲存裝置15儲存一預設手部軌跡之速度特徵點。預設手部軌跡例如係表示使用者介面11由背向使用者改為面向使用者。舉例來說,預設手部軌跡為使用者先將手上揚,再將使用者介面11由背向使用者改為面向使用者。或者,預設手部軌跡為使用者先將使用者介面11由背向使用者改為面向使用者,再將手上揚。除此之外,預設手部軌跡也可以為使用者直接將使用者介面11由背向使用者 改為面向使用者。
手勢辨識方法適用於穿戴式裝置1,且包括如下步 驟。首先如步驟21所示,動作感測器12於一使用模式下,感測一目前手部軌跡。接著如步驟22所示,微處理器13根據目前手部軌跡產生速度曲線。跟著如步驟23所示,微處理器13根據第一預設速度及第二預設速度於速度曲線上取樣出速度取樣點。然後如步驟24所示,微處理器13判斷速度取樣點與速度特徵點之相符個數是否大於一閥值。當相符個數是否大於閥值,表示目前手部軌跡與預設手部軌跡相符。接著如步驟25所示,當目前手部軌跡與該預設手部軌跡相符,中央處理器14執行與預設手部軌跡相對應之系統操作。系統操作例如為啟動使用者介面11。若目前手部軌跡與預設手部軌跡相反,則關閉使用者介面11。當前述中央處理器14啟動使用者介面11後,使用者介面11可進一步地顯示資訊、發光或發出聲響。
請同時參照第3圖、第4圖、第5圖及第6圖,第 3圖繪示係為x軸、y軸及z軸上之速度曲線,第4圖繪示係為x軸上之速度曲線,第5圖繪示係為y軸上之速度曲線,第6圖繪示係為z軸上之速度曲線。為方便說明起見,下述實施例之方向軸係以x軸、y軸及z軸為例說明。加速度是指物體速度對時間的變化率,而速度則是該物體的位置對時間的變化率。速度v就是位置s對時間t的微分,而加速度a則是速度v對時間t的微分。 假定初始速度為零之下,。相對地,當得知某物體的 加速度資訊時,便可一次積分將加速度的資訊轉換成速度資訊,即vadt。或利用連續兩次積分將加速度的資訊轉換成位移(Displacement)資訊,即svdt。如此一來,便可計算出X軸、Y軸、Z軸上的位移量,並進一步計算出位置資訊。
進一步來說,微處理器13根據目前手部軌跡產生x 軸上之速度曲線VX、y軸上之速度曲線VY及z軸上之速度曲線VZ,且x軸、y軸及z軸彼此相互垂直。微處理器13根據第一預設速度V1及第二預設速度V2於速度曲線VX、速度曲線VY及速度曲線VZ上取樣出速度取樣點。微處理器13判斷速度取樣點VS與速度特徵點之相符個數是否大於一閥值。閥值的大小可取決於動作精確度的要求。當動作精確度的要求越嚴格,則設定的閥值較高。相對地,當動作精確度的要求越寬鬆,則設定的閥值較低。
請同時參照第1圖、第7圖、第8圖及第9圖,第 7圖繪示係為第一測量速度曲線之示意圖,第8圖繪示係為第二測量速度曲線之示意圖,第9圖繪示係為第一容許範圍及第二容許範圍之示意圖。為方便說明起見,下數實施例係以第一測量速度曲線VR1及第二測量速度曲線VR2為例說明,且第一測量速度曲線VR1及第二測量速度曲線VR2係以x軸上之測量速度曲線為例說明。然不侷限於此,微處理器13亦可根據兩條以上的測量速度曲線來類推第一預設速度V1、第二預設速度V2、第一容許範圍△V1及第二容許範圍△V2。
微處理器13根據預設手部軌跡產生第一測量速度 曲線VR1及第二測量速度曲線VR2。微處理器13設定第一參考速度VA1及第二參考速度VA2。第一參考速度VA1與第一測量速度曲線VR1形成最多交點,且第二參考速度VA2與第二測量速度曲線VR2形成最多交點。
微處理器13根據第一參考速度VA1及精準度決定 第三參考速度VB1,並根據第二參考速度VA2及精準度決定第四參考速度VB2。微處理器13計算第一參考速度VA1與第三參考速度VA2之平均值做為第一預設速度V1,並計算第二參考速度VB1與第四參考速度VB4之平均值做為第二預設速度V2。前述速度特徵點落於第一預設速度V1及第二預設速度V2上。為方便說明起見,上述實施例係以第一測量速度曲線VR1及第二測量速度曲線VR2為例說明。然實際應用並不侷限於此,微處理器13能根據更多的測量速度曲線來決定第一預設速度V1及第二預設速度V2。舉例來說,使用者對同一動作重複執行30次,微處理器13即能根據30條測量速度曲線來決定第一預設速度V1及第二預設速度V2。
微處理器13根據第一參考速度曲線VR1及第二參 考速度曲線VR2決定第一預設速度V1之第一容許範圍△V1及第二預設速度V2之第二容許範圍△V2。微處理器13係於第一容許範圍△V1及第二容許範圍△V2內取樣速度取樣點。為方便說明起見,上述實施例係以第一測量速度曲線VR1及第二測量速度曲 線VR2為例說明。然實際應用並不侷限於此,微處理器13能根據更多的測量速度曲線來決定第一容許範圍△V1及第二容許範圍△V2。舉例來說,使用者對同一動作重複執行30次,微處理器13即能根據30條測量速度曲線來決定第一容許範圍△V1及第二容許範圍△V2。
請同時參照第1圖、第7圖、第8圖、第9圖及第 10圖,第10圖繪示係為目標速度曲線之示意圖。微處理器13還能於一學習模式下,根據前述x軸上之速度曲線VX、y軸上之速度曲線VY及z軸上之速度曲線VZ,來進一步修正第一預設速度V1及第二預設速度V2。或者,微處理器13還於學習模式下,根據前述x軸上之速度曲線VX、y軸上之速度曲線VY及z軸上之速度曲線VZ,來進一步修正第一容許範圍△V1及第二容許範圍△V2。
為方便說明起見,下述實施例之目標速度曲線係以 x軸上之速度曲線VX為例說明。然不侷限於此,目標速度曲線亦可以為y軸上之速度曲線VY或z軸上之速度曲線VZ。微處理器13進入學習模式後,設定第五參考速度VA3。第五參考速度VA3與速度曲線VX形成最多交點。微處理器13根據第五參考速度VA3及精準度決定第六參考速度VB3。微處理器13計算第一參考速度VA1、第三參考速度VA2及第五參考速度VA3之平均值做為第一預設速度V1,並計算第二參考速度VB1、第四參考速度VB2及第六參考速度VB3之平均值做為第二預設速度V2。 如此一來,穿戴式裝置1即能根據x軸上之速度曲線VX、y軸上之速度曲線VY及z軸上之速度曲線VZ自我修正第一預設速度V1、第二預設速度V2、第一容許範圍△V1及第二容許範圍△V2。
綜上所述,雖然本發明已以較佳實施例揭露如上,然其並非用以限定本發明。本發明所屬技術領域中具有通常知識者,在不脫離本發明之精神和範圍內,當可作各種之更動與潤飾。因此,本發明之保護範圍當視後附之申請專利範圍所界定者為準。
21~25‧‧‧步驟

Claims (18)

  1. 一種手勢辨識方法,包括:於一使用模式下,感測一目前手部軌跡;根據該目前手部軌跡產生複數個座標軸上之複數個速度曲線;根據一第一預設速度及一第二預設速度於該些速度曲線上取樣出複數個速度取樣點;判斷該些速度取樣點與複數個速度特徵點之一相符個數是否大於一閥值,當該相符個數是否大於該閥值,表示該目前手部軌跡與一預設手部軌跡相符;以及當該目前手部軌跡與該預設手部軌跡相符,執行與該預設手部軌跡相對應之一系統操作。
  2. 如申請專利範圍第1項所述之手勢辨識方法,更包括:根據該預設手部軌跡產生一第一測量速度曲線及一第二測量速度曲線;設定一第一參考速度及一第二參考速度,該第一參考速度與該第一測量速度曲線形成最多交點,該第二參考速度與該第二測量速度曲線形成最多交點;根據該第一參考速度及一精準度決定一第三參考速度,並根據該第二參考速度及該精準度決定一第四參考速度;根據該第一參考速度與該第三參考速度之平均值計算該第一預設速度,並計算該第二參考速度與該第四參考速度之平均值 做為該第二預設速度,該些速度特徵點落於該第一預設速度及該第二預設速度上。
  3. 如申請專利範圍第2項所述之手勢辨識方法,更包括:根據該第一參考速度曲線及第二參考速度曲線決定該第一預設速度之一第一容許範圍及該第二預設速度之一第二容許範圍;其中,該取樣步驟係於該第一容許範圍及該第二容許範圍內取樣該些速度取樣點。
  4. 如申請專利範圍第3項所述之手勢辨識方法,更包括:於一學習模式下,根據該些速度曲線修正該第一容許範圍及該第二容許範圍。
  5. 如申請專利範圍第1項所述之手勢辨識方法,更包括:於一學習模式下,根據該些速度曲線修正該第一預設速度及該第二預設速度。
  6. 如申請專利範圍第5項所述之手勢辨識方法,其中該些速度曲線包括一目前速度曲線,該修正步驟包括:設定一第五參考速度,該第五參考速度與該目前速度曲線形成最多交點;根據該第五參考速度及該精準度決定一第六參考速度;根據該第一參考速度、該第三參考速度及該第五參考速度之平均值計算該第一預設速度,並根據該第二參考速度、該第四參考速度及該第六參考速度之平均值計算該第二預設速度。
  7. 如申請專利範圍第1項所述之手勢辨識方法,其中該預設手部軌跡表示一使用者介面由背向使用者改為面向使用者。
  8. 如申請專利範圍第1項所述之手勢辨識方法,其中該系統操作係為啟動一使用者介面。
  9. 如申請專利範圍第1項所述之手勢辨識方法,其中該些座標軸包括一第一方向軸、一第二方向軸及一第三方向軸,該第一方向軸、該第二方向軸及該第三方向軸係彼此互相垂直。
  10. 一種穿戴式裝置,包括:一使用者介面;一動作感測器,用以於一使用模式下,感測一目前手部軌跡;一微處理器,用以根據該目前手部軌跡產生複數個座標軸上之複數個速度曲線,並根據一第一預設速度及一第二預設速度於該些速度曲線上取樣出複數個速度取樣點,該微處理器判斷該些速度取樣點與複數個速度特徵點之一相符個數是否大於一閥值,當該相符個數是否大於該閥值,表示該目前手部軌跡與一預設手部軌跡相符;以及一中央處理器,用以當該目前手部軌跡與該預設手部軌跡相符,執行與該預設手部軌跡相對應之一系統操作。
  11. 如申請專利範圍第10項所述之穿戴式裝置,其中該微處理器根據該預設手部軌跡產生一第一測量速度曲線及一第二測量速度曲線,並設定一第一參考速度及一第二參考速度,該第一參考速度與該第一測量速度曲線形成最多交點,該第二參考速度 與該第二測量速度曲線形成最多交點,該微處理器根據該第一參考速度及一精準度決定一第三參考速度,並根據該第二參考速度及該精準度決定一第四參考速度,該微處理器根據該第一參考速度與該第三參考速度之平均值計算該第一預設速度,並根據該第二參考速度與該第四參考速度之平均值計算該第二預設速度,該些速度特徵點落於該第一預設速度及該第二預設速度上。
  12. 如申請專利範圍第11項所述之穿戴式裝置,其中該微處理器根據該第一參考速度曲線及第二參考速度曲線決定該第一預設速度之一第一容許範圍及該第二預設速度之一第二容許範圍,且該微處理器係於該第一容許範圍及該第二容許範圍內取樣該些速度取樣點。
  13. 如申請專利範圍第12項所述之穿戴式裝置,其中該微處理於一學習模式下,根據該些速度曲線修正該第一容許範圍及該第二容許範圍。
  14. 如申請專利範圍第10項所述之穿戴式裝置,其中該微處理器於一學習模式下,根據該些速度曲線修正該第一預設速度及該第二預設速度。
  15. 如申請專利範圍第14項所述之穿戴式裝置,其中該些速度曲線包括一目前速度曲線,該微處理器設定一第五參考速度,該第五參考速度與該目前速度曲線形成最多交點,並根據該第五參考速度及該精準度決定一第六參考速度,該微處理器根據該第一參考速度、該第三參考速度及該第五參考速度之平均值計算該 第一預設速度,並根據該第二參考速度、該第四參考速度及該第六參考速度之平均值計算該第二預設速度。
  16. 如申請專利範圍第10項所述之穿戴式裝置,其中該預設手部軌跡表示該使用者介面由背向使用者改為面向使用者。
  17. 如申請專利範圍第10項所述之穿戴式裝置,其中該系統操作係為啟動該使用者介面。
  18. 如申請專利範圍第10項所述之穿戴式裝置,其中該些座標軸包括一第一方向軸、一第二方向軸及一第三方向軸,該第一方向軸、該第二方向軸及該第三方向軸係彼此互相垂直。
TW102131738A 2013-09-03 2013-09-03 手勢辨識方法及穿戴式裝置 TWI567592B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
TW102131738A TWI567592B (zh) 2013-09-03 2013-09-03 手勢辨識方法及穿戴式裝置
CN201310430029.9A CN104423566B (zh) 2013-09-03 2013-09-18 手势辨识方法及穿戴式装置
US14/094,821 US9383824B2 (en) 2013-09-03 2013-12-03 Gesture recognition method and wearable apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW102131738A TWI567592B (zh) 2013-09-03 2013-09-03 手勢辨識方法及穿戴式裝置

Publications (2)

Publication Number Publication Date
TW201510781A true TW201510781A (zh) 2015-03-16
TWI567592B TWI567592B (zh) 2017-01-21

Family

ID=52582483

Family Applications (1)

Application Number Title Priority Date Filing Date
TW102131738A TWI567592B (zh) 2013-09-03 2013-09-03 手勢辨識方法及穿戴式裝置

Country Status (3)

Country Link
US (1) US9383824B2 (zh)
CN (1) CN104423566B (zh)
TW (1) TWI567592B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109144236A (zh) * 2017-06-28 2019-01-04 纬创资通股份有限公司 手势识别方法以及手势识别模块

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109330576B (zh) * 2015-03-24 2020-10-27 联想(北京)有限公司 控制开启方法及电子设备
US10261584B2 (en) 2015-08-24 2019-04-16 Rambus Inc. Touchless user interface for handheld and wearable computers
CN105353634B (zh) * 2015-11-30 2018-05-08 北京地平线机器人技术研发有限公司 利用手势识别控制操作的家电设备与方法
DE112015007204T5 (de) * 2015-12-22 2018-10-04 Intel Corporation Zeitbereichsmerkmalstransformation für benutzergesten
US10151606B1 (en) 2016-02-24 2018-12-11 Ommo Technologies, Inc. Tracking position and movement using a magnetic field
FR3056369B1 (fr) * 2016-09-22 2020-01-31 Thales Systeme de communication et procede de communication associe
US10817066B2 (en) * 2016-12-05 2020-10-27 Google Llc Information privacy in virtual reality
US10276289B1 (en) 2018-06-01 2019-04-30 Ommo Technologies, Inc. Rotating a permanent magnet in a position detection system

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6369794B1 (en) * 1998-09-09 2002-04-09 Matsushita Electric Industrial Co., Ltd. Operation indication outputting device for giving operation indication according to type of user's action
US7365737B2 (en) * 2004-03-23 2008-04-29 Fujitsu Limited Non-uniform gesture precision
US8684839B2 (en) * 2004-06-18 2014-04-01 Igt Control of wager-based game using gesture recognition
GB2419433A (en) * 2004-10-20 2006-04-26 Glasgow School Of Art Automated Gesture Recognition
KR101185144B1 (ko) * 2006-01-24 2012-09-24 삼성전자주식회사 제스쳐의 2차원 궤적을 추정하는 방법 및 장치
US20090265671A1 (en) * 2008-04-21 2009-10-22 Invensense Mobile devices with motion gesture recognition
TW200920458A (en) * 2007-11-12 2009-05-16 Univ Nat Formosa Dress type control device with computer software and the method thereof
US20100318286A1 (en) 2008-04-23 2010-12-16 Stefan Lorkowski Method of creating a speed estimation
TW201015382A (en) 2008-10-09 2010-04-16 Univ Nat Chiao Tung Virtual input system and method
US8503932B2 (en) * 2008-11-14 2013-08-06 Sony Mobile Comminications AB Portable communication device and remote motion input device
US20110054833A1 (en) * 2009-09-02 2011-03-03 Apple Inc. Processing motion sensor data using accessible templates
US8421448B1 (en) 2010-01-28 2013-04-16 The United States Of America As Represented By The Secretary Of The Navy Hall-effect sensor system for gesture recognition, information coding, and processing
US8786547B2 (en) * 2010-12-23 2014-07-22 Microsoft Corporation Effects of gravity on gestures
US8873841B2 (en) * 2011-04-21 2014-10-28 Nokia Corporation Methods and apparatuses for facilitating gesture recognition
CN103164049A (zh) * 2011-12-09 2013-06-19 捷达世软件(深圳)有限公司 手持行动电子装置摆动识别控制系统及方法
US20140236529A1 (en) * 2013-02-18 2014-08-21 Motorola Mobility Llc Method and Apparatus for Determining Displacement from Acceleration Data
US9442570B2 (en) * 2013-03-13 2016-09-13 Google Technology Holdings LLC Method and system for gesture recognition

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109144236A (zh) * 2017-06-28 2019-01-04 纬创资通股份有限公司 手势识别方法以及手势识别模块
TWI662482B (zh) * 2017-06-28 2019-06-11 緯創資通股份有限公司 手勢識別方法以及手勢識別模組
US10417485B2 (en) 2017-06-28 2019-09-17 Wistron Corporation Method and module of gesture recognition
CN109144236B (zh) * 2017-06-28 2021-11-12 纬创资通股份有限公司 手势识别方法以及手势识别模块

Also Published As

Publication number Publication date
TWI567592B (zh) 2017-01-21
US20150061994A1 (en) 2015-03-05
CN104423566A (zh) 2015-03-18
US9383824B2 (en) 2016-07-05
CN104423566B (zh) 2017-06-09

Similar Documents

Publication Publication Date Title
TWI567592B (zh) 手勢辨識方法及穿戴式裝置
US8146020B2 (en) Enhanced detection of circular engagement gesture
US20150091832A1 (en) Information processing apparatus, information processing method, and program
WO2017041433A1 (zh) 可穿戴设备的触控响应方法、装置及可穿戴设备
US9047001B2 (en) Information processing apparatus, information processing method, and program
US20150193037A1 (en) Input Apparatus
US8194926B1 (en) Motion estimation for mobile device user interaction
KR20110040165A (ko) 비접촉 입력 인터페이싱 장치 및 이를 이용한 비접촉 입력 인터페이싱 방법
KR102057531B1 (ko) 제스처를 이용하여 데이터를 송수신하는 모바일 기기들
US10048768B2 (en) Systems and methods for determining input movement
US10296096B2 (en) Operation recognition device and operation recognition method
US9262012B2 (en) Hover angle
US11402923B2 (en) Input method, apparatus based on visual recognition, and electronic device
US10346992B2 (en) Information processing apparatus, information processing method, and program
US20190041978A1 (en) User defined head gestures methods and apparatus
US10261608B2 (en) Cursor control method and cursor control system
US9927917B2 (en) Model-based touch event location adjustment
WO2015049934A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
CN113498502A (zh) 使用外部传感器的手势检测
US20210311621A1 (en) Swipe gestures on a virtual keyboard with motion compensation
US10558270B2 (en) Method for determining non-contact gesture and device for the same
JP2004287473A (ja) 情報処理装置及びプログラム
KR20070109699A (ko) 도형 인식 장치
Madani et al. An accelerometer-based approach to evaluate 3D unistroke gestures.
CN115904063A (zh) 非接触式人机交互笔笔迹生成方法、装置、设备及系统