TW201020896A - Method of gesture control - Google Patents
Method of gesture control Download PDFInfo
- Publication number
- TW201020896A TW201020896A TW097144686A TW97144686A TW201020896A TW 201020896 A TW201020896 A TW 201020896A TW 097144686 A TW097144686 A TW 097144686A TW 97144686 A TW97144686 A TW 97144686A TW 201020896 A TW201020896 A TW 201020896A
- Authority
- TW
- Taiwan
- Prior art keywords
- gesture
- finger
- patent application
- item
- group
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Description
201020896 六、發明說明: 【發明所屬之技術領域】 ' 本發明是有關於一種控制方法,特別是指一種手勢控 制方法。 【先前技術】 擴增實境是一種將一些電腦產生之影像重疊於—實際 場景上的電腦相關技術,簡單來說,就是結合現有外觀環 境影像及電腦虛擬影像的一種與虛擬實境相關的技術。由 φ 於擴增實境可以提供使用者最自然的瀏覽方式,也就是相 關所視的虛擬模型會隨著使用者眼睛觀看的方向而移動、 轉動或改變其所呈現之視角,因此比一般利用滑鼠或鍵盤 所進行之瀏覽較為直覺而更趨於實境,所以,擴增實境常 被用於醫療行為模擬、各式製造行為模擬、視覺娛樂、軍 事模擬及其他資訊行為之模擬等。 然而,在一般傳統的擴増實境中,一使用者想要在其 中與些由電腦創出的虛擬場景互動時,僅能透過鍵盤或 ❿'月鼠等輸入裝置與之互動,導致該使用者因受限於傳統輸 入裝置操作控制方式的侷限或於戶外使用時之攜帶及使用 不便’而降低臨場互動的效果。因此,現今有許多相關領 域之學#界提出各種改良擴增實境上臨場互動的工具或 方法’較著名的方式計有: ()利用實體物來取代鍵盤及滑鼠的操控: 此法之優點可讓使用者不須特別學習而較容易地對於其 ί擴增實境具有相符關係的操控方式熟悉而上手,如操 201020896 縱桿、方向盤、特殊手套等。但是,此法所衍生之主要鍈 點卻是須要時時刻刻攜帶這些實體物。加上,這些實體物 對於某些必要之操控動作仍有不足處,如選單之選取等即 不易利用來進行選項之點選動作,而需額外地熟記其他各 式特殊操控方法。 (二) 不須使用任何實體物,以語音方式來進行操控: 此法之優點是不須透過任何實體物而於擴增實境中進行互 動。但是其缺點則是不適合較複雜的語法,仍須利用電腦 較易辨識的機器語言與之互動。再加上對於痦啞人士年 長者或發音不甚清楚之人士而言是非常不便的。 (三) 利用已事先定義的特殊手勢來進行操控及互動: 此法之優點除了如上述(二)之不須透過任何實體物而於擴 增實境中進行互動之外,痦租人士、年長者或發音不甚清 楚之人士亦可方便地操控,例如:定義伸出食指代表對某 電器產品的開啟(on),而同時伸出食指及中指代表關閉 (Off)等。但是其主要缺點則是,該使用者須事先花許多額 外的時間及精神來牢記各種特殊手勢所代表的意思,才能 進一步地於擴增實境中與之互動及進行操控。而且隨著互 動或操控的動作越細緻而相對應的特殊手勢便越趨複雜而 繁複難記、難使用。 因此如何提出一套學習簡單且操控實具有靈活彈性 的手勢,以涵蓋目前於該擴增實境、虛擬實境或其他互動 畫面所需的操作指令,以降低操作者之操控難度並提高互 動之臨場感,便成為相關學、業界所欲解決及發展之核心 201020896 問題。 【發明内容】 因此,本發明之目的,即在提供一 勢來對一互叙全 ’、種利用各式不同手 互動畫面進行操控的方法。 於疋’本發明手勢控制古、土 、* to 行操控,包含町步驟 相於對—互動畫面進 輸入包純數手勢且對應—具有複數操作功能之 爾八梯作裝置的手勢組。 (b)藉由-影像擷取模組擷取該手勢組中該等手 一手勢,並產生一擷取資料。 、 ⑷利用-分析判讀模組來對賴取資料進行判讀。 ⑷透過該分析判讀模組將其所產生之一判讀結果傳送 至一操控處理模組。 面 ⑷運用該操控處理模組依據該判讀結果操控該 互動畫 本發明之功效在於,利用該影像擷取模組、該分析判 ❹ ㈣組及該操控處理模組對事先定義之手勢組的擷取、判 讀及處理,來操控該互動畫面。 【實施方式】 有關本發明之則述及其他技術内容、特點與功效,在 以下配合參考圖式之一個較佳實施例的詳細說明中,將可 清楚的呈現。 參閱圖1及圖2,本發明手勢控制方法之較佳實施例, 適用於對如擴增實境、虛擬實境或其他具有互動效果之一 5 201020896 動畫面2進行操控,該方法包含以下步驟 首先’如步驟Π所示1義—包括複數手勢且對應一 、有複數操作功能之輸人操作裝置4的手勢組3。 值得-提的是,在本較佳實施例令所事先定義 鼠^ f料庫51内’而該輸人操作裝置4為滑 二=,於實務應用中’前述之事先定義之手勢組" :儲存於—具有儲存功能的儲存裝置(圖未示)内,如硬碟 ^而該輸入操作裳置4也可以是鍵盤、方向盤、操控桿 :變::用型的操作裝置,此為具有相關背景者所易於思及 而變化運I故不應受該較佳實施例之料範例所限。 此外,前述之手勢組3包括·一第—手勢Μ、 手勢,、-第三手勢33、一第四手勢34及一第五手勢第: 裝二? t勢在本較佳實施例中所代表與滑鼠(即輸入操作 )相對應的操作功能及其手勢呈現態樣說明如下: 該第 手勢31為伸出-第-手指6與一第二手指7 Ο 〜第手勢31為該滑鼠之單擊按鍵功能。配合參閲圖 <ΎΑ asL Λ 、1 笛一主技 < , ----不一丁伯/,該 :手“之“與該第二手指7之指尖自相互分開至相 互接近碰觸再相互分門、黃触 一半熱Μ Φ 開遠離。且在本較佳實施例中,該第 。勢巾之第一手指6為食指,而該第二手指7為梅指 為該料之雙擊按鍵魏。配合參閱圖 第二二出該第-手指6他 技 4尖與該第二手指7之指尖自相互分開至相 互接近碰觸再相互分開遠離,且再相互接近碰觸再相互分 201020896 開。且在本較佳實施例中,該第二手勢32中之第一手指6 為食指,而該第二手指7為拇指。 該第三手勢33為該滑鼠之按鍵按壓釋放功能。配合參 閱圖5’該第三手勢33為伸出該第—手指6與該第二手指 7’該第-手指6之指尖與該第二手指7之指尖自相互碰觸 再相互分開遠離。且在本較佳實施例中,該第三手勢B中 之第一手指6為食指,而該第二手指7為拇指。
該第四手勢34為該滑鼠之拖兔功能。配合參閱圖6, 該第四手勢34為伸出該第—手指6與該第二手指7 ,且該 第-手指6之指尖與該第二手# 7之指尖相互碰觸,再保 持此手勢態樣並同時整體地如圖6中箭頭所示移動。且在 本較佳實施例中,該第四手勢34中之第__手指6為食指, 而該第二手指7為拇指。 該第五手勢35為該滑鼠之指示功能。配合參閱圖7, 該第五手勢35為單獨伸出該第一手指6,保持此手勢態樣 並同時整體地如圖7中箭頭所示移動。且在本較佳實施例 中,該第五手勢35中之第一手指6為食指。 2所不,其次,如步驟12所示,藉由 再請參閱圖 一影像擷取模組52擷取該手勢組3中該等手勢之其一手勢 ’並產生-擷取資料。而在本較佳實施例中,該影像掏取 模組52包括-用來擷取—影像的鏡頭52ι,及—用來將所 擷取之影像轉成數位形式之擷取資料的轉換單元522。 接著’如步驟13所示’利用一分析判讀模組53來對 該擷取資料進行判讀。 7 201020896 須補充說㈣是,該分析偷53對職取資料進 彳f分^ ϋΜ該㈣庫51内之手勢組3的該等手勢之定 義中是否有相符,若是,則產生一判讀結果。 然後,如㈣14所^,透過該分析判讀模組53將其 所產生之判讀結果傳送至一操控處理模組54。 最後’如步驟15所示’運用該操控處理模組54依據 該判讀結果操控該互動晝面2。 在此’再針對本發明手勢控制方法於實務操作上進行 更詳細的說明: 〇 如圖1、圖2及圖7所示,一裝設有該影像梅取模組 =且内含如步驟U所述之已定義的手勢組3之筆記型電腦 正呈現出如擴增實境的該互動畫面2,而當該影 像擷取模組52之鏡頭521如步驟12所述而捕捉到—操作 者=該鏡頭⑵前之手勢組3中的其中一手勢(本例為該第 勢35)時,即透過該影像擷取模組52之轉換單元522 將其棟取之影像轉成數位形式,接著再透過前述之步驟U 至步驟15的該分析判讀模組53及該操控處理模組54的作 將其手勢判讀出後’顯現其相對之Μ功能於該互動 &面2上’因此’於本例中之該互動畫面2上即出現具 指不功能的該操作者之相關手勢。 、 綜上所述,本發明手勢控制方法,藉由該影像擷取模 ::2對該手勢…之其中-手勢進行_取= 组Μ與内部錯存有事先定義完華之手勢組的 相互配合作用,以判讀出該手勢所代表之功能, 8 201020896 再藉由該操控處理模組54將該手勢嵌置於該互動畫面2中 ,並執行其手勢之相對代表功能,因此,利用操作者已熟 悉之一般輸入操作裝置4所代表之功能映對於相關簡單手 勢上,而提供該操作者與該互動晝面2之間的互動操作功 能,並簡化其互動操作時之複雜度,故確實能達成本發明 之目的。 淮以上所述者’僅為本發明之一較佳實施例而已,當 不能以此限定本發明實施之範圍,即大凡依本發明申請專 _ 利範圍及發明說明内容所作之簡單的等效變化與修飾,皆 仍屬本發明專利涵蓋之範圍内。 【圖式簡單說明】 圖1是一流程圖’說明本發明手勢控制方法之較佳實 施例的步驟; 圖2是一使用狀態示意圖’說明實現該手勢控制方法 之較佳實施例的各相關元件及其主要配置架構; 圖3是一示意圖,說明該手勢控制方法之較佳實施例 φ 中’一第一手勢的呈現態樣; 圖4是一示意圖,說明該手勢控制方法之較佳實施例 中’一第二手勢的呈現態樣; 圖5是一示意圖’說明該手勢控制方法之較佳實施例 中,一第三手勢的呈現態樣; 圖6是一示意圖,說明該手勢控制方法之較佳實施例 中,一第四手勢的呈現態樣;及 圖7是一示意圖,說明該手勢控制方法之較佳實施例 9 201020896 中,一第五手勢的呈現態樣。
10 201020896 【主要元件符號說明】 11-15· ----步驟 51 •.… •…資料庫 2 ....... …互動畫面 52•.… •…影像擷取模組 3 ....... …手勢組 521… …·鏡頭 31…… …第一手勢 522… •…轉換單元 32…… …第二手勢 53 ···.· •…分析判讀模組 33…… …第三手勢 54····. •…操控處理模組 34…… …第四手勢 6…… •…第一手指 35…… …第五手勢 7 ....... •…第二手指 4 ....... …輸入操作裝置 11
Claims (1)
- 201020896 七、申請專利範圍: l種手勢控制方法,適用於對一互動畫面進行操控包 含以下步驟: (a) 又義一包括複數手勢且對應一具有複數操作功能 之輸入操作裝置的手勢組; (b) 藉由一影像擷取模組擷取該手勢組中該等手勢之 其一手勢,並產生一擷取資料; ()利用刀析判讀模組來對該擷取資料進行判讀;()透該刀_判讀帛組將其所產生之一判讀結果傳 送至一操控處理模組;及 ⑷運用該操控處理模組依據該判讀結果操控該互動 2.依據申請專利_第丨項料之手勢控财法,其中 在該⑷步驟中,該輸入操作裝置是由滑鼠、鍵盤、方 盤及操控桿所組成之群組。據申請專利範圍第2項所述之手勢控制方法,其中 在該(a)步財,該輸入操作裝置為滑鼠。 、 4.,據中請專利範㈣3項所述之手勢控制方法其中 在該(a)步驟中,該手勢組包括一第一 一 、—第三手勢及一第四手勢, . 一 ^ 單擊按鍵功能、_第-手Lr 為該滑鼠之 該第…勢為該滑鼠之雙擊按鍵功能、 二第二手勢為該滑鼠之按鍵按壓釋放功能 勢為該滑鼠之拖曳功能。 & 依據申4專利範圍第4項所述之手勢控制方法其中, 12 201020896 . .在該⑷步驟中,該手勢組更包括 手勢為該滑鼠之指示功能。 ’且該第五 6·依據申請專利範圍第5項所述之手 在該0)步驟中,該第五手勢工 '、 持此手勢態樣並同時移動早㈣I第一手指,保 7. 依據申請專利範圍第6項所 在該⑷步驟中,該第五手㈣ 方法’其中’ S你诚由〇 中之第—手指為食指。 8. 依據申凊專利範圍第 φ 中,在…丰… 飞5項所述之手勢控制方法,其 中在該(a)步驟中,該第— 第二丰沪外油 于势為伸出一第一手指與一 互:門:相手指之指尖與該第二手指之指尖自相 互刀開至相互接近碰觸再相互分開遠離。 9.:=:利範圍第8項所述之手勢控制方法,其中, 在該(a)步驟中’該第一手 第二手指為拇指。 之第-手指為食指,而該 他依據申請專利範圍第4或5項所述 中’在該⑷步驟中,該第二手勢為伸出==與其 第二手指,該第一手指之指尖與該曰與- 互分開至相互接近碰觸再相互分開遠離曰之相 碰觸再相互分開。 4遠離’且再相互接近 11. 依據申請專利範圍第10項所述之手勢控 在該(a)步驟中,該第二手勢中之 /、, 第二手指為拇指。 手指為食指,而該 12. 依據申請專利範圍第4或5項所 中’在該(a)步驟中,該第 』方法’其 努為伸出-第-手指與- 13 201020896 第二手指,該第一手指之指尖與該 t 互碰觸再相互分開遠離。 一手指之指尖自相 η·=專::範圍第12項所述之手勢 第二手指為拇指。 勢中之第-手指為食指,而該 依據申請專利範圍第4或5項 第中該⑷步驟中’該第四手勢為伸出第=與其 第二手指,且該第一手指之指尖與手心與一 互碰觸,再保持此手勢態樣並同時移動。—手指之指尖相 參 .依射請專利範圍第14項所述之手勢 在該⑷步驟中,該第四手 :/ ,其中, 第二手指為拇指。 之第-手指為食指’而該 Α依據申請專利範圍第i項所述 在該⑷步驟巾,所事先定“ 其中, 内。 所事先-義之手勢組是儲存於—資料庫 17·依據申請專利範圍第i項所 r—……勢:::::裝 ^换飞 取模組包括一用來擷取一影德 資料的轉換單元。取之元像轉成數位形式之梅取 19.=’專利範圍第18項所述之手勢控制方法, 在該⑷步驟中,該分㈣讀模組對㈣取資料進行分析 14 201020896 ‘ ,並比對該資料庫内之手勢組的該等手勢之定義中是否 有相符,若是,則產生該判讀結果。15
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW097144686A TW201020896A (en) | 2008-11-19 | 2008-11-19 | Method of gesture control |
US12/424,380 US20100125815A1 (en) | 2008-11-19 | 2009-04-15 | Gesture-based control method for interactive screen control |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW097144686A TW201020896A (en) | 2008-11-19 | 2008-11-19 | Method of gesture control |
Publications (1)
Publication Number | Publication Date |
---|---|
TW201020896A true TW201020896A (en) | 2010-06-01 |
Family
ID=42172959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW097144686A TW201020896A (en) | 2008-11-19 | 2008-11-19 | Method of gesture control |
Country Status (2)
Country | Link |
---|---|
US (1) | US20100125815A1 (zh) |
TW (1) | TW201020896A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI475474B (zh) * | 2012-07-30 | 2015-03-01 | Mitac Int Corp | Gesture combined with the implementation of the icon control method |
Families Citing this family (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9047047B2 (en) | 2010-10-01 | 2015-06-02 | Z124 | Allowing multiple orientations in dual screen view |
EP2597868B1 (en) * | 2007-09-24 | 2017-09-13 | Qualcomm Incorporated | Enhanced interface for voice and video communications |
TW201106200A (en) * | 2009-08-12 | 2011-02-16 | Inventec Appliances Corp | Electronic device, operating method thereof, and computer program product thereof |
US9141193B2 (en) * | 2009-08-31 | 2015-09-22 | Microsoft Technology Licensing, Llc | Techniques for using human gestures to control gesture unaware programs |
US8749484B2 (en) | 2010-10-01 | 2014-06-10 | Z124 | Multi-screen user interface with orientation based control |
KR101169583B1 (ko) * | 2010-11-04 | 2012-07-31 | 주식회사 매크론 | 가상마우스 구동방법 |
US9857868B2 (en) * | 2011-03-19 | 2018-01-02 | The Board Of Trustees Of The Leland Stanford Junior University | Method and system for ergonomic touch-free interface |
US20130080932A1 (en) | 2011-09-27 | 2013-03-28 | Sanjiv Sirpal | Secondary single screen mode activation through user interface toggle |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US8693731B2 (en) | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US20140068526A1 (en) * | 2012-02-04 | 2014-03-06 | Three Bots Ltd | Method and apparatus for user interaction |
DE102012203457A1 (de) * | 2012-03-05 | 2013-09-05 | E.G.O. Elektro-Gerätebau GmbH | Kamera-Modul zur Bediengestenerkennung und Haushaltsgerät |
JP5721662B2 (ja) * | 2012-04-26 | 2015-05-20 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 入力受付方法、入力受付プログラム、及び入力装置 |
CN102799376A (zh) * | 2012-07-11 | 2012-11-28 | 广东欧珀移动通信有限公司 | 一种触控设备的快捷功能设定方法 |
US9201585B1 (en) * | 2012-09-17 | 2015-12-01 | Amazon Technologies, Inc. | User interface navigation gestures |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
US10609285B2 (en) | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
US9465461B2 (en) | 2013-01-08 | 2016-10-11 | Leap Motion, Inc. | Object detection and tracking with audio and optical signals |
US10042510B2 (en) | 2013-01-15 | 2018-08-07 | Leap Motion, Inc. | Dynamic user interactions for display control and measuring degree of completeness of user gestures |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US20140214185A1 (en) * | 2013-01-25 | 2014-07-31 | Kuo-Chung Huang | Somatosensory Household Electricity Control Equipment and System Thereof |
US9702977B2 (en) | 2013-03-15 | 2017-07-11 | Leap Motion, Inc. | Determining positional information of an object in space |
US10620709B2 (en) | 2013-04-05 | 2020-04-14 | Ultrahaptics IP Two Limited | Customized gesture interpretation |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
US9747696B2 (en) | 2013-05-17 | 2017-08-29 | Leap Motion, Inc. | Systems and methods for providing normalized parameters of motions of objects in three-dimensional space |
US10281987B1 (en) | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
US9721383B1 (en) | 2013-08-29 | 2017-08-01 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
KR102165818B1 (ko) | 2013-09-10 | 2020-10-14 | 삼성전자주식회사 | 입력 영상을 이용한 사용자 인터페이스 제어 방법, 장치 및 기록매체 |
US9632572B2 (en) | 2013-10-03 | 2017-04-25 | Leap Motion, Inc. | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US9996638B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US9613262B2 (en) | 2014-01-15 | 2017-04-04 | Leap Motion, Inc. | Object detection and tracking for providing a virtual device experience |
US9996160B2 (en) * | 2014-02-18 | 2018-06-12 | Sony Corporation | Method and apparatus for gesture detection and display control |
CN104932797A (zh) * | 2014-03-17 | 2015-09-23 | 深圳富泰宏精密工业有限公司 | 手势解锁方法及系统 |
CN204480228U (zh) | 2014-08-08 | 2015-07-15 | 厉动公司 | 运动感测和成像设备 |
EP3572910B1 (en) | 2018-05-21 | 2021-11-24 | Vestel Elektronik Sanayi ve Ticaret A.S. | Method, system and computer program for remotely controlling a display device via head gestures |
US11875012B2 (en) | 2018-05-25 | 2024-01-16 | Ultrahaptics IP Two Limited | Throwable interface for augmented reality and virtual reality environments |
US11726578B1 (en) * | 2022-02-11 | 2023-08-15 | Meta Platforms Technologies, Llc | Scrolling and navigation in virtual reality |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080068195A1 (en) * | 2004-06-01 | 2008-03-20 | Rudolf Ritter | Method, System And Device For The Haptically Controlled Transfer Of Selectable Data Elements To A Terminal |
US8180114B2 (en) * | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
US8234578B2 (en) * | 2006-07-25 | 2012-07-31 | Northrop Grumman Systems Corporatiom | Networked gesture collaboration system |
US8681104B2 (en) * | 2007-06-13 | 2014-03-25 | Apple Inc. | Pinch-throw and translation gestures |
-
2008
- 2008-11-19 TW TW097144686A patent/TW201020896A/zh unknown
-
2009
- 2009-04-15 US US12/424,380 patent/US20100125815A1/en not_active Abandoned
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI475474B (zh) * | 2012-07-30 | 2015-03-01 | Mitac Int Corp | Gesture combined with the implementation of the icon control method |
Also Published As
Publication number | Publication date |
---|---|
US20100125815A1 (en) | 2010-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TW201020896A (en) | Method of gesture control | |
US11048333B2 (en) | System and method for close-range movement tracking | |
Nizam et al. | A review of multimodal interaction technique in augmented reality environment | |
JP6074170B2 (ja) | 近距離動作のトラッキングのシステムおよび方法 | |
JP2013037675A5 (zh) | ||
Aliprantis et al. | Natural Interaction in Augmented Reality Context. | |
JP5184384B2 (ja) | 制御システムおよび制御方法 | |
Gillies et al. | Non-representational interaction design | |
Schreiber et al. | New interaction concepts by using the wii remote | |
Lang et al. | A multimodal smartwatch-based interaction concept for immersive environments | |
Markusson | Interface Development of a Multi-Touch Photo Browser | |
TW201128541A (en) | Interactive apparatus for hand-gesture recognition | |
Lu et al. | Classification, application, challenge, and future of midair gestures in augmented reality | |
Ullerich et al. | ThumbPitch: Enriching Thumb Interaction on Mobile Touchscreens using Deep Learning | |
Lemoine et al. | Interaction techniques: 3d menus-based paradigm | |
Abadi et al. | Guessability study on considering cultural values in gesture design for different user interfaces | |
Habibi | Detecting surface interactions via a wearable microphone to improve augmented reality text entry | |
Reibert et al. | Multitouch Interaction with Parallel Coordinates on Large Vertical Displays | |
Neca et al. | Evaluation of gestural interaction with and without voice commands | |
Billinghurst et al. | Multimodal Interfaces for Augmented Reality | |
Kurosu | Human-Computer Interaction. Advanced Interaction, Modalities, and Techniques: 16th International Conference, HCI International 2014, Heraklion, Crete, Greece, June 22-27, 2014, Proceedings, Part II | |
Scoditti | Gestural interaction techniques for handheld devices combining accelerometers and multipoint touch screens | |
LAFKAS | A Natural User Interface and Touchless Interaction. Approach on Web Browsing | |
Darbar | Extending Interaction Space in Augmented Reality: Contributions in Optical-See-Through and Projection-Based Augmented Environments | |
Wu | Study and design of interaction techniques to facilitate object selection and manipulation in virtual environments on mobile devices |