TW201145070A - Manual human machine interface operation system and method thereof - Google Patents
Manual human machine interface operation system and method thereof Download PDFInfo
- Publication number
- TW201145070A TW201145070A TW099118816A TW99118816A TW201145070A TW 201145070 A TW201145070 A TW 201145070A TW 099118816 A TW099118816 A TW 099118816A TW 99118816 A TW99118816 A TW 99118816A TW 201145070 A TW201145070 A TW 201145070A
- Authority
- TW
- Taiwan
- Prior art keywords
- arm
- gesture
- machine interface
- human
- image
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Description
201145070 六、發明說明: 【發明所屬之技術領域】 [_1] 本發明是有關於一種徒手人機介面操作系統及其方法, 特別是有關於一種利用使用者的手臂及手掌影像來操作 具有深度參數的物件的人機介面操作技術。 [先前技術3 '[0002]使用者對視覺化人機介面的操作要求越來越高,希望能 更簡化操作流程,讓介面操作更直覺化。目前,人機介 面的操作機制大多為鍵盤操作、滑鼠操作、觸控操作以 及遙控器操作等四種機制。鍵盤操作適合於輸入文字, 但是在渗!覽網頁上效果不佳;滑鼠操作或遙控器操作雖 然可提供不錯的便利性,但是使用者必須依賴—外部裝 置來進订操作’尚有改進的空間。而觸控操作則限制使 用者必須在手指可觸碰螢幕的範圍内來操作人機介面。 因此,如何提供❹者—可兼顧操作空間自由性以及徒 手操作的人機介面系統’是-項亟待解決的問題。 【發明内容】 [0003] 有鑑於上述習知技藝之問題,本發明之其中-目的就是 在提供-種徒手人機介面操作系統及其方法以提高介 面操作之便利性。 [0004] 根據本發明之目的,提出—種徒手人機介面操作系統, 包含一顯示單元、一資料處理單元、複數個影像掏取單 兀、一影像分析單元、-座標計算單元及一手勢 兀:貧料處理單聽產生—具有複數個物件的人機介面 ’母-物件係具有-深度參數,資料處理單元係控制顯 099118816 表單編號A0I01 第4頁/共2〇頁 0992033303-0 201145070 Ο [0005] [0006]Ο [0007] 示單元顯示人機介面。複數個影像擷取單元係擷取複數 張手部影像,每一複數個影像擷取單元係具有複數個内 4參數及複數個外部參數。影像分析單元係分析複數張 手部影像轉得複數個手臂影像及複數個手掌影像。座 標計算單元係根據每—複數個影像操取單元之複數個内 林數及複數俯卜部參數,以及複數個手臂影像,計算 複數個手臂座標點、減辦臂隸點所形成的一手臂 延伸線以及-手臂移動量^手勢賴單元係根據複數個 手掌影像辨識出—手勢m料處理單元根據手臂 延伸線、手臂移動量以及複數個物件之深度參數,從複 數個物件中料—所選物件,並較—對應手勢之指令 ,對所選物件執行指令。 、 手勢辨識單•係辨識此手勢為-指向手勢時, 資料處理單^執行選擇複數個物件之其—的動作。 、*手勢辨識單疋係辨識此手勢為-抓取(Grab)手 勢時’資料處理單元設輯職件為—被抓取狀態 (Grabbed) ’並根據手臂移動量移動所選物件。 其中田手勢辨識單元係辨識此手勢為-釋放 手㈣,M處理單元解除所勒件之被抓 取狀態。 [0008] ΪΙ度資=ΓΓ係根據複數個手臂座標點計算-手 麻的又物件ϋ +臂長度與手臂移動量之比例計算相對 應的一物件顯_度,再㈣物件顯謂度蚊所選物 件 099118816 表單編號Α0101 第5頁/共20頁 0992033303-0 201145070 [0009] [0010] [0011] [0012] [0013] [0014] 其中’所選物件㈣I_(highlight)於人機介面。 根據本發明之目的,再描Ψ 们贿出—種徒手人機介面操作 件=-具有複數個物件的人機介面,每一複數個物 有—深度參數,徒手人機介面操作方法包含下列 步驟。使用複數㈣像魏單元齡複數㈣部影像, 每一複數㈣像触單元料有複數個㈣參數及複數 個外。卩參數,分析複數張手部影像L得複數個手臂影 像及複數個手掌影像;根據每-複數㈣㈣取單元之 ί 複數個内部參數及複數個外部參數,以及複數個手臂影 像,計算複數個手臂座標點、-由複數個手臂座標點所 形成的手臂延伸線以及-手臂移動量;根據手臂延伸線 、手臂移動量以及複數個物件之深度參數,選擇複數個 物件之其-作為-所選物件;根據複數個手掌影像辨識 出一手勢;對所選物件執行此手勢所相對應的一指令。 其中’當此手勢被辨識為-指向手勢時,係執行選擇複 數個物件之其一的動作。
其中,當此手勢被辨識為一抓取(Grab)手勢時,係設定 所選物件為一被抓取狀態(Grabbed),並根據手臂移動 量移動所選物件。 其中’當此手勢被辨識為一釋放(release)手勢時,係 解除所選物件之被抓取狀態。 其中,更根據複數個手臂座標點計算一手臂長度,再根 據手臂長度與手臂移動量之比例計算相對應的一物件顯 示深度’並根據物件顯示深度決定所選物件。 099118816 表單編號Α0101 第6頁/共20頁 0992033303-0 201145070 [0015] I [0016] 其中,所選物件係明顯顯示( lghl ight)於人機介面。 ‘實施方式】 請參閱第1圖’其係為本發明 實施方塊®。在第1®巾,徒手人機介面操作系統之 顯示單元11、-資料處理單元^機介面操作系統包含一 、第二影賴取單心2、—㈣、第1像擷取單元131 笪JI-1C ^ ~像分析單元14、一座桿計 算早7〇15、一手勢辨識單元a : 知冲 面121的相關程式係健存、:~儲存單元Π。人機介 Ο —物件181及第二物件18 ;错存單7017中,其至少包含第 元17讀取人機介面l2l、資料處理單元12係從儲存單 介面121之顯示資料,的相關程式並執行之,以產生人機 12卜而視覺化顯示控軸7^單7011顯示人機介面 及第二物件182,其八人機介面121係具有第一物件181 數192。深度參數^別具有—深度參_及一深度參 件181及第二物件182木度參數192係用以標示第一物 第3圖,第2圖、♦示太之間的顯示關係。請續參閱第2圖及 〇 發明之徒手人機介面操作系統之實 施不意圖,而第3圖值^ 一 糸繪不人機介面I2l顯示於顯示單元 Π之虛擬側視圖。當、听 水度參數192大於深度參數191時, 如第2圖所示,在人地 機幻面121中第一物件181係顯示覆蓋 於第二物件182,而/ s 一 叩在顯示單元丨丨的座標系統中第一物件 181及第二物件1826^ 匕的位置關係如第3圖所示。 [0017] 第一影像擷取單元# 及第二影像擷取單元132係分別擷 取使用者=部影像133及手部影像134 。由於^用者大 多在顯示單元11前谁人 堤订介面操作,所以第一影像擷取單 元131及第二影像掏m Dn _ 取早元132較佳為配置在顯示單元η 099118816 表單編號A0101 頁/共20頁 ...... 第7在一— 0992033303-0 201145070 附近,以便於取使用者的手部影像。當第一影像擷取單 元131及第二影像擷取單元132設置完成後,需進行校正 ,以決定其擷取的影像内容的像素位置與顯示單元11的 座標系統之間的轉換關係。經過校正後,第一影像擷取 單元131具有複數個内部參數1311及複數個外部參數 1312,而第二影像擷取單元132係具有複數個内部參數 1321及複數個外部參數1 322。其中,上述内部參數較佳 為影像擷取單元的物理參數,例如焦距或影像尺寸;而 外部參數較佳為影像擷取單元與顯示單元11之間的座標 系統轉換矩陣。 [0018] 如第3圖所示,為了供使用者可徒手操作人機介面121, 手部影像133及手部影像134之影像内容較佳包含使用者 之手掌20以及手臂21的影像。影像分析單元14係分析手 部影像133以取得手臂影像1411及手掌影像1421,以及 分析手部影像134以取得手臂影像1412及手掌影像1422 。由於第一影像擷取單元131及第二影像擷取單元132已 經過校正,所以座標計算單元15可根據内部參數1311、 1321及複數個外部參數1312、1 322,以及手臂影像 1411、1412,計算出複數個手臂座標點151,如第3圖所 示。實施上,座標計算單元15係先判斷手臂影像1411、 1412中共有的手臂特徵,再利用三角定位法計算出複數 個手臂座標點151。 [0019] 座標計算單元15係計算複數個手臂座標點151所形成之一 手臂延伸線152。資料處理單元12根據第一物件181及第 二物件182的尺寸、深度參數191及深度參數192,可判 099118816 表單編號A0101 第8頁/共20頁 0992033303-0 201145070 斷手臂延伸線152是否有穿透第-物件181或第二物件 182。 闺儲存單元π係儲存複數個指令193,每一指令193係對應 —預設手勢。手勢辨識單元16係根據複數個手掌影像 421 1422辨識出-手勢161。資料處理單以2係判斷 手勢m是否符合任一指令192對應的預設手勢若有’ _處理單元12便執行手勢161所對應的指令。其中, 指令193較佳包含一選擇指令、-抓取指令及-釋放指令 Ο ’其分別對應—指向手勢、—抓取手勢及-釋放手勢。 當手勢辨識單心辨識手勢161為—指向手勢時表示使 用者欲選擇第-物件181或第二物件182,則資料處理單 凡12係將與手臂延伸線152相交的物件視為一所選物件。 例如在第3圖中,第二物件182為此所選物件。若手臂延 伸線152與複數㈣件相交,則資料纽單元12係根據複 數個手臂座標點151計算出一手臂移動量153,再根據手 臂移動量153以及此些相交物件之深度參數從此些相交 ° 物件中決定其所選物件。例如手臂移動量153說明了 手臂21往顯示單元11的方向移動,則資料處理單元12則 決定具有較大深度參數的物件為此所選物件^在實施上 ,資料處理單元12較佳為根據複數辦臂座標點i5i計算 -手臂長度,再根據此手臂長度與手臂移動量153之比例 來計算一對應於手臂移動量153的物件顯示深度,再根據 物件顯示深度決定此所選物件。如此可解決不同使用者 的手臂差異的影響。所選物件較佳的是明顯顯示 (highlight)於人機介面121。 099118816 表單編號A0101 第9頁/共20頁 0992033303-0 201145070 [0021]當一所選物件已決定,接著手勢辨識單元16辨識手勢ΐ6ι 為一抓取手勢時,則資料處理單元12設定此所選物件為 —被抓取狀態(Grabbed),並根據手臂移動量153移動此 所選物件。當所選物件為被抓取狀態,接著手勢辨識單 元161辨識出手勢161為—釋放(reiease)手勢時,則資 料處理單元12解除所選物件之被抓取狀態。如此,使用 者可透過手臂、手掌以及三種手勢執行對物件的移動操 作。此外,除了上述操作外,使用者亦可設定其手勢的 對應指令;例如當所選物件為被抓取狀態時,使用者亦 可擺出一開啟手勢來執行物件;或是一刪徐手勢來刪除 物件。 _]料閱第4圖’其係為本發明之徒手人機介面操作方法之 第一實施流程圖。圖中,此實施例係適用於一具有複數 個物件的人機介面,每一複數個物件係具有一深度參數 。人機介面係顯示於—顯示單元上。徒手人機介面操作 方法包含下列步驟》在步驟41,使用複數個影像擷取單 元擷取複數張手部影像,每一银數個影像擷取單元係具 有複數個内部參數及複數個外部參數◊其中,内部參數 及外部參數係為影像擷取單元經過校正後所產生的參數 ,其用以表示擷取影像内容的像素位置與顯示單元的座 標系統之間的轉換關係。在步驟42,分析複數張手部影 像以取得複數個手臂影像及複數個手掌影像。在步驟“ ,根據每一影像擷取單元之複數個内部參數及複數個外 部參數,以及複數個手臂影像,計算複數個手臂座標點 、一由複數個手臂座標點所形成的手臂延伸線以及—手 099118816 表單編號A0101 第10頁/共20頁 0992033303-0 201145070 臂移動量》 [0023] 在步驟44,根據手⑽伸線、手臂移動量以及複數個物 件之深度參數,選擇複數個物件之其—作為—所選物件 °在步驟45,根據複數個手掌影像辨識出—手勢。在步 驟46,對所選物件執行此手勢所相對應的-指令。例如 ’指向手勢對應-選擇指令,简擇物件;抓取手勢對 應-抓取齡,將-所選物件設“被抓取狀態;釋放 手勢係對應-釋放指令,用轉除所選物件之被抓取狀 Ο [0024] 態。
I 請參閱第5®,其«本糾之徒手人齡面操作方法之 第二實施流程圖。在步驟5(Π,對設置於顯示單元左上角 及右上角的兩個影像娜單元進行校正,以取得兩個影 像掏取單元的内部參數及外部參數。在步驟聊,使用兩 個影像擷取單元齡手部影像,且所絲的手部影像之 ’從所擷取的 Ο 手部影像中分析出手娜像,並辨識_手掌影像所代 表的手勢。在步驟504,判斷此手%是否為一指向手勢。 若是,則執行步驟505 ;否則執行步驟5〇2。在步驟5〇5 ,使用兩個影像擷取單元擷取手部影像。在步驟5〇6,從 所擷取的手部影像中分析出手臂影像,並計算出複數個 手臂座標點以及複數個手臂座標點所形成的手臂延伸線 。在步驟507,並計算手臂延伸線與人機介面顯示的物件 的相交點,如第3圖所示,並將一與射線相交的物件作為 一所選物件。若與射線相交的物件有複數個,則根據手 臂移動量來選擇。 099118816 表單編號A0101 第〗1頁/共20頁 0992033303-0 201145070 [0025] [0026] [0027] 在步驟508,從所擷取的手部影像中分析出手掌影像,並 辨識出此手掌影像所代表的手勢。在步驟50Θ,判斷此手 勢疋否為一抓取手勢。若是,執行步驟51〇 ;否則執行步 驟505。在步驟510 ’將所選物件設定為被抓取狀態。在 步驟511,使用兩個影像擷取單元擷取手部影像,並從所 操取的手部影像巾分析出手臂影像,並計算出複數個手 臂座標點,並根據複數個手臂座標點計算出一手臂移動 量。在步驟512,根據手臂移動量移動選物件。在步驟 513 ’從所榻取的影像内容中分析出手掌影像並辨識出 此手掌影像所代表的手勢。在步驟514,判斷此手勢是否 為一釋放手勢,若是,則在步驟515解除該所選物件之該 被抓取狀態,並接續執行步驟5〇2。若此手勢非一釋放手 勢,則執行步驟511。 其中’上述顯示單元較佳為—二維影像顯示器或-三維 影像顯示器。影像操取單元較佳為—電㈣合元件、互 補式金屬-氧化層-半導體元件(c〇mpleinentary心卜 a卜Oxide-Seiniconduct〇r,CM〇s)或一視訊攝影機。 以上所述僅為舉例性,轉為限舰者。㈣未脫離本 發明之精神與_ ’而對其進行之等效修改或變更均 應包含於後附之申請專利範圍中。 【圖式簡單說明】 幻圖係為本發明之徒手人機介面操作系統之實施方塊圖 第2圖係為本發明之徒手人機介面操作系統之實施示意圖 099118816 表單編號A0101 第12頁/共20頁 0992033303-0 [0028] 201145070 第3圖係為本發明之人機介面顯示於顯示單元之虛擬側視 圖; 第4圖係為本發明之徒手人機介面操作方法之第一實施流 程圖;以及 第5圖係為本發明之徒手人機介面操作方法之第二實施流 程圖。 【主要元件符號說明】 - [0029] Ο 〇 099118816 11 :顯示單元 12 :資料處理單元 121 :人機介面 131 :第一影像擷取單元 132 :第二影像擷取單元 1311、 1321 :内部參數 1312、 1322 :外部參數 133、134 :手部影像 14:影像分析單元 1411、1412 :手臂影像 1421、1422 :手掌影像 15:座標計算單元 151 :手臂座標點 152 :手臂延伸線 153 :手臂移動量 16 :手勢辨識單元 161 :手勢 17 :儲存單元 181 :第一物件 表單編號Α0101 第13頁/共20頁 0992033303-0 201145070 182 :第二物件 191、192 :深度參數 193 :指令 20 :手掌 21 :手臂 41〜46 :步驟流程 5 01〜51 5 :步驟流程 099118816 表單編號A0101 第14頁/共20頁 0992033303-0
Claims (1)
- 201145070 七、申請專利範圍: 一種徒手人機介面操作系統,其包含: 一顯示單元; 一資料處理單元,係產生具有複數個物件的—人機介面, 每-該複數個物件係具有—深度參數,該資料處理單元係 控制該顯示單元顯示該人機介面; 複數個影像棘單元,侧取複數張手部影像,每一該複 數個影像擷取單元係、具有複數個内部參數及複數個外部參Ο 一影像分析單元,係分析該複數張手部影像以取得複數個 手臂影像及複數個手掌影像; 個 座“计算單70 ’係根據每—該複數個影像齡單元之該 複數個㈣錄及該複數個料讀,从該複數個手^ 影像,計算魏㈣臂錢點、職數個㈣座標點所形 成的-手臂延伸線以及一手臂移動量:以芩 :手勢辨識單元’係根據該複數料掌影像辨識出一手勢 其中’《料處理單元根據該手臂延伸線、該手臂移 以及該複數個物件之該深度參數,從該複數個物件中決定 -所選物件’並衫對賴手勢之—齡,對物 執行該指令。 什 2. 如申請專利範圍第1項所述之徒手人機介面操作系統’ Α 中當該手勢辨識單元係辨識該手勢為一指向手勢時,該次 料處理單元執行選擇該複數個物件之其一的動作。“貝 3. 如申請專利範圍第i項所述之徒手人機介面操作系統,其 099118816 表單編號A0101 第15頁/共20頁 0992033303-0 201145070 中當遠手勢辨識單元係辨識該手勢為一抓取(Grab)手勢 時,该貢料處理單元設定該所選物件為—被抓取狀態 (Grabbed Status),並根據該手臂移動量移動該所選物 件。 如申凊專利範圍第3項所述之徒手人機介面操作系統,其 中當該手勢辨識單元係辨識該手勢為一釋放(release)手 勢時’該資料處理單元解除該所選物件之該被抓取狀態。 如申凊專利範圍第1項所述之徒手人機介面操作系統,其 中該資料處理單元係根據該複數個手臂座標點計算一手臂 長度,再根據該手臂長度與該手臂移動量之比例計算相對 應的一物件顯不深度,再根據該物件顯示深度決定該所選 物件。 如申清專利範園第1項所述之徒手人機介面操作系統,其 中違所選物件係明顯顯示(highl ight)於該人機介面。 種徒手人機介面操作方法,適用於具有複數個物件的— 人機"面,每—該複數個物件餘具有一深度參數,該徒手 人機介面操作方法包含下列步驟: 使用複數姆像綠單元娜複驗手部影像每一該複 數個影像棘單元係具有減㈣部參數及魏個外部參 數; 分析該複數張手部影細取得複數個手臂f彡像及複數個手 掌影像; 根據每-該複數㈣像娜單元之職數個㈣參數及該 複數個外部參數,以及該複數個手臂影像,計算複數個手 臂座標點、該複數個手臂座漏所形成的-手f延伸線以 及一手臂移動量; 099118816 表單編號A0101 第16頁/共20頁 0992033303-0 201145070 根據該手臂延n該手臂移動量錢該複數個物件之該 深度參數,選擇該複數個物件之其-作為-所選物件.Χ 根據該複數個手掌影像辨識出一手勢;以及 對該所L物件執行該手勢所相對應的一指令。 8 . 如申請專利範固第7項所述之徒手人機介面操作方法 包含: 田該手勢被_為_指向手勢時’執行轉該複數個物件 之其一的動作。 9 . Ο 如申請專利範園第7項所述之徒手人機介面操作方法,更 包含: 备β亥手勢被辨識為_抓取手勢時,設定該所選物件為一被 抓取狀態’並根㈣手臂移動量移動制選物件。 ίο . 如申μ專利目第9項所m手人機介賴作方法 包含: 當該手勢被辨識為-釋放手勢時,解除該所選物件之該被 抓取狀態。 11 . 〇 如申4專利範圍第7項所述之徒手人機介面操作方法 包含: 根據該複數個手臂座標點計算-手臂長度,再根據該手臂 長度與該手臂移動量之比例計算㈣應的-物件顯示深度 ;以及 根據該物件顯示深度決定該所選物件。 如申請專利_第7項所述之徒手人機介面操作方法,其 中該所選物件係明顯顯示(highlight)於該人機介面。 099118816 表單編號A0101 第《·Π頁/共20頁 0992033303-0 12
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/793,702 US8416189B2 (en) | 2010-06-04 | 2010-06-04 | Manual human machine interface operation system and method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
TW201145070A true TW201145070A (en) | 2011-12-16 |
TWI403922B TWI403922B (zh) | 2013-08-01 |
Family
ID=45052363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW099118816A TWI403922B (zh) | 2010-06-04 | 2010-06-09 | 徒手人機介面操作系統及其方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8416189B2 (zh) |
CN (1) | CN102270037B (zh) |
TW (1) | TWI403922B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9646313B2 (en) * | 2011-12-13 | 2017-05-09 | Microsoft Technology Licensing, Llc | Gesture-based tagging to view related content |
CN102637116B (zh) * | 2012-03-20 | 2016-05-25 | Tcl集团股份有限公司 | 3d场景交互方法、装置及碰撞检测方法、装置 |
TWI471814B (zh) * | 2012-07-18 | 2015-02-01 | Pixart Imaging Inc | 降低背景干擾的手勢判斷方法及其裝置 |
US9734582B2 (en) | 2013-02-21 | 2017-08-15 | Lg Electronics Inc. | Remote pointing method |
CN104007808B (zh) * | 2013-02-26 | 2017-08-29 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN104714728B (zh) * | 2013-02-28 | 2018-10-12 | 联想(北京)有限公司 | 一种显示方法和设备 |
TW201500968A (zh) * | 2013-06-21 | 2015-01-01 | Utechzone Co Ltd | 三維互動系統及其互動感測方法 |
KR101844278B1 (ko) * | 2014-01-23 | 2018-04-02 | 삼성전자주식회사 | 관절식 객체의 자세를 추정하기 위한 파라미터 학습 방법 및 관절식 객체의 자세 추정 방법 |
CN109542654A (zh) * | 2018-11-23 | 2019-03-29 | 京东方科技集团股份有限公司 | 自动贩卖机和确定用户选定商品的方法 |
CN110936797B (zh) * | 2019-12-02 | 2021-08-27 | 恒大恒驰新能源汽车科技(广东)有限公司 | 一种汽车天窗控制方法及电子设备 |
CN111601129B (zh) * | 2020-06-05 | 2022-04-01 | 北京字节跳动网络技术有限公司 | 控制方法、装置、终端及存储介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW200512652A (en) * | 2003-09-26 | 2005-04-01 | Jia-Zhang Hu | Cursor simulator using limbs to control cursor and method for simulating the same |
US7721207B2 (en) * | 2006-05-31 | 2010-05-18 | Sony Ericsson Mobile Communications Ab | Camera based control |
TW200900123A (en) * | 2007-06-18 | 2009-01-01 | Ailive Inc | Self-contained inertial navigation system for interactive control using movable controllers |
US8760400B2 (en) * | 2007-09-07 | 2014-06-24 | Apple Inc. | Gui applications for use with 3D remote controller |
US8555207B2 (en) * | 2008-02-27 | 2013-10-08 | Qualcomm Incorporated | Enhanced input using recognized gestures |
JP4568357B2 (ja) * | 2008-06-30 | 2010-10-27 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 動画データから検索対象である動画コンテンツを含むシーンを検索するためのコンピュータ・システム、並びにその方法及びコンピュータ・プログラム |
US9268404B2 (en) * | 2010-01-08 | 2016-02-23 | Microsoft Technology Licensing, Llc | Application gesture interpretation |
US8523667B2 (en) * | 2010-03-29 | 2013-09-03 | Microsoft Corporation | Parental control settings based on body dimensions |
US8457353B2 (en) * | 2010-05-18 | 2013-06-04 | Microsoft Corporation | Gestures and gesture modifiers for manipulating a user-interface |
US8416187B2 (en) * | 2010-06-22 | 2013-04-09 | Microsoft Corporation | Item navigation using motion-capture data |
-
2010
- 2010-06-04 US US12/793,702 patent/US8416189B2/en active Active
- 2010-06-09 TW TW099118816A patent/TWI403922B/zh active
- 2010-06-29 CN CN201010227182.8A patent/CN102270037B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN102270037B (zh) | 2014-02-05 |
US8416189B2 (en) | 2013-04-09 |
US20110298698A1 (en) | 2011-12-08 |
CN102270037A (zh) | 2011-12-07 |
TWI403922B (zh) | 2013-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TW201145070A (en) | Manual human machine interface operation system and method thereof | |
EP2620849B1 (en) | Operation input apparatus, operation input method, and program | |
US8866781B2 (en) | Contactless gesture-based control method and apparatus | |
JP5515067B2 (ja) | 操作入力装置および操作判定方法並びにプログラム | |
JP5167523B2 (ja) | 操作入力装置および操作判定方法並びにプログラム | |
JP5807686B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
TWI451309B (zh) | Touch device and its control method | |
US20120235904A1 (en) | Method and System for Ergonomic Touch-free Interface | |
CN104331154B (zh) | 实现非接触式鼠标控制的人机交互方法和系统 | |
TW201342138A (zh) | 手勢感測裝置及具有手勢輸入功能的電子系統 | |
WO2014146516A1 (zh) | 一种左右手交互装置及方法 | |
JP2012022458A (ja) | 情報処理装置およびその制御方法 | |
JP5401675B1 (ja) | 情報入力装置および情報入力方法 | |
JP5558899B2 (ja) | 情報処理装置、その処理方法及びプログラム | |
JP6008904B2 (ja) | 表示制御装置、表示制御方法、及び、プログラム | |
JP5675196B2 (ja) | 情報処理装置及びその制御方法 | |
KR20110033318A (ko) | 영상인식을 이용한 가상마우스 시스템 | |
JP5676959B2 (ja) | 情報処理装置及びその制御方法 | |
EP2390761A1 (en) | A method and system for selecting an item in a three dimensional space | |
WO2023031988A1 (ja) | 電子機器及びプログラム | |
KR101579649B1 (ko) | 제스처를 이용한 인터페이스 장치 | |
Brookes et al. | Gesture-based control of ImageJ using Leap sensors | |
JPWO2023031988A5 (zh) | ||
KR20140021166A (ko) | 2차원 가상 터치 장치 | |
Lee et al. | Relative Pointing: a New 3D Pointing Gesture Interface |