TWI499938B - 觸控系統 - Google Patents
觸控系統 Download PDFInfo
- Publication number
- TWI499938B TWI499938B TW103113344A TW103113344A TWI499938B TW I499938 B TWI499938 B TW I499938B TW 103113344 A TW103113344 A TW 103113344A TW 103113344 A TW103113344 A TW 103113344A TW I499938 B TWI499938 B TW I499938B
- Authority
- TW
- Taiwan
- Prior art keywords
- touch
- electronic device
- image capturing
- line vector
- straight line
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
Description
本發明係有關於影像處理,特別是有關於利用影像辨識手勢動作以進行觸控操作的觸控系統及其觸控方法。
隨著科技進步,使用配備有照像機的電子裝置以辨識手勢動作已愈來愈普遍。除此之外,若電子裝置之螢幕具備有觸控功能,則其成本往往會大幅提高。因此,需要一種可利用照像機以辨識手勢動作之觸控系統,可在螢幕不具有觸控功能時,仍能進行觸控操作,藉以提昇使用的便利性及降低成本。
本發明係提供一種觸控系統,包括:至少二個影像擷取單元,用以持續擷取一使用者之複數張手部影像;以及一電子裝置,耦接至該等影像擷取單元,用以由該等手部影像辨識出一目標物件,並偵測該目標物件在一操作空間中的移動動作,其中該電子裝置包括一顯示單元,且該操作空間包括一虛擬觸控平面,其中,當該目標物件於一虛擬觸控點接觸該虛擬觸控平面時,該電子裝置係產生一觸控信號,並在該顯示單元中相應於該虛擬觸控點之位置進行相應的一觸控操作。
本發明更提供一種觸控方法,用於一觸控系統,其中該觸控系統包括至少二個影像擷取單元及一電子裝置。該觸控方法包括:利用該等影像擷取單元持續擷取一使用者之複數張手部影像;由該等手部影像辨識出一目標物件,並偵測該目標物件在一操作空間中的移動動作,其中該電子裝置包括一顯示單元,且該操作空間包括一虛擬觸控平面;以及當該目標物件於一虛擬觸控點接觸該虛擬觸控平面時,利用該電子裝置產生一觸控信號,並在該顯示單元中相應於該虛擬觸控點之位置進行相應的一觸控操作。
100‧‧‧觸控系統
110‧‧‧影像擷取單元
111‧‧‧接收器
112‧‧‧發射器
120‧‧‧電子裝置
121‧‧‧顯示單元
122‧‧‧鍵盤
200‧‧‧操作空間
210‧‧‧觸控區域
220‧‧‧手勢區域
230‧‧‧虛擬觸控平面
250、260‧‧‧射線
400‧‧‧操作空間
410、420、430‧‧‧平面
L1、L2‧‧‧空間直線
A1、A1’、A2、A2’、B1、B2‧‧‧點
第1圖係本發明之一實施例中之觸控系統100的功能方塊圖。
第2圖係顯示依據本發明一實施例中使用手勢動作進行操作的三維空間的示意圖。
第3A-3H圖係顯示依據本發明不同實施例中之電子裝置120及影像擷取單元110之位置的示意圖。
第4A及4B圖係顯示依據本發明一實施例中使用影像擷取單元進行位置校正的示意圖。
第5圖係顯示依據本發明一實施例中之空間定位方法的流程圖。
第6圖係顯示依據本發明一實施例中之計算指尖的空間座標的示意圖。
第7圖係顯示依據本發明一實施例中計算兩直線之公垂線中點的示意圖。
第8A及8B圖係顯示依據本發明不同實施例中設定虛擬觸控平面的示意圖。
為使本發明之上述目的、特徵和優點能更明顯易懂,下文特舉一較佳實施例,並配合所附圖式,作詳細說明如下。
第1圖係本發明之一實施例中之觸控系統100的功能方塊圖。如第1圖所示,觸控系統100包括至少2個影像擷取單元110、一電子裝置120。影像擷取單元110係用以擷取在電子裝置120前之使用者的影像。舉例來說,影像擷取單元110可為紅外線鏡頭、但本發明並不限於此。每個影像擷取單元110亦包括一接收器111及一發射器112,其中接收器111例如是CMOS感測器,發射器112例如是紅外線發射器(Infrared emitter)。舉例來說,接收器111可偵測由發射器112所發射而遇到物體折射或反射的紅外線,藉以產生一偵測信號。
電子裝置120係耦接至影像擷取單元110,用以分析來自影像擷取單元110的偵測信號以取得使用者之手勢動作。在一實施例中,電子裝置120例如可為一個人電腦(例如:桌上型電腦、一筆記型電腦、一體成型(All-in-one)電腦等等)、電視、遊戲主機、或顯示器等等,且本發明中之影像擷取單元110所安裝的位置可視電子裝置120之類型及結構而變化(其細
節將詳述於後)。在一些實施例中,電子裝置更包括一顯示單元121,其中顯示單元121可為不具有觸控模組的螢幕或顯示器。在一些實施例中,影像擷取單元110所安裝的位置可不在電子裝置120或其週邊裝置上,例如影像擷取單元110可安裝於桌面或是任何可拍攝使用者手部之位置。
第2圖係顯示依據本發明一實施例中使用手勢動作進行操作的三維空間的示意圖。如第2圖所示,電子裝置120例如是一筆記型電腦,電子裝置120係將顯示單元121前的操作空間200分為一觸控區域210及一手勢區域220,其中觸控區域210及手勢區域220之間係由一虛擬觸控平面(virtual touch plane)230所分隔。除此之外,影像擷取單元110所偵測的區域範圍及視角(field of view)可事先調整,意即由影像擷取單元110往外延展之射線250及260之間的區域,其中該區域係包括虛擬觸控平面230,且射線260之位置最遠可涵蓋顯示單元121之表面,意即操作空間200可包含顯示單元121之表面。例如使用者之手掌在電子裝置120之鍵盤122上進行操作時,此時可事先設定影像擷取單元110所偵測之區域以避免偵測到使用者的手部而造成誤判。
更進一步而言,電子裝置120係分析來自影像擷取單元的偵測信號,藉以取得使用者之手部位置。在一實施例中,處理單元120手勢動作可再分為手掌動作及手指動作。當手部位置位於手勢區域220時,電子裝置120即會將使用者之手部動作均視為手掌的手勢動作,且使用者可透過手勢來操控電子裝置100。舉例來說,利用手勢揮動進行換頁、瀏覽、旋轉
等動作。若電子裝置120為電視時,使用者可利用手勢揮動操控螢幕之切換頻道/切換功能首頁/音量調整等功能。若使用者的手部由手勢區域220進入觸控區域210時,即表示使用者的手部已超過該虛擬觸控平面230,電子裝置120則進一步偵測使用者之手指部位的移動。舉例來說,電子裝置120係預先將虛擬觸控平面中之一特定區域映射至其顯示單元121的整個顯示區域,意即在該特定區域中的不同位置在顯示單元121中均有一相應的位置。當使用者的手指由手勢區域220穿過該虛擬觸控平面230而進入觸控區域210時,電子裝置120則判斷使用者欲進行觸控操作,意即使用者可透過手指點擊虛擬觸控平面(例如在位置A),電子裝置120則會在顯示單元121中的位置B產生相應於該位置A的觸控信號。接著,電子裝置120更依據該觸控信號進行相應的操作。
第3A-3H圖係顯示依據本發明不同實施例中之電子裝置120及影像擷取單元110之位置的示意圖。本發明可視電子裝置120之類型及結構的不同而安裝影像擷取單元110於不同之位置以偵測使用者之手部,在第3A-3E圖中,影像擷取單元110係可透過一資料匯流排(例如USB介面)而連接至電子裝置120。舉例來說,如第3A圖所示,當電子裝置120為一筆記型電腦,影像擷取單元110可安裝於筆記型電腦底座上與顯示單元121之連接處的兩側。如第3B圖所示,當電子裝置120為一桌上型電腦或遊戲主機,其顯示單元121往往可置於較遠的位置,此時,影像擷取單元110可安裝於電子裝置120之鍵盤122(或是遊戲主機)的兩側,其中鍵盤122亦透過通用序列匯流
排(Universal serial bus,USB)介面而耦接至電子裝置120。
在一實施例中,如第3C圖所示,當電子裝置為一電視或顯示器時,影像擷取單元110可安裝於電視螢幕的角落,例如是左下角及右下角。如第3D、3E及3F圖所示,影像擷取單元亦可安裝於左上角及右上角、左上角及左下角、右上角及右下角,使用者可視實際需求調整影像擷取單元之安裝置位。除此之外,在一些實施例中,本發明之影像擷取單元110的數量可不限於兩個,可使用兩個或以上的影像擷取單元110以偵測使用者之手勢。例如第3G圖所示,影像擷取單元110可安裝於電子裝置120之顯示單元121的左下角、右下角及下方。例如第3H圖所示,影像擷取單元110可同時安裝於電子裝置120之顯示單元的右上角、右下角、左上角及左下角。
第4A及4B圖係顯示依據本發明一實施例中使用影像擷取單元進行位置校正的示意圖。第5圖係顯示依據本發明一實施例中之空間校正方法的流程圖。請同時參考第4A、4B圖及第5圖。在步驟S510,電子裝置120係預先在使用者的操作空間400中設定數個三維空間座標點,例如將在操作空間400中之不同平面的NxN個矩陣點設定為校正點。舉例來說,對於在右側的影像擷取單元110而言,其校正點係設定在操作空間之左側的平面410及420上。對於在左側的影像擷取單元110而言,其校正點係設定在操作空間之右側的平面430及420上。在步驟S520,電子裝置120係記錄上述的校正點在影像擷取單元110之影像中所對應的像素。在步驟S530,計算上述校正點在該操作空間400中所對應的空間向量,例如可使用內插或外插
的方式計算空間向量。
在步驟S540,當使用者使用一目標物件(例如可使用手掌、手指或其他物件)在操作空間400中進行移動,電子裝置120係利用來自不同影像擷取單元110所擷取之影像偵測該目標物件,並判斷該目標物件在操作空間400中與各影像擷取單元110之間的空間向量是否相交。若是,則判斷兩個空間向量的交點座標(x,y,z)為操作點(步驟S550);若否,則表示該兩個空間向量為三維空間中的歪斜線,此時電子裝置120係計算此兩個空間向量之間的最短距離的線段,並以此線段的中點做為操作點(步驟S560)。
請同時參考第2圖及第5圖,在步驟S570,電子裝置120係判斷操作點之座標位於觸控區域210或手勢區域220,藉以進行相應的觸控操作或手勢操作。舉例來說,當操作點之座標位於手勢區域220,電子裝置120係將操作點之移動判斷為手勢動作。當操作點之座標位於觸控區域210,電子裝置120係將操作點之移動判斷為觸控動作。除此之外,當操作點之座標由手勢區域220移動跨過虛擬觸控平面230時,則電子裝置120會將該動作視為觸控動作(例如點擊動作)。
第6圖係顯示依據本發明一實施例中之計算指尖的空間座標的示意圖。請參考第6圖,在一實施例中,給定左邊的影像擷取單元110之空間座標為(x1,y1,z1),右邊的影像擷取單元110之空間座標為(x2,y2,z2),目標物件分別相對於左邊的影像擷取單元110之校正點座標為(x3,y3,z3)及(x4,y4,z4)。若通過左邊及右邊的影像擷取單元110之空間直線L1及L2,且其
直線向量分別為(a,b,c)及(d,e,f),則L1空間直線之表示式為:x=x1+at;y=y1+bt;z=z1+ct。L2空間直線之表示式為:x=x2+ds;y=y2+es;z=z2+fs。
再將空間直線L1之關係式代入空間直線L2,則可得到x1+at=x2+ds;y1+bt=y2+es。利用聯立方程式求解,若可可得到t及s,則能計算出兩空間直線之交點(x,y,z),即校正點的座標。若無法得到t及s,即表示空間直線L1及L2是歪斜線,需利用另一種方式計算校正點的座標。
第7圖係顯示依據本發明一實施例中計算兩直線之公垂線中點的示意圖。請參考第7圖,若空間直線L1及L2分別通過點A1及A2,且其方向向量分別為及。則四邊形為矩形,且,公垂線線段垂直於L1及L2,則公垂線線段之長度及點B1及B2之座標係可由下列方式進行計算:
(1)因為四邊形為矩形,利用正射影及外積可得到:
可推得:
(2)因為,
又且表示可解得因此,
當B1及B2點之座標已求得,假設已求得之B1座標為(x3,y3,z3),B2座標為(x4,y4,z4),則線段之中點座標為((x3+x4)/2,(y3+y4)/2,(z3+z4)/2)。
第8A及8B圖係顯示依據本發明不同實施例中設定虛擬觸控平面的示意圖。本發明之電子裝置120係利用影像特徵定義出使用者之指尖及其座標,並分析指尖在操作空間中的座標變化,藉以判斷使用者的手勢是往左揮動、往右揮動、或是朝前移動、朝後移動。本發明中由影像中判斷手掌或指尖係可使用習知之物件偵測演算法,故其細節於此不再贅述。在一實施例中,如第8A圖所示,電子裝置120係以筆記型電腦為例,假定筆記型電腦之底座往使用者方向為Z軸,往上為Y軸,虛擬觸控平面230之位置係垂直於Z軸且平行於Y軸。當使用者之指尖由後向前接觸虛擬觸控點A1而穿過虛擬觸控平面230時,電子裝置120會判斷該手勢動作是一觸控動作,且在虛擬觸控平面230會有一虛擬觸控點,且電子裝置120會產生相應於該虛擬觸控點之觸控信號,並進行在其顯示單元121上的相應位置進行對應的觸控操作。需注意的是,在此實施例中,虛擬觸控平
面230之位置可以在Z軸方向任意調整,無論虛擬觸控平面230在Z軸之位置為何,當使用者之指尖由後向前而穿過虛擬觸控平面230時,電子裝置120仍會判斷該手勢動作是一觸控動作。
在另一實施例中,如第8B圖所示,電子裝置120仍然以筆記型電腦為例,假定筆記型電腦之底座往使用者之方向為Z軸,往上為Y軸,虛擬觸控平面230之位置係與於Y軸平面具有一夾角,其中該夾角之角度係可依據使用者之需求而自行調整。除此之外,虛擬觸控平面230之位置可以在Z軸方向任意調整,無論虛擬觸控平面230在Z軸之位置為何,當使用者之指尖在Z軸由後向前(第8B圖中為右往左)往顯示單元210接觸虛擬觸控點B1而穿過虛擬觸控平面230時,電子裝置120仍會判斷該手勢動作是一觸控動作。需注意的是,在此實施例中,顯示單元210並不具有觸控功能,虛擬觸控平面230最近可與顯示單元210貼齊,意即電子裝置120可判斷直接於顯示單元210進行操作的觸控動作,並進行相應的操作。
本發明之方法,或特定型態或其部份,可以以程式碼的型態包含於實體媒體,如軟碟、光碟片、硬碟、或是任何其他機器可讀取(如電腦可讀取)儲存媒體,其中,當程式碼被機器,如電腦載入且執行時,此機器變成用以參與本發明之裝置或系統。本發明之方法、系統與裝置也可以以程式碼型態透過一些傳送媒體,如電線或電纜、光纖、或是任何傳輸型態進行傳送,其中,當程式碼被機器,如電腦接收、載入且執行時,此機器變成用以參與本發明之裝置或系統。當在一般用途處理器實作時,程式碼結合處理器提供一操作類似於應用特定
邏輯電路之獨特裝置。
本發明雖以較佳實施例揭露如上,然其並非用以限定本發明的範圍,任何所屬技術領域中具有通常知識者,在不脫離本發明之精神和範圍內,當可做些許的更動與潤飾,因此本發明之保護範圍當視後附之申請專利範圍所界定者為準。
100‧‧‧立體成像系統
110‧‧‧處理單元
120‧‧‧主要儲存單元
121‧‧‧作業系統
122‧‧‧立體成像程式
123‧‧‧立體影像資料
124‧‧‧影像緩衝器
130‧‧‧觸控立體螢幕
Claims (7)
- 一種觸控系統,包括:至少二個影像擷取單元,用以持續擷取一使用者之複數張手部影像;以及一電子裝置,耦接至該等影像擷取單元,用以由該等手部影像辨識出一目標物件,並偵測該目標物件在一操作空間中的移動動作,其中該電子裝置包括一顯示單元,且該操作空間包括一虛擬觸控平面,其中,當該目標物件於一虛擬觸控點接觸該虛擬觸控平面時,該電子裝置係產生一觸控信號,並在該顯示單元中相應於該虛擬觸控點之位置進行相應的一觸控操作,其中該等影像擷取單元包括一第一影像擷取單元及一第二影像擷取單元,且該電子裝置更估計該目標物件在該操作空間中分別相對於該第一影像擷取單元及該第二影像擷取單元之一第一直線向量及一第二直線向量,並判斷該第一直線向量及該第二直線向量是否相交,其中該操作空間係包括複數個校正點,且該第一直線向量及該第二直線向量係分別為該第一影像擷取單元及該第二影像擷取單元在該操作空間中於該複數個校正點中最靠近該目標物件之一第一校正點及一第二校正點的連線, 其中當該第一直線向量及該第二直線向量相交,該電子裝置係計算該第一直線向量及該第二直線向量於該操作空間中之一交點以做為該目標物件之一操作點,其中當該第一直線向量及該第二直線向量不相交,該電子裝置係計算該第一直線向量及該第二直線向量於該操作空間中之一中垂線之一中點以做為該目標物件之一操作點。
- 如申請專利範圍第1項所述之觸控系統,其中該操作空間包括一手勢區域及一觸控區域,且該手勢區域及該觸控區域係由該虛擬觸控平面所分隔。
- 如申請專利範圍第2項所述之觸控系統,其中當該目標物件位於該手勢區域,該電子裝置係判斷該目標物件之移動動作為一手勢動作。
- 如申請專利範圍第2項所述之觸控系統,其中當該目標物件由該手勢區域接觸該虛擬觸控點而穿過該虛擬觸控平面至該觸控區域時,該電子裝置係判斷該目標物件之移動動作為一觸控動作。
- 如申請專利範圍第1項所述之觸控系統,其中該電子裝置為一個人電腦或一電視,且該等影像擷取單元係安置在該電子裝置之一顯示單元之同一側的兩端。
- 如申請專利範圍第1項所述之觸控系統,其中該電子裝置為一個人電腦,且該等影像擷取單元係安置在該電子裝置之一鍵盤之同一側的兩端。
- 如申請專利範圍第1項所述之觸控系統,其中該電子裝置為一遊戲機,且該等影像擷取單元係安置在該遊戲機之同一側的兩端。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW103113344A TWI499938B (zh) | 2014-04-11 | 2014-04-11 | 觸控系統 |
CN201410179150.3A CN104978018B (zh) | 2014-04-11 | 2014-04-30 | 触控系统及触控方法 |
US14/287,641 US9389780B2 (en) | 2014-04-11 | 2014-05-27 | Touch-control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW103113344A TWI499938B (zh) | 2014-04-11 | 2014-04-11 | 觸控系統 |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI499938B true TWI499938B (zh) | 2015-09-11 |
TW201539252A TW201539252A (zh) | 2015-10-16 |
Family
ID=54265103
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW103113344A TWI499938B (zh) | 2014-04-11 | 2014-04-11 | 觸控系統 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9389780B2 (zh) |
CN (1) | CN104978018B (zh) |
TW (1) | TWI499938B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI607347B (zh) * | 2016-08-31 | 2017-12-01 | 張玉琪 | 空間定位系統以及方法 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107390922B (zh) * | 2017-06-30 | 2020-11-13 | Oppo广东移动通信有限公司 | 虚拟触控方法、装置、存储介质及终端 |
TWM588267U (zh) * | 2019-09-05 | 2019-12-21 | 廣達電腦股份有限公司 | 具有攝像模組的電子裝置 |
US11448884B2 (en) * | 2020-11-25 | 2022-09-20 | Sony Interactive Entertainment Inc. | Image based finger tracking plus controller tracking |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040193413A1 (en) * | 2003-03-25 | 2004-09-30 | Wilson Andrew D. | Architecture for controlling a computer using hand gestures |
US7068843B2 (en) * | 2002-03-29 | 2006-06-27 | Industrial Technology Research Institute | Method for extracting and matching gesture features of image |
US20100277411A1 (en) * | 2009-05-01 | 2010-11-04 | Microsoft Corporation | User tracking feedback |
TW201101197A (en) * | 2009-06-30 | 2011-01-01 | Univ Nat Taiwan Science Tech | Method and system for gesture recognition |
TW201123031A (en) * | 2009-12-24 | 2011-07-01 | Univ Nat Taiwan Science Tech | Robot and method for recognizing human faces and gestures thereof |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6765557B1 (en) * | 2000-04-10 | 2004-07-20 | Interlink Electronics, Inc. | Remote control having touch pad to screen mapping |
CN101364159A (zh) * | 2008-09-04 | 2009-02-11 | 合肥吉天电子科技有限公司 | 一种基于图像识别的虚拟触摸屏系统 |
CN101520700A (zh) * | 2008-12-31 | 2009-09-02 | 广东威创视讯科技股份有限公司 | 一种基于摄像头的三维定位触摸装置及其定位方法 |
JP5439977B2 (ja) * | 2009-06-24 | 2014-03-12 | 富士ゼロックス株式会社 | 動作判定システム、動作判定装置およびプログラム |
US8810524B1 (en) * | 2009-11-20 | 2014-08-19 | Amazon Technologies, Inc. | Two-sided touch sensor |
TWI489317B (zh) * | 2009-12-10 | 2015-06-21 | Tatung Co | 電子裝置的操作方法及系統 |
US20110267262A1 (en) * | 2010-04-30 | 2011-11-03 | Jacques Gollier | Laser Scanning Projector Device for Interactive Screen Applications |
US8941560B2 (en) * | 2011-09-21 | 2015-01-27 | Google Inc. | Wearable computer with superimposed controls and instructions for external device |
TWI470511B (zh) * | 2012-06-06 | 2015-01-21 | Wistron Corp | 雙模輸入裝置 |
WO2014003796A1 (en) * | 2012-06-30 | 2014-01-03 | Hewlett-Packard Development Company, L.P. | Virtual hand based on combined data |
CN103679145A (zh) * | 2013-12-06 | 2014-03-26 | 河海大学 | 一种手势自动识别方法 |
US9227141B2 (en) * | 2013-12-31 | 2016-01-05 | Microsoft Technology Licensing, Llc | Touch screen game controller |
-
2014
- 2014-04-11 TW TW103113344A patent/TWI499938B/zh active
- 2014-04-30 CN CN201410179150.3A patent/CN104978018B/zh active Active
- 2014-05-27 US US14/287,641 patent/US9389780B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7068843B2 (en) * | 2002-03-29 | 2006-06-27 | Industrial Technology Research Institute | Method for extracting and matching gesture features of image |
US20040193413A1 (en) * | 2003-03-25 | 2004-09-30 | Wilson Andrew D. | Architecture for controlling a computer using hand gestures |
US20100277411A1 (en) * | 2009-05-01 | 2010-11-04 | Microsoft Corporation | User tracking feedback |
TW201101197A (en) * | 2009-06-30 | 2011-01-01 | Univ Nat Taiwan Science Tech | Method and system for gesture recognition |
TW201123031A (en) * | 2009-12-24 | 2011-07-01 | Univ Nat Taiwan Science Tech | Robot and method for recognizing human faces and gestures thereof |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI607347B (zh) * | 2016-08-31 | 2017-12-01 | 張玉琪 | 空間定位系統以及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104978018B (zh) | 2018-08-24 |
US20150293689A1 (en) | 2015-10-15 |
TW201539252A (zh) | 2015-10-16 |
CN104978018A (zh) | 2015-10-14 |
US9389780B2 (en) | 2016-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10732725B2 (en) | Method and apparatus of interactive display based on gesture recognition | |
US20190250714A1 (en) | Systems and methods for triggering actions based on touch-free gesture detection | |
US20130257736A1 (en) | Gesture sensing apparatus, electronic system having gesture input function, and gesture determining method | |
TWI540461B (zh) | 手勢輸入的方法及系統 | |
KR101890459B1 (ko) | 3차원으로 디스플레이된 오브젝트의 사용자 선택 제스쳐에 응답하기 위한 방법 및 시스템 | |
US20140184494A1 (en) | User Centric Interface for Interaction with Visual Display that Recognizes User Intentions | |
KR101608423B1 (ko) | 모바일 디바이스상의 풀 3d 상호작용 | |
CN110968187B (zh) | 由外围设备启用的远程触摸检测 | |
JP6344530B2 (ja) | 入力装置、入力方法、及びプログラム | |
TWI499938B (zh) | 觸控系統 | |
JP2012238293A (ja) | 入力装置 | |
TWI581127B (zh) | 輸入裝置以及電子裝置 | |
KR20210010930A (ko) | 헤드 제스처들을 통해 디스플레이 디바이스를 원격 제어하기 위한 방법, 시스템 및 컴퓨터 프로그램 | |
US11886643B2 (en) | Information processing apparatus and information processing method | |
JP2014029656A (ja) | 画像処理装置および画像処理方法 | |
US9122346B2 (en) | Methods for input-output calibration and image rendering | |
TW201439813A (zh) | 顯示設備及其控制系統和方法 | |
JP6746419B2 (ja) | 情報処理装置、及びその制御方法ならびにコンピュータプログラム | |
JP6643825B2 (ja) | 装置及び方法 | |
JP2018116346A (ja) | 入力制御装置、表示装置、及び入力制御方法 | |
TWI444875B (zh) | 多點觸碰輸入裝置及其使用單點觸控感應板與影像感測器之資料融合之介面方法 | |
JP6008904B2 (ja) | 表示制御装置、表示制御方法、及び、プログラム | |
EP3059664A1 (en) | A method for controlling a device by gestures and a system for controlling a device by gestures | |
TW201419087A (zh) | 微體感偵測模組及其微體感偵測方法 | |
US8493362B2 (en) | Image-based coordinate input apparatus and method utilizing buffered images |