TW201602839A - 光學觸控系統 - Google Patents
光學觸控系統 Download PDFInfo
- Publication number
- TW201602839A TW201602839A TW103124207A TW103124207A TW201602839A TW 201602839 A TW201602839 A TW 201602839A TW 103124207 A TW103124207 A TW 103124207A TW 103124207 A TW103124207 A TW 103124207A TW 201602839 A TW201602839 A TW 201602839A
- Authority
- TW
- Taiwan
- Prior art keywords
- target object
- optical touch
- processor
- light source
- display unit
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
本發明係提供一種光學觸控系統,包括:一顯示單元;一光源;一影像擷取單元,用以擷取該顯示單元前由該光源所發射出之光線所反射之複數張影像;以及一處理器,其中該處理器係依據該等影像計算在該顯示單元前之一操作空間是否具有一目標物件,其中當該處理器判斷該目標物件係位於該操作空間之一觸控區域時,該處理器係判斷該目標物件進行一觸控操作,其中當該處理器判斷該目標物件係位於該操作空間之一手勢區域時,該處理器係判斷該目標物件進行一手勢操作。
Description
本發明係有關於光學系統,特別是有關於可利用光學裝置判斷觸控位置之一種光學觸控系統。
隨著科技進步,具有觸控面板之電子裝置,例如是智慧型手機、智慧型電視、筆記型電腦、觸控螢幕等等也愈來愈普遍。然而,對於許多使用者來說,其所具有的電子裝置,例如是傳統LCD/LED電視或顯示器等等,並未具備觸控功能。因此,若使用者欲讓傳統的電視或顯示器具有觸控功能,往往僅能更換具有觸控功能的電視或顯示器,這也往往造成使用者的負擔。
本發明係提供一種光學觸控系統,包括:一顯示單元;一光源;一影像擷取單元,用以擷取該顯示單元前由該光源所發射出之光線所反射之複數張影像;以及一處理器,其中該處理器係依據該等影像判斷在該顯示單元前之一操作空間是否具有一目標物件,其中當該處理器判斷該目標物件係位
於該操作空間之一觸控區域時,該處理器係判斷該目標物件進行一觸控操作,其中當該處理器判斷該目標物件係位於該操作空間之一手勢區域時,該處理器係判斷該目標物件進行一手勢操作。
100‧‧‧光學觸控系統
110‧‧‧影像擷取單元
111‧‧‧透鏡
112‧‧‧感測器陣列
120‧‧‧光源
130‧‧‧處理器
140‧‧‧顯示單元
200‧‧‧相機模組
210‧‧‧操作空間
220、222‧‧‧虛線
230‧‧‧玻璃區域
240‧‧‧觸控區域
250‧‧‧手勢區域
280‧‧‧擷取影像
300、400‧‧‧校正基準平面
310-340‧‧‧區塊
350‧‧‧校正基準影像
360‧‧‧校正影像
270、500‧‧‧目標物件
H、f、Z、Z’‧‧‧距離
h1、h2‧‧‧像素座標位置
第1圖係顯示依據本發明一實施例中之光學觸控系統的功能方塊圖。
第2A圖係顯示依據本發明一實施例中光學式觸控系統之俯視圖。
第2B圖係顯示依據本發明一實施例中光學式觸控系統之側視圖。
第2C圖係顯示依據本發明一實施例中之擷取影像的示意圖。
第3A圖係顯示依據本發明一實施例中之利用光學觸控系統以校正深度關係的示意圖。
第3B圖係顯示依據本發明一實施例中之校正基準影像的示意圖。
第3C圖係顯示依據本發明另一實施例中之校正基準影像的示意圖。
第3D圖係顯示依據本發明另一實施例中之擷取影像的示意圖。
第3E圖係顯示依據本發明一實施例中之光源120所發射出
的特定圖樣之示意圖。
第3F圖係顯示依據本發明一實施例中之光源120所發射出的特定圖樣之示意圖。
第4圖係顯示依據本發明一實施例中之光學深度計算的示意圖。
第5圖係顯示依據本發明一實施例中利用光學觸控系統計算觸控位置的示意圖。
第6圖係顯示依據本發明一實施例中之觸控方法的流程圖。
為使本發明之上述目的、特徵和優點能更明顯易懂,下文特舉一較佳實施例,並配合所附圖式,作詳細說明如下。
第1圖係顯示依據本發明一實施例中之光學觸控系統的功能方塊圖。如第1圖所示,光學觸控系統100係包括一影像擷取單元110、一光源120、一處理器130、以及一顯示單元140。在一實施例中,影像擷取單元110及光源120係可整合於一相機模組中,並可安裝於顯示單元140之邊緣。舉例來說,影像擷取單元110係可為一紅外線相機,且光源120係可為紅外光(infrared light)光源,但本發明並不限於此。影像擷取單元110係持續擷取在顯示單元140表面上的觸控物件之影像,且處理器130係分析影像擷取單元110所擷取的影像,並判斷在影像中的觸控物件及其在三維操作空間中之位置。
第2A圖係顯示依據本發明一實施例中光學式觸控
系統之俯視圖。第2B圖係顯示依據本發明一實施例中光學式觸控系統之側視圖。如第2A圖所示,包括影像擷取單元110及光源120之相機模組200係安裝於顯示單元140之其中一角落,其中影像擷取單元110係具有一操作空間210,例如以上方視角所得到的是介於虛線220及222之間的範圍。請參考第2B圖,一般來說,顯示單元140的表面係由一層玻璃142所組成,影像擷取單元110係以一拍攝視角α進行擷取影像。因此,處理器130係由所擷取之影像中判斷目標物件270(例如是手指、手掌或觸控筆)在顯示單元140上方之操作空間210中的位置。
第2C圖係顯示依據本發明一實施例中之擷取影像的示意圖。影像擷取單元110所拍攝之擷取影像280係如第2C圖所示。舉例來說,該擷取影像可分為幾個區域,例如是玻璃區域(glass zone)230、觸控區域(touch zone)240、以及手勢區域(gesture zone)250,其他部份在拍攝範圍外的部份均屬於無效區(invalid zone)。當目標物件270位於觸控區域240,則處理器130係判斷使用者欲在顯示單元140之表面進行觸控操作。當目標物件位於手勢區域250,處理器130係判斷使用者欲進行手勢操作,且處理器130係由擷取影像280中計算目標物件270之深度變化及行動軌跡,藉以判斷其手勢動作。
更進一步而言,觸控區域240係為在玻璃區域230上面在一預定像素距離之內的空間,其中預定像素距離為10像素,但本發明並不限於此。除此之外,觸控區域240及手勢區域250係藉由擷取影像中之像素位置來區分。舉例來說,在擷取影像280中之左上角的A1點座標(XA1,YA1)為(0,0),且右下角
之B1點座標(XB1,YB1)為(200,200),其中往右為X軸,往下為Y軸。舉例來說,手勢區域250之左上角同樣為A1點,其座標為(0,0),且其右下角之B2點座標為(200,100)。觸控區域240之左上角為A2點,其座標(XA2,YA2)為(0,100),且其右下角之為A3點,其座標(XA3,YA3)為(200,110)。更進一步而言,當目標物件接近顯示單元140之表面時,擷取影像280中之觸控區域會產生相應在X、Y軸的灰階資訊。處理器130係再搭配擷取影像280中之像素位置與深度的對應關係,即可算出目標物件在顯示單元140之表面上的觸控位置。
第3A圖係顯示依據本發明一實施例中之利用光學觸控系統以校正深度關係的示意圖。第3B圖係顯示依據本發明一實施例中之校正基準影像的示意圖。如第3A圖所示,在光學觸控系統100進行深度關係之校正時係利用在一預定距離的一校正基準平面300,例如是牆,其中校正基準平面300與光學觸控系統100之間的距離是一已知距離D,且光學觸控系統100中之光源120係對校正基準平面300之牆面發射具有特定圖樣的校正基準影像350。當影像擷取單元110為一紅外線照相機時,其所擷取的影像僅有灰階資訊。需注意的是,第3B圖係以相反的灰階值表示。舉例來說,如第3B圖所示,為了便於說明,黑色光斑(實際上白色光斑)為光源120所發射出的特定條碼(barcode)或特定圖樣。光源120所發射出的特定條碼或特定圖樣係以區塊做為分隔,例如以8x8像素為一區塊,其中各區塊均有其相應的條碼,彼此之間均不相同。例如區塊310與區塊320之條碼均不相同,且區塊310與區塊330之條碼亦不相同。
第3C圖係顯示依據本發明另一實施例中之校正基準影像的示意圖。第3D圖係顯示依據本發明另一實施例中之擷取影像的示意圖。如第3C圖所示,當擷取影像中沒有任何目標物件時,影像擷取單元110所擷取之影像即為校正基準影像350。如第3D圖所示,當一目標物件270(例如一手掌)出現於擷取影像中,該目標物件與影像擷取單元110之距離往往與已知距離D不同,意即在第3C圖中之校正影像360之區塊340的特定圖樣在第3D圖中之位置會產生變化,例如往右移動了10個像素。此時,處理器130則可依據校正基準影像350與距離之關係計算出該目標物件與影像擷取單元110之距離。
第3E圖係顯示依據本發明一實施例中之光源120所發射出的特定圖樣之示意圖。第3F圖係顯示依據本發明一實施例中之光源120所發射出的特定圖樣之示意圖。在一實施例中,光源120所發射出的特定圖樣可為干涉條紋,如第3E圖所示。在另一實施例中,光源120所發射出的特定圖樣可為二維條碼(2D Barcode),如第3F圖所示。對於本發明領域具有通常知識者當了解本發明中由光源120所發出之特定圖樣並未限於於上述兩種圖樣之形式,其他可用於光學圖樣辨識之特定圖樣亦可用於本發明。
第4圖係顯示依據本發明一實施例中之光學深度計算的示意圖。在一實施例中,影像擷取單元110係包括一透鏡111及一感測器陣列112,其中感測器陣列112係包括複數個光學感測器,例如是CMOS或CCD感測器。如第4圖所示,距離Z係為透鏡111至校正基準平面400之距離,其為已知距離。在
光學觸控系統100進行校正時,光源120係投射具有特定圖樣之校正基準影像至校正基準平面400。距離H係表示光源120至透鏡111之中心點的距離。距離f係表示透鏡111至感測器112之距離。h1係表示在距離Z之校正基準平面400上之特定圖樣反射至感測器陣列112之像素座標位置。h2係表示在特定距離Z’之特定圖樣反射至感測器陣列112之像素座標位置。其中該特定距離Z’即為待求距離。
利用光學對焦原理,由第4圖可得知:h1/f=H/Z (1)
Z=f(h1) (2)
Z’=f(h2) (3)
因此,可利用上列公式(1)、(2)、(3)推得待求距離Z’,意即可求得目標物件與影像擷取單元110之間的待求距離Z’。
第5圖係顯示依據本發明一實施例中利用光學觸控系統計算觸控位置的示意圖。如第5圖所示,當利用第4圖所揭示之方式求得目標物件500與影像擷取單元110之間的待求距離Z’後,處理器130更以該影像擷取單元110為準,判斷該目標物件500與顯示單元140之邊緣的夾角θ。接著,處理器130即可利用三角函數的關係式求得目標物件500在顯示單元140上之觸控位置的座標(X,Y)。例如X=Cos θ * Z’,Y=Sin θ *Z’。
第6圖係顯示依據本發明一實施例中之觸控方法的流程圖。在步驟S610,影像擷取單元110係持續擷取影像資料。在步驟S620,處理器130係依據該等影像資料計算一深度
資訊圖。在步驟S630,處理器130係判斷在觸控區域是否有目標物件,若是,則執行步驟S650,若否,則執行步驟S640。在步驟S640,處理器130更判斷在手勢區域是否有目標物件,若是,則執行步驟S670,若否,則回到步驟S610。更進一步而言,處理器130在判斷觸控區域或手勢區域是否有目標物件時,其係利用本發明第4圖之實施例計算光源120所發射出的特定圖樣是否產生位移,並利用位移量計算目標物件與影像擷取單元之間的距離(即深度),再進一步判斷該目標物件位於觸控區域或手勢區域。
在步驟S650,處理器130係計算目標物件之深度以及該目標物件在顯示單元140上的觸控位置。在步驟S660,處理器130係輸出相應於該觸控位置之一觸控指令。在步驟S670,處理器130係計算目標物件之深度變化及其行動軌跡以判斷其手勢動作。在步驟S680,處理器130係輸出相應的手勢操作結果。需注意的是,在本發明領域中具有通常知識者當可了解在步驟S670及S680中判斷手勢之相關演算法係可參考習知技術,故其細節於此不再贅述。
綜上所述,本發明係提供一種光學觸控系統及觸控方法,其可利用額外的一影像擷取單元及光源安裝於傳統不具有觸控功能的顯示器或電視上,藉以進行觸控操作及手勢操作,並可節省使用者更換其電視或顯示器的成本。
本發明雖以較佳實施例揭露如上,然其並非用以限定本發明的範圍,任何所屬技術領域中具有通常知識者,在不脫離本發明之精神和範圍內,當可做些許的更動與潤飾,因
此本發明之保護範圍當視後附之申請專利範圍所界定者為準。
100‧‧‧光學觸控系統
110‧‧‧影像擷取單元
120‧‧‧光源
130‧‧‧處理器
140‧‧‧顯示單元
Claims (8)
- 一種光學觸控系統,包括:一顯示單元;一光源;一影像擷取單元,用以擷取該顯示單元前由該光源所發射出之光線所反射之複數張影像;以及一處理器,其中該處理器係依據該等影像判斷在該顯示單元前之一操作空間是否具有一目標物件,其中當該處理器判斷該目標物件係位於該操作空間之一觸控區域時,該處理器係判斷該目標物件進行一觸控操作,其中當該處理器判斷該目標物件係位於該操作空間之一手勢區域時,該處理器係判斷該目標物件進行一手勢操作。
- 如申請專利範圍第1項所述之光學觸控系統,其中該光源為一紅外線光源,且該影像擷取單元為一紅外線照相機。
- 如申請專利範圍第1項所述之光學觸控系統,其中該處理器係依據該等影像計算一深度資訊圖,並依據該深度資訊圖判斷該目標物件位於該觸控區域或該手勢區域。
- 如申請專利範圍第1項所述之光學觸控系統,其中當該處理器判斷該目標物件係位於該觸控區域時,該處理器係計算該目標物件之一深度以及該目標物件相對於該顯示單元之一觸控位置。
- 如申請專利範圍第1項所述之光學觸控系統,其中當該處理器判斷該目標物件係位於該手勢區域時,該處理器係計算該目標物件之深度變化以及其行動軌跡,藉以判斷該目標物件之一手勢動作。
- 如申請專利範圍第1項所述之光學觸控系統,其中該光源係發射出具有複數個區塊之一校正基準影像,且各區域包括相應的複數個特定圖樣,其中該處理器係判斷各區域之該等特定圖樣之一位移量以計算該目標物件之一深度。
- 如申請專利範圍第6項所述之光學觸控系統,其中該等特定圖樣為複數個干涉條紋。
- 如申請專利範圍第6項所述之光學觸控系統,其中該等特定圖樣為複數個二維條碼。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW103124207A TWI506479B (zh) | 2014-07-15 | 2014-07-15 | 光學觸控系統 |
CN201410371592.8A CN105320361B (zh) | 2014-07-15 | 2014-07-31 | 光学触控系统 |
US14/463,964 US20160019424A1 (en) | 2014-07-15 | 2014-08-20 | Optical touch-control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW103124207A TWI506479B (zh) | 2014-07-15 | 2014-07-15 | 光學觸控系統 |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI506479B TWI506479B (zh) | 2015-11-01 |
TW201602839A true TW201602839A (zh) | 2016-01-16 |
Family
ID=55074822
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW103124207A TWI506479B (zh) | 2014-07-15 | 2014-07-15 | 光學觸控系統 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20160019424A1 (zh) |
CN (1) | CN105320361B (zh) |
TW (1) | TWI506479B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11042244B2 (en) * | 2012-04-24 | 2021-06-22 | Sony Corporation | Terminal device and touch input method |
CN106969707B (zh) * | 2017-04-07 | 2019-06-28 | 京东方科技集团股份有限公司 | 一种检测装置及其控制方法 |
US10726233B2 (en) * | 2017-08-09 | 2020-07-28 | Fingerprint Cards Ab | Providing test patterns for sensor calibration |
CN116946826A (zh) * | 2022-04-20 | 2023-10-27 | 陈鸿文 | 非接触式按键触发方法及设备 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6252720B1 (en) * | 1999-08-20 | 2001-06-26 | Disney Entpr Inc | Optical system and method for remotely manipulating interactive graphical elements on television screens and the like |
JP4023979B2 (ja) * | 2000-04-04 | 2007-12-19 | 株式会社 ニューコム | 光デジタイザ |
US7683881B2 (en) * | 2004-05-24 | 2010-03-23 | Keytec, Inc. | Visual input pointing device for interactive display system |
TWI337717B (en) * | 2007-04-12 | 2011-02-21 | Tpo Displays Corp | An image display system with a optical touch panel |
US8487881B2 (en) * | 2007-10-17 | 2013-07-16 | Smart Technologies Ulc | Interactive input system, controller therefor and method of controlling an appliance |
TWI498785B (zh) * | 2009-10-08 | 2015-09-01 | Silicon Motion Inc | 觸控感應裝置以及觸碰點偵測方法 |
TWI433012B (zh) * | 2010-05-11 | 2014-04-01 | Pixart Imaging Inc | 光學式觸控顯示裝置與光學操作裝置 |
TWI413927B (zh) * | 2010-10-20 | 2013-11-01 | Pixart Imaging Inc | 視屏顯示模組、顯示裝置及其應用之電子裝置 |
US8665244B2 (en) * | 2011-02-22 | 2014-03-04 | Microsoft Corporation | Optical touch detection |
US8860695B2 (en) * | 2011-08-05 | 2014-10-14 | Pixart Imaging Inc. | Optical touch system and electronic apparatus including the same |
US8941619B2 (en) * | 2011-11-18 | 2015-01-27 | Au Optronics Corporation | Apparatus and method for controlling information display |
TWI536226B (zh) * | 2011-11-30 | 2016-06-01 | 緯創資通股份有限公司 | 光學觸控裝置與觸控影像處理方法 |
TWI470511B (zh) * | 2012-06-06 | 2015-01-21 | Wistron Corp | 雙模輸入裝置 |
-
2014
- 2014-07-15 TW TW103124207A patent/TWI506479B/zh not_active IP Right Cessation
- 2014-07-31 CN CN201410371592.8A patent/CN105320361B/zh not_active Expired - Fee Related
- 2014-08-20 US US14/463,964 patent/US20160019424A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
CN105320361A (zh) | 2016-02-10 |
CN105320361B (zh) | 2018-03-30 |
US20160019424A1 (en) | 2016-01-21 |
TWI506479B (zh) | 2015-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20100103099A1 (en) | Pointing device using camera and outputting mark | |
US10528151B1 (en) | Optical hand tracking in virtual reality systems | |
TWI476364B (zh) | 感測方法與裝置 | |
US20130257736A1 (en) | Gesture sensing apparatus, electronic system having gesture input function, and gesture determining method | |
JP4927021B2 (ja) | 画像表示装置のカーソル制御装置及び制御方法、ならびに画像システム | |
TWI461975B (zh) | 電子裝置及其觸碰位置之校正方法 | |
TWI506479B (zh) | 光學觸控系統 | |
JP2015176253A (ja) | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 | |
US20130038577A1 (en) | Optical touch device and coordinate detection method thereof | |
TWI581127B (zh) | 輸入裝置以及電子裝置 | |
TW201626174A (zh) | 具高追蹤速度的光學導航裝置 | |
US9639209B2 (en) | Optical touch system and touch display system | |
US20190243456A1 (en) | Method and device for recognizing a gesture, and display device | |
TWI536206B (zh) | 操作體的定位方法及裝置以及深度判定方法及裝置 | |
Yoo et al. | Symmetrisense: Enabling near-surface interactivity on glossy surfaces using a single commodity smartphone | |
US9785253B2 (en) | Pointing device using camera and outputting mark | |
KR102191061B1 (ko) | 2차원 카메라를 이용하여 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 | |
JP6643825B2 (ja) | 装置及び方法 | |
TWI444875B (zh) | 多點觸碰輸入裝置及其使用單點觸控感應板與影像感測器之資料融合之介面方法 | |
US20140375777A1 (en) | Three-dimensional interactive system and interactive sensing method thereof | |
Matsubara et al. | Touch detection method for non-display surface using multiple shadows of finger | |
TWI543047B (zh) | 光學式觸控面板 | |
TWI446214B (zh) | Remote control system based on user action and its method | |
KR101695727B1 (ko) | 스테레오 비전을 이용한 위치검출 시스템 및 위치검출 방법 | |
TWI566128B (zh) | 虛擬觸控裝置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM4A | Annulment or lapse of patent due to non-payment of fees |