TW201514774A - 光學觸控裝置及其手勢偵測方法 - Google Patents

光學觸控裝置及其手勢偵測方法 Download PDF

Info

Publication number
TW201514774A
TW201514774A TW102136249A TW102136249A TW201514774A TW 201514774 A TW201514774 A TW 201514774A TW 102136249 A TW102136249 A TW 102136249A TW 102136249 A TW102136249 A TW 102136249A TW 201514774 A TW201514774 A TW 201514774A
Authority
TW
Taiwan
Prior art keywords
gesture
images
quadrilateral
touch device
boundary
Prior art date
Application number
TW102136249A
Other languages
English (en)
Other versions
TWI502413B (zh
Inventor
Shou-Te Wei
Shang-Chin Su
Sheng-Hsien Hsieh
Original Assignee
Wistron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wistron Corp filed Critical Wistron Corp
Priority to TW102136249A priority Critical patent/TWI502413B/zh
Priority to CN201310493502.8A priority patent/CN104516594B/zh
Priority to US14/093,508 priority patent/US9116574B2/en
Publication of TW201514774A publication Critical patent/TW201514774A/zh
Application granted granted Critical
Publication of TWI502413B publication Critical patent/TWI502413B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

一種手勢偵測方法,適用於一光學觸控裝置,該光學觸控裝置包含一指示平面以及二影像感測單元,該二影像感測單元設置於該指示平面一側之二角落,該手勢偵測方法包含藉由該二影像感測單元感測關於一手勢之二影像,其中該手勢於該指示平面上進行操作;判斷該二影像的其中之一中是否存在至少二觸控點;若該二影像的其中之一中存在至少二觸控點,根據每一該影像中最左邊的邊界與最右邊的邊界產生一四邊形;計算對應該四邊形之一參考圓之一參考半徑;以及根據該參考半徑之大小變化判斷該手勢是否為一抓取手勢。

Description

光學觸控裝置及其手勢偵測方法
本發明關於一種光學觸控裝置及其手勢偵測方法,尤指一種可快速且準確地判斷出抓取手勢之光學觸控裝置及其手勢偵測方法。
由於目前的消費性電子產品皆以輕、薄、短、小為設計之方向,因此,產品上已無空間容納如滑鼠、鍵盤等傳統輸入之工具。隨著光學觸控裝置技術的進步,在各種消費性電子產品中,例如顯示器、一體機(All in One)、行動電話、個人數位助理(Personal Digital Assistant,PDA)等產品已廣泛地使用光學觸控裝置作為其資料輸入之工具。目前,光學觸控裝置相較其他觸控技術,如電阻式、電容式、超音波式或投影影像式等,特別是在大尺寸的觸控顯示領域,具有更低成本與更易達成的優勢。
習知的光學觸控裝置利用相對設置之二影像感測單元以感測一觸控物件(例如:手指或觸控筆)於指示平面上所指示的觸控點。當影像感測單元於指示平面上感測到觸控物件,光學觸控裝置之處理單元即可計算出觸控物件所指示的觸控點。當習知的光學觸控裝置使用在單手指之單點觸控時,可以較簡單地利用三角定位方式計算出該手指之觸控點位置,但一旦遇到二指或多指之多點觸控時(尤其是抓取手勢之觸控操作),在辨視與計算觸控點位置上就較為複雜,且易產生誤判或干擾之狀況而需加以解決。
本發明提供一種可快速且準確地判斷出抓取手勢之光學觸控裝置及其手勢偵測方法,以解決上述之問題。
本發明之申請專利範圍揭露一種手勢偵測方法,適用於一光學觸控裝置,該光學觸控裝置包含一指示平面以及二影像感測單元,該二影像感測單元設置於該指示平面一側之二角落,該手勢偵測方法包含藉由該二影像感測單元感測關於一手勢之二影像,其中該手勢於該指示平面上進行操作;判斷該二影像的其中之一中是否存在至少二觸控點;若該二影像的其中之一中存在至少二觸控點,根據每一該影像中最左邊的邊界與最右邊的邊界產生一四邊形;計算對應該四邊形之一參考圓之一參考半徑;以及根據該參考半徑之大小變化判斷該手勢是否為一抓取手勢。
本發明之申請專利範圍另揭露該參考半徑經由下列公式計算得到:r=2A/S,r表示該參考半徑,A表示該四邊形之面積,S表示該四邊形之周長。
本發明之申請專利範圍另揭露該手勢偵測方法另包含計算該參考圓之一參考圓心;以及根據該參考圓心之位置變化計算該手勢之一移動路徑。
本發明之申請專利範圍另揭露該手勢偵測方法另包含計算介於每一該影像中最左邊的邊界與最右邊的邊界之間之角平分線,以得到二角平分線;以及以該二角平分線之交點作為該參考圓心。
本發明之申請專利範圍另揭露當該參考半徑由大變小時,判斷該手勢為一抓取手勢。
本發明之申請專利範圍另揭露當該參考半徑由小變大時,判斷該手勢為一張開手勢。
本發明之申請專利範圍另揭露該手勢偵測方法另包含提供一對照表,其中該對照表記錄每一該影像感測單元之一感測範圍以及對應該感測範圍之一角度範圍;以及根據每一該影像中最左邊的邊界與最右邊的邊界查詢該對照表,且根據該感測範圍與該角度範圍計算出四直線,其中該四直線彼此相交而產生該四邊形。
本發明之申請專利範圍另揭露一種光學觸控裝置,其包含一指示 平面,一手勢於該指示平面上進行操作;二影像感測單元,設置於該指示平面一側之二角落,該二影像感測單元用以感測關於該手勢之二影像;以及一處理單元,電性連接於該二影像感測單元,用以判斷該二影像的其中之一中是否存在至少二觸控點,若該二影像的其中之一中存在至少二觸控點,該處理單元根據每一該影像中最左邊的邊界與最右邊的邊界產生一四邊形,計算對應該四邊形之一參考圓之一參考半徑,且根據該參考半徑之大小變化判斷該手勢是否為一抓取手勢。
本發明之申請專利範圍另揭露該參考半徑經由下列公式計算得到:r=2A/S,r表示該參考半徑,A表示該四邊形之面積,S表示該四邊形之周長。
本發明之申請專利範圍另揭露該處理單元計算該參考圓之一參考圓心且根據該參考圓心之位置變化計算該手勢之一移動路徑。
本發明之申請專利範圍另揭露該處理單元計算介於每一該影像中最左邊的邊界與最右邊的邊界之間之角平分線,以得到二角平分線,且以該二角平分線之交點作為該參考圓心。
本發明之申請專利範圍另揭露當該參考半徑由大變小時,該處理單元判斷該手勢為一抓取手勢。
本發明之申請專利範圍另揭露當該參考半徑由小變大時,該處理單元判斷該手勢為一張開手勢。
本發明之申請專利範圍另揭露該光學觸控裝置另包含一儲存單元,電性連接於該處理單元,用以儲存一對照表,其中該對照表記錄每一該影像感測單元之一感測範圍以及對應該感測範圍之一角度範圍,該處理單元根據每一該影像中最左邊的邊界與最右邊的邊界查詢該對照表,且根據該感測範圍與該角度範圍計算出四直線,該四直線彼此相交而產生該四邊形。
綜上所述,本發明係將於指示平面上進行操作之手勢的多個觸控點視為一個圓形(亦即上述之參考圓),再利用此參考圓之參考半徑之大小變 化判斷此手勢是否為抓取手勢。藉此,無論此手勢於指示平面上的何處進行操作,本發明皆可快速且準確地判斷出此手勢是否為抓取手勢。此外,本發明還可利用參考圓之參考圓心之位置變化計算手勢之移動路徑,再根據手勢之移動路徑判斷手勢之移動方向與軌跡形狀,進而提供多樣化的手勢定義及其應用。
關於本發明之優點與精神可以藉由以下的發明詳述及所附圖式得到進一步的瞭解。
1‧‧‧光學觸控裝置
10‧‧‧指示平面
10a、10b、10c‧‧‧側邊
12a、12b‧‧‧影像感測單元
14‧‧‧處理單元
16‧‧‧儲存單元
160‧‧‧對照表
18‧‧‧四邊形
20‧‧‧參考圓
I1、I2‧‧‧影像
B1-B4‧‧‧邊界
L1-L4‧‧‧直線
L5-L6‧‧‧角平分線
T1-T5‧‧‧觸控點
O‧‧‧參考圓心
r‧‧‧參考半徑
P0-Pn‧‧‧感測範圍
θ0n‧‧‧角度範圍
S10-S24‧‧‧步驟
第1圖為本發明一實施例之光學觸控裝置的示意圖。
第2圖為五個觸控點於指示平面上進行抓取手勢之觸控操作的示意圖
第3圖為本發明一實施例之手勢偵測方法的流程圖。
請參閱第1圖以及第2圖,第1圖為本發明一實施例之光學觸控裝置1的示意圖,第2圖為五個觸控點T1-T5於指示平面10上進行抓取手勢之觸控操作的示意圖。
如第1圖所示,光學觸控裝置1包含一指示平面10、二影像感測單元12a、12b、一處理單元14以及一儲存單元16。二影像感測單元12a、12b分別設置於指示平面10一側之二角落。處理單元14電性連接於二影像感測單元12a、12b與儲存單元16。於實際應用中,指示平面10可為顯示面板(例如,液晶顯示面板)、白板、黑板、投影屏幕或其它平面,供使用者進行觸控操作;影像感測單元12a、12b可為電荷耦合元件(Charge-coupled Device,CCD)感測器或互補式金屬氧化半導體(Complementary Metal-Oxide Semiconductor,CMOS)感測器,但不以此為限;處理單元14可為具有資料運算/處理功能之處理器或控制器;儲存單元16可為硬碟、記憶體或其它具有資料儲存功能之儲存裝置。於實際應用中,可在二影像感測單元12a、12b旁設置發光單元(例 如,發光二極體),或在指示平面10周圍設置光條(light bar),以提供一般觸控操作所需之光線。當在二影像感測單元14旁設置發光單元時,可在指示平面10周圍設置反光邊框或吸光邊框,視實際應用而定。
儲存單元16用以儲存一對照表160,其中對照表160記錄每一個影像感測單元12a、12b之一感測範圍以及對應感測範圍之一角度範圍,如下表1所示。於實際應用中,影像感測單元12a之感測範圍P0-Pn涵蓋指示平面10之側邊10a、10c之範圍,且對應的角度範圍θ0n為側邊10a、10c之夾角0°-90°;影像感測單元12b之感測範圍P0-Pn涵蓋指示平面10之側邊10b、10c之範圍,且對應的角度範圍θ0n為側邊10b、10c之夾角0°-90°。
如第2圖所示,當使用者以一手勢於指示平面10上進行抓取手勢之觸控操作時,此手勢於指示平面10上形成五個觸控點T1-T5,其中五個觸控點T1-T5係分別對應使用者之五個手指。此時,二影像感測單元12a、12b分別感測到關於此手勢之二影像I1、I2,其中觸控點T3-T5於影像I1中相互重疊,且觸控點T1-T4於影像I2中相互重疊。接著,處理單元14會判斷二影像I1、I2的其中之一中是否存在至少二觸控點。若二影像I1、I2的其中之 一中存在至少二觸控點,本發明之手勢判斷模式即會啟動。此時,處理單元14即會根據每一影像I1、I2中最左邊的邊界與最右邊的邊界產生一四邊形18。如第2圖所示,二影像I1、I2中皆存在至少二觸控點,其中影像I1中最左邊的邊界為B1,影像I1中最右邊的邊界為B2,影像I2中最左邊的邊界為B3,且影像I2中最右邊的邊界為B4。處理單元14即會根據影像I1中最左邊的邊界B1與最右邊的邊界B2且根據影像I2中最左邊的邊界B3與最右邊的邊界B4產生四邊形18。
於此實施例中,處理單元14可根據每一影像I1、I2中最左邊的邊界與最右邊的邊界查詢對照表160,且根據對照表160中的感測範圍P0-Pn與角度範圍θ0n計算出四直線L1-L4,其中四直線L1-L4彼此相交而產生四邊形18。如第2圖所示,處理單元14可根據影像I1中最左邊的邊界B1與最右邊的邊界B2查詢對照表160,且根據對照表160中的感測範圍P0-Pn與角度範圍θ0n計算出二直線L1-L2。同理,處理單元14可根據影像I2中最左邊的邊界B3與最右邊的邊界B4查詢對照表160,且根據對照表160中的感測範圍P0-Pn與角度範圍θ0n計算出二直線L3-L4。需說明的是,如何根據對照表160中的感測範圍P0-Pn與角度範圍θ0n計算出四直線L1-L4,係為習知技藝之人所熟知,在此不再贅述。接著,處理單元14可經由下列公式一計算對應四邊形18之一參考圓20之一參考半徑。
公式一:r=2A/S,其中r表示上述之參考半徑,A表示四邊形18之面積,且S表示四邊形18之周長。
藉由上述之方式,處理單元14即可於不同的時間點計算出對應的參考半徑r,再根據參考半徑r之大小變化判斷此手勢是否為一抓取手勢。更詳細地說,當參考半徑r於時間點t0-t1由大變小時(例如,時間點t0時的參考半徑為10公分,且時間點t1時的參考半徑為5公分),表示五個觸控點T1-T5在指示平面10上相對靠近,處理單元14即會判斷此手勢為一抓取手勢,進而執行對應抓取手勢的功能;當參考半徑r於時間點t0-t1由小變大時 (例如,時間點t0時的參考半徑為5公分,且時間點t1時的參考半徑為10公分),表示五個觸控點T1-T5在指示平面10上相對遠離,處理單元14即會判斷此手勢為一張開手勢,進而執行對應張開手勢的功能。
此外,處理單元14還可計算參考圓20之一參考圓心O且根據參考圓心O之位置變化計算此手勢之一移動路徑。於此實施例中,處理單元14可計算介於每一影像I1、I2中最左邊的邊界與最右邊的邊界之間之角平分線,以得到二角平分線L5、L6,且以二角平分線L5、L6之交點作為參考圓心O。如第2圖所示,處理單元14可計算介於影像I1中最左邊的邊界B1(對應直線L1)與最右邊的邊界B2(對應直線L2)之間之角平分線L5,且計算介於影像I2中最左邊的邊界B3(對應直線L3)與最右邊的邊界B4(對應直線L4)之間之角平分線L6。藉此,處理單元14即可於不同的時間點計算出對應的參考圓心O,根據參考圓心O之位置變化計算手勢之移動路徑,再根據手勢之移動路徑判斷手勢之移動方向與軌跡形狀,進而提供多樣化的手勢定義及其應用(例如,向上手勢、向下手勢、向左手勢、向右手勢、畫圓手勢等)。於此實施例中,本發明可記錄在一段時間內計算出的所有參考圓心O之位置資料,再利用隨機抽樣一致算法(RANdom SAmple Consensus,RANSAC)計算手勢之移動路徑,其中隨機抽樣一致算法為習知技藝之人所熟知,在此不再贅述。
於另一實施例中,本發明亦可使參考圓20與四直線L1-L4中的任二直線相切,再以二切點的法線交點作為參考圓20之參考圓心O。
請參閱第3圖,第3圖為本發明一實施例之手勢偵測方法的流程圖。第3圖中的手勢偵測方法適用於第1圖與第2圖中的光學觸控裝置1。此外,第3圖中的手勢偵測方法之控制邏輯可以電路設計以及軟體設計來實現。首先,執行步驟S10,藉由二影像感測單元12a、12b感測關於手勢之二影像I1、I2,其中手勢於指示平面10上進行操作。接著,執行步驟S12,判斷二影像I1、I2的其中之一中是否存在至少二觸控點。若二影像I1、I2的其 中之一中存在至少二觸控點,執行步驟S14,根據每一影像I1、I2中最左邊的邊界與最右邊的邊界產生四邊形18。接著,執行步驟S16,計算對應四邊形18之參考圓20之參考半徑r。接著,執行步驟S18,根據參考半徑r之大小變化判斷手勢是否為抓取手勢。當參考半徑r由大變小時,執行步驟S20,判斷手勢為抓取手勢。當參考半徑r由小變大時,執行步驟S22,判斷手勢為張開手勢。需說明的是,若於步驟S12中判斷二影像I1、I2中皆不存在至少二觸控點,執行步驟S24,進入一般觸控模式。此外,關於本發明之手勢偵測方法的其它工作原理係如上所述,在此不再贅述。
綜上所述,本發明係將於指示平面上進行操作之手勢的多個觸控點視為一個圓形(亦即上述之參考圓),再利用此參考圓之參考半徑之大小變化判斷此手勢是否為抓取手勢。藉此,無論此手勢於指示平面上的何處進行操作,本發明皆可快速且準確地判斷出此手勢是否為抓取手勢。此外,本發明還可利用參考圓之參考圓心之位置變化計算手勢之移動路徑,再根據手勢之移動路徑判斷手勢之移動方向與軌跡形狀,進而提供多樣化的手勢定義及其應用。
以上所述僅為本發明之較佳實施例,凡依本發明申請專利範圍所做之均等變化與修飾,皆應屬本發明之涵蓋範圍。
1‧‧‧光學觸控裝置
10‧‧‧指示平面
10a、10b、10c‧‧‧側邊
12a、12b‧‧‧影像感測單元
14‧‧‧處理單元
16‧‧‧儲存單元
160‧‧‧對照表
18‧‧‧四邊形
20‧‧‧參考圓
I1、I2‧‧‧影像
B1-B4‧‧‧邊界
L1-L4‧‧‧直線
L5-L6‧‧‧角平分線
T1-T5‧‧‧觸控點
O‧‧‧參考圓心
r‧‧‧參考半徑
P0-Pn‧‧‧感測範圍
θ0n‧‧‧角度範圍

Claims (14)

  1. 一種手勢偵測方法,適用於一光學觸控裝置,該光學觸控裝置包含一指示平面以及二影像感測單元,該二影像感測單元設置於該指示平面一側之二角落,該手勢偵測方法包含:藉由該二影像感測單元感測關於一手勢之二影像,其中該手勢於該指示平面上進行操作;判斷該二影像的其中之一中是否存在至少二觸控點;若該二影像的其中之一中存在至少二觸控點,根據每一該影像中最左邊的邊界與最右邊的邊界產生一四邊形;計算對應該四邊形之一參考圓之一參考半徑;以及根據該參考半徑之大小變化判斷該手勢是否為一抓取手勢。
  2. 如請求項1所述之手勢偵測方法,其中該參考半徑經由下列公式計算得到:r=2A/S,r表示該參考半徑,A表示該四邊形之面積,S表示該四邊形之周長。
  3. 如請求項1所述之手勢偵測方法,另包含:計算該參考圓之一參考圓心;以及根據該參考圓心之位置變化計算該手勢之一移動路徑。
  4. 如請求項3所述之手勢偵測方法,另包含:計算介於每一該影像中最左邊的邊界與最右邊的邊界之間之角平分線,以得到二角平分線;以及以該二角平分線之交點作為該參考圓心。
  5. 如請求項1所述之手勢偵測方法,其中當該參考半徑由大變小時,判斷該手勢為一抓取手勢。
  6. 如請求項1所述之手勢偵測方法,其中當該參考半徑由小變大時,判斷該手勢為一張開手勢。
  7. 如請求項1所述之手勢偵測方法,另包含:提供一對照表,其中該對照表記錄每一該影像感測單元之一感測範圍以及對應該感測範圍之一角度範圍;以及根據每一該影像中最左邊的邊界與最右邊的邊界查詢該對照表,且根據該感測範圍與該角度範圍計算出四直線,其中該四直線彼此相交而產生該四邊形。
  8. 一種光學觸控裝置,包含:一指示平面,一手勢於該指示平面上進行操作;二影像感測單元,設置於該指示平面一側之二角落,該二影像感測單元用以感測關於該手勢之二影像;以及一處理單元,電性連接於該二影像感測單元,用以判斷該二影像的其中之一中是否存在至少二觸控點,若該二影像的其中之一中存在至少二觸控點,該處理單元根據每一該影像中最左邊的邊界與最右邊的邊界產生一四邊形,計算對應該四邊形之一參考圓之一參考半徑,且根據該參考半徑之大小變化判斷該手勢是否為一抓取手勢。
  9. 如請求項8所述之光學觸控裝置,其中該參考半徑經由下列公式計算得到:r=2A/S,r表示該參考半徑,A表示該四邊形之面積,S表示該四邊形之周長。
  10. 如請求項8所述之光學觸控裝置,其中該處理單元計算該參考圓之一參考圓心且根據該參考圓心之位置變化計算該手勢之一移動路徑。
  11. 如請求項10所述之光學觸控裝置,其中該處理單元計算介於每一該影像中最左邊的邊界與最右邊的邊界之間之角平分線,以得到二角平分線,且以該二角平分線之交點作為該參考圓心。
  12. 如請求項8所述之光學觸控裝置,其中當該參考半徑由大變小時,該處理單元判斷該手勢為一抓取手勢。
  13. 如請求項8所述之光學觸控裝置,其中當該參考半徑由小變大時,該處 理單元判斷該手勢為一張開手勢。
  14. 如請求項8所述之光學觸控裝置,另包含一儲存單元,電性連接於該處理單元,用以儲存一對照表,其中該對照表記錄每一該影像感測單元之一感測範圍以及對應該感測範圍之一角度範圍,該處理單元根據每一該影像中最左邊的邊界與最右邊的邊界查詢該對照表,且根據該感測範圍與該角度範圍計算出四直線,該四直線彼此相交而產生該四邊形。
TW102136249A 2013-10-07 2013-10-07 光學觸控裝置及其手勢偵測方法 TWI502413B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
TW102136249A TWI502413B (zh) 2013-10-07 2013-10-07 光學觸控裝置及其手勢偵測方法
CN201310493502.8A CN104516594B (zh) 2013-10-07 2013-10-21 光学触控装置及其手势检测方法
US14/093,508 US9116574B2 (en) 2013-10-07 2013-12-01 Optical touch device and gesture detecting method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW102136249A TWI502413B (zh) 2013-10-07 2013-10-07 光學觸控裝置及其手勢偵測方法

Publications (2)

Publication Number Publication Date
TW201514774A true TW201514774A (zh) 2015-04-16
TWI502413B TWI502413B (zh) 2015-10-01

Family

ID=52776564

Family Applications (1)

Application Number Title Priority Date Filing Date
TW102136249A TWI502413B (zh) 2013-10-07 2013-10-07 光學觸控裝置及其手勢偵測方法

Country Status (3)

Country Link
US (1) US9116574B2 (zh)
CN (1) CN104516594B (zh)
TW (1) TWI502413B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI694360B (zh) * 2017-09-28 2020-05-21 宏達國際電子股份有限公司 輸入介面裝置、控制方法及非暫態電腦可讀取媒體

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
LU92408B1 (en) * 2014-03-21 2015-09-22 Olivier Raulot User gesture recognition
TWI612445B (zh) * 2015-09-21 2018-01-21 緯創資通股份有限公司 光學觸控裝置及觸控位置的決定方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
CN102203850A (zh) * 2008-09-12 2011-09-28 格斯图尔泰克公司 相对于用户而定向所显示的元素
WO2010091496A1 (en) * 2009-01-05 2010-08-19 Smart Technologies Ulc Gesture recognition method and interactive input system employing same
TWI393037B (zh) * 2009-02-10 2013-04-11 Quanta Comp Inc 光學觸控顯示裝置及其操作方法
CN101833401B (zh) * 2009-03-10 2012-04-18 广达电脑股份有限公司 光学触控显示装置及其操作方法
US7932899B2 (en) * 2009-09-01 2011-04-26 Next Holdings Limited Determining the location of touch points in a position detection system
CN102033656B (zh) * 2009-09-28 2013-01-09 原相科技股份有限公司 手势辨识方法以及使用该方法的互动系统
US8749499B2 (en) * 2010-06-08 2014-06-10 Sap Ag Touch screen for bridging multi and/or single touch points to applications
TWI423099B (zh) * 2010-08-11 2014-01-11 Qisda Corp 判斷光學觸控螢幕實際被觸控的位置之方法
CN102902469B (zh) * 2011-07-25 2015-08-19 宸鸿光电科技股份有限公司 手势识别方法及触控系统
CN103092431B (zh) * 2011-11-08 2015-09-02 原相科技股份有限公司 光学式触控系统
US9002058B2 (en) 2011-12-01 2015-04-07 Microvision, Inc. Scanned image projection system with gesture control input

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI694360B (zh) * 2017-09-28 2020-05-21 宏達國際電子股份有限公司 輸入介面裝置、控制方法及非暫態電腦可讀取媒體

Also Published As

Publication number Publication date
CN104516594A (zh) 2015-04-15
US20150097811A1 (en) 2015-04-09
US9116574B2 (en) 2015-08-25
TWI502413B (zh) 2015-10-01
CN104516594B (zh) 2017-07-07

Similar Documents

Publication Publication Date Title
US9423895B2 (en) Dual touch surface multiple function input device
US8797271B2 (en) Input aggregation for a multi-touch device
US9292114B2 (en) Dual touch surface multiple function input device
KR101521337B1 (ko) 재배치가능한 터치면 상의 제스처 방위의 검출
TWI511026B (zh) 行動裝置及調整其視窗大小的方法
US20120120015A1 (en) Representative image
TW201426693A (zh) 軟性顯示裝置的顯示方法與軟性顯示裝置
TWI470510B (zh) 光學觸控裝置及觸控感測方法
WO2014112132A1 (ja) 情報機器及び情報処理方法
TWI581127B (zh) 輸入裝置以及電子裝置
EP2691839A1 (en) Method of identifying translation gesture and device using the same
TWI502413B (zh) 光學觸控裝置及其手勢偵測方法
US9110588B2 (en) Optical touch device and method for detecting touch point
TW201504929A (zh) 電子裝置及其手勢控制方法
JP5780823B2 (ja) 表示装置、表示装置の制御方法及びプログラム
TW201516806A (zh) 三維觸控裝置
US20090237357A1 (en) Method And Cursor-Generating Device For Generating A Cursor Extension On A Screen Of An Electronic Device
WO2020107231A1 (zh) 触摸键盘调整方法、电子设备及计算机可读存储介质
TWI553531B (zh) 光學觸控裝置及觸控點座標之計算方法
TWI444878B (zh) 表面電容式觸控面板及其控制方法
TWI493431B (zh) 指向元件之可調整方向提示方法及系統
TWI657357B (zh) 光學觸控裝置及光學觸控方法
TWI611343B (zh) 觸控螢幕的操作方法及使用此操作方法的顯示模組
TWI471813B (zh) 觸控裝置及其觸控點偵測方法
TWI566128B (zh) 虛擬觸控裝置