TW201917525A - 非接觸式輸入裝置及方法、能進行非接觸式輸入的顯示器 - Google Patents
非接觸式輸入裝置及方法、能進行非接觸式輸入的顯示器 Download PDFInfo
- Publication number
- TW201917525A TW201917525A TW106126292A TW106126292A TW201917525A TW 201917525 A TW201917525 A TW 201917525A TW 106126292 A TW106126292 A TW 106126292A TW 106126292 A TW106126292 A TW 106126292A TW 201917525 A TW201917525 A TW 201917525A
- Authority
- TW
- Taiwan
- Prior art keywords
- touch
- display screen
- gesture
- input
- distance
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/045—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using resistive elements, e.g. a single continuous surface or two parallel surfaces put in contact
-
- G—PHYSICS
- G02—OPTICS
- G02F—OPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
- G02F1/00—Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
- G02F1/01—Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour
- G02F1/13—Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour based on liquid crystals, e.g. single liquid crystal display cells
- G02F1/133—Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
- G02F1/1333—Constructional arrangements; Manufacturing methods
- G02F1/13338—Input devices, e.g. touch panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Nonlinear Science (AREA)
- Mathematical Physics (AREA)
- Chemical & Material Sciences (AREA)
- Crystallography & Structural Chemistry (AREA)
- Optics & Photonics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Ophthalmology & Optometry (AREA)
- General Health & Medical Sciences (AREA)
- Position Input By Displaying (AREA)
Abstract
一種非接觸式輸入裝置,與一透明的觸控面板以及一顯示幕通信,該裝置包括存儲器,存儲多條指令;處理器,用於載入所述指令以執行步驟:當用戶在觸控面板上的一觸控位置輸入觸控手勢時,獲取人眼位置、人眼與觸控面板之間的第一距離、顯示幕與觸控面板之間的第二距離、以及觸控手勢的類型以及其在該觸控面板上的觸控位置;確定觸控手勢在顯示幕上的輸入位置,輸入位置位於人眼位置與觸控位置的連線的延長線與顯示幕的交點;生成與觸控手勢的類型相對應的手勢指令;將手勢指令與輸入位置發送至顯示幕,觸發顯示幕在輸入位置執行手勢指令。
Description
本發明涉及顯示幕輸入領域,尤其涉及一種非接觸式輸入裝置及方法、以及能進行非接觸式輸入的顯示器。
目前,越來越多的場合需要使用巨型螢幕、懸掛式螢幕以及投影螢幕。使用者通常難以直接接觸該類螢幕,故也難以藉由接觸式輸入的方式在該類螢幕上進行手勢操作。
有鑑於此,有必要提供一種非接觸式輸入裝置及方法,能夠解決上述問題。
另,還有必要提供一種能進行非接觸式輸入的顯示器。
本發明提供一種非接觸式輸入裝置,能夠與一透明的觸控面板以及一顯示幕進行通信,該非接觸式輸入裝置包括:一存儲器,用於存儲多條指令;以及一處理器,用於載入所述指令以執行如下步驟:當用戶在該觸控面板上的一觸控位置輸入一觸控手勢時,從該觸控面板處獲取人眼位置、人眼與該觸控面板之間的一第一距離、該顯示幕與該觸控面板之間的一第二距離、以及該觸控手勢的類型以及該觸控手勢在該觸控面板上的觸控位置;根據該人眼位置、該第一距離、該第二距離以及該觸控位置確定該觸控手勢在該顯示幕上的輸入位置,其中,該輸入位置位於該人眼位置與該觸控位置的連線的延長線與該顯示幕的交點;生成與該觸控手勢的類型相對應的手勢指令;以及將該手勢指令與該輸入位置發送至該顯示幕,從而觸發該顯示幕在該輸入位置執行與該手勢指令。
本發明還提供一種非接觸式輸入方法,應用於一非接觸式輸入裝置中,該非接觸式輸入裝置能夠與一透明的觸控面板以及一顯示幕進行通信,該非接觸式輸入方法包括:當用戶在該觸控面板上的一觸控位置輸入一觸控手勢時,從該觸控面板處獲取人眼位置、人眼與該觸控面板之間的一第一距離、該顯示幕與該觸控面板之間的一第二距離、以及該觸控手勢的類型以及該觸控手勢在該觸控面板上的觸控位置;根據該人眼位置、該第一距離、該第二距離以及該觸控位置確定該觸控手勢在該顯示幕上的輸入位置,其中,該輸入位置位於該人眼位置與該觸控位置的連線的延長線與該顯示幕的交點;生成與該觸控手勢的類型對應的手勢指令;以及將該手勢指令與該輸入位置發送至該顯示幕,從而觸發該顯示幕在該輸入位置執行該手勢指令。
本發明還提供一種能進行非接觸式輸入的顯示器,包括一顯示幕,該顯示器還包括一非接觸式輸入裝置,該非接觸式輸入裝置還能夠與一透明的觸控面板進行通信,該非接觸式輸入裝置包括:一存儲器,用於存儲多條指令;以及一處理器,用於載入所述指令以執行如下步驟:當用戶在該觸控面板上的一觸控位置輸入一觸控手勢時,從該觸控面板處獲取人眼位置、人眼與該觸控面板之間的一第一距離、該顯示幕與該觸控面板之間的一第二距離、以及該觸控手勢的類型以及該觸控手勢在該觸控面板上的觸控位置;根據該人眼位置、該第一距離、該第二距離以及該觸控位置確定該觸控手勢在該顯示幕上的輸入位置,其中,該輸入位置位於該人眼位置與該觸控位置的連線的延長線與該顯示幕的交點;生成與該觸控手勢的類型相對應的手勢指令;以及將該手勢指令與該輸入位置發送至該顯示幕,從而觸發該顯示幕在該輸入位置執行該手勢指令。
相較於現有技術,利用本發明的非接觸式輸入裝置、方法及顯示器,用戶可藉由移動該觸控面板並輔以人眼觀察的方式找到所需的觸控手勢在該顯示幕上的輸入位置,然後沿視線方向在該觸控面板上的對應位置進行觸控手勢操作,如此控制器便可將該觸控手勢同步至該顯示幕的該輸入位置上,從而使該顯示幕在輸入位置執行與該觸控手勢對應的手勢指令。
圖1為本發明一較佳實施例中的非接觸式輸入系統1(以下簡稱為:“系統1”)的結構示意圖。該系統1包括一顯示幕10、一透明的觸控面板20以及一連接於該顯示幕10以及該觸控面板20的非接觸式輸入裝置30(以下簡稱為:“裝置30”)。其中,該裝置30可藉由有線或無線的方式與該顯示幕10以及該觸控面板20進行通信。其中,該顯示幕10可以是巨型顯示幕、懸掛式顯示幕以及投影屏等。
該觸控面板20包括一透明的觸控板21以及安裝於該觸控板21上的一眼球定位器22以及一距離感測器23。該觸控板21包括可供用戶進行觸控手勢操作的一操作面210。
當用戶想要在該顯示幕10上一輸入位置進行輸入操作時,用戶可望向該顯示幕10上的該輸入位置,並將該觸控面板20放置於視線前方。即,用戶可隔著該觸控板21望向該顯示幕10上的輸入位置。然後,用戶便可在該觸控板21的操作面210上對應該輸入位置的觸控位置(即人眼與該輸入位置的連線與該觸控板21上的交點)上輸入一觸控手勢。即,該輸入位置為人眼與觸控位置的連線的延長線與該顯示幕10的交點。其中,所述觸控手勢可以是按一下、按兩下、滑動、縮放以及字元輸入等。
該觸控板21用於當用戶在該觸控板21上輸入該觸控手勢時,確定該觸控手勢的類型以及該觸控手勢在該觸控板21上的觸控位置。
該眼球定位器22用於當用戶在該觸控板21上輸入該觸控手勢時,偵測人眼位置。在本實施方式中,該眼球定位器22為一攝像頭,其用於對位於該觸控面板20前方的使用者採集圖像,對所採集的圖像進行圖像分析以識別出人臉區域,再採用人眼檢測演算法在該人臉區域中檢測出人眼位置。更具體的,該眼球定位器22包括一鏡頭221、位於該鏡頭221的成像面上的一影像感測器222、以及與該影像感測器222電性連接的一影像處理器(圖未示)。當該用戶位於該觸控面板20前方時,用戶反射的光線經過該鏡頭221後會聚於該影像感測器222並在該影像感測器222上形成圖像。該影像處理器用於對所採集的圖像進行圖像分析以識別出人臉區域,再在該人臉區域中檢測出人眼位置。其中,該鏡頭221的中心大致位於該觸控板21的操作面210上,即該鏡頭221的中心與該操作面210近似共面。
該距離感測器23用於偵測人眼與該觸控板21之間的第一距離(即為用戶與該觸控板21之間的距離),並偵測該顯示幕10與該觸控板21之間的第二距離。在本實施方式中,該距離感測器23為一紅外線感測器。
請參閱圖2,該裝置30包括一存儲器31和一處理器32。所述存儲器31包括一個或多個由程式碼組成的程式模組。所述處理器32用於載入並執行所述存儲器31的各個程式模組,從而當用戶在該觸控板21上輸入該觸控手勢時控制該顯示幕10在所需的輸入位置執行與該觸控手勢對應的操作。
所述存儲器31中的程式模組包括一獲取模組311、一輸入位置確定模組312、一手勢指令生成模組313以及一傳輸模組314。以下將結合圖3說明各程式模組的具體功能。
圖3為本發明一較佳實施例中的非接觸式輸入方法的流程圖,該方法應用於上述裝置30中,該方法包括如下步驟:
步驟S31,該獲取模組311從該觸控面板20處獲取該人眼位置、該第一距離、該第二距離、該觸控手勢的類型以及在該觸控板21上的觸控位置。
步驟S32,該輸入位置確定模組312根據該人眼位置、該第一距離、該第二距離以及該觸控位置確定該顯示幕10所需的輸入位置。在本實施方式中,該輸入位置確定模組312以該人眼位置為座標原點建立三維坐標系X-Y-Z,然後確定該觸控位置在該三維坐標系X-Y-Z中的座標,再根據該第一距離、該第二距離以及該觸控位置的座標確定該觸控手勢在該顯示幕上的輸入位置在該三維坐標系X-Y-Z中的座標。
具體的,如圖4所示,為便於計算,以X軸方向垂直該顯示幕10的延伸方向(即X軸方向平行於地面)為例進行說明。可以理解,三維坐標系X-Y-Z的X軸方向並不局限於垂直該顯示幕10的延伸方向。定義該人眼位置O的座標為(0,0,0),該眼球定位器22的鏡頭221在該三維坐標系X-Y-Z中的座標為(x0
,y0
,z0
),該第一距離為D1
。那麼,該鏡頭221在該三維坐標系X-Y-Z中的座標(x0
,y0
,z0
)可藉由如下公式計算:
其中,dy
為該影像感測器222上所形成的圖像中人眼與圖像中心點的距離在Y軸上的分量,dz
為影像感測器222上所形成的圖像中人眼與圖像中心點的距離在Z軸上的分量,f為該鏡頭221的焦距(廠家設定),θx
為人眼與該鏡頭221的連線與X軸之間的夾角,θz
為人眼與該鏡頭221的連線與Z軸之間的夾角。
進一步定義該觸控手勢在該操作面210上相對於該鏡頭221的觸控位置T為(x1
,y1
,z1
),那麼,該觸控位置T在該三維坐標系X-Y-Z中的座標(x1
’,y1
’,z1
’)可藉由如下公式計算:
如圖5所示,進一步定義該第二距離為D2
。那麼,該輸入位置I在該三維坐標系X-Y-Z中的座標(x2
,y2
,z2
)可藉由如下公式計算:
當然,三維坐標系X-Y-Z的座標原點也並不局限於該人眼位置。在另一實施方式中,該輸入位置確定模組312也可以該眼球定位器22的位置為座標原點建立三維坐標系X-Y-Z,然後確定該觸控位置在該三維坐標系X-Y-Z中的座標,以及確定該顯示幕10所需的輸入位置在該三維坐標系X-Y-Z中的座標。此時,該輸入位置確定模組312的計算方法與前述類似,此不贅述。
步驟S33,該手勢指令生成模組313生成與該觸控手勢的類型對應的手勢指令。
步驟S34,該傳輸模組314將該手勢指令與該輸入位置發送至該顯示幕10,從而觸發該顯示幕10在該輸入位置執行該手勢指令。例如,若用戶想要按兩下打開該顯示幕10上一圖示,使用者可隔著該觸控板21找到該顯示幕10上的該圖示,並沿視線方向點擊該觸控板21上的對應位置(即人眼與該圖示的連線於該觸控板21上的焦點)。然後,該裝置30便可控制該顯示幕10打開該圖示。在本實施方式中,該傳輸模組314可藉由無線通訊的方式發送該手勢指令與該輸入位置。例如,該傳輸模組314藉由藍牙或WiFi通信的方式發送該手勢指令與該輸入位置。
請參閱圖6,本發明另一較佳實施例還提供一種非接觸式輸入系統1’(以下簡稱為:系統1’)。與上述系統1不同的是,該系統1’包括一能進行非接觸式輸入的顯示器40’以及一透明的觸控面板20’。該顯示器40’包括一顯示幕10’以及一非接觸式輸入裝置30’(以下簡稱為:裝置30’)。即,該裝置30’與該顯示幕10’均為該顯示器40’中的元件。該裝置30’的作用原理與該裝置30類似,此不贅述。
綜上,用戶可藉由移動該觸控面板20並輔以人眼觀察的方式找到在該顯示幕10上所需的輸入位置,然後沿視線方向在該觸控板21上的對應位置進行觸控手勢操作,如此該裝置30便可將該觸控手勢同步至該顯示幕10的該輸入位置上,從而使該顯示幕10所需的輸入位置執行與該觸控手勢對應的操作。
最後需要指出,以上實施例僅用以說明本發明的技術方案而非限制,儘管參照以上較佳實施例對本發明進行了詳細說明,本領域的普通技術人員應當理解,可以對本發明的技術方案進行修改或等同替換都不應脫離本發明技術方案的精神和範圍。
1,1’‧‧‧非接觸式輸入系統
10,10’‧‧‧顯示幕
20,20’‧‧‧觸控面板
21‧‧‧觸控板
22‧‧‧眼球定位器
23‧‧‧距離感測器
30,30’‧‧‧非接觸式輸入裝置
31‧‧‧存儲器
32‧‧‧處理器
40‧‧‧顯示器
210‧‧‧操作面
221‧‧‧鏡頭
222‧‧‧影像感測器
311‧‧‧獲取模組
312‧‧‧輸入位置確定模組
313‧‧‧手勢指令生成模組
314‧‧‧傳輸模組
圖1為本發明一較佳實施方式中的非接觸式輸入系統的結構示意圖。
圖2為圖1所示的非接觸式輸入系統所包括的非接觸式輸入裝置的硬體架構圖。
圖3是本發明一較佳實施方式中的非接觸式輸入方法的流程圖。
圖4為圖3所示的非接觸式輸入方法中確定觸控位置在三維坐標系中的座標的原理圖。
圖5為圖3所示的非接觸式輸入方法中確定顯示幕所需的輸入位置在三維坐標系中的座標的原理圖。
圖6為本發明另一較佳實施方式中的非接觸式輸入系統的結構示意圖。
無
無
Claims (9)
- 一種非接觸式輸入裝置,能夠與一透明的觸控面板以及一顯示幕進行通信,該非接觸式輸入裝置包括: 一存儲器,用於存儲多條指令;以及 一處理器,用於載入所述指令以執行如下步驟: 當用戶在該觸控面板上的一觸控位置輸入一觸控手勢時,從該觸控面板處獲取人眼位置、人眼與該觸控面板之間的一第一距離、該顯示幕與該觸控面板之間的一第二距離、以及該觸控手勢的類型以及該觸控手勢在該觸控面板上的觸控位置; 根據該人眼位置、該第一距離、該第二距離以及該觸控位置確定該觸控手勢在該顯示幕上的輸入位置,其中,該輸入位置位於該人眼位置與該觸控位置的連線的延長線與該顯示幕的交點; 生成與該觸控手勢的類型相對應的手勢指令;以及 將該手勢指令與該輸入位置發送至該顯示幕,從而觸發該顯示幕在該輸入位置執行該手勢指令。
- 申請專利範圍第1項所述的非接觸式輸入裝置,其中,所述“根據該人眼位置、該第一距離、該第二距離以及該觸控位置確定該觸控手勢在該顯示幕上的輸入位置”包括: 以該人眼位置為座標原點建立三維坐標系; 確定該觸控位置在該三維坐標系中的座標;以及 根據該第一距離、該第二距離以及該觸控位置的座標確定該觸控手勢在該顯示幕上的輸入位置在該三維坐標系中的座標。
- 申請專利範圍第1項所述的非接觸式輸入裝置,其中,將該手勢指令與該輸入位置藉由無線通訊的方式發送至該顯示幕。
- 申請專利範圍第1項所述的非接觸式輸入裝置,其中,該觸控手勢包括按一下、按兩下、滑動、縮放以及字元輸入中的至少一種。
- 一種非接觸式輸入方法,應用於一非接觸式輸入裝置中,該非接觸式輸入裝置能夠與一透明的觸控面板以及一顯示幕進行通信,該非接觸式輸入方法包括: 當用戶在該觸控面板上的一觸控位置輸入一觸控手勢時,從該觸控面板處獲取人眼位置、人眼與該觸控面板之間的一第一距離、該顯示幕與該觸控面板之間的一第二距離、以及該觸控手勢的類型以及該觸控手勢在該觸控面板上的觸控位置; 根據該人眼位置、該第一距離、該第二距離以及該觸控位置確定該觸控手勢在該顯示幕上的輸入位置,其中,該輸入位置位於該人眼位置與該觸控位置的連線的延長線與該顯示幕的交點; 生成與該觸控手勢的類型相對應的手勢指令;以及 將該手勢指令與該輸入位置發送至該顯示幕,從而觸發該顯示幕在該輸入位置執行該手勢指令。
- 申請專利範圍第5項所述的非接觸式輸入方法,其中,所述“根據該人眼位置、該第一距離、該第二距離以及該觸控位置確定該觸控手勢在該顯示幕上的輸入位置”包括: 以該人眼位置為座標原點建立三維坐標系; 確定該觸控位置在該三維坐標系中的座標;以及 根據該第一距離、該第二距離以及該觸控位置的座標確定該觸控手勢在該顯示幕上的輸入位置在該三維坐標系中的座標。
- 申請專利範圍第5項所述的非接觸式輸入方法,其中,將該手勢指令與該輸入位置藉由無線通訊的方式發送至該顯示幕。
- 申請專利範圍第5項所述的非接觸式輸入方法,其中,該觸控手勢包括按一下、按兩下、滑動、縮放以及字元輸入中的至少一種。
- 一種能進行非接觸式輸入的顯示器,包括一顯示幕,其改良在於,該顯示器還包括一能夠與該顯示幕進行通信的非接觸式輸入裝置,該非接觸式輸入裝置還能夠與一透明的觸控面板進行通信,該非接觸式輸入裝置包括: 一存儲器,用於存儲多條指令;以及 一處理器,用於載入所述指令以執行如下步驟: 當用戶在該觸控面板上的一觸控位置輸入一觸控手勢時,從該觸控面板處獲取人眼位置、人眼與該觸控面板之間的一第一距離、該顯示幕與該觸控面板之間的一第二距離、以及該觸控手勢的類型以及該觸控手勢在該觸控面板上的觸控位置; 根據該人眼位置、該第一距離、該第二距離以及該觸控位置確定該觸控手勢在該顯示幕上的輸入位置,其中,該輸入位置位於該人眼位置與該觸控位置的連線的延長線與該顯示幕的交點; 生成與該觸控手勢的類型相對應的手勢指令;以及 將該手勢指令與該輸入位置發送至該顯示幕,從而觸發該顯示幕在該輸入位置執行該手勢指令。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
??201710619146.8 | 2017-07-26 | ||
CN201710619146.8A CN109308113A (zh) | 2017-07-26 | 2017-07-26 | 非接触式输入装置及方法、能进行非接触式输入的显示器 |
Publications (1)
Publication Number | Publication Date |
---|---|
TW201917525A true TW201917525A (zh) | 2019-05-01 |
Family
ID=65038509
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW106126292A TW201917525A (zh) | 2017-07-26 | 2017-08-03 | 非接觸式輸入裝置及方法、能進行非接觸式輸入的顯示器 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20190033999A1 (zh) |
CN (1) | CN109308113A (zh) |
TW (1) | TW201917525A (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI734024B (zh) * | 2018-08-28 | 2021-07-21 | 財團法人工業技術研究院 | 指向判斷系統以及指向判斷方法 |
US11048532B1 (en) * | 2019-11-27 | 2021-06-29 | Amazon Technologies, Inc. | Device agnostic user interface generation based on device input type |
-
2017
- 2017-07-26 CN CN201710619146.8A patent/CN109308113A/zh active Pending
- 2017-08-03 TW TW106126292A patent/TW201917525A/zh unknown
- 2017-10-02 US US15/722,025 patent/US20190033999A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20190033999A1 (en) | 2019-01-31 |
CN109308113A (zh) | 2019-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9367138B2 (en) | Remote manipulation device and method using a virtual touch of a three-dimensionally modeled electronic device | |
US11029766B2 (en) | Information processing apparatus, control method, and storage medium | |
US20130257736A1 (en) | Gesture sensing apparatus, electronic system having gesture input function, and gesture determining method | |
WO2017041433A1 (zh) | 可穿戴设备的触控响应方法、装置及可穿戴设备 | |
JP6344530B2 (ja) | 入力装置、入力方法、及びプログラム | |
JP2006209359A (ja) | 指示動作認識装置、指示動作認識方法及び指示動作認識プログラム | |
JP2012238293A (ja) | 入力装置 | |
TW201430720A (zh) | 手勢辨識模組及手勢辨識方法 | |
TW201917525A (zh) | 非接觸式輸入裝置及方法、能進行非接觸式輸入的顯示器 | |
US20150058811A1 (en) | Control system for display screen, input apparatus and control method | |
JP2017219942A (ja) | 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム、接触検出方法、プログラム及び記憶媒体。 | |
TWI499938B (zh) | 觸控系統 | |
WO2018171363A1 (zh) | 一种位置信息确定方法、投影设备和计算机存储介质 | |
JP6746419B2 (ja) | 情報処理装置、及びその制御方法ならびにコンピュータプログラム | |
US9300908B2 (en) | Information processing apparatus and information processing method | |
JP6643825B2 (ja) | 装置及び方法 | |
KR20150076574A (ko) | 공간 터치 방법 및 공간 터치 장치 | |
JP2018063555A (ja) | 情報処理装置、情報処理方法及びプログラム | |
TWI444875B (zh) | 多點觸碰輸入裝置及其使用單點觸控感應板與影像感測器之資料融合之介面方法 | |
CN112445328A (zh) | 映射控制方法及装置 | |
JP7275885B2 (ja) | 表示装置、方向特定方法、プログラム | |
KR101695727B1 (ko) | 스테레오 비전을 이용한 위치검출 시스템 및 위치검출 방법 | |
TWI566128B (zh) | 虛擬觸控裝置 | |
KR20140062195A (ko) | 카메라 1 대를 사용하는 가상 터치 장치 | |
JP2015162079A (ja) | タッチ位置補正システムおよび自動取引装置 |