TW201435651A - 行動通訊裝置以及其人機介面操作方法 - Google Patents
行動通訊裝置以及其人機介面操作方法 Download PDFInfo
- Publication number
- TW201435651A TW201435651A TW102107807A TW102107807A TW201435651A TW 201435651 A TW201435651 A TW 201435651A TW 102107807 A TW102107807 A TW 102107807A TW 102107807 A TW102107807 A TW 102107807A TW 201435651 A TW201435651 A TW 201435651A
- Authority
- TW
- Taiwan
- Prior art keywords
- contact
- display
- contact event
- control area
- event
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/4222—Remote control device emulator integrated into a non-television apparatus, e.g. a PDA, media center or smart toy
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42224—Touch pad or touch panel provided on the remote control
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
一種具有無線通訊模組、本地顯示裝置、以及處理模組之行動通訊裝置。無線通訊模組係執行與顯示主機之間之無線傳輸與接收。本地顯示裝置之顯示螢幕包括第一控制區域、以及位於第一控制區域內之第二控制區域。處理模組係偵測使用者在第一控制區域內輸入之第一接觸事件、以及在第一控制區域內操作移動第二控制區域之第二接觸事件,將第一接觸事件與第二接觸事件之座標資訊分別轉換為顯示主機在其顯示螢幕上之第一顯示座標與第二顯示座標,透過無線通訊模組並以第一顯示座標在顯示主機之顯示螢幕呈現觸控之操作,以及透過無線通訊模組並以第二顯示座標在顯示主機之顯示螢幕呈現游標之操作。
Description
本揭露係關於人機介面操作技術,特別係關於一種行動通訊裝置及人機介面操作方法,能夠以遙控的方式從行動通訊裝置操作位於顯示主機的顯示螢幕上的人機介面。
隨著行動娛樂之需求逐漸攀升,市場上紛紛推出各種行動服務(例如:娛樂類應用(Entertainment Application)、資訊類應用(Information Application)、以及控制類應用(Control Application)等)及裝置(例如:智慧型手機、平板電腦、筆記型電腦、以及掌上型遊戲機等),且其應用範圍亦從行動領域迅速擴展至家庭環境。舉例來說,一般家庭環境可能具備的娛樂設備有:遊戲機(game console)、錄放影機(video recorder)、電視機(如:智慧型電視、液晶電視、電漿電視、或映像管電視等)、以及數位機上盒(Set-Up Box,STB)等。目前已有多種方案能夠將行動通訊裝置應用在家庭環境中,進一步與家用娛樂設備結合,以期能夠提供更便利、更具彈性之服務。
然而,該等服務及裝置/設備之間的整合度卻明顯不足,在應用功能方面而言,目前的數位機上盒或智慧型電視對於日益蓬勃的行動應用功能尚未進行無縫接軌,導致許多行動服務之使用者回到家中時,仍然習慣使用智慧型手機或平板電腦等行動通訊裝置來取得行動服務。另外,在人機介面的操作方面而言,現有的行動通訊裝置的操作方式,並不符合家庭環境中的大螢幕電視機之遠距離使用情境,舉例來說,目前雖然已有相關應用及服務能將智慧型手機上的音樂及影片直接傳送到電視機、或透過數位機上盒傳送到電視機上進行輸出或呈現,且部份手機遊戲也能在電視機上進行,但智慧型手機與電視機之間的人機介面操作卻相對粗糙,使用者不僅難以透過智慧型手機完整地、或精準地控制電視機上所顯示的人機介面,還常需藉由傳統遙控器或額外裝置來補足其操作上的缺陷。
為了解決上述問題,本揭露提供了一種行動通訊裝置及人機介面操作方法,能夠高度整合行動通訊裝置及顯示主機之間的操作,以遙控的方式從行動通訊裝置操作位於顯示主機的顯示螢幕上的人機介面。
本揭露之一實施例提供了一種行動通訊裝置,其包括一無線通訊模組、一本地顯示裝置、以及一處理模組。上述無線通訊模組係執行與一顯示主機之間之無線傳輸與接收。上述本地顯示裝置其顯示螢幕包括一第一
控制區域、以及位於上述第一控制區域內之一第二控制區域。上述處理模組係偵測一使用者在上述第一控制區域內輸入之一第一接觸事件、以及在上述第一控制區域內操作移動上述第二控制區域之一第二接觸事件,將上述第一接觸事件與上述第二接觸事件之座標資訊分別轉換為上述顯示主機在其顯示螢幕上之一第一顯示座標與一第二顯示座標,透過上述無線通訊模組並以上述第一顯示座標在上述顯示主機之顯示螢幕呈現觸控之操作,以及透過上述無線通訊模組並以上述第二顯示座標在上述顯示主機之顯示螢幕呈現游標之操作。
本揭露之另一實施例提供了一種人機介面操
作方法,適用於一行動通訊裝置透過一無線通訊技術遙控一顯示主機,上述行動通訊裝置之顯示螢幕包括一第一控制區域以及位於上述第一控制區域內之一第二控制區域。上述人機介面操作方法包括以下步驟:偵測一使用者在上述第一控制區域內輸入之一第一接觸事件、以及在上述第一控制區域內操作移動上述第二控制區域之一第二接觸事件;將上述第一接觸事件與上述第二接觸事件之座標資訊分別轉換為上述顯示主機在其顯示螢幕上之一第一顯示座標與一第二顯示座標;以上述第一顯示座標遙控在上述顯示主機之顯示螢幕呈現觸控之操作;以及以上述第二顯示座標遙控在上述顯示主機之顯示螢幕呈現游標之操作。
關於本揭露其他附加的特徵與優點,此領域之
熟習技術人士,在不脫離本發明之精神和範圍內,當可根
據本案實施方法中所揭露之行動通訊裝置以及人機介面操作方法,做些許的更動與潤飾而得到。
10‧‧‧行動通訊裝置
20‧‧‧顯示主機
100‧‧‧本地顯示螢幕
101、102‧‧‧控制區域
200‧‧‧主機顯示螢幕
201‧‧‧顯示區域
301‧‧‧無線通訊模組
302‧‧‧本地顯示裝置
303‧‧‧處理模組
第1圖係根據本揭露一實施例所述之介面遙控系統之示意圖。
第2圖係根據本揭露一實施例所述之人機介面操作之示意圖。
第3圖係根據本揭露一實施例所述之行動通訊裝置之系統架構圖。
第4圖係根據本揭露一實施例所述之人機介面操作方法之流程圖。
第5A與5B圖係根據本揭露一實施例所述如何決定第二接觸事件之接觸類型之流程圖。
第6A與6B圖係根據本揭露一實施例所述透過可移動控制區域遙控進行一遊戲應用之示意圖。
第7圖係根據本揭露一實施例所述透過固定型控制區域遙控進行一遊戲應用之示意圖。
本章節所敘述的是實施本揭露之最佳方式,目的在於說明本發明之精神而非用以限定本發明之保護範圍,應理解下列實施例可經由軟體、硬體、韌體、或上述任意組合來實現。
第1圖係根據本揭露一實施例所述之介面遙
控系統之示意圖。介面遙控系統包括行動通訊裝置10以及顯示主機20,其中行動通訊裝置10可為智慧型手機、平板電腦、筆記型電腦、或掌上型遊戲機等,顯示主機20可為智慧型電視、或結合數位機上盒之液晶電視或電漿電視等。行動通訊裝置10與顯示主機20各自皆支援至少一種無線通訊技術,以提供無線傳輸與接收之功能。透過無線傳輸與接收,行動通訊裝置10可將使用者在其上輸入的接觸事件(touch event)之座標資訊轉換為顯示主機20在其顯示螢幕上之顯示座標,並將顯示座標傳送至顯示主機20,以遙控在顯示主機20之顯示螢幕上呈現觸控及游標之操作。
第2圖係根據本揭露一實施例所述之人機介
面操作之示意圖。本地顯示螢幕100與主機顯示螢幕200係分別代表行動通訊裝置10與顯示主機20所裝載之顯示螢幕。主機顯示螢幕200上的整個顯示區域以顯示區域201標示,本地顯示螢幕100上的顯示區域包括了控制區域101、102,其中控制區域101即為本地顯示螢幕100的整個顯示區域,其為一固定型控制區域,而控制區域102為一可移動控制區域。特別是,控制區域102係位於控制區域101之內,且控制區域102可經由使用者輸入之接觸事件進行移動。相應地,本地顯示螢幕100可為一具備偵測觸控功能之顯示螢幕。在此實施例,控制區域101、102係各自以不同底色顯示,以茲使用者區別。或者,控制區域101、102亦可以相同底色顯示,而使用者可根據控制區域
102之邊框區別兩者。在另一實施例,控制區域101亦可代表本地顯示螢幕100上的部份顯示區域。
進一步說明,本地顯示螢幕100上的控制區域
101中的顯示座標係經過映射(mapping)轉換為主機顯示螢幕200上顯示區域201中的顯示座標,其映射轉換之運算可依其長、寬、或面積比而等比例放大。值得注意的是,在上述映射轉換的過程中,控制區域102更進一步被轉換為主機顯示螢幕200上顯示區域201中的一特定顯示座標,並且在該特定顯示座標上呈現一游標(cursor)圖式,其中游標圖式並不限定為所示箭號,其它圖式亦可適用。明確來說,可使用控制區域102的中心點為基準進行上述座標轉換,或者,亦可使用控制區域102中的任一點為基準進行上述座標轉換。
在另一實施例,本地顯示螢幕100可在控制區域101內包括多個可移動的控制區域102,端視使用中的應用需求而定,且本發明不在此限。
第3圖係根據本揭露一實施例所述之行動通訊裝置10之系統架構圖。行動通訊裝置10之系統架構包括無線通訊模組301、本地顯示裝置302、以及處理模組303。無線通訊模組301可為支援任一無線通訊技術之通訊模組,例如:藍芽(Bluetooth)技術、無線保真(Wireless Fidelity,WiFi)技術、近場通訊(Near Field Communication,NFC)技術、或群蜂(Zigbee)技術等,用以提供無線傳輸與接收之功能。本地顯示裝置302為一
具備偵測觸控功能之顯示裝置,例如:電容式、電阻式、或光學式觸控面板。處理模組303可為一通用處理器、應用處理器、或微控制器,用以提供資料處理及運算之功能、以及控制無線通訊模組301與本地顯示裝置302之運作以執行本揭露之人機介面操作方法。
雖未繪示,行動通訊裝置10之系統架構可再
包括其它功能單元或模組,例如:用以儲存資料及程式碼之儲存模組(如:揮發性記憶體、非揮發性記憶體、硬碟、光碟、或上述媒體之任意組合)、以及/或輸入輸出裝置(如:鍵盤、滑鼠、或觸控板等),且本發明不在此限。
同樣地,第3圖所示之系統架構亦可適用於本
發明所述之顯示主機20,因此相關說明請參照第3圖及其相關敘述,在此不再贅述。
舉例說明,若行動通訊裝置10係以安卓(Android)為其作業平台,則可使用安卓平台所開放之應用編程介面(Application Programming Interface,API)實作上述觸控偵測、座標轉換、及遙控等作業之對應軟體模組,並由處理模組303載入、編譯、並執行。
第4圖係根據本揭露一實施例所述之人機介面操作方法之流程圖。本揭露之人機介面操作方法係適用於行動通訊裝置透過無線通訊技術遙控顯示主機,特別是,行動通訊裝置之顯示螢幕包括第一控制區域(即控制區域101)以及位於第一控制區域內之第二控制區域(即控制區域102)。首先,行動通訊裝置偵測使用者在第一控
制區域內輸入之第一接觸事件、以及在第一控制區域內操作移動第二控制區域之第二接觸事件(步驟S410),接著,行動通訊裝置將第一接觸事件與第二接觸事件之座標資訊分別轉換為顯示主機在其顯示螢幕上之第一顯示座標與第二顯示座標(步驟S420)。然後,行動通訊裝置再以第一顯示座標遙控在顯示主機之顯示螢幕呈現觸控之操作(步驟S430),並且以第二顯示座標遙控在顯示主機之顯示螢幕呈現游標之操作(步驟S440)。
在一實施例,步驟S430可進一步根據第一接
觸事件之接觸類型而執行,步驟S440可進一步根據第二接觸事件之接觸類型而執行。明確來說,第一接觸事件之接觸類型可為觸控操作中的點擊(tap)、滑動(slide)、長按(long press)、或長按後拖曳(drag)。第二接觸事件之接觸類型可為游標操作中的按下(click)、拖曳、長按、或長按後拖曳。
關於第一接觸事件之接觸類型,其係類似於一
般使用智慧型手機時的觸控操作。例如:當接觸類型為點擊時,觸控之操作可呈現點選、以及/或執行之效果;當接觸類型為滑動時,觸控之操作可呈現移動、掃過(sweep)、或翻頁等效果;當接觸類型為長按時,觸控之操作可呈現彈起之效果;當接觸類型為長按後拖曳時,觸控之操作可呈現物件拖曳之效果。關於在觸控操作中偵測及辨識接觸類型,可參考一般智慧型手機、或平板電腦等行動通訊裝置上現有的任一技術方案,為簡潔說明,故在此省略不提。
第5A與5B圖係根據本揭露一實施例所述如何決定第二接觸事件之接觸類型之流程圖。首先,偵測使用者是否在本地顯示螢幕100上進行按下之動作(步驟S501),意即,偵測在本地顯示螢幕100上是否發生接觸事件。若否,則持續偵測,若是,則偵測使用者是否釋放該按下動作(步驟S502),意即,決定該按下動作是否在本地顯示螢幕100上的同一座標未持續超過一預定時長。若是,則決定此接觸事件之接觸類型為游標操作中的「按下」(步驟S503)。當接觸類型為按下時,游標之操作可呈現按下與彈起之效果,類似一般使用滑鼠操作電腦時在人機介面上所呈現的單擊動作。
接續步驟S502,若否,則偵測使用者是否移動該按下動作(步驟S504)。若偵測到使用者移動該按下動作(意即,該按下動作未在同一座標上持續超過一預定時長並且持續改變其座標),則決定此接觸事件之接觸類型為游標操作中的「拖曳」(步驟S505)。當接觸類型為拖曳時,游標之操作可呈現移動之效果,類似一般使用滑鼠操作電腦時在人機介面上所呈現的移動動作。
之後,再偵測使用者是否釋放該按下動作(步驟S506),若是,則流程結束,若否,則回到步驟S505,以持續將該按下動作之移動反應到游標的拖曳。
接續步驟S504,若否,則偵測使用者是否持續該按下動作超過預定時長(步驟S507)。若超過預定時長,則決定此接觸事件之接觸類型為游標操作中的「長按」
(步驟S508)。反之,若未超過預定時長,則流程回到步驟S502。當接觸類型為長按時,游標之操作可呈現彈起之效果,類似一般使用智慧型手機時在人機介面上所呈現的長按動作(如:長按一顯示物件後,該顯示物件會彈起或浮上)。
在步驟S508之後,接著偵測使用者是否移動
該按下動作(步驟S509)。若是,則決定此接觸事件之接觸類型為游標操作中的「長按後拖曳」(步驟S510)。意即,該按下動作在同一座標上持續超過一預定時長後改變其座標。當接觸類型為長按後拖曳時,游標之操作所呈現之效果可使對應顯示物件跟隨第二接觸事件之改變後座標而移動(如:長按一顯示物件後,使該顯示物件彈起或浮上,然後將該顯示物件拖曳至其它位置)。
最後,再偵測使用者是否釋放該按下動作(步
驟S511),若是,則使游標之操作呈現放下(drop)之效果(步驟S512)。接續步驟S509,若否,則偵測使用者是否釋放該按下動作(步驟S513),若是,則進行到步驟S512,使游標之操作呈現放下之效果。
步驟S512中所述放下之效果類似一般使用智
慧型手機時,經過長按動作或長按後拖曳動作之後(會讓對應座標的顯示物件彈起或浮上,或者彈起或浮上後再移動)被釋放的情形,此時,該顯示物件會被放下,至於放下的座標可以是偵測到釋放時的座標、或者是以特定軌跡持續變化至一預定座標,端視目前所使用的應用或服務之
界定。例如:當使用中的應用為一手機平台之使用者介面,而長按動作係關聯至該使用者介面之桌面物件調整,此時當偵測到釋放時,被長按而彈起之顯示物件會直接放下到釋放時的座標,或者,當釋放時的座標位於一不合法區域時,可將顯示物件以特定軌跡放下到合法區域內的任一座標。另外,當使用中的應用為一手機遊戲,而長按後拖曳動作係關聯至一彈弓之發射牽引,此時當偵測到釋放時,彈弓的牽引帶會呈現回彈之效果,從釋放時的座標移動至一預定座標。
第6A與6B圖係根據本揭露一實施例所述透
過可移動控制區域遙控進行一遊戲應用之示意圖。在此實施例,使用中的是一遊戲應用,所以主機顯示螢幕200上的顯示區域20係顯示該遊戲之畫面,本地顯示螢幕100係於固定型的控制區域101中顯示可移動的控制區域102,讓使用者觸控移動控制區域102。控制區域102的座標會被映射轉換而在主機顯示螢幕200上的顯示區域20中的一座標顯示游標圖式,因此,使用者便可根據所顯示的游標位置去遙控主機顯示螢幕200以操作該遊戲。明確來說,如第6A圖所示,使用者可長按後拖曳控制區域102,以對遊戲畫面中的彈弓進行發射牽引。接著,當使用者釋放對控制區域102之接觸時,遊戲畫面中的彈弓即發射出去,如第6B圖所示。
第7圖係根據本揭露一實施例所述透過固定
型控制區域遙控進行一遊戲應用之示意圖。如第7圖所
示,使用中的是一遊戲應用,所以主機顯示螢幕200上的顯示區域20係顯示該遊戲之畫面,而使用者可以雙手觸控位於本地顯示螢幕100上的固定型的控制區域101。當畫面中出現各式水果圖式時,使用者可在固定型的控制區域內進行滑動之觸控操作,以切割遊戲畫面中出現的水果。
本揭露雖以各種實施例揭露如上,然而其僅為
範例參考而非用以限定本發明的範圍,任何熟習此項技藝者,在不脫離本發明之精神和範圍內,當可做些許的更動與潤飾。因此上述實施例並非用以限定本發明之範圍,本發明之保護範圍當視後附之申請專利範圍所界定者為準。
申請專利範圍中所使用之序數「第一」、「第二」等等並非表示其所描述之元件之間存在任何時間先後次序、優先等級之差別、或其它關係上之先後次序,而是用以區別具有相同名稱之不同元件。
100‧‧‧本地顯示螢幕
101、102‧‧‧控制區域
200‧‧‧主機顯示螢幕
201‧‧‧顯示區域
Claims (20)
- 一種行動通訊裝置,包括:一無線通訊模組,執行與一顯示主機之間之無線傳輸與接收;一本地顯示裝置,其顯示螢幕包括一第一控制區域、以及位於上述第一控制區域內之一第二控制區域;以及一處理模組,偵測一使用者在上述第一控制區域內輸入之一第一接觸事件、以及在上述第一控制區域內操作移動上述第二控制區域之一第二接觸事件,將上述第一接觸事件與上述第二接觸事件之座標資訊分別轉換為上述顯示主機在其顯示螢幕上之一第一顯示座標與一第二顯示座標,透過上述無線通訊模組並以上述第一顯示座標在上述顯示主機之顯示螢幕呈現觸控之操作,以及透過上述無線通訊模組並以上述第二顯示座標在上述顯示主機之顯示螢幕呈現游標之操作。
- 如申請專利範圍第1項所述之行動通訊裝置,其中在上述顯示主機之顯示螢幕呈現觸控之操作係更根據上述第一接觸事件之接觸類型而進行,在上述顯示主機之顯示螢幕呈現游標之操作係更根據上述第二接觸事件之接觸類型而進行。
- 如申請專利範圍第2項所述之行動通訊裝置,其中上述第二接觸事件之接觸類型可為按下(click)、拖曳(drag)、長按(long press)、或長按後拖曳。
- 如申請專利範圍第3項所述之行動通訊裝置,其中 上述處理模組更決定上述第二接觸事件是否在同一座標上持續超過一預定時長,若是,則決定上述第二接觸事件之接觸類型為長按;若否,則決定上述第二接觸事件之接觸類型為按下。
- 如申請專利範圍第4項所述之行動通訊裝置,其中當上述第二接觸事件之接觸類型為按下時,上述游標之操作係包括按下與彈起之效果。
- 如申請專利範圍第4項所述之行動通訊裝置,其中當上述第二接觸事件之接觸類型為長按時,上述游標之操作係包括彈起之效果。
- 如申請專利範圍第3項所述之行動通訊裝置,其中上述處理模組更決定上述第二接觸事件是否未在同一座標上持續超過一預定時長並且持續改變其座標,若是,則決定上述第二接觸事件之接觸類型為拖曳。
- 如申請專利範圍第7項所述之行動通訊裝置,其中當上述第二接觸事件之接觸類型為拖曳時,上述游標之操作係包括移動之效果。
- 如申請專利範圍第3項所述之行動通訊裝置,其中上述處理模組更決定上述第二接觸事件在同一座標上持續超過一預定時長後是否改變其座標,若是,則決定上述第二接觸事件之接觸類型為長按後拖曳。
- 如申請專利範圍第9項所述之行動通訊裝置,其中當上述第二接觸事件之接觸類型為長按後拖曳時,上述游標之操作係包括使上述同一座標所對應之物件跟隨上述 第二接觸事件之改變後座標而移動之效果。
- 一種人機介面操作方法,適用於一行動通訊裝置透過一無線通訊技術遙控一顯示主機,上述行動通訊裝置之顯示螢幕包括一第一控制區域以及位於上述第一控制區域內之一第二控制區域,上述人機介面操作方法包括:偵測一使用者在上述第一控制區域內輸入之一第一接觸事件、以及在上述第一控制區域內操作移動上述第二控制區域之一第二接觸事件;將上述第一接觸事件與上述第二接觸事件之座標資訊分別轉換為上述顯示主機在其顯示螢幕上之一第一顯示座標與一第二顯示座標;以上述第一顯示座標遙控在上述顯示主機之顯示螢幕呈現觸控之操作;以及以上述第二顯示座標遙控在上述顯示主機之顯示螢幕呈現游標之操作。
- 如申請專利範圍第11項所述之人機介面操作方法,其中在上述顯示主機之顯示螢幕呈現觸控之操作係更根據上述第一接觸事件之接觸類型而進行,在上述顯示主機之顯示螢幕呈現游標之操作係更根據上述第二接觸事件之接觸類型而進行。
- 如申請專利範圍第12項所述之人機介面操作方法,其中上述第二接觸事件之接觸類型可為按下、拖曳、長按、或長按後拖曳。
- 如申請專利範圍第13項所述之人機介面操作方 法,更包括:決定上述第二接觸事件是否在同一座標上持續超過一預定時長;若是,則決定上述第二接觸事件之接觸類型為長按;以及若否,則決定上述第二接觸事件之接觸類型為按下。
- 如申請專利範圍第14項所述之人機介面操作方法,其中當上述第二接觸事件之接觸類型為按下時,上述游標之操作係包括按下與彈起之效果。
- 如申請專利範圍第14項所述之人機介面操作方法,其中當上述第二接觸事件之接觸類型為長按時,上述游標之操作係包括彈起之效果。
- 如申請專利範圍第13項所述之人機介面操作方法,更包括:決定上述第二接觸事件是否未在同一座標上持續超過一預定時長並且持續改變其座標;以及若是,則決定上述第二接觸事件之接觸類型為拖曳。
- 如申請專利範圍第17項所述之人機介面操作方法,其中當上述第二接觸事件之接觸類型為拖曳時,上述游標之操作係包括移動之效果。
- 如申請專利範圍第13項所述之人機介面操作方法,更包括:決定上述第二接觸事件在同一座標上持續超過一預定時長後是否改變其座標;以及 若是,則決定上述第二接觸事件之接觸類型為長按後拖曳。
- 如申請專利範圍第19項所述之人機介面操作方法,其中當上述第二接觸事件之接觸類型為長按後拖曳時,上述游標之操作係包括使上述同一座標所對應之物件跟隨上述第二接觸事件之改變後座標而移動之效果。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW102107807A TW201435651A (zh) | 2013-03-06 | 2013-03-06 | 行動通訊裝置以及其人機介面操作方法 |
US14/032,037 US20140253444A1 (en) | 2013-03-06 | 2013-09-19 | Mobile communication devices and man-machine interface (mmi) operation methods thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW102107807A TW201435651A (zh) | 2013-03-06 | 2013-03-06 | 行動通訊裝置以及其人機介面操作方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
TW201435651A true TW201435651A (zh) | 2014-09-16 |
Family
ID=51487245
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW102107807A TW201435651A (zh) | 2013-03-06 | 2013-03-06 | 行動通訊裝置以及其人機介面操作方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20140253444A1 (zh) |
TW (1) | TW201435651A (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10101844B2 (en) * | 2014-03-14 | 2018-10-16 | Lg Electronics Inc. | Mobile terminal and method of controlling the same based on type of touch object used to apply touch input |
WO2015151640A1 (ja) * | 2014-04-04 | 2015-10-08 | 株式会社コロプラ | ユーザインターフェースプログラムおよびゲームプログラム |
US10429968B2 (en) * | 2014-11-06 | 2019-10-01 | Visteon Global Technologies, Inc. | Reconfigurable messaging assembly |
US9826187B2 (en) | 2015-08-25 | 2017-11-21 | Echostar Technologies L.L.C. | Combined absolute/relative touchpad navigation |
US9781468B2 (en) * | 2015-08-25 | 2017-10-03 | Echostar Technologies L.L.C. | Dynamic scaling of touchpad/UI grid size relationship within a user interface |
CN106066689B (zh) * | 2016-05-26 | 2019-04-19 | 范杭 | 基于ar或vr系统的人机交互方法和装置 |
CN106227457A (zh) * | 2016-07-29 | 2016-12-14 | 维沃移动通信有限公司 | 一种点击操作的实现方法及移动终端 |
WO2019047234A1 (zh) | 2017-09-11 | 2019-03-14 | 广东欧珀移动通信有限公司 | 触摸操作响应方法及装置 |
WO2019047231A1 (zh) * | 2017-09-11 | 2019-03-14 | 广东欧珀移动通信有限公司 | 触摸操作响应方法及装置 |
EP3671412A4 (en) | 2017-09-11 | 2020-08-05 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | TOUCH OPERATION RESPONSE PROCESS AND DEVICE |
US10592104B1 (en) * | 2018-06-08 | 2020-03-17 | Facebook Technologies, Llc | Artificial reality trackpad-based keyboard |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120289290A1 (en) * | 2011-05-12 | 2012-11-15 | KT Corporation, KT TECH INC. | Transferring objects between application windows displayed on mobile terminal |
JP5226142B1 (ja) * | 2012-02-29 | 2013-07-03 | 株式会社東芝 | 表示制御装置、表示制御方法、電子機器、および電子機器の制御方法 |
-
2013
- 2013-03-06 TW TW102107807A patent/TW201435651A/zh unknown
- 2013-09-19 US US14/032,037 patent/US20140253444A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20140253444A1 (en) | 2014-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TW201435651A (zh) | 行動通訊裝置以及其人機介面操作方法 | |
US10509478B2 (en) | Radar-based gesture-recognition from a surface radar field on which an interaction is sensed | |
US9621434B2 (en) | Display apparatus, remote control apparatus, and method for providing user interface using the same | |
US20150160849A1 (en) | Bezel Gesture Techniques | |
US9720567B2 (en) | Multitasking and full screen menu contexts | |
US20150339026A1 (en) | User terminal device, method for controlling user terminal device, and multimedia system thereof | |
EP2998838B1 (en) | Display apparatus and method for controlling the same | |
KR20160139481A (ko) | 사용자 단말 장치 및 그 제어 방법 | |
US20130012319A1 (en) | Mechanism for facilitating hybrid control panels within gaming systems | |
TWI702843B (zh) | 遠端觸控操作的電視系統 | |
US9338666B2 (en) | Binding of an apparatus to a computing device | |
US20160124606A1 (en) | Display apparatus, system, and controlling method thereof | |
US20140085540A1 (en) | Television and control device and method | |
TWI547862B (zh) | Multi - point handwriting input control system and method | |
KR20140105961A (ko) | 2차원 마우스 기능을 가지는 3차원 에어 마우스 | |
AU2021431032A1 (en) | A computer a software module arrangement, a circuitry arrangement, a user equipment and a method for an improved user interface controlling multiple applications simultaneously | |
JP6113857B2 (ja) | 電子機器、操作制御方法及びプログラム | |
US20130314318A1 (en) | Method of improving cursor operation of handheld pointer device in a display and handheld pointer device with improved cursor operation | |
KR20150077388A (ko) | 스마트폰 마우스 | |
JP2014074989A (ja) | 表示制御装置、表示装置、表示制御方法 | |
KR20140107918A (ko) | 촬영부를 이용한 원격 제어 시스템 및 방법 | |
US20160110206A1 (en) | Display apparatus and controlling method thereof | |
TW201737027A (zh) | 在互動式顯示裝置中模擬非智慧型行為之方法及相關互動式顯示裝置 |