TWI493394B - 雙模態觸控靈敏數位筆記型電腦 - Google Patents

雙模態觸控靈敏數位筆記型電腦 Download PDF

Info

Publication number
TWI493394B
TWI493394B TW099105339A TW99105339A TWI493394B TW I493394 B TWI493394 B TW I493394B TW 099105339 A TW099105339 A TW 099105339A TW 99105339 A TW99105339 A TW 99105339A TW I493394 B TWI493394 B TW I493394B
Authority
TW
Taiwan
Prior art keywords
touch
item
sensitive display
touch sensitive
operable
Prior art date
Application number
TW099105339A
Other languages
English (en)
Other versions
TW201037577A (en
Inventor
辛克里肯尼斯保羅
皮斯奇尼格喬治
Original Assignee
微軟公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 微軟公司 filed Critical 微軟公司
Publication of TW201037577A publication Critical patent/TW201037577A/zh
Application granted granted Critical
Publication of TWI493394B publication Critical patent/TWI493394B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04807Pen manipulated menu
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Calculators And Similar Devices (AREA)

Description

雙模態觸控靈敏數位筆記型電腦
本發明係關於雙模態觸控靈敏數位筆記型電腦。
觸控靈敏顯示器經組態以接受觸控形式之輸入,且在一些狀況下接受物件在該顯示器之表面上接近或近似觸控形式之輸入。觸控輸入可包括來自使用者之手(例如,拇指或手指)、尖筆、其他筆型器具或其他外部物件之觸控。雖然觸控靈敏顯示器日益用於多種計算系統,但是觸控輸入之使用通常需要接受功能性之顯著折衷及介面之簡易使用。
因此,本發明提供一種觸控靈敏計算系統,其包括一觸控靈敏顯示器及與該觸控靈敏顯示器操作性地耦合之介面軟體。該介面軟體經組態以偵測施加於該觸控靈敏顯示器之觸控輸入,及回應於此偵測而在該觸控靈敏顯示器上之一位置處顯示觸控可操作使用者介面,該位置視施加該觸控輸入於該觸控靈敏顯示器之位置而定。
在另一態樣中,該觸控輸入為一手觸控輸入,且作為回應而顯示之觸控可操作使用者介面為一或多個筆觸控可操作命令。在又一態樣中,雖然經啟動之使用者介面在接收初始觸控輸入後之一時間間隔經過之後加以顯示,但是經啟動之使用者介面之顯示亦可在偵測到一筆型器具接近之情況下在該時間間隔全部經過之前得以加快發生。
提供此【發明內容】以用簡化形式介紹下文在【實施方式】中進一步描述之概念選擇。本【發明內容】不欲識別所主張標的之關鍵特徵結構或基本特徵結構,亦不欲用以限制所主張標的之範疇。此外,所主張標的不限於解决在本揭示案之任何部分中注釋之任何或所有缺點之實施。
第1圖展示觸控靈敏計算系統20之一實施例之方塊圖,觸控靈敏計算系統20包含邏輯子系統22及操作性地耦合至邏輯子系統22之記憶體/資料保持子系統24。記憶體/資料保持子系統24可包含由邏輯子系統22可執行之指令以執行本文所揭示之方法中的一或多者。觸控靈敏計算系統20可進一步包含作為I/O子系統28之部分而被包括的顯示子系統26,顯示子系統26經組態以呈現由記憶體/資料保持子系統24保持之資料之一視覺表示。
顯示子系統26可包括觸控靈敏顯示器,該觸控靈敏顯示器經組態以接受觸控形式之輸入,且在一些狀況下接受物件在該顯示器之表面上接近或近似觸控形式之輸入。在一些狀況下,觸控靈敏顯示器可經組態以偵測「雙模態」觸控,其中「雙模態」指示兩種不同模式之觸控,諸如自使用者之手指之觸控及筆之觸控。在一些狀況下,觸控靈敏顯示器可經組態以偵測「雙手」觸控,其中「雙手」指示相同模式之觸控(通常為手觸控模式),諸如自使用者之食指(不同手)之觸控,或自使用者之拇指及食指(相同手)之觸控。因此,在一些狀況下,觸控靈敏顯示器可經組態以偵測雙模態觸控與雙手觸控。
觸控靈敏計算系統20可進一步經組態以偵測雙模態觸控及/或雙手觸控,且根據所偵測之觸控之類型來辨別此等觸控以便產生一回應。舉例而言,人的觸控可用於具有較低精確性之廣泛及/或粗略手勢,其包括(但不限於)經由輕觸、群組選擇及/或以套索套捕物件來即時選擇物件,藉由擠壓或拉伸手勢及旋轉及/或轉換物件之手勢拖放、「夾緊」物件。另外,在一雙手模式中,亦可利用此等觸控之組合。
在另一實例中,自筆型觸控器具之操作端之觸控(亦即,筆觸控)可用於具有較高精確性之精細及/或局部手勢,其包括(但不限於)寫入、選擇選單項目,執行諸如複製及貼上、精化影像、將物件移動至特定位置、精確重調大小及其類似操作之編輯操作。另外,在一雙模態模式中,亦可利用此等人觸控與筆觸控之組合,如下 文參閱第2圖所描述。
除偵測實際觸控物之外,觸控靈敏計算系統20亦可經組態以偵測近似觸控或觸控之接近。舉例而言,觸控靈敏顯示器可經組態以當筆接近於該顯示表面上之一特定位置且在與該顯示表面之預定距離之範圍內或在與該顯示表面之預定距離處時偵測筆觸控之接近。作為一實例,該觸控靈敏顯示器可經組態以當筆在顯示表面之兩公分之內時偵測接近該顯示表面之筆。
本文所述之觸控靈敏計算系統可以各種形式來實施,該等形式包括平板膝上型電腦、智慧型電話、携帶型數位助理、數位筆記型電腦及其類似物。此數位筆記型電腦之一實例展示於第2圖中且在下文中更詳細地加以描述。
邏輯子系統22可經組態以執行介面指令以便與I/O子系統28一起且更特定言之經由顯示子系統26(例如,觸控靈敏顯示器)提供使用者介面功能性。通常,該介面軟體與顯示子系統26之觸控靈敏顯示器操作性地耦合且經組態以偵測施加於該觸控靈敏顯示器之一觸控輸入。回應於此偵測,該介面軟體可進一步經組態以在該觸控靈敏顯示器上之一位置處顯示觸控可操作使用者介面,該位置視施加該觸控輸入於該觸控靈敏顯示器之位置而定。作為一實例,觸控(或筆)可操作圖標可出現在使用者將其手指靜置於該顯示器上之位置附近。此位置可視選定物件之範圍(例如,在選擇物之頂部)而定。觸控可操作圖標亦可出現在一固定位置處,其中以觸控方式調整圖標或工具列之外觀(淡入)且以釋放方式來觸發圖標或工具列消失。圖標之位置亦可部分地取决於觸控位置,例如,出現在對應於該觸控位置之右邊限中。
第2圖展示與交互顯示裝置之一實施例相互作用之使用者的示意描繪。作為一實例,交互顯示裝置之此實施例可為諸如數位筆記型電腦30之觸控靈敏計算系統。數位筆記型電腦30可包括一或多個觸控靈敏顯示器32。在一些實施例中,數位筆記型電腦30可包括鉸鏈34,其允許數位筆記型電腦30以實體筆記型電腦之方式可折疊地關閉。數位筆記型電腦30可進一步包括與觸控靈敏顯示器操作性地耦合之介面軟體,如上文參閱第1圖所描述。
如第2圖中所示,數位筆記型電腦30可偵測在觸控靈敏顯示器32上使用者之手指36之觸控及筆38之觸控。數位筆記型電腦30可進一步經組態以當筆38在與觸控靈敏顯示器32之預定距離之內時偵測筆38之接近。作為一實例,使用者之手指36可用以選擇在觸控靈敏顯示器32上顯示之物件40,且回應於觸控靈敏顯示器32而可經組態以顯示該項目已被選擇之一指示,諸如藉由顯示環繞物件40之一虛線框42。使用者然後可執行一更加精確之手勢,諸如使用筆38精確重調物件40之大小。應瞭解,此僅為許多潛在實例中之一者;選擇及重調物件之大小僅為可使用觸控與筆觸控之組合執行之許多操作中之一者。此外,應注意,該或該等選定物件之範圍可視該或該等接觸區域之位置、範圍或形狀而定,該或該等接觸區域由接觸顯示器之該或該等手指及手形成。在下文中將更詳細地描述其他實例。
第3圖展示用於觸控靈敏計算裝置之示範性介面方法50。在52處,方法50包括偵測施加於觸控靈敏顯示器之一觸控輸入。如本文所述,觸控輸入可包括實體物件在觸控靈敏顯示器上之觸控,諸如拇指或手指(亦即,手觸控)。在一些狀況下,此觸控輸入可為筆型觸控器具之操作端(亦即,筆觸控)。此外,觸控輸入亦可包括手觸控與筆觸控之組合,及/或手觸控與筆之接近(亦即,筆尖接近)之組合。在一些實施例中,手觸控類型之觸控輸入可包括「輕觸」手觸控,其中使用者輕觸該觸控靈敏顯示器以使得該觸控靈敏顯示器偵測觸控之開始,接著偵測觸控之停止。在許多狀況下,將需要輕觸手觸控由介面軟體處理以引起在觸控靈敏顯示器上選擇項目。
在一些實施例中,手觸控類型之觸控輸入可包括「靜置」手觸控,其中使用者觸控該觸控靈敏顯示器且保持觸控該顯示裝置,以使得該觸控靈敏顯示器偵測一延長觸控之開始。在一些實施例中,當觸控靈敏顯示裝置正偵測一靜置手觸控時,該顯示裝置可另外偵測一筆尖之接近,以使得在方法50處偵測如上所述之觸控輸入可包括偵測一靜置手觸控與一筆尖接近之組合。如下文所論述,自使用者之手或其他物件之靜置觸控可經處理以引起觸控可操作命令在顯示幕上之顯示。接近筆觸控之額外輸入可修改使觸控可操作命令顯示於顯示幕上之過程。舉例而言,接近筆觸控可引起更快速地顯示觸控可操作命令,如將在以下實例中所論述。
在54處,方法50包括:回應於偵測觸控輸入,而引起選擇在觸控靈敏顯示器上顯示之項目,且在該觸控靈敏顯示器上顯示依據該項目可執行之一或多個觸控可操作命令。舉例而言,如上文所述,觸控輸入可用以選擇在該觸控靈敏顯示器上顯示之項目。此外,在選擇項目之後,該觸控靈敏顯示器可在觸控靈敏顯示裝置上顯示一或多個觸控可操作命令。或者,可回應於施加於顯示項目之「靜置」手觸控而顯示觸控可操作命令。
在任何狀況下,出現之觸控可操作命令可包括對應於具有任何數量及類型之上下文選單之項目的可選選項,諸如格式選項、編輯選項等。在一些實施例中,觸控可操作命令之顯示可包括經由「淡入」及/或「浮入」來顯示觸控可操作命令,以使得觸控可操作命令漸漸淡入視圖及/或進入顯示器上之位置,將自該位置啟動該等觸控可操作命令。以此方式顯示觸控可操作命令可藉由避免在顯示器上之影像之閃光及/或突然改變而提供更有美感之使用者體驗,該等影像之閃光及/或突然改變可分散使用者之注意力。此外,淡入/浮入方法之進步性在於使用者注意到對顯示器之變化,且該使用者之眼睛被吸引到可自其啟動該等淡入命令之特定位置。
此外,此或此等觸控可操作命令可顯示在該觸控靈敏顯示器上之一位置中,該位置視已選擇之項目之位置或將產生作用所依據之項目之位置而定。舉例而言,該或該等觸控可操作命令可顯示為顯示於該項目附近之上下文選單。
另外或替代地,該或該等觸控可操作命令可顯示在一位置處,該位置視施加該觸控輸入於該觸控靈敏顯示器之位置而定。舉例而言,該觸控可操作使用者介面可顯示為顯示於提供該觸控輸入之手指附近的上下文選單。
在許多狀況下,將需要介面軟體僅在啟動輸入(例如,靜置之手觸控)後的一預定時間間隔經過之後顯示觸控可操作命令(例如,該等淡入之命令)。作為一實例,第4圖展示交互顯示裝置60之一實施例之示意描繪。在偵測使用者之手指62在觸控靈敏顯示器64上之影像66處之一靜置手觸控之後,觸控靈敏顯示器64藉由將該等命令在視覺上淡入視圖來顯示觸控可操作命令「1」、「2」及「3」,如由該等命令之虛線所指示。在一些狀況下,觸控靈敏顯示器64可經組態以在偵測該觸控輸入後的一預定時間間隔(例如,兩秒)之後顯示該等命令。應瞭解,兩秒之時間間隔僅為示範性的,因為預定時間間隔之持續時間可為任何適合長度之時間。或者,觸控及釋放(與觸控及保持相反)可顯示使用者隨後使用筆或手指啟動之命令。
命令「1」、「2」及「3」僅為示範性的,因為任何數量之命令可出現於任何數量之不同組態中,且該等命令可進一步與呈現於使用者之任何數量之選項相關聯。另外,在一些狀況下,將基於如由介面軟體所偵測之項目之特性來選擇淡入命令。舉例而言,在文本項目之狀況下,相應觸控可操作命令可為諸如剪切、複製及貼上功能之編輯命令。在另一實例中,與該文本項目相關之相應命令可為諸如字體、字體大小及字體顏色之文本格式命令。在又一實例中,該文本項目可被偵測為包括潛在聯繫資訊及/或約定資訊,且相應觸控可操作命令將包括用於將項目儲存於個人資訊管理概要中之功能性,該個人資訊管理概要包括聯繫人項目及日程項目。
第3圖之方法亦可包括處理一偵測輸入之額外或替代步驟,以判定是否該輸入為與有意或所要輸入相反之一偶然輸入。可忽略一潛在偶然觸控及/或將其延遲直到經過足夠之時間以明確地决定(或以一較高自信等級决定)是否該觸控為有意觸控。舉例而言,如先前所指示,通常將需要忽略且拒絕與握住筆器具之手相關聯之觸控。各種因素可用於評估是否觸控為偶然觸控,該等因素包括接觸區域之形狀、關於哪一手觸控輸入表面之推論、偵測筆觸控之接近、顯示幕上之基礎物件等。
此外,如第4圖中所示,命令「1」、「2」及「3」顯示於觸控靈敏顯示器64上之一位置中,該位置視項目之位置而定。如圖所示,該等命令顯示於使用者之手指62附近且重疊影像66。命令可由輕觸啟動控制、徑向選單、拖動控制(例如,滑動塊)、撥號控制(經由選項下觸且旋轉以調整值或步驟)、交叉圖形使用者介面元素(widget)、下拉選單、對話框或其他介面元素之任何混合來組成。
如上所述之此介面軟體可進一步經組態以偵測一筆型觸控器具之操作端係朝在觸控靈敏顯示器上之位置接近,且當此接近在輸入觸控之預定時間間隔期間得以偵測時,可在該預定時間間隔完全經過之前顯示觸控可操作使用者介面。作為一實例,第5圖展示交互顯示裝置70之另一實施例之示意描繪。在偵測使用者之手指72在觸控靈敏顯示器74上之一靜置手觸控之後,觸控靈敏顯示器74偵測筆76之一筆尖接近。回應於偵測靜置手觸控與筆尖接近之組合,而觸控靈敏顯示器立即顯示與影像78相關聯之命令「1」、「2」及「3」。因此,在此實施例中,觸控靈敏顯示器74可回應於靜置手觸控與筆尖接近之組合而比在單獨使用靜置手觸控之狀況下更快速地將該等命令淡入視圖。因此,在此實施例中,靜置手觸控與筆尖接近之組合給予交互顯示裝置70之使用者一更快之解决方案,正如一鍵盤捷徑可提供傳統個人電腦之使用者一樣。大體而言,可分離該等命令之視覺外觀及該等命令之實體可存取性。舉例而言,在接近於手之筆觸控該顯示幕時,一些或所有命令可立即行動。作為另一實例,可瞭解極接近於手之筆觸以自命令「1」所表示之徑向選單選擇一選項,無論該或該等命令是否彼時在視覺上被顯示。
此外,在一些狀況下,如本文所述,包含一觸控靈敏顯示器及與該觸控靈敏顯示器操作性地耦合之介面軟體的觸控靈敏計算系統可經組態以偵測施加於顯示在該觸控靈敏顯示器上之一項目之觸控輸入,且回應於此偵測而在該觸控靈敏顯示器上顯示依據該項目可執行之一或多個筆觸控可操作命令。
筆觸控可操作命令可為包括如上所述之該等觸控可操作命令之任何適合類型。另外,筆觸控可操作命令可進一步包括具有一更加精確性質之觸控可操作命令,其利用該顯示器之特定且相對較小之交互顯示區域,其中筆型觸控器具之操作端與該觸控靈敏顯示器相互作用。因此,筆觸控可操作命令可給予使用者輕鬆完成精確任務之潛在優點,而無需改變至一不同應用模式及/或以一放大視圖察看數位工作區。換言之,筆觸控可操作命令可有助於以一可控且精確之方式精確操作顯示於觸控靈敏顯示器上之物件,該可控且精確之方式對於使用可封閉該顯示器之一更大交互區域之指尖是不可行的。
在一些狀況下,觸控靈敏顯示器可經組態以在觸控輸入之偵測後的一預定時間間隔之後顯示筆觸控可操作命令,如上文關於觸控可操作命令所描述。
在一些實施例中,筆觸控可操作命令可包括經由操作筆型器具可執行之移動命令,以引起項目在該觸控靈敏顯示器上移動至一所要位置。作為一實例,第6圖展示經由手觸控粗略拖曳一物件且第7圖展示經由筆觸控精確拖曳一物件,如在下文中更詳細地描述。
第6圖展示交互顯示裝置80之一實施例之示意描繪,交互顯示裝置80在觸控靈敏顯示器84上顯示影像82。如圖所示,使用者之手指86正執行一粗略手勢以實際上「拋擲」影像82。因此,觸控靈敏顯示器84顯示該影像自虛線所指示之原始位置被調整至實線所指示之最終位置。
第7圖展示交互顯示裝置90之一實施例之示意描繪,交互顯示裝置90顯示經由筆觸控精確拖曳一物件。如圖所示,筆92正執行精確拖曳影像94。因此,觸控靈敏顯示器96顯示該影像自虛線所指示之原始位置被調整至實線所指示之最終精確位置。如圖所示,使用者正將影像94精確定位,影像94與顯示在觸控靈敏顯示器96上之另一物件98鄰接。
在一些實施例中,筆觸控可操作命令可包括經由操作筆型器具可執行之複製及置放命令,以引起將項目之複本置放於該觸控靈敏顯示器上之一所要位置處。第8圖至第10圖圖示此「複製及置放」命令之一實例。第8圖展示交互顯示裝置100之一實施例之示意描繪,交互顯示裝置100顯示使用者在觸控靈敏顯示器102上經由使用者之手指106之手觸控選擇一物件104。在將其完成之後,如第9圖中所示,使用者經由筆觸控108複製物件104且開始精確拖曳該已複製之物件。在複製物件之後,使用者經由筆觸控精確拖拽該複製之物件且將該複製之物件精確置放於與顯示在觸控靈敏顯示裝置102上之一線鄰接,如第10圖中所示。同樣地,一「複製及拋擲」命令藉由將複製之項目拋擲至第二顯示幕上來允許類似處理結束,以便實體顯示幕帶槽框不防止將物件複製至一單獨顯示幕或離開顯示幕之位置。
在一些實施例中,筆觸控可操作命令可包括經由操作筆型器具可執行之重調大小命令,以引起項目歷經一所要重調大小量。此命令可包括觸控靈敏顯示器在選定影像上顯示「控點(handle)」,筆可使用該等控點來精確調整該選定影像之大小。
此外,在一些實施例中,筆觸控可操作命令可包括經由操作筆型器具可執行之旋轉命令,以引起項目歷經一所要旋轉量。此外,藉由利用筆,此旋轉可比經由手觸控之旋轉更加精確且可控。藉由使用兩個觸控來代替筆,可在無需用筆定標小的選擇控點之情況下達成選定物件之粗略重調大小及旋轉。
在一些實施例中,可利用手觸控與筆觸控之組合來操作及/或組織在觸控靈敏顯示器上顯示之項目之集合,其中一實例圖示於第11圖至第13圖中,且如下更詳細地所描述。第11圖展示交互顯示裝置120之一實施例,交互顯示裝置120在觸控靈敏顯示器124上顯示項目之一集合122。使用者126之手觸控選擇該集合,接著觸控靈敏顯示器124在如第12圖中所示之集合122內顯示項目之擴展128,使用者126可使用諸如藉由夾緊之雙手觸控進一步操作該擴展。在將其完成之後,筆130之筆觸控可用以自如第13圖中所示之集合選擇一項目132。該選定項目132然後可以如本文所述之任何數量之方式經由筆觸控進一步加以操作。以此方式,例如,可將一集合操作為一單元,或可個別地操作該集合之內的元素而不求助於顯式「分組」及「取消分組」命令。
如應自上文所瞭解,可使用本文所論述之雙模態(例如,手觸控及筆觸控)及雙手(兩手操作的)介面方法獲取各種優點及利益。此等方法可用於多種設定中。如另一實例,在雙顯示幕實施例中,一顯示幕可經保留用於一輸入類型(例如,手觸控),而另一顯示幕經保留用於另一輸入類型(例如,筆觸控)。在該等顯示幕之間的此分工可有助於輸入解譯、改良人體工學及簡易使用介面,及/或改良諸如對顯示幕之偶然手靜置或偶然觸控之非所欲輸入的拒絕。在雙顯示幕環境中之另一示範性利益將為在偵測到使用者之雙手正用以將輸入施加至另一顯示幕之後减少該等顯示幕中之一者上之數位轉換器功率(且藉此延長裝置之電池充電)。
再次參閱第1圖,邏輯子系統22可包括一或多個實體裝置,該一或多個實體裝置經組態以執行一或多個指令。舉例而言,該邏輯子系統可經組態以執行一或多個指令,該一或多個指令為一或多個程式、常用程式、物件、組件、資料結構或其他邏輯構造之部分。此等指令可經實施以執行一任務、實施一資料類型、轉換一或多個裝置之狀態或者達到一所要結果。該邏輯子系統可包括經組態以執行軟體指令之一或多個處理器。另外或其他,該邏輯子系統可包括經組態以執行硬體或韌體指令之一或多個硬體或韌體邏輯機。邏輯子系統可視情況包括分佈於兩個或兩個以上裝置中之個別組件,在一些實施例中可遠端地定位該兩個或兩個以上裝置。
記憶體/資料保持子系統24可包括一或多個實體裝置,該一或多個實體裝置經組態以保持由邏輯子系統可執行之資料及/或指令以實施本文所述之方法及過程。當此等方法及過程得以實施時,記憶體/資料保持子系統24之狀態可得以轉換(例如,以保持不同資料)。記憶體/資料保持子系統24可包括可移除媒體及/或內建裝置。記憶體/資料保持子系統24可包括光學記憶體裝置、半導體記憶體裝置及/或磁性記憶體裝置及其他此類裝置。記憶體/資料保持子系統24可包括具有以下特性中之一或多者的裝置:揮發性、非揮發性、動態、靜態、讀/寫、唯讀、隨機存取、順序存取、位置可定址、檔案可定址及內容可定址。在一些實施例中,邏輯子系統22及記憶體/資料保持子系統24可整合至一或多個共用裝置中,諸如在一晶片上之特殊應用積體電路或系統。
當被包括時,顯示子系統26可用以呈現由記憶體/資料保持子系統24保持之資料之視覺表示。當本文所述之方法及過程改變由資料保持子系統保持之資料,且因此轉換該資料保持子系統之狀態時,可同樣將顯示子系統26之狀態轉換至基礎資料中之視覺表示變化。顯示子系統26可包括實際上利用任何類型之技術之一或多個顯示裝置。此等顯示裝置可與邏輯子系統22及/或記憶體/資料保持子系統24組合於一共享外殼中,或此等顯示裝置可為周邊顯示裝置。
應瞭解,文本所述之組態及/或方法在本質上為示範性的,且不以限制方式考慮此等特定實施例或實例,因為許多變化是可能的。本文所述之特定常用程式或方法可表示任何數量之處理策略中之一或多者。因而,可以所說明之順序、以其他順序、並行地執行所說明之各種動作,或在一些狀況下可進行省略某些動作。同樣地,可改變上述過程之次序。
本揭示案之標的包括本文揭示之各種過程、系統及組態及其他特徵結構、功能、動作及/或性質之所有新穎且非明顯之組合及子組合,以及任何及所有其等效物。
20...觸控靈敏計算系統
22...邏輯子系統
24...記憶體/資料保持子系統
26...顯示子系統
28...I/O子系統
30...數位筆記型電腦
32...觸控靈敏顯示器
34...鉸鏈
36...使用者之手指
38...筆
40...物件
42...虛線框
50...示範性介面方法
52...步驟
54...步驟
60...交互顯示裝置
62...使用者之手指
64...觸控靈敏顯示器
66...影像
70...交互顯示裝置
72...使用者之手指
74...觸控靈敏顯示器
76...筆
78...影像
80...交互顯示裝置
82...影像
84...觸控靈敏顯示器
86...使用者之手指
90...交互顯示裝置
92...筆
94...影像
96...觸控靈敏顯示器
98...物件
100...交互顯示裝置
102...觸控靈敏顯示器
104...物件
106...使用者之手指
108...筆觸控
120...交互顯示裝置
122...項目之集合
124...觸控靈敏顯示器
126...使用者
128...項目之擴展
130...筆
132...項目
第1圖展示交互顯示裝置之一實施例之方塊圖。
第2圖展示與觸控靈敏計算裝置之一實施例相互作用之使用者之示意描繪。
第3圖展示用於觸控靈敏計算裝置之一示範性介面方法之流程圖。
第4圖展示回應於偵測一靜置手觸控而顯示觸控可操作命令之觸控靈敏計算裝置之一實施例的示意描繪。
第5圖展示回應於偵測一靜置手觸控及筆尖接近而顯示觸控可操作命令之觸控靈敏計算裝置之一實施例的示意描繪。
第6圖展示顯示經由手觸控粗略拖曳一物件之觸控靈敏計算裝置之一實施例的示意描繪。
第7圖展示顯示經由筆觸控精確拖曳一物件之觸控靈敏計算裝置之一實施例的示意描繪。
第8圖展示顯示使用者經由手觸控選擇一物件之觸控靈敏計算裝置之一實施例的示意描繪。
第9圖展示使用者經由筆觸控複製第8圖之物件。
第10圖展示使用者經由筆觸控置放第9圖之複製之物件。
第11圖展示顯示使用者經由手觸控選擇一集合之觸控靈敏計算裝置之一實施例的示意描繪。
第12圖展示使用者經由雙手的手觸控擴展第11圖之集合。
第13圖展示使用者經由筆觸控自第11圖之集合選擇一物件。
20...觸控靈敏計算系統
22...邏輯子系統
24...記憶體/資料保持子系統
26...顯示子系統
28...I/O子系統

Claims (20)

  1. 一種觸控靈敏計算系統,包含:一觸控靈敏顯示器;及與該觸控靈敏顯示器操作性地耦合之介面軟體,其中該介面軟體經組態以:偵測施加於該觸控靈敏顯示器之一觸控輸入;藉由判定該觸控輸入是為施加於該觸控靈敏顯示器上之一手觸控輸入或為施加於該觸控靈敏顯示器上之一筆觸控輸入而區分不同類型之觸控;及若該觸控輸入經判定為施加於該觸控靈敏顯示器上之一手觸控輸入,則在該觸控靈敏顯示器上之一位置處顯示一觸控可操作使用者介面,該位置視施加該觸控輸入於該觸控靈敏顯示器之位置而定。
  2. 如申請專利範圍第1項之系統,其中該介面軟體經組態以在偵測該手觸控輸入後的一預定時間間隔經過之後,顯示該觸控可操作使用者介面。
  3. 如申請專利範圍第2項之系統,其中該介面軟體經組態以偵測一筆型觸控器具之一操作端朝該觸控靈敏顯示器上之該位置之接近,且在該預定時間間隔期間偵測到此接近時,在該預定時間間隔完全經過之前顯示該觸控可操作使用者介面。
  4. 如申請專利範圍第1項之系統,其中該手觸控輸入引起在該觸控靈敏顯示器上顯示之一項目之選擇,且其中該觸控可操作使用者介面之觸控可操作命令視由該介面軟體所偵測之該項目之特性而定。
  5. 如申請專利範圍第4項之系統,其中該等觸控可操作命令包括剪切、複製及貼上功能。
  6. 如申請專利範圍第4項之系統,其中該等觸控可操作命令包括用於將該項目儲存於一個人資訊管理概要中之功能性,該個人資訊管理概要包括聯繫人項目及日程項目。
  7. 一種觸控靈敏計算系統,包含:一觸控靈敏顯示器;及與該觸控靈敏顯示器操作性地耦合之介面軟體,其中該介面軟體經組態以:偵測施加於在該觸控靈敏顯示器上顯示之一項目的一觸控輸入;判定該觸控輸入是為一手觸控輸入或為一筆觸控輸入;及若該觸控輸入經判定為一手觸控輸入且施加該手觸控輸入至該觸控靈敏顯示器上所顯示之一項目,則在該 觸控靈敏顯示器上顯示在該項目上可執行之一或多個筆觸控可操作命令。
  8. 如申請專利範圍第7項之系統,其中該一或多個筆觸控可操作命令包括經由操作一筆型器具而可執行之一複製及置放命令,以使該項目之一複本置放於該觸控靈敏顯示器上之一所要位置處。
  9. 如申請專利範圍第7項之系統,其中該一或多個筆觸控可操作命令包括經由操作一筆型器具而可執行之一移動命令,以使該項目移動至該觸控靈敏顯示器上之一所要位置處。
  10. 如申請專利範圍第7項之系統,其中該一或多個筆觸控可操作命令包括經由操作一筆型器具而可執行之一重調大小命令,以使該項目歷經一所要重調大小量。
  11. 如申請專利範圍第7項之系統,其中該一或多個筆觸控可操作命令包括經由操作一筆型器具而可執行之一旋轉命令,以使該項目歷經一所要旋轉量。
  12. 如申請專利範圍第7項之系統,其中該介面軟體經組態以在偵測該手觸控輸入後的一預定時間間隔經過之 後,顯示該一或多個筆觸控可操作命令。
  13. 如申請專利範圍第12項之系統,其中該介面軟體經組態以偵測一筆型器具之一操作端朝該項目之接近,且在該預定時間間隔期間偵測到此接近時,在該預定時間間隔完全經過之前顯示該一或多個筆觸控可操作命令。
  14. 一種用於一觸控靈敏計算裝置之介面方法,該介面方法包含以下步驟:偵測施加於一觸控靈敏顯示器之一觸控輸入;回應偵測施加於該觸控靈敏顯示器之該觸控輸入,而引起在該觸控靈敏顯示器上所顯示之一項目之選擇,且在該觸控靈敏顯示器上顯示依據該項目而可執行之一或多個觸控可操作命令,其中該一或多個觸控可操作命令顯示於該觸控靈敏顯示器上之一位置中,該位置視該項目之一位置而定。
  15. 如申請專利範圍第14項之介面方法,其中該觸控輸入為靜置於該項目上之一手觸控輸入。
  16. 如申請專利範圍第15項之介面方法,其中該一或多個觸控可操作命令為筆觸控可操作命令,且在一預定時間間隔經過之後接近該項目顯示該一或多個觸控可操作 命令。
  17. 如申請專利範圍第16項之介面方法,進一步包含以下步驟:偵測一筆型器具之一操作端朝該項目之接近,且若在該預定時間間隔期間偵測到此接近,則引起該一或多個觸控可操作命令在該預定時間間隔完全經過之前之顯示。
  18. 如申請專利範圍第16項之介面方法,其中該一或多個觸控可操作命令視該項目之特性而定。
  19. 如申請專利範圍第18項之介面方法,其中該一或多個觸控可操作命令包括用於將該項目儲存於一個人資訊管理概要中之命令,該個人資訊管理概要包括聯繫人項目及日程項目。
  20. 如申請專利範圍第18項之介面方法,其中該一或多個觸控可操作命令包括剪切、複製及貼上命令。
TW099105339A 2009-03-24 2010-02-24 雙模態觸控靈敏數位筆記型電腦 TWI493394B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US12/410,311 US20100251112A1 (en) 2009-03-24 2009-03-24 Bimodal touch sensitive digital notebook

Publications (2)

Publication Number Publication Date
TW201037577A TW201037577A (en) 2010-10-16
TWI493394B true TWI493394B (zh) 2015-07-21

Family

ID=42781756

Family Applications (1)

Application Number Title Priority Date Filing Date
TW099105339A TWI493394B (zh) 2009-03-24 2010-02-24 雙模態觸控靈敏數位筆記型電腦

Country Status (8)

Country Link
US (1) US20100251112A1 (zh)
EP (1) EP2411894A4 (zh)
JP (1) JP5559866B2 (zh)
KR (1) KR20120003441A (zh)
CN (1) CN102362249B (zh)
RU (1) RU2011139143A (zh)
TW (1) TWI493394B (zh)
WO (1) WO2010111003A2 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10915163B2 (en) 2018-01-02 2021-02-09 Compal Electronics, Inc. Electronic device, hinge assembly and augmented reality interaction process for electronic device

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
US9035887B1 (en) * 2009-07-10 2015-05-19 Lexcycle, Inc Interactive user interface
US20120313865A1 (en) * 2009-08-25 2012-12-13 Promethean Ltd Interactive surface with a plurality of input detection technologies
JP2011150413A (ja) 2010-01-19 2011-08-04 Sony Corp 情報処理装置、操作入力方法及び操作入力プログラム
US8261213B2 (en) 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US9411504B2 (en) 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Copy and staple gestures
US9519356B2 (en) 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
US20110191704A1 (en) * 2010-02-04 2011-08-04 Microsoft Corporation Contextual multiplexing gestures
US9274682B2 (en) 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US9965165B2 (en) 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US9310994B2 (en) 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US9454304B2 (en) 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US9075522B2 (en) 2010-02-25 2015-07-07 Microsoft Technology Licensing, Llc Multi-screen bookmark hold gesture
JP5666239B2 (ja) * 2010-10-15 2015-02-12 シャープ株式会社 情報処理装置、情報処理装置の制御方法、プログラム、および記録媒体
KR102033599B1 (ko) 2010-12-28 2019-10-17 삼성전자주식회사 페이지간 오브젝트 이동 방법 및 인터페이스 장치
TWI467463B (zh) * 2011-05-27 2015-01-01 Asustek Comp Inc 具觸控式螢幕的電腦系統及其手勢的處理方法
KR101802759B1 (ko) * 2011-05-30 2017-11-29 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
US8640047B2 (en) 2011-06-01 2014-01-28 Micorsoft Corporation Asynchronous handling of a user interface manipulation
CN109460118A (zh) * 2011-09-30 2019-03-12 英特尔公司 可变换的计算设备
KR102027601B1 (ko) 2011-10-18 2019-10-01 카네기 멜론 유니버시티 터치 감지 표면 상의 터치 이벤트를 분류하는 방법 및 장치
EP2795430A4 (en) 2011-12-23 2015-08-19 Intel Ip Corp TRANSITION MECHANISM FOR A COMPUTER SYSTEM WITH USER DETECTION
US9678574B2 (en) 2011-12-23 2017-06-13 Intel Corporation Computing system utilizing three-dimensional manipulation command gestures
US10345911B2 (en) 2011-12-23 2019-07-09 Intel Corporation Mechanism to provide visual feedback regarding computing system command gestures
US9684379B2 (en) * 2011-12-23 2017-06-20 Intel Corporation Computing system utilizing coordinated two-hand command gestures
US9928562B2 (en) 2012-01-20 2018-03-27 Microsoft Technology Licensing, Llc Touch mode and input type recognition
US20130191781A1 (en) * 2012-01-20 2013-07-25 Microsoft Corporation Displaying and interacting with touch contextual user interface
US10001906B2 (en) * 2012-02-06 2018-06-19 Nokia Technologies Oy Apparatus and method for providing a visual indication of an operation
KR102129374B1 (ko) 2012-08-27 2020-07-02 삼성전자주식회사 사용자 인터페이스 제공 방법 및 기계로 읽을 수 있는 저장 매체 및 휴대 단말
KR102063952B1 (ko) * 2012-10-10 2020-01-08 삼성전자주식회사 멀티 디스플레이 장치 및 멀티 디스플레이 방법
US20150212647A1 (en) 2012-10-10 2015-07-30 Samsung Electronics Co., Ltd. Head mounted display apparatus and method for displaying a content
US9589538B2 (en) 2012-10-17 2017-03-07 Perceptive Pixel, Inc. Controlling virtual objects
US9582122B2 (en) 2012-11-12 2017-02-28 Microsoft Technology Licensing, Llc Touch-sensitive bezel techniques
JP6003566B2 (ja) * 2012-11-19 2016-10-05 コニカミノルタ株式会社 オブジェクト操作装置及びオブジェクト操作制御プログラム
KR20140114766A (ko) 2013-03-19 2014-09-29 퀵소 코 터치 입력을 감지하기 위한 방법 및 장치
KR102131825B1 (ko) 2013-03-20 2020-07-09 엘지전자 주식회사 적응적 터치 센서티브 영역을 제공하는 폴더블 디스플레이 디바이스 및 그 제어 방법
KR102070776B1 (ko) * 2013-03-21 2020-01-29 엘지전자 주식회사 디스플레이 장치 및 그 제어 방법
US9612689B2 (en) 2015-02-02 2017-04-04 Qeexo, Co. Method and apparatus for classifying a touch event on a touchscreen as related to one of multiple function generating interaction layers and activating a function in the selected interaction layer
US9013452B2 (en) 2013-03-25 2015-04-21 Qeexo, Co. Method and system for activating different interactive functions using different types of finger contacts
US10599250B2 (en) * 2013-05-06 2020-03-24 Qeexo, Co. Using finger touch types to interact with electronic devices
US9477337B2 (en) 2014-03-14 2016-10-25 Microsoft Technology Licensing, Llc Conductive trace routing for display and bezel sensors
US9727161B2 (en) * 2014-06-12 2017-08-08 Microsoft Technology Licensing, Llc Sensor correlation for pen and touch-sensitive computing device interaction
KR102332468B1 (ko) * 2014-07-24 2021-11-30 삼성전자주식회사 기능 제어 방법 및 그 전자 장치
KR20160023298A (ko) * 2014-08-22 2016-03-03 삼성전자주식회사 전자 장치 및 전자 장치의 입력 인터페이스 제공 방법
US10146409B2 (en) 2014-08-29 2018-12-04 Microsoft Technology Licensing, Llc Computerized dynamic splitting of interaction across multiple content
US9329715B2 (en) 2014-09-11 2016-05-03 Qeexo, Co. Method and apparatus for differentiating touch screen users based on touch event analysis
US11619983B2 (en) 2014-09-15 2023-04-04 Qeexo, Co. Method and apparatus for resolving touch screen ambiguities
US10606417B2 (en) 2014-09-24 2020-03-31 Qeexo, Co. Method for improving accuracy of touch screen event analysis by use of spatiotemporal touch patterns
US10282024B2 (en) 2014-09-25 2019-05-07 Qeexo, Co. Classifying contacts or associations with a touch sensitive device
CN105589648A (zh) * 2014-10-24 2016-05-18 深圳富泰宏精密工业有限公司 快速复制粘贴系统及方法
US10642404B2 (en) 2015-08-24 2020-05-05 Qeexo, Co. Touch sensitive device with multi-sensor stream synchronized data
US10216405B2 (en) * 2015-10-24 2019-02-26 Microsoft Technology Licensing, Llc Presenting control interface based on multi-input command
US11009989B2 (en) 2018-08-21 2021-05-18 Qeexo, Co. Recognizing and rejecting unintentional touch events associated with a touch sensitive device
US10942603B2 (en) 2019-05-06 2021-03-09 Qeexo, Co. Managing activity states of an application processor in relation to touch or hover interactions with a touch sensitive device
US11980792B2 (en) 2019-06-05 2024-05-14 Qeexo, Co. Method and apparatus for calibrating a user activity model used by a mobile device
CN112114688A (zh) * 2019-06-20 2020-12-22 摩托罗拉移动有限责任公司 用于旋转显示器上呈现的图形对象的电子设备及相应方法
US11231815B2 (en) 2019-06-28 2022-01-25 Qeexo, Co. Detecting object proximity using touch sensitive surface sensing and ultrasonic sensing
US11592423B2 (en) 2020-01-29 2023-02-28 Qeexo, Co. Adaptive ultrasonic sensing techniques and systems to mitigate interference
JP2022065419A (ja) * 2020-10-15 2022-04-27 セイコーエプソン株式会社 表示方法、及び表示装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060117108A1 (en) * 2004-12-01 2006-06-01 Richard Salisbury Touch screen control
US20060209016A1 (en) * 2005-03-17 2006-09-21 Microsoft Corporation Computer interaction based upon a currently active input device
US20060267966A1 (en) * 2005-05-24 2006-11-30 Microsoft Corporation Hover widgets: using the tracking state to extend capabilities of pen-operated devices
CN1906565A (zh) * 2004-01-09 2007-01-31 诺基亚公司 自适应用户界面输入设备
WO2008047552A1 (en) * 2006-09-28 2008-04-24 Kyocera Corporation Portable terminal and method for controlling the same

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5448263A (en) * 1991-10-21 1995-09-05 Smart Technologies Inc. Interactive display system
US5956020A (en) * 1995-07-27 1999-09-21 Microtouch Systems, Inc. Touchscreen controller with pen and/or finger inputs
TW449709B (en) * 1997-11-17 2001-08-11 Hewlett Packard Co A method for distinguishing a contact input
US6310610B1 (en) * 1997-12-04 2001-10-30 Nortel Networks Limited Intelligent touch display
JP2001134382A (ja) * 1999-11-04 2001-05-18 Sony Corp 図形処理装置
US7190348B2 (en) * 2000-12-26 2007-03-13 International Business Machines Corporation Method for touchscreen data input
US7254775B2 (en) * 2001-10-03 2007-08-07 3M Innovative Properties Company Touch panel system and method for distinguishing multiple touch inputs
US7532206B2 (en) * 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7055110B2 (en) * 2003-07-28 2006-05-30 Sig G Kupka Common on-screen zone for menu activation and stroke input
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7743348B2 (en) * 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
US7454717B2 (en) * 2004-10-20 2008-11-18 Microsoft Corporation Delimiters for selection-action pen gesture phrases
US7639876B2 (en) * 2005-01-14 2009-12-29 Advanced Digital Systems, Inc. System and method for associating handwritten information with one or more objects
US20060267958A1 (en) * 2005-04-22 2006-11-30 Microsoft Corporation Touch Input Programmatical Interfaces
CN1991720A (zh) * 2005-12-28 2007-07-04 中兴通讯股份有限公司 一种自动实现手写输入的装置
CN100426212C (zh) * 2005-12-28 2008-10-15 中兴通讯股份有限公司 一种虚拟键盘和手写协同输入的系统及其实现方法
WO2008020446A1 (en) * 2006-08-15 2008-02-21 N-Trig Ltd. Gesture detection for a digitizer
US7855718B2 (en) * 2007-01-03 2010-12-21 Apple Inc. Multi-touch input discrimination
WO2008095132A2 (en) * 2007-01-31 2008-08-07 Perceptive Pixel, Inc. Methods of interfacing with multi-point input devices and multi-point input systems employing interfacing techniques
CN101308434B (zh) * 2007-05-15 2011-06-22 宏达国际电子股份有限公司 使用者界面的操作方法
US8330733B2 (en) * 2009-01-21 2012-12-11 Microsoft Corporation Bi-modal multiscreen interactivity

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1906565A (zh) * 2004-01-09 2007-01-31 诺基亚公司 自适应用户界面输入设备
US20060117108A1 (en) * 2004-12-01 2006-06-01 Richard Salisbury Touch screen control
US20060209016A1 (en) * 2005-03-17 2006-09-21 Microsoft Corporation Computer interaction based upon a currently active input device
US20060267966A1 (en) * 2005-05-24 2006-11-30 Microsoft Corporation Hover widgets: using the tracking state to extend capabilities of pen-operated devices
WO2008047552A1 (en) * 2006-09-28 2008-04-24 Kyocera Corporation Portable terminal and method for controlling the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10915163B2 (en) 2018-01-02 2021-02-09 Compal Electronics, Inc. Electronic device, hinge assembly and augmented reality interaction process for electronic device

Also Published As

Publication number Publication date
KR20120003441A (ko) 2012-01-10
WO2010111003A2 (en) 2010-09-30
CN102362249B (zh) 2014-11-19
JP2012521605A (ja) 2012-09-13
CN102362249A (zh) 2012-02-22
WO2010111003A3 (en) 2011-01-13
JP5559866B2 (ja) 2014-07-23
US20100251112A1 (en) 2010-09-30
TW201037577A (en) 2010-10-16
EP2411894A2 (en) 2012-02-01
RU2011139143A (ru) 2013-03-27
EP2411894A4 (en) 2015-05-27

Similar Documents

Publication Publication Date Title
TWI493394B (zh) 雙模態觸控靈敏數位筆記型電腦
US11320931B2 (en) Swipe-based confirmation for touch sensitive devices
US9223471B2 (en) Touch screen control
US9146672B2 (en) Multidirectional swipe key for virtual keyboard
US9477382B2 (en) Multi-page content selection technique
US9134892B2 (en) Drag-based content selection technique for touch screen UI
US9766723B2 (en) Stylus sensitive device with hover over stylus control functionality
US20120169776A1 (en) Method and apparatus for controlling a zoom function
US20120105367A1 (en) Methods of using tactile force sensing for intuitive user interface
US20150177933A1 (en) Visual thumbnail scrubber for digital content
US20140306897A1 (en) Virtual keyboard swipe gestures for cursor movement
US20120174044A1 (en) Information processing apparatus, information processing method, and computer program
US9030430B2 (en) Multi-touch navigation mode
US20140253470A1 (en) Touch sensitive device with stylus-based grab and paste functionality
US8963865B2 (en) Touch sensitive device with concentration mode
TW201109994A (en) Method for controlling the display of a touch screen, user interface of the touch screen, and electronics using the same
US9134903B2 (en) Content selecting technique for touch screen UI
US20140173529A1 (en) Circular gesture for touch sensitive ui control feature
CN103809888A (zh) 移动终端及其操控方法
US20140215398A1 (en) Interface scanning for disabled users
CN103809903B (zh) 用于控制虚拟屏幕的方法和装置
EP2829967A2 (en) Method of processing input and electronic device thereof
US20140240232A1 (en) Automatic Cursor Rotation
WO2016183912A1 (zh) 菜单布局方法及装置

Legal Events

Date Code Title Description
MM4A Annulment or lapse of patent due to non-payment of fees