TWI468989B - 基於手勢之輸入命令 - Google Patents

基於手勢之輸入命令 Download PDF

Info

Publication number
TWI468989B
TWI468989B TW101144981A TW101144981A TWI468989B TW I468989 B TWI468989 B TW I468989B TW 101144981 A TW101144981 A TW 101144981A TW 101144981 A TW101144981 A TW 101144981A TW I468989 B TWI468989 B TW I468989B
Authority
TW
Taiwan
Prior art keywords
input
chassis
gesture
command
input member
Prior art date
Application number
TW101144981A
Other languages
English (en)
Other versions
TW201327279A (zh
Inventor
Dustin L Hoffman
Michael Delpier
Wendy S Spurlock
Original Assignee
Hewlett Packard Development Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co filed Critical Hewlett Packard Development Co
Publication of TW201327279A publication Critical patent/TW201327279A/zh
Application granted granted Critical
Publication of TWI468989B publication Critical patent/TWI468989B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

基於手勢之輸入命令
本發明係有關輸入命令,特別是基於手勢之輸入命令。
當與提供在裝置上的使用者介面互動時,使用者可以接近使用裝置的輸入構件,例如鍵盤和/或滑鼠。使用者可以將滑鼠從一位置重新定位到另一位置以導航於使用者介面以及存取使用者介面上提出的目視內容。於另一範例,使用者可以利用鍵盤上的快捷鍵而在使用者介面上的目視內容之間存取和/或導航。
在一實施例中揭示一種裝置,其包括:機箱,其包括輸入構件;感測器,其偵測在機箱不包括輸入構件之位置的手勢;以及控制器;如果在機箱不包括輸入構件的位置偵測到手勢,則該控制器基於手勢而對裝置執行輸入命令。
在另一實施例中揭示一種偵測用於裝置之輸入的方法,其包括:以感測器偵測在裝置之機箱不包括輸入構件之位置的手勢;以及如果在機箱不包括輸入構件的位置偵測到手勢,則基於手勢而對裝置執行輸入命令。
在又另一實施例中揭示一種電腦可讀取的媒體,其包括的指令如果執行的話則使控制器去:以感測器偵測在裝置的機箱不包括輸入構件之位置的手勢;以及如果在機箱 不包括輸入構件的位置偵測到手勢,則基於手勢而對裝置執行輸入命令。
裝置包括感測器和具有該裝置之輸入構件的機箱。機箱可以是裝置的框架、封殼和/或箱罩。輸入構件可以是觸控板或鍵盤,其不是位在機箱之一或更多個位置(例如機箱的邊緣)。感測器可以是觸控感測器、鄰近感測器、觸控表面和/或影像捕捉構件,其可以偵測來自裝置使用者手勢的資訊。回應於偵測手勢的資訊,該裝置可以判定是否在機箱不包括輸入構件的位置做出手勢。如果在機箱不包括輸入構件的位置偵測到手勢,則該裝置可以基於手勢的資訊而辨識和執行用於裝置的輸入命令。輸入命令可以是裝置的輸入指令以存取和/或導航於使用者介面。
於一具體態樣,如果在機箱不包括輸入構件的位置偵測到手勢,則輸入命令可以辨識成手勢命令以在裝置使用者介面的內容之間導航。內容可以包括裝置的應用程式、檔案、媒體、選單、設定和/或壁紙。於另一具體態樣,如果輸入構件是由手勢所接近使用,則裝置將把用於裝置的輸入命令辨識成指標命令。指標命令可以用於存取和/或導航於使用者介面目前所提出的內容。藉由偵測手勢和判定是否在機箱不包括輸入構件的位置做出手勢,該裝置可以正確辨識對裝置的一或更多個輸入命令,而讓使用者以一或更多個手勢來存取和導航於使用者介面。
圖1示範根據範例的裝置100。裝置100可以是膝上型電腦、筆記型電腦、平板電腦、小筆電、單體電腦系統和/或桌上型電腦。於另一具體態樣,裝置100可以是蜂巢式電話裝置、PDA(personal digital assistant,個人數位助理)、E(electronic,電子)-閱讀器和/或任何具有機箱180的裝置,使用者可以經由手勢而與之互動。裝置100包括機箱180、控制器120、輸入構件135、感測器130、用於裝置100之構件而讓彼此溝通的溝通管道150。於一具體態樣,裝置100包括輸入應用程式,其可以獨立利用以及/或者配合控制器120來利用以管理裝置100。輸入應用程式可以是韌體或是可從裝置100的非瞬時之電腦可讀取的記憶體而由控制器120所執行的應用程式。
使用者可以在機箱180供裝置100之感測器130偵測的位置做出一或更多個手勢而與裝置100互動。為了本案的目的,機箱180包括裝置100的框架、封殼和/或箱罩。機箱180包括一或更多個位置,該等位置不包括裝置100的輸入構件135。輸入構件135是裝置100的硬體構件,例如觸控板和/或鍵盤。為了本案的目的,機箱180不包括輸入構件135的位置包括機箱180的空間和/或部分,例如機箱180的邊緣,而輸入構件135並未在此處。一或更多個邊緣可以包括機箱180的頂緣、底緣、左緣和/或右緣。於一具體態樣,機箱180包括頂部和底部。機箱180的頂部和底部都可以包括一或更多個不包括輸入構件135的對應位置。
感測器130是裝置100的硬體構件,而當使用者正做出一或更多個手勢來與裝置互動,感測器130可以偵測在機箱180不包括輸入構件135之一或更多個的位置之使用者的手或手指。於一具體態樣,感測器130可以是裝置100的觸控表面或鄰近感測器,其包括在機箱180不包括輸入構件135的對應位置。於其他具體態樣,感測器130可以是影像捕捉構件,其可以捕捉接近機箱180的一或更多個對應位置之手勢的視圖。為了本案的目的,手勢包括使用者觸碰或鄰近機箱180之位置的手指和/或手。於另一具體態樣,手勢可以包括當使用者觸碰或接近機箱180的位置時以至少一手指和/或手所做出的移動。
當偵測到手勢時,感測器130可以偵測手勢的資訊。該資訊可以包括對應於機箱180之接近位置和/或感測器130之接近位置的一或更多個座標。使用偵測到的接近位置資訊,控制器120和/或輸入應用程式可以判定是否在機箱180不包括輸入構件135的位置偵測到手勢。此外,使用偵測到的接近位置資訊,控制器120和/或輸入應用程式可以判定手勢是否包括移動和移動方向。
感測器130可以將偵測到的手勢資訊通往控制器120和/或輸入應用程式。控制器120和/或輸入應用程式可以使用該資訊來判定是否在機箱180不包括輸入構件135的對應位置偵測到手勢。於一具體態樣,如果感測器130是位在機箱180不包括輸入構件135的位置之觸控表面或鄰近感測器,則控制器120和/或輸入應用程式判定在機 箱180不包括輸入構件135的位置偵測到手勢,而回應於從感測器130接收的任何手勢資訊。於另一具體態樣,控制器120和/或輸入應用程式可以比較接近位置的座標和對應於機箱180不包括輸入構件135之位置的預先定義座標。如果發現符合,則控制器120和/或輸入應用程式判定已在機箱180不包括輸入構件135的位置偵測到手勢。
如果在機箱180不包括輸入構件135的位置偵測到手勢,則控制器120和/或輸入應用程式接著把輸入命令140辨識為手勢命令。為了本案的目的,輸入命令140包括輸入指令以存取和/或導航於使用者介面。手勢命令可以是要在裝置100的使用者介面內容之間導航的指令。當辨識對應的手勢命令時,控制器120和/或輸入應用程式比較手勢的資訊和預先定義的手勢命令資訊。如果偵測到的資訊符合對應的手勢命令,則將已辨識出輸入命令140,並且控制器120和/或輸入應用程式可以對裝置100執行輸入命令140。
於另一具體態樣,如果尚未接近機箱180不包括輸入構件135的位置,則控制器120和/或輸入應用程式可以判定是否已接近使用輸入構件135。使用者可以在輸入構件135做出手勢而接近使用輸入構件135。如果接近使用輸入構件135,則控制器120和/或輸入應用程式可以判定用於裝置100的輸入命令140不是手勢命令。於一具體態樣,如果接近使用觸控板,則控制器120和/或輸入應用程式判定輸入命令140是要存取和導航於使用者介面目前提出 之內容的指標命令。於另一具體態樣,如果接近使用鍵盤,則控制器120和/或輸入應用程式可以辨識對應於使用者接近使用鍵盤按鍵之對應的英數字輸入。
圖2A和圖2B示範根據範例之裝置200的機箱280和偵測來自使用者205手勢的感測器230。使用者205可以是經由一或更多個手勢而可以接近使用裝置200的任何人。機箱280可以是框架、封殼和/或箱罩以容置裝置200的一或更多個構件。於一具體態樣,機箱280的組成可以包括合金、塑膠、碳纖維、玻璃纖維和/或附加和/或取代前述的任何額外元件或元件的組合。如圖2A所示,機箱280包括一或更多個對應的位置270,其不包括裝置200的輸入構件235。如上面所注意,機箱280不包括輸入構件235的位置270包括機箱280的空間和/或部分,例如機箱280的邊緣,而輸入構件235並未在此處。
於一具體態樣,機箱280不包括輸入構件235的位置270包括機箱280的邊緣。一或更多個邊緣包括機箱280的頂緣、底緣、右緣和/或左緣。此外,如圖2A所示,一或更多個對應的位置270可以包括可見的標記以顯示機箱280上包括對應位置270的所在。可見的標記可以是在機箱280之表面上的可見印刷物。於另一具體態樣,可見的標記可以包括在機箱280表面上的裂隙或位置,其由來自裝置200的光源所照亮。於其他具體態樣,可見的標記可以是任何額外可見的物體,其可以用於指出機箱280不包括輸入構件235的對應位置。
機箱280可以包括頂部和底部。頂部和底部都可以包括不包含輸入構件235的對應位置270。於一具體態樣,機箱280底部不包括輸入構件235的對應位置270可以是在輸入構件235之上、之下、左邊和/或右邊。輸入構件235可以容置於機箱280的底部。為了本案的目的,輸入構件235是裝置200的硬體構件,例如觸控板或鍵盤,而使用者205可以為了非手勢命令而接近使用之。
此外,機箱280的頂部可以容置裝置200的顯示構件260。顯示構件260是硬體輸出構件,其可以將目視內容顯示在使用者介面265上以供裝置200的使用者205觀看和/或與之互動。於一具體態樣,顯示構件260是LCD(liquid crystal display,液晶顯示器),LED(light emitting diode,發光二極體)顯示器、CRT(cathode ray tube,陰極射線管)顯示器、電漿顯示器、投影機和/或任何建構成顯示使用者介面265以包含目視內容的額外裝置。目視內容可以包括裝置200的檔案、應用程式、文件、媒體、選單、次選單和/或壁紙。
如圖2A所示,裝置200可以包括一或更多個感測器230以在機箱280不包括輸入構件235的對應位置270偵測手勢。為了本案的目的,感測器230是裝置200的硬體構件,其可以偵測來自使用者205的手勢資訊。於一具體態樣,感測器230可以耦合於或整合在機箱280的單一位置270,例如機箱280的邊緣而靠近裝置200的鍵盤。於另一具體態樣,裝置200可以包括多於一個的感測器230,其位在機 箱280不包括輸入構件235的不同位置270。感測器230可以包括觸控感測器、觸控表面、鄰近感測器和/或任何額外硬體構件,其可以偵測觸碰和/或接近機箱280不包括輸入構件235之位置270的手勢資訊。
於另一具體態樣,如圖2B所示範,機箱280不包括輸入構件235的一或更多個位置235乃包括在機箱280的邊緣和輸入構件235之間的區域或間隔。如本具體態樣所示,機箱280不包括輸入構件235的對應位置270是在裝置200之觸控板構件的側邊,並且沒有抵達機箱280的邊緣。於其他具體態樣,一或更多個感測器230可以包括影像捕捉構件,其可以耦合於機箱280的頂部。影像捕捉構件可以捕捉底部之對應位置270的視圖以偵測來自使用者205的手勢。
當使用者205以手勢接近機箱280的對應位置270,感測器230可以偵測手勢的資訊。使用者205可以使用手指和/或手,藉由觸碰或鄰近機箱280而做出手勢。感測器230可以偵測在機箱280不包括輸入構件235的位置270之手勢,而偵測來自使用者205的手勢資訊。於一具體態樣,該資訊可以包括手勢所接近之機箱280的座標或感測器230的座標。感測器230可以把偵測到的手勢資訊分享給裝置200的控制器和/或輸入應用程式。回應於接收偵測的手勢資訊,則控制器和/或輸入應用程式可以辨識用於裝置200的輸入命令。
圖3示範根據範例之輸入應用程式310的方塊圖,其 辨識用於裝置的輸入命令。於一具體態樣,輸入應用程式310可以是嵌於裝置之一或更多個構件上的韌體。於另一具體態樣,輸入應用程式310可以是可存取自裝置之非揮發性電腦可讀取的記憶體之應用程式。電腦可讀取的記憶體是實體設備,其包含、儲存、溝通或傳輸裝置所用或關聯的應用程式。於一具體態樣,電腦可讀取的記憶體是耦合於裝置的硬碟、光碟、快閃碟、網路磁碟或任何其他形式的實體設備。
如圖3所示,感測器330已偵測到來自使用者的手勢資訊。於一具體態樣,該資訊包括偵測到手勢的機箱位置。於另一具體態樣,如果感測器330乃包括在機箱不包括輸入構件的位置,則該資訊可以包括手勢所接近之感測器330的位置。機箱和/或感測器330的位置可以由感測器330分享成為機箱或感測器330的座標。使用偵測到的手勢資訊,則控制器320和/或輸入應用程式310可以基於偵測到的手勢資訊而辨識出輸入命令。
於一具體態樣,控制器320和/或輸入應用程式310可以起初存取輸入命令的清單、表和/或資料庫,並且比較偵測到的手勢資訊和對應於裝置輸入命令的預先定義資訊。輸入命令的清單、表和/或資料庫可以當地儲存於裝置上或者遠端存取自另一裝置。如本具體態樣所示,輸入命令的清單、表和/或資料庫可以包括一或更多個手勢命令和一或更多個指標命令。手勢命令可以用於在使用者介面的內容之間導航。指標命令可以用於存取和/或導航於 使用者介面目前提出的內容。於其他具體態樣,裝置可以包括附加和/或取代上述和圖3所示範的額外輸入命令。
如果控制器320和/或輸入應用程式310判定在機箱不包括輸入構件的位置(例如機箱的邊緣)偵測到手勢,則輸入命令將被辨識為手勢命令。如果感測器330乃包括在機箱的邊緣並且感測器330已由手勢所接近,則控制器320和/或輸入應用程式310可以判定在機箱不包括輸入構件的位置偵測到手勢。
於另一具體態樣,如果感測器330是捕捉邊緣視圖的影像捕捉構件,則控制器320和/或輸入應用程式310比較機箱的接近使用位置和對應於機箱不包括輸入構件之位置的預先定義座標。如果有任何接近使用位置符合對應於機箱不包括輸入構件之位置的預先定義座標,則控制器320和/或輸入應用程式310判定機箱的邊緣已由手勢所接近。機箱位置的預先定義座標可以由裝置的控制器320、輸入應用程式310、使用者和/或製造商來定義。
回應於判定機箱不包括輸入構件的位置已由手勢所接近,則控制器320和/或輸入應用程式310接著存取手勢命令的清單,並且比較手勢的資訊和預先定義之每個手勢命令的資訊。如果發現符合,則控制器320和/或輸入應用程式310接著對裝置執行辨識的手勢命令。
於一具體態樣,如果偵測到的手勢資訊指定出手勢包括在機箱邊緣的水平移動,則控制器320和/或輸入應用程式310把輸入命令辨識為要在使用者介面內容之間導航 的手勢命令。於另一具體態樣,如果偵測到的手勢資訊指定出手勢包括在機箱邊緣的垂直移動,則控制器320和/或輸入應用程式310把輸入命令辨識為要帶出選單或設定的手勢命令。選單或設定可以對應於目前提出於使用者介面上的內容,或者選單或設定可以對應於裝置之作業系統的選單或設定。當選單或設定提出於使用者介面上,使用者可以做出一或更多個額外手勢來導航於選單或設定。此外,使用者可以做出一或更多個額外手勢來選擇選單或設定的項目或者帶出次選單。
於另一具體態樣,如果控制器320和/或輸入應用程式310判定沒有在機箱不包括輸入構件的位置偵測到手勢,則控制器320和/或輸入應用程式310判定是否已接近使用輸入構件。如上面所注意,輸入構件可以是裝置的鍵盤和/或觸控板。如果接近使用了觸控板,則控制器320和/或輸入應用程式310判定用於裝置的輸入命令是指標命令。控制器320和/或輸入應用程式310然後可以基於手勢的資訊來判定要執行何種指標命令。
如果偵測到的資訊指定出手勢包括以輸入構件做出水平移動,則控制器320和/或輸入應用程式310把輸入命令辨識為要水平重新定位指標的指標命令。於另一具體態樣,如果偵測到的資訊指定出手勢包括使用輸入構件做出垂直移動,則輸入命令就辨識為要垂直重新定位指標的指標命令。如果輸入構件是鍵盤,則控制器320和/或輸入應用程式310可以把輸入命令辨識為鍵盤鍵入,並且基於 鍵盤所接近使用的按鍵而辨識出要處理的英數字輸入。
於其他具體態樣,當辨識輸入命令時,控制器320和/或輸入應用程式310可以額外考慮機箱被接近使用之不包括輸入構件的何者位置。裝置的控制器320、輸入應用程式310和/或使用者可以定義機箱的那個位置可以用於手勢命令以及機箱的那個位置可以用於指標命令。
於一具體態樣,機箱的第一邊緣可以用於手勢命令,同時機箱的第二邊緣可以用於指標命令。舉例而言,如果機箱的右緣是由手勢所接近,則控制器320和/或輸入應用程式310可以把輸入命令辨識為手勢命令。此外,如果機箱的左緣(相對於右緣)是由手勢所接近,則控制器320和/或輸入應用程式可以把輸入命令辨識為指標命令。控制器320和/或輸入應用程式310然後可以接著基於手勢的資訊來辨識和執行對應的輸入命令。
圖4是示範根據範例的方法流程圖,其偵測用於裝置的輸入。控制器和/或輸入應用程式可以獨立利用和/或彼此配合利用來辨識裝置的輸入命令。裝置的感測器(例如觸控感測器、觸控表面和/或鄰近感測器)可以起初偵測在機箱不包括輸入構件的位置所做出的手勢資訊400。機箱可以是裝置的框架、封殼和/或箱罩,其容置著輸入構件。機箱包括一或更多個位置,例如機箱的邊緣,此處不包括輸入構件以及/或者輸入構件並未在此。
如果感測器偵測到手勢,則感測器可以將手勢資訊(例如接近機箱的位置)通往控制器和/或輸入應用程式以辨識 裝置的輸入命令。控制器和/或輸入應用程式可以使用偵測的手勢資訊來判定是否在機箱不包括輸入構件的位置做出手勢。如果控制器和/或輸入應用程式判定在機箱的對應位置做出手勢,則控制器和/或輸入應用程式可以接著基於手勢資訊而對裝置執行輸入命令(例如手勢命令)410。
於另一具體態樣,如果沒有在機箱不包括輸入構件的位置偵測到手勢,則控制器和/或輸入應用程式可以判定手勢是否接近使用輸入構件,例如觸控板或鍵盤。如果輸入構件被接近使用,則控制器和/或輸入應用程式可以基於手勢的資訊來辨識和執行對應的指標命令。然後就完成了本方法。於其他具體態樣,圖4的方法包括附加和/或取代圖4所示的額外步驟。
圖5是示範根據範例的方法流程圖,其偵測用於裝置的輸入。控制器和/或輸入應用程式使用裝置的感測器來偵測接近輸入構件或機箱不包括輸入構件之位置的手勢資訊500。如上面所注意,機箱的對應位置可以包括可見的標記以顯示它們於機箱上之所在。控制器和/或輸入應用程式可以使用偵測到的資訊以判定手勢的手指或手是否正觸碰或接近機箱不包括輸入構件的對應位置510。
於一具體態樣,如果感測器位在機箱不包括輸入構件的對應位置,則控制器和/或輸入應用程式判定在對應的位置偵測到手勢來回應於感測器偵測到手勢。於另一具體態樣,如果感測器是捕捉對應位置之視圖的影像捕捉構件,則控制器和/或輸入應用程式可以比較手勢接近的位 置和對應於機箱不包括輸入構件之位置的預先定義座標。如果有任何接近的位置符合預先定義的座標,則控制器和/或輸入應用程式判定機箱不包括輸入構件的位置已由手勢所接近。
如果判定機箱不包括手勢的對應位置沒有被接近,則控制器和/或輸入應用程式判定是否已接近使用輸入構件。如果輸入構件是由手勢所接近使用,則將輸入命令辨識為指標命令520。於一具體態樣,控制器和/或輸入應用程式可以存取輸入命令的清單、表和/或資料庫,並且比較偵測到的手勢資訊和預先定義的指標命令資訊。如果發現符合,則控制器和/或輸入應用程式可以接著執行對應的指標命令以存取和/或導航於裝置上目前提供的內容530。
如果在機箱不包括輸入構件的對應位置偵測到手勢,則控制器和/或輸入應用程式將輸入命令辨識為手勢命令在540。控制器和/或輸入應用程式存取輸入命令的清單、表和/或資料庫,並且比較偵測到的手勢資訊和預先定義的手勢命令資訊。如果發現符合,則控制器和/或輸入應用程式接著執行對應的手勢命令以在裝置的內容之間導航550。然後就完成了本方法。於其他具體態樣,圖5的方法包括附加和/或取代圖5所示的額外步驟。
100‧‧‧裝置
120‧‧‧控制器
130‧‧‧感測器
135‧‧‧輸入構件
140‧‧‧輸入命令
150‧‧‧溝通管道
180‧‧‧機箱
200‧‧‧裝置
205‧‧‧使用者
230‧‧‧感測器
235‧‧‧輸入構件
260‧‧‧顯示構件
265‧‧‧使用者介面
270‧‧‧不包括裝置之輸入構件的位置
280‧‧‧機箱
283‧‧‧頂部
286‧‧‧底部
310‧‧‧輸入應用程式
320‧‧‧控制器
330‧‧‧感測器
400、410‧‧‧偵測輸入的方法步驟
500~550‧‧‧偵測輸入的方法步驟
從上面配合所附圖式的詳細描述,揭示之具體態樣的多樣特色和優點已變得明顯,該圖式一起舉例示範揭示之 具體態樣的特色。
圖1示範根據範例的裝置。
圖2A和圖2B示範根據範例之裝置的機箱和偵測來自使用者之手勢的感測器。
圖3示範根據範例之輸入應用程式的方塊圖,其辨識用於裝置的輸入命令。
圖4是示範根據範例的方法流程圖,其偵測用於裝置的輸入。
圖5是示範根據另一範例的方法流程圖,其偵測用於裝置的輸入。
100‧‧‧裝置
120‧‧‧控制器
130‧‧‧感測器
135‧‧‧輸入構件
140‧‧‧輸入命令
150‧‧‧溝通管道
180‧‧‧機箱

Claims (10)

  1. 一種裝置,其包括:機箱,其包括輸入構件;感測器,其偵測在機箱不包括輸入構件之位置的手勢;以及控制器,如果在機箱不包括輸入構件的位置偵測到該手勢,則該控制器基於該手勢而對該裝置執行輸入命令。
  2. 如申請專利範圍第1項的裝置,其中該機箱不包括該輸入構件的位置包括該機箱的邊緣。
  3. 如申請專利範圍第1項的裝置,其中該機箱不包括該輸入構件的位置包括該機箱介於該機箱的邊緣和該輸入構件之間的至少一部分。
  4. 如申請專利範圍第1項的裝置,其中該感測器包括位在該機箱邊緣之觸控感測器、觸控表面以及鄰近感測器當中至少一者。
  5. 如申請專利範圍第1項的裝置,其中該感測器是影像捕捉構件,其捕捉該機箱之邊緣的視圖。
  6. 一種偵測用於裝置之輸入的方法,其包括:以感測器偵測在裝置之機箱不包括輸入構件之位置的手勢;以及如果在該機箱不包括該輸入構件的位置偵測到手勢,則基於該手勢而對該裝置執行輸入命令。
  7. 如申請專利範圍第6項的偵測用於裝置之輸入的方法,其進一步包括判定該輸入命令是否為手勢命令或指標 命令。
  8. 如申請專利範圍第7項的偵測用於裝置之輸入的方法,其中如果在該裝置的邊緣偵測到該手勢,則將該輸入命令辨識為手勢命令以導航於該裝置的內容之間。
  9. 如申請專利範圍第7項的偵測用於裝置之輸入的方法,其中如果該輸入構件偵測到手勢,則將該輸入命令辨識為指標命令以導航於該裝置目前提供的內容。
  10. 一種電腦可讀取的媒體,其包括指令,如果執行的話則使控制器:以感測器偵測在裝置的機箱不包括輸入構件之位置的手勢;以及如果在該機箱不包括該輸入構件的位置偵測到該手勢,則基於該手勢而對該裝置執行輸入命令。
TW101144981A 2011-12-23 2012-11-30 基於手勢之輸入命令 TWI468989B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2011/067079 WO2013095602A1 (en) 2011-12-23 2011-12-23 Input command based on hand gesture

Publications (2)

Publication Number Publication Date
TW201327279A TW201327279A (zh) 2013-07-01
TWI468989B true TWI468989B (zh) 2015-01-11

Family

ID=48669243

Family Applications (1)

Application Number Title Priority Date Filing Date
TW101144981A TWI468989B (zh) 2011-12-23 2012-11-30 基於手勢之輸入命令

Country Status (6)

Country Link
US (1) US20140253438A1 (zh)
CN (1) CN103999019A (zh)
DE (1) DE112011105888T5 (zh)
GB (1) GB2511976A (zh)
TW (1) TWI468989B (zh)
WO (1) WO2013095602A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210155663A (ko) * 2020-06-16 2021-12-23 에스케이하이닉스 주식회사 메모리 장치 및 그 동작 방법
US11507197B1 (en) * 2021-06-04 2022-11-22 Zouheir Taher Fadlallah Capturing touchless inputs and controlling an electronic device with the same
US11853480B2 (en) 2021-06-04 2023-12-26 Zouheir Taher Fadlallah Capturing touchless inputs and controlling a user interface with the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6522962B2 (en) * 2000-08-24 2003-02-18 Delphi Technologies, Inc. Distributed control architecture for mechatronic automotive systems
TW200942466A (en) * 2007-11-26 2009-10-16 Air Prod & Chem Devices and methods for performing inspections, repairs, and/or other operations within vessels
TW200943062A (en) * 2008-04-10 2009-10-16 Inventec Corp Apparatus and method for automatically performing system configuration

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7834855B2 (en) * 2004-08-25 2010-11-16 Apple Inc. Wide touchpad on a portable computer
US6690357B1 (en) * 1998-10-07 2004-02-10 Intel Corporation Input device using scanning sensors
US6466198B1 (en) * 1999-11-05 2002-10-15 Innoventions, Inc. View navigation and magnification of a hand-held device with a display
US8120625B2 (en) * 2000-07-17 2012-02-21 Microsoft Corporation Method and apparatus using multiple sensors in a device with a display
US7688306B2 (en) * 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US7692627B2 (en) * 2004-08-10 2010-04-06 Microsoft Corporation Systems and methods using computer vision and capacitive sensing for cursor control
US7242588B2 (en) * 2005-09-13 2007-07-10 Kitsopoulos Sotirios Constanti Multifunction modular electronic apparatus
US20070130547A1 (en) * 2005-12-01 2007-06-07 Navisense, Llc Method and system for touchless user interface control
US7834847B2 (en) * 2005-12-01 2010-11-16 Navisense Method and system for activating a touchless control
US7995034B2 (en) * 2006-06-22 2011-08-09 Microsoft Corporation Input device having a presence sensor
US20080040692A1 (en) * 2006-06-29 2008-02-14 Microsoft Corporation Gesture input
US7961173B2 (en) * 2006-09-05 2011-06-14 Navisense Method and apparatus for touchless calibration
WO2008093683A1 (ja) * 2007-01-31 2008-08-07 Alps Electric Co., Ltd. 静電容量式モーション検出装置及びそれを用いた入力装置
US20080186287A1 (en) * 2007-02-05 2008-08-07 Nokia Corporation User input device
TWM320708U (en) * 2007-02-16 2007-10-11 Arima Computer Corp Ultra mobile personal computer
US8782775B2 (en) * 2007-09-24 2014-07-15 Apple Inc. Embedded authentication systems in an electronic device
US20110047459A1 (en) * 2007-10-08 2011-02-24 Willem Morkel Van Der Westhuizen User interface
EP2212762A4 (en) * 2007-11-19 2011-06-29 Cirque Corp TOUCH PANEL COMBINED ON SCREEN AND HAVING PROXIMITY AND TOUCH SENSING CAPABILITIES
US9767681B2 (en) * 2007-12-12 2017-09-19 Apple Inc. Handheld electronic devices with remote control functionality and gesture recognition
US20110102570A1 (en) * 2008-04-14 2011-05-05 Saar Wilf Vision based pointing device emulation
JP4966292B2 (ja) * 2008-12-25 2012-07-04 株式会社東芝 情報処理装置および冷却性能判定方法
US20100164878A1 (en) * 2008-12-31 2010-07-01 Nokia Corporation Touch-click keypad
US8698741B1 (en) * 2009-01-16 2014-04-15 Fresenius Medical Care Holdings, Inc. Methods and apparatus for medical device cursor control and touchpad-based navigation
US8836648B2 (en) * 2009-05-27 2014-09-16 Microsoft Corporation Touch pull-in gesture
CN101963840B (zh) * 2009-07-22 2015-03-18 罗技欧洲公司 用于远程、虚拟屏幕输入的系统和方法
US9551590B2 (en) * 2009-08-28 2017-01-24 Robert Bosch Gmbh Gesture-based information and command entry for motor vehicle
US20110260976A1 (en) * 2010-04-21 2011-10-27 Microsoft Corporation Tactile overlay for virtual keyboard
HK1147905A2 (en) * 2010-06-30 2011-08-19 Chi Ching Lee System and method for virtual touch sensing
US20120001923A1 (en) * 2010-07-03 2012-01-05 Sara Weinzimmer Sound-enhanced ebook with sound events triggered by reader progress
US8432301B2 (en) * 2010-08-10 2013-04-30 Mckesson Financial Holdings Gesture-enabled keyboard and associated apparatus and computer-readable storage medium
US8624837B1 (en) * 2011-03-28 2014-01-07 Google Inc. Methods and apparatus related to a scratch pad region of a computing device
US9086794B2 (en) * 2011-07-14 2015-07-21 Microsoft Technology Licensing, Llc Determining gestures on context based menus
US9257098B2 (en) * 2011-12-23 2016-02-09 Nokia Technologies Oy Apparatus and methods for displaying second content in response to user inputs
US9430035B2 (en) * 2011-12-30 2016-08-30 Intel Corporation Interactive drawing recognition

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6522962B2 (en) * 2000-08-24 2003-02-18 Delphi Technologies, Inc. Distributed control architecture for mechatronic automotive systems
TW200942466A (en) * 2007-11-26 2009-10-16 Air Prod & Chem Devices and methods for performing inspections, repairs, and/or other operations within vessels
TW200943062A (en) * 2008-04-10 2009-10-16 Inventec Corp Apparatus and method for automatically performing system configuration

Also Published As

Publication number Publication date
CN103999019A (zh) 2014-08-20
GB2511976A (en) 2014-09-17
WO2013095602A1 (en) 2013-06-27
TW201327279A (zh) 2013-07-01
GB201410950D0 (en) 2014-08-06
DE112011105888T5 (de) 2014-09-11
US20140253438A1 (en) 2014-09-11

Similar Documents

Publication Publication Date Title
JP5490106B2 (ja) ドラッグ動作を利用したコンテンツのパンニング
US9400590B2 (en) Method and electronic device for displaying a virtual button
TWI479369B (zh) 用於虛擬觸控板的電腦儲存媒體及方法
JP5887807B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
KR102021048B1 (ko) 사용자 입력을 제어하기 위한 방법 및 그 전자 장치
US20160210008A1 (en) Electronic device, method for controlling electronic device, and storage medium
TWI463355B (zh) 多點觸控介面之訊號處理裝置、訊號處理方法及使用者介面圖像選取方法
KR20190039521A (ko) 호버를 사용한 디바이스 조작
US9170726B2 (en) Apparatus and method for providing GUI interacting according to recognized user approach
EP2770423A2 (en) Method and apparatus for operating object in user device
JP2012027940A (ja) 電子機器
AU2013223015A1 (en) Method and apparatus for moving contents in terminal
JP2010108071A (ja) 画像表示装置、画像表示方法およびプログラム
TW201512940A (zh) 多區域觸控板
KR20140033839A (ko) 터치스크린을 구비한 단말에서 한 손을 이용한 사용자 인터페이스 방법 및 장치
US20140285461A1 (en) Input Mode Based on Location of Hand Gesture
CN103809903B (zh) 用于控制虚拟屏幕的方法和装置
TW201411426A (zh) 電子裝置以及相關之控制方法
KR102272343B1 (ko) 전자 펜 운용 방법 및 이를 지원하는 전자 장치
JP5942375B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
TWI468989B (zh) 基於手勢之輸入命令
CN104166460B (zh) 一种电子设备及信息处理的方法
CN105074631A (zh) 基于预测输入的便携式计算设备的输入
KR20140130798A (ko) 터치 스크린 패널 디스플레이 및 터치 키 입력 장치 및 방법
US20130257746A1 (en) Input Module for First Input and Second Input

Legal Events

Date Code Title Description
MM4A Annulment or lapse of patent due to non-payment of fees