TW202001500A - 用於可穿戴設備的資訊處理方法和裝置 - Google Patents
用於可穿戴設備的資訊處理方法和裝置 Download PDFInfo
- Publication number
- TW202001500A TW202001500A TW108108588A TW108108588A TW202001500A TW 202001500 A TW202001500 A TW 202001500A TW 108108588 A TW108108588 A TW 108108588A TW 108108588 A TW108108588 A TW 108108588A TW 202001500 A TW202001500 A TW 202001500A
- Authority
- TW
- Taiwan
- Prior art keywords
- wearable device
- display screen
- voice
- preset area
- information processing
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Abstract
本申請實施例公開了用於可穿戴設備的資訊處理方法和裝置。該方法的一具體實施方式包括:回應於檢測到位於該顯示幕的第一預設區域內的觸摸操作,監聽觸摸操作,獲取觸摸軌跡;若該觸摸軌跡的終點處於該顯示幕的第二預設區域,啟動該可穿戴設備的語音接收;以及回應於接收到語音資料,獲取該語音資料的語音辨識結果。本申請實施例中的可穿戴設備可以通過觸摸操作形成觸摸軌跡以啟動語音接收,啟動語音辨識,從而實現快捷地啟動語音辨識。
Description
本申請實施例涉及電腦技術領域,具體涉及互聯網技術領域,尤其涉及用於可穿戴設備的資訊處理方法和裝置。
人工智慧技術發展非常快,很多電子設備都可以通過語音喚醒或者按實體按鍵等快捷方式來啟動或停止資訊處理,比如,手機、人工智慧機器人等等。
智慧手錶等智慧可穿戴設備通常實體按鍵很少,無法通過按鍵來啟動資訊處理。並且,上述資訊處理功能常用的啟動方式對設備的功耗要求較高,無法應用於可穿戴設備。
本申請實施例提出了用於可穿戴設備的資訊處理方法和裝置。
第一方面,本申請實施例提供了一種用於可穿戴設備的資訊處理方法,可穿戴設備包括顯示幕,方法包括:回應於檢測到位於顯示幕的第一預設區域內的觸摸操作,監聽觸摸操作,獲取觸摸軌跡;若觸摸軌跡的終點處於顯示幕的第二預設區域,啟動可穿戴設備的語音接收;以及回應於接收到語音資料,獲取語音資料的語音辨識結果。
在一些實施例中,若觸摸軌跡的終點處於顯示幕的第二預設區域,啟動可穿戴設備的語音接收,包括:若觸摸軌跡的終點處於顯示幕的第二預設區域,回應於檢測到觸摸操作停止,啟動可穿戴設備的語音接收。
在一些實施例中,方法還包括:若觸摸軌跡的終點處於顯示幕的第三預設區域,解開顯示幕的螢幕鎖定。
在一些實施例中,對於第一預設區域中的任意第一點、第二預設區域中的任意第二點和第三預設區域中的任意第三點,第一點、第二點和第三點構成的、以第一點為頂點的夾角大於預設的夾角閾值。
在一些實施例中,在啟動可穿戴設備的語音接收之後,方法還包括:回應於檢測到對顯示幕顯示的語音接收停止圖示所在的區域的點擊操作,停止語音接收。
在一些實施例中,回應於接收到語音資料,獲取語音資料的語音辨識結果,包括:回應於接收到語音資料,向雲伺服器發送語音資料,以使雲伺服器對語音資料進行語音辨識;接收雲伺服器返回的語音辨識結果。
第二方面,本申請實施例提供了一種用於可穿戴設備的資訊處理裝置,可穿戴設備包括顯示幕,裝置包括:監聽單元,被配置成回應於檢測到位於顯示幕的第一預設區域內的觸摸操作,監聽觸摸操作,獲取觸摸軌跡;啟動單元,被配置成若觸摸軌跡的終點處於顯示幕的第二預設區域,啟動可穿戴設備的語音接收;以及獲取單元,被配置成回應於接收到語音資料,獲取語音資料的語音辨識結果。
在一些實施例中,啟動單元進一步被配置成:若觸摸軌跡的終點處於顯示幕的第二預設區域,回應於檢測到觸摸操作停止,啟動可穿戴設備的語音接收。
在一些實施例中,裝置還包括:解鎖單元,被配置成若觸摸軌跡的終點處於顯示幕的第三預設區域,解開顯示幕的螢幕鎖定。
在一些實施例中,對於第一預設區域中的任意第一點、第二預設區域中的任意第二點和第三預設區域中的任意第三點,第一點、第二點和第三點構成的、以第一點為頂點的夾角大於預設的夾角閾值。
在一些實施例中,裝置還包括:停止單元,被配置成回應於檢測到對顯示幕顯示的語音接收停止圖示所在的區域的點擊操作,停止語音接收。
在一些實施例中,獲取單元進一步被配置成:回應於接收到語音資料,向雲伺服器發送語音資料,以使雲伺服器對語音資料進行語音辨識;接收雲伺服器返回的語音辨識結果。
協力廠商面,本申請實施例提供了一種電子設備,包括:一個或多個處理器;儲存裝置,用於儲存一個或多個程式,當一個或多個程式被一個或多個處理器執行,使得一個或多個處理器實現如用於可穿戴設備的資訊處理方法中任一實施例的方法。
第四方面,本申請實施例提供了一種電腦可讀儲存介質,其上儲存有電腦程式,該程式被處理器執行時實現如用於可穿戴設備的資訊處理方法中任一實施例的方法。
本申請實施例提供的用於可穿戴設備的資訊處理方案,首先,回應於檢測到位於顯示幕的第一預設區域內的觸摸操作,監聽觸摸操作,獲取觸摸軌跡。之後,若觸摸軌跡的終點處於顯示幕的第二預設區域,則啟動可穿戴設備的語音接收。以及,回應於接收到語音資料,獲取語音資料的語音辨識結果。在本申請的方案中,可穿戴設備可以通過觸摸操作形成觸摸軌跡以啟動語音接收,啟動語音辨識,進而實現語音辨識的快捷啟動。並且,因為可穿戴設備的顯示幕通常比較小,所以,用戶的操作空間較小,容易產生操作失誤,觸發可穿戴設備的其他指令。本實施例中,觸摸軌跡以及觸摸軌跡終點與第一預設區域的設置,使操作具備一定的特殊性,不易形成誤操作。
下面結合附圖和實施例對本申請作進一步的詳細說明。可以理解的是,此處所描述的具體實施例僅僅用於解釋相關發明,而非對該發明的限定。另外還需要說明的是,為了便於描述,附圖中僅示出了與有關發明相關的部分。
需要說明的是,在不衝突的情況下,本申請中的實施例及實施例中的特徵可以相互組合。下面將參考附圖並結合實施例來詳細說明本申請。
圖1示出了可以應用本申請的用於可穿戴設備的資訊處理方法或用於可穿戴設備的資訊處理裝置的實施例的示例性系統架構100。
如圖1所示,系統架構100可以包括可穿戴設備101,網路102和伺服器103。網路102用以在可穿戴設備101和伺服器103之間提供通信鏈路的介質。網路102可以包括各種連接類型,例如有線、無線通訊鏈路或者光纖電纜等等。
使用者可以使用可穿戴設備101通過網路102與伺服器103交互,以接收或發送消息等。可穿戴設備101上可以安裝有各種通訊用戶端應用,例如圖像識別應用、購物類應用、搜索類應用、即時通信工具、郵箱用戶端、社交平臺軟體等。
可穿戴設備101可以是具有顯示幕的各種可穿戴設備,包括但不限於智慧手錶、智慧手環、智慧眼鏡等等。
伺服器103可以是提供各種服務的伺服器,例如對可穿戴設備101提供支援的後臺伺服器。後臺伺服器可以對接收到的語音資料等資料進行分析等處理,並將處理結果(例如語音辨識結果)回饋給可穿戴設備。
需要說明的是,本申請實施例所提供的用於可穿戴設備的資訊處理方法一般由可穿戴設備101執行,相應地,用於可穿戴設備的資訊處理裝置一般設置於可穿戴設備101中。
應該理解,圖1中的可穿戴設備、網路和伺服器的數目僅僅是示意性的。根據實現需要,可以具有任意數目的可穿戴設備、網路和伺服器。
繼續參考圖2,示出了根據本申請的用於可穿戴設備的資訊處理方法的一個實施例的流程200。該用於可穿戴設備的資訊處理方法,包括以下步驟:
步驟201,回應於檢測到位於顯示幕的第一預設區域內的觸摸操作,監聽觸摸操作,獲取觸摸軌跡。
在本實施例中,可穿戴設備包括顯示幕。用於可穿戴設備的資訊處理方法的執行主體(例如圖1所示的可穿戴設備)可以回應於檢測到位於顯示幕的第一預設區域內的觸摸操作,監聽觸摸操作,以獲取觸摸軌跡。用戶在顯示幕上進行連續的觸摸操作,所觸摸的位置連續起來會產生相應的觸摸軌跡。
在實踐中,使用者需要觸摸顯示幕的第一預設區域,才能夠觸發上述執行主體對用戶觸摸操作的監聽,上述執行主體進而確定用戶的觸摸操作所產生的觸摸軌跡。這樣,只有準確地觸摸第一預設區域,才能夠觸發對觸摸操作監聽,這樣可以避免用戶無意的操作引起的可穿戴設備的無效監聽。
步驟202,若觸摸軌跡的終點處於顯示幕的第二預設區域,啟動可穿戴設備的語音接收。
在本實施例中,上述執行主體可以確定觸摸軌跡的終點是否處於顯示幕的第二預設區域。若確定觸摸軌跡的終點處於顯示幕的第二預設區域,上述執行主體可以啟動可穿戴設備的語音接收。所觸摸的位置在預設時間段內不再移動或者觸摸停止,會形成觸摸軌跡的終點,產生完整的觸摸軌跡。在實踐中,在一個用戶觸摸顯示幕的過程中,使用者最終觸摸的位置需要位於第二預設區域,上述執行主體才能夠啟動可穿戴設備的語音接收。語音接收指接收使用者發出的語音。
步驟203,回應於接收到語音資料,獲取語音資料的語音辨識結果。
在本實施例中,上述執行主體在接收到使用者發出的語音之後,可以對該語音進行錄製,即是將該語音轉換為語音資料。之後,上述執行主體可以獲取到語音資料的語音辨識結果。語音資料的語音辨識結果為對語音資料進行語音辨識得到的資訊。語音辨識結果例如可以為文字資訊。
在實踐中,上述執行主體可以對語音資料進行語音辨識,以得到語音辨識結果。
在本實施例中的一些可選的實現方式中,步驟203可以包括:
回應於接收到語音資料,向雲伺服器發送語音資料,以使雲伺服器對語音資料進行語音辨識;
接收雲伺服器返回的語音辨識結果。
在這些實現方式中,上述執行主體可以向雲伺服器發送語音資料,這樣雲伺服器可以對語音資料進行語音辨識。可穿戴設備的處理能力差,運算速度慢,因而進行語音辨識的效率較低。而雲伺服器的運算速度快,處理能力強,更適宜進行語音辨識。通過雲伺服器進行語音辨識可以提高語音辨識的速度。
在本實施例中的一些可選的實現方式中,該方法還包括:回應於檢測到對顯示幕顯示的語音接收停止圖示所在的區域的點擊操作,停止語音接收。
在這些實現方式中,上述執行主體回應於檢測到對顯示幕顯示的語音接收停止圖示所在的區域的點擊操作,可以停止語音接收。語音接收停止圖示為在顯示幕顯示的圖示,使用者在該圖示所在的區域進行點擊操作,則上述執行主體會停止語音接收。
繼續參見圖3,圖3是根據本實施例的用於可穿戴設備的資訊處理方法的應用場景的一個示意圖。在圖3的應用場景中,執行主體301回應於檢測到用戶做出的、位於顯示幕306的第一預設區域內的觸摸操作302,監聽觸摸操作,獲取“上滑”的觸摸軌跡303。若觸摸軌跡的終點處於顯示幕的第二預設區域,執行主體301啟動可穿戴設備的語音接收。上述執行主體301回應於接收到語音資料304,對所接收的語音資料304進行語音辨識305。
本申請的上述實施例提供的方法中,可穿戴設備可以通過觸摸操作形成觸摸軌跡以啟動語音接收,啟動語音辨識,進而實現語音辨識的快捷啟動。並且,因為可穿戴設備的顯示幕通常比較小,所以,用戶的操作空間較小,容易產生操作失誤,觸發可穿戴設備的其他指令。本實施例中,觸摸軌跡以及觸摸軌跡終點與第一預設區域的設置,使操作具備一定的特殊性,不易形成誤操作。
進一步參考圖4,其示出了用於可穿戴設備的資訊處理方法的又一個實施例的流程400。該用於可穿戴設備的資訊處理方法的流程400,包括以下步驟:
步驟401,回應於檢測到位於顯示幕的第一預設區域內的觸摸操作,監聽觸摸操作,獲取觸摸軌跡。
在本實施例中,可穿戴設備包括顯示幕。用於可穿戴設備的資訊處理方法的執行主體(例如圖1所示的可穿戴設備)可以回應於檢測到位於顯示幕的第一預設區域內的觸摸操作,監聽觸摸操作,以獲取觸摸軌跡。用戶在顯示幕上進行連續的觸摸操作,執行主體進行持續的監聽。所觸摸的位置連續起來會產生相應的觸摸軌跡。
在本實施例中的一些可選的實現方式中,在進行觸摸操作前,第一預設區域可以呈現有預設圖形。
在這些可選的實現方式中,通過跟蹤使用者的手指在顯示幕上的位置,該預設圖形可以隨著手指位置的改變而移動。這樣,預設圖形的移動能夠給使用者直觀地展示出用戶觸摸到的位置以及觸摸效果。
步驟402,若觸摸軌跡的終點處於顯示幕的第二預設區域,回應於檢測到觸摸操作停止,啟動所述可穿戴設備的語音接收。
在本實施例中,上述執行主體在確定觸摸軌跡的終點處於顯示幕的第二預設區域的情況下,回應於檢測到觸摸操作停止,啟動所述可穿戴設備的語音接收。觸摸操作停止為用戶停止觸摸顯示幕。用戶的觸摸操作停止可以觸發上述執行主體啟動語音接收。
在本實施例的一些可選的實現方式中,第二預設區域可以呈現有語音接收圖示。
在這些實現方式中,語音接收圖示是在顯示幕顯示的圖示,用以指示使用者進行啟動語音接收的觸摸操作。使用者由第一預設區域持續觸摸到該圖示所在的第二預設區域,則上述執行主體會啟動語音接收。語音接收圖示能夠向使用者準確地標示出第二預設區域,以便於使用者更準確地進行觸摸操作。
在本實施例中的一些可選的實現方式中,上述啟動所述可穿戴設備的語音接收,包括:
開啟安裝於所述可穿戴設備的麥克風,監聽由所述麥克風接收的音訊。
在這些可選的實現方式中,音訊為使用者發出的語音音訊。上述執行主體通過使用者發出的語音音訊可以得到語音資料。
步驟403,回應於接收到語音資料,獲取語音資料的語音辨識結果。
在本實施例中,上述執行主體在接收到使用者發出的語音之後,可以對該語音進行錄製,即是將該語音轉換為語音資料。之後,上述執行主體可以獲取到語音資料的語音辨識結果。語音資料的語音辨識結果為對語音資料進行語音辨識得到的資訊。語音辨識結果例如可以為文字資訊。
本實施例中的可穿戴設備能夠通過顯示幕進行螢幕解鎖操作以及啟動語音接收的操作,使顯示幕較小的可穿戴設備也能通過顯示幕行使多種功能。並且,在確定觸摸操作停止時才啟動語音接收,更有利於可穿戴設備對觸發啟動語音接收的時機有準確的判斷。
在本申請的用於可穿戴設備的資訊處理方法上述任一實施例的一些可選的實現方式中,該用於可穿戴設備的資訊處理方法還包括以下步驟:
若觸摸軌跡的終點處於顯示幕的第三預設區域,解開顯示幕的螢幕鎖定。
在這些實現方式中,上述執行主體若確定觸摸軌跡的終點處於顯示幕的第三預設區域,則可以解開顯示幕的螢幕鎖定。這樣,使用者從第一預設區域開始觸摸操作,持續觸摸至第三預設區域,則可以解開顯示幕的螢幕鎖定。
在這些實現方式的應用場景中,對於第一預設區域中的任意第一點、第二預設區域中的任意第二點和第三預設區域中的任意第三點,第一點、第二點和第三點構成的、以第一點為頂點的夾角大於預設的夾角閾值。
在該應用場景中,第一點、第二點和第三點可以形成以第一點為頂點的夾角。那麼,上述夾角的兩條邊則分別是以第一點為起點並經過第二點的射線,以及以第一點為起點並經過第三點的射線。這樣,上述夾角較大,可以保證用以啟動語音接收的第二預設區域和給螢幕解鎖的第三預設區域分別在第一預設區域的兩個相距較遠的方向上。因為可穿戴設備的顯示幕比較小,因此,通過設定夾角可以防止用戶在觸摸操作時進行誤操作。
需要說明的是,上述的“第一”、“第二”和“第三”只是為了對區域和點進行區分所採用的編號,並非對區域和點進行排序。
在這些實現方式的應用場景中,在解開螢幕鎖定前,第三預設區域呈現有螢幕解鎖圖示。
在該應用場景中,在解開螢幕鎖定前,在第三預設區域可以顯示有螢幕解鎖圖示。螢幕解鎖圖示在顯示幕顯示的圖示,用以指示使用者進行對螢幕解鎖的觸摸操作。使用者可以通過螢幕解鎖圖示,直觀地判斷第三預設區域所在的位置。
進一步參考圖5,作為對上述各圖所示方法的實現,本申請提供了一種用於可穿戴設備的資訊處理裝置的一個實施例,該裝置實施例與圖2所示的方法實施例相對應,該裝置具體可以應用於各種電子設備中。
如圖5所示,本實施例的用於可穿戴設備的資訊處理裝置500包括:監聽單元501、啟動單元502和獲取單元503。其中,監聽單元501,被配置成回應於檢測到位於顯示幕的第一預設區域內的觸摸操作,監聽觸摸操作,獲取觸摸軌跡;啟動單元502,被配置成若觸摸軌跡的終點處於顯示幕的第二預設區域,啟動可穿戴設備的語音接收;以及獲取單元503,被配置成回應於接收到語音資料,獲取語音資料的語音辨識結果。
在一些實施例中,用於可穿戴設備的資訊處理裝置500的監聽單元501可以回應於檢測到位於顯示幕的第一預設區域內的觸摸操作,監聽觸摸操作,以獲取觸摸軌跡。用戶在顯示幕上進行連續的觸摸操作,執行主體進行持續的監聽。所觸摸的位置連續起來會產生相應的觸摸軌跡。
在一些實施例中,啟動單元502可以確定觸摸軌跡的終點是否處於顯示幕的第二預設區域。若確定觸摸軌跡的終點處於顯示幕的第二預設區域,啟動單元502可以啟動可穿戴設備的語音接收。所觸摸的位置在預設時間段內不再移動或者觸摸停止,會形成觸摸軌跡的終點,產生完整的觸摸軌跡。在實踐中,在一個用戶觸摸顯示幕的過程中,使用者最終觸摸的位置需要位於第二預設區域,啟動單元502才能夠啟動可穿戴設備的語音接收。語音接收指接收使用者發出的語音。
在一些實施例中,獲取單元503在接收到使用者發出的語音之後,可以對該語音進行錄製,即是將該語音轉換為語音資料。之後,獲取單元503可以獲取到語音資料的語音辨識結果。語音資料的語音辨識結果為對語音資料進行語音辨識得到的結果。語音辨識結果可以為文字資訊。
在本實施例的一些可選的實現方式中,啟動單元進一步被配置成:若觸摸軌跡的終點處於顯示幕的第二預設區域,回應於檢測到觸摸操作停止,啟動可穿戴設備的語音接收。
在本實施例的一些可選的實現方式中,裝置還包括:解鎖單元,被配置成若觸摸軌跡的終點處於顯示幕的第三預設區域,解開顯示幕的螢幕鎖定。
在本實施例的一些可選的實現方式中,對於第一預設區域中的任意第一點、第二預設區域中的任意第二點和第三預設區域中的任意第三點,第一點、第二點和第三點構成的、以第一點為頂點的夾角大於預設的夾角閾值。
在本實施例的一些可選的實現方式中,裝置還包括:停止單元,被配置成回應於檢測到對顯示幕顯示的語音接收停止圖示所在的區域的點擊操作,停止語音接收。
在本實施例的一些可選的實現方式中,獲取單元進一步被配置成:回應於接收到語音資料,向雲伺服器發送語音資料,以使雲伺服器對語音資料進行語音辨識;接收雲伺服器返回的語音辨識結果。
下面參考圖6,下面參考圖6,其示出了可穿戴設備600的硬體結構示意圖。
如圖6所示,可穿戴設備600包括中央處理單元(CPU)601、記憶體602、輸入單元603和輸出單元604,其中,CPU 601、記憶體602、輸入單元603以及輸出單元604通過匯流排605彼此相連。在此,根據本申請的方法可以被實現為電腦程式,並且儲存在記憶體602中。可穿戴設備600中的CPU 601通過調用記憶體602中儲存的上述電腦程式,來具體實現本申請的方法中限定的視圖顯示功能。在一些實現方式中,輸入單元603可以是感測器等可用於獲取手腕運動姿態資訊的設備,輸出單元604可以是顯示幕等可用於顯示視圖的設備。由此,CPU 601在調用上述電腦程式執行視圖顯示功能時,可以控制輸入單元603從外部獲取手腕的運動姿態資訊,以及控制輸出單元604對視圖進行顯示。
需要說明的是,本申請的電腦可讀介質可以是電腦可讀信號介質或者電腦可讀儲存介質或者是上述兩者的任意組合。電腦可讀儲存介質例如可以是——但不限於——電、磁、光、電磁、紅外線、或半導體的系統、裝置或器件,或者任意以上的組合。電腦可讀儲存介質的更具體的例子可以包括但不限於:具有一個或多個導線的電連接、可攜式電腦磁片、硬碟、隨機存取記憶體(RAM)、唯讀記憶體(ROM)、可抹除可編程唯讀記憶體(EPROM或快閃記憶體)、光纖、光碟唯讀記憶體(CD-ROM)、光記憶體件、磁記憶體件、或者上述的任意合適的組合。在本申請中,電腦可讀儲存介質可以是任何包含或儲存程式的有形介質,該程式可以被指令執行系統、裝置或者器件使用或者與其結合使用。而在本申請中,電腦可讀的信號介質可以包括在基帶中或者作為載波一部分傳播的資料信號,其中承載了電腦可讀的程式碼。這種傳播的資料信號可以採用多種形式,包括但不限於電磁信號、光信號或上述的任意合適的組合。電腦可讀的信號介質還可以是電腦可讀儲存介質以外的任何電腦可讀介質,該電腦可讀介質可以發送、傳播或者傳輸用於由指令執行系統、裝置或者器件使用或者與其結合使用的程式。電腦可讀介質上包含的程式碼可以用任何適當的介質傳輸,包括但不限於:無線、電線、光纜、RF等等,或者上述的任意合適的組合。
附圖中的流程圖和框圖,圖示了按照本申請各種實施例的系統、方法和電腦程式產品的可能實現的體系架構、功能和操作。在這點上,流程圖或框圖中的每個方框可以代表一個模組、程式段、或代碼的一部分,該模組、程式段、或代碼的一部分包含一個或多個用於實現規定的邏輯功能的可執行指令。也應當注意,在有些作為替換的實現中,方框中所標注的功能也可以以不同於附圖中所標注的順序發生。例如,兩個接連地表示的方框實際上可以基本並行地執行,它們有時也可以按相反的循序執行,這依所涉及的功能而定。也要注意的是,框圖和/或流程圖中的每個方框、以及框圖和/或流程圖中的方框的組合,可以用執行規定的功能或操作的專用的基於硬體的系統來實現,或者可以用專用硬體與電腦指令的組合來實現。
描述於本申請實施例中所涉及到的單元可以通過軟體的方式實現,也可以通過硬體的方式來實現。所描述的單元也可以設置在處理器中,例如,可以描述為:一種處理器包括監聽單元、啟動單元和獲取單元。其中,這些單元的名稱在某種情況下並不構成對該單元本身的限定,例如,監聽單元還可以被描述為“回應於檢測到位於顯示幕的第一預設區域內的觸摸操作,監聽觸摸操作,獲取觸摸軌跡的單元”。
作為另一方面,本申請還提供了一種電腦可讀介質,該電腦可讀介質可以是上述實施例中描述的裝置中所包含的;也可以是單獨存在,而未裝配入該裝置中。上述電腦可讀介質承載有一個或者多個程式,當上述一個或者多個程式被該裝置執行時,使得該裝置:回應於檢測到位於顯示幕的第一預設區域內的觸摸操作,監聽觸摸操作,獲取觸摸軌跡;若觸摸軌跡的終點處於顯示幕的第二預設區域,啟動可穿戴設備的語音接收;以及回應於接收到語音資料,獲取語音資料的語音辨識結果。
以上描述僅為本申請的較佳實施例以及對所運用技術原理的說明。本領域技術人員應當理解,本申請中所涉及的發明範圍,並不限於上述技術特徵的特定組合而成的技術方案,同時也應涵蓋在不脫離上述發明構思的情況下,由上述技術特徵或其等同特徵進行任意組合而形成的其它技術方案。例如上述特徵與本申請中公開的(但不限於)具有類似功能的技術特徵進行互相替換而形成的技術方案。
100‧‧‧系統架構
101、600‧‧‧可穿戴設備
102‧‧‧網路
103‧‧‧伺服器
200、400‧‧‧流程
201~203、401~403‧‧‧步驟
301‧‧‧執行主體
302‧‧‧觸摸操作
303‧‧‧觸摸軌跡
304‧‧‧語音資料
305‧‧‧語音辨識
306‧‧‧顯示幕
500‧‧‧資訊處理裝置
501‧‧‧監聽單元
502‧‧‧啟動單元
503‧‧‧獲取單元
601‧‧‧中央處理單元
602‧‧‧記憶體
603‧‧‧輸入單元
604‧‧‧輸出單元
605‧‧‧匯流排
通過閱讀參照以下附圖所作的對非限制性實施例所作的詳細描述,本申請的其它特徵、目的和優點將會變得更明顯:
圖1是本申請可以應用於其中的示例性系統架構圖;
圖2是根據本申請的用於可穿戴設備的資訊處理方法的一個實施例的流程圖;
圖3是根據本申請的用於可穿戴設備的資訊處理方法的一個應用場景的示意圖;
圖4是根據本申請的用於可穿戴設備的資訊處理方法的又一個實施例的流程圖;
圖5是根據本申請的用於可穿戴設備的資訊處理裝置的一個實施例的結構示意圖;
圖6是適於用來實現本申請實施例的可穿戴設備的硬體結構示意圖。
200‧‧‧流程
201~203‧‧‧步驟
Claims (14)
- 一種用於可穿戴設備的資訊處理方法,所述可穿戴設備包括顯示幕,所述方法包括: 回應於檢測到位於所述顯示幕的第一預設區域內的觸摸操作,監聽觸摸操作,獲取觸摸軌跡; 若所述觸摸軌跡的終點處於所述顯示幕的第二預設區域,啟動所述可穿戴設備的語音接收;以及 回應於接收到語音資料,獲取所述語音資料的語音辨識結果。
- 如申請專利範圍第1項所述的用於可穿戴設備的資訊處理方法,其中,所述若所述觸摸軌跡的終點處於所述顯示幕的第二預設區域,啟動所述可穿戴設備的語音接收,包括: 若所述觸摸軌跡的終點處於所述顯示幕的第二預設區域,回應於檢測到觸摸操作停止,啟動所述可穿戴設備的語音接收。
- 如申請專利範圍第1項所述的用於可穿戴設備的資訊處理方法,其中,所述方法還包括: 若觸摸軌跡的終點處於所述顯示幕的第三預設區域,解開所述顯示幕的螢幕鎖定。
- 如申請專利範圍第3項所述的用於可穿戴設備的資訊處理方法,其中,對於所述第一預設區域中的任意第一點、所述第二預設區域中的任意第二點和所述第三預設區域中的任意第三點,所述第一點、所述第二點和所述第三點構成的、以所述第一點為頂點的夾角大於預設的夾角閾值。
- 如申請專利範圍第1項所述的用於可穿戴設備的資訊處理方法,其中,在所述啟動所述可穿戴設備的語音接收之後,所述方法還包括: 回應於檢測到對所述顯示幕顯示的語音接收停止圖示所在的區域的點擊操作,停止語音接收。
- 如申請專利範圍第1項所述的用於可穿戴設備的資訊處理方法,其中,所述回應於接收到語音資料,獲取所述語音資料的語音辨識結果,包括: 回應於接收到語音資料,向雲伺服器發送所述語音資料,以使所述雲伺服器對所述語音資料進行語音辨識;以及 接收所述雲伺服器返回的語音辨識結果。
- 一種用於可穿戴設備的資訊處理裝置,所述可穿戴設備包括顯示幕,所述用於可穿戴設備的資訊處理裝置包括: 監聽單元,被配置成回應於檢測到位於所述顯示幕的第一預設區域內的觸摸操作,監聽觸摸操作,獲取觸摸軌跡; 啟動單元,被配置成若所述觸摸軌跡的終點處於所述顯示幕的第二預設區域,啟動所述可穿戴設備的語音接收;以及 獲取單元,被配置成回應於接收到語音資料,獲取所述語音資料的語音辨識結果。
- 如申請專利範圍第7項所述的用於可穿戴設備的資訊處理裝置,其中,所述啟動單元進一步被配置成: 若所述觸摸軌跡的終點處於所述顯示幕的第二預設區域,回應於檢測到觸摸操作停止,啟動所述可穿戴設備的語音接收。
- 如申請專利範圍第7項所述的用於可穿戴設備的資訊處理裝置,還包括: 解鎖單元,被配置成若觸摸軌跡的終點處於所述顯示幕的第三預設區域,解開所述顯示幕的螢幕鎖定。
- 如申請專利範圍第9項所述的用於可穿戴設備的資訊處理裝置,其中,對於所述第一預設區域中的任意第一點、所述第二預設區域中的任意第二點和所述第三預設區域中的任意第三點,所述第一點、所述第二點和所述第三點構成的、以所述第一點為頂點的夾角大於預設的夾角閾值。
- 如申請專利範圍第7項所述的用於可穿戴設備的資訊處理裝置,還包括: 停止單元,被配置成回應於檢測到對所述顯示幕顯示的語音接收停止圖示所在的區域的點擊操作,停止語音接收。
- 如申請專利範圍第8項所述的用於可穿戴設備的資訊處理裝置,其中,所述獲取單元進一步被配置成: 回應於接收到語音資料,向雲伺服器發送所述語音資料,以使所述雲伺服器對所述語音資料進行語音辨識;以及 接收所述雲伺服器返回的語音辨識結果。
- 一種可穿戴設備,包括: 一個或多個處理器; 顯示幕;以及 儲存裝置,用於儲存一個或多個程式, 當所述一個或多個程式被所述一個或多個處理器執行,使得所述一個或多個處理器實現如申請專利範圍第1-6項中任一所述的用於可穿戴設備的資訊處理方法。
- 一種電腦可讀儲存介質,其上儲存有電腦程式,其中,該程式被處理器執行時實現如申請專利範圍第1-6項中任一所述的用於可穿戴設備的資訊處理方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810713259.9A CN108920085B (zh) | 2018-06-29 | 2018-06-29 | 用于可穿戴设备的信息处理方法和装置 |
CN201810713259.9 | 2018-06-29 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW202001500A true TW202001500A (zh) | 2020-01-01 |
TWI724384B TWI724384B (zh) | 2021-04-11 |
Family
ID=64423900
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW108108588A TWI724384B (zh) | 2018-06-29 | 2019-03-14 | 用於可穿戴設備的資訊處理方法和裝置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN108920085B (zh) |
TW (1) | TWI724384B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109787966B (zh) * | 2018-12-29 | 2020-12-01 | 北京金山安全软件有限公司 | 一种基于可穿戴设备的监听方法、装置及电子设备 |
CN110071866B (zh) * | 2019-04-29 | 2022-03-18 | 努比亚技术有限公司 | 一种即时通信应用控制方法、可穿戴设备及存储介质 |
CN113495621A (zh) * | 2020-04-03 | 2021-10-12 | 百度在线网络技术(北京)有限公司 | 一种交互模式的切换方法、装置、电子设备及存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112013007524T5 (de) * | 2013-10-24 | 2016-08-04 | Apple Inc. | Armbandgerät-Eingabe mittels Handgelenkbewegung |
CN104383674B (zh) * | 2014-10-21 | 2017-01-25 | 小米科技有限责任公司 | 用于智能穿戴设备的计数方法、装置及智能穿戴设备 |
CN104636065A (zh) * | 2014-12-31 | 2015-05-20 | 小米科技有限责任公司 | 终端唤醒方法和装置 |
CN105045394A (zh) * | 2015-08-03 | 2015-11-11 | 歌尔声学股份有限公司 | 一种可穿戴式电子终端中预设功能的启动方法和装置 |
CN105974804A (zh) * | 2016-05-09 | 2016-09-28 | 北京小米移动软件有限公司 | 控制设备的方法及装置 |
-
2018
- 2018-06-29 CN CN201810713259.9A patent/CN108920085B/zh active Active
-
2019
- 2019-03-14 TW TW108108588A patent/TWI724384B/zh active
Also Published As
Publication number | Publication date |
---|---|
CN108920085A (zh) | 2018-11-30 |
CN108920085B (zh) | 2020-05-08 |
TWI724384B (zh) | 2021-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11393472B2 (en) | Method and apparatus for executing voice command in electronic device | |
EP3090495B1 (en) | Device pairing via a cloud server | |
KR102334272B1 (ko) | 트레이닝가능한 센서 기반의 제스처 인식 | |
US20190013025A1 (en) | Providing an ambient assist mode for computing devices | |
US9171434B2 (en) | Selectively redirecting notifications to a wearable computing device | |
US9632618B2 (en) | Expanding touch zones of graphical user interface widgets displayed on a screen of a device without programming changes | |
US11217084B2 (en) | Mobile device self-identification system | |
GB2534274A (en) | Gaze triggered voice recognition | |
WO2019105376A1 (zh) | 手势识别方法、终端及存储介质 | |
TWI724384B (zh) | 用於可穿戴設備的資訊處理方法和裝置 | |
US10067632B2 (en) | Dynamic hover grace period | |
US20140007115A1 (en) | Multi-modal behavior awareness for human natural command control | |
US9444927B2 (en) | Methods for voice management, and related devices | |
WO2020108101A1 (zh) | 虚拟数据的处理方法、装置、存储介质及终端 | |
EP3796308A1 (en) | Speech recognition control method and apparatus, electronic device and readable storage medium | |
CN106959746A (zh) | 语音数据的处理方法及装置 | |
WO2020221160A1 (zh) | 用于呈现背景的方法和装置 | |
CN110113253A (zh) | 即时通信方法、设备及计算机可读存储介质 | |
WO2017177436A1 (zh) | 一种锁定列表对象的方法、装置及终端设备 | |
US20150089370A1 (en) | Method and device for playing media data on a terminal | |
WO2015043239A1 (en) | Method and device for playing media data on a terminal | |
CN107690039B (zh) | 一种通话控制方法及移动终端 | |
WO2023129174A1 (en) | Single gesture authentication and application execution |