TW202032388A - 交互方法、儲存媒體、操作系統和設備 - Google Patents
交互方法、儲存媒體、操作系統和設備 Download PDFInfo
- Publication number
- TW202032388A TW202032388A TW108123236A TW108123236A TW202032388A TW 202032388 A TW202032388 A TW 202032388A TW 108123236 A TW108123236 A TW 108123236A TW 108123236 A TW108123236 A TW 108123236A TW 202032388 A TW202032388 A TW 202032388A
- Authority
- TW
- Taiwan
- Prior art keywords
- interaction
- view component
- event
- registration information
- voice
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本發明實施例提供一種交互方法、儲存媒體、操作系統和設備,該方法包括:接收對應於第一交互方式的交互事件,第一交互方式為非觸控交互方式;確定與該交互事件對應的視圖組件;發送視圖組件被觸發的通知,以通知對視圖組件對應的功能進行回應。本方案中,開發者可以對任一視圖組件進行不同交互方式下交互事件的註冊即可方便地擴展同一視圖組件具有多種交互方式,從而用戶可以透過不同交互方式觸發同一視圖組件,提高了人機交互的便捷性。
Description
本發明係關於互聯網技術領域,尤其關於一種交互方法、儲存媒體、操作系統和設備。
各種各樣的人機交互方式已經被廣泛應用在不同的人機交互場景中,比如可以對介面中顯示的視圖組件進行觸控交互,可以與應用程式進行語音交互,比如在虛擬實境等場景中的體感交互、手勢交互等等。
現有技術中,各種人機交互方式相互獨立,即使有融合使用的情況,融合形式也較為單一,比如,在語音交互的場景下,應用程式可以在接收到用戶的語音指令後,將回應該語音指令的回應資訊透過介面呈現出來,進而,用戶可以在介面上對介面中顯示的回應資訊進行觸控操作。從而,這種觸控交互方式與語音交互方式的融合僅體現為業務邏輯上的融合,即語音指令的回應資訊透過介面進行呈現,現有的人機交互過程中,用戶能夠觸發的人機交互操作仍舊受限於當前交互場景中所支援的單一人機交互方式。
有鑑於此,本發明實施例提供一種交互方法、儲存媒體、操作系統和設備,透過擴展同一視圖組件的交互方式,提高人機交互的便捷性。
第一方面,本發明實施例提供一種交互方法,可應用於操作系統,該方法包括:
接收對應於第一交互方式的交互事件,所述第一交互方式為非觸控交互方式;
確定與所述交互事件對應的視圖組件;
發送所述視圖組件被觸發的通知,以通知對所述視圖組件對應的功能進行回應。
第二方面,本發明實施例提供一種交互裝置,應用於操作系統,該裝置包括:
接收模組,用於接收對應於第一交互方式的交互事件,所述第一交互方式為非觸控交互方式;
確定模組,用於確定與所述交互事件對應的視圖組件;
通知模組,用於發送所述視圖組件被觸發的通知,以通知對所述視圖組件對應的功能進行回應。
第三方面,本發明實施例提供一種電子設備,包括處理器、記憶體,所述記憶體用於儲存一條或多條電腦指令,其中,所述一條或多條電腦指令被所述處理器執行時實現:
接收對應於第一交互方式的交互事件,所述第一交互方式為非觸控交互方式;
確定與所述交互事件對應的視圖組件;
發送所述視圖組件被觸發的通知,以通知對所述視圖組件對應的功能進行回應。
本發明實施例提供了一種電腦儲存媒體,用於儲存電腦程式,所述電腦程式使電腦執行時實現上述第一方面中的交互方法。
第四方面,本發明實施例提供一種交互方法,該方法包括:
產生第一交互事件註冊資訊,所述第一交互事件註冊資訊中包括回應對象的標識和對應於第一交互方式的第一交互事件,所述第一交互事件中包括視圖組件的標識以及所述第一交互事件的事件觸發資訊;
產生第二交互事件註冊資訊,所述第二交互事件註冊資訊中包括所述回應對象的標識和對應於第二交互方式的第二交互事件,所述第二交互事件中包括所述視圖組件的標識以及所述第二交互事件的事件觸發資訊;
將所述第一交互事件註冊資訊和所述第二交互事件註冊資訊發送至操作系統,以使所述操作系統根據所述第一交互事件註冊資訊和所述第二交互事件註冊資訊對用戶觸發的交互事件進行回應處理。
第五方面,本發明實施例提供一種交互裝置,該裝置包括:
產生模組,用於產生第一交互事件註冊資訊,所述第一交互事件註冊資訊中包括回應對象的標識和對應於第一交互方式的第一交互事件,所述第一交互事件中包括視圖組件的標識以及所述第一交互事件的事件觸發資訊;產生第二交互事件註冊資訊,所述第二交互事件註冊資訊中包括所述回應對象的標識和對應於第二交互方式的第二交互事件,所述第二交互事件中包括所述視圖組件的標識以及所述第二交互事件的事件觸發資訊;
發送模組,用於將所述第一交互事件註冊資訊和所述第二交互事件註冊資訊發送至操作系統,以使所述操作系統根據所述第一交互事件註冊資訊和所述第二交互事件註冊資訊對用戶觸發的交互事件進行回應處理。
第六方面,本發明實施例提供一種電子設備,包括處理器、記憶體、語音收發器,所述記憶體用於儲存一條或多條電腦指令,其中,所述一條或多條電腦指令被所述處理器執行時實現:
產生第一交互事件註冊資訊,所述第一交互事件註冊資訊中包括回應對象的標識和對應於第一交互方式的第一交互事件,所述第一交互事件中包括視圖組件的標識以及所述第一交互事件的事件觸發資訊;
產生第二交互事件註冊資訊,所述第二交互事件註冊資訊中包括所述回應對象的標識和對應於第二交互方式的第二交互事件,所述第二交互事件中包括所述視圖組件的標識以及所述第二交互事件的事件觸發資訊;
將所述第一交互事件註冊資訊和所述第二交互事件註冊資訊發送至操作系統,以使所述操作系統根據所述第一交互事件註冊資訊和所述第二交互事件註冊資訊對用戶觸發的交互事件進行回應處理。
本發明實施例提供了一種電腦儲存媒體,用於儲存電腦程式,所述電腦程式使電腦執行時實現上述第四方面中的交互方法。
在本發明實施例中,一個視圖組件上可以註冊有不同交互方式的交互事件,也就是說,用戶可以透過不同交互方式觸發同一視圖組件,而不用侷限於透過觸控交互方式觸發視圖組件。從而,回應於用戶觸發的對應於非觸控交互方式的第一交互方式的交互事件,可以根據各視圖組件上註冊的對應於第一交互方式的交互事件確定與該交互事件對應的視圖組件,進而可以向該視圖組件對應的回應對象發送該視圖組件被觸發的通知,從而該回應對象可以回呼第一交互方式對應的回應處理邏輯對該交互事件進行回應處理。本方案中,開發者可以對任一視圖組件進行不同交互方式下交互事件的註冊即可方便地擴展同一視圖組件具有多種交互方式,從而用戶可以透過不同交互方式觸發同一視圖組件,提高了交互的便捷性。
為使本發明實施例的目的、技術方案和優點更加清楚,下面將結合本發明實施例中的圖式,對本發明實施例中的技術方案進行清楚、完整地描述,顯然,所描述的實施例是本發明一部分實施例,而不是全部的實施例。基於本發明中的實施例,本領域普通技術人員在沒有作出創造性勞動前提下所獲得的所有其他實施例,都屬於本發明保護的範圍。
在本發明實施例中使用的術語是僅僅出於描述特定實施例的目的,而非旨在限制本發明。在本發明實施例和所附申請專利範圍中所使用的單數形式的“一種”、“所述”和“該”也旨在包括多數形式,除非上下文清楚地表示其他含義,“多種”一般包含至少兩種。
應當理解,本文中使用的術語“和/或”僅僅是一種描述關聯對象的關聯關係,表示可以存在三種關係,例如,A和/或B,可以表示:單獨存在A,同時存在A和B,單獨存在B這三種情況。另外,本文中字元“/”,一般表示前後關聯對象是一種“或”的關係。
取決於語境,如在此所使用的詞語“如果”、“若”可以被解釋成為“在……時”或“當……時”或“回應於確定”或“回應於檢測”。類似地,取決於語境,短語“如果確定”或“如果檢測(陳述的條件或事件)”可以被解釋成為“當確定時”或“回應於確定”或“當檢測(陳述的條件或事件)時”或“回應於檢測(陳述的條件或事件)”。
還需要說明的是,術語“包括”、“包含”或者其任何其他變體意在涵蓋非排他性的包含,從而使得包括一系列要素的商品或者系統不僅包括那些要素,而且還包括沒有明確列出的其他要素,或者是還包括為這種商品或者系統所固有的要素。在沒有更多限制的情況下,由語句“包括一個……”限定的要素,並不排除在包括所述要素的商品或者系統中還存在另外的相同要素。
另外,下述各方法實施例中的步驟時序僅為一種舉例,而非嚴格限定。
圖1為本發明實施例提供的一種交互方法的流程圖,該交互方法可以由某種回應對象來執行,該回應對象比如可以是應用程式、雲端的某個服務、某個頁面(page)等。如圖1所示,該方法包括如下步驟:
101、確定視圖組件的註冊資訊,註冊資訊中包括視圖組件的標識和對應於第一交互方式的交互事件,第一交互方式為非觸控交互方式。
102、將註冊資訊發送至操作系統,以使操作系統根據註冊資訊對用戶觸發的交互事件進行處理。
本發明實施例中,以回應對象為應用程式為例進行說明,可以理解的是,其他諸如服務、頁面等回應對象的處理過程類似,不贅述。
從而,實際應用中,為使得應用程式能夠支援與用戶之間的至少一種的交互方式,開發者會針對應用程式註冊各種交互方式的交互事件。本實施例中,針對應用程式中的同一視圖組件,開發者可以按照統一的事件註冊模型註冊對應於不同交互方式的交互事件。比如,該視圖組件為應用程式的某介面中的某個按鈕,可以針對該按鈕註冊對應於觸控交互方式的觸控交互事件,還可以針對該按鈕註冊對應於語音交互方式的語音交互事件,還可以針對該按鈕註冊對應於手勢交互方式的手勢交互事件,等等。從而,用戶在使用該應用程式的過程中,當想要點擊該按鈕時,如果用戶當前不方便執行點擊操作,則可以透過語音或者手勢的交互方式觸發該按鈕。其中,觸控交互方式對應的觸控操作通常為在螢幕上執行的諸如點擊、滑動等操作,手勢交互方式對應的手勢操作通常是懸空在螢幕前方執行的某種手勢。
也就是說,本發明實施例中,對於某視圖組件來說,除了可以註冊傳統的觸控交互事件外,還可以註冊對應於非觸控交互方式的其他交互事件,比如語音交互事件、手勢交互事件,從而,可以透過不同的交互方式觸發該視圖組件。
下面舉例說明針對同一視圖組件進行對應於不同交互方式的交互事件的註冊過程:
針對某應用程式中的某按鈕(Button),開發者可以註冊如下對應於觸控交互方式的觸控交互事件和對應於語音交互方式的語音交互事件:
觸控交互事件註冊:
var btn=new Button();
btn.text=“確定”;
btn.on(“tap”,tap_callback);
語音交互事件註冊:
var btn=new Button();
btn.text=“確定”;
btn.on(“voice”,voice_callback);
其中,btn.text=“確定”表示該按鈕上承載的文字內容為:確定。該文字內容可以視為是該按鈕的一種標識。btn.on()是監聽函數,該監聽函數中的tap、voice分別對應於點擊觸控交互方式,以及語音交互方式,tap_callback和voice_callback是在對“確定”按鈕進行點擊操作後回呼的回應函數以及進行語音觸發後回呼的回應函數。在語音事件中,btn.text=“確定”意味著用戶說出“確定”語音,會觸發該按鈕。
基於該舉例中的觸控交互事件,當用戶對“確定”按鈕進行點擊操作後,會觸發應用程式回呼觸控交互事件對應的回應函數進行回應;當用戶說出“確定”語音後,會觸發應用程式回呼語音交互事件對應的回應函數進行回應。其中,由於tap_callback和voice_callback是應用程式在該按鈕被觸發時的業務回應邏輯,而對同一視圖組件進行不同交互方式的交互事件的註冊的目的是能夠使得用戶能夠以不同的交互方式觸發同一視圖組件,因此,從業務邏輯上來說,tap_callback和voice_callback的業務回應邏輯相同。
結合上述舉例,當開發者針對某應用程式進行了上述觸控交互事件和語音交互事件的註冊時,應用程式可以產生對應於觸控交互事件的註冊資訊以及對應於語音交互事件的註冊資訊,進而將產生的註冊資訊發送至操作系統。
其中,註冊資訊中除了還有註冊的交互事件以及視圖組件的標識外,還可以包括回應對象的標識,比如上述舉例中的應用程式的標識,以便後續操作系統可以根據該回應對象的標識向該回應對象發送其某個視圖組件被觸發的通知。
可選地,所述第一交互方式可以為語音交互方式,此時,對應於第一交互方式的交互事件為語音交互事件,該語音交互事件可以是:與所述視圖組件對應的語音資訊。也就是說,在該語音交互事件註冊時,可以設置觸發該語音交互事件的語音資訊。從而,當用戶在該視圖組件的介面展示的情況下說出與該語音資訊匹配的語音時,該語音交互事件觸發。
可選地,該語音資訊可以對應於與視圖組件關聯顯示的文字資訊,或者,該語音資訊對應於自定義文字資訊。
其中,與視圖組件關聯顯示的文字資訊,可以是承載於視圖組件上的文字資訊,也可以是顯示在該視圖組件周圍的與該視圖組件具有對應關係的文字資訊。比如該視圖組件為某個選項按鈕,則該文字資訊可以是該選項按鈕上承載的文字,也可以是該選項按鈕旁邊顯示的選項內容。
另外,開發者也可以自定義視圖組件對應的語音資訊,比如自定義當用戶說出某文字資訊時也可以觸發該視圖組件上註冊的語音交互事件。
可選地,所述第一交互方式還可以為手勢交互方式,此時,對應於第一交互方式的交互事件為手勢交互事件,該手勢交互事件可以是:設定的手勢特徵。從而,當用戶在該視圖組件的顯示介面前觸發與該手勢特徵匹配的手勢操作時,該手勢交互事件觸發。
可選地,步驟101的執行時機除了上述舉例的基於開發者的註冊操作外,還可以是在回應對象比如某應用程式被安裝時,在安裝成功時,從安裝包中確定上述註冊資訊,將註冊資訊提供給操作系統。
基於該註冊資訊,操作系統後續可以對用戶透過不同交互方式對該視圖組件的觸發行為進行識別,從而準確定位到該應用程式中的該視圖組件。
操作系統接收到應用程式發送的上述註冊資訊後的處理過程以及對用戶觸發的交互事件的處理過程,結合下述實施例進行說明。
圖2為本發明實施例提供的另一種交互方法的流程圖,該交互方法可以由操作系統來執行。如圖2所示,該方法可以包括如下步驟:
201、接收對應於第一交互方式的交互事件,第一交互方式為非觸控交互方式。
202、確定與交互事件對應的視圖組件。
203、發送該視圖組件被觸發的通知,以通知對該視圖組件對應的功能進行回應。
基於前述實施例中的介紹,本實施例中假設操作系統中已經儲存有針對各回應對象中的各視圖組件註冊的各交互事件的註冊資訊,其中除了包含傳統的對應於觸控交互方式的交互事件的註冊資訊外,還包含對應於第一交互方式的交互事件的註冊資訊,其中,第一交互方式不為觸控交互方式。
以回應對象為某應用程式為例,實際應用中,當用戶正在使用該應用程式時,假設當前介面中顯示出用戶想要觸發的視圖組件,此時,用戶可以透過第一交互方式觸發針對該視圖組件的交互事件。
本實施例中,以第一交互方式為語音交互方式為例,從而,上述對應於第一交互方式的交互事件為語音交互事件。
用戶可以說出視圖組件上承載的文字資訊(假設語音交互事件對應於該文字資訊),從而觸發包含該文字資訊的語音指令。
操作系統接收到該語音指令後,識別出其中的文字資訊,進而根據已儲存的各視圖組件的註冊資訊,定位出將該文字資訊註冊為語音交互事件的視圖組件。
在一可選實施例中,操作系統可以以該語音交互方式和識別出的文字資訊為關鍵字,從已經儲存的註冊資訊中查詢出包含有對應的語音交互事件的註冊資訊,從而根據查詢到的註冊資訊中包含的回應對象的標識和視圖組件的標識,得知對應的回應對象中的視圖組件,向該回應對象發送該視圖組件被觸發的通知。
假設查詢到多個註冊資訊中都包含有上述語音交互事件時,可選地,操作系統可以根據多個註冊資訊各自對應的回應對象的運行狀態或者說根據螢幕視窗的佔用資訊,從多個回應對象中確定出目標回應對象。比如從多個回應對象中確定出最後被運行的回應對象作為目標回應對象。
在另一可選實施例中,操作系統也可以在接收到語音指令後,先根據螢幕視窗的佔用資訊確定出最後佔用螢幕視窗的回應對象為目標回應對象,進而,根據該目標回應對象對應的註冊資訊,確定註冊有上述語音交互事件的視圖組件。
在定位出語音指令對應的目標回應對象中的視圖組件後,操作系統可以向目標回應對象發送通知消息,用於告知目標回應對象該視圖組件被語音觸發,從而目標回應對象可以進行相應的回應處理即以該視圖組件對應的功能進行回應。
為便於理解,舉一個實際的例子,假設回應對象為導航應用程式,如圖3所示,假設基於一定的交互過程導航應用程式顯示出圖3所示的導航目的地選擇介面,在該選擇介面中提供了三個目的地,其中,每個目的地對應有一個選擇按鈕,第一個選擇按鈕上帶有“第一個”字樣,第二個選擇按鈕上帶有“第二個”字樣,第三個選擇按鈕上帶有“第三個”字樣。每個選擇按鈕上註冊有兩種交互方式的交互事件,分別為對應於觸控交互方式的觸控交互事件以及對應於語音交互方式的語音交互事件。從而,用戶可以對某個選擇按鈕進行點擊操作,以觸發該選擇按鈕,從而導航應用程式以被點擊的選擇按鈕所對應的目的地作為導航終點進行導航路徑規劃。除此之外,假設選擇按鈕上註冊的語音交互事件中包含的語音資訊對應于選擇按鈕上承載的文字,則用戶還可以說出想要選擇的選擇按鈕上的文字,以觸發該語音交互事件,從而,導航應用程式以該選擇按鈕所對應的目的地作為導航終點進行導航路徑規劃。
綜上,開發者可以對任一視圖組件進行不同交互方式下交互事件的註冊即可方便地擴展同一視圖組件具有多種交互方式,從而用戶可以透過不同交互方式觸發同一視圖組件,提高了人機交互的便捷性。
圖4為本發明實施例提供的又一種交互方法的流程圖,如圖4所示,該方法可以包括如下步驟:
401、接收視圖組件的註冊資訊,註冊資訊中包括對應於第一交互方式的交互事件和視圖組件的標識,第一交互方式為非觸控交互方式。
402、儲存視圖組件的標識與交互事件之間的對應關係。
403、將交互事件註冊到第一交互方式的交互引擎中。
本實施例中,上述視圖組件的標識可以是視圖組件上承載的文字資訊,或者可以是視圖組件在介面中的位置資訊。
可選地,第一交互方式可以為語音交互方式,此時,該交互事件可以包括:與視圖組件對應的語音資訊。其中,該語音資訊即為觸發該交互事件的觸發資訊。可選地,該語音資訊可以對應於與視圖組件關聯顯示的文字資訊,或者,語音資訊對應於自定義文字資訊。
可選地,第一交互方式可以為手勢交互方式,此時,該交互事件可以包括:設定的手勢特徵。其中,該手勢特徵即為觸發該交互事件的觸發資訊。
操作系統接收到上述註冊資訊後,一方面儲存視圖組件與該交互事件的對應關係,另一方面將該交互事件註冊到第一交互方式對應的交互引擎中,以便於交互引擎能夠識別出用戶的交互行為是否觸發了某個交互事件。
404、接收對應於第一交互方式的交互事件,確定與該交互事件對應的視圖組件。
其中,接收對應於第一交互方式的交互事件是指,透過第一交互方式對應的交互引擎接收到用戶觸發的交互行為,識別該交互行為以判定觸發了某個交互事件。
比如,該第一交互方式為語音交互方式,用戶觸發的交互行為是用戶說出了某條語音,透過語音交互引擎接收並識別該條語音,發現該條語音對應的語音內容與已經註冊的某語音交互事件匹配,則確定該語音交互事件對應的視圖組件,即確定是哪個視圖組件註冊了該語音交互事件。具體地,可以根據各視圖組件對應的註冊資訊確定註冊有該語音交互事件的視圖組件。
405、發送視圖組件被觸發的通知,以通知對該視圖組件對應的功能進行回應。
一般地,視圖組件的註冊資訊中會包含該視圖組件所屬的回應對象的標識,基於此,可以向該視圖組件對應的回應對象發送通知,以通知其該視圖組件上註冊的對應於第一交互方式的交互事件被觸發,從而使得回應對象調用該交互事件對應的回應處理邏輯進行回應。
在本發明實施例中,開發者可以基於統一的交互事件註冊模型為同一視圖組件註冊對應於不同交互方式的交互事件,從而擴展了視圖組件的交互方式,不僅可以透過傳統的觸控方式進行交互,還可以採用諸如語音等非觸控方式進行交互,提高了視圖組件的交互靈活性,使得用戶可以按需採用不同的交互方式進行交互。
下面,為了更加方便理解本發明實施例中對同一視圖組件進行多種交互方式的交互事件的註冊過程以及操作系統對交互事件的回應處理過程,結合圖5所示的操作系統的工作原理示意圖來進行說明。值得說明的是,圖5中示意的各組成單元僅為邏輯上的一種可選拆分方式,不以此限定。
如圖5所示,操作系統從邏輯上可以劃分為視圖組件(View)、協調調度器(Interaction Manager)以及各種交互引擎,比如圖中示意的視圖交互引擎(GUI Engine),語音交互引擎(Voice Engine),等等。
也就是說,該各種交互引擎中至少包括對應於第一交互方式的交互引擎,第一交互方式為非觸控交互方式,以用於接收對應於第一交互方式的交互事件。
其中,協調調度器,用於確定與接收到的交互事件對應的視圖組件,發送該視圖組件被觸發的通知,以通知對視圖組件對應的功能進行回應。
如圖5所示,以回應對象為某應用程式來說,應用程式可以針對同一視圖組件註冊不同交互方式的交互事件,如圖5中所示對“確定”按鈕註冊觸控交互事件和語音交互事件。協調調度器在接收到針對該視圖組件的不同交互事件的註冊資訊後,可以將觸控交互事件註冊到視圖交互引擎中,可以將語音交互事件註冊到語音交互引擎中。
基於此,當用戶觸發針對該視圖組件的觸控行為時,視圖交互引擎基於已經註冊的各觸控交互事件判定用戶的觸控行為是否命中某個觸控交互事件,若命中,則告知協調調度器,協調調度器根據各觸控交互事件的註冊資訊確定對應的視圖組件和應用程式,進而向該應用程式發送該視圖組件上的觸控交互事件被觸發的通知,應用程式基於該觸控交互事件對應的回應處理邏輯(tap_callback)進行回應。
當用戶觸發針對該視圖組件的語音指令時,語音交互引擎基於已經註冊的各語音交互事件判定用戶的語音指令中的語音內容是否命中某個語音交互事件,若命中,則告知協調調度器,協調調度器根據各語音交互事件的註冊資訊確定對應的視圖組件、應用程式,進而協調調度器可以向該應用程式發送該視圖組件上的語音交互事件被觸發的通知,應用程式基於該語音交互事件對應的回應處理邏輯(voice_callback)進行回應。
以下將詳細描述本發明的一個或多個實施例的交互裝置。本領域技術人員可以理解,這些交互裝置均可使用市售的硬體元件透過本方案所教導的步驟進行配置來構成。
圖6為本發明實施例提供的一種交互裝置的結構示意圖,如圖6所示,該裝置包括:確定模組11、發送模組12。
確定模組11,用於確定視圖組件的註冊資訊,所述註冊資訊中包括所述視圖組件的標識和對應於第一交互方式的交互事件,所述第一交互方式為非觸控交互方式。
發送模組12,用於將所述註冊資訊發送至操作系統,以使所述操作系統根據所述註冊資訊對用戶觸發的交互事件進行處理。
圖6所示裝置可以執行圖1所示實施例的方法,本實施例未詳細描述的部分,可參考對圖1所示實施例的相關說明。該技術方案的執行過程和技術效果參見圖1所示實施例中的描述,在此不再贅述。
在一個可能的設計中,上述圖6所示的交互裝置的結構可實現為一電子設備,如圖7所示,該電子設備可以包括:第一處理器21、第一記憶體22。
其中,所述第一記憶體22上儲存有可執行程式碼,當所述可執行程式碼被所述第一處理器21執行時,使所述第一處理器21執行如前述圖1所示實施例中提供的交互方法。
另外,本發明實施例提供了一種非暫時性機器可讀儲存媒體,所述非暫時性機器可讀儲存媒體上儲存有可執行程式碼,當所述可執行程式碼被電子設備的處理器執行時,使所述處理器執行如圖1所示實施例中的交互方法。
圖8為本發明實施例提供的另一種交互裝置的結構示意圖,如圖8所示,該裝置包括:接收模組31、確定模組32、通知模組33。
接收模組31,用於接收對應於第一交互方式的交互事件,所述第一交互方式為非觸控交互方式。
確定模組32,用於確定與所述交互事件對應的視圖組件。
通知模組33,用於發送所述視圖組件被觸發的通知,以通知對所述視圖組件對應的功能進行回應。
可選地,所述接收模組31還可以用於:接收所述視圖組件的註冊資訊,所述註冊資訊中包括所述交互事件和所述視圖組件的標識。
所述裝置還可以包括:儲存模組,用於保存所述註冊資訊。
可選地,所述儲存模組可以用於:儲存所述視圖組件的標識與所述交互事件之間的對應關係;將所述交互事件註冊到所述第一交互方式的交互引擎中。
可選地,所述第一交互方式為語音交互方式,所述交互事件包括:與所述視圖組件對應的語音資訊。
可選地,所述語音資訊對應於與所述視圖組件關聯顯示的文字資訊,或者,所述語音資訊對應於自定義文字資訊。
可選地,所述第一交互方式為手勢交互方式,所述交互事件包括:設定的手勢特徵。
圖8所示裝置可以執行圖2-圖4所示實施例的方法,本實施例未詳細描述的部分,可參考對圖2-圖4所示實施例的相關說明。該技術方案的執行過程和技術效果參見圖2-圖4所示實施例中的描述,在此不再贅述。
在一個可能的設計中,圖8所示交互裝置的結構可實現為一電子設備,如圖9所示,該電子設備可以包括:第二處理器41、第二記憶體42。其中,所述第二記憶體42上儲存有可執行程式碼,當所述可執行程式碼被所述第二處理器41執行時,使所述第二處理器41執行如圖2-圖4所示實施例中提供的交互方法。
另外,本發明實施例提供了一種非暫時性機器可讀儲存媒體,所述非暫時性機器可讀儲存媒體上儲存有可執行程式碼,當所述可執行程式碼被電子設備的處理器執行時,使所述處理器執行如圖2-圖4所示方法實施例中的交互方法。
以上所描述的裝置實施例僅僅是示意性的,其中所述作為分離部件說明的單元可以是或者也可以不是實體上分開的,作為單元顯示的部件可以是或者也可以不是實體單元,即可以位於一個地方,或者也可以分佈到多個網路單元上。可以根據實際的需要選擇其中的部分或者全部模組來實現本實施例方案的目的。本領域普通技術人員在不付出創造性的勞動的情況下,即可以理解並實施。
透過以上的實施方式的描述,本領域的技術人員可以清楚地瞭解到各實施方式可借助加必需的通用硬體平台的方式來實現,當然也可以透過硬體和軟體結合的方式來實現。基於這樣的理解,上述技術方案本質上或者說對現有技術做出貢獻的部分可以以電腦產品的形式體現出來,本發明可採用在一個或多個其中包含有電腦可用程式碼的電腦可用儲存媒體(包括但不限於磁碟記憶體、CD-ROM、光學記憶體等)上實施的電腦程式產品的形式。
本發明是參照根據本發明實施例的方法、設備(系統)、和電腦程式產品的流程圖和/或方框圖來描述的。應理解可由電腦程式指令實現流程圖和/或方框圖中的每一流程和/或方框、以及流程圖和/或方框圖中的流程和/或方框的結合。可提供這些電腦程式指令到通用電腦、專用電腦、嵌入式處理機或其他可編程人機交互設備的處理器以產生一個機器,使得透過電腦或其他可編程人機交互設備的處理器執行的指令產生用於實現在流程圖一個流程或多個流程和/或方框圖一個方框或多個方框中指定的功能的裝置。
這些電腦程式指令也可儲存在能引導電腦或其他可編程人機交互設備以特定方式工作的電腦可讀記憶體中,使得儲存在該電腦可讀記憶體中的指令產生包括指令裝置的製造品,該指令裝置實現在流程圖一個流程或多個流程和/或方框圖一個方框或多個方框中指定的功能。
這些電腦程式指令也可裝載到電腦或其他可編程人機交互設備上,使得在電腦或其他可編程設備上執行一系列操作步驟以產生電腦實現的處理,從而在電腦或其他可編程設備上執行的指令提供用於實現在流程圖一個流程或多個流程和/或方框圖一個方框或多個方框中指定的功能的步驟。
在一個典型的配置中,計算設備包括一個或多個處理器 (CPU)、輸入/輸出介面、網路介面和記憶體。
記憶體可能包括電腦可讀媒體中的非永久性記憶體,隨機存取記憶體 (RAM) 和/或非易失性記憶體等形式,如唯讀記憶體 (ROM) 或快閃記憶體(flash RAM)。記憶體是電腦可讀媒體的示例。
電腦可讀媒體包括永久性和非永久性、可移動和非可移動媒體可以由任何方法或技術來實現資訊儲存。資訊可以是電腦可讀指令、資料結構、程式的模組或其他資料。電腦的儲存媒體的例子包括,但不限於相變記憶體 (PRAM)、靜態隨機存取記憶體 (SRAM)、動態隨機存取記憶體 (DRAM)、其他類型的隨機存取記憶體 (RAM)、唯讀記憶體 (ROM)、電可擦除可編程唯讀記憶體 (EEPROM)、快閃記憶體或其他記憶體技術、唯讀光碟唯讀記憶體 (CD-ROM)、數位多功能光碟 (DVD) 或其他光學儲存、磁盒式磁帶,磁帶磁磁片儲存或其他磁性存放裝置或任何其他非傳輸媒體,可用於儲存可以被計算設備訪問的資訊。按照本文中的界定,電腦可讀媒體不包括暫存電腦可讀媒體 (transitory media),如調變的資料信號和載波。
最後應說明的是:以上實施例僅用以說明本發明的技術方案,而非對其限制;儘管參照前述實施例對本發明進行了詳細的說明,本領域的普通技術人員應當理解:其依然可以對前述各實施例所記載的技術方案進行修改,或者對其中部分技術特徵進行等同替換;而這些修改或者替換,並不使相應技術方案的本質脫離本發明各實施例技術方案的精神和範圍。
101~102:方法步驟
201~203:方法步驟
401~405:方法步驟
11:確定模組
12:發送模組
21:第一處理器
22:第一記憶體
31:接收模組
32:確定模組
33:通知模組
41:第二處理器
42:第二記憶體
為了更清楚地說明本發明實施例或現有技術中的技術方案,下面將對實施例或現有技術描述中所需要使用的圖式作一簡單地介紹,顯而易見地,下面描述中的圖式是本發明的一些實施例,對於本領域普通技術人員來講,在不付出創造性勞動的前提下,還可以根據這些圖式獲得其他的圖式。
圖1為本發明實施例提供的一種交互方法的流程圖;
圖2為本發明實施例提供的另一種交互方法的流程圖;
圖3為本發明實施例提供的一種導航場景下交互過程的介面顯示效果示意圖;
圖4為本發明實施例提供的又一種交互方法的流程圖;
圖5為本發明實施例提供的一種操作系統的工作原理示意圖;
圖6為本發明實施例提供的一種交互裝置的結構示意圖;
圖7為與圖6所示實施例提供的交互裝置對應的電子設備的結構示意圖;
圖8為本發明實施例提供的另一種交互裝置的結構示意圖;
圖9為與圖8所示實施例提供的交互裝置對應的電子設備的結構示意圖。
Claims (12)
- 一種交互方法,其特徵在於,包括: 接收對應於第一交互方式的交互事件,該第一交互方式為非觸控交互方式; 確定與該交互事件對應的視圖組件; 發送該視圖組件被觸發的通知,以通知對該視圖組件對應的功能進行回應。
- 根據請求項1所述的方法,其中,該方法還包括: 接收該視圖組件的註冊資訊,該註冊資訊中包括該交互事件和該視圖組件的標識; 保存該註冊資訊。
- 根據請求項1所述的方法,其中,所述保存該註冊資訊,包括: 儲存該視圖組件的標識與該交互事件之間的對應關係; 將該交互事件註冊到該第一交互方式的交互引擎中。
- 根據請求項1至3中任一項所述的方法,其中,該第一交互方式為語音交互方式,該交互事件包括:與該視圖組件對應的語音資訊。
- 根據請求項4所述的方法,其中,該語音資訊對應於與該視圖組件關聯顯示的文字資訊,或者,該語音資訊對應於自定義文字資訊。
- 根據請求項1至3中任一項所述的方法,其中,該第一交互方式為手勢交互方式,該交互事件包括:設定的手勢特徵。
- 一種交互方法,其特徵在於,包括: 確定視圖組件的註冊資訊,該註冊資訊中包括該視圖組件的標識和對應於第一交互方式的交互事件,該第一交互方式為非觸控交互方式; 將該註冊資訊發送至操作系統,以使該操作系統根據該註冊資訊對用戶觸發的交互事件進行處理。
- 一種電子設備,其特徵在於,包括:記憶體、處理器;其中,該記憶體上儲存有可執行程式碼,當該可執行程式碼被該處理器執行時,使該處理器執行如請求項1至6中任一項所述的交互方法。
- 一種電子設備,其特徵在於,包括:記憶體、處理器;其中,該記憶體上儲存有可執行程式碼,當該可執行程式碼被該處理器執行時,使該處理器執行如請求項7所述的交互方法。
- 一種非暫時性機器可讀儲存媒體,其特徵在於,該非暫時性機器可讀儲存媒體上儲存有可執行程式碼,當該可執行程式碼被電子設備的處理器執行時,使該處理器執行如請求項1至6中任一項所述的交互方法。
- 一種非暫時性機器可讀儲存媒體,其特徵在於,該非暫時性機器可讀儲存媒體上儲存有可執行程式碼,當該可執行程式碼被電子設備的處理器執行時,使該處理器執行如請求項7所述的交互方法。
- 一種操作系統,其特徵在於: 至少包括對應於第一交互方式的交互引擎,用於接收對應於該第一交互方式的交互事件,該第一交互方式為非觸控交互方式;以及, 協調調度器,用於確定與該交互事件對應的視圖組件,發送該視圖組件被觸發的通知,以通知對該視圖組件對應的功能進行回應。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810996957.4A CN110874176B (zh) | 2018-08-29 | 2018-08-29 | 交互方法、存储介质、操作系统和设备 |
CN201810996957.4 | 2018-08-29 |
Publications (1)
Publication Number | Publication Date |
---|---|
TW202032388A true TW202032388A (zh) | 2020-09-01 |
Family
ID=69639394
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW108123236A TW202032388A (zh) | 2018-08-29 | 2019-07-02 | 交互方法、儲存媒體、操作系統和設備 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11150796B2 (zh) |
CN (1) | CN110874176B (zh) |
TW (1) | TW202032388A (zh) |
WO (1) | WO2020046752A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113467654A (zh) * | 2021-03-23 | 2021-10-01 | 中科创达软件股份有限公司 | 应用程序的控制方法、装置、电子设备及存储介质 |
CN117215682A (zh) * | 2023-07-27 | 2023-12-12 | 北京小米机器人技术有限公司 | 交互事件执行方法及装置、电子设备、存储介质 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5877766A (en) | 1997-08-15 | 1999-03-02 | International Business Machines Corporation | Multi-node user interface component and method thereof for use in accessing a plurality of linked records |
US7505911B2 (en) | 2001-09-05 | 2009-03-17 | Roth Daniel L | Combined speech recognition and sound recording |
WO2004023455A2 (en) * | 2002-09-06 | 2004-03-18 | Voice Signal Technologies, Inc. | Methods, systems, and programming for performing speech recognition |
US8219406B2 (en) * | 2007-03-15 | 2012-07-10 | Microsoft Corporation | Speech-centric multimodal user interface design in mobile technology |
EP2211689A4 (en) | 2007-10-08 | 2013-04-17 | Univ California Ucla Office Of Intellectual Property | VOICE CONTROLLED DASHBOARD WITH CLINICAL INFORMATION |
US8958848B2 (en) * | 2008-04-08 | 2015-02-17 | Lg Electronics Inc. | Mobile terminal and menu control method thereof |
US8698762B2 (en) | 2010-01-06 | 2014-04-15 | Apple Inc. | Device, method, and graphical user interface for navigating and displaying content in context |
US9665344B2 (en) * | 2010-02-24 | 2017-05-30 | GM Global Technology Operations LLC | Multi-modal input system for a voice-based menu and content navigation service |
US9094534B2 (en) | 2011-12-29 | 2015-07-28 | Apple Inc. | Device, method, and graphical user interface for configuring and implementing restricted interactions with a user interface |
WO2013169845A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for scrolling nested regions |
DE202013012233U1 (de) | 2012-05-09 | 2016-01-18 | Apple Inc. | Vorrichtung und grafische Benutzerschnittstelle zum Anzeigen zusätzlicher Informationen in Antwort auf einen Benutzerkontakt |
WO2013169851A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for facilitating user interaction with controls in a user interface |
US8769030B2 (en) * | 2012-09-28 | 2014-07-01 | Google Inc. | Device event notification registration through direct interaction with mobile device |
US20140118268A1 (en) | 2012-11-01 | 2014-05-01 | Google Inc. | Touch screen operation using additional inputs |
US9189131B2 (en) | 2012-12-11 | 2015-11-17 | Hewlett-Packard Development Company, L.P. | Context menus |
CN107831991B (zh) | 2012-12-29 | 2020-11-27 | 苹果公司 | 用于确定是滚动还是选择内容的设备、方法和图形用户界面 |
DE202015005394U1 (de) | 2014-08-02 | 2015-12-08 | Apple Inc. | Kontextspezifische Benutzerschnittstellen |
US10671275B2 (en) | 2014-09-04 | 2020-06-02 | Apple Inc. | User interfaces for improving single-handed operation of devices |
US9632664B2 (en) | 2015-03-08 | 2017-04-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
CN108279839A (zh) * | 2017-01-05 | 2018-07-13 | 阿里巴巴集团控股有限公司 | 基于语音的交互方法、装置、电子设备及操作系统 |
US11221823B2 (en) * | 2017-05-22 | 2022-01-11 | Samsung Electronics Co., Ltd. | System and method for context-based interaction for electronic devices |
-
2018
- 2018-08-29 CN CN201810996957.4A patent/CN110874176B/zh active Active
-
2019
- 2019-07-02 TW TW108123236A patent/TW202032388A/zh unknown
- 2019-08-22 US US16/548,441 patent/US11150796B2/en active Active
- 2019-08-23 WO PCT/US2019/047969 patent/WO2020046752A1/en active Application Filing
-
2021
- 2021-09-03 US US17/466,713 patent/US20210397317A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20200073529A1 (en) | 2020-03-05 |
CN110874176A (zh) | 2020-03-10 |
US20210397317A1 (en) | 2021-12-23 |
WO2020046752A1 (en) | 2020-03-05 |
CN110874176B (zh) | 2024-03-29 |
US11150796B2 (en) | 2021-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12093598B2 (en) | System to facilitate interaction during a collaborative screen sharing session | |
CN110865888B (zh) | 一种资源加载方法、装置、服务器及存储介质 | |
TW202032326A (zh) | 互動方法、設備、儲存媒體和操作系統 | |
TW201826112A (zh) | 基於語音的互動方法、裝置、電子設備及操作系統 | |
US10871918B2 (en) | Writing composite objects to a data store | |
CN106575222B (zh) | Node.js应用的监测 | |
TW202034185A (zh) | 用於基於結構化查詢語言語句實現計算服務的方法、裝置及系統、計算設備和非暫態性機器可讀儲存媒體 | |
WO2022111047A1 (zh) | 语音播报方法、计算设备及计算机存储介质 | |
US9292341B2 (en) | RPC acceleration based on previously memorized flows | |
US9712618B2 (en) | Asynchronous and synchronous resource links | |
CN111125555B (zh) | 企业信息获取方法以及装置 | |
WO2019036087A1 (en) | BASIC KNOWLEDGE OPERATION OF GROUPS IN THE MINING OF ORGANIZATIONAL DATA | |
CN110807161A (zh) | 一种页面骨架渲染方法、装置、设备及介质 | |
TW202032388A (zh) | 交互方法、儲存媒體、操作系統和設備 | |
US9608892B2 (en) | Client-side click tracking | |
CN110019444B (zh) | 一种操作请求处理方法、装置、设备及系统 | |
US11271882B2 (en) | Message normalization engine for multi-cloud messaging systems | |
US11023479B2 (en) | Managing asynchronous analytics operation based on communication exchange | |
CN109933444A (zh) | 一种寄宿应用间的即时通讯方法 | |
CN114461909A (zh) | 信息处理方法、信息处理装置、电子设备和存储介质 | |
US20080307395A1 (en) | Providing Registration of a Communication | |
US11442668B2 (en) | Prioritizing volume accesses in multi-volume storage device based on execution path of a service | |
US11726641B1 (en) | Encoding/decoding user interface interactions | |
US11861537B2 (en) | Method and system for identifying and quantifying organizational waste | |
CN112445790B (zh) | 一种报表数据存储方法、装置、设备及介质 |