TW201445414A - 通訊過程中的資訊互動方法、用戶端及伺服器 - Google Patents
通訊過程中的資訊互動方法、用戶端及伺服器 Download PDFInfo
- Publication number
- TW201445414A TW201445414A TW102135518A TW102135518A TW201445414A TW 201445414 A TW201445414 A TW 201445414A TW 102135518 A TW102135518 A TW 102135518A TW 102135518 A TW102135518 A TW 102135518A TW 201445414 A TW201445414 A TW 201445414A
- Authority
- TW
- Taiwan
- Prior art keywords
- information
- user
- interaction behavior
- tactile interaction
- sender
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/04—Real-time or near real-time messaging, e.g. instant messaging [IM]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/02—Details
- H04L12/16—Arrangements for providing special services to substations
- H04L12/18—Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
- H04L12/1813—Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
- H04L12/1822—Conducting the conference, e.g. admission, detection, selection or grouping of participants, correlating users to one or more conference sessions, prioritising transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/02—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/04—Real-time or near real-time messaging, e.g. instant messaging [IM]
- H04L51/046—Interoperability with other network applications or services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/07—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
- H04L51/10—Multimedia information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/52—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail for supporting social networking services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
- H04N7/157—Conference systems defining a virtual conference space and using avatars or agents
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Information Transfer Between Computers (AREA)
- User Interface Of Digital Computer (AREA)
- Telephonic Communication Services (AREA)
- Telephone Function (AREA)
Abstract
本發明公開了通訊過程中的資訊互動方法、用戶端及伺服器,其中,所述方法包括:確定接收方用戶以及所述接收方用戶對應的虛擬影像;監控發送方用戶對所述虛擬影像執行的觸感互動行為資訊;根據觸感互動行為資訊,確定觸感互動行為資訊對應的第一播放資訊;所述第一播放資訊為與所述虛擬影像相關並且與所述觸感互動行為資訊對應的播放資訊;將監控到的觸感互動行為的相關資訊發送到所述接收方用戶對應的接收方用戶端,以便所述接收方用戶端根據所述觸感互動行為相關資訊,確定並播放對應的第二播放資訊。藉由本發明,能夠使得通訊工具對現實世界中用戶面對面溝通方式的還原度得到提高。
Description
本發明涉及通訊資訊互動技術領域,特別是涉及通訊過程中的資訊互動方法、用戶端及伺服器。
隨著通信技術的不斷發展,人們可以藉由移動終端進行隨時隨地的溝通。最初,藉由終端設備進行溝通的方式主要有:短信、彩信和電話等,這些通訊方式對於用戶來說資費成本比較高。隨著3G(3rd-generation,第三代移動通信技術)、WiFi(wireless fidelity,無線保真)等技術的推廣,網路流量費用的降低,以及智慧移動終端的迅速擴張,在移動終端通訊領域催生了很多產品,其中包括移動終端版的通訊產品(包括即時通訊產品或者帶有即時通訊功能的遊戲等其他產品等)。
與短信、電話等溝通方式不同,移動終端上的通訊產品可以將用戶組織成虛擬的社交網路,用戶之間可以在社交網路中進行互動,包括發送文字/語音資訊、發送圖片或者互相傳遞一些文件,等等,並且只要對方聯網,資訊就可以即時到達。這種虛擬的社交網路使得人與人之間的
溝通變得更加方便,也降低了溝通成本。
傳統的通訊產品在用戶之間進行資訊傳遞的載體主要是文字,有些場景下還可以配以簡單的表情圖片,用以幫助用戶對感情色彩的表達。隨著通訊技術的不斷發展,一些通訊工具還可以實現視頻會話、語音會話,使得通訊雙方能夠實現一種“看得見”、“聽的見”的互動,相對於文字、圖片等載體而言,視頻、音頻可以更準確的表達用戶雙方的情感等。但是,這些功能可能仍然不足以使得用戶想要表達的情感、心情等完整地傳達給對方。換言之,現有的通訊產品對現實世界中用戶面對面溝通方式的還原度還有待進一步提高。
本發明提供了涉及通訊過程中的資訊互動方法、用戶端及伺服器,能夠使得通訊工具對現實世界中用戶面對面溝通方式的還原度得到提高。
本發明提供了如下方案:一種通訊過程中發送方用戶端的資訊互動方法,包括:確定接收方用戶以及所述接收方用戶對應的虛擬影像;監控發送方用戶對所述虛擬影像執行的觸感互動行為資訊;根據觸感互動行為資訊,確定觸感互動行為資訊對應
的第一播放資訊;所述第一播放資訊為與所述虛擬影像相關並且與所述觸感互動行為資訊對應的播放資訊;將監控到的觸感互動行為的相關資訊發送到所述接收方用戶對應的接收方用戶端,以便所述接收方用戶端根據所述觸感互動行為相關資訊,確定並播放對應的第二播放資訊;所述第二播放資訊為與接收方用戶的虛擬影像相關並且與所述觸感互動行為資訊對應的播放資訊。
一種通訊過程中接收方用戶端的資訊互動方法,包括:接收觸感互動行為的相關資訊;所述觸感互動行為為發送方用戶藉由發送方用戶端對接收方用戶的虛擬影像執行的行為;根據所述觸感互動行為的相關資訊確定並播放對應的第二播放資訊;所述第二播放資訊為與接收方用戶的虛擬影像相關並且與所述觸感互動行為資訊對應的播放資訊。
一種通訊過程中伺服器端的資訊互動方法,包括:相關資訊獲取單元,用於獲取發送方用戶端發送的觸感互動行為的相關資訊,以及接收方用戶的標識資訊;根據所述觸感互動行為的相關資訊確定需要向接收方用戶端發送的資訊;根據所述接收方用戶的標識資訊將所述需要向接收方用戶端方發送的資訊,發送到所述接收方用戶端,以便所述接收方用戶端根據接收到的資訊確定第二播放資訊;其中,所述第二播放資訊為與接收方用戶的虛擬影像相關並
且與所述觸感互動行為資訊對應的播放資訊。
一種通訊過程中的發送方用戶端,包括:虛擬影像確定單元,用於確定接收方用戶以及所述接收方用戶對應的虛擬影像;監控單元,用於監控發送方用戶對所述虛擬影像執行的觸感互動行為資訊;第一播放資訊確定單元,用於根據觸感互動行為資訊,確定觸感互動行為資訊對應的第一播放資訊;所述第一播放資訊為與所述虛擬影像相關並且與所述觸感互動行為資訊對應的播放資訊;資訊發送單元,用於將監控到的觸感互動行為的相關資訊發送到所述接收方用戶對應的接收方用戶端,以便所述接收方用戶端根據所述觸感互動行為相關資訊,確定並播放對應的第二播放資訊;所述第二播放資訊為與接收方用戶的虛擬影像相關並且與所述觸感互動行為資訊對應的播放資訊。
一種通訊過程中的接收方用戶端,包括:資訊接收單元,用於接收觸感互動行為的相關資訊;所述觸感互動行為為發送方用戶藉由發送方用戶端對接收方用戶的虛擬影像執行的行為;第二播放資訊確定單元根據所述觸感互動行為的相關資訊確定並播放對應的第二播放資訊;所述第二播放資訊為與接收方用戶的虛擬影像相關並且與所述觸感互動行為資訊對應的播放資訊。
一種通訊過程中的伺服器,包括:相關資訊獲取單元,用於獲取發送方用戶端發送的觸感互動行為的相關資訊,以及接收方用戶的標識資訊;資訊確定單元,用於根據所述觸感互動行為的相關資訊確定需要向接收方用戶端發送的資訊;資訊發送單元,用於根據所述接收方用戶的標識資訊將所述需要向接收方用戶端方發送的資訊,發送到所述接收方用戶端,以便所述接收方用戶端根據接收到的資訊確定第二播放資訊;其中,所述第二播放資訊為與接收方用戶的虛擬影像相關並且與所述觸感互動行為資訊對應的播放資訊。
根據本發明提供的具體實施例,本發明達到了以下技術效果:藉由本發明實施例,可以確定出接收方用戶的虛擬影像,這樣,發送方用戶可以在該虛擬影像上執行觸感互動行為,相應的,發送方用戶端就可以監控到發送方用戶發出的觸感互動行為資訊,然後,可以根據這種觸感互動行為資訊確定出用於向發送方用戶播放的第一播放資訊,同時,還可以將觸感互動行為的相關資訊發送到接收方用戶端,以便接收方用戶端確定出需要向接收方用戶播放的第二播放資訊,並進行播放。這樣,可以藉由接收方用戶的虛擬影像類比當發送方用戶真正觸控到接收方用戶時,接收方用戶可能會有的反應。因此,相當於實現了一種能夠“摸得到”的通訊方式,使得通訊工具對現實世界中用戶面
對面溝通方式的還原度得到提高。
另外,根據發送方用戶與接收方用戶之間關係親密程度的不同,同一觸感互動行為可以對應有不同待播放資訊,從而實現區分角色的反饋,使得用戶影像更加智慧,更具人性化,幫助代表的主體更生動、更準確地表達情感。對於不同的行為發出方而言,也不是單一的某個行為,還能體現出與行為接受方之間的關係密切程度,使雙方的溝通更加接近現實世界中進行的面對面溝通。
當然,實施本發明的任一產品並不一定需要同時達到以上所述的所有優點。
801‧‧‧虛擬影像確定單元
802‧‧‧監控單元
803‧‧‧第一播放資訊確定單元
804‧‧‧資訊發送單元
901‧‧‧相關資訊獲取單元
902‧‧‧資訊確定單元
903‧‧‧資訊發送單元
1001‧‧‧資訊接收單元
1002‧‧‧第二播放資訊確定單元
為了更清楚地說明本發明實施例或現有技術中的技術方案,下面將對實施例中所需要使用的圖式作簡單地介紹,顯而易見地,下面描述中的圖式僅僅是本發明的一些實施例,對於本領域普通技術人員來講,在不付出創造性勞動的前提下,還可以根據這些圖式獲得其他的圖式。
圖1是本發明實施例提供的第一方法的流程圖;圖2是本發明實施例中關於虛擬影像中顯示的提示資訊的示意圖;圖3是本發明實施例中關於基於虛擬影像產生的具有行為表現力的畫面的示意圖;圖4是本發明實施例提供的第二方法的流程圖;圖5是本發明實施例提供的第三方法的流程圖;
圖6是本發明實施例提供的第四方法的流程圖;圖7是本發明實施例提供的第五方法的流程圖;圖8是本發明實施例提供的發送方用戶端的示意圖;圖9是本發明實施例提供的伺服器的示意圖;圖10是本發明實施例提供的接收方用戶端的示意圖。
下面將結合本發明實施例中的圖式,對本發明實施例中的技術方案進行清楚、完整地描述,顯然,所描述的實施例僅僅是本發明一部分實施例,而不是全部的實施例。基於本發明中的實施例,本領域普通技術人員所獲得的所有其他實施例,都屬於本發明保護的範圍。
為了使得即時通信工具對現實世界中用戶面對面溝通方式的還原度得到提高,在本發明實施例試圖在傳統即時通信工具使得通訊雙方能夠互相“看得見”、“聽的見”之外,還能使得通訊雙方能夠“摸得到”,使得互動的過程更接近於現實世界中面對面溝通時對於情感等的表達方式(例如,在實際進行面對面溝通時,雙方可能不僅會用語言表達,還可能會結合一些肢體動作等等,這可以看作是一種本能的表達)。也就是說,本發明實施例為通訊雙方提供了一種能夠“摸得到”對方的溝通途徑,使得通訊的過程對現實世界中用戶面對面溝通方式的還原度得到提高。
本發明實施例一首先提供了一種通訊過程中發送方用戶端的資訊互動方法,參見圖1,該方法可以包括:
S101:確定接收方用戶以及所述接收方用戶對應的虛擬影像;首先作為行為的發起方,發送方用戶可以打開自己的通訊錄或者聯繫人列表等,選定一個用戶作為接收方用戶(例如,藉由點擊某用戶的頭像等方式進入與該用戶進行對話的視窗等),以確定接收方用戶以及所述接收方用戶對應的虛擬影像。在選定一個接收方用戶之後,發送方用戶可以藉由介面中的入口等通知發送方用戶端,想要向該指定用戶發送一個觸感互動行為(例如,撫摸一下對方的頭、親一下對方等等,關於觸感互動行為,在步驟S102部分會有詳細的介紹),於是,用戶端就可以將該指定用戶確定為接收方用戶,同時,將接收方用戶對應的虛擬影像顯示給當前的發送方用戶。也就是說,發送方用戶在指定一個用戶執行觸感互動行為時,會首先在自己的介面中看到對方的虛擬影像。
其中,接收方用戶的虛擬影像可以是預先儲存於發送方的終端中,也可以由該發送方用戶預先從伺服器同步到本地的,這樣可以直接根據發送方用戶本地儲存的資訊,找出接收方用戶對應的虛擬影像,並進行顯示。當然,如果發現發送方本地未儲存有某接收方用戶的虛擬影像,也可以首先到伺服器端進行同步,如果仍然未能獲取到接收
方用戶對應的虛擬影像,則可以將一個默認的虛擬影像作為接收方用戶的虛擬影像顯示給發送方用戶。此外,接收方用戶的虛擬影像還可以是由接收方用戶發送給發送方用戶的,或者直接由發送方的終端根據接收方的資訊(例如接收方的照片、語音、錄影、通訊地址等)產生的。
也就是說,對於某用戶A的虛擬影像而言,既可以是由伺服器端產生的,也可以是由用戶A產生儲存在伺服器上的,還可以是由用戶A直接發送給發送方用戶B的,或者由發送方的終端根據接收方的資訊產生的。如果一個用戶B需要對該用戶A執行觸感互動行為,則可以預先從伺服器將該用戶A的虛擬影像同步到用戶B的本地進行儲存,或者直接由用戶A發送給用戶B。
其中,為了使得整個實現過程更加生動,在為用戶產生對應的虛擬影像時,可以要求用戶提供自己的頭像照片等(如果是在伺服器端來產生虛擬影像,則可能還需要用戶上傳其頭像照片),然後可以根據用戶的頭像照片以及預置的模型,匹配出一個與用戶的實際面部特徵等具有一定相似度的三維虛擬影像。具體實現時,可以運用圖像技術中的人臉識別技術(也可以讓用戶自己選擇臉部區域的眼睛、下顎等),得到用戶臉部區域以後,再用圖像識別技術在頭像區域解析頭像的線條和顔色等特徵,識別出髮型、膚色、臉型、臉部大小、是否戴眼鏡等特徵資料,將這些特徵資料與服務端儲存的用戶特徵庫進行匹配,最終就可以匹配出最近似的一個虛擬影像。之後,還可以在該
虛擬影像基礎上產生一系列的具有一定行為表現力的畫面(這種畫面一般是動畫,例如,某用戶的虛擬影像正在流眼淚的動畫、某用戶的虛擬影像的耳朵被拉長的動畫等等,為了便於描述,下文中以動畫為例進行介紹)。這些動畫可以與具體的觸感互動行為相對應,這樣,在執行了某一觸感互動行為之後,就可以分別在發送方用戶端以及接收方用戶端播放對應的畫面,用於對用戶執行的觸感互動行為做出回應。
需要說明的是,用戶在從伺服器或者其他用戶處同步虛擬影像資訊時,相當於同步的是一套虛擬影像,其中,包括虛擬影像的初始狀態(未對其進行任何行為操作時的狀態),以及與各種觸感互動行為對應的動畫。另外需要說明的是,對於一個觸感互動行為而言,其對應的在發送方用戶端播放的動畫,與在接收方用戶端播放的動畫可能是不同的。其中,前者具有行為發出方的行為表現力,後者具有行為接受方的行為表現力。例如,當用戶A向用戶B發出一個“虐一下”的觸感互動行為,則向A播放的動畫可以是:在用戶B虛擬影像的旁邊有一個正在揮打其頭部的拳頭等,而向B播放的動畫可以是:用戶B虛擬影像正在流淚,等等。因此,如果一個用戶A需要從伺服器端或用戶B用戶端同步用戶B的虛擬影像及其對應的動畫時,同步的可以是將該用戶B的虛擬影像初始狀態,以及各種具有行為發出方的行為表現力的動畫;而如果一個用戶A需要從伺服器端同步自己的虛擬影像及其對應的動畫
時,同步的可以是將該用戶A自己的虛擬影像初始狀態,以及各種具有行為接受方的行為表現力的動畫。
另外需要說明的是,在實際應用中,一個觸感互動行為除了藉由動畫來表現之外,還可以同時伴隨有聲音,例如,某用戶被“虐”時,可以在播放流淚動畫(如圖2所示)的同時,播放“哇哇”的哭泣聲,或者也可能單純播放聲音,等等。因此,可以將動畫和/或聲音統稱為待播放資訊。
S102:監控發送方用戶對所述虛擬影像執行的觸感互動行為資訊;所謂的觸感互動行為就是一個用戶對另一個用戶執行的“虐一下”、“親一下”、“撫摸下”等行為,用以類比現實世界中兩個用戶之間在肢體上有接觸的互動行為。
對於發送方用戶而言,在看到接收方用戶的虛擬影像之後,就可以對該虛擬影像執行某種觸感互動行為。具體實現時,可以在顯示虛擬影像的同時,顯示出各種觸感互動行為的操作入口,例如,分別顯示“虐一下”、“親一下”、“撫摸下”等等多個按鈕,如果發送方用戶想要執行某種觸感互動行為,就從對應的入口進入,以發出對應的觸感操作行為。
另外,在實際應用中,由於終端設備一般會具有觸控螢幕、加速度感測器等感應裝置,因此,發送方用戶可以直接在終端設備的觸控螢幕進行手勢觸控,或者對終端設備進行搖晃以改變虛擬影像在螢幕中的相對位置,等等,
藉由這些動作來發出具體的觸感互動行為。其中。對於各種觸感互動行為,可以預先定義好操作方式,發送方用戶按照對應的方式進行操作,即可發出對應的觸感互動行為。例如,各種觸感互動行為與具體的操作方式之間的對應關係可以如下:虐一下:點擊幾下對方虛擬影像的頭部;撫摸下:撫摸對方虛擬影像的頭部;思念下:在對方虛擬影像的頭部上畫一個“愛心”形狀的圖形;調戲下:在對方虛擬影像的脖子附近畫一條線;親一下:觸控對方虛擬影像的嘴巴位置;晃一下:對終端設備進行輕微的晃動;使勁搖:對終端設備進行用力搖動;捏一下、扯一下:在對方虛擬影像的臉部做捏或扯的動作;和他說話:在對方虛擬影像的耳朵部位揪一下。
也就是說,發送方用戶可以藉由上述各種操作方式的不同,來發出各種觸感互動行為。當然,在實際應用中,為了提示用戶各種行為應該如何操作,還可以在顯示對方虛擬影像的同時,顯示出各種觸感互動行為對應的操作方式的提示資訊。例如,如圖3所示,分別顯示了“虐一下”、“撫摸”、“思念”、“調戲”這幾種常用的觸感互動行為對應的操作方式的提示。
在發送方用戶在對方的虛擬影像上執行了某操作行為
之後,為了能夠識別出具體是何種觸感互動行為,以便進而確定應該播放哪段動畫和/或聲音,可以預先為各種觸感互動行為設置編碼,並預先儲存各個編碼與各自對應的行為特徵之間的對應關係。其中,行為特徵就是指各個具體的行為所體現出的特徵,例如,對於手勢、觸控操作,行為特徵可以包括操作類型(點擊或滑動)、操作的位置(是否屬於頭部區域,或者是否具體到鼻子、嘴巴、耳朵等區域等)、運動的軌跡(是否滑動出一個愛心的形狀)等等;對於晃動終端設備的操作,行為特徵可以包括晃動的方向(上下或者左右等)、晃動的加速度等等。這樣,在定義了各種觸感互動行為分別對應的操作方式之後,可以分別從各自的操作方式中提煉出能夠唯一代表該操作的特徵,並儲存這種特徵與各種的動作編碼之間的對應關係。例如,“虐一下”這種觸感操作行為對應的動作編碼為001,為其定義的操作方式所具有的行為特徵為:點擊操作,操作的位置為頭部,因此,就可以儲存以下對應關係:“001--點擊操作,操作的位置為頭部”。也就是說,如果監控到的某行為中能夠提取出“點擊操作、操作的位置為頭部”這些特徵,則可以將動作編碼確定為001,也即對應的是“虐一下”這種觸感互動行為。因此,具體實現時,在監控到發送方用戶對接收方用戶的虛擬影像執行的操作之後,為了識別具體對應何種觸感互動行為,可以首先從監控到的資訊中進行特徵提取,然後將預先儲存的行為特徵與動作代碼之間的對應關係,識別出用
戶具體執行的是哪種觸感互動行為。
當然,在實際應用中,由於發送方用戶執行的操作不夠規範等原因,可能無法針對當前的觸感互動行為匹配出對應的動作編碼,此時,可以將一個默認的動作編碼作為與該觸感互動行為相匹配的動作編碼。
需要說明的是,該步驟S102可以是由發送方用戶端來完成的,也即,在發送方本地可以儲存有行為特徵與動作代碼之間的對應關係,這樣,在監控到發送方用戶的行為之後,就可以直接進行特徵提取,並與各條對應關係進行比對,確定出相匹配的動作編碼。
S103:根據觸感互動行為資訊,確定觸感互動行為資訊對應的第一播放資訊;所述第一播放資訊為與所述虛擬影像相關並且與所述觸感互動行為資訊對應的播放資訊;在監控到發送方用戶對接收方用戶的虛擬影像執行的觸感互動行為資訊之後,對於發送方用戶端而言,可以確定出這種觸感互動行為資訊對應的第一播放資訊。具體實現時,可以直接在發送方用戶端本地,儲存具體的觸感互動行為資訊與播放資訊之間的對應關係,直接根據這種對應關係確定出第一播放資訊。或者,如果為各種觸感互動行為資訊設置了動作編碼,則可以預先將動作編碼與播放資訊之間的對應關係也儲存在發送方用戶端本地,同時,還可以儲存各種動作編碼與行為特徵之間的對應關係,這樣,在監控到觸感互動行為資訊之後,可以首先從中進行特徵提取,並根據動作編碼與行為特徵之間的對應關係,
得到具體的動作編碼;然後根據動作編碼與播放資訊之間的對應關係,確定出需要播放的第一播放資訊,之後如果需要就可以進行播放。也就是說,對於發送方用戶而言,在執行了一個觸感互動行為之後,可以在本地看到和/或聽到一個動畫和/或聲音,用以體現出發出該行為之後,對方的表情等發生的變化。例如,用戶A向用戶B執行一個“和他說話”的行為,會向該用戶A顯示一個“對方耳朵變大做聆聽狀”的動畫,就像是該用戶A真的在揪起對方用戶B的耳朵讓對方聽自己說話一樣。
當然,在實際應用中,上述各種對應關係也可以是儲存在伺服器中。也就是說,在上一段的介紹中,相當於是發送方用戶端可以自己解析觸感互動行為資訊,確定出需要播放哪個動畫和/或聲音,也可以是由伺服器進行解析。例如,伺服器端可以包括行為特徵與動作編碼之間的對應關係,這樣,發送方用戶端在監控到觸感互動行為之後,只要從中提取出行為特徵發送到伺服器端,伺服器端就可以將其轉換為具體的動作代碼,並返回給發送方用戶端,這樣,發送方用戶端只要儲存動作編碼與具體的播放資訊之間的對應關係,就可以知曉需要播放的第一播放資訊。
或者,伺服器端還可以儲存動作編碼與播放資訊值之間的對應關係,這樣,伺服器端可以首先將發送方用戶端上傳的行為特徵轉換為動作編碼,並確定出動作編碼對應的第一播放資訊,進而就可以將第一播放資訊返回給發送
方用戶端,以供發送方用戶端進行播放。
再或者,服務端也可以僅儲存動作編碼與播放資訊之間的對應關係,也就是說,發送方用戶端在監控到觸感互動行為資訊之後,可以首先從中提取出行為特徵,並根據本地儲存的行為特徵與動作編碼之間的對應關係,確定出此次監控到的觸感互動行為資訊對應的動作編碼;在確定出具體的動作編碼之後,可以直接將其發送給伺服器,伺服器根據儲存的動作編碼與待播放資訊編碼之間的對應關係,確定出需要向發送方用戶播放的第一播放資訊的編碼,並將其返回給發送方用戶的用戶端,這樣發送方用戶的用戶端直接播放該編碼對應的第一播放資訊即可。
S104:將監控到的觸感互動行為的相關資訊發送到所述接收方用戶對應的接收方用戶端,以便所述接收方用戶端根據所述觸感互動行為相關資訊,確定並播放對應的第二播放資訊;所述第二播放資訊為與接收方用戶的虛擬影像相關並且與所述觸感互動行為資訊對應的播放資訊。
在發送方用戶端確定第一播放資訊時,可將觸感互動行為的相關資訊發送到接收方用戶端,以便在接收方用戶端播放出該觸感互動行為對應的第二播放資訊。具體在向接收方用戶端發送這種相關資訊時,可以是從發送方用戶端到接收方用戶端進行點對點的發送,或者,發送方用戶端也可以首先將相關資訊發送到伺服器上,並將接收方用戶端的標識等資訊一起發送到伺服器,再由伺服器可以將這種相關資訊轉發給接收方用戶端。
具體所述觸感互動行為的相關資訊”可以有以下多種形式:
發送到接收方用戶的用戶端的相關資訊為所述動作編碼。也就是說,在發送方用戶端將監控到的觸感互動行為對應的動作編碼發送給接收方用戶端。例如,可以將相匹配的動作編碼上傳到伺服器之後,伺服器可以直接將該動作編碼轉發給接收方用戶端。接收方用戶端本地預先也從伺服器同步儲存了動作編碼與待播放資訊編碼之間的對應關係,因此,在收到動作編碼之後,可以根據預先儲存的該對應關係,獲知第二播放資訊的編碼,然後根據該編碼播放對應的第二播放資訊即可。
發送到接收方用戶用的戶端的相關資訊是所述第二播放資訊的編碼。也就是說,解析動作編碼的操作由發送方用戶端或者伺服器來完成。也就是說,在發送方用戶端對於動作編碼進行解析時,不僅可以獲取到第一播放資訊的編碼,還可以獲取到第二播放資訊的編碼,然後直接將第二播放資訊的編碼發送到接收方用戶端即可。或者,在借助伺服器中轉的情況下,也可以是由發送方用戶端將動作編碼發送到伺服器,在伺服器收到發送方用戶端上傳的動作編碼之後,可以根據儲存的動作編碼與需要在接收方用戶端播放的播放資訊編碼之間的對應關係,確定出對應的
第二播放資訊的編碼,然後將該編碼作為觸感互動行為的相關資訊發送到接收方用戶端,這樣,接收方用戶端播放該編碼對應的第二播放資訊。
需要說明的是,在具體實現時,發送方用戶除了可以執行具體的觸控、晃動等操作之外,還可以錄入聲音,也就是說,在向發送方用戶顯示對方的虛擬影像的同時,還可以同時啟動錄音功能,如果發送方用戶輸入了語音,則可以連同匹配出的動作編碼一起,將語音資訊也上傳到伺服器,伺服器也會將該語音資訊發送到接收方用戶端,或者藉由發送方與接收方用戶端之間的連接直接發送到接收方用戶端,在接收方用戶端進行播放。
另外需要說明的是,對於通訊雙方而言,同一個用戶的虛擬影像可能是不同的。也就是說,假設某次通訊過程中,用戶A是發送方用戶,用戶B是接收方用戶,則在用戶A的用戶端顯示用戶B的虛擬影像時,可能是根據用戶B提供的照片等產生並儲存的某虛擬影像,而在用戶B的用戶端顯示用戶B的虛擬影像時,則可能是另一影像。總之,用戶A與用戶B看到的用戶B的虛擬影像可以是不同的,當然,也可以是相同的,這裏不進行限定。
藉由以上所述可見,在本發明實施例中,可以向發送方用戶顯示接收方用戶的虛擬影像,這樣,發送方用戶可以在該虛擬影像上執行觸感互動行為,相應的,就可以向發送方用戶及接收方用戶播放具有行為表現力的畫面,用於類比當發送方用戶真正觸控到接收方用戶時,接收方用
戶可能會有的反應。因此,相當於實現了一種能夠“摸得到”的通訊方式,使得通訊工具對現實世界中用戶面對面溝通方式的還原度得到提高,有效地提高了用戶體驗。
為了更生動地理解本發明實施例提供的方案,下面藉由一個實際應用中的例子對本發明的具體實現方式進行介紹。參見圖4,具體可以包括以下步驟:S401:監聽發送方用戶的手勢觸控行為;具體地,可以將對方用戶虛擬影像的臉部作為一個識別區域,具體到耳朵、嘴巴、眼睛和頭髮等都可以是觸點;S402:判斷是否監聽到用戶的手勢觸控行為;如果是,進入步驟S403,否則返回到步驟S401繼續監聽;S403:為監聽到的手勢觸控行為匹配一個最接近的動作編碼(可以同時啟動錄音功能);S404:根據匹配出的動作編碼,查詢預先儲存的動作編碼與待播放資訊之間的對應關係,確定出第一播放資訊,並在發送方用戶端進行播放;S405:將匹配出的動作編碼上傳到伺服器,藉由伺服器將動作編碼轉發到接收方用戶端,也可以直接將動作編碼發送給接收方用戶端;其中,步驟S404與S405可以是同步完成的;S406:接收方用戶端接收到動作編碼之後,根據預先儲存的動作編碼與待播放資訊之間的對應關係,確定出第二待播放資訊,並在接收方用戶端進行播放(如果存在伺
服器或發送方用戶端直接發送過來的錄音文件,則可同步播放)。
例如,具體對應各種觸感互動行為,雙方的播放效果可以分別如下:虐一下:在發送方用戶端,播放用手指點擊幾下用戶的頭像的動畫,並發出聲音“看你不爽,打一下”,把該資訊藉由伺服器轉發給接收方用戶,接收方用戶端收到被打的動作編碼,根據動作編碼播放相應的被對方打時流淚的動畫和聲音。
撫摸下:在發送方用戶端,用手指撫摸對方的頭,觸發撫摸動作,對方就會播放被撫摸的動畫和/或聲音。
思念下:在發送方用戶端,用手指在對方頭像上畫一個愛心,就會觸發對對方的思念,對方收到後,聽到自己的聲音,打了兩下噴嚏,播放聲音“誰在想我了”,然後看到對方思念自己的動畫,並聽到對方的聲音。
調戲下:在發送方用戶端,在對方頭像的脖子附近畫一條線就會識別為調戲,對方就會播放被調戲時對應的動畫和/或聲音。
親一下:在發送方用戶端,把手指放在對方的嘴巴上,對方收到資訊後,嘴巴做出親對方的架勢,對方把手指也放在嘴巴上,反饋生效,觸發親後的動畫。
晃一下:在發送方,對設備輕微的晃動,讓對方感覺頭昏,對方播放被搖動的動畫。
使勁搖:在發送方,對設備使勁搖動,對方播放被搖
動的動畫,並且每撞到牆(螢幕邊緣),都會大叫“啊,啊”。
捏一下、扯一下:對方的臉可以向雙方播放相應的動畫。
和他說話:把對方耳朵一揪,耳朵變大做聆聽狀,這時可以和對方說話,發送語音資訊,對方收到資訊後,用正在說話的動畫把該語音根據播放的長度表現出來。
在以上所述的實現方式中,對於不同的發送方用戶發出的同一觸感互動行為(例如,同樣為“虐一下”),接收方用戶端播放的第二播放資訊的表現效果可能都是一樣的。例如,如果用戶A向用戶B發送一個“虐一下”的觸感互動行為,則向用戶A播放動畫1,向用戶B播放動畫2;同樣的,如果用戶C向用戶B也發送一個“虐一下”的觸感互動行為,則向用戶C播放的仍然是表現效果相同的動畫1,向用戶B播放的也同樣是表現效果相同的動畫2。但在實際應用中,可能存在以下場景:對於用戶B而言,同樣是接收到一個觸感互動行為,但如果是用戶A發出的該行為,用戶B希望能表現的更強烈一些,因為用戶B與用戶A的關係比較密切,例如用戶A是用戶B的好友等;但如果是用戶C發出的該行為,則用戶B可能就希望表現的一般就可以了,因為用戶C與用戶B之間的關係比較一般,例如同學、同事等。
為了能夠滿足這種場景下的用戶需求,在本發明實施例中,還可以具有以下功能:根據發送方用戶與接收方用
戶之間關係屬性的不同,同一觸感互動行為對應的需要向發送方用戶播放的第一播放資訊可以不同,同樣,對應的需要向接收方用戶播放的第二播放資訊也可以不同。也就是說,假設用戶A與用戶B之間的關係比較密切,用戶C與用戶B之間的關係一般,則,如果用戶A向用戶B發送一個“虐一下”的觸感互動行為,則向用戶A播放動畫1,向用戶B播放動畫2;而如果是用戶C向用戶B也發送一個“虐一下”的觸感互動行為,則向用戶C播放的可能是動畫3,向用戶B播放的可能是動畫4。相對而言,動畫1和動畫2所表現出的情感的強烈程度高於動畫3和動畫4,等等。
為了實現上述目的,伺服器在為用戶產生虛擬影像及對應的具有各種行為表現力的播放資訊時,可以針對每種行為產生多種播放資訊;同時,可以由各個用戶設置與其各個聯繫人或者好友用戶等之間的關係屬性,並儲存到伺服器。這樣,當伺服器收到一個動作編碼之後,就可以根據當前的發送方用戶與當前的接收方用戶之間的關係屬性,為發送方用戶及接收方用戶匹配出對應的第一播放資訊的編碼,以及第二播放資訊的編碼,並分別返回給發送方用戶端及接收方用戶端,向發送方及接收方播放對應的資訊。
具體實現時,發送方用戶端首先同樣可以從監控到的觸感互動行為中進行特徵提取,並根據預先儲存的行為特徵與動作編碼之間的對應關係,確定與所監控到的觸感互
動行為相匹配的動作編碼,然後同樣可以將該動作編碼、發送方用戶的標識資訊以及接收方用戶的標識資訊上傳到伺服器。伺服器在接收到這些資訊之後,可以根據預先儲存的用戶之間的關係屬性資訊,以及在特定關係屬性下的動作編碼與播放資訊編碼之間的對應關係,確定當前的動作編碼對應的第一播放資訊的編碼以及第二播放資訊的編碼,並分別返回給發送方用戶端及接收方用戶端。發送方用戶端根據伺服器返回的第一播放資訊的編碼,向發送方用戶播放第一播放資訊,接收方用戶端根據伺服器發送的第二播放資訊的編碼,向接收方用戶播放第二播放資訊。
當然,在實際應用中,同樣可以將接收方用戶設置的用戶之間的關係屬性資訊同步到發送方用戶端本地,這樣,發送方用戶端可以在其本地確定出與接收方用戶之間的關係屬性,並確定出在這種關係屬性下,當前匹配出的動作編碼對應的第一播放資訊的編碼以及第二播放資訊的編碼。然後在發送方用戶端播放第一播放資訊,並將第二播放資訊的編碼發送到接收方用戶端,在接收方用戶端播放第二播放資訊。
其中,各個用戶在設置其與各個聯繫人或者好友用戶等之間的關係屬性時,可以將其聯繫人用戶分成若干個群組,然後分別為各個群組設置對於同一觸感互動行為分別對應哪段待播放資訊。也就是說,對於同一觸感互動行為而言,各個群組對應的待播放資訊可能是不同的(無論是向發送方用戶播放的第一播放資訊還是向接收方用戶播放
的第二播放資訊,都可以不同),但同樣都具有對這種觸感互動行為的表現能力,只是表現的程度有所不同。在用戶完成上述設置之後,就可以在伺服器端進行儲存,這樣,當伺服器接收到某發送方用戶上傳的動作編碼之後,就可以首先判斷該發送方用戶是否處於接收方用戶設置的某群組中,並且接收方用戶還為該群組設置了區別於其他群組的“動作編碼與待播放資訊編碼之間的對應關係”,如果以上兩個條件均為是,則就可以根據這種特殊的對應關係,確定出當前的動作編碼對應的需要向發送方用戶播放的第一播放資訊的編碼,以及需要向接收方用戶播放的第二播放資訊的編碼,並分別將兩者發送到發送方用戶的用戶端以及接收方用戶端。
需要說明的是,在傳統的通訊工具中,為了便於用戶查找其聯繫人或者好友用戶,也可能為用戶提供對聯繫人進行分組的功能,例如,某用戶的通訊錄中包括“同學”、“朋友”、“親人”等群組。在本發明實施例中,可以直接在這些群組的基礎上分別設置各自特定的“動作編碼與待播放資訊編碼之間的對應關係”,或者與可以重新定義群組,並設置各個聯繫人所屬的群組。也就是說,“同學”、“朋友”、“親人”更多的是從身份上來描述與當前用戶的關係,但並不直接表現與當前用戶的親密程度。例如,“同學”中可能存在部分用戶是與當前用戶非常親密的,同時可能還存在一些一般親密的,同樣,“朋友”中也可能存在部分用戶是與當前用戶非常親密的,同時還存在一些一般
親密的。因此,在根據關係的親密程度對其聯繫人或好友用戶進行群組的劃分時,可以不必與當前通訊錄中按照身份劃分的群組相同。
除了將各個聯繫人或者好友用戶按照關係的親密程度等劃分為多個群組,並分別為各個群組設置在特定關係屬性下的“動作編碼與待播放資訊編碼之間的對應關係”之外,用戶也可以分別為單獨的用戶設置在特定關係屬性下的“動作編碼與待播放資訊編碼之間的對應關係”。也就是說,如果一個用戶只需要對聯繫人中的少數幾個用戶設置特殊的“動作編碼與待播放資訊編碼之間的對應關係”,則可以分別為這個幾個用戶進行設置,而不必再進行群組的劃分等操作。因此,在伺服器端,只是對於這幾個用戶存在特定的對應關係,其他用戶則不存在這種特定的對應關係。在這種方式下,伺服器端在收到發送方用戶端上傳的動作編碼之後,可以判斷接收方用戶是否為該發送方用戶的該動作編碼設置了特定的待播放資訊,如果是,則根據這種特定的設置,確定出需要向發送方用戶播放的第一播放資訊的編碼,以及需要向接收方用戶播放的第二播放資訊的編碼,並分別發送到發送方用戶端以及接收方用戶端,進而向發送方用戶播放第一播放資訊,向接收方用戶播放第二播放資訊。當然,如果發現接收方用戶並未針對當前發送方用戶設置特定的對應關係,則可以將當前動作編碼對應的默認的第一播放資訊的編碼及第二播放資訊的編碼,分別發送到發送方用戶端以及接收方用戶端。
在實際應用中,與可以將上述兩種方式相結合,例如,在收到一個發送方用戶上傳的動作編碼之後,可以首先判斷接收方用戶是否為該發送方用戶設置了特定的對應關係,如果是,則直接根據該特定的對應關係,確定出該動作編碼對應的第一播放資訊的編碼以及第二播放資訊的編碼;否則,如果接收方用戶沒有為該發送方用戶設置了特定的對應關係,則判斷該發送方用戶是否屬於接收方用戶設置的某群組,並且為該群組設置了特定的對應關係,如果是,則將根據該群組對應的特定的對應關係,確定出該動作編碼對應的第一播放資訊的編碼以及第二播放資訊的編碼;否則,如果該發送方用戶也不屬於接收方用戶設置的某個群組,再將當前動作編碼對應的默認的第一播放資訊的編碼及第二播放資訊的編碼,分別發送到發送方用戶端以及接收方用戶端。
為了更好的理解上述實現方式,下面藉由一個實際應用中的例子進行介紹。參見圖5,可以包括以下步驟:S501:監聽用戶A對用戶B執行的手勢觸控行為;可以將用戶B虛擬影像的臉部作為一個識別區域,具體到耳朵、嘴巴、眼睛和頭髮等都可以是觸點;S502:判斷是否監聽到用戶A對用戶B執行的手勢觸控行為;如果是,進入步驟S503,否則返回到步驟S501繼續監聽;S503:為監聽到的手勢觸控行為匹配一個最接近的動作編碼;
S504:將匹配出的動作編碼上傳到伺服器,在伺服器端判斷用戶B是否為用戶A預設了該動作編碼對應的待播放資訊的編碼;如果是,進入步驟S509,否則,進入步驟S505;S505:在伺服器端判斷用戶B是否為某個群組預設了該動作編碼對應的待播放資訊的編碼;如果是,進入步驟S506,否則,進入步驟S507;S506:判斷用戶A是否屬於該群組,如果是,進入步驟S509,否則,進入步驟S507;S507:伺服器端將該動作編碼對應的默認的待播放資訊的編碼發送到用戶A用戶端以及用戶B用戶端;S508:用戶A用戶端以及用戶B用戶端分別向用戶A及用戶B播放默認的待播放資訊的編碼對應的待播放資訊;S509:伺服器端將該動作編碼對應的特定的待播放資訊的編碼發送到用戶A用戶端以及用戶B用戶端;S510:用戶A用戶端以及用戶B用戶端分別向用戶A及用戶B播放特定的待播放資訊的編碼對應的待播放資訊。
總之,藉由上述實現方式,可以實現分角色的行為反饋,例如,假設A對B執行了“調戲”行為,這時A有幾種角色:如果A和B是情侶關係,“調戲”行為對應的待播放資訊可以表現得曖昧一點。
如果A和B是非常好的朋友/閨蜜,調戲行為對應的待播放資訊可以放的開一點,例如,“小樣,敢調戲我,調戲回來”。
如果A是B討厭的人,則可以表現得冷淡一點,例如,“去,別煩我”。
與不區分角色的表現相比,這種實現方式可以使得用戶影像更加智慧,更具人性化,幫助代表的主體更生動、更準確地表達情感。對於不同的行為發出方而言,也不是單一的某個行為,還能體現出與行為接受方之間的關係密切程度,使雙方的溝通更加接近現實世界中進行的面對面溝通。
以上實施例一是從發送方用戶端的角度對本發明實施例進行了詳細的介紹,下面從伺服器的角度進行介紹。參見圖6,對於伺服器而言,本發明實施例二提供了一種通訊過程中伺服器端的資訊互動方法,該方法可以包括以下步驟:S601:獲取發送方用戶端發送的觸感互動行為的相關資訊以及接收方用戶的標識資訊;S602:根據所述觸感互動行為的相關資訊確定需要向接收方用戶端發送的資訊;S603:根據所述接收方用戶的標識資訊將所述需要向接收方用戶端發送的資訊,發送到所述接收方用戶端,以
便所述接收方用戶端根據接收到的資訊確定第二播放資訊;其中,所述第二播放資訊為與接收方用戶的虛擬影像相關並且與所述觸感互動行為資訊對應的播放資訊。
具體實現時,伺服器端可以對從發送方用戶端處接收到的觸感互動行為的相關資訊進行一些分析處理後,確定出需要向接收方用戶端發送的資訊,或者,也可以直接將觸感互動行為的相關資訊,確定為需要向接收方用戶端發送的資訊,進而可以根據接收方用戶的標識資訊,將觸感互動行為的相關資訊發送到接收方用戶端,以便接收方用戶端根據所述觸感互動行為的相關資訊確定並播放第二播放資訊。
如果需要進行分析處理,則伺服器端可以根據觸感互動行為的相關資訊,確定需要在接收方用戶端播放的第二播放資訊;然後將第二播放資訊的編碼確定為需要向接收方用戶端發送的資訊。
具體的,在其中一種實現方式下,發送方用戶端發送的觸感互動行為的相關資訊可以是從所述觸感互動行為中提取出的行為特徵資訊,這樣,具體在根據觸感互動行為的相關資訊,確定需要在接收方用戶端播放的第二播放資訊時,就可以根據預先儲存的行為特徵資訊與第二播放資訊之間的對應關係,確定需要在接收方用戶端播放的第二播放資訊。
或者,在另一種實現方式下,發送方用戶端發送的觸感互動行為的相關資訊也可以是與所述觸感互動行為相匹
配的動作編碼,這樣,伺服器端具體在根據觸感互動行為的相關資訊,確定需要在接收方用戶端播放的第二播放資訊時,就可以根據預先儲存的特徵編碼與第二播放資訊之間的對應關係,確定需要在接收方用戶端播放的第二播放資訊。
另外,具體實現時,針對發送方用戶與接收方用戶之間的關係的不同,針對同一觸感互動行為,可以播放不同的聲音和/或動畫。為此,伺服器端還可以預先儲存發送方用戶與接收方用戶之間的關係屬性資訊,發送方用戶端在上傳觸感互動行為的相關資訊的同時,還需要將發送方用戶的標識資訊發送到伺服器端。這樣,伺服器端可以獲取到發送方用戶的標識資訊,並根據預先儲存的發送方用戶與接收方用戶之間的關係屬性資訊,確定當前發送方用戶與接收方用戶之間的關係屬性資訊;這樣,具體在根據觸感互動行為的相關資訊,確定需要在接收方用戶端播放的第二播放資訊時,可以根據觸感互動行為的相關資訊以及當前發送方用戶與接收方用戶之間的關係屬性資訊,確定需要在接收方用戶端播放的第二播放資訊。
當然在實際應用中,伺服器端除了可以協助接收方用戶端確定第二播放資訊之外,還可以協助發送方用戶端確定出第一播放資訊。此時,伺服器端還可以獲取發送方用戶端發送的發送方用戶的標識資訊;然後根據發送方用戶端上傳的觸感互動行為的相關資訊,確定需要在發送方用戶端播放的第一播放資訊,並根據發送方用戶的標識資訊
將所述第一播放資訊的編碼返回給發送方用戶端。
其中,發送方用戶端發送的觸感互動行為的相關資訊可以是從觸感互動行為中提取出的特徵資訊,這樣伺服器端可以根據預先儲存的特徵資訊與第一播放資訊之間的對應關係,確定需要在發送方用戶端播放的第一播放資訊。
或者,發送方用戶端發送的觸感互動行為的相關資訊也可以是與所述觸感互動行為相匹配的動作編碼,此時,伺服器端可以根據預先儲存的特徵編碼與第一播放資訊之間的對應關係,確定需要在發送方用戶端播放的第一播放資訊。
此外,伺服器端還可以根據預先儲存的發送方用戶與接收方用戶之間的關係屬性資訊,確定當前發送方用戶與接收方用戶之間的關係屬性資訊;然後,可以根據觸感互動行為的相關資訊以及當前發送方用戶與接收方用戶之間的關係屬性資訊,確定需要在發送方用戶端播放的第一播放資訊。
以下實施例三從接收方用戶端的角度出發,再對本發明實施例的方案進行介紹。參見圖7,提供了一種通訊過程中接收方用戶端的資訊互動方法,具體的,該方法可以包括以下步驟:S701:接收觸感互動行為的相關資訊;所述觸感互動行為為發送方用戶藉由發送方用戶端對接收方用戶的虛擬
影像執行的行為;S702:根據所述觸感互動行為的相關資訊確定並播放對應的第二播放資訊;所述第二播放資訊為與接收方用戶的虛擬影像相關並且與所述觸感互動行為資訊對應的播放資訊。
具體實現時,觸感互動行為的相關資訊可以是觸感互動行為的特徵資訊,此時,接收方用戶端在根據觸感互動行為的相關資訊確定並播放對應的第二播放資訊時,可以根據預先儲存的特徵資訊與播放資訊之間的對應關係,確定並播放觸感互動行為的特徵資訊對應的第二播放資訊。
或者,在另一種實現方式下,觸感互動行為的相關資訊具體也可以是觸感互動行為對應的動作編碼,此時,接收方用戶端在根據觸感互動行為的相關資訊確定並播放對應的第二播放資訊時,就可以根據預先儲存的動作編碼與播放資訊之間的對應關係,確定並播放觸感互動行為的動作編碼對應的第二播放資訊。
另外,接收方用戶端還可以接收發送方用戶的標識資訊,並根據預先儲存的發送方用戶與接收方用戶之間的關係屬性資訊,確定當前發送方用戶與接收方用戶之間的關係屬性資訊,然後再根據觸感互動行為的相關資訊以及當前發送方用戶與接收方用戶之間的關係屬性資訊,確定並播放出對應的第二播放資訊。
另外,觸感互動行為的相關資訊也可以是觸感互動行為對應的第二播放資訊的編碼,這樣,接收方用戶端不需
要做分析轉換操作,就能直接根據接收到的第二播放資訊的編碼,確定並播放所述第二播放資訊。
為了使得觸感互動行為更加逼真,接收方用戶的虛擬影像可以是根據接收方用戶上傳的真實頭像照片產生的,同時,可以在虛擬影像的基礎上,產生具有各種行為表現力的動畫和/或聲音。
需要說明的是,上述實施例二、三與實施例一相比僅僅是描述的角度不同,各個步驟的執行主體不再是發送方用戶端而是伺服器或者接收方用戶端,因此,相關的內容請參見實施例一中的記載,這裏不再一一贅述。
與本發明實施例一提供的通訊過程中發送方用戶端的資訊互動方法相對應,本發明實施例還提供了一種通訊過程中的發送方用戶端,參見圖8,該發送方用戶端可以包括:虛擬影像確定單元801,用於確定接收方用戶以及所述接收方用戶對應的虛擬影像;監控單元802,用於監控發送方用戶對所述虛擬影像執行的觸感互動行為資訊;第一播放資訊確定單元803,用於根據觸感互動行為資訊,確定觸感互動行為資訊對應的第一播放資訊;所述第一播放資訊為與所述虛擬影像相關並且與所述觸感互動行為資訊對應的播放資訊;資訊發送單元804,用於將監控到的觸感互動行為的相關資訊發送到所述接收方用戶對應的接收方用戶端,以
便所述接收方用戶端根據所述觸感互動行為相關資訊,確定並播放對應的第二播放資訊;所述第二播放資訊為與接收方用戶的虛擬影像相關並且與所述觸感互動行為資訊對應的播放資訊。
進一步地,第一播放資訊確定單元803可以包括:動作編碼確定子單元,用於根據觸感互動行為資訊與動作編碼之間的匹配關係,確定與所述觸感互動行為資訊相匹配的動作編碼;播放資訊確定子單元,用於根據動作編碼與播放資訊之間的對應關係,確定與所述觸感互動行為資訊相匹配的動作編碼對應的第一待播放資訊。
進一步地,還可以包括:關係屬性確定單元,用於根據預先儲存的發送方用戶與接收方用戶之間的關係屬性資訊,確定當前發送方用戶與接收方用戶之間的關係屬性資訊;此時,第一播放資訊確定單元803具體可以用於:根據監控到的觸感互動行為資訊以及發送方用戶與接收方用戶之間的關係屬性資訊,確定對應的第一待播放資訊。
進一步地,可以借助伺服器對監控到的觸感互動行為資訊進行分析,此時,還可以包括:上傳單元,用於將觸感互動行為的相關資訊發送到伺服器,以便伺服器根據儲存的觸感互動行為的相關資訊與第一播放資訊之間的對應關係,確定當前觸感互動行為對
應的第一播放資訊並返回;確定單元,用於根據伺服器返回的資訊確定觸感互動行為資訊對應的第一播放資訊。
其中,上傳單元可以包括:第一上傳子單元,用於從監控到的觸感互動行為中進行特徵提取,將提取出的特徵資訊作為所述觸感互動行為的相關資訊發送到伺服器,以便伺服器根據預先儲存的特徵資訊與播放資訊之間的對應關係,確定當前的觸感互動行為對應的第一播放資訊;或者,第二上傳子單元,用於從監控到的觸感互動行為中進行特徵提取,根據特徵資訊與動作編碼之間的對應關係,確定與所提取出的特徵資訊相匹配的動作編碼,將所述相匹配的動作編碼作為所述觸感互動行為的相關資訊發送到伺服器,以便伺服器根據預先儲存動作編碼與播放資訊之間的對應關係,確定當前的觸感互動行為對應的第一播放資訊。
另外,還可以包括:標識資訊上傳單元,用於將發送方用戶的標識資訊以及接收方用戶的標識資訊發送到伺服器,以便伺服器根據預先儲存的發送方用戶與接收方用戶之間的關係屬性資訊,確定當前發送方用戶與接收方用戶之間的關係屬性資訊,並根據觸感互動行為的相關資訊以及所述關係屬性資訊確定所述第一播放資訊並返回。
在實際應用中,向接收方用戶端發送的“相關資訊”可以包括多種形式,因此,資訊發送單元804可以包括:第一發送子單元,用於從監控到的觸感互動行為中進行特徵提取,將提取出的特徵資訊作為所述觸感互動行為的相關資訊發送到所述接收方用戶端,以便所述接收方用戶端根據預先儲存的特徵資訊與第二播放資訊之間的對應關係,確定當前的觸感互動行為對應的第二播放資訊;或者,第二發送子單元,用於根據預先儲存的觸感互動行為資訊與動作編碼之間的對應關係,確定與當前監控到的觸感互動行為資訊相匹配的動作編碼,將所述相匹配的動作編碼作為所述觸感互動行為的相關資訊發送到所述接收方用戶端,以便所述接收方用戶端根據預先儲存動作編碼與第二播放資訊之間的對應關係,確定當前監控到的觸感互動行為對應的第二播放資訊;或者,第三發送子單元,用於根據預先儲存的觸感互動行為資訊與第二播放資訊之間的對應關係,確定當前監控到的觸感互動行為對應的第二播放資訊,將所述第二播放資訊的編碼作為所述觸感互動行為的相關資訊發送到所述接收方用戶端,以便所述接收方用戶端直接將接收到的資訊確定為當前監控到的觸感互動行為對應的第二播放資訊。
將發送方用戶的標識資訊發送到所述接收方用戶端,以便接收方用戶端根據預先儲存的發送方用戶與接收方用
戶之間的關係屬性資訊,確定當前發送方用戶與接收方用戶之間的關係屬性資訊,並根據所述觸感互動行為的相關資訊以及發送方用戶與接收方用戶之間的關係屬性資訊,確定當前觸感互動行為對應的第二播放資訊。
另外,資訊發送單元804具體可以用於:將觸感互動行為的相關資訊以及接收方用戶的標識資訊上傳到伺服器,以便伺服器根據所述觸感互動行為的相關資訊確定當前的觸感互動行為對應的第二播放資訊,並將第二播放資訊的編碼作為所述觸感互動行為的相關資訊發送到所述接收方用戶的標識資訊對應的接收方用戶端。
具體的,資訊發送單元804可以包括:提取子單元,用於從監控到的觸感互動行為中進行特徵提取;特徵上傳子單元,用於將提取出的特徵資訊作為觸感互動行為的相關資訊上傳到伺服器,以便伺服器根據預先儲存的特徵資訊與第二播放資訊之間的對應關係,確定當前的觸感互動行為對應的第二播放資訊;或者,提取子單元,用於從監控到的觸感互動行為中進行特徵提取;動作編碼確定子單元,用於根據特徵資訊與動作編碼之間的對應關係,確定與所提取出的特徵資訊相匹配的動作編碼;動作編碼上傳子單元,用於將所述相匹配的動作編碼
作為觸感互動行為的相關資訊上傳到伺服器,以便伺服器根據預先儲存動作編碼與第二播放資訊之間的對應關係,確定當前的觸感互動行為對應的第二播放資訊。
另外,發送方用戶端還可以包括:發送方標識上傳單元,用於將發送方用戶的標識資訊上傳到伺服器,以便伺服器根據預先儲存的發送方用戶與接收方用戶之間的關係屬性資訊,確定當前發送方用戶與接收方用戶之間的關係屬性資訊,並根據儲存的觸感互動行為的相關資訊以及發送方用戶與接收方用戶之間的關係屬性資訊,確定當前觸感互動行為對應的第二播放資訊。
在實際應用中,監控單元802可以包括:手勢觸控行為監控子單元,用於藉由終端設備的觸控螢幕監控發送方用戶發出的在所述虛擬影像的指定區域進行觸控的手勢觸控行為資訊;或者,晃動行為監控子單元,用於藉由終端設備中的加速度感應裝置監控發送方用戶發出的晃動所述終端設備以改變所述虛擬影像在螢幕中的相對位置的晃動行為資訊。
此外,發送方用戶端701還可以包括:音頻資訊監控單元,用於在監控發送方用戶對所述虛擬影像執行的觸感互動行為的同時,監控發送方用戶錄入的音頻資訊;音頻資訊發送單元,用於將監控到的音頻資訊連同所述觸感互動行為相關資訊一起發送到所述接收方用戶端,
以便所述接收方用戶端在播放觸感互動行為相關對應的待播放資訊的同時,播放所述發送方用戶錄入的音頻資訊。
為了使得觸感互動行為更加逼真,接收方用戶對應的虛擬影像可以是根據接收方用戶端上傳的頭像照片以及預置的三維模型產生的三維虛擬影像。
與本發明實施例二提供的通訊過程中伺服器端的資訊互動方法相對應,本發明實施例還提供了一種通訊過程中的伺服器,參見圖9,該伺服器可以包括:相關資訊獲取單元901,用於獲取發送方用戶端發送的觸感互動行為的相關資訊,以及接收方用戶的標識資訊;資訊確定單元902,用於根據所述觸感互動行為的相關資訊確定需要向接收方用戶端發送的資訊;資訊發送單元903,用於根據所述接收方用戶的標識資訊將所述需要向接收方用戶端發送的資訊,發送到所述接收方用戶端,以便所述接收方用戶端根據接收到的資訊確定第二播放資訊;其中,所述第二播放資訊為與接收方用戶的虛擬影像相關並且與所述觸感互動行為資訊對應的播放資訊。
具體實現時,伺服器端可以對從發送方用戶端處接收到的觸感互動行為的相關資訊進行一些分析處理後,確定出需要向接收方用戶端發送的資訊,或者,也可以直接將觸感互動行為的相關資訊,確定為需要向接收方用戶端發送的資訊,此時,資訊確定單元902具體可以用於:
直接將所述觸感互動行為的相關資訊,確定為需要向接收方用戶端發送的資訊;相應的,資訊發送單元903具體可以用於:根據接收方用戶的標識資訊,將觸感互動行為的相關資訊發送到接收方用戶端,以便接收方用戶端根據所述觸感互動行為的相關資訊確定並播放第二播放資訊。
如果需要進行分析處理,則資訊確定單元902可以用於根據觸感互動行為的相關資訊,確定需要在接收方用戶端播放的第二播放資訊,將第二播放資訊的編碼確定為需要向接收方用戶端發送的資訊。
具體的,在其中一種實現方式下,發送方用戶端發送的觸感互動行為的相關資訊可以是從所述觸感互動行為中提取出的行為特徵資訊,這樣,資訊確定單元902具體可以用於根據預先儲存的行為特徵資訊與第二播放資訊之間的對應關係,確定需要在接收方用戶端播放的第二播放資訊。
或者,在另一種實現方式下,發送方用戶端發送的觸感互動行為的相關資訊也可以是與所述觸感互動行為相匹配的動作編碼,這樣,資訊確定單元902具體可以用於根據預先儲存的特徵編碼與第二播放資訊之間的對應關係,確定需要在接收方用戶端播放的第二播放資訊。
另外,具體實現時,針對發送方用戶與接收方用戶之間的關係的不同,針對同一觸感互動行為,可以播放不同的聲音和/或動畫。為此,伺服器端還可以預先儲存發送
方用戶與接收方用戶之間的關係屬性資訊,發送方用戶端在上傳觸感互動行為的相關資訊的同時,還需要將發送方用戶的標識資訊發送到伺服器端。這樣,伺服器端可以獲取到發送方用戶的標識資訊,並根據預先儲存的發送方用戶與接收方用戶之間的關係屬性資訊,確定當前發送方用戶與接收方用戶之間的關係屬性資訊;這樣,具體在根據觸感互動行為的相關資訊,確定需要在接收方用戶端播放的第二播放資訊時,可以根據觸感互動行為的相關資訊以及當前發送方用戶與接收方用戶之間的關係屬性資訊,確定需要在接收方用戶端播放的第二播放資訊。
當然在實際應用中,伺服器端除了可以協助接收方用戶端確定第二播放資訊之外,還可以協助發送方用戶端確定出第一播放資訊。此時,伺服器端還可以用於:獲取發送方用戶端發送的發送方用戶的標識資訊;然後根據發送方用戶端上傳的觸感互動行為的相關資訊,確定需要在發送方用戶端播放的第一播放資訊,並根據發送方用戶的標識資訊將所述第一播放資訊的編碼返回給發送方用戶端。
其中,發送方用戶端發送的觸感互動行為的相關資訊可以是從觸感互動行為中提取出的特徵資訊,這樣伺服器端可以根據預先儲存的特徵資訊與第一播放資訊之間的對應關係,確定需要在發送方用戶端播放的第一播放資訊。
或者,發送方用戶端發送的觸感互動行為的相關資訊也可以是與所述觸感互動行為相匹配的動作編碼,此時,
伺服器端可以根據預先儲存的特徵編碼與第一播放資訊之間的對應關係,確定需要在發送方用戶端播放的第一播放資訊。
此外,伺服器端還可以根據預先儲存的發送方用戶與接收方用戶之間的關係屬性資訊,確定當前發送方用戶與接收方用戶之間的關係屬性資訊;然後,可以根據觸感互動行為的相關資訊以及當前發送方用戶與接收方用戶之間的關係屬性資訊,確定需要在發送方用戶端播放的第一播放資訊。
與實施例三提供的通訊過程中接收方用戶端的資訊互動方法相對應,本發明實施例還提供了一種通訊過程中的接收方用戶端,參見圖10,該用戶端可以包括:資訊接收單元1001,用於接收觸感互動行為的相關資訊;所述觸感互動行為為發送方用戶藉由發送方用戶端對接收方用戶的虛擬影像執行的行為;第二播放資訊確定單元1002,用於根據所述觸感互動行為的相關資訊確定並播放對應的第二播放資訊;所述第二播放資訊為與接收方用戶的虛擬影像相關並且與所述觸感互動行為資訊對應的播放資訊。
具體實現時,觸感互動行為的相關資訊可以是觸感互動行為的特徵資訊,此時,接收方用戶端在根據觸感互動行為的相關資訊確定並播放對應的第二播放資訊時,可以根據預先儲存的特徵資訊與播放資訊之間的對應關係,確定並播放觸感互動行為的特徵資訊對應的第二播放資訊。
或者,在另一種實現方式下,觸感互動行為的相關資訊具體也可以是觸感互動行為對應的動作編碼,此時,接收方用戶端在根據觸感互動行為的相關資訊確定並播放對應的第二播放資訊時,就可以根據預先儲存的動作編碼與播放資訊之間的對應關係,確定並播放觸感互動行為的動作編碼對應的第二播放資訊。
另外,接收方用戶端還可以接收發送方用戶的標識資訊,並根據預先儲存的發送方用戶與接收方用戶之間的關係屬性資訊,確定當前發送方用戶與接收方用戶之間的關係屬性資訊,然後再根據觸感互動行為的相關資訊以及當前發送方用戶與接收方用戶之間的關係屬性資訊,確定並播放出對應的第二播放資訊。
另外,觸感互動行為的相關資訊也可以是觸感互動行為對應的第二播放資訊的編碼,這樣,接收方用戶端不需要做分析轉換操作,就能直接根據接收到的第二播放資訊的編碼,確定並播放所述第二播放資訊。
總之,藉由本發明實施例,可以確定出接收方用戶的虛擬影像,這樣,發送方用戶可以在該虛擬影像上執行觸感互動行為,相應的,發送方用戶端就可以監控到發送方用戶發出的觸感互動行為資訊,然後,可以根據這種觸感互動行為資訊確定出用於向發送方用戶播放的第一播放資訊,同時,還可以將觸感互動行為的相關資訊發送到接收方用戶端,以便接收方用戶端確定出需要向接收方用戶播放的第二播放資訊,並進行播放。這樣,可以藉由接收方
用戶的虛擬影像類比當發送方用戶真正觸控到接收方用戶時,接收方用戶可能會有的反應。因此,相當於實現了一種能夠“摸得到”的通訊方式,使得通訊工具對現實世界中用戶面對面溝通方式的還原度得到提高。
藉由以上的實施方式的描述可知,本領域的技術人員可以清楚地瞭解到本發明可借助軟體加必需的通用硬體平臺的方式來實現。基於這樣的理解,本發明的技術方案本質上或者說對現有技術做出貢獻的部分可以以軟體產品的形式體現出來,該電腦軟體產品可以儲存在儲存媒體中,如ROM/RAM、磁碟、光碟等,包括若干指令用以使得一台電腦設備(可以是個人電腦,伺服器,或者網路設備等)執行本發明各個實施例或者實施例的某些部分所述的方法。
本說明書中的各個實施例均採用遞進的方式描述,各個實施例之間相同相似的部分互相參見即可,每個實施例重點說明的都是與其他實施例的不同之處。尤其,對於系統或系統實施例而言,由於其基本相似於方法實施例,所以描述得比較簡單,相關之處參見方法實施例的部分說明即可。以上所描述的系統及系統實施例僅僅是示意性的,其中所述作為分離部件說明的單元可以是或者也可以不是物理上分開的,作為單元顯示的部件可以是或者也可以不是物理單元,即可以位於一個地方,或者也可以分佈到多個網路單元上。可以根據實際的需要選擇其中的部分或者全部模組來實現本實施例方案的目的。本領域普通技術人
員在不付出創造性勞動的情況下,即可以理解並實施。
以上對本發明所提供的通訊過程中的資訊互動方法、用戶端及伺服器,進行了詳細介紹,本文中應用了具體個例對本發明的原理及實施方式進行了闡述,以上實施例的說明只是用於幫助理解本發明的方法及其核心思想;同時,對於本領域的一般技術人員,依據本發明的思想,在具體實施方式及應用範圍上均會有改變之處。綜上所述,本說明書內容不應理解為對本發明的限制。
Claims (31)
- 一種通訊過程中發送方用戶端的資訊互動方法,其特徵在於,包括:確定接收方用戶以及該接收方用戶對應的虛擬影像;監控發送方用戶對該虛擬影像執行的觸感互動行為資訊;根據觸感互動行為資訊,確定觸感互動行為資訊對應的第一播放資訊;該第一播放資訊為與該虛擬影像相關並且與該觸感互動行為資訊對應的播放資訊;將監控到的觸感互動行為的相關資訊發送到該接收方用戶對應的接收方用戶端,以便該接收方用戶端根據該觸感互動行為相關資訊,確定並播放對應的第二播放資訊;該第二播放資訊為與接收方用戶的虛擬影像相關並且與該觸感互動行為資訊對應的播放資訊。
- 根據申請專利範圍第1項的方法,其中,根據該觸感互動行為資訊,確定觸感互動行為資訊對應的第一播放資訊,具體包括:根據觸感互動行為資訊與動作編碼之間的匹配關係,確定與該觸感互動行為資訊相匹配的動作編碼;根據動作編碼與播放資訊之間的對應關係,確定與該觸感互動行為資訊相匹配的動作編碼對應的第一待播放資訊。
- 根據申請專利範圍第1或2項的方法,其中,還包括: 根據預先儲存的發送方用戶與接收方用戶之間的關係屬性資訊,確定當前發送方用戶與接收方用戶之間的關係屬性資訊;根據該觸感互動行為資訊,確定觸感互動行為資訊對應的第一播放資訊,具體包括:根據監控到的觸感互動行為資訊以及發送方用戶與接收方用戶之間的關係屬性資訊,確定對應的第一待播放資訊。
- 根據申請專利範圍第1項的方法,其中,根據觸感互動行為資訊,確定觸感互動行為資訊對應的第一播放資訊具體包括:將觸感互動行為的相關資訊發送到伺服器,以便伺服器根據儲存的觸感互動行為的相關資訊與第一播放資訊之間的對應關係,確定當前觸感互動行為對應的第一播放資訊並返回;根據伺服器返回的資訊確定觸感互動行為資訊對應的第一播放資訊。
- 根據申請專利範圍第4項的方法,其中,該將觸感互動行為的相關資訊發送到伺服器具體包括:從監控到的觸感互動行為中進行特徵提取,將提取出的特徵資訊作為該觸感互動行為的相關資訊發送到伺服器,以便伺服器根據預先儲存的特徵資訊與播放資訊之間的對應關係,確定當前的觸感互動行為對應的第一播放資訊; 或者,從監控到的觸感互動行為中進行特徵提取,根據特徵資訊與動作編碼之間的對應關係,確定與所提取出的特徵資訊相匹配的動作編碼,將該相匹配的動作編碼作為該觸感互動行為的相關資訊發送到伺服器,以便伺服器根據預先儲存動作編碼與播放資訊之間的對應關係,確定當前的觸感互動行為對應的第一播放資訊。
- 根據申請專利範圍第4或5項的方法,其中,還包括:將發送方用戶的標識資訊以及接收方用戶的標識資訊發送到伺服器,以便伺服器根據預先儲存的發送方用戶與接收方用戶之間的關係屬性資訊,確定當前發送方用戶與接收方用戶之間的關係屬性資訊;並根據觸感互動行為的相關資訊以及該關係屬性資訊,確定該第一播放資訊並返回。
- 根據申請專利範圍第1項的方法,其中,該將監控到的觸感互動行為的相關資訊發送到該接收方用戶對應的接收方用戶端具體包括:從監控到的觸感互動行為中進行特徵提取,將提取出的特徵資訊作為該觸感互動行為的相關資訊發送到該接收方用戶端,以便該接收方用戶端根據預先儲存的特徵資訊與第二播放資訊之間的對應關係,確定當前的觸感互動行為對應的第二播放資訊;或者, 根據預先儲存的觸感互動行為資訊與動作編碼之間的對應關係,確定與當前監控到的觸感互動行為資訊相匹配的動作編碼,將該相匹配的動作編碼作為該觸感互動行為的相關資訊發送到該接收方用戶端,以便該接收方用戶端根據預先儲存動作編碼與第二播放資訊之間的對應關係,確定當前監控到的觸感互動行為對應的第二播放資訊;或者,根據預先儲存的觸感互動行為資訊與第二播放資訊之間的對應關係,確定當前監控到的觸感互動行為對應的第二播放資訊,將該第二播放資訊的編碼作為該觸感互動行為的相關資訊發送到該接收方用戶端,以便該接收方用戶端直接將接收到的資訊確定為當前監控到的觸感互動行為對應的第二播放資訊。
- 根據申請專利範圍第1或7項的方法,其中,還包括:將發送方用戶的標識資訊發送到該接收方用戶端,以便接收方用戶端根據預先儲存的發送方用戶與接收方用戶之間的關係屬性資訊,確定當前發送方用戶與接收方用戶之間的關係屬性資訊,並根據該觸感互動行為的相關資訊以及發送方用戶與接收方用戶之間的關係屬性資訊,確定當前觸感互動行為對應的第二播放資訊。
- 根據申請專利範圍第1項的方法,其中,該將監控到的觸感互動行為的相關資訊發送到該接收方用戶對應的接收方用戶端具體包括: 將觸感互動行為的相關資訊以及接收方用戶的標識資訊上傳到伺服器,以便伺服器根據該觸感互動行為的相關資訊確定當前的觸感互動行為對應的第二播放資訊,並將第二播放資訊的編碼作為該觸感互動行為的相關資訊發送到該接收方用戶的標識資訊對應的接收方用戶端。
- 根據申請專利範圍第9項的方法,其中,該將觸感互動行為的相關資訊以及接收方用戶的標識資訊上傳到伺服器具體包括:從監控到的觸感互動行為中進行特徵提取;將提取出的特徵資訊作為觸感互動行為的相關資訊上傳到伺服器,以便伺服器根據預先儲存的特徵資訊與第二播放資訊之間的對應關係,確定當前的觸感互動行為對應的第二播放資訊;或者,從監控到的觸感互動行為中進行特徵提取;根據特徵資訊與動作編碼之間的對應關係,確定與所提取出的特徵資訊相匹配的動作編碼;將該相匹配的動作編碼作為觸感互動行為的相關資訊上傳到伺服器,以便伺服器根據預先儲存動作編碼與第二播放資訊之間的對應關係,確定當前的觸感互動行為對應的第二播放資訊。
- 根據申請專利範圍第9或10項的方法,其中,還包括:將發送方用戶的標識資訊上傳到伺服器,以便伺服器 根據預先儲存的發送方用戶與接收方用戶之間的關係屬性資訊,確定當前發送方用戶與接收方用戶之間的關係屬性資訊,並根據儲存的觸感互動行為的相關資訊以及發送方用戶與接收方用戶之間的關係屬性資訊,確定當前觸感互動行為對應的第二播放資訊。
- 根據申請專利範圍第1項的方法,其中,該監控發送方用戶對該虛擬影像執行的觸感互動行為資訊包括:藉由終端設備的觸控螢幕監控發送方用戶發出的在該虛擬影像的指定區域進行觸控的手勢觸控行為資訊;或者,藉由終端設備中的加速度感應裝置監控發送方用戶發出的晃動該終端設備以改變該虛擬影像在螢幕中的相對位置的晃動行為資訊。
- 根據申請專利範圍第1項的方法,其中,還包括:在監控發送方用戶對該虛擬影像執行的觸感互動行為的同時,監控發送方用戶錄入的音頻資訊;將監控到的音頻資訊連同該觸感互動行為相關資訊一起發送到該接收方用戶端,以便該接收方用戶端在播放觸感互動行為相關對應的待播放資訊的同時,播放該發送方用戶錄入的音頻資訊。
- 一種通訊過程中接收方用戶端的資訊互動方法,其特徵在於,包括:接收觸感互動行為的相關資訊,該觸感互動行為為發 送方用戶藉由發送方用戶端對接收方用戶的虛擬影像執行的行為;根據該觸感互動行為的相關資訊確定並播放對應的第二播放資訊,該第二播放資訊為與接收方用戶的虛擬影像相關並且與該觸感互動行為資訊對應的播放資訊。
- 根據申請專利範圍第14項的方法,其中,觸感互動行為的相關資訊具體包括該觸感互動行為的特徵資訊,該根據該觸感互動行為的相關資訊確定並播放對應的第二播放資訊具體包括:根據預先儲存的特徵資訊與播放資訊之間的對應關係,確定並播放該觸感互動行為的特徵資訊對應的第二播放資訊。
- 根據申請專利範圍第14項的方法,其中,觸感互動行為的相關資訊具體包括該觸感互動行為對應的動作編碼,該根據該觸感互動行為的相關資訊確定並播放對應的第二播放資訊具體包括:根據預先儲存的動作編碼與播放資訊之間的對應關係,確定並播放該觸感互動行為的動作編碼對應的第二播放資訊。
- 根據申請專利範圍第14至16項中任一項的方法,其中,還包括:接收發送方用戶的標識資訊;根據預先儲存的發送方用戶與接收方用戶之間的關係屬性資訊,確定當前發送方用戶與接收方用戶之間的關係 屬性資訊;該根據該觸感互動行為的相關資訊確定並播放對應的第二播放資訊包括:根據該觸感互動行為的相關資訊以及當前發送方用戶與接收方用戶之間的關係屬性資訊,確定並播放對應的第二播放資訊。
- 根據申請專利範圍第14項的方法,其中,觸感互動行為的相關資訊具體包括該觸感互動行為對應的第二播放資訊的編碼,該根據該觸感互動行為的相關資訊確定並播放對應的第二播放資訊具體包括:根據接收到的第二播放資訊的編碼,確定並播放該第二播放資訊。
- 一種通訊過程中伺服器端的資訊互動方法,其特徵在於,包括:獲取發送方用戶端發送的觸感互動行為的相關資訊以及接收方用戶的標識資訊;根據該觸感互動行為的相關資訊,確定需要向接收方用戶端發送的資訊;根據該接收方用戶的標識資訊,將該需要向接收方用戶端發送的資訊,發送到該接收方用戶端,以便該接收方用戶端根據接收到的資訊確定第二播放資訊;其中,該第二播放資訊為與接收方用戶的虛擬影像相關並且與該觸感互動行為資訊對應的播放資訊。
- 根據申請專利範圍第19項的方法,其中,該根 據該觸感互動行為的相關資訊確定需要向接收方用戶端發送的資訊具體包括:直接將該觸感互動行為的相關資訊,確定為需要向接收方用戶端發送的資訊;該根據該接收方用戶的標識資訊將該需要向接收方用戶端發送的資訊,發送到該接收方用戶端具體包括:根據該接收方用戶的標識資訊,將該觸感互動行為的相關資訊發送到該接收方用戶端,以便該接收方用戶端根據該觸感互動行為的相關資訊確定並播放該第二播放資訊。
- 根據申請專利範圍第19項的方法,其中,該根據該觸感互動行為的相關資訊確定需要向接收方用戶端發送的資訊具體包括:根據該觸感互動行為的相關資訊,確定需要在接收方用戶端播放的第二播放資訊;將該第二播放資訊的編碼確定為需要向接收方用戶端發送的資訊。
- 根據申請專利範圍第21項的方法,其中,該發送方用戶端發送的觸感互動行為的相關資訊包括從該觸感互動行為中提取出的特徵資訊,該根據該觸感互動行為的相關資訊,確定需要在接收方用戶端播放的第二播放資訊具體包括:根據預先儲存的特徵資訊與第二播放資訊之間的對應關係,確定需要在接收方用戶端播放的第二播放資訊。
- 根據申請專利範圍第21項的方法,其中,該發送方用戶端發送的觸感互動行為的相關資訊包括與該觸感互動行為相匹配的動作編碼,該根據該觸感互動行為的相關資訊,確定需要在接收方用戶端播放的第二播放資訊具體包括:根據預先儲存的特徵編碼與第二播放資訊之間的對應關係,確定需要在接收方用戶端播放的第二播放資訊。
- 根據申請專利範圍第21至23項中任一項的方法,其中,還包括:獲取發送方用戶端發送的發送方用戶的標識資訊;根據預先儲存的發送方用戶與接收方用戶之間的關係屬性資訊,確定當前發送方用戶與接收方用戶之間的關係屬性資訊;該根據該觸感互動行為的相關資訊,確定需要在接收方用戶端播放的第二播放資訊包括:根據該觸感互動行為的相關資訊以及當前發送方用戶與接收方用戶之間的關係屬性資訊,確定需要在接收方用戶端播放的第二播放資訊。
- 根據申請專利範圍第19項的方法,其中,還包括:獲取發送方用戶端發送的發送方用戶的標識資訊;根據該觸感互動行為的相關資訊,確定需要在發送方用戶端播放的第一播放資訊;根據該發送方用戶的標識資訊將該第一播放資訊的編 碼返回給該發送方用戶端。
- 根據申請專利範圍第25項的方法,其中,該發送方用戶端發送的觸感互動行為的相關資訊包括從該觸感互動行為中提取出的特徵資訊,該根據該觸感互動行為的相關資訊,確定需要在發送方用戶端播放的第一播放資訊具體包括:根據預先儲存的特徵資訊與第一播放資訊之間的對應關係,確定需要在發送方用戶端播放的第一播放資訊。
- 根據申請專利範圍第25項的方法,其中,該發送方用戶端發送的觸感互動行為的相關資訊包括與該觸感互動行為相匹配的動作編碼,該根據該觸感互動行為的相關資訊,確定需要在發送方用戶端播放的第一播放資訊具體包括:根據預先儲存的特徵編碼與第一播放資訊之間的對應關係,確定需要在發送方用戶端播放的第一播放資訊。
- 根據申請專利範圍第25至27項中任一項的方法,其中,還包括:根據預先儲存的發送方用戶與接收方用戶之間的關係屬性資訊,確定當前發送方用戶與接收方用戶之間的關係屬性資訊;該根據該觸感互動行為的相關資訊,確定需要在發送方用戶端播放的第一播放資訊包括:根據該觸感互動行為的相關資訊以及當前發送方用戶與接收方用戶之間的關係屬性資訊,確定需要在發送方用 戶端播放的第一播放資訊。
- 一種通訊過程中的發送方用戶端,其特徵在於,包括:虛擬影像確定單元,用於確定接收方用戶以及該接收方用戶對應的虛擬影像;監控單元,用於監控發送方用戶對該虛擬影像執行的觸感互動行為資訊;第一播放資訊確定單元,用於根據觸感互動行為資訊,確定觸感互動行為資訊對應的第一播放資訊;該第一播放資訊為與該虛擬影像相關並且與該觸感互動行為資訊對應的播放資訊;資訊發送單元,用於將監控到的觸感互動行為的相關資訊發送到該接收方用戶對應的接收方用戶端,以便該接收方用戶端根據該觸感互動行為相關資訊,確定並播放對應的第二播放資訊;該第二播放資訊為與接收方用戶的虛擬影像相關並且與該觸感互動行為資訊對應的播放資訊。
- 一種通訊過程中的接收方用戶端,其特徵在於,包括:資訊接收單元,用於接收觸感互動行為的相關資訊;該觸感互動行為為發送方用戶藉由發送方用戶端對接收方用戶的虛擬影像執行的行為;第二播放資訊確定單元,用於根據該觸感互動行為的相關資訊確定並播放對應的第二播放資訊;該第二播放資訊為與接收方用戶的虛擬影像相關並且與該觸感互動行為 資訊對應的播放資訊。
- 一種通訊過程中的伺服器,其特徵在於,包括:相關資訊獲取單元,用於獲取發送方用戶端發送的觸感互動行為的相關資訊,以及接收方用戶的標識資訊;資訊確定單元,用於根據該觸感互動行為的相關資訊確定需要向接收方用戶端發送的資訊;資訊發送單元,用於根據該接收方用戶的標識資訊將該需要向接收方用戶端發送的資訊,發送到該接收方用戶端,以便該接收方用戶端根據接收到的資訊確定第二播放資訊;其中,該第二播放資訊為與接收方用戶的虛擬影像相關並且與該觸感互動行為資訊對應的播放資訊。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310192855.4A CN104184760B (zh) | 2013-05-22 | 2013-05-22 | 通讯过程中的信息交互方法、客户端及服务器 |
Publications (1)
Publication Number | Publication Date |
---|---|
TW201445414A true TW201445414A (zh) | 2014-12-01 |
Family
ID=50977131
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW102135518A TW201445414A (zh) | 2013-05-22 | 2013-10-01 | 通訊過程中的資訊互動方法、用戶端及伺服器 |
Country Status (8)
Country | Link |
---|---|
US (1) | US20140351720A1 (zh) |
EP (1) | EP3000010A4 (zh) |
JP (1) | JP6616288B2 (zh) |
KR (1) | KR102173479B1 (zh) |
CN (1) | CN104184760B (zh) |
HK (1) | HK1202727A1 (zh) |
TW (1) | TW201445414A (zh) |
WO (1) | WO2014190178A2 (zh) |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI439960B (zh) | 2010-04-07 | 2014-06-01 | Apple Inc | 虛擬使用者編輯環境 |
CN104780093B (zh) * | 2014-01-15 | 2018-05-01 | 阿里巴巴集团控股有限公司 | 即时通讯过程中的表情信息处理方法及装置 |
CN104731448A (zh) * | 2015-01-15 | 2015-06-24 | 杜新颜 | 一种基于人像识别的即时通信触控反馈方法和系统 |
CN104618223B (zh) * | 2015-01-20 | 2017-09-26 | 腾讯科技(深圳)有限公司 | 一种信息推荐的管理方法、装置和系统 |
KR101620050B1 (ko) * | 2015-03-03 | 2016-05-12 | 주식회사 카카오 | 인스턴트 메시지 서비스를 통한 시나리오 이모티콘 표시 방법 및 이를 위한 사용자 단말 |
US11797172B2 (en) * | 2015-03-06 | 2023-10-24 | Alibaba Group Holding Limited | Method and apparatus for interacting with content through overlays |
CN104901873A (zh) * | 2015-06-29 | 2015-09-09 | 曾劲柏 | 一种基于场景和动作的网络社交系统 |
CN105516638B (zh) * | 2015-12-07 | 2018-10-16 | 掌赢信息科技(上海)有限公司 | 一种视频通话方法、装置和系统 |
CN105763420B (zh) * | 2016-02-04 | 2019-02-05 | 厦门幻世网络科技有限公司 | 一种自动回复信息的方法及装置 |
AU2017100670C4 (en) | 2016-06-12 | 2019-11-21 | Apple Inc. | User interfaces for retrieving contextually relevant media content |
DK201670608A1 (en) | 2016-06-12 | 2018-01-02 | Apple Inc | User interfaces for retrieving contextually relevant media content |
US20170357672A1 (en) | 2016-06-12 | 2017-12-14 | Apple Inc. | Relating digital assets using notable moments |
CN117193617A (zh) * | 2016-09-23 | 2023-12-08 | 苹果公司 | 头像创建和编辑 |
CN107885317A (zh) * | 2016-09-29 | 2018-04-06 | 阿里巴巴集团控股有限公司 | 一种基于手势的交互方法及装置 |
US11616745B2 (en) * | 2017-01-09 | 2023-03-28 | Snap Inc. | Contextual generation and selection of customized media content |
CN108984087B (zh) * | 2017-06-02 | 2021-09-14 | 腾讯科技(深圳)有限公司 | 基于三维虚拟形象的社交互动方法及装置 |
DK180078B1 (en) | 2018-05-07 | 2020-03-31 | Apple Inc. | USER INTERFACE FOR AVATAR CREATION |
US11722764B2 (en) | 2018-05-07 | 2023-08-08 | Apple Inc. | Creative camera |
US11243996B2 (en) | 2018-05-07 | 2022-02-08 | Apple Inc. | Digital asset search user interface |
US10375313B1 (en) | 2018-05-07 | 2019-08-06 | Apple Inc. | Creative camera |
US11086935B2 (en) | 2018-05-07 | 2021-08-10 | Apple Inc. | Smart updates from historical database changes |
US10846343B2 (en) | 2018-09-11 | 2020-11-24 | Apple Inc. | Techniques for disambiguating clustered location identifiers |
US10803135B2 (en) | 2018-09-11 | 2020-10-13 | Apple Inc. | Techniques for disambiguating clustered occurrence identifiers |
US11107261B2 (en) | 2019-01-18 | 2021-08-31 | Apple Inc. | Virtual avatar animation based on facial feature movement |
JP6644928B1 (ja) * | 2019-03-29 | 2020-02-12 | 株式会社ドワンゴ | 配信サーバ、視聴者端末、配信者端末、配信方法、情報処理方法及びプログラム |
CN110324156B (zh) * | 2019-07-24 | 2022-08-26 | 广州趣丸网络科技有限公司 | 虚拟房间信息交流方法、装置、设备及系统 |
KR102329027B1 (ko) * | 2019-09-02 | 2021-11-19 | 주식회사 인터포 | 증강현실 및 빅데이터를 이용한 가상객체 관리 방법 및 그를 수행하는 모바일 단말 |
DK202070624A1 (en) | 2020-05-11 | 2022-01-04 | Apple Inc | User interfaces related to time |
US11921998B2 (en) | 2020-05-11 | 2024-03-05 | Apple Inc. | Editing features of an avatar |
CN113709020B (zh) * | 2020-05-20 | 2024-02-06 | 腾讯科技(深圳)有限公司 | 消息发送方法、消息接收方法、装置、设备及介质 |
US11714536B2 (en) | 2021-05-21 | 2023-08-01 | Apple Inc. | Avatar sticker editor user interfaces |
US11776190B2 (en) | 2021-06-04 | 2023-10-03 | Apple Inc. | Techniques for managing an avatar on a lock screen |
KR102528548B1 (ko) * | 2021-10-26 | 2023-05-04 | 주식회사 쓰리디팩토리 | 대규모 트래픽 처리 메타버스 서버 및 그를 위한 프로그램 |
US20230136578A1 (en) * | 2021-11-04 | 2023-05-04 | Roderick Jeter | Interactive reationship game |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001236290A (ja) * | 2000-02-22 | 2001-08-31 | Toshinao Komuro | アバタを利用したコミュニケーション・システム |
JP2002109560A (ja) * | 2000-10-02 | 2002-04-12 | Sharp Corp | アニメーション再生装置、アニメーション再生システム、アニメーション再生方法、アニメーション再生方法を実行するプログラムを記録したコンピュータ読み取り可能な記録媒体 |
US20020198009A1 (en) * | 2001-06-26 | 2002-12-26 | Asko Komsi | Entity reply mechanism |
US20070113181A1 (en) * | 2003-03-03 | 2007-05-17 | Blattner Patrick D | Using avatars to communicate real-time information |
US20070168863A1 (en) * | 2003-03-03 | 2007-07-19 | Aol Llc | Interacting avatars in an instant messaging communication session |
US20050163379A1 (en) * | 2004-01-28 | 2005-07-28 | Logitech Europe S.A. | Use of multimedia data for emoticons in instant messaging |
JP2007520005A (ja) * | 2004-01-30 | 2007-07-19 | コンボッツ プロダクト ゲーエムベーハー ウント ツェーオー.カーゲー | 仮想代理を用いた電気通信の方法及びシステム |
JP4268539B2 (ja) * | 2004-02-27 | 2009-05-27 | 株式会社野村総合研究所 | アバター制御システム |
CN100417143C (zh) * | 2004-12-08 | 2008-09-03 | 腾讯科技(深圳)有限公司 | 基于即时通信平台的个人虚拟形象互动娱乐系统及方法 |
GB2423905A (en) * | 2005-03-03 | 2006-09-06 | Sean Smith | Animated messaging |
JP2006352309A (ja) * | 2005-06-14 | 2006-12-28 | Mitsubishi Electric Corp | 電話機 |
US7836088B2 (en) * | 2006-10-26 | 2010-11-16 | Microsoft Corporation | Relationship-based processing |
US20080233996A1 (en) * | 2007-03-19 | 2008-09-25 | Gemini Mobile Technologies, Inc. | Method and apparatus for motion-based communication |
US9665563B2 (en) * | 2009-05-28 | 2017-05-30 | Samsung Electronics Co., Ltd. | Animation system and methods for generating animation based on text-based data and user information |
JP2011147070A (ja) * | 2010-01-18 | 2011-07-28 | Panasonic Corp | 通信装置および通信サーバ |
US20120327091A1 (en) * | 2010-03-08 | 2012-12-27 | Nokia Corporation | Gestural Messages in Social Phonebook |
US8588825B2 (en) * | 2010-05-25 | 2013-11-19 | Sony Corporation | Text enhancement |
CN101931621A (zh) * | 2010-06-07 | 2010-12-29 | 上海那里网络科技有限公司 | 一种借助虚拟形象进行情感交流的装置和方法 |
US20120069028A1 (en) * | 2010-09-20 | 2012-03-22 | Yahoo! Inc. | Real-time animations of emoticons using facial recognition during a video chat |
US20120162350A1 (en) * | 2010-12-17 | 2012-06-28 | Voxer Ip Llc | Audiocons |
KR101403226B1 (ko) * | 2011-03-21 | 2014-06-02 | 김주연 | 발신자 또는 수신자의 선택에 의한 캐릭터, 음성 기반의 메시지 전송시스템 및 전송방법 |
US8989786B2 (en) * | 2011-04-21 | 2015-03-24 | Walking Thumbs, Llc | System and method for graphical expression during text messaging communications |
US9990770B2 (en) * | 2011-12-20 | 2018-06-05 | Intel Corporation | User-to-user communication enhancement with augmented reality |
WO2013152453A1 (en) * | 2012-04-09 | 2013-10-17 | Intel Corporation | Communication using interactive avatars |
US9154456B2 (en) * | 2012-04-17 | 2015-10-06 | Trenda Innovations, Inc. | Messaging system and method |
CN102707835B (zh) * | 2012-04-26 | 2015-10-28 | 赵黎 | 一种手持终端、交互系统及其交互方法 |
JP5844298B2 (ja) * | 2012-06-25 | 2016-01-13 | 株式会社コナミデジタルエンタテインメント | メッセージ閲覧システム、サーバ、端末装置、制御方法およびプログラム |
US9911222B2 (en) * | 2012-07-06 | 2018-03-06 | Tangome, Inc. | Animation in threaded conversations |
US10410180B2 (en) * | 2012-11-19 | 2019-09-10 | Oath Inc. | System and method for touch-based communications |
US9472013B2 (en) * | 2013-04-01 | 2016-10-18 | Ebay Inc. | Techniques for displaying an animated calling card |
-
2013
- 2013-05-22 CN CN201310192855.4A patent/CN104184760B/zh active Active
- 2013-10-01 TW TW102135518A patent/TW201445414A/zh unknown
-
2014
- 2014-05-22 US US14/285,150 patent/US20140351720A1/en not_active Abandoned
- 2014-05-22 WO PCT/US2014/039189 patent/WO2014190178A2/en active Application Filing
- 2014-05-22 JP JP2016515093A patent/JP6616288B2/ja active Active
- 2014-05-22 KR KR1020157032518A patent/KR102173479B1/ko active IP Right Grant
- 2014-05-22 EP EP14731498.3A patent/EP3000010A4/en not_active Withdrawn
-
2015
- 2015-03-27 HK HK15103131.7A patent/HK1202727A1/zh unknown
Also Published As
Publication number | Publication date |
---|---|
KR20160010449A (ko) | 2016-01-27 |
KR102173479B1 (ko) | 2020-11-04 |
WO2014190178A3 (en) | 2015-02-26 |
JP2016521929A (ja) | 2016-07-25 |
EP3000010A4 (en) | 2017-01-25 |
HK1202727A1 (zh) | 2015-10-02 |
CN104184760B (zh) | 2018-08-07 |
WO2014190178A2 (en) | 2014-11-27 |
CN104184760A (zh) | 2014-12-03 |
EP3000010A2 (en) | 2016-03-30 |
US20140351720A1 (en) | 2014-11-27 |
JP6616288B2 (ja) | 2019-12-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TW201445414A (zh) | 通訊過程中的資訊互動方法、用戶端及伺服器 | |
EP3095091B1 (en) | Method and apparatus of processing expression information in instant communication | |
US20190004639A1 (en) | Providing living avatars within virtual meetings | |
EP2709357B1 (en) | Conference recording method and conference system | |
CN107294837A (zh) | 采用虚拟机器人进行对话交互的方法和系统 | |
CN113508369A (zh) | 交流支持系统、交流支持方法、交流支持程序以及图像控制程序 | |
US9531841B2 (en) | Communications method, client, and terminal | |
CN103858423A (zh) | 通信系统 | |
JP2007520005A (ja) | 仮想代理を用いた電気通信の方法及びシステム | |
CN115396390B (zh) | 基于视频聊天的互动方法、系统、装置及电子设备 | |
KR20130094058A (ko) | 커뮤니케이션 시스템, 장치 및 기록 매체 | |
JP2024507092A (ja) | 画像処理方法、装置、及びコンピュータコンピュータプログラム | |
WO2022041178A1 (zh) | 基于脑电波的信息处理方法、设备及即时通信客户端 | |
KR20070018843A (ko) | 가상 상징물들을 이용한 전기통신 방법 및 시스템 | |
KR100799160B1 (ko) | 메신저와 로봇 연동 방법 및 장치 | |
US20240013488A1 (en) | Groups and Social In Artificial Reality | |
US20230328012A1 (en) | Virtual-figure-based data processing method and apparatus, computer device, and storage medium | |
CN110753233B (zh) | 信息交互的播放方法、装置、电子设备及存储介质 | |
Chang | Innovation of a smartphone app design as used in face-to-face communication for the deaf/hard of hearing | |
KR20180035777A (ko) | 캐릭터를 이용한 메시지 제공 시스템 | |
Hansson et al. | Lava AI-Design of an Interactive Online Device | |
TWM532130U (zh) | 傳送排程人形玩偶圖像和信息的傳送端裝置、伺服器和系統 |