TW202008143A - 人機互動方法和裝置 - Google Patents

人機互動方法和裝置 Download PDF

Info

Publication number
TW202008143A
TW202008143A TW108119296A TW108119296A TW202008143A TW 202008143 A TW202008143 A TW 202008143A TW 108119296 A TW108119296 A TW 108119296A TW 108119296 A TW108119296 A TW 108119296A TW 202008143 A TW202008143 A TW 202008143A
Authority
TW
Taiwan
Prior art keywords
image
action instruction
action
sender
terminal device
Prior art date
Application number
TW108119296A
Other languages
English (en)
Other versions
TWI782211B (zh
Inventor
榮濤
Original Assignee
香港商阿里巴巴集團服務有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 香港商阿里巴巴集團服務有限公司 filed Critical 香港商阿里巴巴集團服務有限公司
Publication of TW202008143A publication Critical patent/TW202008143A/zh
Application granted granted Critical
Publication of TWI782211B publication Critical patent/TWI782211B/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
  • Electrotherapy Devices (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

本說明書實施例公開了一種人機互動方法和裝置,上述方法包括:獲取用於指示終端設備執行動作的影像;基於所述影像的影像特徵確定匹配的動作指令;回應於所述動作指令,執行與所述動作指令相匹配的操作。本說明書實施例還公開了另外一種人機互動方法和裝置。

Description

人機互動方法和裝置
本說明書涉及電腦技術領域,尤其涉及一種人機互動方法和裝置。
擴增實境(Augmented reality,AR)技術是透過電腦系統提供的資訊增加使用者對現實世界感知,其將虛擬的資訊應用到真實世界,並將電腦產生的虛擬物體、場景或系統提示資訊疊加到真實場景中,從而實現對現實的增強,達到超越現實的感官體驗。 虛擬實境(Virtual Reality,VR)透過模擬計算產生出一個與現實場景相同或相似的三維虛擬世界,使用者可以在這個虛擬實境世界中進行遊戲、活動或執行某些特定的操作,整個過程如同在真實世界中進行一般,給使用者提供了視覺、聽覺、觸覺等全方位的模擬體驗。 混合現實(Mix reality,MR)技術包括擴增實境和增強虛擬,指的是合併現實和虛擬世界而產生的新的視覺化環境。在新的視覺化環境中,物理和虛擬對象(也即數位對象)共存,並即時互動。 目前,AR、VR和MR技術還處於開發階段,與上述技術相關的人機互動技術尚不成熟,因此有必要提供一種人機互動方案。
本說明書實施例提供一種人機互動方法和裝置,用於實現人機互動。 本說明書實施例採用下述技術方案: 第一態樣,提供了一種人機互動方法,包括:獲取用於指示終端設備執行動作的影像;基於所述影像的影像特徵確定匹配的動作指令;回應於所述動作指令,執行與所述動作指令相匹配的操作。 第二態樣,提供了一種人機互動方法,應用在接收方,包括:接收來自於發送方的動作指令;回應於所述動作指令,顯示與所述動作指令對應的效果,所述與所述動作指令對應的效果包括下述至少一種:對終端設備的發送方頭像的處理效果和/或對終端設備的接收方頭像的處理效果;對與發送方進行通訊的資訊邊框顏色的處理效果;螢幕振動反轉;或視訊或動畫播放。 第三態樣,提供了一種人機互動裝置,包括:影像獲取模組,獲取用於指示終端設備執行動作的影像;動作指令確定模組,基於所述影像的影像特徵確定匹配的動作指令;執行模組,回應於所述動作指令,執行與所述動作指令相匹配的操作。 第四態樣,提供了一種人機互動裝置,包括:接收模組,接收來自於發送方的動作指令;效果顯示模組,回應於所述動作指令,顯示與所述動作指令對應的效果,所述與所述動作指令對應的效果包括下述至少一種:對終端設備的發送方頭像的處理效果和/或對終端設備的接收方頭像的處理效果;對與發送方進行通訊的資訊邊框顏色的處理效果;螢幕振動反轉;或視訊或動畫播放。 第五態樣,提供了一種電子設備,包括:記憶體、處理器及存儲在所述記憶體上並可在所述處理器上運行的電腦程式,所述電腦程式被所述處理器執行時實現如下操作:獲取用於指示終端設備執行動作的影像;基於所述影像的影像特徵確定匹配的動作指令;回應於所述動作指令,執行與所述動作指令相匹配的操作。 第六態樣,提供了一種電子設備,包括:記憶體、處理器及存儲在所述記憶體上並可在所述處理器上運行的電腦程式,所述電腦程式被所述處理器執行時實現如下操作:接收來自於發送方的動作指令;回應於所述動作指令,顯示與所述動作指令對應的效果,所述與所述動作指令對應的效果包括下述至少一種:對終端設備的發送方頭像的處理效果和/或對終端設備的接收方頭像的處理效果;對與發送方進行通訊的資訊邊框顏色的處理效果;螢幕振動反轉;或視訊或動畫播放。 第七態樣,提供了一種電腦可讀儲存媒體,所述電腦可讀儲存媒體上存儲有電腦程式,所述電腦程式被處理器執行時實現如下操作:獲取用於指示終端設備執行動作的影像;基於所述影像的影像特徵確定匹配的動作指令;回應於所述動作指令,執行與所述動作指令相匹配的操作。 第八態樣,提供了一種電腦可讀儲存媒體,所述電腦可讀儲存媒體上存儲有電腦程式,所述電腦程式被處理器執行時實現如下操作:接收來自於發送方的動作指令;回應於所述動作指令,顯示與所述動作指令對應的效果,所述與所述動作指令對應的效果包括下述至少一種:對終端設備的發送方頭像的處理效果和/或對終端設備的接收方頭像的處理效果;對與發送方進行通訊的資訊邊框顏色的處理效果;螢幕振動反轉;或視訊或動畫播放。 本說明書實施例採用的上述至少一個技術方案能夠達到以下有益效果:基於獲取到影像的影像特徵確定匹配的動作指令,並回應於所述動作指令執行與所述動作指令相匹配的操作,實現了基於獲取的影像的人機互動。
為使本說明書的目的、技術方案和優點更加清楚,下面將結合本說明書具體實施例及相應的附圖對本說明書技術方案進行清楚、完整地描述。顯然,所描述的實施例僅是本說明書一部分實施例,而不是全部的實施例。基於本說明書中的實施例,本領域普通技術人員在沒有做出進步性勞動前提下所獲得的所有其他實施例,都屬本說明書保護的範圍。 如圖1所示,本說明書的一個實施例提供一種人機互動方法100,包括如下步驟: S102:獲取用於指示終端設備執行動作的影像。 本說明書實施例中獲取的用於指示終端設備執行動作的影像可以是手勢影像、人臉影像、使用者全身的人體影像或者是使用者身體的局部影像等等,本說明書不作具體限行。 本說明書實施例中獲取的影像可以是單張影像,也可以是獲取的視訊流中的多幀影像。 另外,該步驟中獲取影像可以是單個使用者的影像,也可以是多個使用者的影像。 該步驟可以是從預先存儲的多個影像中獲取影像,也可以是即時獲取得到影像。如果上述影像可以是預先存儲的,這樣,步驟S102可以從存儲的多個影像中獲取一個影像,例如獲取使用者選擇的一個影像。另外,如果上述影像還是即時獲取得到,這樣,步驟S102可以基於終端設備的影像感測器等即時獲取影像。 S104:基於所述影像的影像特徵確定匹配的動作指令。 該步驟中的影像特徵和獲取到的影像相對應,具體可以是從獲取到的影像中提取的到,例如,獲取到的是手勢影像,則該處的影像特徵可以是手勢特徵;獲取到的影像是人臉影像,則該處的影像特徵可以是人臉特徵;獲取到的影像是人體影像,則該處的影像特徵可以是人體的姿勢或動作特徵等等。 該實施例執行之前,可以預先建立影像特徵和動作指令的映射關係表,這樣,步驟S104則可以直接透過查表的方式確定匹配的動作指令。 可選地,在不同的應用場景下,同一個影像特徵還可以對應與不同的動作指令,因此,該實施例執行之前,還可以在不同的場景下,分別建立影像特徵和動作指令的映射關係表,該實施例則可以是在已確定的場景下執行,例如,該實施例可以是在使用者選擇的場景下執行,又例如,該實施例還可以是在基於AR掃描獲取到的場景下執行,或者是在預設的VR環境下執行,又或者是在預設的MR環境下執行,等等。 S106:回應於所述動作指令,執行與所述動作指令相匹配的操作。 該步驟中的回應於所述動作指令,執行與所述動作指令相匹配的操作,例如,在單機人機互動的擴增實境場景下,具體可以是基於所述動作指令產生渲染指令;然後以對所述動作指令相關的目標對象進行渲染。 另外,在發送方和接收方的聊天場景下,對所述動作指令相關的目標對象進行渲染的同時,還可以向接收方發送所述動作指令,以便接收方基於上述動作指令產生渲染指令,以對所述動作指令相關的目標對象進行渲染。同時,在發送方也顯示上述擴增實境顯示的目標對象。上述提到的目標對象,具體可以是擴增實境場景、虛擬實境場景、混合現實場景等等;另外,本說明書各個實施例提到的顯示效果以及相關的顯示技術可以基於Open CV視覺庫實現。 上述提到的向接收方發送所述動作指令,具體可以是將所述動作指令發送至伺服端,再由伺服端向接收方發送所述動作指令;或者是,在不存在伺服端而直接是使用者端對使用者端的場景下,發送方可以直接將所述動作指令發送至接收方。 本說明書實施例提供的人機互動方法,基於獲取到的影像的影像特徵確定匹配的動作指令,並回應於所述動作指令執行與所述動作指令相匹配的操作,實現了基於獲取的影像的人機互動。 可選地,本說明書的各個實施例還可以應用在AR、VR以及MR等場景下。 為詳細說明本說明書實施例提供的人機互動方法,如圖2和圖3所示,本說明書的另一個實施例提供一種人機互動方法200,包括如下步驟: S202:回應於使用者對展示的預設影像的選擇操作,獲取被選擇的手勢影像、人臉影像或人體影像。 如圖3的應用介面示意圖所示,該實施例可以預先在顯示介面顯示多個手勢影像,具體見圖3中右側的文字“手勢選擇”下方的方塊,當使用者點擊選擇其中的一個手勢影像時,該步驟即可獲取到了上述手勢影像。 可選地,該實施例還可以預先展示多個人臉表情影像、人體動作姿勢影像等,當使用者選取時,該步驟即可獲取上述人臉表情影像或人體動作影像。 可選地,上述預先顯示的手勢影像可以包括左手的手勢影像;右手的手勢影像;還可以包括單手握拳或手指合攏的手勢影像;單手放開或手指伸開的手勢影像;以及中指和無名指合攏其他手指伸開的愛的手勢影像等等。 上述預先展示的人臉表情影像可以是歡笑的表情影像、悲傷的表情影像、大哭的表情影像等。 上述預先展示的人體動作姿勢影像可以是彎腰90度的人體姿勢影像、站軍姿的人體動作姿勢影像等等。 S204:在預設場景下基於選取的影像的影像特徵確定動作指令。 該實施例執行之前可以預先存儲上述影像和影像特徵的對應關係,這樣,基於使用者選擇的影像即可直接確定影像特徵,例如,使用者選取的手勢影像是單手握拳的影像,則手勢特徵可以是表示單手握拳的特徵。 該實施例執行之前,可以預先建立影像特徵和動作指令的映射關係表,這樣,步驟S204則可以直接透過查表的方式確定匹配的動作指令。 可選地,在不同的應用場景下,同一個影像特徵還可以對應與不同的動作指令,因此,該實施例執行之前,還可以在不同的場景下,分別建立影像特徵和動作指令的映射關係表,該實施例則可以是在已確定的場景下執行,例如,該實施例可以是在使用者選擇的場景下執行,又例如,該實施例還可以是在基於AR掃描獲取到的場景下執行,或者是在預設的VR場景下執行,又或者是在預設的MR場景下執行,等等,這樣,該實施例執行之前還可以預先獲取場景影像,在獲取到的場景下執行該實施例。 該步驟基於所述影像特徵確定動作指令時,可以先確定當前的應用場景,然後確定在當前應用場景下獲取到的影像特徵對應的動作指令,例如,在單機格鬥遊戲的場景下,基於單手握拳的手勢特徵可以確定出拳的動作指令。 S206:回應於所述動作指令,執行與所述動作指令相匹配的操作。 該步驟中的回應於所述動作指令,執行與所述動作指令相匹配的操作具體可以是基於所述動作指令產生渲染指令,對所述動作指令相關的目標對象進行渲染,例如,在圖3中預先顯示的手勢影像左側的方塊內展示強現實、虛擬實境或混合現實的目標對象,展示的目標對象可以是擴增實境、虛擬實境或混合現實場景影像。 該步驟中提到的回應於所述動作指令,執行與所述動作指令相匹配的操作之後,還可以向接收方發送所述動作指令,以便接收方基於上述動作指令產生渲染指令,以對所述動作指令相關的目標對象進行渲染。 上述提到的向接收方發送所述動作指令,具體可以是將所述動作指令發送至伺服端,再由伺服端向接收方發送所述動作指令;或者是,在不存在伺服端而直接是使用者端對使用者端的場景下,發送方可以直接將所述動作指令發送至接收方。 本說明書實施例提供的互動方法,基於獲取到影像的影像特徵確定匹配的動作指令,並回應於所述動作指令執行與所述動作指令相匹配的操作,實現了基於獲取的影像的人機互動。 另外,本說明書實施例預先保存有多個手勢影像、人臉影像或人體影像。從而方便使用者快速選取,提高使用者體驗。 可選地,在圖3所示的顯示介面中預先展示的手勢影像的順序,或者是其他實施例中的人臉影像或人體影像的顯示順序,可以基於使用者歷史使用頻率進行排序,例如,使用者選擇單手握拳的手勢影像的頻率最高,則將單手握拳的手勢影像排在第一位進行展示,進一步方便使用者選取,提高使用者體驗。 需要說明的是,上述實施例還可以同時應用在多個設備多個使用者互動的場景下。具體例如,透過步驟S202獲取甲、乙、丙等使用者從多個展示的手勢影像中選取的手勢影像;透過步驟S204和步驟S206,在預設的甲、乙、丙等互相互動的場景下,基於各自選取的手勢影像的影像特徵向甲、乙、丙等使用者發送上述影像特徵。同時,每個終端設備可以即時獲取每個使用者的手勢影像,如果匹配預先選取的影像特性達到一定契合度,則執行後續邏輯操作,例如甲、乙、丙等終端設備選擇的場景是一個古代廟宇,前面有道石門、當多設備識別到手往前推的動作,石門就會緩緩打開等。 在圖2和圖3所示的實施例中預先展示有手勢影像、人臉影像或人體影像等,考慮到展示的影像的數量有限;並且預先展示的影像的內容不夠豐富,為了進一步提高影像的數量,並且提高影像的豐富程度,增強使用者互動,增加使用者互動樂趣,如圖4和圖5所示,本說明書的另一個實施例提供一種人機互動方法400,包括如下步驟: S402:獲取影像特徵,所述影像特徵包括下述至少一種:手勢影像特徵、人臉影像特徵、人體影像特徵以及動作特徵。 該實施例可以應用在終端設備上,該終端設備包括有可用於獲取影像的部件,以運行擴增實境應用的終端設備為例,終端設備上用於獲取影像的部件可以包括紅外線攝像頭等,在獲取到影像後基於獲取的影像獲取影像特徵。 上述動作特徵,例如包括:出拳的動作特徵、揮手的動作特徵、出掌的動作特徵、跑步的動作特徵、直立靜止的動作特徵、搖頭的動作特徵、點頭的動作特徵等。 可選地,該實施例執行之前還可以預先識別應用場景,例如,上述應用場景具體可以包括發送方和接收方相互聊天的場景;網路格鬥遊戲的應用場景;多個終端設備互相聊天互動的場景等。 該步驟在獲取影像特徵時,例如獲取手勢特徵時,可使用手勢特徵分類模型獲取手勢特徵。該手勢特徵分類模型的輸入參數可以是獲取到的手勢影像(或者預處理後的手勢影像,下一段進行介紹),輸出參數可以是手勢特徵。該手勢特徵分類模型可基於支持向量機(Support Vector Machine,SVM))、卷積神經網路(Convolutional Neural Network,簡稱CNN)或DL等算法,透過機器學習的方式產生得到。 為了提高手勢特徵的識別精度,可選地,該步驟還可以對獲取到的手勢影像進行預處理,以便去除雜訊。具體地,對手勢影像的預處理操作可包括但不限於:對獲取到的手勢影像進行影像增強;影像二值化;影像灰度化以及去雜訊處理等。 對於人臉影像特徵、人體影像特徵以及動作特徵的獲取方式與上述手勢特徵的獲取方式類似,在此不再贅述。 該實施例執行之前可以預先獲取手勢影像、人臉影像、人體影像以及動作影像等,然後基於獲取的影像提取手勢影像特徵、人臉影像特徵、人體影像特徵以及動作特徵。 可選地,該實施例還可以根據影像特徵精度要求以及性能要求(比如回應速度要求)等來確定是否進行影像預處理,或者確定所採用的影像預處理方法。具體例如,在回應速度要求比較高的網路格鬥遊戲的應用場景下,可以不對手勢影像進行預處理;在對手勢精度要求比較高的場景下,可以對獲取到的影像進行預處理。 S404:在預設場景下基於所述影像特徵以及使用者選取的附加動態特徵確定匹配的動作指令。 該實施例執行之前還可以預先獲取場景影像,在獲取到的場景下執行該實施例。 該步驟具體基於所述影像特徵以及使用者選取的附加動態特徵確定匹配的動作指令時,可以先確定當前的應用場景,然後確定在當前應用場景下影像特徵以及使用者選取的附加動態特徵對應的動作指令,例如,在單機格鬥遊戲的場景下,基於單手握拳的手勢特徵以及使用者選擇的附加火球的動態特徵,可以確定出拳+火球的動作指令。如圖5的應用介面示意圖所示,該實施例可以預先在顯示介面顯示多個附加動態效果,具體見圖5中右側的文字“附加動態效果”下方的圓形,當使用者點擊選擇其中的一個附加動態效果時,該步驟即可基於所述手勢特徵和所述附加動態效果特徵確定動作指令。 該實施例中,選取的附加動態特徵和獲取的影像相對應。在其他的實施例中,如果獲取到的是人臉特徵,這還可以預先在顯示介面顯示多個附加人臉相關的動態效果供使用者選取,當使用者選取時產生附加動態特徵,以對人臉顯示效果等進行增強顯示。 在其他的實施例中,如果獲取到的是人體影像特徵或動作特徵,這還可以預先在顯示介面顯示多個附加人體或動作相關的動態效果供使用者選取,當使用者選取時產生附加動態特徵。 具體例如,步驟S402中獲取到的是表示單手握拳的手勢特徵,如果不選擇上述附加動態效果(或稱特徵),則該步驟確定的動作指令僅僅表示出拳的動作指令;如果選擇附加“雪球”的附加動態效果,則該步驟確定的動作指令可以是包括出拳加發射雪球的具有炫酷效果的動作指令。 S406:回應於所述動作指令,執行與所述動作指令相匹配的操作。 該步驟中的回應於所述動作指令,執行與所述動作指令相匹配的操作,具體可以是基於所述動作指令產生渲染指令,對所述動作指令相關的目標對象進行渲染,例如,在圖5中左側的方塊內展示擴增實境、虛擬實境或混合現實的目標對象,展示的目標對象可以是擴增實境、虛擬實境或混合現實場景影像。 該實施例還可以向接收方發送所述動作指令,以便接收方基於上述動作指令產生渲染指令,以對所述動作指令相關的目標對象進行渲染,當然在發送方也可以同樣展示擴增實境的目標對象。 本說明書實施例提供的互動方法,獲取影像特徵,並基於所述影像特徵以及使用者選取的附加動態特徵確定動作指令並回應於所述動作指令,實現基於獲取的影像特徵的人機互動。 另外,該實施例基於即時獲取的影像獲取手勢影像特徵、人臉影像特徵、人體影像特徵以及動作特徵等,相對於獲取數量有限的、預先存儲的影像而言,能夠獲取到的影像特徵更加豐富、多樣。 同時,透過即時獲取使用者影像並獲取影像特徵的方式,增加使用者的互動,特別是在一些遊戲場景下,提高使用者的融入感和互動性,提高使用者體驗。 另外,本說明書實施例預先保存有附加動態效果供使用者選擇,從而方便使用者快速選取,以便與產生更加炫酷的特技效果,提高使用者體驗。 可選地,在圖5所示的顯示介面中預先展示的附加動態效果的順序,或者是其他實施例中的對人臉特徵的附加動態效果、或人體特徵的附加動態效果等顯示順序,可以基於使用者歷史使用頻率進行排序,例如,使用者選擇“火球”的頻率最高,參見圖5,則將“火球”的附加動態效果排在第一位進行展示,進一步方便使用者選取,提高使用者體驗。 需要說明的是,上述實施例不僅可以應用在單個終端設備的場景下,還可以同時應用在多個設備互動的場景下。 如圖6和圖7所示,本說明書的另一個實施例提供一種人機互動方法600,包括如下步驟: S602:獲取使用者選取的場景特徵。 該實施例中的場景特徵,具體如圖7的應用介面示意圖所示,該實施例可以預先在顯示介面顯示多個預設場景,例如圖7所示的“阿凡達(avatar)”場景,後續的多個場景以“***”進行示意顯示,當使用者點擊選擇其中的一個場景時,該步驟即相當於是獲取到的場景特徵。 另外,在圖7的應用介面還包括有“more”按鈕,當使用者點擊時可以展現更多的預設場景。 S604:基於所述場景特徵以及獲取的影像特徵確定動作指令,所述影像特徵包括下述至少一種:手勢影像特徵、人臉影像特徵、人體影像特徵以及動作特徵。 該實施例可以應用在終端設備上,該終端設備包括有可用於獲取影像的部件,以運行擴增實境應用的終端設備為例,終端設備上用於獲取影像的部件可以包括紅外線攝像頭等,並基於獲取的影像獲取影像特徵,具體的獲取過程參見圖4所示的實施例,以下以獲取人臉特徵為例進行介紹。 在獲取人臉特徵時,可使用人臉特徵分類模型獲取人臉特徵。該人臉特徵分類模型的輸入參數可以是獲取到的人臉影像(或者預處理後的人臉影像,下一段進行介紹),輸出參數可以是人臉特徵。該人臉特徵分類模型可基於支持向量機(Support Vector Machine,SVM))、卷積神經網路(Convolutional Neural Network,簡稱CNN)或DL等算法,透過機器學習的方式產生得到。 為了提高人臉特徵的識別精度,可選地,該步驟還可以對獲取到的人臉影像進行預處理,以便去除雜訊。具體地,對人臉影像的預處理操作可包括但不限於:對獲取到的人臉影像進行影像增強;影像二值化;影像灰度化以及去雜訊處理等。 該步驟基於所述影像特徵和所述場景特徵確定匹配的動作指令時,例如,在具有發送方和接收方的網路聊天的應用場景下,可以將影像特徵和場景特徵融合,如將人臉特徵和場景特徵融合,產生人臉特徵和場景特徵融合的動作指令,具體例如,在使用者選擇的場景中預留有人臉區域,將使用者的人臉特徵融合展示在上述預留的人臉區域,從而實現使用者人臉與選擇的場景的無縫對接,產生使用者真實處於上述場景中的效果,具體如,使用者人在畫中游、上述場景中的角色的臉部變成了使用者的人臉等。 該實施例尤其適用於合影、藝術大頭貼、藝術造型、cosplay等應用場景下。 S606:回應於所述動作指令,執行與所述動作指令相匹配的操作。 該步驟中的回應於所述動作指令,執行與所述動作指令相匹配的操作,具體可以是基於所述動作指令產生渲染指令,以對所述動作指令相關的目標對象進行渲染;還可以是向接收方發送所述動作指令,以便接收方基於上述動作指令產生渲染指令,對所述動作指令相關的目標對象進行渲染,最終展示擴增實境、虛擬實境或混合現實的目標對象。 在上述合影的應用場景下,透過步驟S606的操作之後,還可以將攜帶有人臉特徵和所述場景特徵的資訊發送至接收方,在接收方在獲取接收方的人臉特徵,從而實現發送方的人臉特徵、接收方的人臉特徵以及發送方選擇的場景的融合,便於提高使用者體驗。 本說明書實施例提供的互動方法,獲取影像特徵以及場景特徵,基於所述影像特徵和所述場景特徵確定動作指令並回應於所述動作指令,實現了影像特徵和各種預設場景的融合,便於提升使用者體驗。 需要說明的是,上述實施例不僅可以應用在單個終端設備的場景下,還可以同時應用在多個設備互動的場景下。 另外,該實施例預先存儲有不同的預設場景供使用者選擇,實現了獲取的影像在不同的場景下變幻出不同的造型,增加趣味性,提高使用者體驗。 可選地,該實施例還可以保存上述展示的擴增實境、虛擬實境或混合現實的目標對象,方便使用者後續使用。在一個實施例中,可以請求第三方攝影器材從外界拍攝記錄當前終端設備螢幕上所顯示的擴增實境、虛擬實境或混合現實視圖,從而間接實現擴增實境、虛擬實境或混合現實視圖存儲,能夠靈活的獲取使用者所需要存儲的擴增實境、虛擬實境或混合現實視圖。 在另一個實施例中,還可以透過截圖的方式擷取並保存使用者在顯示器幕上所看到的擴增實境、虛擬實境或混合現實視圖。該實現方式不僅擷取並存儲螢幕上顯示的所有擴增實境、虛擬實境或混合現實內容,還可以根據使用者需要有選擇的存儲擴增實境、虛擬實境或混合現實視圖。 對於本說明書前文圖1至圖7所示的實施例具體應用時,其初始顯示介面可以參見圖8至圖9,使用者點擊最右側的添加按鈕則會出現**Card選項,並且將**Card功能保存在聊天介面中,如圖8所示,該處的**Card可以是AR Card、MR Card或者是VR Card等等。 後續使用者使用時,首先可以點擊如圖8所示的**Card按鈕,然後即可以執行圖1至圖7所示的各個實施例的操作步驟;或者,檢測到使用者目前的場景能夠執行前文圖1至圖7所示的實施例的方法步驟時,可以在資訊介面彈出**Card選項以供使用者選擇使用,提高使用者體驗。 需要說明的是,圖8和圖9只是示意性地展示了一種觸發執行方式,實際上,前文幾個實施例介紹的方法還可以是由其他方式觸發執行,例如搖一搖終端設備自動執行、透過識別使用者發出的特定語音執行等等,本說明書實施例不作具體限定。 如圖10和圖11所示,本說明書的另一個實施例提供一種人機互動方法1000,應用在接收方,包括如下步驟: S1002:接收來自於發送方的動作指令。 該實施例中的動作指令,可以是前文中的圖1至圖7所示的實施例中所提到的動作指令,也即,該實施例應用在接收方,其發送方執行的操作可以是如圖1至圖7所示的各個實施例的操作。 當然,該實施例中的動作指令也可以是其他的動作指令,即與圖1至圖7所示的各個實施例相互獨立。 S1004:回應於所述動作指令,顯示與所述動作指令對應的效果; 其中,所述與所述動作指令對應的效果包括下述至少一種: 對終端設備的發送方頭像的處理效果和/或對終端設備的接收方頭像的處理效果; 對與發送方進行通訊的資訊邊框顏色的處理效果,對於該處提到的資訊邊框,可以參見圖11,在顯示介面中,網名為***的朋友發送了三條資訊,每一條資訊都包括有資訊邊框。 螢幕振動反轉,即整個終端設備螢幕振動並發生反轉;或 自動播放視訊、動畫以及語音等,上述動畫包括gif影像。 上述視訊具體可以是H264、H265等編碼格式的視訊檔案,接收方接收到上述視訊檔案後即可自動播放;上述動畫具體可以是強化表現人物表情的動畫、畫外音的藝術文字以及一些背景動畫效果等,接收方接收到上述動畫後自動播放。 另外,該實施例在發送方的顯示介面還可以顯示接收方三維模型狀態發生變化,具體可以展示接收方身上中彈、接收方身上有雪花等擴增實境、虛擬實境或混合現實等三維顯示效果。 此外,該實施例在發送方的顯示介面還可以顯示頭像的處理效果,例如,具體可以是接收方頭像變成烏龜或其他的擴增實境、虛擬實境或混合現實等接收方頭像的三維顯示變化樣式,提高趣味性,增強使用者體驗。 上述顯示效果中,在發送方的顯示介面中可以顯示出雙方動作的產生到消亡,以及接收方的狀態、頭像等最後的狀態;在接收方的顯示介面中可以顯示出雙方動作的產生到消亡,通常不會顯示上述接收方的狀態、頭像等最後的狀態,提高趣味性,增強使用者體驗。 另外,該實施例還可以接收拖動指令,在顯示介面行動展示的對象等。 本說明書實施例提供的人機互動方法,接收來自於發送方的動作指令,並回應於所述動作指令顯示與所述動作指令對應的效果,實現了基於動作指令的人機互動。 本說明書實施例提供的人機互動方法,與所述動作指令對應的效果均可以是在三維狀態下展示,具體可以是三維擴增實境、虛擬實境或混合現實展示。 在一個具體的實施例中,在發送方的顯示介面中還可以產生如下效果:甲(發送方)發送一個雪球,乙(接收方)發送一個火球,火球和雪球相撞後火球會削弱並飛向甲方,然後甲方影像著火等;又例如,甲方和乙方同時發送火球或同時發送水球,碰撞後會散落成火花或雪花濺落,形成奇幻的藝術效果,提高趣味性,增強使用者體驗。 以上說明書部分詳細介紹了人機互動方法實施例,如圖12所示,本說明書還提供了一種人機互動裝置1200,如圖12所示,裝置1200包括: 影像獲取模組1202,可以用於獲取用於指示終端設備執行動作的影像; 動作指令確定模組1204,可以用於基於所述影像的影像特徵確定匹配的動作指令; 執行模組1206,可以用於回應於所述動作指令,執行與所述動作指令相匹配的操作。 本說明書實施例提供的互動裝置,基於獲取到影像的影像特徵確定動作指令並回應於所述動作指令,執行與所述動作指令相匹配的操作,實現了基於獲取的影像的人機互動。 可選地,作為一個實施例,所述影像獲取模組1202,可以用於回應於使用者對展示的預設影像的選擇操作,獲取被選擇的影像。 可選地,作為一個實施例,所述影像獲取模組1202,可以用於透過攝影獲取設備獲取使用者的影像。 可選地,作為一個實施例,所述用於指示終端設備執行動作的影像包括手勢影像、人臉影像或人體影像。 可選地,作為一個實施例,所述動作指令確定模組1204,可以用於基於所述手勢特徵和獲取的附加動態特徵確定匹配的動作指令。 可選地,作為一個實施例,所述動作指令確定模組1204,可以用於在預設場景下,基於所述影像的影像特徵和所述附加動態特徵確定匹配的動作指令。 可選地,作為一個實施例,所述動作指令確定模組1204,可以用於基於所述影像的影像特徵和獲取的場景特徵確定匹配的動作指令。 可選地,作為一個實施例,所述裝置1200還包括保存模組,可以用於保存所述影像特徵和所述場景特徵。 可選地,作為一個實施例,所述執行模組1206,可以用於基於所述動作指令產生渲染指令,以對所述動作指令相關的目標對象進行渲染。 可選地,作為一個實施例,所述裝置1200還包括發送模組,可以用於向接收方發送所述動作指令。 根據本說明書實施例的上述人機互動裝置1200可以參照對應前文本說明書實施例的圖1至圖9所示的人機互動方法的流程,並且,該人機互動裝置1200中的各個單元/模組和上述其他操作和/或功能分別為了實現人機互動方法中的相應流程,為了簡潔,在此不再贅述。 如圖13所示,本說明書還提供了一種人機互動裝置1300,如圖13所示,該裝置1300包括: 接收模組1302,可以用於接收來自於發送方的動作指令; 效果顯示模組1304,可以用於回應於所述動作指令,顯示與所述動作指令對應的效果,所述與所述動作指令對應的效果包括下述至少一種: 對終端設備的發送方頭像的處理效果和/或對終端設備的接收方頭像的處理效果; 對與發送方進行通訊的資訊邊框顏色的處理效果; 螢幕振動反轉;或 視訊或動畫播放。 上述視訊具體可以是H264、H265等編碼格式的視訊檔案,或是三維模型及時演算動畫,即接收方接收到上述視訊檔案後即可自動播放;上述動畫具體可以是強化表現人物表情的動畫、畫外音的藝術文字以及一些背景動畫效果等,接收方接收到上述動畫後即可自動播放。 另外,該實施例在發送方的顯示介面還可以顯示接收方三維模型狀態發生變化,具體可以是展示接收方身上中彈、接收方身上有雪花等擴增實境、虛擬實境或混合現實等三維顯示效果。 此外,該實施例在發送方的顯示介面還可以顯示接收方的頭像的處理效果例如,具體可以是接收方頭像變成烏龜或其他的擴增實境、虛擬實境或混合現實等接收方頭像的三維顯示變化樣式,提高趣味性,增強使用者體驗。 上述顯示效果中,在發送方的顯示介面中可以顯示出雙方動作的產生到消亡,以及接收方的狀態、頭像等最後的狀態;在接收方的顯示介面中可以顯示出雙方動作的產生到消亡,通常不會顯示上述接收方的狀態、頭像等最後的狀態,提高趣味性,增強使用者體驗。 本說明書實施例提供的人機互動裝置,接收來自於發送方的動作指令,並回應於所述動作指令顯示與所述動作指令對應的效果,實現了基於接收的動作指令的人機互動。 根據本說明書實施例的上述人機互動裝置1300可以參照對應前文本說明書實施例的圖10至圖11所示的人機互動方法的流程,並且,該人機互動裝置1300中的各個單元/模組和上述其他操作和/或功能分別為了實現人機互動方法中的相應流程,為了簡潔,在此不再贅述。 本說明書上述各個實施例能夠實現的效果具體可以參見圖14,在使用者輸入時,不僅實現了文本輸入、語音輸入、圖片輸入和短視訊輸入,還可以實現人臉識別、動作識別、場景識別等,並根據識別的人臉、動作和場景等變幻出不同的效果發送。使用者接收時,不僅實現了普通的文本展示、語音播放、圖片動態播放短視訊播放等,還實現了狀態發生變化、動畫聲音播放螢幕震動回饋等效果,上述狀態發生變化,例如包括發送方身上中彈、發送方頭像變成烏龜、動態更換背景等。 下面將結合圖15詳細描述根據本說明書實施例的電子設備。參考圖15,在硬體層面,電子設備包括處理器,可選地,包括內部匯流排、網路介面、記憶體。其中,如圖15所示,記憶體可能包含記憶體,例如高速隨機存取記憶體(Random-Access Memory,RAM),也可能還包括非揮發性記憶體(non-volatile memory),例如至少1個磁碟記憶體等。當然,該電子設備還可能包括實現其他業務所需要的硬體。 處理器、網路介面和記憶體可以透過內部匯流排相互連接,該內部匯流排可以是工業標準架構(Industry Standard Architecture,ISA)匯流排、週邊組件互連(Peripheral Component Interconnect,PCI)匯流排或延伸工業標準架構(Extended Industry Standard Architecture,EISA)匯流排等。所述匯流排可以分為位址匯流排、資料匯流排、控制匯流排等。為便於表示,圖15中僅用一個雙向箭頭表示,但並不表示僅有一根匯流排或一種類型的匯流排。 記憶體,用於存放程式。具體地,程式可以包括程式程式碼,所述程式程式碼包括電腦操作指令。記憶體可以包括記憶體和非揮發性記憶體,並向處理器提供指令和資料。 處理器從非揮發性記憶體中讀取對應的電腦程式到記憶體中然後運行,在邏輯層面上形成轉發聊天資訊的裝置。處理器,執行記憶體所存放的程式,並具體用於執行本說明書前文所述的方法實施例的操作。 上述圖1至圖11所示實施例揭示的方法、裝置執行的方法可以應用於處理器中,或者由處理器實現。處理器可能是一種積體電路晶片,具有信號的處理能力。在實現過程中,上述方法的各步驟可以透過處理器中的硬體的集成邏輯電路或者軟體形式的指令完成。上述的處理器可以是通用處理器,包括中央處理器(Central Processing Unit,CPU)、網路處理器(Network Processor,NP)等;還可以是數位信號處理器(Digital Signal Processor,DSP)、特殊應用積體電路(Application Specific Integrated Circuit,ASIC)、現場可程式化閘陣列(Field-Programmable Gate Array,FPGA)或者其他可程式化邏輯裝置、分散式閘極或者電晶體邏輯裝置、分立硬體組件。可以實現或者執行本說明書實施例中的公開的各方法、步驟及邏輯方塊圖。通用處理器可以是微處理器或者該處理器也可以是任何常規的處理器等。結合本說明書實施例所公開的方法的步驟可以直接體現為硬體解碼處理器執行完成,或者用解碼處理器中的硬體及軟體模組組合執行完成。軟體模組可以位於隨機記憶體,快閃記憶體、唯讀記憶體,可程式化唯讀記憶體或者電可抹除可程式化記憶體、暫存器等本領域成熟的儲存媒體中。該儲存媒體位於記憶體,處理器讀取記憶體中的資訊,結合其硬體完成上述方法的步驟。 圖15所示的電子設備還可執行圖1至圖11的方法,並實現人機互動方法在圖1至圖11所示實施例的功能,本說明書實施例在此不再贅述。 當然,除了軟體實現方式之外,本說明書的電子設備並不排除其他實現方式,比如邏輯裝置抑或軟硬體結合的方式等等,也就是說以下處理流程的執行主體並不限定於各個邏輯單元,也可以是硬體或邏輯裝置。 本說明書實施例還提供一種電腦可讀儲存媒體,電腦可讀儲存媒體上存儲有電腦程式,該電腦程式被處理器執行時實現上述圖1至圖11所示的各個方法實施例的各個過程,且能達到相同的技術效果,為避免重複,這裡不再贅述。其中,所述的電腦可讀儲存媒體,如唯讀記憶體(Read-Only Memory,簡稱ROM)、隨機存取記憶體(Random Access Memory,簡稱RAM)、磁碟或者光碟等。 本領域內的技術人員應明白,本說明書的實施例可提供為方法、系統、或電腦程式產品。因此,本說明書可採用完全硬體實施例、完全軟體實施例、或結合軟體和硬體態樣的實施例的形式。而且,本說明書可採用在一個或多個其中包含有電腦可用程式程式碼的電腦可用儲存媒體(包括但不限於磁碟記憶體、CD-ROM、光學記憶體等)上實施的電腦程式產品的形式。 本說明書是參照根據本說明書實施例的方法、設備(系統)、和電腦程式產品的流程圖和/或方塊圖來描述的。應理解可由電腦程式指令實現流程圖和/或方塊圖中的每一流程和/或方塊、以及流程圖和/或方塊圖中的流程和/或方塊的結合。可提供這些電腦程式指令到通用電腦、專用電腦、嵌入式處理機或其他可程式化資料處理設備的處理器以產生一個機器,使得透過電腦或其他可程式化資料處理設備的處理器執行的指令產生用於實現在流程圖一個流程或多個流程和/或方塊圖一個方塊或多個方塊中指定的功能的裝置。 這些電腦程式指令也可存儲在能引導電腦或其他可程式化資料處理設備以特定方式工作的電腦可讀記憶體中,使得存儲在該電腦可讀記憶體中的指令產生包括指令裝置的製造品,該指令裝置實現在流程圖一個流程或多個流程和/或方塊圖一個方塊或多個方塊中指定的功能。 這些電腦程式指令也可裝載到電腦或其他可程式化資料處理設備上,使得在電腦或其他可程式化設備上執行一系列操作步驟以產生電腦實現的處理,從而在電腦或其他可程式化設備上執行的指令提供用於實現在流程圖一個流程或多個流程和/或方塊圖一個方塊或多個方塊中指定的功能的步驟。 在一個典型的配置中,電腦設備包括一個或多個處理器(CPU)、輸入/輸出介面、網路介面和記憶體。 記憶體可能包括電腦可讀媒體中的非永久性記憶體,隨機存取記憶體(RAM)和/或非揮發性記憶體等形式,如唯讀記憶體(ROM)或快閃記憶體(flash RAM)。記憶體是電腦可讀媒體的示例。 電腦可讀媒體包括永久性和非永久性、可行動和非可行動媒體可以由任何方法或技術來實現資訊存儲。資訊可以是電腦可讀指令、資料結構、程式的模組或其他資料。電腦的儲存媒體的例子包括,但不限於相變記憶體(PRAM)、靜態隨機存取記憶體(SRAM)、動態隨機存取記憶體(DRAM)、其他類型的隨機存取記憶體(RAM)、唯讀記憶體(ROM)、電可擦除可程式化唯讀記憶體(EEPROM)、快閃記憶體或其他記憶體技術、唯讀光碟唯讀記憶體(CD-ROM)、數位多功能光碟(DVD)或其他光學儲存器、磁卡式磁帶,磁帶式磁碟儲存器磁碟或其他磁性存儲設備或任何其他非傳輸媒體,可用於存儲可以被電腦設備存取的資訊。按照本文中的界定,電腦可讀媒體不包括暫存電腦可讀媒體(transitory media),如調變的資料信號和載波。 還需要說明的是,術語“包括”、“包含”或者其任何其他變體意在涵蓋非排他性的包含,從而使得包括一系列要素的過程、方法、商品或者設備不僅包括那些要素,而且還包括沒有明確列出的其他要素,或者是還包括為這種過程、方法、商品或者設備所固有的要素。在沒有更多限制的情況下,由語句“包括一個……”限定的要素,並不排除在包括要素的過程、方法、商品或者設備中還存在另外的相同要素。 以上僅為本說明書的實施例而已,並不用於限制本說明書。對於本領域技術人員來說,本說明書可以有各種更改和變化。凡在本說明書的精神和原理之內所作的任何修改、等同替換、改進等,均應包含在本說明書的申請專利範圍之內。
100‧‧‧人機互動方法 S102‧‧‧步驟 S104‧‧‧步驟 S106‧‧‧步驟 200‧‧‧人機互動方法 S202‧‧‧步驟 S204‧‧‧步驟 S206‧‧‧步驟 400‧‧‧人機互動方法 S402‧‧‧步驟 S404‧‧‧步驟 S406‧‧‧步驟 600‧‧‧人機互動方法 S602‧‧‧步驟 S604‧‧‧步驟 S606‧‧‧步驟 1000‧‧‧人機互動方法 S1002‧‧‧步驟 S1004‧‧‧步驟 1200‧‧‧人機互動裝置 1202‧‧‧影像獲取模組 1204‧‧‧動作指令確定模組 1206‧‧‧執行模組 1300‧‧‧人機互動裝置 1302‧‧‧接收模組 1304‧‧‧效果顯示模組
此處所說明的附圖用來提供對本說明書的進一步理解,構成本說明書的一部分,本說明書的示意性實施例及其說明用於解釋本說明書,並不構成對本說明書的不當限定。在附圖中: 圖1為本說明書的一個實施例提供的人機互動方法流程示意圖; 圖2為本說明書的另一個實施例提供的人機互動方法流程示意圖; 圖3為圖2所示的實施例中的顯示介面示意圖; 圖4為本說明書的再一個實施例提供的人機互動方法流程示意圖; 圖5為圖4所示的實施例中的顯示介面示意圖; 圖6為本說明書的又一個實施例提供的人機互動方法流程示意圖; 圖7為圖6所示的實施例中的顯示介面示意圖; 圖8為本說明書的一個實施例提供的人機互動方法初始介面示意圖; 圖9為本說明書的一個實施例提供的人機互動方法初始介面另一示意圖; 圖10為本說明書的下一個實施例提供的人機互動方法流程示意圖; 圖11為圖10所示的實施例中的顯示介面示意圖; 圖12為本說明書的一個實施例提供的人機互動裝置結構示意圖; 圖13為本說明書的另一個實施例提供的人機互動裝置結構示意圖; 圖14本說明書各個實施例能夠實現的效果示意圖。 圖15為實現本說明書各個實施例的電子設備硬體結構示意圖。

Claims (17)

  1. 一種人機互動方法,包括: 獲取用於指示終端設備執行動作的影像; 基於所述影像的影像特徵確定匹配的動作指令; 回應於所述動作指令,執行與所述動作指令相匹配的操作。
  2. 根據請求項1所述的方法,所述獲取用於指示終端設備執行動作的影像包括: 回應於使用者對展示的預設影像的選擇操作,獲取被選擇的影像。
  3. 根據請求項1所述的方法,所述獲取用於指示終端設備執行動作的影像包括: 透過攝影獲取設備獲取使用者的影像。
  4. 根據請求項1至3任一項所述的方法,所述用於指示終端設備執行動作的影像包括手勢影像、人臉影像或人體影像。
  5. 根據請求項4所述的方法,所述基於所述影像的影像特徵確定匹配的動作指令之前,所述方法還包括: 獲取與所述影像相關的附加動態特徵; 其中,所述基於所述影像的影像特徵確定匹配的動作指令包括:基於所述影像的影像特徵和所述附加動態特徵確定匹配的動作指令。
  6. 根據請求項5所述的方法, 所述基於所述影像的影像特徵和所述附加動態特徵確定匹配的動作指令包括:在預設場景下,基於所述影像的影像特徵和所述附加動態特徵確定匹配的動作指令。
  7. 根據請求項1所述的方法, 所述方法還包括:獲取所述影像所應用的場景特徵; 其中,所述基於所述影像的影像特徵確定匹配的動作指令包括:基於所述影像的影像特徵和所述場景特徵確定匹配的動作指令。
  8. 根據請求項7所述的方法, 所述方法還包括:保存所述影像特徵和所述場景特徵。
  9. 根據請求項1所述的方法, 所述回應於所述動作指令,執行與所述動作指令相匹配的操作包括: 基於所述動作指令產生渲染指令,以對所述動作指令相關的目標對象進行渲染。
  10. 根據請求項9所述的方法, 所述方法還包括:向接收方發送所述動作指令。
  11. 一種人機互動方法,應用在接收方,包括: 接收來自於發送方的動作指令; 回應於所述動作指令,顯示與所述動作指令對應的效果; 其中,所述與所述動作指令對應的效果包括下述至少一種: 對終端設備的發送方頭像的處理效果和/或對終端設備的接收方頭像的處理效果; 對與發送方進行通訊的資訊邊框顏色的處理效果; 螢幕振動反轉;或 視訊或動畫播放播放。
  12. 一種人機互動裝置,包括: 影像獲取模組,獲取用於指示終端設備執行動作的影像; 動作指令確定模組,基於所述影像的影像特徵確定匹配的動作指令; 執行模組,回應於所述動作指令,執行與所述動作指令相匹配的操作。
  13. 一種人機互動裝置,包括: 接收模組,接收來自於發送方的動作指令; 效果顯示模組,回應於所述動作指令,顯示與所述動作指令對應的效果; 其中,所述與所述動作指令對應的效果包括下述至少一種: 對終端設備的發送方頭像的處理效果和/或對終端設備的接收方頭像的處理效果; 對與發送方進行通訊的資訊邊框顏色的處理效果; 螢幕振動反轉;或 視訊或動畫播放。
  14. 一種電子設備,包括:記憶體、處理器及存儲在所述記憶體上並可在所述處理器上運行的電腦程式,所述電腦程式被所述處理器執行時實現如下操作: 獲取用於指示終端設備執行動作的影像; 基於所述影像的影像特徵確定匹配的動作指令; 回應於所述動作指令,執行與所述動作指令相匹配的操作。
  15. 一種電子設備,包括:記憶體、處理器及存儲在所述記憶體上並可在所述處理器上運行的電腦程式,所述電腦程式被所述處理器執行時實現如下操作: 接收來自於發送方的動作指令; 回應於所述動作指令,顯示與所述動作指令對應的效果; 其中,所述與所述動作指令對應的效果包括下述至少一種: 對終端設備的發送方頭像的處理效果和/或對終端設備的接收方頭像的處理效果; 對與發送方進行通訊的資訊邊框顏色的處理效果; 螢幕振動反轉;或 視訊或動畫播放。
  16. 一種電腦可讀儲存媒體,所述電腦可讀儲存媒體上存儲有電腦程式,所述電腦程式被處理器執行時實現如下操作: 獲取用於指示終端設備執行動作的影像; 基於所述影像的影像特徵確定匹配的動作指令; 回應於所述動作指令,執行與所述動作指令相匹配的操作。
  17. 一種電腦可讀儲存媒體,所述電腦可讀儲存媒體上存儲有電腦程式,所述電腦程式被處理器執行時實現如下操作: 接收來自於發送方的動作指令; 回應於所述動作指令,顯示與所述動作指令對應的效果; 其中,所述與所述動作指令對應的效果包括下述至少一種: 對終端設備的發送方頭像的處理效果和/或對終端設備的接收方頭像的處理效果; 對與發送方進行通訊的資訊邊框顏色的處理效果; 螢幕振動反轉;或 視訊或動畫播放。
TW108119296A 2018-08-02 2019-06-04 人機互動方法和裝置 TWI782211B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810871070.2A CN109254650B (zh) 2018-08-02 2018-08-02 一种人机交互方法和装置
CN201810871070.2 2018-08-02

Publications (2)

Publication Number Publication Date
TW202008143A true TW202008143A (zh) 2020-02-16
TWI782211B TWI782211B (zh) 2022-11-01

Family

ID=65049153

Family Applications (1)

Application Number Title Priority Date Filing Date
TW108119296A TWI782211B (zh) 2018-08-02 2019-06-04 人機互動方法和裝置

Country Status (3)

Country Link
CN (2) CN109254650B (zh)
TW (1) TWI782211B (zh)
WO (1) WO2020024692A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109254650B (zh) * 2018-08-02 2021-02-09 创新先进技术有限公司 一种人机交互方法和装置
CN110083238A (zh) * 2019-04-18 2019-08-02 深圳市博乐信息技术有限公司 基于增强现实技术的人机互动方法与系统
CN110609921B (zh) * 2019-08-30 2022-08-19 联想(北京)有限公司 一种信息处理方法和电子设备
CN110807395A (zh) * 2019-10-28 2020-02-18 支付宝(杭州)信息技术有限公司 一种基于用户行为的信息交互方法、装置及设备
CN111338808B (zh) * 2020-05-22 2020-08-14 支付宝(杭州)信息技术有限公司 一种协同计算方法及系统
CN111627097B (zh) * 2020-06-01 2023-12-01 上海商汤智能科技有限公司 一种虚拟景物的展示方法及装置
CN111899192B (zh) * 2020-07-23 2022-02-01 北京字节跳动网络技术有限公司 交互方法、装置、电子设备及计算机可读存储介质
CN114035684A (zh) * 2021-11-08 2022-02-11 百度在线网络技术(北京)有限公司 用于输出信息的方法和装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7159008B1 (en) * 2000-06-30 2007-01-02 Immersion Corporation Chat interface with haptic feedback functionality
US9041775B2 (en) * 2011-03-23 2015-05-26 Mgestyk Technologies Inc. Apparatus and system for interfacing with computers and other electronic devices through gestures by using depth sensing and methods of use
CN103916621A (zh) * 2013-01-06 2014-07-09 腾讯科技(深圳)有限公司 视频通信方法及装置
JP5503782B1 (ja) * 2013-06-20 2014-05-28 株式会社 ディー・エヌ・エー 電子ゲーム機、電子ゲーム処理方法及び電子ゲームプログラム
CN105045398B (zh) * 2015-09-07 2018-04-03 哈尔滨市一舍科技有限公司 一种基于手势识别的虚拟现实交互设备
CN105468142A (zh) * 2015-11-16 2016-04-06 上海璟世数字科技有限公司 基于增强现实技术的互动方法、系统和终端
CN105988583A (zh) * 2015-11-18 2016-10-05 乐视致新电子科技(天津)有限公司 手势控制方法及虚拟现实显示输出设备
CN105487673B (zh) * 2016-01-04 2018-01-09 京东方科技集团股份有限公司 一种人机交互系统、方法及装置
CN106125903B (zh) * 2016-04-24 2021-11-16 林云帆 多人交互系统及方法
CN106095068A (zh) * 2016-04-26 2016-11-09 乐视控股(北京)有限公司 虚拟图像的控制方法及装置
CN106155311A (zh) * 2016-06-28 2016-11-23 努比亚技术有限公司 Ar头戴设备、ar交互系统及ar场景的交互方法
US10471353B2 (en) * 2016-06-30 2019-11-12 Sony Interactive Entertainment America Llc Using HMD camera touch button to render images of a user captured during game play
CN106293461B (zh) * 2016-08-04 2018-02-27 腾讯科技(深圳)有限公司 一种交互式应用中的按键处理方法和终端以及服务器
CN107885317A (zh) * 2016-09-29 2018-04-06 阿里巴巴集团控股有限公司 一种基于手势的交互方法及装置
CN107885316A (zh) * 2016-09-29 2018-04-06 阿里巴巴集团控股有限公司 一种基于手势的交互方法及装置
US20180126268A1 (en) * 2016-11-09 2018-05-10 Zynga Inc. Interactions between one or more mobile devices and a vr/ar headset
US10168788B2 (en) * 2016-12-20 2019-01-01 Getgo, Inc. Augmented reality user interface
CN106657060A (zh) * 2016-12-21 2017-05-10 惠州Tcl移动通信有限公司 一种基于现实场景的vr通讯方法及系统
CN107705278B (zh) * 2017-09-11 2021-03-02 Oppo广东移动通信有限公司 动态效果的添加方法和终端设备
CN109254650B (zh) * 2018-08-02 2021-02-09 创新先进技术有限公司 一种人机交互方法和装置

Also Published As

Publication number Publication date
CN112925418A (zh) 2021-06-08
WO2020024692A1 (zh) 2020-02-06
CN109254650B (zh) 2021-02-09
CN109254650A (zh) 2019-01-22
TWI782211B (zh) 2022-11-01

Similar Documents

Publication Publication Date Title
TWI782211B (zh) 人機互動方法和裝置
US11182615B2 (en) Method and apparatus, and storage medium for image data processing on real object and virtual object
US11478709B2 (en) Augmenting virtual reality video games with friend avatars
US10636215B2 (en) Systems and methods for providing real-time composite video from multiple source devices featuring augmented reality elements
US9866795B2 (en) System and method for interactive animations for enhanced and personalized video communications
US9747495B2 (en) Systems and methods for creating and distributing modifiable animated video messages
CN104170318B (zh) 使用交互化身的通信
WO2019052451A1 (zh) 虚拟互动方法和终端
KR102491140B1 (ko) 가상 아바타 생성 방법 및 장치
CN113228625A (zh) 支持复合视频流的视频会议
CA2941333A1 (en) Virtual conference room
WO2019114328A1 (zh) 一种基于增强现实的视频处理方法及其装置
JP2016511837A (ja) 分散型ストーリーリーディングのための音声変更
CN108876878B (zh) 头像生成方法及装置
WO2022252866A1 (zh) 一种互动处理方法、装置、终端及介质
US20230130535A1 (en) User Representations in Artificial Reality
CN114222076B (zh) 一种换脸视频生成方法、装置、设备以及存储介质
WO2020042442A1 (zh) 表情包生成方法及装置
CN113411537B (zh) 视频通话方法、装置、终端及存储介质
CN112637692B (zh) 互动方法、装置、设备
CN116017082A (zh) 一种信息处理方法和电子设备
CN114779948A (zh) 基于面部识别的动画人物即时交互控制方法、装置及设备
CN113949891A (zh) 一种视频处理方法、装置、服务端及客户端
TWI814318B (zh) 用於使用模擬角色訓練模型以用於將遊戲角色之臉部表情製成動畫之方法以及用於使用三維(3d)影像擷取來產生遊戲角色之臉部表情之標籤值之方法
CN113840158B (zh) 虚拟形象的生成方法、装置、服务器及存储介质