TW201916005A - 互動方法和設備 - Google Patents

互動方法和設備 Download PDF

Info

Publication number
TW201916005A
TW201916005A TW107127281A TW107127281A TW201916005A TW 201916005 A TW201916005 A TW 201916005A TW 107127281 A TW107127281 A TW 107127281A TW 107127281 A TW107127281 A TW 107127281A TW 201916005 A TW201916005 A TW 201916005A
Authority
TW
Taiwan
Prior art keywords
user
interactive
information
robot
live content
Prior art date
Application number
TW107127281A
Other languages
English (en)
Inventor
賈梓筠
Original Assignee
香港商阿里巴巴集團服務有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 香港商阿里巴巴集團服務有限公司 filed Critical 香港商阿里巴巴集團服務有限公司
Publication of TW201916005A publication Critical patent/TW201916005A/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2668Creating a channel for a dedicated end-user group, e.g. insertion of targeted commercials based on end-user profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/04Speaking
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Social Psychology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Acoustics & Sound (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Toys (AREA)
  • User Interface Of Digital Computer (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本發明實施例提供一種互動方法和設備,該方法包括:播放用戶選擇的直播內容;獲取用戶在觀看所述直播內容時的情緒資訊;將該情緒資訊發送至直播內容對應的主播端;播放主播端發出的與該情緒資訊對應的互動內容。比如,當發現用戶表現出無聊的情緒時,調整直播內容為唱一首歌曲、跳一段舞蹈或者做一個小遊戲。透過本方案,以直播的方式為用戶提供直播內容,並且感知用戶觀看直播內容期間的用戶情緒以便與用戶互動,將直播技術與感知技術相結合,根據用戶的觀看情緒及時調整用戶觀看到的內容,實現內容提供端與內容觀看端的有效互動。

Description

互動方法和設備
本發明涉及人工智慧技術領域,尤其涉及一種互動方法和設備。
近年來,隨著機器人技術的發展和人工智慧研究不斷深入,智慧移動機器人在人類生活中扮演越來越重要的角色,在諸多領域得到廣泛應用,比如,為兒童定制的兒童機器人,可以用於兒童的教育、娛樂。   以兒童機器人為例來說,假設兒童用戶使用兒童機器人來進行英語單詞的學習。目前,兒童用戶可以向兒童機器人發出獲取內容資源的指令,比如對著兒童機器人說“學英語單詞”,從而觸發兒童機器人從服務端獲取預先產生的相應音視頻內容資源進行播放展示,內容獲取形式單一。而且在整個播放期間,兒童用戶一般只能進行簡單的播放控制操作,比如“開始”、“暫停”、“快進”、“快退”、“上一首”、“下一首”等,整體來看兒童用戶還是處於被動接受這些內容的狀態,由於缺乏更加豐富的互動功能,使得兒童用戶的體驗較差。
有鑑於此,本發明實施例提供一種互動方法和設備,用以實現針對新用戶的個性化機器人互動。   第一方面,本發明實施例提供一種互動方法,應用於機器人中,包括:   播放用戶選擇的直播內容;   獲取所述用戶在觀看所述直播內容時的情緒資訊;   將所述情緒資訊發送至所述直播內容對應的主播端;   播放所述主播端發出的與所述情緒資訊對應的互動內容。   第二方面,本發明實施例提供一種互動裝置,應用於中,包括:   播放模組,用於播放用戶選擇的直播內容;   獲取模組,用於獲取所述用戶在觀看所述直播內容時的情緒資訊;   發送模組,用於將所述情緒資訊發送至所述直播內容對應的主播端;   所述播放模組,還用於播放所述主播端發出的與所述情緒資訊對應的互動內容。   協力廠商面,本發明實施例提供一種電子設備,該電子設備可以實現為,包括處理器和記憶體,所述記憶體用於儲存支援執行上述第一方面中互動方法的程式,所述處理器被配置為用於執行所述記憶體中儲存的程式。該電子設備中還可以包括通信介面,用於與其他設備或通信網路通信。   另外,本發明實施例提供了一種電腦儲存媒體,用於儲存該電子設備所用的電腦軟體指令,其包含用於執行上述第一方面中互動方法所涉及的程式。   第四方面,本發明實施例提供一種互動方法,應用於用戶端中,包括:   接收用戶的機器人發送的情緒資訊,所述情緒資訊反映了所述用戶在觀看所述主播端對應的直播內容時的情緒;   將主播根據所述情緒資訊觸發的互動內容發送至所述機器人。   第五方面,本發明實施例提供一種互動裝置,應用於用戶端中,包括:   接收模組,用於接收用戶的機器人發送的情緒資訊,所述情緒資訊反映了所述用戶在觀看所述主播端對應的直播內容時的情緒;   發送模組,用於將主播根據所述情緒資訊觸發的互動內容發送至所述機器人。   第六方面,本發明實施例提供一種電子設備,該電子設備可以實現為用戶終端設備,比如智慧手機等,包括處理器和記憶體,所述記憶體用於儲存支援該電子設備執行上述第四方面中互動方法的程式,所述處理器被配置為用於執行所述記憶體中儲存的程式。該電子設備中還可以包括通信介面,用於與其他設備或通信網路通信。   另外,本發明實施例提供了一種電腦儲存媒體,用於儲存該電子設備所用的電腦軟體指令,其包含用於執行上述第四方面中互動方法所涉及的程式。   本發明實施例提供的互動方法和設備,以直播的方式為用戶提供所需內容。具體地,用戶可以在機器人的觀看用戶端介面中選擇所需觀看的直播內容,從而觸發機器人獲得該直播內容並播放。另外,在用戶觀看該直播內容的期間,捕獲用戶在觀看時的情緒資訊,以便將用戶的情緒資訊發送至對應的主播端,以使主播根據用戶情緒資訊觸發相應的互動內容。比如,當發現用戶表現出無聊的情緒時,調整直播內容為唱一首歌曲、跳一段舞蹈或者做一個小遊戲。透過本方案,以直播的方式為用戶提供直播內容,並且感知用戶觀看直播內容期間的用戶情緒以便與用戶互動,將直播技術與感知技術相結合,根據用戶的觀看情緒及時調整用戶觀看到的內容,實現內容提供端與內容觀看端的有效互動。
為使本發明實施例的目的、技術方案和優點更加清楚,下面將結合本發明實施例中的圖式,對本發明實施例中的技術方案進行清楚、完整地描述,顯然,所描述的實施例是本發明一部分實施例,而不是全部的實施例。基於本發明中的實施例,本領域普通技術人員在沒有作出創造性勞動前提下所獲得的所有其他實施例,都屬於本發明保護的範圍。   在本發明實施例中使用的術語是僅僅出於描述特定實施例的目的,而非旨在限制本發明。在本發明實施例和申請專利範圍中所使用的單數形式的“一種”、“所述”和“該”也旨在包括多數形式,除非上下文清楚地表示其他含義,“多種”一般包含至少兩種,但是不排除包含至少一種的情況。   應當理解,本文中使用的術語“和/或”僅僅是一種描述關聯物件的關聯關係,表示可以存在三種關係,例如,A和/或B,可以表示:單獨存在A,同時存在A和B,單獨存在B這三種情況。另外,本文中字元“/”,一般表示前後關聯物件是一種“或”的關係。   應當理解,儘管在本發明實施例中可能採用術語第一、第二、第三等來描述XXX,但這些XXX不應限於這些術語。這些術語僅用來將XXX區分開。例如,在不脫離本發明實施例範圍的情況下,第一XXX也可以被稱為第二XXX,類似地,第二XXX也可以被稱為第一XXX。   取決於語境,如在此所使用的詞語“如果”、“若”可以被解釋成為“在……時”或“當……時”或“回應於確定”或“回應於檢測”。類似地,取決於語境,短語“如果確定”或“如果檢測(陳述的條件或事件)”可以被解釋成為“當確定時”或“回應於確定”或“當檢測(陳述的條件或事件)時”或“回應於檢測(陳述的條件或事件)”。   還需要說明的是,術語“包括”、“包含”或者其任何其他變體意在涵蓋非排他性的包含,從而使得包括一系列要素的商品或者系統不僅包括那些要素,而且還包括沒有明確列出的其他要素,或者是還包括為這種商品或者系統所固有的要素。在沒有更多限制的情況下,由語句“包括一個……”限定的要素,並不排除在包括所述要素的商品或者系統中還存在另外的相同要素。   另外,下述各方法實施例中的步驟時序僅為一種舉例,而非嚴格限定。   圖1a為本發明實施例提供的一種互動方法的流程圖,本實施例提供的該互動方法可以由一互動裝置來執行,該互動裝置可以實現為軟體,或者實現為軟體和硬體的組合,該互動裝置可以設置在機器人中。如圖1a所示,該方法包括如下步驟:   101、播放用戶選擇的直播內容。   該用戶可以是使用機器人的用戶,比如可以是使用兒童機器人的兒童用戶。   本發明實施例中,用戶可以透過直播的方式獲得想要觀看的內容。具體來說,用戶的機器人中安裝有觀看用戶端,用戶開啟觀看用戶端後,在觀看用戶端介面中可以顯示有可供用戶選擇的直播內容清單,用戶從中選擇想要觀看的直播內容進行播放。   可以理解的是,用戶所選擇觀看的直播內容是由相應的主播提供的,主播用戶端將直播內容上傳至網路側的直播服務平臺,從而觀看用戶端可以從該直播服務平臺拉取用戶選擇的直播內容進行播放。   實際應用中,對應於兒童用戶,上述直播內容可以是提供給兒童用戶可以觀看的教育、娛樂資源。   102、獲取用戶在觀看直播內容時的情緒資訊。   103、將用戶的情緒資訊發送至直播內容對應的主播端。   104、播放主播端發出的與所述情緒資訊對應的互動內容。   可以理解的是,用戶的機器人上一般會安裝有多種類型的採集裝置,比如攝像頭、麥克風陣列等,以用於採集用戶在觀看直播內容期間的行為,進而對採集的行為進行分析,以獲得用戶在觀看直播內容時的情緒資訊,以便於主播可以根據該觀看用戶的情緒資訊,及時調整直播內容,以觸發適當的互動內容與用戶互動,提高用戶的觀看積極性。   一般地,用戶在觀看直播內容時觸發的行為往往包括表現出某種表情、說出某些話語,執行某些動作等,因此,可以透過分析用戶的面部表情、識別用戶所說的話,來識別用戶當前的情緒狀況。   從而,可選地,可以透過如下方式獲取用戶在觀看直播內容時的情緒資訊:   採集用戶的圖像,對採集到的用戶圖像進行表情識別,以獲得反映用戶情緒的表情;和/或,採集用戶的語音,對採集到的用戶語音進行語音辨識,以獲得反映用戶情緒的語句,如圖1b所示。   其中,表情識別的過程可以採用現有相關技術實現,在此不贅述。表情識別的結果可以包括高興、生氣、厭惡和悲傷等表情。   其中,可以預先構建反映不同情緒的語句庫,即該語句庫中可以儲存有與多種情緒分別對應的常用語句集。透過對採集到的用戶語音進行識別,得到用戶所說出的語句是什麼,進而從各個常用語句集中匹配是否存在與識別出的語句對應的常用語句,如果匹配到對應的常用語句,則確定該識別出的語句是反映了用戶情緒的語句。從而,可選地,該識別出的語句可以作為一種用戶情緒的表達,直接被回饋至主播端;可選地,也可以將與該識別出的語句對應的情緒即將與該識別出的語句相匹配的常用語句所對應的情緒,回饋至主播端。   其中,上述識別出的語句與某常用語句之間的匹配,不一定要求完全一致才可以,可以是兩者之間語義相似即可。   主播端在接收到用戶的情緒資訊後,可以使得主播根據用戶的情緒觸發相應的互動內容,以吸引用戶的觀看、互動積極性。比如,當發現用戶表現出無聊的情緒時,調整直播內容為如下互動內容:唱一首歌曲、跳一段舞蹈或者做一個小遊戲。   綜上,相比於傳統機器人以下載方式獲得用戶所需內容的方式,本發明實施例中,機器人可以透過直播的方式為用戶提供所需內容。在直播的方式下,透過捕獲用戶在觀看直播內容時的情緒資訊並回饋至主播端,可以使主播根據用戶情緒資訊及時觸發相應的互動內容,實現內容提供端與內容觀看端的有效互動,提高觀看用戶的觀看體驗。   圖2a為本發明實施例提供的另一種互動方法的流程圖,如圖2a所示,該方法包括如下步驟:   201、若識別到當前的用戶為兒童用戶,則顯示與兒童用戶對應的直播內容選擇頁面,以供用戶選擇所需的直播內容。   本發明實施例提供的互動方法尤其可以適用於兒童用戶透過機器人進行學習、娛樂的場景。相比於成人用戶,兒童用戶的注意力更加難以集中,為了能夠吸引兒童用戶能夠更好地使用機器人進行學習,透過將感知技術與直播技術結合,在兒童機器人上實現教育、娛樂等內容的互動式播放。   從而,可選地,針對使用機器人的用戶類型的不同,可以提供不同的內容資源獲取方式,比如,如果當前使用機器人的用戶為成人,則可以採用傳統的內容獲取方式,即回應於成人用戶對所需內容資源的選擇或搜索操作,從相應的伺服器中下載早已存在的內容資源。而如果當前使用機器人的用戶為兒童,則可以開啟直播的觀看用戶端,展示供兒童用戶選擇直播內容的直播內容清單,從而,當兒童用戶從中選擇出所需觀看的直播內容後,從直播服務平臺拉取該直播內容進行播放。   因此,機器人首先需要識別當前的用戶是否為兒童用戶,如果是兒童用戶,在以直播的方式為其提供直播內容進行觀看。   可選地,一種識別當前用戶是否為兒童用戶的方式為根據用戶的註冊資訊確定。具體來說,在某實際應用場景中,機器人可能僅供某個家庭中的成員使用,即只有一定數量的用戶可以有權使用該機器人。從而,可以在初始使用該機器人時,在相關配置介面進行能夠使用該機器人的用戶身份註冊,身份註冊過程中可以設置不同用戶的用戶類型並添加用戶圖像,其中,用戶類型可以分為成人和兒童兩種。從而,在識別當前用戶是否為兒童用戶時,採集用戶圖像,將採集的用戶圖像與已經註冊的各用戶的圖像進行匹配,若存在匹配的用戶圖像,則根據匹配到的用戶圖像所對應的用戶類型確定當前用戶的用戶類型。   另外,可選地,也可以透過對採集到的當前用戶的用戶圖像進行特徵提取,以根據提取到的用戶特徵進行用戶類型的判定。其中,提取的用戶特徵比如包括身高、面部皺紋等。   202、播放用戶選擇的直播內容。   203、獲取用戶在觀看直播內容時的情緒資訊。   204、將用戶情緒資訊發送至直播內容對應的主播端。   205、播放主播端發出的與所述情緒資訊對應的互動內容。   上述步驟的具體實現可以參見前述實施例中的描述,在此不贅述。   206、根據用戶情緒資訊控制機器人的回饋元件執行對應的互動操作。   本實施例中,為了進一步增強機器人的互動效果,豐富機器人的互動形式,除了可以將用戶的情緒資訊回饋給主播,以使主播觸發相應的互動內容以吸引用戶的積極性外,還可以根據用戶的情緒資訊控制機器人上的相關回饋元件執行相應的互動操作。   其中,機器人上的回饋元件比如可以包括:觸摸感測器、手臂舵機、輪子馬達、LED燈,等等。   舉例來說,比如當機器人發現兒童用戶在打瞌睡或表情無聊時,如圖2b所示,可以自動控制輪子馬達前後小幅度振動,同時手臂舵機開始動作,LED燈開始閃爍,將兒童注意力繼續轉移到主播的直播內容上。   圖3a為本發明實施例提供的又一種互動方法的流程圖,如圖3a所示,該方法包括如下步驟:   301、播放用戶選擇的直播內容。   302、回應於用戶從觀看者清單中對好友的選擇操作,採集反映用戶互動行為的感知資料。   303、根據感知資料確定互動控制資訊。   304、將互動控制資訊發送至好友對應的機器人,以控制好友對應的機器人執行對應的互動操作。   如圖3b所示,同一主播直播的同一直播內容可以被不同的用戶觀看。從而,而觀看同一直播內容的不同用戶除了可以與主播進行互動之外,不同用戶之間也可以透過各自對應的機器人進行互動交流。   可選地,如圖3c所示,某個擁有機器人的用戶可以創建虛擬興趣小組,從觀看者清單中將觀看同一直播內容的好友添加到該虛擬興趣小組中,從而可以進行組內用戶間的彼此互動交流。該互動交流的形式可以是:在創建虛擬興趣小組的同時,創建一個聊天視窗,從而,該組內的用戶可以透過該聊天視窗進行文字、語音、圖像、視頻等交流。   另外,可選地,除了可以透過上述聊天視窗進行互動交流外,還可以透過機器人來實現互動。舉例來說,當某用戶從觀看者清單中選擇出某個好友而觸發與該好友建立通訊連結後,該用戶對自己的機器人進行互動行為,比如在自己的機器人前做出某些動作或說某些話語,該互動行為會在好友的機器人上表現出來,如圖3d所示,某用戶在其機器人前說出“你好”,並抬起雙臂,則好友的機器人會輸出“你好”的語音,並抬起機器人的雙臂。   為實現上述互動功能,具體地,當某用戶選擇出需要交流的好友,建立與該好友的通訊連結後,可以採集反映該用戶的互動行為的感知資料,進而分析該感知資料,以確定能夠控制好友的機器人模仿該用戶的互動行為的互動控制資訊,從而將獲得的互動控制資訊發送至好友的機器人,以控制好友的機器人執行對應的互動操作。   其中,反映該用戶的互動行為的感知資料可以包括如下至少一種:深度圖像、彩色圖像、互動語音、觸摸傳感資訊等。其中,深度圖像可以反映用戶的肢體動作,比如抬起手臂的過程;彩色圖像可以反映用戶的人臉表情特徵,比如微笑;互動語音可以反映用戶說出的語音,比如你好;觸摸傳感資訊可以反映用戶的對機器人觸發的觸摸操作,比如握住機器人的手掌。   可選地,當感知資料中包括互動語音時,可以直接將該互動語音作為互動控制資訊中的一部分,相當於將用戶的互動語音透傳至好友機器人中進行播放,如圖3e中,用戶小明說出的“你好,小紅”會透過好友小紅的機器人播放出來。   可選地,當感知資料中包括觸摸傳感資訊時,可以確定與該觸摸傳感資訊對應的燈控資訊,該燈控資訊作為互動控制資訊中的一部分,用於控制好友的機器人中LED燈的展示效果。實際應用中,可以預先設定不同觸摸位置與不同LED燈的展示效果之間的對應關係,從而,當檢測到用戶觸摸了機器人機身上的某個位置後,基於該對應關係確定出作為被控物件的LED燈以及該LED燈的展示方式,燈控資訊即包含作為被控物件的LED燈以及該LED燈的展示方式。比如,如圖3e所示,當用戶小明觸摸了自己機器人的右手時,可以控制好友小紅的機器人的左手上的LED燈亮,從而拉近遠端互動的距離。   可選地,當感知資料中包括彩色圖像時,可以對該彩色圖像進行人臉表情識別,進而從預設表情庫中確定與識別出的人臉表情對應的表情物件,該表情物件作為互動控制資訊中的一部分,以用於控制好友機器人顯示該表情物件。其中,人臉表情識別的過程可以採用現有相關技術實現,在此不贅述。表情識別的結果可以包括高興、生氣、吃驚、恐懼、厭惡和悲傷等表情,相應地,可以預先構建包含各表情識別結果對應的表情物件的表情庫,該表情物件可以是表情動畫或表情圖像。   可選地,當感知資料中包括深度圖像時,可以對深度圖像進行骨骼識別,以獲得用戶的關節姿態資訊,進而確定與該用戶的關節姿態資訊對應的機器人關節姿態資訊,從而,確定出的機器人關節姿態資訊作為互動控制資訊中的一部分,用於控制好友的機器人執行相應的動作,如圖3d所示。   其中,骨骼識別的方法可以採用現有相關技術來實現,本實施例不贅述,本實施例中僅強調的是,骨骼識別的結果——人體關節姿態資訊,是由人體多個關節的運動序列構成,反映了多個關節的運動軌跡。另外,由於實際上,機器人的關節與人體的關節可能並非一一對應的,這與機器人的仿人程度有關,因此,將人體關節姿態資訊映射為機器人關節姿態資訊的過程中,既可能涉及到關節的映射,也可能涉及到關節姿態的映射。因此,透過預先建立人體關節與機器人關節的映射關係,以便確定人體關節姿態與機器人關節姿態的映射關係。   簡單舉例來說,假設對應於抬起右手的動作,人體關節的姿態資訊為相對於人體坐標系中的某基準線而言,以下各關節在不同時刻相對該基準線的角度分別為:   關節1:30度,40度,50度···;   關節2:20度,30度,40度···;   關節3:40度,50度,60度···;   關節4:40度,50度,60度···。   而機器人關節姿態資訊為相對於機器人坐標系中的某基準線而言,與人體關節對應的以下各關節在不同時刻相對該基準線的角度分別為:   關節a:10度,40度,54度···;   關節b:10度,23度,52度···。   本實施例中,觀看直播內容的用戶除了可以與主播互動外,還可以透過自己的機器人以及好友的機器人實現與好友的互動,提高了用戶的互動體驗,且豐富了機器人的互動形式。   以下將詳細描述本發明的一個或多個實施例的互動裝置。本領域技術人員可以理解,這些互動裝置均可使用市售的硬體元件透過本方案所教導的步驟進行配置來構成。   圖4為本發明實施例提供的一種互動裝置的結構示意圖,如圖4所示,該裝置包括:播放模組11、獲取模組12、發送模組13。   播放模組11,用於播放用戶選擇的直播內容。   獲取模組12,用於獲取所述用戶在觀看所述直播內容時的情緒資訊。   發送模組13,用於將所述情緒資訊發送至所述直播內容對應的主播端。   所述播放模組11,還用於播放所述主播端發出的與所述情緒資訊對應的互動內容。   可選地,所述獲取模組12具體用於:對採集到的所述用戶的圖像進行表情識別,以獲得反映所述用戶情緒的表情;和/或,對採集到的所述用戶的語音進行語音辨識,以獲得反映所述用戶情緒的語句。   可選地,所述裝置還包括:控制模組14。   控制模組14,用於根據所述情緒資訊控制所述機器人的回饋組件執行對應的互動操作。   可選地,所述裝置還包括:識別模組15、顯示模組16。   識別模組15,用於識別所述用戶是否為兒童用戶。   顯示模組16,用於若識別模組15識別出所述用戶是兒童用戶,則顯示與所述兒童用戶對應的直播內容選擇頁面,以供所述兒童用戶選擇所述直播內容。   可選地,所述裝置還包括:採集模組17、確定模組18。   採集模組17,用於回應於所述用戶從觀看者清單中對好友的選擇操作,採集反映所述用戶互動行為的感知資料。   確定模組18,用於根據所述感知資料確定互動控制資訊。   所述發送模組13,還用於將所述互動控制資訊發送至所述好友對應的機器人,以控制所述好友對應的機器人執行對應的互動操作。   可選地,所述感知資料中包括彩色圖像,所述確定模組18具體用於:   對所述彩色圖像進行人臉表情識別;從預設表情庫中確定與識別出的人臉表情對應的表情物件,所述互動控制資訊中包括所述表情物件。   可選地,所述感知資料中包括深度圖像,所述確定模組18具體用於:   對所述深度圖像進行骨骼識別,以獲得所述用戶的關節姿態資訊;確定與所述用戶的關節姿態資訊對應的機器人關節姿態資訊,所述互動控制資訊中包括所述機器人關節姿態資訊。   可選地,所述感知資料中包括觸摸傳感資訊,所述確定模組18具體用於:   確定與所述觸摸傳感資訊對應的燈控資訊,所述互動控制資訊中包括所述燈控資訊。   可選地,所述感知資料中包括互動語音,所述互動控制資訊中包括所述互動語音。   圖4所示裝置可以執行圖1a-圖3a所示實施例的方法,本實施例未詳細描述的部分,可參考對圖1a-圖3a所示實施例的相關說明。該技術方案的執行過程和技術效果參見圖1a-圖3a所示實施例中的描述,在此不再贅述。   以上描述了機器人互動裝置的內部功能和結構,在一個可能的設計中,上述互動裝置的結構可實現為一電子設備,該電子設備可以為機器人,如圖5所示,該機器人可以包括:處理器21和記憶體22。其中,所述記憶體22用於儲存支援機器人執行上述圖1a-圖3a所示實施例中提供的互動方法的程式,所述處理器21被配置為用於執行所述記憶體22中儲存的程式。   所述程式包括一條或多條電腦指令,其中,所述一條或多條電腦指令被所述處理器21執行時能夠實現如下步驟:   播放用戶選擇的直播內容;   獲取所述用戶在觀看所述直播內容時的情緒資訊;   將所述情緒資訊發送至所述直播內容對應的主播端;   播放所述主播端發出的與所述情緒資訊對應的互動內容。   可選地,所述處理器21還用於執行前述圖1a-圖3a所示方法步驟中的全部或部分步驟。   其中,所述機器人的結構中還可以包括通信介面23,用於機器人與其他設備或通信網路通信,比如機器人與伺服器的通信。   另外,機器人中還可以包括:音訊元件24、感測器元件25。   其中,音訊元件24被配置為輸出和/或輸入音訊信號。例如,音訊元件24包括一個麥克風(MIC),當機器人處於操作模式,如語音辨識模式時,麥克風被配置為接收外部音訊信號。所接收的音訊信號可以被進一步儲存在記憶體22或經由通信介面23發送。在一些實施例中,音訊元件24還包括一個揚聲器,用於輸出音訊信號。   其中,感測器元件25包括一個或多個感測器。例如,感測器元件25包括機器人的顯示器,感測器元件25還可以檢測用戶與機器人接觸的存在或不存在等。感測器元件25可以包括光感測器,如CMOS或CCD圖像感測器,用於在成像應用中使用。在一些實施例中,該感測器元件25還可以包括加速度感測器,陀螺儀感測器,磁感測器,壓力感測器或溫度感測器等。   另外,本發明實施例提供的機器人具備多自由度的活動靈活性。   另外,本發明實施例提供了一種電腦儲存媒體,用於儲存機器人所用的電腦軟體指令,其包含用於執行上述圖1a-圖3a所示實施例中的互動方法所涉及的程式。   圖6為本發明實施例提供的再一種互動方法的流程圖,本實施例提供的該互動方法可以由一互動裝置來執行,該互動裝置可以實現為軟體,或者實現為軟體和硬體的組合,該互動裝置可以設置在主播用戶端中,該主播用戶端可以安裝於用戶終端設備比如智慧手機中,也可以安裝在智慧型機器人中。如圖6所示,可以包括如下步驟:   401、接收用戶的機器人發送的情緒資訊,所述情緒資訊反映了用戶在觀看主播端對應的直播內容時的情緒。   402、將主播根據所述情緒資訊觸發的互動內容發送至用戶的機器人。   參見前述各方法實施例中所介紹的,兒童用戶可以透過兒童機器人來觀看主播的直播內容,並且,該兒童機器人可以採集兒童用戶在觀看直播內容過程中的情緒資訊,將獲得的情緒資訊回饋至主播,以使得主播觸發相應的互動內容實現與兒童用戶的互動。   圖7為與圖6所示實施例對應的一種互動裝置的結構示意圖,如圖7所示,該裝置包括:接收模組31、發送模組32。   接收模組31,用於接收用戶的機器人發送的情緒資訊,所述情緒資訊反映了所述用戶在觀看所述主播端對應的直播內容時的情緒。   發送模組32,用於將主播根據所述情緒資訊觸發的互動內容發送至所述機器人。   圖7所示裝置可以執行圖6所示實施例的方法,本實施例未詳細描述的部分,可參考對圖6所示實施例的相關說明。該技術方案的執行過程和技術效果參見圖6所示實施例中的描述,在此不再贅述。   在一個可能的設計中,圖7所示互動裝置的結構可實現為一電子設備,該電子設備為用戶終端設備,比如智慧手機,如圖8所示,該用戶終端設備可以包括:處理器41和記憶體42。其中,所述記憶體42用於儲存支援用戶終端設備執行上述圖6所示實施例中提供的互動方法的程式,所述處理器41被配置為用於執行所述記憶體42中儲存的程式。   所述程式包括一條或多條電腦指令,其中,所述一條或多條電腦指令被所述處理器41執行時能夠實現如下步驟:   接收用戶的機器人發送的情緒資訊,所述情緒資訊反映了所述用戶在觀看所述主播端對應的直播內容時的情緒;   將主播根據所述情緒資訊觸發的互動內容發送至所述機器人。   可選地,所述處理器41還用於執行前述圖6所示方法步驟中的全部或部分步驟。   其中,所述用戶終端設備的結構中還可以包括通信介面43,用於用戶終端設備與其他設備或通信網路通信。   另外,本發明實施例提供了一種電腦儲存媒體,用於儲存用戶終端設備所用的電腦軟體指令,其包含用於執行上述圖6所示方法實施例中互動方法所涉及的程式。   圖9為本發明實施例提供的一種互動方法的互動流程圖,如圖9所示,可以包括如下步驟:   501、機器人A識別出當前的用戶為兒童用戶,顯示與兒童用戶對應的直播內容選擇頁面,以供用戶選擇直播內容。   502、機器人A透過觀看用戶端播放用戶選擇的直播內容。   503、機器人A獲取用戶在觀看直播內容時的情緒資訊。   504、機器人A根據用戶情緒資訊控制自身的回饋元件執行對應的互動操作。   505、機器人A將用戶情緒資訊發送至直播內容對應的主播用戶端。   506、主播用戶端將主播根據用戶情緒資訊觸發的互動內容發送至機器人A。   507、機器人A透過觀看用戶端播放互動內容。   508、回應於用戶從觀看者清單中對好友的選擇操作,機器人A採集反映用戶互動行為的感知資料,並根據感知資料確定互動控制資訊。   509、機器人A將互動控制資訊發送至好友對應的機器人B。   510、機器人B根據互動控制資訊執行對應的互動操作。   以上所描述的裝置實施例僅僅是示意性的,其中所述作為分離部件說明的單元可以是或者也可以不是實體上分開的,作為單元顯示的部件可以是或者也可以不是實體單元,即可以位於一個地方,或者也可以分佈到多個網路單元上。可以根據實際的需要選擇其中的部分或者全部模組來實現本實施例方案的目的。本領域普通技術人員在不付出創造性的勞動的情況下,即可以理解並實施。   透過以上的實施方式的描述,本領域的技術人員可以清楚地瞭解到各實施方式可借助加必需的通用硬體平臺的方式來實現,當然也可以透過硬體和軟體結合的方式來實現。基於這樣的理解,上述技術方案本質上或者說對現有技術做出貢獻的部分可以以電腦產品的形式體現出來,本發明可採用在一個或多個其中包含有電腦可用程式碼的電腦可用儲存媒體(包括但不限於磁碟記憶體、CD-ROM、光學記憶體等)上實施的電腦程式產品的形式。   本發明是參照根據本發明實施例的方法、設備(系統)、和電腦程式產品的流程圖和/或方塊圖來描述的。應理解可由電腦程式指令實現流程圖和/或方塊圖中的每一流程和/或方塊、以及流程圖和/或方塊圖中的流程和/或方塊的結合。可提供這些電腦程式指令到通用電腦、專用電腦、嵌入式處理機或其他可程式設計資料處理設備的處理器以產生一個機器,使得透過電腦或其他可程式設計資料處理設備的處理器執行的指令產生用於實現在流程圖一個流程或多個流程和/或方塊圖一個方塊或多個方塊中指定的功能的裝置。   這些電腦程式指令也可儲存在能引導電腦或其他可程式設計資料處理設備以特定方式工作的電腦可讀記憶體中,使得儲存在該電腦可讀記憶體中的指令產生包括指令裝置的製造品,該指令裝置實現在流程圖一個流程或多個流程和/或方塊圖一個方塊或多個方塊中指定的功能。   這些電腦程式指令也可裝載到電腦或其他可程式設計資料處理設備上,使得在電腦或其他可程式設計設備上執行一系列操作步驟以產生電腦實現的處理,從而在電腦或其他可程式設計設備上執行的指令提供用於實現在流程圖一個流程或多個流程和/或方塊圖一個方塊或多個方塊中指定的功能的步驟。   在一個典型的配置中,計算設備包括一個或多個處理器(CPU)、輸入/輸出介面、網路介面和記憶體。   記憶體可能包括電腦可讀媒體中的非永久性記憶體,隨機存取記憶體(RAM)和/或非易失性記憶體等形式,如唯讀記憶體(ROM)或快閃記憶體(flash RAM)。記憶體是電腦可讀媒體的示例。   電腦可讀媒體包括永久性和非永久性、可移動和非可移動媒體可以由任何方法或技術來實現資訊儲存。資訊可以是電腦可讀指令、資料結構、程式的模組或其他資料。電腦的儲存媒體的例子包括,但不限於相變記憶體(PRAM)、靜態隨機存取記憶體(SRAM)、動態隨機存取記憶體(DRAM)、其他類型的隨機存取記憶體(RAM)、唯讀記憶體(ROM)、電可擦除可程式設計唯讀記憶體(EEPROM)、快閃記憶體或其他記憶體技術、唯讀光碟唯讀記憶體(CD-ROM)、數位多功能光碟(DVD)或其他光學儲存、磁盒式磁帶,磁帶磁磁片儲存或其他磁性存放裝置或任何其他非傳輸媒體,可用於儲存可以被計算設備存取的資訊。按照本文中的界定,電腦可讀媒體不包括暫存電腦可讀媒體(transitory media),如調變的資料信號和載波。   最後應說明的是:以上實施例僅用以說明本發明的技術方案,而非對其限制;儘管參照前述實施例對本發明進行了詳細的說明,本領域的普通技術人員應當理解:其依然可以對前述各實施例所記載的技術方案進行修改,或者對其中部分技術特徵進行等同替換;而這些修改或者替換,並不使相應技術方案的本質脫離本發明各實施例技術方案的精神和範圍。
11‧‧‧播放模組
12‧‧‧獲取模組
13‧‧‧發送模組
14‧‧‧控制模組
15‧‧‧識別模組
16‧‧‧顯示模組
17‧‧‧採集模組
18‧‧‧確定模組
21‧‧‧處理器
22‧‧‧記憶體
23‧‧‧通信介面
24‧‧‧音訊元件
25‧‧‧感測器元件
31‧‧‧接收模組
32‧‧‧發送模組
41‧‧‧處理器
42‧‧‧記憶體
43‧‧‧通信介面
為了更清楚地說明本發明實施例或現有技術中的技術方案,下面將對實施例或現有技術描述中所需要使用的圖式作一簡單地介紹,顯而易見地,下面描述中的圖式是本發明的一些實施例,對於本領域普通技術人員來講,在不付出創造性勞動的前提下,還可以根據這些圖式獲得其他的圖式。   圖1a為本發明實施例提供的一種互動方法的流程圖;   圖1b為與圖1a所示實施例對應的互動過程示意圖;   圖2a為本發明實施例提供的另一種互動方法的流程圖;   圖2b為與圖2a所示實施例對應的互動過程示意圖;   圖3a為本發明實施例提供的又一種互動方法的流程圖;   圖3b-圖3e為與圖3a所示實施例對應的互動過程示意圖;   圖4為本發明實施例提供的一種互動裝置的結構示意圖;   圖5為與圖4所示互動裝置對應的電子設備的結構示意圖;   圖6為本發明實施例提供的再一種互動方法的流程圖;   圖7為與圖6所示實施例對應的一種互動裝置的結構示意圖;   圖8為與圖7所示互動裝置對應的電子設備的結構示意圖;   圖9為本發明實施例提供的一種互動方法的互動流程圖。

Claims (12)

  1. 一種互動方法,應用於機器人中,其特徵在於,包括:   播放用戶選擇的直播內容;   獲取該用戶在觀看該直播內容時的情緒資訊;   將該情緒資訊發送至該直播內容對應的主播端;   播放該主播端發出的與該情緒資訊對應的互動內容。
  2. 根據申請專利範圍第1項的方法,其中,該獲取該用戶在觀看該直播內容時的情緒資訊,包括:   對採集到的該用戶的圖像進行表情識別,以獲得反映該用戶情緒的表情;和/或,   對採集到的該用戶的語音進行語音辨識,以獲得反映該用戶情緒的語句。
  3. 根據申請專利範圍第1項的方法,其中,該方法還包括:   根據該情緒資訊控制該機器人的回饋組件執行對應的互動操作。
  4. 根據申請專利範圍第1至3項中任一項的方法,其中,該播放用戶選擇的直播內容之前,還包括:   識別該用戶是否為兒童用戶;   若是,則顯示與該兒童用戶對應的直播內容選擇頁面,以供該兒童用戶選擇該直播內容。
  5. 根據申請專利範圍第1至3項中任一項的方法,其中,該方法還包括:   回應於該用戶從觀看者清單中對好友的選擇操作,採集反映該用戶互動行為的感知資料;   根據該感知資料確定互動控制資訊;   將該互動控制資訊發送至該好友對應的機器人,以控制該好友對應的機器人執行對應的互動操作。
  6. 根據申請專利範圍第5項的方法,其中,該感知資料中包括彩色圖像,該根據該互動資料確定互動控制資訊,包括:   對該彩色圖像進行人臉表情識別;   從預設表情庫中確定與識別出的人臉表情對應的表情物件,該互動控制資訊中包括該表情物件。
  7. 根據申請專利範圍第5項的方法,其中,該感知資料中包括深度圖像,該根據該互動資料確定互動控制資訊,包括:   對該深度圖像進行骨骼識別,以獲得該用戶的關節姿態資訊;   確定與該用戶的關節姿態資訊對應的機器人關節姿態資訊,該互動控制資訊中包括該機器人關節姿態資訊。
  8. 根據申請專利範圍第5項的方法,其中,該感知資料中包括觸摸傳感資訊,該根據該互動資料確定互動控制資訊,包括:   確定與該觸摸傳感資訊對應的燈控資訊,該互動控制資訊中包括該燈控資訊。
  9. 根據申請專利範圍第5項的方法,其中,該感知資料中包括互動語音,該互動控制資訊中包括該互動語音。
  10. 一種電子設備,其特徵在於,包括記憶體和處理器;其中,   該記憶體用於儲存一條或多條電腦指令,其中,該一條或多條電腦指令被該處理器執行時實現如申請專利範圍第1至9項中任一項的互動方法。
  11. 一種互動方法,應用於主播端,其特徵在於,包括:   接收用戶的機器人發送的情緒資訊,該情緒資訊反映了該用戶在觀看該主播端對應的直播內容時的情緒;   將主播根據該情緒資訊觸發的互動內容發送至該機器人。
  12. 一種電子設備,其特徵在於,包括記憶體和處理器;其中,   該記憶體用於儲存一條或多條電腦指令,其中,該一條或多條電腦指令被該處理器執行時實現如申請專利範圍第11項的互動方法。
TW107127281A 2017-10-09 2018-08-06 互動方法和設備 TW201916005A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201710929662.0A CN109635616B (zh) 2017-10-09 2017-10-09 互动方法和设备
??201710929662.0 2017-10-09

Publications (1)

Publication Number Publication Date
TW201916005A true TW201916005A (zh) 2019-04-16

Family

ID=66051089

Family Applications (1)

Application Number Title Priority Date Filing Date
TW107127281A TW201916005A (zh) 2017-10-09 2018-08-06 互動方法和設備

Country Status (6)

Country Link
US (1) US20200413135A1 (zh)
EP (1) EP3696648A4 (zh)
JP (1) JP7254772B2 (zh)
CN (1) CN109635616B (zh)
TW (1) TW201916005A (zh)
WO (1) WO2019072104A1 (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019087478A1 (ja) * 2017-10-30 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN110677685B (zh) * 2019-09-06 2021-08-31 腾讯科技(深圳)有限公司 网络直播显示方法及装置
CN112733763B (zh) * 2021-01-15 2023-12-05 北京华捷艾米科技有限公司 人机语音交互的实现方法及装置、电子设备、存储介质
CN112887746B (zh) * 2021-01-22 2023-04-28 维沃移动通信(深圳)有限公司 直播互动方法及装置
CN113093914B (zh) * 2021-04-21 2022-10-28 广东电网有限责任公司电力科学研究院 一种基于vr的高临场视觉感知方法及装置
CN113438491B (zh) * 2021-05-28 2022-05-17 广州方硅信息技术有限公司 直播互动方法、装置、服务器及存储介质
CN113645473A (zh) * 2021-07-21 2021-11-12 广州心娱网络科技有限公司 一种气氛机器人的控制方法及系统
CN113784155A (zh) * 2021-08-12 2021-12-10 阿里巴巴达摩院(杭州)科技有限公司 基于直播间的数据处理方法及装置
CN113656638B (zh) * 2021-08-16 2024-05-07 咪咕数字传媒有限公司 一种观看直播的用户信息处理方法、装置及设备
CN114170356B (zh) * 2021-12-09 2022-09-30 米奥兰特(浙江)网络科技有限公司 线上路演方法、装置、电子设备及存储介质
CN114393582A (zh) * 2022-01-20 2022-04-26 深圳市注能科技有限公司 一种机器人及其控制方法、系统及存储设备
CN115278286A (zh) * 2022-08-02 2022-11-01 抖音视界有限公司 一种信息处理方法及装置
CN116271786B (zh) * 2023-02-08 2023-10-13 广州市邦杰软件科技有限公司 一种动漫游戏机的界面交互控制方法及装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11126017A (ja) * 1997-08-22 1999-05-11 Sony Corp 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム
JP4556088B2 (ja) * 2001-05-02 2010-10-06 ソニー株式会社 画像処理システム、画像処理装置及びその制御方法
JP4014044B2 (ja) * 2003-01-28 2007-11-28 株式会社国際電気通信基礎技術研究所 コミュニケーションロボットおよびそれを用いたコミュニケーションシステム
JP2008134992A (ja) * 2006-11-01 2008-06-12 Hitachi Ltd コンテンツダウンロード方法及び端末装置
JP2012155616A (ja) * 2011-01-27 2012-08-16 Panasonic Corp コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム
US9035743B2 (en) * 2011-12-01 2015-05-19 New York University Song selection based upon axial pen pressure
CN103209201A (zh) * 2012-01-16 2013-07-17 上海那里信息科技有限公司 基于社交关系的虚拟化身互动系统和方法
CN103531216A (zh) * 2012-07-04 2014-01-22 瀚宇彩晶股份有限公司 影音播放装置以及方法
US20140095504A1 (en) * 2012-09-28 2014-04-03 United Video Properties, Inc. Systems and methods for cataloging user-generated content
US20150326922A1 (en) * 2012-12-21 2015-11-12 Viewerslogic Ltd. Methods Circuits Apparatuses Systems and Associated Computer Executable Code for Providing Viewer Analytics Relating to Broadcast and Otherwise Distributed Content
US10019060B2 (en) * 2014-01-30 2018-07-10 Duane Matthew Cash Mind-controlled virtual assistant on a smartphone device
JP6129119B2 (ja) * 2014-06-04 2017-05-17 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理システム、撮像装置、および画像処理方法
JP6351528B2 (ja) * 2014-06-05 2018-07-04 Cocoro Sb株式会社 行動制御システム及びプログラム
CN107000210A (zh) * 2014-07-15 2017-08-01 趣普科技公司 用于提供持久伙伴装置的设备和方法
CN105045115B (zh) * 2015-05-29 2018-08-07 四川长虹电器股份有限公司 一种控制方法及智能家居设备
CN105511260B (zh) * 2015-10-16 2018-08-21 深圳市天博智科技有限公司 一种幼教陪伴型机器人及其交互方法和系统
CN105898509A (zh) * 2015-11-26 2016-08-24 乐视网信息技术(北京)股份有限公司 一种实现播放视频时的交互方法及系统
CN106874265B (zh) * 2015-12-10 2021-11-26 深圳新创客电子科技有限公司 一种与用户情绪匹配的内容输出方法、电子设备及服务器
CN106412710A (zh) * 2016-09-13 2017-02-15 北京小米移动软件有限公司 直播中通过图形标签进行信息交互的方法及装置
CN106791893B (zh) * 2016-11-14 2020-09-11 北京小米移动软件有限公司 视频直播方法及装置
CN106878820B (zh) * 2016-12-09 2020-10-16 北京小米移动软件有限公司 直播互动方法及装置
CN106625678B (zh) * 2016-12-30 2017-12-08 首都师范大学 机器人表情控制方法和装置
CN107053191B (zh) * 2016-12-31 2020-05-08 华为技术有限公司 一种机器人,服务器及人机互动方法
CN107071584B (zh) * 2017-03-14 2019-12-24 北京潘达互娱科技有限公司 直播连麦方法及装置
CN107197384B (zh) * 2017-05-27 2019-08-02 北京光年无限科技有限公司 应用于视频直播平台的虚拟机器人多模态交互方法和系统

Also Published As

Publication number Publication date
US20200413135A1 (en) 2020-12-31
JP2020537206A (ja) 2020-12-17
CN109635616A (zh) 2019-04-16
WO2019072104A1 (zh) 2019-04-18
JP7254772B2 (ja) 2023-04-10
CN109635616B (zh) 2022-12-27
EP3696648A1 (en) 2020-08-19
EP3696648A4 (en) 2021-07-07

Similar Documents

Publication Publication Date Title
TW201916005A (zh) 互動方法和設備
KR102306624B1 (ko) 지속적 컴패니언 디바이스 구성 및 전개 플랫폼
US11148296B2 (en) Engaging in human-based social interaction for performing tasks using a persistent companion device
JP7260221B2 (ja) ロボット対話方法およびデバイス
EP3095091B1 (en) Method and apparatus of processing expression information in instant communication
US20170206064A1 (en) Persistent companion device configuration and deployment platform
AU2017228574A1 (en) Apparatus and methods for providing a persistent companion device
WO2016011159A9 (en) Apparatus and methods for providing a persistent companion device
CN105723325A (zh) 使用因用户而异的语法的媒体项选择
JP2018014094A (ja) 仮想ロボットのインタラクション方法、システム及びロボット
US11074491B2 (en) Emotionally intelligent companion device
WO2016206645A1 (zh) 为机器装置加载控制数据的方法及装置
US20230274743A1 (en) Methods and systems enabling natural language processing, understanding, and generation
WO2018183812A1 (en) Persistent companion device configuration and deployment platform
Zikky et al. Utilizing Virtual Humans as Campus Virtual Receptionists
CN118176735A (zh) 用于动态头像的系统和方法