CN108174293A - 信息处理方法及装置、服务器及存储介质 - Google Patents
信息处理方法及装置、服务器及存储介质 Download PDFInfo
- Publication number
- CN108174293A CN108174293A CN201711252490.4A CN201711252490A CN108174293A CN 108174293 A CN108174293 A CN 108174293A CN 201711252490 A CN201711252490 A CN 201711252490A CN 108174293 A CN108174293 A CN 108174293A
- Authority
- CN
- China
- Prior art keywords
- information
- mood
- live streaming
- main broadcaster
- period
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 32
- 238000003672 processing method Methods 0.000 title claims abstract description 25
- 238000003860 storage Methods 0.000 title claims abstract description 20
- 230000036651 mood Effects 0.000 claims abstract description 177
- 230000002996 emotional effect Effects 0.000 claims abstract description 35
- 230000008451 emotion Effects 0.000 claims description 63
- 238000004590 computer program Methods 0.000 claims description 12
- 238000000034 method Methods 0.000 claims description 12
- 230000005540 biological transmission Effects 0.000 claims description 7
- 230000008921 facial expression Effects 0.000 claims description 5
- 230000000875 corresponding effect Effects 0.000 description 61
- 208000001491 myopia Diseases 0.000 description 18
- 238000012549 training Methods 0.000 description 14
- 230000002452 interceptive effect Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000012512 characterization method Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003997 social interaction Effects 0.000 description 3
- 241000406668 Loxodonta cyclotis Species 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000003130 cardiopathic effect Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000009331 sowing Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/258—Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
- H04N21/25866—Management of end-user data
- H04N21/25891—Management of end-user data being end-user preferences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8106—Monomedia components thereof involving special audio data, e.g. different tracks for different languages
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Networks & Wireless Communication (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例公开了一种信息处理方法及装置、服务器及存储介质。应用于服务器中的信息处理方法,可包括:接收终端设备提供的采集信息,其中,所述采集信息包括用于供所述服务器识别目标对象的情绪的信息;利用识别模型识别所述采集信息,确定出所述目标对象的情绪信息;确定与所述情绪信息匹配的待输出信息;将所述待输出信息传输给所述终端设备,其中,所述待输出信息,用于供所述终端设备的信息输出。
Description
技术领域
本发明涉及信息技术领域,尤其涉及一种信息处理方法及装置、服务器及存储介质。
背景技术
随着信息技术的发展,用户使用电子设备进行消费、娱乐以及社交等。例如,网络直播系统是一种将采集设备当前在现场采集的信息,同步到网络并由网络分发到接收端,供接收端观看的信息交互系统。通常情况下,接收端可以实时观测到直播端的现场场景,例如,直播现场的人和物的变化。通常情况下将参与直播的主持人等称之主播。
在现有技术中,在社交或观看直播时,观看者实质上可能由于不够了解主播或对方,不能精确的判断出主播或对方的情绪,不能及时的根据主播或对方情绪给出相应的反映。且若需要给出主播或对方以鼓励时,需要用户手动输入文字、语音或者表情来实现,故操作繁琐。如此,会导致参与直播或社交的双方的使用体验并不够好。
发明内容
有鉴于此,本发明实施例期望提供一种信息处理方法及装置、服务器及存储介质,至少部分解决上述问题。
为达到上述目的,本发明的技术方案是这样实现的:
第一方面,本发明实施例提供一种信息处理方法,应用于服务器中,包括:
接收终端设备提供的采集信息,其中,所述采集信息包括用于供所述服务器识别目标对象的情绪的信息;
利用识别模型识别所述采集信息,确定出所述目标对象的情绪信息;
确定与所述情绪信息匹配的待输出信息;
将所述待输出信息传输给所述终端设备,其中,所述待输出信息,用于供所述终端设备的信息输出。
可选地,所述接收终端设备采集的采集信息,包括:
接收所述终端设备在第一时段内采集的所述采集信息,其中,所述第一时段包括一个或多个连续分布的预设周期;
所述利用识别模型识别所述采集信息,确定出所述目标对象的情绪信息,包括:
利用所述识别模型识别所述第一时段内采集的所述采集信息,确定出所述预设周期对应的第一情绪值;
基于所述预设周期对应的第一情绪值,计算所述第一时段对应的第二情绪值;
所述确定与所述情绪信息匹配的待输出信息,包括:
确定出与所述第二情绪值对应的所述待输出信息。
可选地,所述方法还包括:
确定需要进行情绪识别的所述目标对象;
所述确定需要进行情绪识别的所述目标对象,包括:
根据直播配置信息,确定出需要进行情绪识别的对象标识;其中,所述对象标识包括:直播标识和/或主播标识;其中所述直播标识,用于标识直播频道和/或直播间;
根据所述直播标识,确定所述直播标识对应的直播频道和/或直播间的当前主播为所述目标对象,和/或,确定所述主播标识指向的主播为所述目标对象。
可选地,所述根据直播配置信息,确定出需要进行情绪识别的对象标识,包括以下至少之一:
确定所述直播标识是否位于预先配置的第一预设名单中,若所述直播标识位于所述第一预设名单中,则确定为需要进行情绪识别的直播标识;
确定所述主播标识是否位于预先配置的第二预设名单中,若所述直播标识位于所述第二预设名单中,则确定为需要进行情绪识别的主播标识;
确定所述直播标识是否位于预先配置的第三预设名单中,若所述直播标识不位于所述第三预设名单中,则确定为需要进行情绪识别的直播标识;
确定所述主播标识是否位于预先配置的第四预设名单中,若所述直播标识不位于所述第四预设名单中,则确定为需要进行情绪识别的主播标识;
确定所述直播标识的第一配置等级是否高于预设的第一等级阈值,若所述第一配置等级高于所述第一等级阈值,则确定所述直播标识为需要进行情绪识别的直播标识;
确定所述主播标识的第二配置等级是否高于预设的第二等级阈值,若所述第二配置等级高于所述第二等级阈值,则确定所述主播标识为需要进行情绪识别的主播标识。
可选地,所述采集信息包括:图像信息和/或音频信息;
所述利用识别模型识别所述采集信息,确定出所述目标对象的情绪信息,包括:
利用识别模型识别所述图像信息,确定出所述目标对象的面部表情对应的所述情绪信息;
和/或,
利用识别模型识别所述音频信息,确定出所述目标对象的语音语调对应的所述情绪信息。
可选地,所述接收终端设备提供的采集信息,包括:
接收直播设备提供的采集信息。
本发明实施例第二方面提供一种信息处理装置,应用于服务器中,包括:
接收单元,用于接收终端设备提供的采集信息,其中,所述采集信息包括用于供所述服务器识别目标对象的情绪的信息;
识别单元,用于利用识别模型识别所述采集信息,确定出所述目标对象的情绪信息;
确定单元,用于确定与所述情绪信息匹配的待输出信息;
传输单元,用于将所述待输出信息传输给所述终端设备,其中,所述待输出信息,用于供所述终端设备的信息输出。
可选地,所述接收单元,具体用于接收所述终端设备在第一时段内采集的所述采集信息,其中,所述第一时段包括一个或多个连续分布的预设周期;
所述识别单元,具体用于利用所述识别模型识别所述第一时段内采集的所述采集信息,确定出所述预设周期对应的第一情绪值;基于所述预设周期对应的第一情绪值,计算所述第一时段对应的第二情绪值;
所述确定单元,具体用于确定出与所述第二情绪值对应的所述待输出信息。
本发明实施例第三方面提供一种服务器,包括:收发器、存储器、处理器及存储在所述存储器上并由所述处理器执行的计算机程序;
所述处理器,分别与所述收发器及存储器连接,用于通过执行所述计算机程序执行一个或多个技术方案提供的信息处理方法。
本发明实施例第四方面提供一种计算机存储介质,所述计算机存储介质存储有计算机程序;所述计算机程序被执行后,能够执行一个或多个技术方案提供的信息处理方法。
本发明实施例提供的信息处理方法及装置、服务器及存储介质,在接收到终端设备提供的采集信息之后,会自动对采集信息进行识别,从而获得目标对象的情绪信息,然后将与情绪信息匹配的待输出信息传输到终端设备,供终端设备的信息输出,以调节目标对象的情绪,从而显然不需要另一个用户来识别目标对象的情绪,也不需要另一个用户来手动输入调节目标对象的待输出内容,故简化了用户操作,提升了设备的智能性及用户体验。
附图说明
图1为本发明实施例提供的第一种信息处理方法的流程示意图;
图2为本发明实施例提供的第二种信息处理方法的流程示意图;
图3为本发明实施例提供的第三种信息处理方法的流程示意图;
图4为本发明实施例提供的一种信息处理装置的结构示意图;
图5为本发明实施例提供的一种服务器的结构示意图;
图6为本发明实施例提供的第四种信息处理方法的流程示意图。
具体实施方式
以下结合说明书附图及具体实施例对本发明的技术方案做进一步的详细阐述。
如图1所示,本发明实施例提供一种信息处理方法,应用于服务器中,包括:
步骤S110:接收终端设备提供的采集信息,其中,所述采集信息包括用于供所述服务器识别目标对象的情绪的信息;
步骤S120:利用识别模型识别所述采集信息,确定出所述目标对象的情绪信息;
步骤S130:确定与所述情绪信息匹配的待输出信息;
步骤S140:将所述待输出信息传输给所述终端设备,其中,所述待输出信息,用于供终端设备的信息输出。
本实施例提供的信息处理方法可为应用于处于网络中的服务器的信息处理方法。
所述服务器可为可以提供各种服务的电子设备。例如,所述服务器可为提供直播服务的直播服务器,所述服务器还可为提供社交服务的社交服务器。所述服务器至少可以用于中转服务提供中的数据传输,或者,控制服务的提供。
例如,在直播系统中,两个终端设备通过直播服务器进行直播数据的交互。所述直播服务器将从一个终端接收的直播数据,发送给另一个终端,供另一个终端进行输出。
又例如,在社交系统中,两个终端设备可以通过社交服务器中转社交数据。
这样的话,服务器会接收到终端设备采集的信息,在本实施例中,这种采集的信息可称之为采集信息,该采集信息可包括:各种类型的信息、例如,图像信息、文本信息和/或音频信息,图像信息可供电子设备进行图像显示,所述音频信息可供电子设备音频输出。
在一些实施例中,所述终端设备还可包含有或连接有可用于体征信号采集的传感器的设备。例如,所述终端设备可为手机,手机与智能手环建立有连接,智能手环可以采集用户的心跳,而用户(即所述目标对象)的心跳在一定程度上反映了用户的情绪。故终端设备可以采集表征用户心情的各种体征信号,所述体征信号除了所述心跳信息以外,还可以是血压变化信息和/或呼吸信号信息。总之,在本实施例中,所述采集信息可为反映目标对象的情绪或情绪变化的各种信息。而这些体征信号,可以以文本的形式或其他数据格式传输给所述服务器。
在接收待所述采集信息之后,服务器利用识别模型识别采集信息。在本实施例中所述识别模型可为各种预先建立的,以所述采集信息为输入,以表征目标对象的情绪或情绪变化的情绪信息为输出的处理模型。该识别模型可为利用大数据训练形成的神经网络、二叉树或向量学习机等模型。
在一些实施例中,利用识别模型识别所述采集信息,可以直接输出情绪标签,该情绪标签,可以为“开心”、“不开心”、“平静”、“激动”、“紧张”等一个或多个直接反映情绪类型的标签。
在另一个实施例中,利用识别模型识别采集信息,输出的可能是一个对应于情绪的数值,例如,输出数值A表征开心,输出B表征不开心等。
在本实施例中,所述识别模型可以通过概率预测的方式,选择出概率最高对应的情绪标签或表征情绪的数值。
在步骤S130中,会选择出与所述情绪信息匹配的待输出信息。例如,所述服务器中预先建立了情绪信息与待输出信息之间的对应关系,在确定出当前目标对象的情绪信息之后,以情绪信息为查询依据查询所述对应关系,然后就可以知道当前需要输出的待输出信息是哪一个。
在本实施例中,所述待输出信息,可用于调节所述目标对象的情绪。
在步骤S140中会将待输出信息返回给终端设备,终端设备在接收到该待输出信息之后,会基于待输出信息进行信息输出。
例如,所述待输出信息可包括:待输出内容;服务器直接将待输出内容下发给终端设备,终端设备输出该待输出内容。例如,所述待输出内容可包括显示信息,则终端设备可以通过显示屏显示或投影仪投影等方式展示显示内容。所述待输出内容还包括:音频内容,则所述终端设备可以通过音频播放的方式,输出所述音频内容。所述待输出内容,可为:单张的图像信息、单个的文本信息、音频信息,还可以是视频等各种可以供终端设备输出的信息。
又例如,所述待输出信息可包括:待输出内容的内容标识;服务器将所述内容标识发送给终端设备,终端设备自行根据内容标识查找到所述待输出内容,例如,终端设备在本地缓存中查找到待输出内容,输出该待输出内容,以调节目标对象的情绪。
在一些实施例中,所述待输出内容可为特效;所述特效可为达到某种特定效果制作的信息,例如,模拟烟花的烟花特效。所述特效可为视频、动画等各种信息。特效输出之后,会调节用户的情绪。例如,输出一个具有搞笑功能的特效,情绪低落的用户可能会变得开心一下,从而达到调节用户(即目标对象)的情绪的效果。
综合上述,在本实施例中所述服务器,会基于终端上报的采集信息自动进行情绪识别,然后基于识别的情绪向终端下发对应的待输出信息,从而达到调节特定用户(即目标对象)情绪的效果。这样的话,不需要参与该终端进行信息交互的另一端的用户来识别情绪,也不需要另一个用户来手动输入调整该用户情绪的信息,显然一方面系统的智能性提高了,简化了另一个用户的操作,提升了用户的体验。与此同时,若用户A不熟悉用户B,是很难以精确判断用户B的情绪,这样很容易造成主观上的误解或偏差,而在本发明实施例中,利用基于数学模型等识别模型来识别情绪,显然可以去除人为偏差,从而可以确保情绪识别的精确性,从而使得终端设备的输出信息真正能够调节目标对象的情绪,实现情绪调节的精确化。
在一些实施例中,所述步骤S110可包括:
接收所述终端设备在第一时段内采集的所述采集信息,其中,所述第一时段包括一个或多个连续分布的预设周期。
在本实施例中,所述第一时段可为当前时刻以前的一个历史时间端。该第一时段可包括一个或多个预设周期,该预设周期可为情绪识别的一个最小时间单位。步骤S130中确定出的待输出信息,可在第二时段输出,第二时段是晚于第一时段的,第二时段可为当前时刻以后的一个时段。由于目标对象的情绪变化在时间上是具有关联性的,大部分时候是不会突变的,而在本实施例中可认为基于第一时段的采集信息得到的情绪信息,实质上可认为第二时段的预测情绪信息。
第二时段可为所述待输出信息的作用时间范围,若该时间段过后,对应的待输出信息就无效。在第二时段内,所述终端设备可以根据输出策略,在第二时段内进行一次或多次待输出内容的输出,从而调节目标对象的情绪。这样的话,服务器的一次情绪识别,可以用于待输出内容的多次输出,减少了服务器的情绪识别、信息匹配等操作,降低服务器的负载率。
进一步地,所述步骤S120可包括:
利用所述识别模型识别所述第一时段内采集的所述采集信息,确定出所述预设周期对应的第一情绪值;基于所述预设周期对应的第一情绪值,计算所述第一时段对应的第二情绪值;
所述步骤S130可包括:确定出与所述第二情绪值对应的所述待输出信息。
在第一时段内有多个预设周期,在本实施例中,以一个预设周期为识别粒度,识别对应预设周期内采集的采集信息,从而得到对应的第一情绪值。该第一情绪值可为表征情绪的数值。若当前第一时段有N个预设周期,则通过步骤S120的识别会得到N个第一情绪值,然后基于这N个第一情绪值,按照预设函数关系可以计算出第二情绪值。例如,对N个第一情绪值进行和计算的,则得到的第一情绪值的和,即为所述第二情绪值。
在另一些实施例中,第一时段的多个预设周期,在时间维度上离第二时段的距离是不同的,一般情况下,由于情绪变化的连续性,第一时段内越靠近第二时段预设周期的情绪对第二时段的情绪影响度越大,故在本实施例中,根据预设周期与第二时段在时域上的距离,设置计算权重。计算出预设周期与第二时段的时差,该时长与所述权重具有正相关关系。在计算所述第二情绪值时,先计算预设周期地的第一情绪值与对应权重的乘积,在结合乘积计算出所述第二情绪值。
为了确保第二情绪值的计算精确性,在一些实施例中,所述步骤S130可包括:
去除N个第一情绪值的异常值;
基于去除了异常值的第一情绪值计算所述第二情绪值,则此时,真正参与第二情绪值计算的第一情绪值可能小于N个。
所述去除N个第一情绪值的异常值,包括:
若第n个预设周期的第一情绪值,与第n-1个预设周期和第n+1个预设周期的第一情绪值的差异都大于差异阈值,则可确定第n个预设周期的第一情绪值为所述异常值;所述n为小于N的正整数;所述N为大于或等于2的正整整。
所述去除N个第一情绪值的异常值,还包括:
若第n个预设周期的第一情绪值,与第n-1个预设周期和第n+1个预设周期的第一情绪值的差异都大于第一差异阈值,且第n+1个预设周期和第n-1个预设周期的第一情绪值的差异小于第二差异阈值,则可确定第n个预设周期的第一情绪值为所述异常值。这里的,所述第一差异阈值和所述第二差异阈值可相等,也可以是所述第二差异阈值小于所述第一差异阈值。
可选地,如图2所示,所述方法还包括:
步骤S101:确定需要进行情绪识别的所述目标对象,则所述步骤S110可包括:接收终端设备发送的对目标对象采集的采集信息,或者,从终端设备发送的采集信息中确定出对所述目标对象采集形成的采集信息等。步骤S120中仅识别对目标对象采集得到的采集信息,从而排除目标对象以外的对象的采集信息的不必要识别。
所述目标对象可为参与直播的一端或多端的用户,也可以是参与社交的一方或多方用户。
具体如何确定目标对象,可以根据配置信息来确定。例如,在配置信息中设置了确定目标对象的确定策略,当某一个用户的用户信息满足所述确定策略限定的预设条件时,则认为该用户为所述目标对象。例如,在社交系统中,某一个用户的用户等级为特定等级,则可认为该用户满足所预设条件的目标对象。所述用户信息可包括:与用户身份相关的用户身份信息,和/或,与用户行为相关的用户行为信息、及与用户身体状况相关的用户状况信息。所述用户身份信息可包括:用户年纪、用户职业、用户性别等信息。所述用户行为信息可包括:用户当前执行的操作,例如,点播某一个视频,或者,某一个用户操作为导致其成为目标对象的操作。
例如,针对老年人或儿童需要关注其情绪,则可以根据用户年纪确定其是否为目标用户。
又例如,某一个用户为犯有心脏病的用户,则可以根据其身体状况信息,确定出犯有心脏病的用户可为所述目标对象。
以上仅是举例,具体实现时,不局限于上述任意一种。
以下以直播系统为例,描述如何确定目标对象。所述步骤S101可包括:
根据直播配置信息,确定出需要进行情绪识别的对象标识;其中,所述对象标识包括:直播标识和/或主播标识;其中所述直播标识,用于标识直播频道和/或直播间;
根据所述直播标识,确定所述直播标识对应的直播频道和/或直播间的当前主播为所述目标对象,和/或,确定所述主播标识指向的主播为所述目标对象。
所述直播标识可为直播频道的频道标识,或,直播间的房间标识。不管当前使用该直播频道或直播间的当前主播是谁,其都是本发明实施例被对象标识所指向的目标对象。
所述对象标识还可以直接是主播标识,例如,每一个主播都有其特定的账号,该账号就可以作为主播标识,只要该主播上线开始进行直播,则其需要进行情绪监控的目标对象。
例如,所述根据直播配置信息,确定出需要进行情绪识别的对象标识,包括以下至少之一:
确定所述直播标识是否位于预先配置的第一预设名单中,若所述直播标识位于所述第一预设名单中,则确定为需要进行情绪识别的直播标识;
确定所述主播标识是否位于预先配置的第二预设名单中,若所述直播标识位于所述第二预设名单中,则确定为需要进行情绪识别的主播标识;
确定所述直播标识是否位于预先配置的第三预设名单中,若所述直播标识不位于所述第三预设名单中,则确定为需要进行情绪识别的直播标识;
确定所述主播标识是否位于预先配置的第四预设名单中,若所述直播标识不位于所述第四预设名单中,则确定为需要进行情绪识别的主播标识;
确定所述直播标识的第一配置等级是否高于预设的第一等级阈值,若所述第一配置等级高于所述第一等级阈值,则确定所述直播标识为需要进行情绪识别的直播标识;
确定所述主播标识的第二配置等级是否高于预设的第二等级阈值,若所述第二配置等级高于所述第二等级阈值,则确定所述主播标识为需要进行情绪识别的主播标识。
在本实施例中,所述第一预设名单和所述第二预设名单可为同一类名单,可以称之为白名单,即将需要进行情绪监控或识别的直播标识或主播标识设置在白名单中,通过白名单的匹配,确定出目标对象。在一些实施例中,所述第一预设名单可转为直播标识名单,所述第二预设标识可为们主播标识名单。在还有一些实施例中,所述第一预设名单和第二预设名单,可为同一个预设名单,该名单内可同时包括主播标识或直播标识。
在本实施例中,所述第三预设名单和所述第四预设名单可为同一类名单,可以称之为黑名单,即将不需要进行情绪监控或识别的直播标识或主播标识设置在黑名单中,通过黑名单的匹配,确定出在黑名单以外的直播频道或直播间的当前主播或主播为目标对象。在一些实施例中,所述第三预设名单可转为直播标识名单,所述第四预设标识可转为们主播标识名单。在还有一些实施例中,所述第三预设名单和第四预设名单,可为同一个预设名单,该名单内可同时包括主播标识或直播标识。
在一些实施例中可分别为直播标识和主播标识对应分配有配置等级,即上述第一配置等级和/或第二配置等级,这些等级可为表征需要进行情绪识别或监控的优先级,该优先级高于对应的阈值,则认为是目标对象的对象标识,否则就不是。
总之,在本发明实施例中确认目标对象的方式有多种,具体实现时不局限于上述任意一种。
可选地,所述采集信息包括:图像信息和/或音频信息;所述步骤S110可包括:利用识别模型识别所述图像信息,确定出所述目标对象的面部表情对应的所述情绪信息;和/或,利用识别模型识别所述音频信息,确定出所述目标对象的语音语调对应的所述情绪信息。
用户的面部表情以及用户说话的语音语调一定程度上反映了用户的情绪,故在本实施例中,可以利用图像信息(一张张的照片)或一段视频等进行人脸面部的表情识别,从而得到情绪信息。与此同时,还可以识别语音语调,从而确定出目标对象的情绪。
在本实施例中,识别图像信息和识别音频信息的识别模型,都可以是利用样本数据经过训练得到的识别模型。
可选地,所述步骤S110可包括:接收直播设备提供的采集信息。
如图3所示,在当前信息处理系统中,包括:多个通过服务器进行信息交互的终端设备。所述步骤S110中接收的采集信息,可为一个终端设备发送给另外一个终端设备的采集信息,例如,终端设备1发送给终端设备2的采集信息。所述服务器原定要中转所述采集信息,在中转所述采集信息的同时,在本地缓存目标对象的采集信息,进行目标对象的情绪识别。这样的话,服务器直接利用一个终端设备传输给另一个终端设备的采集信息进行情绪识别,所述终端设备不用专门采集用于目标对象情绪识别的信息,故终端设备操作简单,与现有技术的兼容性强。
本发明实施例还提供另一个信息处理方法,可应用于终端设备中,包括:
进行信息采集并形成采集信息,所述采集信息可包含用于目标对象的情绪识别的信息;
将所述采集信息发送给服务器;
接收服务器发送的待输出信息;其中,所述待输出信息为与基于采集信息的情绪识别产生的情绪信息相匹配的信息。
根据所述待输出信息进行信息输出,例如,若所述待输出信息包括输出内容,则直接输出待输出内容,若待输出信息包括:待输出内容的内容标识,则根据内容标识查找到待输出内容并输出。
在一些实施例中,所述采集信息可为发送给另一个终端设备的信息,该采集信息的数据包中携带有另一个终端的地址作为传输的目标地址,该采集信息通过所述服务器进行中转传输。
该采集终端可为直播终端和/或社交终端等。
如图4所示,本实施例提供一种信息处理装置,包括:
接收单元110,用于接收终端设备提供的采集信息,其中,所述采集信息包括用于供所述服务器识别目标对象的情绪的信息;
识别单元120,用于利用识别模型识别所述采集信息,确定出所述目标对象的情绪信息;
确定单元130,用于确定与所述情绪信息匹配的待输出信息;
传输单元140,用于将所述待输出信息传输给所述终端设备,其中,所述待输出信息,用于供所述终端设备的信息输出。
所述信息处理装置可为应用于服务器中的装置。所述接收单元110及传输单元140可对应于通信接口,该通信接口可为有线接口或无线接口,可以用于服务器与终端设备之间的信息交互。所述有线接口可为电缆接口或光缆接口,所述无线接口可为收发天线。
所述识别单元120及确定单元130,可对应于服务器中一个或多个处理器,所述处理器可为中央处理器、微处理器、数字信号处理器、应用处理器、可编程阵列或专用集成电路等,可以通过计算机程序或软件代码的执行,实现情绪识别和待输出信息的确定。
可选地,所述接收单元110,具体用于接收所述终端设备在第一时段内采集的所述采集信息,其中,所述第一时段包括一个或多个连续分布的预设周期;
所述识别单元120,具体用于利用所述识别模型识别所述第一时段内采集的所述采集信息,确定出所述预设周期对应的第一情绪值;基于所述预设周期对应的第一情绪值,计算所述第一时段对应的第二情绪值;
所述确定单元130,具体用于确定出与所述第二情绪值对应的所述待输出信息。
在本实施例中为了精确确定出目标对象的情绪,会同时识别多个预设周期的第一情绪值,然后基于第一情绪值得到第二情绪值,进行待输出信息的确定时,是通过与第二情绪值的匹配确定的。
所述信息处理装置还包括:
对象确认单元,可对应于处理器等,可用于确定需要进行情绪识别的所述目标对象;
所述确定单元130,可具体用于根据直播配置信息,确定出需要进行情绪识别的对象标识;其中,所述对象标识包括:直播标识和/或主播标识;其中所述直播标识,用于标识直播频道和/或直播间;根据所述直播标识,确定所述直播标识对应的直播频道和/或直播间的当前主播为所述目标对象,和/或,确定所述主播标识指向的主播为所述目标对象。
进一步地,所述对象确定单元130,可具体用于执行以下至少之一:
确定所述直播标识是否位于预先配置的第一预设名单中,若所述直播标识位于所述第一预设名单中,则确定为需要进行情绪识别的直播标识;
确定所述主播标识是否位于预先配置的第二预设名单中,若所述直播标识位于所述第二预设名单中,则确定为需要进行情绪识别的主播标识;
确定所述直播标识是否位于预先配置的第三预设名单中,若所述直播标识不位于所述第三预设名单中,则确定为需要进行情绪识别的直播标识;
确定所述主播标识是否位于预先配置的第四预设名单中,若所述直播标识不位于所述第四预设名单中,则确定为需要进行情绪识别的主播标识;
确定所述直播标识的第一配置等级是否高于预设的第一等级阈值,若所述第一配置等级高于所述第一等级阈值,则确定所述直播标识为需要进行情绪识别的直播标识;
确定所述主播标识的第二配置等级是否高于预设的第二等级阈值,若所述第二配置等级高于所述第二等级阈值,则确定所述主播标识为需要进行情绪识别的主播标识。
所述采集信息包括:图像信息和/或音频信息;所述识别单元120,具体用于利用识别模型识别所述图像信息,确定出所述目标对象的面部表情对应的所述情绪信息;和/或,利用识别模型识别所述音频信息,确定出所述目标对象的语音语调对应的所述情绪信息。
所述接收单元110,可具体用于接收直播设备提供的采集信息。
如图5所示,本实施例提供一种服务器,包括:收发器210、存储器220、处理器230及存储在所述存储器220上由所述处理器230执行的计算机程序;
所述处理器230,分别与所述收发器210及存储器220连接,用于通过执行所述计算机程序实现前述一个或多个技术方案提供的信息处理方法。
所述处理器220,分别与所述收发器210及存储器220连接,例如,通过集成电路总线IIC,分别与网络接口及存储器220连接。
所述处理器220,可用于通过执行所述计算机程序执行应用于服务器或终端设备中的信息处理方法中的一个或多个。
所述收发器210可为电缆接口或光缆接口等各种类型可用于通信的接口。
所述存储器220可为通信设备中包括存储介质的存储器220件,可为随机存储器220、只读存储器220、存储硬盘等。
所述处理器220可为各种类型的处理器,中央处理器、微处理器、应用处理器、可编程阵列或专用集成电路等。
本实施例还提供一种计算机存储介质,所述计算机存储介质存储有计算机程序;所述计算机程序被执行后能够实现前述一个或多个技术方案提供的信息处理方法。
所述计算机存储介质可为:移动存储设备、只读存储器(ROM,Read-Only Mem或y)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。可选为,所述计算机存储介质优选为非瞬间存储介质,或非易失性存储介质。
以下结合上述任意实施例提供几个具体示例:
如图6所示,本示例提供一种基于情绪识别的信息处理方法,包括:
步骤S1:选择可用于人脸情绪识别的识别模型;
步骤S2:对选择的识别模型进行训练;
步骤S3:确定出需要进行情绪识别的目标直播间和/或目标主播;
步骤S4:对目标直播间和/或目标主播是否进行开播检测;
步骤S5:当检测到目标直播间和/或目标主播开播时,利用训练号的识别模型识别目标直播间的当前主播和/或目标主播在第一时段内的情绪;
步骤S6:基于获取的上述主播在第一时段内的情绪来确定上述主播在第二时段内的情绪;
步骤S7:根据上述主播在第二时段内的情绪,调用响应的多媒体特效,并在主播客户端上输出该多媒体特效。
以下分别对上述每一个步骤进行描述:
所述步骤S1可如下:
在本示例中,服务器可以确定可用于人脸情绪识别的识别模型,其中,确定的可用于人脸情绪识别的模型可以为人工智能(Artificial Intelligence,AI)模型、深度学习网络算法,例如,可以为现有的ResNET算法模型、Faster-RCNN算法模型等。当然,本示例中确定的人脸情绪识别的模型可以为单一的AI模型,也可以为多个AI模型的组合,本示例对此不做限制。
在一些情况下,所述识别模型还可以是向量机等模型。
所述步骤S2可如下:
在确定了可用于人脸情绪识别的识别模型后,服务器可以对确定的模型进行训练。在训练过程中,利用训练样本进行模型训练。所述训练样本可包括:显示有人脸的视频帧或图像及该视频帧或图像对应的情绪或情绪值,进行所述识别模型的训练,在完成一次或多次训练之后,进行训练结果的检测,反复如此操作直到检测结果的误差小于预设值,则可认为识别模型完成训练。
例如,在训练的过程中,服务器可以根据人工上传的短视频以及与该短视频对应的基础信息来对上述确定的模型进行训练,其中,与该短视频对应的基础信息可以包括该短视频代表的情绪类别(可以使用对应的视频标签来进行标识)、该短视频中情绪的开始时间以及结束时间等。
在一个示例中,可以分别获取与不同的情绪对应的短视频,其中,该短视频可以为相关技术人员从现有的视频中裁剪获得,在获取了短视频后,相关技术人员可以对该短视频所代表的情绪类别进行标注。例如,可以预先设置与不同的情绪类别一一对应的视频标签,例如,高兴、悲伤等,然后,可以根据预先设置的视频标签对该短视频所代表的情绪类别进行标注。在对短视频所代表的情绪类别进行标注后,相关技术人员可以对该短视频中该被标注的情绪所对应的开始时间以及结束时间进行标注,例如,可以标注该短视频中开心的情绪对应的开始时间1分30秒以及结束时间1分40秒,以及标注该短视频中悲伤的情绪对应的开始时间2分10秒以及结束时间2分25秒等。在标注了该短视频对应的情绪类别以及标注了该短视频中情绪类别对应的开始时间以及结束时间后,相关技术人员可以将该短视频对应的标识信息,例如,链接地址信息,以及标注的情绪类别以及标注的开始时间以及结束时间输入至上述确定的模型中进行训练。
需要说明的是,相关技术人员确定的短视频中可以仅包括一种情绪类别,也可以包括多种情绪类别,本示例对此不做限制。类似地,在对上述确定的模型进行训练时,可以每次针对同一种情绪类别对其进行训练,也可以同时针对多种情绪类别对其进行训练,本示例对此同样不作限制。
同样需要说明的是,本示例中,可以先对短视频对应的情绪类别进行标注,再对该情绪类别的开始时间以及结束时间进行标注;也可以先对开始时间以及结束时间进行标注,然后,再对每一段由开始时间以及结束时间确定的时间段所对应的情绪类别进行标注,本示例对此不做限制。
所述步骤S3可包括:
在本示例中,服务器可以对需要进行情绪识别的目标直播间和/或目标主播进行确定。
在一个示例中,服务器可以将所有的目标直播间和/或目标主播确定为需要进行情绪识别的目标直播间和/或目标主播。
在另一个示例中,服务器可以预先设置直播白名单或黑名单,其中,直播白名单中可以包括需要进行情绪识别的目标直播间和/或目标主播;直播黑名单中可以包括不需要进行情绪识别的目标直播间和/或目标主播。服务器可以通过预先设置的直播白名单或直播黑名单来确定需要进行情绪识别的目标直播间和/或目标主播。
在再一个示例中,服务器可以预先设置等级阈值,并根据预先设置的等级阈值来确定需要进行情绪识别的目标直播间和/或目标主播,具体地,服务器可以将直播等级高于等级阈值的直播间和/或主播确定为需要进行情绪识别的目标直播间和/或目标主播。
需要说明的是,针对不同的类型的直播间和/或主播,服务器预先设置的等级阈值可以不同,其中,针对互动性较强的主播间和/或主播,服务器预先设置的等级阈值可以较小;针对互动性较弱的直播间和/或主播,服务器预先设置的等级阈值可以较大。故在一些情况下,会统计主播或直播间的互动信息,该互动信息客人为互动次数或互动次数,根据互动信息设置等级阈值,该等级阈值可以与互动频次或互动次数负相关。
在本示例中,服务器也可以同时设置等级阈值以及直播白名单或直播黑名单,然后,服务器可以根据设置的等级阈值以及直播白名单或直播黑名单来确定需要进行情绪识别的目标直播间和/或目标主播。
在一个示例中,可以假设服务器同时设置了等级阈值以及直播白名单,则服务器可以将直播白名单中的直播间和/或主播,以及直播等级高于等级阈值的直播间和/或主播确定为需要进行情绪识别的目标直播间和/或目标主播。
在另一个示例中,可以假设服务器同时设置了等级阈值以及直播黑名单,则服务器可以将直播等级高于等级阈值,且不在直播黑名单上的直播间和/或主播确定为需要进行情绪识别的目标直播间和/或目标主播。
所述步骤S5可包括:
在确定了目标直播间和/或目标主播后,服务器可以对目标直播间和/或目标主播是否开播进行监测,当监测到目标直播间和/或目标主播开播时,服务器可以获取上述训练的模型,并基于该模型来确定目标直播间当前的主播和/或目标主播在第一时段内的情绪,其中,第一时段的时长可以较短,例如可以为10秒。在本示例中,所述第一时段可包括一个或多个预设周期。
在一个示例中,可以假设第一时段为10秒,当监测到目标直播间和/或目标主播开播时,服务器可以获取上述训练的模型,以及将从开播时间开始每10秒内主播的面部图像输入至该训练的模型,并获取该训练模型的识别出的情绪。需要说明的是,在本示例中,服务器每次获取的该训练模型识别出的情绪有且只有一种。
在本示例中,在获取目标直播间的当前主播和/或目标主播在第一时段内的情绪后,可以根据获取的情绪确定当前第一时段对应的情绪值,其中,不同的情绪对应的情绪值不相同。
例如,在一个示例中,当获取的情绪为高兴时,则可以确定当前第一时段对应的情绪值为5,当获取的情绪为平静时,则可以确定当前第一时段对应的情绪值为0;当获取的情绪为沮丧时,则可以确定当前第一时段对应的情绪值为-2;当获取的情绪为生气时,则可以确定当前第一时段对应的情绪值为-5。
所述步骤S6可包括:
在本示例中,服务器在获取上述主播在多个连续的第一时段内的情绪后,可以确定上述主播在第二时段内的情绪,其中,第二时段可以包括多个连续的第一时段,例如,可以假设第一时段为10秒,则第二时段可以为1分钟。
在本示例中,在确定上述主播在第二时段内的情绪时,可以先获取上述主播在第二时段包括的所有第一时段内的情绪,然后,根据所有第一时段内的情绪来确定第二时段内的情绪。
在一个示例中,在确定上述主播在第二时段内的情绪时,可以先获取上述主播在第二时段包括的所有第一时段内的情绪,然后,根据上述主播在所有第一时段内的情绪确定所有第一时段对应的情绪值,服务器可以将所有第一时段对应的情绪值进行加和,得到第二时段包括的所有第一时段对应的情绪值的和值,在得到和值后,服务器可以获取预设的情绪和值与情绪的对应关系,然后根据该对应关系确定与该和值对应的情绪,从而可以实现对上述主播在第二时段内的情绪的确定。
在一个示例中,可以假设第二时段包括5个连续的第一时段,且上述主播在该5个第一时段内的情绪分别为:沮丧、平静、沮丧、沮丧以及生气,则该5个第一时段对应的情绪值分别为:-2、0、-2、-2以及-5,服务器可以将该5个情绪值进行加和,得到和值-11,然后,服务器可以获取预设的情绪和值与情绪的对应关系,可以假设预设的情绪和值与情绪的对应关系可以为:情绪和值大于等于3时,对应的情绪为开心;情绪和值小于3大于-3时,对应的情绪为平静;情绪和值小于等于-3时,对应的情绪为不开心。则由和值-11以及上述预设的情绪和值与情绪的对应关系可知,上述主播在第二时段内的情绪为不开心。
在确定了上述主播在第二时段内的情绪后,服务器可以将确定的上述主播在第二时段内的情绪作为上述主播当前的情绪。
所述步骤S7可包括:
在确定上述主播当前的情绪后,服务器可以调用与确定的情绪对应的特效,并将该特效显示在主播客户端。
在一个示例中,可以假设上述主播当前的情绪为不开心,则服务器可以调用与不开心对应的特效,例如,安慰的特效、拥抱的特效以及鼓励的特效等,然后,服务器可以在主播客户端上显示该特效。
需要说明的是,本示例中,服务器在调用了对应的特效后,可以在主播客户端上显示该特效的同时,在观众客户端上也显示该特效;也可以在主播客户端上显示该特效的同时,不在观众客户端上显示该特效,本示例对此不做限制。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理模块中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种信息处理方法,其特征在于,应用于服务器中,包括:
接收终端设备提供的采集信息,其中,所述采集信息包括用于供所述服务器识别目标对象的情绪的信息;
利用识别模型识别所述采集信息,确定出所述目标对象的情绪信息;
确定与所述情绪信息匹配的待输出信息;
将所述待输出信息传输给所述终端设备,其中,所述待输出信息,用于供所述终端设备的信息输出。
2.根据权利要求1所述的方法,其特征在于,
所述接收终端设备采集的采集信息,包括:
接收所述终端设备在第一时段内采集的所述采集信息,其中,所述第一时段包括一个或多个连续分布的预设周期;
所述利用识别模型识别所述采集信息,确定出所述目标对象的情绪信息,包括:
利用所述识别模型识别所述第一时段内采集的所述采集信息,确定出所述预设周期对应的第一情绪值;
基于所述预设周期对应的第一情绪值,计算所述第一时段对应的第二情绪值;
所述确定与所述情绪信息匹配的待输出信息,包括:
确定出与所述第二情绪值对应的所述待输出信息。
3.根据权利要求1或2所述的方法,其特征在于,所述方法还包括:
确定需要进行情绪识别的所述目标对象;
所述确定需要进行情绪识别的所述目标对象,包括:
根据直播配置信息,确定出需要进行情绪识别的对象标识;其中,所述对象标识包括:直播标识和/或主播标识;其中所述直播标识,用于标识直播频道和/或直播间;
根据所述直播标识,确定所述直播标识对应的直播频道和/或直播间的当前主播为所述目标对象,和/或,确定所述主播标识指向的主播为所述目标对象。
4.根据权利要求3所述的方法,其特征在于,
所述根据直播配置信息,确定出需要进行情绪识别的对象标识,包括以下至少之一:
确定所述直播标识是否位于预先配置的第一预设名单中,若所述直播标识位于所述第一预设名单中,则确定为需要进行情绪识别的直播标识;
确定所述主播标识是否位于预先配置的第二预设名单中,若所述直播标识位于所述第二预设名单中,则确定为需要进行情绪识别的主播标识;
确定所述直播标识是否位于预先配置的第三预设名单中,若所述直播标识不位于所述第三预设名单中,则确定为需要进行情绪识别的直播标识;
确定所述主播标识是否位于预先配置的第四预设名单中,若所述直播标识不位于所述第四预设名单中,则确定为需要进行情绪识别的主播标识;
确定所述直播标识的第一配置等级是否高于预设的第一等级阈值,若所述第一配置等级高于所述第一等级阈值,则确定所述直播标识为需要进行情绪识别的直播标识;
确定所述主播标识的第二配置等级是否高于预设的第二等级阈值,若所述第二配置等级高于所述第二等级阈值,则确定所述主播标识为需要进行情绪识别的主播标识。
5.根据权利要求1或2所述的方法,其特征在于,
所述采集信息包括:图像信息和/或音频信息;
所述利用识别模型识别所述采集信息,确定出所述目标对象的情绪信息,包括:
利用识别模型识别所述图像信息,确定出所述目标对象的面部表情对应的所述情绪信息;
和/或,
利用识别模型识别所述音频信息,确定出所述目标对象的语音语调对应的所述情绪信息。
6.根据权利要求1或2所述的方法,其特征在于,
所述接收终端设备提供的采集信息,包括:
接收直播设备提供的采集信息。
7.一种信息处理装置,其特征在于,应用于服务器中,包括:
接收单元,用于接收终端设备提供的采集信息,其中,所述采集信息包括用于供所述服务器识别目标对象的情绪的信息;
识别单元,用于利用识别模型识别所述采集信息,确定出所述目标对象的情绪信息;
确定单元,用于确定与所述情绪信息匹配的待输出信息;
传输单元,用于将所述待输出信息传输给所述终端设备,其中,所述待输出信息,用于供所述终端设备的信息输出。
8.根据权利要求7所述的装置,其特征在于,
所述接收单元,具体用于接收所述终端设备在第一时段内采集的所述采集信息,其中,所述第一时段包括一个或多个连续分布的预设周期;
所述识别单元,具体用于利用所述识别模型识别所述第一时段内采集的所述采集信息,确定出所述预设周期对应的第一情绪值;基于所述预设周期对应的第一情绪值,计算所述第一时段对应的第二情绪值;
所述确定单元,具体用于确定出与所述第二情绪值对应的所述待输出信息。
9.一种服务器,其特征在于,包括:收发器、存储器、处理器及存储在所述存储器上并由所述处理器执行的计算机程序;
所述处理器,分别与所述收发器及存储器连接,用于通过执行所述计算机程序执行权利要求1至6任一项提供的信息处理方法。
10.一种计算机存储介质,所述计算机存储介质存储有计算机程序;所述计算机程序被执行后,能够实现权利要求1至6任一项提供的信息处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711252490.4A CN108174293A (zh) | 2017-12-01 | 2017-12-01 | 信息处理方法及装置、服务器及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711252490.4A CN108174293A (zh) | 2017-12-01 | 2017-12-01 | 信息处理方法及装置、服务器及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108174293A true CN108174293A (zh) | 2018-06-15 |
Family
ID=62525128
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711252490.4A Pending CN108174293A (zh) | 2017-12-01 | 2017-12-01 | 信息处理方法及装置、服务器及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108174293A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109192079A (zh) * | 2018-10-09 | 2019-01-11 | 解宝龙 | 一种星空多媒体信息显示系统及方法 |
CN109684978A (zh) * | 2018-12-18 | 2019-04-26 | 深圳壹账通智能科技有限公司 | 员工情绪监控方法、装置、计算机设备和存储介质 |
CN109743587A (zh) * | 2019-01-03 | 2019-05-10 | 广州虎牙信息科技有限公司 | 直播连接监控方法、终端设备和存储介质 |
CN111610851A (zh) * | 2019-02-22 | 2020-09-01 | 阿里巴巴集团控股有限公司 | 互动方法、装置以及用于实现该互动方法的用户终端 |
CN111832832A (zh) * | 2020-07-21 | 2020-10-27 | 重庆现代建筑产业发展研究院 | 一种基于物联网的小区自巡检系统 |
CN111857344A (zh) * | 2020-07-22 | 2020-10-30 | 杭州网易云音乐科技有限公司 | 信息处理方法、系统、介质和计算设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100328492A1 (en) * | 2009-06-30 | 2010-12-30 | Eastman Kodak Company | Method and apparatus for image display control according to viewer factors and responses |
CN105354527A (zh) * | 2014-08-20 | 2016-02-24 | 南京普爱射线影像设备有限公司 | 一种消极表情识别鼓励系统 |
CN105574478A (zh) * | 2015-05-28 | 2016-05-11 | 宇龙计算机通信科技(深圳)有限公司 | 一种信息处理的方法和装置 |
US20170161553A1 (en) * | 2015-12-08 | 2017-06-08 | Le Holdings (Beijing) Co., Ltd. | Method and electronic device for capturing photo |
-
2017
- 2017-12-01 CN CN201711252490.4A patent/CN108174293A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100328492A1 (en) * | 2009-06-30 | 2010-12-30 | Eastman Kodak Company | Method and apparatus for image display control according to viewer factors and responses |
CN105354527A (zh) * | 2014-08-20 | 2016-02-24 | 南京普爱射线影像设备有限公司 | 一种消极表情识别鼓励系统 |
CN105574478A (zh) * | 2015-05-28 | 2016-05-11 | 宇龙计算机通信科技(深圳)有限公司 | 一种信息处理的方法和装置 |
US20170161553A1 (en) * | 2015-12-08 | 2017-06-08 | Le Holdings (Beijing) Co., Ltd. | Method and electronic device for capturing photo |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109192079A (zh) * | 2018-10-09 | 2019-01-11 | 解宝龙 | 一种星空多媒体信息显示系统及方法 |
CN109684978A (zh) * | 2018-12-18 | 2019-04-26 | 深圳壹账通智能科技有限公司 | 员工情绪监控方法、装置、计算机设备和存储介质 |
CN109743587A (zh) * | 2019-01-03 | 2019-05-10 | 广州虎牙信息科技有限公司 | 直播连接监控方法、终端设备和存储介质 |
CN109743587B (zh) * | 2019-01-03 | 2021-09-17 | 广州虎牙信息科技有限公司 | 直播连接监控方法、终端设备和存储介质 |
CN111610851A (zh) * | 2019-02-22 | 2020-09-01 | 阿里巴巴集团控股有限公司 | 互动方法、装置以及用于实现该互动方法的用户终端 |
CN111610851B (zh) * | 2019-02-22 | 2024-04-16 | 阿里巴巴集团控股有限公司 | 互动方法、装置以及用于实现该互动方法的用户终端 |
CN111832832A (zh) * | 2020-07-21 | 2020-10-27 | 重庆现代建筑产业发展研究院 | 一种基于物联网的小区自巡检系统 |
CN111832832B (zh) * | 2020-07-21 | 2023-12-29 | 重庆现代建筑产业发展研究院 | 一种基于物联网的小区自巡检系统 |
CN111857344A (zh) * | 2020-07-22 | 2020-10-30 | 杭州网易云音乐科技有限公司 | 信息处理方法、系统、介质和计算设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108174293A (zh) | 信息处理方法及装置、服务器及存储介质 | |
US20200193264A1 (en) | Synchronizing virtual agent behavior bias to user context and personality attributes | |
CN108665890A (zh) | 操作语音识别服务的方法、电子设备和支持该设备的系统 | |
CN108156522A (zh) | 主页内容推送方法、装置及计算机可读存储介质 | |
CN107766561A (zh) | 音乐推荐的方法、装置、存储介质及终端设备 | |
EP3549090A1 (en) | A method of allowing a user to receive information associated with a goal | |
Noseworthy et al. | How context shapes category inferences and attribute preference for new ambiguous products | |
WO2022048515A1 (zh) | 一种测评实现方法、装置和存储介质 | |
CN111311295B (zh) | 服务方式确定方法、装置、电子设备和存储介质 | |
CN110474944A (zh) | 网络信息的处理方法、装置及存储介质 | |
CN109376310A (zh) | 用户推荐方法、装置、电子设备和计算机可读存储介质 | |
US20210365995A1 (en) | Advertisement and reward system based on instant messenger | |
CN110648161A (zh) | 商业选址的效益评估方法、装置及存储介质 | |
McCARVILLE | An empirical investigation of the influence of cost information on willingness to pay for public aerobics classes | |
CN108108912A (zh) | 互动低质量用户的判别方法、装置、服务器及存储介质 | |
US10432793B2 (en) | Systems and methods to enroll users for real time communications connections | |
CN110516151B (zh) | 有效行为检测和个性化推荐方法 | |
CN110414999B (zh) | 一种基于社群系统的服务质量管理系统 | |
WO2023196456A1 (en) | Adaptive wellness collaborative media system | |
CN109509538A (zh) | 健康管理方法、装置及存储介质 | |
CN113536103A (zh) | 一种信息推荐方法、装置、电子设备及存储介质 | |
CN112561709B (zh) | 一种产品信息方法、装置、设备及介质 | |
CN111815124A (zh) | 快递行业座席智能分配方法、装置和设备 | |
US20140236704A1 (en) | Incentivized media delivery based on an external factor | |
KR102347807B1 (ko) | 보이스 리딩 방법 및 그 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180615 |