CN108416286A - 一种基于实时视频聊天场景的机器人互动方法 - Google Patents
一种基于实时视频聊天场景的机器人互动方法 Download PDFInfo
- Publication number
- CN108416286A CN108416286A CN201810174894.4A CN201810174894A CN108416286A CN 108416286 A CN108416286 A CN 108416286A CN 201810174894 A CN201810174894 A CN 201810174894A CN 108416286 A CN108416286 A CN 108416286A
- Authority
- CN
- China
- Prior art keywords
- room
- user
- theme
- topic
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 10
- 238000013459 approach Methods 0.000 title abstract 2
- 230000003993 interaction Effects 0.000 claims abstract description 26
- 238000013145 classification model Methods 0.000 claims abstract description 14
- 230000000977 initiatory effect Effects 0.000 claims abstract description 13
- 238000000034 method Methods 0.000 claims description 23
- 238000004422 calculation algorithm Methods 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 10
- 239000013598 vector Substances 0.000 claims description 9
- 230000000694 effects Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims 1
- 239000000463 material Substances 0.000 abstract description 2
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 241000209140 Triticum Species 0.000 description 3
- 235000021307 Triticum Nutrition 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 2
- 208000003028 Stuttering Diseases 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Signal Processing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于实时视频聊天场景的机器人互动方法。通过获取视频聊天平台的主播视频数据、主播语音数据、房间内用户发言聊天数据;对主播房间进行分析,确定采用互动或发起新话题两种方式中的一种进行机器人介入的互动。通过采用主题分类模型获得房间的主题分类,继而更精确的从对于的主题语料库中输出语料,使互动更加准确和有效。本发明能调动机器人与主播进行互动,进行房间气氛烘托,使主播感受房间气氛的活跃,进一步带动真实用户的目的。
Description
技术领域
本发明提出一种基于实时视频聊天场景的机器人互动方法。
背景技术
随着视频直播的普及,直播行业飞速发展,主播给用户带来交友、娱乐的快乐。但是在一些冷门的时间点,主播缺少与观众的互动,使主播产生房间内没人的感觉,导致主播发言量少,进一步导致用户发言量少,房间长时间缺少互动。
本发明拟研究调动机器人与主播进行互动,进行房间气氛烘托,使主播感受房间气氛的活跃。本发明方法在大数据统计分析的基础上,通过分析直播间的历史文本聊天内容、主播发言内容及实时视频内容等多维数据特征,判断该主播房间场景,房间场景包括文字聊天主题,视频场景(根据视频的每一帧的内容分析当前主播正在做的事,如跳舞,不在麦前,发呆等),进而有针对性的发起和回复相应的聊天内容。
发明内容
本发明的目的是针对现有技术的不足,提供了一种基于实时视频聊天场景的机器人互动方法。
本发明提出的技术方案为:
基于实时视频聊天场景的机器人互动方法包括如下步骤:
步骤1:实时获取视频聊天平台的主播视频数据、主播语音数据、房间内用户发言聊天数据;
步骤2:对主播语音数据进行转文字处理,对主播视频数据中的图像数据进行行为特征提取,特征提取可以基于深度卷积神经网络的视频图像内容检测算法,用于判断主播是否在画面里、衣着是否性感、衣服颜色和类型的识别、人物手势识别等;
步骤3:对房间活跃程度进行判断;判断是否为冷场房间;对非冷场房间的信息进行采集,对主播房间进行主题标记,上述信息可作为训练主题分别模型的训练样本,实时更新训练器,进行机器学习;并可作为历史库的资料(历史库中的语料为按主题分类、按时间排序的历史房间文字聊天记录),丰富历史库。
步骤4:对冷场房间状态进行分析,判断是否需要发起新话题或发起互动,需要发起新话题则执行步骤5,需要发起互动则执行步骤6;
步骤5:对房间文字主题进行判断,从与房间当前主题对应的主题语料库随机选择语料;
步骤6:根据当前视频场景,在与场景对应的主题语料库中随机输出语料,当前场景不明确时不输出语料;视频场景的确定根据视频的每一帧的内容分析当前主播正在做的事,如跳舞,不在麦前,发呆等,可以采用基于深度卷积神经网络的视频图像内容检测算法进行。
步骤7:根据当前主播发言内容,调用回答类算法,输出一条或多条语料;
步骤8:根据当前用户发言内容,随机调用回答类算法和附和类算法,输出一条或多条语料。
优选的,所述的步骤3中,对房间活跃程度进行判断具体为:对房间进行如下三项判断,
1)分析房间文本聊天条数是否小于设定阈值;
2)分析房间用户发言人数是否小于设定阈值;
3)分析房间主播发言条数是否小于设定阈值;
如果以上三项中的任何一项成立,则认为此房间为冷场房间。
优选的,所述的步骤4对冷场房间状态进行分析具体为:对冷场房间的历史信息进行分析,分析该房间之前有无机器人参与过互动;如有则选择发起互动,如没有则发起新话题。
优选的,所述的步骤5具体为:根据用户的发言内容,调用主题分类模型,分析房间当前主题,从发起话题语料库随机选择一个对应主题的语料;
优选的,所述的调用回答类算法为:调用人机对话算法,使用语料库(该与语料库中的语料可以为预先标记过准确性的用户历史一对一的聊天记录),获得一条或多条语料;任何能实现人机对话的算法、模块或语料库均适用于本步骤。
优选的,所述的调用附和类算法为:根据当前时间段内的用户的发言内容,调用预先训练好的主题分类模型判断当前场景的主题,模型只输出一个主题,再将用户的发言内容分词后向量化,与此主题历史库进行相似度计算,选择相似度最高的分组,从该分组中随机选择若干个非完全相同的语料作为互动的语料;
其中,两段文本生成的多维向量夹角越小则越相似,反之越不相似,其计算方法如公式(1.2)所示:
其中n为关键词总数,Xi为第i个关键词在X样本出现的次数,Yi为第i个关键词在Y样本出现的次数。
优选的,所述的主题分类模型的主题分类方法为:
A:对历史用户发言进行主题分组,其中,一组用户发言可能有多个主题;主题分类结果为漂亮、唱歌、跳舞、礼物和其它共五类;
B.对历史用户发言做切分词处理,文本中的词作为分类特征,而且分类特征不考虑词出现的先后次序,只选择名词、动词作为分类特征词;将文本向量化,然后用于训练朴素贝叶斯分类器,建立主题分类模型;
C.对房间一定单位时间内的用户发言做切分词处理,提取分类特征词,并将文本向量化,利用步骤B得到的主题分类模型得到概率最大的主题类别,作为该单位时间内根据用户发言得到的当前场景的主题;
其中,多项式分布的朴素贝叶斯计算方法如公式(1.1)所示:
其中,P(xi|yk)为类别yk下的特征xi的取值条件概率;是类别yk下特征xi出现的总次数;Nyk是类别yk下所有特征出现的总次数,n是特征的数量,α的取值范围是[0,1]。
本发明方法的主要思想是:基于海量聊天、视频图像数据,房间内主播及用户的行为判断,对基于匹配规则的人机对话算法进行改进,提出一种基于实时视频聊天场景的机器人互动方法,调动机器人与主播进行互动,进行房间气氛烘托,使主播感受房间气氛的活跃,进一步带动真实用户的目的。
附图说明
图1表示本发明的流程图。
具体实施方式
下面将结合附图对本发明加以详细说明,应指出的是,所描述的实例仅便于对本发明的理解,而对其不起任何限定作用。
如图1所示,基于实时视频聊天场景的机器人互动方法包括如下步骤:
1.获取视频聊天房间实时数据
数据来源于视频聊天房间实时产生的视频场景,主播发言内容,用户聊天文本。
2.对数据进行预处理
(1)对语音数据进行转文字处理;
对视频帧的图像数据进行特征提取,如人是否在画面里,衣着是否性感,衣服颜色、类型,手势识别等;可以采用基于深度卷积神经网络的视频图像内容检测算法进行。
(2)对文本聊天内容进行删除表情、垃圾信息等非有效数据。
表情:如/开心/、/疑惑/等;
垃圾信息:如广告(加Q群706656022),欢迎语(欢迎进入10888房间)等。
3.对房间活跃程度进行判断
(1)分析房间文本聊天条数是否小于一定阈值;
(2)分析房间用户发言人数是否小于一定阈值;
(3)分析房间主播发言条数是否小于一定阈值。
如果命中了以上若干规则中的任何一条,则认为此房间冷场。
4.对冷场房间的历史信息进行分析:
分析该房间之前有无机器人参与过互动,如有则选择进行互动,如没有则发起新话题。
5.选择发起话题的语料
根据用户的发言内容,调用主题分类模型,分析房间当前主题,从发起话题语料库随机选择一个对应主题的语料;其中发起话题语料库的主题分类与主题语料库中的主题分类一致;发起话题语料库为主题语料库的一部分,其内容为主题语料库中各主题分类下适用于发起话题的语料。
6.根据当前视频场景发起互动语料
根据当前视频场景,视频场景的确定根据视频的每一帧的内容分析当前主播正在做的事,如跳舞,不在麦前,发呆等,可以采用基于深度卷积神经网络的视频图像内容检测算法进行。随机输出语料,当前场景不明确时不输出语料;
7.根据主播发言和用户发言内容选择互动的语料
互动的方法分为回答和附和两种,根据主播发言内容仅选择回答类,根据用户发言内容随机选择一种进行调用,输出一条或多条语料,为防止单句相似度高的巧合性,故发言条数必须大于一定阈值。
(1)回答:调用人机对话算法(使用直播间专用语料库)获得。如:主播说“我唱的怎么样啊”,机器人则回“非常好听”
(2)附和:根据当前时间段内的用户的发言内容,调用预先训练好的主题分类模型判断当前场景的主题,模型只输出一个主题,再通过与此主题历史库(为按主题分类,按时间排序的历史房间文字聊天记录)进行相似度计算,选择相似度最高的分组,从该分组中随机选择几个非完全相同的语料作为互动的语料。
其中模型设计方法如下:
A.主题分类
对房间一定单位时间内用户发言进行分组,对历史库进行人工标记,一组对话可能有多个主题,主题分类结果如下:
ZT01漂亮:如包含关键字漂亮,美丽,性感;
ZT02唱歌:如包含关键字主播唱一个,来一首;
ZT03跳舞:如包含关键字跳,动起来;
ZT04礼物:如包含关键字礼物,刷,中奖;
ZT05其它
B.特征提取
用一组文本做切分词处理,文本中的词作为分类特征,而且分类特征不考虑词之间的位置关系也就是出现的先后次序,分类特征并不一定是一个词,且为了提高计算类别的效率,只统计出现的高频词,不是所有的高频词都作为分类依据,例如“的”这样的助词和标点符号往往不作为分类依据,只选择某些词性作为分类依据,比如说,只选择名词,动词作为分类特征词。将文本向量化,然后用于训练朴素贝叶斯分类器。
C.朴素贝叶斯分类器
多项式分布的朴素贝叶斯计算方法如公式(1.1)所示:
其中,是类别yk下特征xi出现的总次数;Nyk是类别yk下所有特征出现的总次数。n是特征的数量,α的取值范围是[0,1],比较常见的是取值为1。
相似度计算方法如下:
A.算法原理:
对出现的关键词进行向量化处理,两段文本生成的多维向量夹角越小则越相似,反之越不相似,其计算方法如公式(1.2)所示:
其中n为关键词总数,Xi为第i个关键字在X样本出现的次数,Yi为第i个关键字在Y样本出现的次数。
B.示例介绍:
在本发明的一个具体实施例中,某单位时间用户发言内容样本如表1.1所示:
表1.1用户发言内容样本
对用户发言内容进行关键词提取,用主题分类模型进行分类,最终此样本模型输出场景为跳舞。
该房间为需要机器人进行互动的房间,在该房间的附和过程如下:
将用户的发言与跳舞中的各个分组(为历史库跳舞类别下的各个已经标记的语料分组,本实施例仅以分组1和分组2两个分组进行比较说明)进行相似度比较。
历史库跳舞场景分组1如表1.2所示:
表1.2跳舞场景分组1
历史库跳舞场景分组2如表1.3所示:
表1.3跳舞场景分组2
关键词统计结果如表1.4所示:
表1.4关键词统计结果
相似度计算结果:
a.场景分组1与样本1的相似度s11计算结果:
b.场景分组2与样本1的相似度s12计算结果:
由于s11>s12,故随机选择分组1中与样本1不一样的语句进行发送,输出语料“好可爱的美女”,“美女跳个舞呗”。
以上方法,在实际视频直播平台环境下使用后,互动效果十分良好,主播的发言量明显提升,冷场次数明显减少。
Claims (7)
1.一种基于实时视频聊天场景的机器人互动方法,其特征在于包括如下步骤:
步骤1:实时获取视频聊天平台的主播视频数据、主播语音数据、房间内用户发言聊天数据;
步骤2:对主播语音数据进行转文字处理,对主播视频数据中的图像数据进行行为特征提取,步骤3:对房间活跃程度进行判断;判断是否为冷场房间;
步骤4:对冷场房间状态进行分析,判断是否需要发起新话题或发起互动,需要发起新话题则执行步骤5,需要发起互动则执行步骤6;
步骤5:对房间文字主题进行判断,从与房间当前主题对应的主题语料库随机选择语料;
步骤6:根据当前视频场景,在与场景对应的主题语料库中随机输出语料,当前场景不明确时不输出语料;
步骤7:根据当前主播发言内容,调用回答类算法,输出一条或多条语料;
步骤8:根据当前用户发言内容,随机调用回答类算法和附和类算法,输出一条或多条语料。
2.根据权利要求1所述的基于实时视频聊天场景的机器人互动方法,其特征在于所述的步骤3中,对房间活跃程度进行判断具体为:对房间进行如下三项判断,
1)分析房间文本聊天条数是否小于设定阈值;
2)分析房间用户发言人数是否小于设定阈值;
3)分析房间主播发言条数是否小于设定阈值;
如果以上三项中的任何一项成立,则认为此房间为冷场房间。
3.根据权利要求1所述的基于实时视频聊天场景的机器人互动方法,其特征在于所述的步骤4对冷场房间状态进行分析具体为:对冷场房间的历史信息进行分析,分析该房间之前有无机器人参与过互动;如有则选择发起互动,如没有则发起新话题。
4.根据权利要求1所述的基于实时视频聊天场景的机器人互动方法,其特征在于所述的步骤5具体为:根据用户的发言内容,调用主题分类模型,分析房间当前主题,从发起话题语料库随机选择一个对应主题的语料。
5.根据权利要求1所述的基于实时视频聊天场景的机器人互动方法,其特征在于所述的调用回答类算法为:采用人机对话方法,获得一条或多条语料。
6.根据权利要求1所述的基于实时视频聊天场景的机器人互动方法,其特征在于所述的调用附和类算法为:根据当前时间段内的用户的发言内容,调用预先训练好的主题分类模型判断当前场景的主题,模型只输出一个主题,再将用户的发言内容分词后向量化,与此主题历史库进行相似度计算,选择相似度最高的分组,从该分组中随机选择若干个非完全相同的语料作为互动的语料;
其中,两段文本生成的多维向量夹角越小则越相似,反之越不相似,其计算方法如公式(1.2)所示:
其中n为关键词总数,Xi为第i个关键词在X样本出现的次数,Yi为第i个关键词在Y样本出现的次数。
7.根据权利要求4或6所述的基于实时视频聊天场景的机器人互动方法,其特征在于所述的主题分类模型的主题分类方法为:
A:对历史用户发言进行主题分组,其中,一组用户发言可能有多个主题;主题分类结果为漂亮、唱歌、跳舞、礼物和其它共五类;
B.对历史用户发言做关键词提取,不考虑关键词出现的先后次序,只选择名词、动词作为关键词;将提取关键词后的用户发言文本向量化,连同该用户发言的主题分组结果,用于训练朴素贝叶斯分类器,建立主题分类模型;
C.对房间一定单位时间内的用户发言做关键词提取,并将文本向量化,利用步骤B得到的主题分类模型得到概率最大的主题类别,作为该单位时间内根据用户发言得到的当前场景的主题。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810174894.4A CN108416286A (zh) | 2018-03-02 | 2018-03-02 | 一种基于实时视频聊天场景的机器人互动方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810174894.4A CN108416286A (zh) | 2018-03-02 | 2018-03-02 | 一种基于实时视频聊天场景的机器人互动方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108416286A true CN108416286A (zh) | 2018-08-17 |
Family
ID=63129526
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810174894.4A Pending CN108416286A (zh) | 2018-03-02 | 2018-03-02 | 一种基于实时视频聊天场景的机器人互动方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108416286A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109710740A (zh) * | 2018-12-27 | 2019-05-03 | 杭州美平米科技有限公司 | 一种基于商品信息的机器人自动聊天方法 |
CN110216687A (zh) * | 2019-04-29 | 2019-09-10 | 金华市盘古信息技术有限公司 | 一种机器人自动聊天方法、装置、设备及存储介质 |
CN110730390A (zh) * | 2019-09-23 | 2020-01-24 | 杭州铠麒网络科技有限公司 | 一种智能活跃直播间氛围的交互方法和设备 |
CN111445591A (zh) * | 2020-03-13 | 2020-07-24 | 平安科技(深圳)有限公司 | 会议签到方法、系统、计算机设备及计算机可读存储介质 |
CN111683263A (zh) * | 2020-06-08 | 2020-09-18 | 腾讯科技(深圳)有限公司 | 直播指导方法、装置、设备及计算机可读存储介质 |
CN111918073A (zh) * | 2020-06-30 | 2020-11-10 | 北京百度网讯科技有限公司 | 直播间的管理方法和装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106020488A (zh) * | 2016-06-03 | 2016-10-12 | 北京光年无限科技有限公司 | 一种面向对话系统的人机交互方法及装置 |
CN106656732A (zh) * | 2015-11-04 | 2017-05-10 | 陈包容 | 一种基于场景信息获取聊天回复内容的方法及装置 |
CN107247794A (zh) * | 2017-06-21 | 2017-10-13 | 北京小米移动软件有限公司 | 直播中的话题引导方法、直播装置及终端设备 |
-
2018
- 2018-03-02 CN CN201810174894.4A patent/CN108416286A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106656732A (zh) * | 2015-11-04 | 2017-05-10 | 陈包容 | 一种基于场景信息获取聊天回复内容的方法及装置 |
CN106020488A (zh) * | 2016-06-03 | 2016-10-12 | 北京光年无限科技有限公司 | 一种面向对话系统的人机交互方法及装置 |
CN107247794A (zh) * | 2017-06-21 | 2017-10-13 | 北京小米移动软件有限公司 | 直播中的话题引导方法、直播装置及终端设备 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109710740A (zh) * | 2018-12-27 | 2019-05-03 | 杭州美平米科技有限公司 | 一种基于商品信息的机器人自动聊天方法 |
CN109710740B (zh) * | 2018-12-27 | 2020-08-07 | 杭州美平米科技有限公司 | 一种基于商品信息的机器人自动聊天方法 |
CN110216687A (zh) * | 2019-04-29 | 2019-09-10 | 金华市盘古信息技术有限公司 | 一种机器人自动聊天方法、装置、设备及存储介质 |
CN110730390A (zh) * | 2019-09-23 | 2020-01-24 | 杭州铠麒网络科技有限公司 | 一种智能活跃直播间氛围的交互方法和设备 |
CN111445591A (zh) * | 2020-03-13 | 2020-07-24 | 平安科技(深圳)有限公司 | 会议签到方法、系统、计算机设备及计算机可读存储介质 |
CN111683263A (zh) * | 2020-06-08 | 2020-09-18 | 腾讯科技(深圳)有限公司 | 直播指导方法、装置、设备及计算机可读存储介质 |
CN111918073A (zh) * | 2020-06-30 | 2020-11-10 | 北京百度网讯科技有限公司 | 直播间的管理方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108416286A (zh) | 一种基于实时视频聊天场景的机器人互动方法 | |
CN110427617B (zh) | 推送信息的生成方法及装置 | |
Preoţiuc-Pietro et al. | Beyond binary labels: political ideology prediction of twitter users | |
CN110674639B (zh) | 一种基于预训练模型的自然语言理解方法 | |
CN111541910B (zh) | 一种基于深度学习的视频弹幕评论自动生成方法及系统 | |
CN101599071B (zh) | 对话文本主题的自动提取方法 | |
CN110209844B (zh) | 多媒体数据匹配方法、装置和存储介质 | |
CN110362819B (zh) | 基于卷积神经网络的文本情感分析方法 | |
CN111767403B (zh) | 一种文本分类方法和装置 | |
CN108763326A (zh) | 一种基于特征多样化的卷积神经网络的情感分析模型构建方法 | |
CN113505200B (zh) | 一种结合文档关键信息的句子级中文事件检测的方法 | |
CN111160452A (zh) | 一种基于预训练语言模型的多模态网络谣言检测方法 | |
CN109325124B (zh) | 一种情感分类方法、装置、服务器和存储介质 | |
CN106202053B (zh) | 一种社交关系驱动的微博主题情感分析方法 | |
JP2018055548A (ja) | 対話装置、学習装置、対話方法、学習方法、およびプログラム | |
CN111078856B (zh) | 一种群聊对话处理方法、装置及电子设备 | |
CN113849598B (zh) | 基于深度学习的社交媒体虚假信息检测方法及检测系统 | |
Yousefi et al. | Audio-based toxic language classification using self-attentive convolutional neural network | |
WO2023184942A1 (zh) | 语音交互方法、装置及电器 | |
Blanchard et al. | Getting the subtext without the text: Scalable multimodal sentiment classification from visual and acoustic modalities | |
CN111199149A (zh) | 一种对话系统的语句智能澄清方法及系统 | |
CN106776539A (zh) | 一种多维度短文本特征提取方法及系统 | |
CN113617036A (zh) | 游戏中对话处理方法、装置、设备及存储介质 | |
CN115292461A (zh) | 基于语音识别的人机交互学习方法及系统 | |
CN114912020A (zh) | 一种基于用户偏好图的多子目标对话推荐方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180817 |
|
RJ01 | Rejection of invention patent application after publication |