CN114786057A - 一种基于深度学习及表情包数据集的视频弹幕生成系统 - Google Patents

一种基于深度学习及表情包数据集的视频弹幕生成系统 Download PDF

Info

Publication number
CN114786057A
CN114786057A CN202210316703.XA CN202210316703A CN114786057A CN 114786057 A CN114786057 A CN 114786057A CN 202210316703 A CN202210316703 A CN 202210316703A CN 114786057 A CN114786057 A CN 114786057A
Authority
CN
China
Prior art keywords
neural network
bullet screen
data set
data
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210316703.XA
Other languages
English (en)
Other versions
CN114786057B (zh
Inventor
陈金田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Buridui Technology Co ltd
Original Assignee
Guangzhou Buridui Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Buridui Technology Co ltd filed Critical Guangzhou Buridui Technology Co ltd
Priority to CN202210316703.XA priority Critical patent/CN114786057B/zh
Publication of CN114786057A publication Critical patent/CN114786057A/zh
Application granted granted Critical
Publication of CN114786057B publication Critical patent/CN114786057B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及机器学习深度学习相关领域,具体为一种基于深度学习及表情包数据集的视频弹幕生成系统,本发明的系统设计简易便捷的数据集更新模块,对网络上新兴的表情定时收集,为后续深度学习模型的更新迭代提供数据支撑来源;通过使用先进的人工智能神经网络模型及架构,通过Encoder层的卷积神经网络捕获到更多人工对图像无法提取到的信息,并通过Decoder层的循环神经网络GRU将捕获的信息特征转换成弹幕,循环神经网络使用“门”的设计理念,可以更好地捕获到字符的信息特征;通过设计合理的弹幕保存更新模块,使用opencv的人脸侦测对视频进行分帧以及人脸侦测,再把侦测到的人脸作为神经网络模型的输入生成对应的弹幕,并把最新的弹幕保存到mysql数据库。

Description

一种基于深度学习及表情包数据集的视频弹幕生成系统
技术领域
本发明涉及机器学习深度学习相关领域,具体为一种基于深度学习及表情包数据集的视频弹幕生成系统。
背景技术
随着信息技术和互联网的发展,在通过网络观看视频的当今,网络视频消费者在消费视频的同时也在消费视频的弹幕,一个视频配上好的弹幕能增加视频的趣味性的同时增加用户的黏性。而现今弹幕的生成方式主要有两种形式:一、用户自己生成。二、雇佣水军发弹幕。而这两种方式都是基于人工生成的,如水军按照模板发出来的弹幕更是乏善可陈,没有什么趣味性,而用户生成弹幕对于视频提供商而言是十分被动的。如何主动生成有趣味性的弹幕成为各个视频网站增加用户粘性及用户体验的一个重要事情,针对上述问题,设计了一种基于深度学习及表情包数据集的视频弹幕生成系统。
发明内容
本发明因此需要一种新的技术方案,可以根据视频的画面信息主动生成有趣的弹幕从而刺激视频消费者生成弹幕或提高其观看视频的体验,而大部分网民都喜欢使用表情包/自己偶像的表情包去沟通聊天,所以我们又结合了有趣的表情包去作为我们的弹幕生成系统中的数据集,并以此数据集结合深度学习的Encoder-Decoder框架及卷积神经网络、循环神经网络去组建一个基于深度学习及表情包数据集的视频弹幕生成系统。
为实现上述目的,本发明提供如下技术方案:一种基于深度学习及表情包数据集的视频弹幕生成系统,包括数据集更新模块、模型训练保存更新模块和弹幕生成保存更新模块,
所述数据集更新模块用于根据统计后得到的新表情生成频率,通过调度系统调起表情包数据收集、预处理、保存脚本,得到最新的数据集;
所述模型训练保存更新模块通过使用定时更新的表情包数据集来训练深度神经网络,并将数据保存;
所述弹幕生成保存更新模块用于生成及保存、更新弹幕,包括opencv视频分帧、人脸侦测、深度学习模型生成弹幕、弹幕保存。
优选的,所述数据集更新模块工作流程包含以下步骤:
步骤1、通过数据收集算法获取、清洗并保存数据;
步骤2、根据新热点表情包更新频率确定数据集更新频率;
步骤3、根据确定的数据更新频率把对应的数据更新脚本配置到任务调度系统。
优选的,所述步骤1中,数据收集算法获取、清洗并保存数据包含对网络上热门表情包进行收集、去除无用的表情图片后将数据保存到数据库。
优选的,所述步骤2中,根据新热点表情包更新频率确定数据集更新频率是保证使最后生成的弹幕与时俱进,对数据集里表情包对应的时间进行统计,得到表情包更新换代的近似频率,并以此频率作为数据集更新的频率。
优选的,所述步骤3中,根据确定的数据更新频率把对应的数据更新脚本配置到任务调度系统是由任务调度系统自行调用数据更新脚本,去除手动调起脚本、维护脚本等繁琐的工作。
优选的,所述模型训练保存更新模块采用tensorflow框架进行搭建,使用深度神经网络先进框架Encoder-Decoder架构,结合卷积神经网络、全连接神经网络及循环神经网络,将数据集更新模块更新保存的数据根据相关模型需要对数据集进行处理,提取训练集,测试集,且对表情包数据训练集进行模型训练,测试集进行模型预测分析准确率,调试相关参数重复若干次取最优参数并保存于算法模型系统。
优选的,所述Encoder-Decoder架构将卷积神经网络及循环神经网络结合起来的深度学习神经网络模型包括:图像预处理层;由卷积神经网络构建成的图像Encoder层;全连接神经网络矩阵维度转换层;有循环神经构建成的Decoder层。
优选的,所述弹幕生成保存更新模块由算法模型系统采用opencv对视频进行分帧,且弹幕生成保存更新模块工作流程包括以下步骤:
步骤1、根据特定时间间隔抽取某一帧的画面进行人脸侦测;
步骤2、对步骤1中截取人脸作为深度神经网络模型的输入;
步骤3、通过深度神经网络生成对应的弹幕;
步骤4、使用mysql保存对应的弹幕信息。
与现有技术相比,本发明的有益效果是:
1.本发明的系统设计简易便捷的数据集更新模块,对网络上新兴的表情定时收集,为后续深度学习模型的更新迭代提供数据支撑来源。
2.本发明的系统使用先进的人工智能神经网络模型及架构,通过Encoder层的卷积神经网络捕获到更多人工对图像无法提取到的信息,并通过Decoder层的循环神经网络GRU将捕获的信息特征转换成弹幕,相较于传统的RNN模型,循环神经网络使用“门”的设计理念,可以更好地捕获到字符的信息特征。
3.本发明的系统设计合理的弹幕保存更新模块,使用opencv的人脸侦测对视频进行分帧以及人脸侦测,再把侦测到的人脸作为神经网络模型的输入生成对应的弹幕,并把最新的弹幕保存到mysql数据库。
附图说明
图1为本发明的整体工作流程框图;
图2为本发明的深度学习神经网络模型流程框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1-2,本发明提供一种技术方案:一种基于深度学习及表情包数据集的视频弹幕生成系统,包括数据集更新模块、模型训练保存更新模块和弹幕生成保存更新模块,
数据集更新模块用于根据统计后得到的新表情生成频率,通过调度系统调起表情包数据收集、预处理、保存脚本,得到最新的数据集;
模型训练保存更新模块通过使用定时更新的表情包数据集来训练深度神经网络,并将数据保存;
弹幕生成保存更新模块用于生成及保存、更新弹幕,包括opencv视频分帧、人脸侦测、深度学习模型生成弹幕、弹幕保存。
进一步的,数据集更新模块工作流程包含以下步骤:
步骤1、通过数据收集算法获取、清洗并保存数据;
步骤2、根据新热点表情包更新频率确定数据集更新频率;
步骤3、根据确定的数据更新频率把对应的数据更新脚本配置到任务调度系统。
进一步的,步骤1中,数据收集算法获取、清洗并保存数据包含对网络上热门表情包进行收集、去除无用的表情图片后将数据保存到数据库。
进一步的,步骤2中,根据新热点表情包更新频率确定数据集更新频率是保证使最后生成的弹幕与时俱进,对数据集里表情包对应的时间进行统计,得到表情包更新换代的近似频率,并以此频率作为数据集更新的频率
进一步的,步骤3中,根据确定的数据更新频率把对应的数据更新脚本配置到任务调度系统是由任务调度系统自行调用数据更新脚本,去除手动调起脚本、维护脚本等繁琐的工作。
进一步的,模型训练保存更新模块采用tensorflow框架进行搭建,使用深度神经网络先进框架Encoder-Decoder架构,结合卷积神经网络、全连接神经网络及循环神经网络,将数据集更新模块更新保存的数据根据相关模型需要对数据集进行处理,提取训练集,测试集,且对表情包数据训练集进行模型训练,测试集进行模型预测分析准确率,调试相关参数重复若干次取最优参数并保存于算法模型系统。
进一步的,Encoder-Decoder架构将卷积神经网络及循环神经网络结合起来的深度学习神经网络模型包括:图像预处理层;由卷积神经网络构建成的图像Encoder层;全连接神经网络矩阵维度转换层;有循环神经构建成的Decoder层。
其中深度学习神经网络模型具体工作包括:图像预处理层将图像加载并改变图片的大小,使其能作为卷积神经网络的输入,然后预处理好图像大小,并将其作为Encoder卷积神经网络层的输入,通过卷积神经网路将图像转换成矩阵的形式,并且每一个矩阵代表一个图像;为了将图像对应的矩阵作为Decoder层的输入,需要将矩阵转换成对应的大小,所以通过使用全连接层将矩阵转化成需要的大小;通过Decoder循环神经网络将图像矩阵解析出一串与此图像相关的句子/词语/标点符号。
进一步的,弹幕生成保存更新模块由算法模型系统采用opencv对视频进行分帧,且弹幕生成保存更新模块工作流程包括以下步骤:
步骤1、根据特定时间间隔抽取某一帧的画面进行人脸侦测;
步骤2、对步骤1中截取人脸作为深度神经网络模型的输入;
步骤3、通过深度神经网络生成对应的弹幕;
步骤4、使用mysql保存对应的弹幕信息。
本发明的系统设计简易便捷的数据集更新模块,对网络上新兴的表情定时收集,为后续深度学习模型的更新迭代提供数据支撑来源;通过使用先进的人工智能神经网络模型及架构,通过Encoder层的卷积神经网络捕获到更多人工对图像无法提取到的信息,并通过Decoder层的循环神经网络GRU将捕获的信息特征转换成弹幕,相较于传统的RNN模型,循环神经网络使用“门”的设计理念,可以更好地捕获到字符的信息特征;通过设计合理的弹幕保存更新模块,使用opencv的人脸侦测对视频进行分帧以及人脸侦测,再把侦测到的人脸作为神经网络模型的输入生成对应的弹幕,并把最新的弹幕保存到mysql数据库。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (8)

1.一种基于深度学习及表情包数据集的视频弹幕生成系统,包括数据集更新模块、模型训练保存更新模块和弹幕生成保存更新模块,其特征在于:
所述数据集更新模块用于根据统计后得到的新表情生成频率,通过调度系统调起表情包数据收集、预处理、保存脚本,得到最新的数据集;
所述模型训练保存更新模块通过使用定时更新的表情包数据集来训练深度神经网络,并将数据保存;
所述弹幕生成保存更新模块用于生成及保存、更新弹幕,包括opencv视频分帧、人脸侦测、深度学习模型生成弹幕、弹幕保存。
2.根据权利要求1所述的一种基于深度学习及表情包数据集的视频弹幕生成系统,其特征在于:所述数据集更新模块工作流程包含以下步骤:
步骤1、通过数据收集算法获取、清洗并保存数据;
步骤2、根据新热点表情包更新频率确定数据集更新频率;
步骤3、根据确定的数据更新频率把对应的数据更新脚本配置到任务调度系统。
3.根据权利要求2所述的一种基于深度学习及表情包数据集的视频弹幕生成系统,其特征在于:所述步骤1中,数据收集算法获取、清洗并保存数据包含对网络上热门表情包进行收集、去除无用的表情图片后将数据保存到数据库。
4.根据权利要求2所述的一种基于深度学习及表情包数据集的视频弹幕生成系统,其特征在于:所述步骤2中,根据新热点表情包更新频率确定数据集更新频率是保证使最后生成的弹幕与时俱进,对数据集里表情包对应的时间进行统计,得到表情包更新换代的近似频率,并以此频率作为数据集更新的频率。
5.根据权利要求2所述的一种基于深度学习及表情包数据集的视频弹幕生成系统,其特征在于:所述步骤3中,根据确定的数据更新频率把对应的数据更新脚本配置到任务调度系统是由任务调度系统自行调用数据更新脚本,去除手动调起脚本、维护脚本等繁琐的工作。
6.根据权利要求1所述的一种基于深度学习及表情包数据集的视频弹幕生成系统,其特征在于:所述模型训练保存更新模块采用tensorflow框架进行搭建,使用深度神经网络先进框架Encoder-Decoder架构,结合卷积神经网络、全连接神经网络及循环神经网络,将数据集更新模块更新保存的数据根据相关模型需要对数据集进行处理,提取训练集,测试集,且对表情包数据训练集进行模型训练,测试集进行模型预测分析准确率,调试相关参数重复若干次取最优参数并保存于算法模型系统。
7.根据权利要求6所述的一种基于深度学习及表情包数据集的视频弹幕生成系统,其特征在于:所述Encoder-Decoder架构将卷积神经网络及循环神经网络结合起来的深度学习神经网络模型包括:图像预处理层;由卷积神经网络构建成的图像Encoder层;全连接神经网络矩阵维度转换层;有循环神经构建成的Decoder层。
8.根据权利要求1所述的一种基于深度学习及表情包数据集的视频弹幕生成系统,其特征在于:所述弹幕生成保存更新模块由算法模型系统采用opencv对视频进行分帧,且弹幕生成保存更新模块工作流程包括以下步骤:
步骤1、根据特定时间间隔抽取某一帧的画面进行人脸侦测;
步骤2、对步骤1中截取人脸作为深度神经网络模型的输入;
步骤3、通过深度神经网络生成对应的弹幕;
步骤4、使用mysql保存对应的弹幕信息。
CN202210316703.XA 2022-03-29 2022-03-29 一种基于深度学习及表情包数据集的视频弹幕生成系统 Active CN114786057B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210316703.XA CN114786057B (zh) 2022-03-29 2022-03-29 一种基于深度学习及表情包数据集的视频弹幕生成系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210316703.XA CN114786057B (zh) 2022-03-29 2022-03-29 一种基于深度学习及表情包数据集的视频弹幕生成系统

Publications (2)

Publication Number Publication Date
CN114786057A true CN114786057A (zh) 2022-07-22
CN114786057B CN114786057B (zh) 2024-08-06

Family

ID=82424807

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210316703.XA Active CN114786057B (zh) 2022-03-29 2022-03-29 一种基于深度学习及表情包数据集的视频弹幕生成系统

Country Status (1)

Country Link
CN (1) CN114786057B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107040824A (zh) * 2017-04-18 2017-08-11 深圳市金立通信设备有限公司 一种发送弹幕的方法及终端
CN109309878A (zh) * 2017-07-28 2019-02-05 Tcl集团股份有限公司 弹幕的生成方法及装置
CN110619357A (zh) * 2019-08-29 2019-12-27 北京搜狗科技发展有限公司 一种图片处理方法、装置和电子设备
CN110740387A (zh) * 2019-10-30 2020-01-31 深圳Tcl数字技术有限公司 一种弹幕编辑方法、智能终端及存储介质
CN111723679A (zh) * 2020-05-27 2020-09-29 上海五零盛同信息科技有限公司 基于深度迁移学习的人脸和声纹认证系统及方法
CN112651448A (zh) * 2020-12-29 2021-04-13 中山大学 一种面向社交平台表情包的多模态情感分析方法
WO2021134871A1 (zh) * 2019-12-30 2021-07-08 深圳市爱协生科技有限公司 基于局部二值模式和深度学习的合成人脸图像取证方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107040824A (zh) * 2017-04-18 2017-08-11 深圳市金立通信设备有限公司 一种发送弹幕的方法及终端
CN109309878A (zh) * 2017-07-28 2019-02-05 Tcl集团股份有限公司 弹幕的生成方法及装置
CN110619357A (zh) * 2019-08-29 2019-12-27 北京搜狗科技发展有限公司 一种图片处理方法、装置和电子设备
CN110740387A (zh) * 2019-10-30 2020-01-31 深圳Tcl数字技术有限公司 一种弹幕编辑方法、智能终端及存储介质
WO2021134871A1 (zh) * 2019-12-30 2021-07-08 深圳市爱协生科技有限公司 基于局部二值模式和深度学习的合成人脸图像取证方法
CN111723679A (zh) * 2020-05-27 2020-09-29 上海五零盛同信息科技有限公司 基于深度迁移学习的人脸和声纹认证系统及方法
CN112651448A (zh) * 2020-12-29 2021-04-13 中山大学 一种面向社交平台表情包的多模态情感分析方法

Also Published As

Publication number Publication date
CN114786057B (zh) 2024-08-06

Similar Documents

Publication Publication Date Title
CN111539290B (zh) 视频动作识别方法、装置、电子设备及存储介质
CN110135386B (zh) 一种基于深度学习的人体动作识别方法和系统
CN111753827A (zh) 基于语义强化编码器解码器框架的场景文字识别方法及系统
CN107239801A (zh) 视频属性表示学习方法及视频文字描述自动生成方法
CN108960126A (zh) 手语翻译的方法、装置、设备及系统
CN111050193A (zh) 用户画像构建方法、装置、计算机设备和存储介质
CN104156729B (zh) 一种教室人数统计方法
CN110110686A (zh) 基于多损失双流卷积神经网络的人体动作识别方法
Li et al. A students’ action recognition database in smart classroom
CN109271946A (zh) 一种在手机端实现感兴趣物体实时检测的方法
CN110852271A (zh) 一种基于峰值帧和深度森林的微表情识别方法
CN109583334A (zh) 一种基于时空关联神经网络的动作识别方法及其系统
CN117292330B (zh) 一种适用于时序数据运维的智能监测系统
CN116778527A (zh) 人体模型构建方法、装置、设备及存储介质
Chen et al. Standardized motion detection and real time heart rate monitoring of aerobics training based on convolution neural network
CN114786057B (zh) 一种基于深度学习及表情包数据集的视频弹幕生成系统
CN111818397B (zh) 一种基于长短时记忆网络变体的视频描述生成方法
Hu et al. Research on Video Quality Diagnosis System Based on Convolutional Neural Network
CN113223520A (zh) 一种软件操作实景语义理解的语音互动方法、系统及平台
CN112183430A (zh) 一种基于双神经网络的手语识别方法及装置
Tong et al. Study on mindspore deep learning framework
CN111445545A (zh) 一种文本转贴图方法、装置、存储介质及电子设备
CN109086391B (zh) 一种构建知识图谱的方法及系统
CN115719497A (zh) 一种学生专注度识别方法及系统
CN114220175B (zh) 运动模式识别方法及其装置、设备、介质、产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant