CN114398883A - 演示文稿生成方法、装置、计算机可读存储介质及服务器 - Google Patents

演示文稿生成方法、装置、计算机可读存储介质及服务器 Download PDF

Info

Publication number
CN114398883A
CN114398883A CN202210059107.8A CN202210059107A CN114398883A CN 114398883 A CN114398883 A CN 114398883A CN 202210059107 A CN202210059107 A CN 202210059107A CN 114398883 A CN114398883 A CN 114398883A
Authority
CN
China
Prior art keywords
presentation
generation
library
target
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210059107.8A
Other languages
English (en)
Other versions
CN114398883B (zh
Inventor
杨祎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202210059107.8A priority Critical patent/CN114398883B/zh
Publication of CN114398883A publication Critical patent/CN114398883A/zh
Application granted granted Critical
Publication of CN114398883B publication Critical patent/CN114398883B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明属于人工智能技术领域,尤其涉及一种演示文稿生成方法、装置、计算机可读存储介质及服务器。所述方法包括:获取终端设备发送的演示文稿生成模式选择指令;提取其中的身份标识信息,并在预设的演示文稿素材库中查找目标演示文稿素材分库;提取所述演示文稿生成模式选择指令中的模式选择字段,并确定与所述模式选择字段对应的目标演示文稿生成模式;根据所述目标演示文稿生成模式和所述目标演示文稿素材分库进行演示文稿生成。通过本发明,可以预先建立演示文稿素材库,为用户提供可以重复使用的演示文稿素材,并预先设置多种演示文稿生成模式,根据用户的指令自动执行相应类别的演示文稿生成过程,极大提高了演示文稿的生成效率。

Description

演示文稿生成方法、装置、计算机可读存储介质及服务器
技术领域
本发明属于人工智能技术领域,尤其涉及一种演示文稿生成方法、装置、计算机可读存储介质及服务器。
背景技术
演示文稿,指的是把静态文件制作成动态文件浏览,把复杂的问题变得通俗易懂,使之更会生动,给人留下更为深刻印象的幻灯片。演示文稿正成为人们工作生活的重要组成部分,在工作汇报、企业宣传、产品推介、婚礼庆典、项目竞标、管理咨询等领域均有广泛的应用。以日常的工作会议为例,在会议开始前,一般需要用户提前准备好与会议相关的演示文稿。在现有技术中,用户通常需要根据实际情况使用常用的一种或多种演示文稿软件来编写所需的演示文稿,每个演示文稿几乎都是从头开始逐页手工写完,耗费大量的时间,效率极为低下。
发明内容
有鉴于此,本发明实施例提供了一种演示文稿生成方法、装置、计算机可读存储介质及服务器,以解决现有的演示文稿生成方法耗费大量的时间,效率极为低下的问题。
本发明实施例的第一方面提供了一种演示文稿生成方法,可以包括:
获取终端设备发送的演示文稿生成模式选择指令;其中,所述演示文稿生成模式选择指令用于对演示文稿的生成模式进行指示;
提取所述演示文稿生成模式选择指令中的身份标识信息,并在预设的演示文稿素材库中查找目标演示文稿素材分库;其中,所述目标演示文稿素材分库为与所述身份标识信息对应的演示文稿素材分库;
提取所述演示文稿生成模式选择指令中的模式选择字段,并确定与所述模式选择字段对应的目标演示文稿生成模式;其中,所述模式选择字段的取值为预设的两个以上的类别选择数值中的一个,每个类别选择数值均对应一种演示文稿生成模式;
根据所述目标演示文稿生成模式和所述目标演示文稿素材分库进行演示文稿生成。
在第一方面的一种具体实现方式中,若所述模式选择字段为预设的第一数值,则所述目标演示文稿生成模式为自定义生成模式;所述根据所述目标演示文稿生成模式和所述目标演示文稿素材分库进行演示文稿生成,可以包括:
从所述目标演示文稿素材分库中提取第一演示文稿素材集合,并将所述第一演示文稿素材集合发送至所述终端设备;
获取所述终端设备发送的第一演示文稿生成指令,并从所述第一演示文稿生成指令中提取第二演示文稿素材集合;
将所述第二演示文稿素材集合中的各个演示文稿素材组合为第一演示文稿,并将所述第一演示文稿发送至所述终端设备。
在第一方面的一种具体实现方式中,若所述模式选择字段为预设的第二数值,则所述目标演示文稿生成模式为人工智能生成模式;所述根据所述目标演示文稿生成模式和所述目标演示文稿素材分库进行演示文稿生成,可以包括:
获取所述终端设备发送的第二演示文稿生成指令,并从所述第二演示文稿生成指令中提取第一关键词集合;
基于预设的词语向量数据库对所述第一关键词集合进行扩充,得到第二关键词集合;
根据所述第二关键词集合在所述目标演示文稿素材分库中查找第三演示文稿素材集合;
将所述第三演示文稿素材集合中的各个演示文稿素材组合为第二演示文稿,并将所述第二演示文稿发送至所述终端设备。
在第一方面的一种具体实现方式中,所述基于预设的词语向量数据库对所述第一关键词集合进行扩充,得到第二关键词集合,可以包括:
分别计算所述词语向量数据库中的各个词语与所述第一关键词集合中的各个关键词之间的匹配度;
从所述词语向量数据库中选取扩充关键词;其中,所述扩充关键词为与所述第一关键词集合中的任意一个关键词之间的匹配度大于预设的匹配度阈值的词语;
将所述扩充关键词添加入所述第一关键词集合,得到所述第二关键词集合。
在第一方面的一种具体实现方式中,所述分别计算所述词语向量数据库中的各个词语与所述第一关键词集合中的各个关键词之间的匹配度,可以包括:
使用预设的孪生神经网络中的第一分支对第一词语的词语向量进行编码,得到第一特征向量;其中,所述第一词语为所述词语向量数据库中的任意一个词语;
使用所述孪生神经网络中的第二分支对第二词语的词语向量进行编码和非线性变换,得到第二特征向量;其中,所述第二词语为所述第一关键词集合中的任意一个关键词;
计算所述第一特征向量和所述第二特征向量之间的余弦相似度,并将所述余弦相似度作为所述第一词语与所述第二词语之间的匹配度。
在第一方面的一种具体实现方式中,在分别计算所述词语向量数据库中的各个词语与所述第一关键词集合中的各个关键词之间的匹配度之前,还可以包括:
获取预设的训练样本集;其中,所述训练样本集中包括SN个训练样本对,每个训练样本对均包括两个同义词的词语向量,SN为正整数;
将所述训练样本集的各个训练样本对分别输入至所述孪生神经网络中,并分别获取所述第一分支的第一输出结果和所述第二分支的第二输出结果;
根据所述第一输出结果和所述第二输出结果计算所述孪生神经网络的损失函数;
以最小化所述损失函数为目标对所述孪生神经网络进行训练,得到训练后的孪生神经网络。
在第一方面的一种具体实现方式中,在根据所述目标演示文稿生成模式和所述目标演示文稿素材分库进行演示文稿生成之前,还可以包括:
从预设的历史日志中分别提取所述目标演示文稿素材分库中的各个演示文稿素材的使用频次;
按照使用频次由高到低的顺序调整所述目标演示文稿素材分库中的各个演示文稿素材的排序。
本发明实施例的第二方面提供了一种演示文稿生成装置,可以包括:
模式选择指令获取模块,用于获取终端设备发送的演示文稿生成模式选择指令;其中,所述演示文稿生成模式选择指令用于对演示文稿的生成模式进行指示;
素材分库查找模块,用于提取所述演示文稿生成模式选择指令中的身份标识信息,并在预设的演示文稿素材库中查找目标演示文稿素材分库;其中,所述目标演示文稿素材分库为与所述身份标识信息对应的演示文稿素材分库;
生成模式确定模块,用于提取所述演示文稿生成模式选择指令中的模式选择字段,并确定与所述模式选择字段对应的目标演示文稿生成模式;其中,所述模式选择字段的取值为预设的两个以上的类别选择数值中的一个,每个类别选择数值均对应一种演示文稿生成模式;
演示文稿生成模块,用于根据所述目标演示文稿生成模式和所述目标演示文稿素材分库进行演示文稿生成。
在第二方面的一种具体实现方式中,若所述模式选择字段为预设的第一数值,则所述目标演示文稿生成模式为自定义生成模式;所述演示文稿生成模块可以包括:
第一素材集合提取子模块,用于从所述目标演示文稿素材分库中提取第一演示文稿素材集合,并将所述第一演示文稿素材集合发送至所述终端设备;
第二素材集合提取子模块,用于获取所述终端设备发送的第一演示文稿生成指令,并从所述第一演示文稿生成指令中提取第二演示文稿素材集合;
第一演示文稿生成子模块,用于将所述第二演示文稿素材集合中的各个演示文稿素材组合为第一演示文稿,并将所述第一演示文稿发送至所述终端设备。
在第二方面的一种具体实现方式中,若所述模式选择字段为预设的第二数值,则所述目标演示文稿生成模式为人工智能生成模式;所述演示文稿生成模块可以包括:
关键词集合提取子模块,用于获取所述终端设备发送的第二演示文稿生成指令,并从所述第二演示文稿生成指令中提取第一关键词集合;
关键词集合扩充子模块,用于基于预设的词语向量数据库对所述第一关键词集合进行扩充,得到第二关键词集合;
第三素材集合查找子模块,用于根据所述第二关键词集合在所述目标演示文稿素材分库中查找第三演示文稿素材集合;
第二演示文稿生成子模块,用于将所述第三演示文稿素材集合中的各个演示文稿素材组合为第二演示文稿,并将所述第二演示文稿发送至所述终端设备。
在第二方面的一种具体实现方式中,所述关键词集合扩充子模块可以包括:
匹配度计算单元,用于分别计算所述词语向量数据库中的各个词语与所述第一关键词集合中的各个关键词之间的匹配度;
关键词选取单元,用于从所述词语向量数据库中选取扩充关键词;其中,所述扩充关键词为与所述第一关键词集合中的任意一个关键词之间的匹配度大于预设的匹配度阈值的词语;
关键词添加单元,用于将所述扩充关键词添加入所述第一关键词集合,得到所述第二关键词集合。
在第二方面的一种具体实现方式中,所述匹配度计算单元可以具体用于:使用预设的孪生神经网络中的第一分支对第一词语的词语向量进行编码,得到第一特征向量;其中,所述第一词语为所述词语向量数据库中的任意一个词语;使用所述孪生神经网络中的第二分支对第二词语的词语向量进行编码和非线性变换,得到第二特征向量;其中,所述第二词语为所述第一关键词集合中的任意一个关键词;计算所述第一特征向量和所述第二特征向量之间的余弦相似度,并将所述余弦相似度作为所述第一词语与所述第二词语之间的匹配度。
在第二方面的一种具体实现方式中,所述关键词集合扩充子模块可以包括孪生神经网络训练单元。
所述孪生神经网络训练单元具体用于:获取预设的训练样本集;其中,所述训练样本集中包括SN个训练样本对,每个训练样本对均包括两个同义词的词语向量,SN为正整数;将所述训练样本集的各个训练样本对分别输入至所述孪生神经网络中,并分别获取所述第一分支的第一输出结果和所述第二分支的第二输出结果;根据所述第一输出结果和所述第二输出结果计算所述孪生神经网络的损失函数;以最小化所述损失函数为目标对所述孪生神经网络进行训练,得到训练后的孪生神经网络。
在第二方面的一种具体实现方式中,所述演示文稿生成装置还可以包括:
演示文稿素材排序模块,用于从预设的历史日志中分别提取所述目标演示文稿素材分库中的各个演示文稿素材的使用频次;按照使用频次由高到低的顺序调整所述目标演示文稿素材分库中的各个演示文稿素材的排序。
本发明实施例的第三方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述任一种演示文稿生成方法的步骤。
本发明实施例的第四方面提供了一种服务器,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述任一种演示文稿生成方法的步骤。
本发明实施例的第五方面提供了一种计算机程序产品,当计算机程序产品在服务器上运行时,使得服务器执行上述任一种演示文稿生成方法的步骤。
本发明实施例与现有技术相比存在的有益效果是:本发明实施例获取终端设备发送的演示文稿生成模式选择指令;其中,所述演示文稿生成模式选择指令用于对演示文稿的生成模式进行指示;提取所述演示文稿生成模式选择指令中的身份标识信息,并在预设的演示文稿素材库中查找目标演示文稿素材分库;其中,所述目标演示文稿素材分库为与所述身份标识信息对应的演示文稿素材分库;提取所述演示文稿生成模式选择指令中的模式选择字段,并确定与所述模式选择字段对应的目标演示文稿生成模式;其中,所述模式选择字段的取值为预设的两个以上的类别选择数值中的一个,每个类别选择数值均对应一种演示文稿生成模式;根据所述目标演示文稿生成模式和所述目标演示文稿素材分库进行演示文稿生成。通过本发明实施例,可以预先建立演示文稿素材库,为用户提供可以重复使用的演示文稿素材,并预先设置多种演示文稿生成模式,根据用户的指令自动执行相应类别的演示文稿生成过程,极大提高了演示文稿的生成效率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例中一种演示文稿生成方法的一个实施例流程图;
图2为根据目标演示文稿生成模式和目标演示文稿素材分库进行演示文稿生成的一种具体实现方式的示意流程图;
图3为根据目标演示文稿生成模式和目标演示文稿素材分库进行演示文稿生成的另一种具体实现方式的示意流程图;
图4为本发明实施例中一种演示文稿生成装置的一个实施例结构图;
图5为本发明实施例中一种服务器的示意框图。
具体实施方式
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本发明一部分实施例,而非全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
本发明实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本发明实施例的执行主体可以为基于人工智能的服务器,用于执行本发明实施例中的演示文稿生成方法。所述服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
请参阅图1,本发明实施例中一种演示文稿生成方法的一个实施例可以包括:
步骤S101、获取终端设备发送的演示文稿生成模式选择指令。
其中,所述演示文稿生成模式选择指令用于对演示文稿的生成模式进行指示。
具体地,用户可以通过自己的身份标识信息(ID)在所述终端设备上登录预设的演示文稿生成模式选择界面,并在所述生成模式选择界面中勾选所需的演示文稿生成模式。当用户在所述演示文稿生成模式选择界面中完成演示文稿生成模式选择之后,点击确认按钮,所述终端设备即可向所述服务器发出所述演示文稿生成模式选择指令,在所述演示文稿生成模式选择指令中携带了所述身份标识信息以及用户在所述演示文稿生成模式选择界面中所选择的演示文稿生成模式。
步骤S102、提取所述演示文稿生成模式选择指令中的身份标识信息,并在预设的演示文稿素材库中查找目标演示文稿素材分库。
其中,所述目标演示文稿素材分库为与所述身份标识信息对应的演示文稿素材分库。
所述演示文稿素材库为存储演示文稿素材的数据库,其中的演示文稿素材可以包括但不限于文本、图片、表格、音频、视频等各种形式。
在本发明实施例中,为了满足用户自由定制的需求,并避免不同用户数据之间的相互关联干扰,提高数据的安全性,可以分别为各个用户在演示文稿素材库中设置对应的素材分库,各个素材分库之间彼此独立,互不相关。
用户与素材分库之间的对应关系可以根据实际情况进行动态配置,当有新的用户时,可以在演示文稿素材库中未使用的空间中为该用户分配对应的使用空间,也即与该用户对应的素材分库;当用户不再需要服务时,可以解除用户与素材分库之间的对应关系,并释放掉与该用户对应的素材分库所使用的空间;当用户对应的素材分库空间不足时,可以为其进行素材分库扩容,在演示文稿素材库中未使用的空间中为该用户分配新增的使用空间。本发明实施例中的素材分库是一个逻辑上的概念,而非物理上的概念,某一用户所对应的素材分库不必是一段连续的物理存储空间,而可以是由多段不连续的物理存储空间所组成的集合。
假设该素材分库共由N段不连续的物理存储空间组成,N为正整数,分别记为存储空间段1、存储空间段2、…、存储空间段N,则在存储空间段1的段尾存储了指向存储空间段2的段头的指针,在存储空间段2的段尾存储了指向存储空间段3的段头的指针,…,以此类推,从而形成一个在逻辑上连续的素材分库。
所述服务器可以提取所述演示文稿生成模式选择指令中的身份标识信息,并在所述演示文稿素材库中查找到与所述身份标识信息对应的素材分库,也即所述目标演示文稿素材分库。
步骤S103、提取所述演示文稿生成模式选择指令中的模式选择字段,并确定与所述模式选择字段对应的目标演示文稿生成模式。
其中,所述模式选择字段的取值为预设的两个以上的类别选择数值中的一个,每个类别选择数值均对应一种演示文稿生成模式。
在本发明实施例的一种具体实现中,用户的选择结果在演示文稿生成模式选择指令中可以用模式选择字段的形式进行记录,例如,若用户选择了自定义生成模式,则模式选择字段取值为预设的第一数值,若用户选择了人工智能生成模式,则模式选择字段取值为预设的第二数值。所述第一数值和所述第二数值可以根据实际情况进行设置,例如,可以设置所述第一数值为0,设置所述第二数值为1,当然,也可以根据实际情况设置其它的记录形式,本发明实施例对此不作具体限定。
步骤S104、根据所述目标演示文稿生成模式和所述目标演示文稿素材分库进行演示文稿生成。
具体地,若所述模式选择字段为所述第一数值,则所述目标演示文稿生成模式为自定义生成模式,在这一模式下,步骤S104具体可以包括如图2所示的过程:
步骤S201、从所述目标演示文稿素材分库中提取第一演示文稿素材集合,并将所述第一演示文稿素材集合发送至所述终端设备。
其中,所述第一演示文稿素材集合为所述目标演示文稿素材分库中的各个演示文稿素材所组成的集合。
所述服务器可以提取所述目标演示文稿素材分库中所有的演示文稿素材,将其组成所述第一演示文稿素材集合,并发送至所述终端设备中进行展示。
在本发明实施例的一种具体实现方式中,为了节省用户选择时间,提高演示文稿生成效率,可以预先对所述目标演示文稿素材分库中的各个演示文稿素材的排序进行调整,具体地,可以从预设的历史日志中分别提取所述目标演示文稿素材分库中的各个演示文稿素材的使用频次,然后按照使用频次由高到低的顺序调整所述目标演示文稿素材分库中的各个演示文稿素材的排序。通过这样的方式,使得使用频次越高的演示文稿素材的排序越靠前,从而在顺序查找时可以被越快地查找到,便于用户进行选择,从而提高了整体的演示文稿生成效率。
步骤S202、获取所述终端设备发送的第一演示文稿生成指令,并从所述第一演示文稿生成指令中提取第二演示文稿素材集合。
所述终端设备在接收到所述第一演示文稿素材集合之后,可以在预设的演示文稿素材展示界面展示出所述第一演示文稿素材集合,以供用户在所述演示文稿素材展示界面中对所述第一演示文稿素材集合中的各个演示文稿素材进行选择。
具体地,用户可以通过自己的身份标识信息登录所述演示文稿素材展示界面,并在所述演示文稿素材展示界面中根据自己的实际需求对所述第一演示文稿素材集合中的各个演示文稿素材进行选择。
当用户在所述演示文稿素材展示界面中完成演示文稿素材选择之后,点击确认按钮,所述终端设备即可将用户在所述演示文稿素材展示界面中所选择的各个演示文稿素材组成所述第二演示文稿素材集合,将所述第二演示文稿素材集合添加入所述第一演示文稿生成指令中,并将所述第一演示文稿生成指令发送至所述服务器。
所述服务器在接收到所述第一演示文稿生成指令之后,即可从中提取所述第二演示文稿素材集合。
步骤S203、将所述第二演示文稿素材集合中的各个演示文稿素材组合为第一演示文稿,并将所述第一演示文稿发送至所述终端设备。
在本发明实施例中,所述服务器可以预先建立一个空白的演示文稿模板,然后将所述第二演示文稿素材集合中的各个演示文稿素材依次填充入所述演示文稿模板中,从而得到最终所述第一演示文稿。在得到所述第一演示文稿之后,所述服务器可以将所述第一演示文稿发送至所述终端设备。
所述终端设备在接收到所述第一演示文稿之后,可以在预设的演示文稿展示界面展示出所述第一演示文稿。用户可以直接使用所述第一演示文稿,也可以根据实际需要进一步对所述第一演示文稿进行修改。
若所述模式选择字段为所述第二数值,则所述目标演示文稿生成模式为人工智能生成模式,在这一模式下,步骤S104具体可以包括如图3所示的过程:
步骤S301、获取所述终端设备发送的第二演示文稿生成指令,并从所述第二演示文稿生成指令中提取第一关键词集合。
在本发明实施例中,所述终端设备可以向用户展示预设的关键词输入界面,用户可以在所述关键词输入界面中输入至少一个与其所需的演示文稿的主题相关的关键词,具体输入哪些关键词可以由用户根据实际情况确定,本发明实施例对此不作具体限定。
当用户在所述关键词输入界面中完成关键词输入之后,点击确认按钮,所述终端设备即可将用户在所述关键词输入界面中所输入的各个关键词组成所述第一关键词集合,将所述第一关键词集合添加入所述第二演示文稿生成指令中,并将所述第二演示文稿生成指令发送至所述服务器。
所述服务器在接收到所述第二演示文稿生成指令之后,即可从中提取所述第一关键词集合。
步骤S302、基于预设的词语向量数据库对所述第一关键词集合进行扩充,得到第二关键词集合。
所述词语向量数据库为记录词语与词语向量之间的对应关系的数据库。所述词语向量可以是根据word2vec模型训练词语所得到对应的词语向量。word2vec模型用中心词作为预测其周围的词或用周围的词预测中心词,通过神经网络模型训练,将词的向量表达从高维的one-hot形式转化为蕴含语义信息的低维度向量表达。具体地,如“金融”的one-hot向量假设定为[1,0,0,0,……,0],“产品”的one-hot向量为[0,1,0,0,……,0],“监控”的向量[0,0,1,0,……,0],以最大化“风险”一词的输出概率为训练目标进行模型训练,模型经过训练会生成隐藏层的系数矩阵W,每个词的one-hot向量和系数矩阵的乘积为该词的词语向量,最后的形式将是类似于“金融[-0.28,0.34,-0.02,…,0.92]”这样的一个多维向量。所述服务器可以在所述词语向量数据库分别查询所述第一关键词集合中的各个关键词的词语向量,以及所述词语向量数据库中的各个词语的词语向量。
所述服务器可以首先分别计算所述词语向量数据库中的各个词语与所述第一关键词集合中的各个关键词之间的匹配度。
在本发明实施例的一种具体实现中,可以使用预设的孪生神经网络来计算第一词语与第二词语之间的匹配度,其中,所述第一词语为所述词语向量数据库中的任意一个词语;所述第二词语为所述第一关键词集合中的任意一个关键词。
所述孪生神经网络可以为SimSiam网络,SimSiam网络中包括两条分支,分别记为第一分支和第二分支,分别对输入的所述第一词语的词语向量和所述第二词语的词语向量进行处理,其中,所述第一分支中的编码器(encoder)对所述第一词语的词语向量进行编码,得到第一特征向量;所述第二分支中的编码器对所述第二词语的词语向量进行编码,编码结果再经过所述第二分支中的预测器(predictor)的非线性变换,得到第二特征向量。需要注意的是,所述第一分支中的编码器和所述第二分支中的编码器共用相同的参数,可以将其认为是同一个编码器。然后,计算所述第一特征向量和所述第二特征向量之间的余弦相似度,并将所述余弦相似度作为所述第一词语与所述第二词语之间的匹配度。
所述孪生神经网络在使用之前,可以先经过预设的训练样本集进行训练。具体地,首先获取所述训练样本集,其中,所述训练样本集中包括SN个训练样本对,每个训练样本对均包括两个同义词的词语向量,SN为正整数。然后,将所述训练样本集的各个训练样本对分别输入至所述孪生神经网络中,并分别获取所述第一分支的第一输出结果和所述第二分支的第二输出结果,并根据所述第一输出结果和所述第二输出结果计算所述孪生神经网络的损失函数。
具体地,可以根据下式计算所述损失函数:
Figure BDA0003477471870000141
其中,s为所述训练样本集中的训练样本对的序号,1≤s≤SN,Vecs,1为与所述训练样本集中的第s个训练样本对对应的第一输出结果,Vecs,2为与所述训练样本集中的第s个训练样本对对应的第二输出结果,||||2为向量的模,Loss为所述损失函数。
以最小化所述损失函数为目标对所述孪生神经网络进行训练,得到训练后的孪生神经网络。具体地,在计算得到所述损失函数之后,则可以根据所述损失函数对所述孪生神经网络的模型参数进行调整。在本发明实施例中,假设所述孪生神经网络的模型参数为W1,将损失函数反向传播修改所述孪生神经网络的模型参数W1,得到修改后的模型参数W2。修改参数之后再继续执行下一次的训练过程,在该次训练过程中,重新计算得到所述损失函数,将所述损失函数反向传播修改所述孪生神经网络的模型参数W2,得到修改后的模型参数W3,……,以此类推,不断重复以上过程,每次训练过程均可对所述孪生神经网络的模型参数进行修改,直至满足预设的训练条件,其中,训练条件可以是训练次数达到预设的次数阈值,次数阈值可以根据实际情况进行设置,例如,可以将其设置为数千、数万、数十万甚至更大的数值;训练条件也可以是所述孪生神经网络收敛;由于可能出现训练次数还未达到次数阈值,但所述孪生神经网络已经收敛,可能导致重复不必要的工作;或者所述孪生神经网络始终无法收敛,可能导致无限循环,无法结束训练的过程,基于上述两种情况,训练条件还可以是训练次数达到次数阈值或所述孪生神经网络收敛。当满足训练条件,即可得到训练后的孪生神经网络。
在训练完成后,所述服务器即可使用所述孪生神经网络分别计算所述词语向量数据库中的各个词语与所述第一关键词集合中的各个关键词之间的匹配度,并从所述词语向量数据库中选取扩充关键词。其中,所述扩充关键词为与所述第一关键词集合中的任意一个关键词之间的匹配度大于预设的匹配度阈值的词语,所述匹配度阈值的具体取值可以根据实际情况进行设置,本发明实施例对此不作具体限定。在选取完成之后,可以将选取出的所述扩充关键词添加入所述第一关键词集合,从而得到所述第二关键词集合。
步骤S303、根据所述第二关键词集合在所述目标演示文稿素材分库中查找第三演示文稿素材集合。
在本发明实施例中,每个演示文稿素材均预先设置了对应的描述文本。对于每个描述文本,可以在其中进行关键词查找,若在该描述文本中查找到所述第二关键词集合中的任意一个关键词,则可以将该描述文本对应的演示文稿素材作为优选演示文稿素材。最后将所有的优选演示文稿素材组成的集合作为所述第三演示文稿素材集合。
步骤S304、将所述第三演示文稿素材集合中的各个演示文稿素材组合为第二演示文稿,并将所述第二演示文稿发送至所述终端设备。
在本发明实施例中,所述服务器可以预先建立一个空白的演示文稿模板,然后将所述第二演示文稿素材集合中的各个演示文稿素材依次填充入所述演示文稿模板中,从而得到所述第二演示文稿。在得到所述第二演示文稿之后,所述服务器可以将所述第二演示文稿发送至所述终端设备。
所述终端设备在接收到所述第二演示文稿之后,可以在预设的演示文稿展示界面展示出所述第二演示文稿。用户可以直接使用所述第二演示文稿,也可以根据实际需要进一步对所述第二演示文稿进行修改。
综上所述,本发明实施例获取终端设备发送的演示文稿生成模式选择指令;其中,所述演示文稿生成模式选择指令用于对演示文稿的生成模式进行指示;提取所述演示文稿生成模式选择指令中的身份标识信息,并在预设的演示文稿素材库中查找目标演示文稿素材分库;其中,所述目标演示文稿素材分库为与所述身份标识信息对应的演示文稿素材分库;提取所述演示文稿生成模式选择指令中的模式选择字段,并确定与所述模式选择字段对应的目标演示文稿生成模式;其中,所述模式选择字段的取值为预设的两个以上的类别选择数值中的一个,每个类别选择数值均对应一种演示文稿生成模式;根据所述目标演示文稿生成模式和所述目标演示文稿素材分库进行演示文稿生成。通过本发明实施例,可以预先建立演示文稿素材库,为用户提供可以重复使用的演示文稿素材,并预先设置多种演示文稿生成模式,根据用户的指令自动执行相应类别的演示文稿生成过程,极大提高了演示文稿的生成效率。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
对应于上文实施例所述的一种演示文稿生成方法,图4示出了本发明实施例提供的一种演示文稿生成装置的一个实施例结构图。
本实施例中,一种演示文稿生成装置可以包括:
模式选择指令获取模块401,用于获取终端设备发送的演示文稿生成模式选择指令;其中,所述演示文稿生成模式选择指令用于对演示文稿的生成模式进行指示;
素材分库查找模块402,用于提取所述演示文稿生成模式选择指令中的身份标识信息,并在预设的演示文稿素材库中查找目标演示文稿素材分库;其中,所述目标演示文稿素材分库为与所述身份标识信息对应的演示文稿素材分库;
生成模式确定模块403,用于提取所述演示文稿生成模式选择指令中的模式选择字段,并确定与所述模式选择字段对应的目标演示文稿生成模式;其中,所述模式选择字段的取值为预设的两个以上的类别选择数值中的一个,每个类别选择数值均对应一种演示文稿生成模式;
演示文稿生成模块404,用于根据所述目标演示文稿生成模式和所述目标演示文稿素材分库进行演示文稿生成。
在本发明实施例的一种具体实现方式中,若所述模式选择字段为预设的第一数值,则所述目标演示文稿生成模式为自定义生成模式;所述演示文稿生成模块可以包括:
第一素材集合提取子模块,用于从所述目标演示文稿素材分库中提取第一演示文稿素材集合,并将所述第一演示文稿素材集合发送至所述终端设备;
第二素材集合提取子模块,用于获取所述终端设备发送的第一演示文稿生成指令,并从所述第一演示文稿生成指令中提取第二演示文稿素材集合;
第一演示文稿生成子模块,用于将所述第二演示文稿素材集合中的各个演示文稿素材组合为第一演示文稿,并将所述第一演示文稿发送至所述终端设备。
在本发明实施例的一种具体实现方式中,若所述模式选择字段为预设的第二数值,则所述目标演示文稿生成模式为人工智能生成模式;所述演示文稿生成模块可以包括:
关键词集合提取子模块,用于获取所述终端设备发送的第二演示文稿生成指令,并从所述第二演示文稿生成指令中提取第一关键词集合;
关键词集合扩充子模块,用于基于预设的词语向量数据库对所述第一关键词集合进行扩充,得到第二关键词集合;
第三素材集合查找子模块,用于根据所述第二关键词集合在所述目标演示文稿素材分库中查找第三演示文稿素材集合;
第二演示文稿生成子模块,用于将所述第三演示文稿素材集合中的各个演示文稿素材组合为第二演示文稿,并将所述第二演示文稿发送至所述终端设备。
在本发明实施例的一种具体实现方式中,所述关键词集合扩充子模块可以包括:
匹配度计算单元,用于分别计算所述词语向量数据库中的各个词语与所述第一关键词集合中的各个关键词之间的匹配度;
关键词选取单元,用于从所述词语向量数据库中选取扩充关键词;其中,所述扩充关键词为与所述第一关键词集合中的任意一个关键词之间的匹配度大于预设的匹配度阈值的词语;
关键词添加单元,用于将所述扩充关键词添加入所述第一关键词集合,得到所述第二关键词集合。
在本发明实施例的一种具体实现方式中,所述匹配度计算单元可以具体用于:使用预设的孪生神经网络中的第一分支对第一词语的词语向量进行编码,得到第一特征向量;其中,所述第一词语为所述词语向量数据库中的任意一个词语;使用所述孪生神经网络中的第二分支对第二词语的词语向量进行编码和非线性变换,得到第二特征向量;其中,所述第二词语为所述第一关键词集合中的任意一个关键词;计算所述第一特征向量和所述第二特征向量之间的余弦相似度,并将所述余弦相似度作为所述第一词语与所述第二词语之间的匹配度。
在本发明实施例的一种具体实现方式中,所述关键词集合扩充子模块可以包括孪生神经网络训练单元。
所述孪生神经网络训练单元具体用于:获取预设的训练样本集;其中,所述训练样本集中包括SN个训练样本对,每个训练样本对均包括两个同义词的词语向量,SN为正整数;将所述训练样本集的各个训练样本对分别输入至所述孪生神经网络中,并分别获取所述第一分支的第一输出结果和所述第二分支的第二输出结果;根据所述第一输出结果和所述第二输出结果计算所述孪生神经网络的损失函数;以最小化所述损失函数为目标对所述孪生神经网络进行训练,得到训练后的孪生神经网络。
在本发明实施例的一种具体实现方式中,所述演示文稿生成装置还可以包括:
演示文稿素材排序模块,用于从预设的历史日志中分别提取所述目标演示文稿素材分库中的各个演示文稿素材的使用频次;按照使用频次由高到低的顺序调整所述目标演示文稿素材分库中的各个演示文稿素材的排序。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置,模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
图5示出了本发明实施例提供的一种服务器的示意框图,为了便于说明,仅示出了与本发明实施例相关的部分。
在本实施例中,该服务器5可包括:处理器50、存储器51以及存储在所述存储器51中并可在所述处理器50上运行的计算机可读指令52,例如执行上述的演示文稿生成方法的计算机可读指令。所述处理器50执行所述计算机可读指令52时实现上述各个演示文稿生成方法实施例中的步骤,例如图1所示的步骤S101至S104。或者,所述处理器50执行所述计算机可读指令52时实现上述各装置实施例中各模块/单元的功能,例如图4所示模块401至404的功能。
示例性的,所述计算机可读指令52可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器51中,并由所述处理器50执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机可读指令段,该指令段用于描述所述计算机可读指令52在所述服务器5中的执行过程。
本领域技术人员可以理解,图5仅仅是服务器5的示例,并不构成对服务器5的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述服务器5还可以包括输入输出设备、网络接入设备、总线等。
所述处理器50可以是中央处理单元(Central Processing Unit,CPU),还可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器51可以是所述服务器5的内部存储单元,例如服务器5的硬盘或内存。所述存储器51也可以是所述服务器5的外部存储设备,例如所述服务器5上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器51还可以既包括所述服务器5的内部存储单元也包括外部存储设备。所述存储器51用于存储所述计算机可读指令以及所述服务器5所需的其它指令和数据。所述存储器51还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/服务器和方法,可以通过其它的方式实现。例如,以上所描述的装置/服务器实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读存储介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读存储介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读存储介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种演示文稿生成方法,其特征在于,包括:
获取终端设备发送的演示文稿生成模式选择指令;其中,所述演示文稿生成模式选择指令用于对演示文稿的生成模式进行指示;
提取所述演示文稿生成模式选择指令中的身份标识信息,并在预设的演示文稿素材库中查找目标演示文稿素材分库;其中,所述目标演示文稿素材分库为与所述身份标识信息对应的演示文稿素材分库;
提取所述演示文稿生成模式选择指令中的模式选择字段,并确定与所述模式选择字段对应的目标演示文稿生成模式;其中,所述模式选择字段的取值为预设的两个以上的类别选择数值中的一个,每个类别选择数值均对应一种演示文稿生成模式;
根据所述目标演示文稿生成模式和所述目标演示文稿素材分库进行演示文稿生成。
2.根据权利要求1所述的演示文稿生成方法,其特征在于,若所述模式选择字段为预设的第一数值,则所述目标演示文稿生成模式为自定义生成模式;所述根据所述目标演示文稿生成模式和所述目标演示文稿素材分库进行演示文稿生成,包括:
从所述目标演示文稿素材分库中提取第一演示文稿素材集合,并将所述第一演示文稿素材集合发送至所述终端设备;
获取所述终端设备发送的第一演示文稿生成指令,并从所述第一演示文稿生成指令中提取第二演示文稿素材集合;
将所述第二演示文稿素材集合中的各个演示文稿素材组合为第一演示文稿,并将所述第一演示文稿发送至所述终端设备。
3.根据权利要求1所述的演示文稿生成方法,其特征在于,若所述模式选择字段为预设的第二数值,则所述目标演示文稿生成模式为人工智能生成模式;所述根据所述目标演示文稿生成模式和所述目标演示文稿素材分库进行演示文稿生成,包括:
获取所述终端设备发送的第二演示文稿生成指令,并从所述第二演示文稿生成指令中提取第一关键词集合;
基于预设的词语向量数据库对所述第一关键词集合进行扩充,得到第二关键词集合;
根据所述第二关键词集合在所述目标演示文稿素材分库中查找第三演示文稿素材集合;
将所述第三演示文稿素材集合中的各个演示文稿素材组合为第二演示文稿,并将所述第二演示文稿发送至所述终端设备。
4.根据权利要求3所述的演示文稿生成方法,其特征在于,所述基于预设的词语向量数据库对所述第一关键词集合进行扩充,得到第二关键词集合,包括:
分别计算所述词语向量数据库中的各个词语与所述第一关键词集合中的各个关键词之间的匹配度;
从所述词语向量数据库中选取扩充关键词;其中,所述扩充关键词为与所述第一关键词集合中的任意一个关键词之间的匹配度大于预设的匹配度阈值的词语;
将所述扩充关键词添加入所述第一关键词集合,得到所述第二关键词集合。
5.根据权利要求4所述的演示文稿生成方法,其特征在于,所述分别计算所述词语向量数据库中的各个词语与所述第一关键词集合中的各个关键词之间的匹配度,包括:
使用预设的孪生神经网络中的第一分支对第一词语的词语向量进行编码,得到第一特征向量;其中,所述第一词语为所述词语向量数据库中的任意一个词语;
使用所述孪生神经网络中的第二分支对第二词语的词语向量进行编码和非线性变换,得到第二特征向量;其中,所述第二词语为所述第一关键词集合中的任意一个关键词;
计算所述第一特征向量和所述第二特征向量之间的余弦相似度,并将所述余弦相似度作为所述第一词语与所述第二词语之间的匹配度。
6.根据权利要求5所述的演示文稿生成方法,其特征在于,在分别计算所述词语向量数据库中的各个词语与所述第一关键词集合中的各个关键词之间的匹配度之前,还包括:
获取预设的训练样本集;其中,所述训练样本集中包括SN个训练样本对,每个训练样本对均包括两个同义词的词语向量,SN为正整数;
将所述训练样本集的各个训练样本对分别输入至所述孪生神经网络中,并分别获取所述第一分支的第一输出结果和所述第二分支的第二输出结果;
根据所述第一输出结果和所述第二输出结果计算所述孪生神经网络的损失函数;
以最小化所述损失函数为目标对所述孪生神经网络进行训练,得到训练后的孪生神经网络。
7.根据权利要求1至6中任一项所述的演示文稿生成方法,其特征在于,在根据所述目标演示文稿生成模式和所述目标演示文稿素材分库进行演示文稿生成之前,还包括:
从预设的历史日志中分别提取所述目标演示文稿素材分库中的各个演示文稿素材的使用频次;
按照使用频次由高到低的顺序调整所述目标演示文稿素材分库中的各个演示文稿素材的排序。
8.一种演示文稿生成装置,其特征在于,包括:
模式选择指令获取模块,用于获取终端设备发送的演示文稿生成模式选择指令;其中,所述演示文稿生成模式选择指令用于对演示文稿的生成模式进行指示;
素材分库查找模块,用于提取所述演示文稿生成模式选择指令中的身份标识信息,并在预设的演示文稿素材库中查找目标演示文稿素材分库;其中,所述目标演示文稿素材分库为与所述身份标识信息对应的演示文稿素材分库;
生成模式确定模块,用于提取所述演示文稿生成模式选择指令中的模式选择字段,并确定与所述模式选择字段对应的目标演示文稿生成模式;其中,所述模式选择字段的取值为预设的两个以上的类别选择数值中的一个,每个类别选择数值均对应一种演示文稿生成模式;
演示文稿生成模块,用于根据所述目标演示文稿生成模式和所述目标演示文稿素材分库进行演示文稿生成。
9.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,其特征在于,所述计算机可读指令被处理器执行时实现如权利要求1至7中任一项所述的演示文稿生成方法的步骤。
10.一种服务器,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机可读指令,其特征在于,所述处理器执行所述计算机可读指令时实现如权利要求1至7中任一项所述的演示文稿生成方法的步骤。
CN202210059107.8A 2022-01-19 2022-01-19 演示文稿生成方法、装置、计算机可读存储介质及服务器 Active CN114398883B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210059107.8A CN114398883B (zh) 2022-01-19 2022-01-19 演示文稿生成方法、装置、计算机可读存储介质及服务器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210059107.8A CN114398883B (zh) 2022-01-19 2022-01-19 演示文稿生成方法、装置、计算机可读存储介质及服务器

Publications (2)

Publication Number Publication Date
CN114398883A true CN114398883A (zh) 2022-04-26
CN114398883B CN114398883B (zh) 2023-07-07

Family

ID=81231505

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210059107.8A Active CN114398883B (zh) 2022-01-19 2022-01-19 演示文稿生成方法、装置、计算机可读存储介质及服务器

Country Status (1)

Country Link
CN (1) CN114398883B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116205612A (zh) * 2023-05-04 2023-06-02 国网山东省电力公司滨州市沾化区供电公司 辅助生成电网维护方案的方法、系统、终端及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018120819A1 (zh) * 2016-12-26 2018-07-05 北京奇虎科技有限公司 一种演示文稿的制作方法和装置
CN110046240A (zh) * 2019-04-16 2019-07-23 浙江爱闻格环保科技有限公司 结合关键词检索与孪生神经网络的目标领域问答推送方法
CN110334332A (zh) * 2019-06-17 2019-10-15 广州视源电子科技股份有限公司 一种演示文稿生成方法、装置、存储介质及电子设备
CN111881307A (zh) * 2020-07-28 2020-11-03 平安科技(深圳)有限公司 一种演示文稿生成方法、装置、计算机设备及存储介质
CN112651238A (zh) * 2020-12-28 2021-04-13 深圳壹账通智能科技有限公司 训练语料扩充方法及装置、意图识别模型训练方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018120819A1 (zh) * 2016-12-26 2018-07-05 北京奇虎科技有限公司 一种演示文稿的制作方法和装置
CN110046240A (zh) * 2019-04-16 2019-07-23 浙江爱闻格环保科技有限公司 结合关键词检索与孪生神经网络的目标领域问答推送方法
CN110334332A (zh) * 2019-06-17 2019-10-15 广州视源电子科技股份有限公司 一种演示文稿生成方法、装置、存储介质及电子设备
CN111881307A (zh) * 2020-07-28 2020-11-03 平安科技(深圳)有限公司 一种演示文稿生成方法、装置、计算机设备及存储介质
CN112651238A (zh) * 2020-12-28 2021-04-13 深圳壹账通智能科技有限公司 训练语料扩充方法及装置、意图识别模型训练方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
U013250861: "NLP-文本匹配-2016:MaLSTM(ManhaĴan LSTM,孪生神经网络模型)【语句相似度计算:用于文本对比,内容推荐,重复内容判断】【将原本的计算余弦相似度改为一个线性层来计算相似度】", pages 1 - 9, Retrieved from the Internet <URL:https://blog.csdn.net/u013250861/article/details/120913732> *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116205612A (zh) * 2023-05-04 2023-06-02 国网山东省电力公司滨州市沾化区供电公司 辅助生成电网维护方案的方法、系统、终端及存储介质

Also Published As

Publication number Publication date
CN114398883B (zh) 2023-07-07

Similar Documents

Publication Publication Date Title
CN109783655A (zh) 一种跨模态检索方法、装置、计算机设备和存储介质
CN110737756B (zh) 确定针对用户输入数据的应答的方法、装置、设备和介质
CN112287069B (zh) 基于语音语义的信息检索方法、装置及计算机设备
CN110297897B (zh) 问答处理方法及相关产品
CN106407381B (zh) 一种基于人工智能的推送信息的方法和装置
CN113434636B (zh) 基于语义的近似文本搜索方法、装置、计算机设备及介质
CN113239176B (zh) 语义匹配模型训练方法、装置、设备及存储介质
CN103309869A (zh) 数据对象的展示关键词推荐方法及系统
CN111078842A (zh) 查询结果的确定方法、装置、服务器及存储介质
CN111767394A (zh) 一种基于人工智能专家系统的摘要提取方法及装置
CN115525773A (zh) 知识图谱补全模型的训练方法和装置
CN114782716A (zh) 图像匹配方法及装置
CN109086386B (zh) 数据处理方法、装置、计算机设备和存储介质
CN114398883B (zh) 演示文稿生成方法、装置、计算机可读存储介质及服务器
CN110377803B (zh) 信息处理方法以及装置
CN116662495A (zh) 问答处理方法、训练问答处理模型的方法及装置
CN111506812B (zh) 一种推荐词的生成方法、装置、存储介质及计算机设备
CN113051375A (zh) 基于问答设备的问答数据的处理方法和装置
CN111563159B (zh) 文本排序方法及装置
CN112417094B (zh) 基于网络文本的答案选择方法、装置、服务器及存储介质
US20230308731A1 (en) Method for providing service of producing multimedia conversion content by using image resource matching, and apparatus thereof
CN117670471A (zh) 一种标题生成模型的训练方法及装置
CN118277588A (zh) 查询请求处理方法、电子设备及存储介质
CN115146036A (zh) 问题生成模型训练方法及装置、问题生成方法及装置
CN118230224A (zh) 标签打分方法、标签打分模型训练方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant