CN113392639A - 基于人工智能的标题生成方法、装置及服务器 - Google Patents
基于人工智能的标题生成方法、装置及服务器 Download PDFInfo
- Publication number
- CN113392639A CN113392639A CN202011070020.8A CN202011070020A CN113392639A CN 113392639 A CN113392639 A CN 113392639A CN 202011070020 A CN202011070020 A CN 202011070020A CN 113392639 A CN113392639 A CN 113392639A
- Authority
- CN
- China
- Prior art keywords
- text
- title
- character
- sequence
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/258—Heading extraction; Automatic titling; Numbering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例提出一种基于人工智能的标题生成方法、装置、服务器。其中,该方法是:获取输入的目标文本;获取目标文本的文本类型,并根据文本类型在目标文本的指定位置处添加文本类型标识和标题长度标识,得到待处理文本;确定待处理文本的文本特征,并调用标题生成模型对待处理文本的文本特征进行处理,以生成目标文本的文本标题。通过本申请实施例提出的标题生成方法,可以将文本类型标识和标题长度标识作为目标文本的一部分文本特征,从而可以提高生成文本标题的准确性和效率。
Description
技术领域
本发明涉及互联网技术领域,尤其涉及一种基于人工智能的标题生成方法、装置及服务器。
背景技术
标题生成是自然语言处理中最常见的应用,所谓“标题生成”,是一个序列到序列的处理过程,就是说对于一个输入文本,对输入文本进行分词处理、词性标注、语义提取等分析之后,得到该输入文本对应的文本标题,该文本标题可以表示该输入文本的文本要义。
目前,标题生成主要由人工完成,人工理解整个输入文本后,为输入文本确定对应的文本标题。由于人工处理的方式需要经历人工文本理解,受主观性影响较大,可能会由于人的主观意识导致对文本类型误判,因此使得生成的文本标题不够准确,并且人工处理的方式效率较低。
发明内容
本发明实施例提出了一种基于人工智能的标题生成方法、装置、服务器以及存储介质,可以将文本类型标识和标题长度标识作为目标文本的一部分文本特征,可以提高生成文本标题的准确性和效率。
本申请实施例一方面提供一种基于人工智能的标题生成方法,该方法具体包括:
获取输入的目标文本;
获取所述目标文本的文本类型,并根据所述文本类型在所述目标文本的指定位置处添加文本类型标识和标题长度标识,得到待处理文本;
确定所述待处理文本的文本特征,并调用标题生成模型对所述待处理文本的文本特征进行处理,以生成所述目标文本的文本标题。
本申请实施例一方面提供了一种基于人工智能的标题生成装置,该装置具有实现上述的基于人工智能的标题生成方法的功能。所述功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。所述硬件或软件包括:
获取单元,用于获取输入的目标文本;
添加单元,用于获取所述目标文本的文本类型,并根据所述文本类型在所述目标文本的指定位置处添加文本类型标识和标题长度标识,得到待处理文本;
处理单元,用于确定所述待处理文本的文本特征,并调用标题生成模型对所述待处理文本的文本特征进行处理,以生成所述目标文本的文本标题。
本申请实施例一方面提供了一种服务器,该设备包括处理器、输入设备、输出设备和存储器,所述处理器、输入设备、输出设备和存储器相互连接,其中,所述存储器用于存储计算机程序,所述计算机程序包括程序指令,所述处理器被配置用于调用所述程序指令,用于执行上述基于人工智能的标题生成方法所涉及到的操作。
本申请实施例一方面提供了一种计算机可读存储介质,用于储存为计算机设备所用的计算机程序指令,其包含用于执行上述基于人工智能的标题生成方法所涉及的程序。
本申请实施例一方面提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述的基于人工智能的标题生成方法。
通过本申请实施例,根据目标文本的文本类型,在目标文本前添加文本类型标识和标题长度标识,将添加文本类型标识和标题长度标识后的文本输入标题生成模型,以生成目标文本的文本标题,能够根据不同的业务场景,在不需要调整标题生成模型和训练数据的情况下,能够直接生成特定文本类型下的文本标题,从而提高了处理效率。由于模型学习到不同文本类型的文本在标题生成模型上特征提取方式的共性和特性,从而提高了模型生成的文本标题的准确性。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种基于人工智能的标题生成系统的架构示意图;
图2a是本申请实施例提供的一种基于人工智能的标题生成方法的场景示意图;
图2b是本申请实施例提供的另一种基于人工智能的标题生成方法的场景示意图;
图3是本申请实施例提供的一种基于人工智能的标题生成方法的流程示意图;
图4a是本申请实施例提供的一种确定待处理文本的流程示意图;
图4b是本申请实施例提供的另一种确定待处理文本的流程示意图;
图5是本申请实施例提供的一种生成文本标题的流程示意图;
图6a是本申请实施例提供的一种生成的文本标题的流程示意图;
图6b是本申请实施例提供的另一种生成的文本标题的流程示意图;
图7是本申请实施例提供的一种基于人工智能的标题生成装置的结构示意图;
图8是本申请实施例提供的一种服务器的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本申请实施例中所涉及到的“第一”、“第二”等描述仅用于描述目的,而不能理解为指示或者暗示其相对重要性或者隐含指明所指示的技术特征的数量。因此,限定有“第一”、“第二”的技术特征可以明示或者隐含的包括至少一个该特征。
云技术(Cloud technology)是基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、应用技术等的总称,可以组成资源池,按需所用,灵活便利。目前,技术网络系统的后台服务需要大量的计算、存储资源,如视频网站、图片类网站和更多的门户网站。伴随着互联网行业的高度发展和应用,将来每个物品都有可能存在自己的识别标志,都需要传输到后台系统进行逻辑处理,不同程度级别的数据将会分开处理,各类行业数据皆需要强大的系统后盾支撑,只能通过云计算来实现。
目前,云技术主要分为云基础技术类以及云应用类;云基础技术类可以进一步细分为:云计算、云储存、数据库以及大数据等;云应用类可以进一步细分为:医疗云、云物联、云安全、云呼叫、私有云、公有云、混合云、云游戏、云教育、云会议、云社交以及人工智能云服务等。
从基础技术角度来说,本申请的标题生成方法涉及云技术下属的云计算;从应用角度来说,本申请的标题生成方法涉及云技术下属的人工智能云服务。
云计算(cloud computing)是一种计算模式,它将计算任务分布在大量计算机构成的资源池上,使各种应用系统能够根据需要获取计算力、存储空间和信息服务。提供资源的网络被称为“云”。“云”中的资源在使用者看来是可以无限扩展的,并且可以随时获取,按需使用,随时扩展,按使用付费。
在本申请中,调用标题生成模型对所述待处理文本的文本特征进行处理涉及大规模计算,需要巨大的算力和存储空间,因此在本申请中,可以由服务器通过云计算技术获取足够算力和存储空间,进而执行本申请中所涉及的生成目标文本的文本标题。
所谓人工智能云服务,一般也被称作是AIaaS(AIas a Service,中文为“AI即服务”)。这是目前主流的一种人工智能平台的服务方式,具体来说AIaaS平台会把几类常见的AI服务进行拆分,并在云端提供独立或者打包的服务。这种服务模式类似于开了一个AI主题商城:所有的开发者都可以通过API接口的方式来接入使用平台提供的一种或者是多种人工智能服务,部分资深的开发者还可以使用平台提供的AI框架和AI基础设施来部署和运维自已专属的云人工智能服务。
可以将本申请涉及的文本处理方法封装为一个人工智能服务,且仅对外暴露一个接口。当在某一个业务场景下需要使用本申请所涉及的标题生成功能时,通过调用该接口,即可完成对目标文本的标题生成。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请实施例提供的方案属于人工智能领域下属的自然语言处理技术。
自然语言处理(Nature Language processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。
本申请实施例所涉及到的电子设备,可以是一种向用户提供语音和/或数据连通性的设备,例如,具有无线连接功能的手持式设备、车载设备等。电子设备也可以是连接到无线调制解调器的其他处理设备。电子设备可以与无线接入网(Radio Access Network,RAN)进行通信。电子设备也可以称为无线终端、订户单元(Subscriber Unit)、订户站(Subscriber Station),移动站(Mobile Station)、移动台(Mobile)、远程站(RemoteStation)、接入点(Access Point)、远程终端(Remote Terminal)、接入终端(AccessTerminal)、用户终端(User Terminal)、用户代理(User Agent)、用户设备(User Device)、或用户设备(User Equipment,UE)等等。电子设备可以是移动终端,如移动电话(或称为“蜂窝”电话)和具有移动终端的计算机,例如,可以是便携式、袖珍式、手持式、计算机内置的或者车载的移动装置,它们与无线接入网交换语言和/或数据。例如,电子设备还可以是个人通信业务(Personal Communication Service,PCS)电话、无绳电话、会话发起协议(Session Initiation Protocol,SIP)话机、无线本地环路(Wireless Local Loop,WLL)站、个人数字助理(Personal Digital Assistant,PDA)、等设备。
请参见图1,图1为本申请实施例提供的一种基于人工智能的标题生成系统的架构示意图。该标题生成系统的架构图包括:服务器140以及电子设备集群,其中,电子设备集群可以包括:电子设备110、电子设备120、...、电子设备130等。电子设备集群与服务器10d可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。
图1所示的服务器140可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。
图1所示的电子设备110、电子设备120、电子设备130等可以是手机、平板电脑、笔记本电脑、掌上电脑、移动互联网设备(MID,mobile internet device)、车辆、路边设备、飞行器、可穿戴设备,例如智能手表、智能手环、计步器等,等智能设备。
在一种可能的实现方式中,以电子设备110为例,电子设备110获取用户输入的目标文本,电子设备110将目标文本发送至服务器140。服务器140获取目标文本的文本类型,并根据文本类型在目标文本的指定位置处添加文本类型标识,得到待处理文本;服务器140确定待处理文本的文本特征,并调用标题生成模型对待处理文本的文本特征进行处理,以生成目标文本的文本标题。需要说明的是,目标文本的文本类型可以是由电子设备110发送给服务器140的,也可以是由服务器140根据对目标文本进行分析处理得到的。
在一种可能的实现方式中,服务器140可以将得到的目标文本的文本标题发送至电子设备110。电子设备110将接收到的目标文本的文本标题与目标文本进行关联存储,当电子设备110接收到目标用户针对目标文本的文本标题获取请求时,电子设备110输出该目标文本的文本标题。
在一种可能的实现方式中,获取目标文本的文本类型,并根据文本类型在目标文本的指定位置处添加文本类型标识,得到待处理文本;确定待处理文本的文本特征,并调用标题生成模型对待处理文本的文本特征进行处理,以生成目标文本的文本标题也可以由电子设备110或者电子设备集群中的任意电子设备来执行,本发明对此不作限定。
可以理解的是,本申请实施例描述的系统架构示意图是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域普通技术人员可知,随着系统架构的演变和新业务场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
请参见图2a-图2b,图2a-图2b为本申请实施例提供的一种基于人工智能的标题生成方法的场景示意图。首先,请参见图2a,在图2a所示的电子设备所显示的屏幕界面中,可以包含可供用户进行搜索操作的操作界面,用户可以在操作界面20a中输入目标文本,假设用户输入的目标文本为:“大家在打球的时候,尤其需要注意自身安全,切不可为了比赛利益做出任何伤害自己或者他人的举动”,然后用户可以点击操作界面中的“搜索”按钮,则电子设备响应用户的搜索操作,获取用户输入的目标文本。
在一种可能的实现方式中,用户在电子设备的操作界面20a中输入目标文本之后,电子设备将该目标文本发送至服务器,然后,服务器获取电子设备发送的目标文本,并获取目标文本的文本类型,并根据文本类型在目标文本的指定位置处添加文本类型标识,得到待处理文本;确定待处理文本的文本特征,并调用标题生成模型对所述待处理文本的文本特征进行处理,以生成目标文本的文本标题。最后,服务器将目标文本的文本标题发送至电子设备,电子设备接收到服务器发送的文本标题之后,在电子设备的屏幕界面中可以显示该文本标题。需要说明的是,服务器与电子设备之间相互建立通信连接,可以通过无线网或者有线网的方式进行通信。
在一种可能的实现方式中,用户在操作界面20a中输入目标文本时,可以将该目标文本所对应的文本类型和目标文本一起发送给电子设备,于是电子设备获取目标文本的文本类型,并根据文本类型在所述目标文本的指定位置处添加文本类型标识,得到待处理文本。例如,用户根据输入的目标文本为:“大家在打球的时候,尤其需要注意自身安全,切不可为了比赛利益做出任何伤害自己或者他人的举动”,用户将该目标文本的文本类型确定为“体育”类型,则用户将“体育”输入操作界面20a中,则电子设备可以获取到该目标文本对应的文本类型为“体育”类型。另外,电子设备获取目标文本的文本类型也可以根据电子设备自身对目标文本进行分析处理后,识别该目标文本的文本类型之后,再执行根据文本类型在目标文本的指定位置处添加文本类型标识,得到待处理文本的操作。
在一种可能的实现方式中,电子设备确定待处理文本的文本特征,并调用标题生成模型对待处理文本的文本特征进行处理,以生成目标文本的文本标题。如图2b所示,当电子设备调用标题生成模型对待处理文本的文本特征进行处理,生成目标文本的文本标题之后,在电子设备的屏幕界面中,可以显示该目标文本的文本标题。例如,目标文本为:“大家在打球的时候,尤其需要注意自身安全,切不可为了比赛利益做出任何伤害自己或者他人的举动”,则经过上述电子设备对目标文本的处理,生成目标文本的文本标题为:“打球时需要注意安全”。因此,在电子设备的屏幕界面中可以显示“打球时需要注意安全”字样。
通过本申请,用户在电子设备的屏幕界面输入目标文本的场景中,服务器可以根据本申请提供的基于人工智能的标题生成方法,调用标题生成模型对待处理文本的文本特征进行处理,生成目标文本的文本标题,服务器将文本标题发送至电子设备,或者电子设备直接执行本申请提供的基于人工智能的标题生成方法生成文本标题。相对于现有的标题生成技术而言,可以根据用户的特定需求以及业务场景的不同,对文本标题进行针对性的生成,从而提高生成的标题的准确性和可读性,提高用户的体验感。
请参见图3,图3是本申请实施例提供的一种基于人工智能的标题生成方法的流程示意图。该方法可以由服务器执行,如图3所示,该基于人工智能的标题生成方法可包括步骤S310~S330。其中:
步骤S310:获取输入的目标文本。
在一种可能的实现方式中,服务器获取来自电子设备发送的目标文本。目标文本可以包含多个字符,电子设备(如上述图2a-图2b对应实施例中的电子设备)显示即时通信应用程序的主界面,该主界面包括搜索选项。用户可以触发搜索选项,显示操作界面(如上述图2a-图2b对应实施例中的操作界面20a),该操作界面包括搜索框。用户可以在搜索框中输入目标文本,电子设备将目标文本发送至服务器(上述图2a对应实施例中的目标文本“大家在打球的时候,尤其需要注意自身安全,切不可为了比赛利益做出任何伤害自己或者他人的举动”)。服务器获取来自电子设备发送的目标文本之后,服务器可以对目标文本中的每个字符进行预处理,预处理包括英文大小写转换、繁简字统一,若目标文本中包括数字和英文单词,将完整的数字和完整的英文单词作为一个字符。
例如,目标文本为:“618购物节”,该目标文本包括4个字符,分别为:“618”、“购”、“物”和“节”。又例如,目标文本为:“说一声hello”,该查询文本也包括4个字符,分别为:“说”、“一”、“声”和“hello”。
步骤S320:获取所述目标文本的文本类型,并根据所述文本类型在所述目标文本的指定位置处添加文本类型标识和标题长度标识,得到待处理文本。
在一种可能的实现方式中,服务器通过调用神经网络模型对目标文本进行分析,可以输出该目标文本的文本类型,其中,文本类型可以包括该目标文本所属的领域,例如“体育”、“母婴”、“美食”以及“时尚”等领域。需要说明的是,每个领域所对应的描述可以根据不同的场景进行进一步的划分,以使更准确的确定目标文本的文本类型,例如在“体育”领域中,还可以进一步分为“健身”、“比赛”等,只是划分的文本类型越细致,可能神经网络模型的训练次数会增加,从而会影响计算效率,因此对文本类型的划分可以根据具体场景需求的不同进行合理的分类。需要说明的是,神经网络模型具体可以为循环神经网络模型,例如可以是具体是RNN(循环神经网络,Recurrent Neural Network,RNN)模型,LSTM(长短期记忆网络,LSTM,Long Short-Term Memory),GRU(门控循环神经网络,Gated RecurrentNeural network)模型,或者神经网络模型也可以为其它类型的网络模型,例如递归神经网路模型等,本发明对此不作限定。
在一种可能的实现方式中,服务器获取目标文本的文本类型的方式也可以是根据用户发送的指定类型的文本类型,例如,用户在电子设备显示即时通信应用程序的主界面包含的搜索框中输入目标文本之后,电子设备接收用户发送的指定类型的文本类型请求,该指定类型的文本类型请求包含了文本类型,然后电子设备将获取到的文本类型发送至服务器。具体的,用户输入目标文本之后,该目标文本可以涉及多个领域,也就是说,该目标文本对应的文本类型为多个,则电子设备可以将用户指定的指定类型的文本类型作为该目标文本的文本类型,然后电子设备将文本类型发送给服务器。假设用户输入的目标文本为:“我今天和小明去打卡了学校附近新开的泰国餐厅,这家餐厅的咖喱蟹很好吃,我们俩吃得很饱,吃完之后我俩去学校的篮球场打了球”,可以看出,该目标文本包含的领域涉及“美食”以及“体育”,因此,可以获取用户指定的指定类型的文本类型,例如用户指定的文本类型为“美食”,则服务器获取到的目标文本的文本类型为“美食”。
在一种可能的实现方式中,服务器可以根据文本类型在目标文本的指定位置处添加文本类型标识,文本类型标识可以包括该目标文本的文本类型。其中,指定位置可以是位于目标文本的第一个字符的前面,指定位置也可以是位于目标文本的最后一个字符后面。如图4a,假设目标文本为:“大家在打球......时候”,服务器根据“大家在打球......时候”获取到该目标文本的文本类型为“体育”,则服务器将“体育”作为文本类型标识添加到目标文本的第一字符“大家”的前面,因此可以得到添加文本类型标识后的得到待处理文本为“体育大家在打球......时候”。
在一种可能的实现方式中,服务器可以根据文本类型在目标文本的指定位置处添加标题长度标识,标题长度标识可以包括该目标文本的标题长度范围。具体的,用户在电子设备显示即时通信应用程序的主界面包含的搜索框中输入目标文本之后,电子设备接收用户发送的指定长度的标题长度类型请求,该指定长度的标题长度类型请求包含了标题长度,则电子设备可以将用户指定的指定长度的标题长度作为该目标文本的文本标题的标题长度,并标题长度发送至服务器,服务器获取文本标题的标题长度标识。需要说明的是,指定长度可以是一个具体的数值,指定长度也可以为一段数值区间,只要能表明是该目标文本的文本标题的长度特征即可,本发明对此不作限定。例如,用户指定的标题长度的标题长度范围为“15-25”,是指需要生成文本标题的标题长度为大于15个字符并且标题长度小于25个字符。如图4b,假设目标文本为:“大家在打球......时候”,则服务器根据获取到的用户指定的指定长度的标题长度,则服务器将“15-25”作为标题长度标识添加到目标文本的第一字符“大家”的前面,因此可以得到添加标题长度标识后的得到待处理文本为“体育大家在打球......时候”。
通过本方案,在目标文本前面添加文本类型标识能够让模型学习到文本类型的特征,通过这种方法就可以将不同类型的文本放入同一批训练集中进行训练,且模型能够通过这种多任务学习方式,学习到不同类型的文本在标题生成模型上特征提取方式的共性和特性。同理,在目标文本前面添加标题长度标识能够在生成标题时就会识别到该文本需要生成一个特定范围的标题,并且使模型学习到不同标题长度的文章在标题生成模型上特征提取方式的共性和特性,从而提高了模型生成的文本标题的准确性。
在一种可能的实现方式中,服务器可以先对目标文本进行分词处理之后,再根据文本类型在所述目标文本的指定位置处添加文本类型标识,得到待处理文本;服务器也可以先根据文本类型在目标文本的指定位置处添加文本类型标识,得到待处理文本之后,再对待处理文本进行分词处理。本发明对此不作限定,两种方式最终均可以得到包含的多个字符的待处理文本。
举例来说,可以通过利用维特比算法对待处理文本进行分词处理,以得到待处理文本的分词结果,该分词结果表示待处理文本包含的所有字符中每一个字符在待处理文本中分词含义。(例如,B代表这个字符是词汇的开始字符,M代表这个字符是词汇的中间字符,E代表查询字符是词汇的结束字符,而S代表单字词)。
在一种可能的实现方式中,在模型输入文本前添加文本类型标识或者标题长度标识的方法能够让模型学习到文章类别和标题长度的特征,使得模型更倾向于生成特定类型和长度的标题,本申请可以采用束搜索法限制标题长度的方法,保证生成标题最大概率的满足需求。具体的,可以通过束搜索(beam search)方法选择最大概率路径的过程中,当生成的文本标题的序列长度超过该文本标题的最低限制字数时,不再对短标题进行加权,则此时能够最大化的保证生成标题的长度符合业务场景的限制要求,能够更加适应生成不同长度的文本标题的场景。需要说明的是,beam search的原理主要包括:有一个超参数beamsize(束宽),设为k,第一个时间步长,选取当前条件概率最大的k个词,当做候选输出序列的第一个词之后的每个时间步长,基于上个步长的输出序列,挑选出所有组合中条件概率最大的k个,作为该时间步长下的候选输出序列。始终保持k个候选,最后从k个候选中挑出最优的过程。
步骤S330:确定所述待处理文本的文本特征,并调用标题生成模型对所述待处理文本的文本特征进行处理,以生成所述目标文本的文本标题。
在一种可能的实现方式中,服务器针对待处理文本包含的多个字符中的每个字符,对每个字符进行词性标注处理,得到每个字符的词性特征。具体的,词性特征表示每一个字符在待处理文本中的词性,词性具体可以为形容词、名词、介词以及动词等。举例来说,若待处理文本为“小明在超市买薯片”,则待处理文本中包含的字符“小明”对应的词性特征为名词,字符“在”对应的词性特征为介词,字符“超市”对应的词性特征为名词,字符“买”对应的词性特征为动词,字符“薯片”对应的词性特征为名词。
在一种可能的实现方式中,服务器获取待处理文本包含的每个字符对应的多个语义特征,将每个字符的词性特征与多个语义特征作为待处理文本的文本特征。具体的,由于有些字符可能会存在不同的语义,因此服务器获取待处理文本中每个字符对应的多个语义特征,例如待处理文本包含字符“平安”,“平安”对应的语义特征可以为形容平安健康的意思,“平安”对应的语义特征也可以为表示平安集团,此时为该字符对应的语义特征为名词,于是服务器根据前述对每个字符进行词性标注处理得到每个字符的词性特征以及多个语义特征进行组合,作为待处理文本的文本特征。通过这种方式,可以提高对待处理文本的文本识别的准确性,从而使得生成的文本标题更加准确。
在一种可能的实现方式中,服务器通过调用词向量模型对待处理文本进行特征提取,得到待处理文本的文本特征。其中,词向量模型可以是具体是word2vec模型,word2vec模型可以具体是fasttext模型,也可以是cbow模型。词向量模型还可以是BERT模型。举例来说,将分词处理后的待处理文本包含的多个字符中的每个字符输入词向量模型,由词向量模型确定每个字符的词嵌入矩阵,对多个字符对应的多个词嵌入矩阵进行处理,得到特征向量,可以将该特征向量作为待处理文本的文本特征。其中,服务器对多个字符对应的多个词嵌入矩阵进行处理的方式具体可以为将多个词嵌入矩阵进行加权平均运算或者对多个词嵌入矩阵进行截断与补全,以输出特征向量。
在一种可能的实现方式中,标题生成模型包括编码器和解码器。举例来说,服务器将待处理文本的文本特征x1,x2,...,xl输入编码器,编码器对待处理文本的文本特征x1,x2,...,xl编码,得到隐藏特征序列h1,h2,...,hl。解码器对隐藏特征序列h1,h2,...,hl进行解码,得到每个字符的字符权重,其中l表示字符的数量。最后,服务器根据每个字符的字符权重确定目标文本的文本标题。
在一种可能的实现方式中,首先,服务器获取训练文本集合,训练文本集合包含多个训练文本;然后,服务器在多个训练文本中每个训练文本的指定位置处添加对应的文本类型标识,得到所述每个训练文本对应的训练样本;最后,服务器确定每个训练样本的文本特征,需要说明的是,服务器确定每个训练样本的文本特征的处理方式,具体可参见图3实施例中服务器确定待处理文本的文本特征的处理方式,本申请实施例在此不再赘述。最后,服务器调用初始化的序列到序列处理模型对每个训练样本的文本特征进行处理,以生成每个训练文本的预测文本标题。其中,初始化的序列到序列处理模型是序列到序列(sequence-to-sequence,seq2seq)模型,seq2seq模型是一个Encoder–Decoder结构的网络,它的输入是一个序列,输出也是一个序列,Encoder中将一个可变长度的信号序列变为固定长度的向量表达,Decoder将这个固定长度的向量变成可变长度的目标的信号序列。seq2seq模型具体可以为循环神经网络(Recurrent Neural Network,RNN)模型,长短期记忆网络(Long Short-Term Memory,LSTM)模型,门控循环神经网络(Gated RecurrentUnit,GRU)模型等,本发明对此不作限定。
在一种可能的实现方式中,服务器获取每个训练文本的实际文本标题,并根据每个训练文本的预测文本标题和实际文本标题之间的差异数据调整序列到序列处理模型的模型参数,得到调整后的序列到序列处理模型;当调整后的序列到序列处理模型满足模型收敛条件时,将调整后的序列到序列处理模型作为标题生成模型。其中,差异数据是指序列到序列处理模型输出的预测文本标题与训练文本对应的实际文本标题之间的差异,并且本申请对序列到序列处理模型的训练过程为迭代训练。
需要说明的是,所谓模型收敛条件可以是指:当序列到序列处理模型的训练次数达到预设训练阈值时,例如100次,则序列到序列处理模型满足模型收敛条件,即将训练100次后的序列到序列处理模型标题生成模型;当每个训练文本的预测文本标题和实际文本标题之间的差异数据小于误差阈值时,则序列到序列处理模型满足模型收敛条件;当序列到序列处理模型相邻两次训练得到的预测文本标题之间的变化小于变化阈值时,则序列到序列处理模型满足模型收敛条件。
通过本申请实施例所提供的基于人工智能的标题生成方法,根据目标文本的文本类型,在目标文本前添加文本类型标识,将添加文本类型标识后的文本输入标题生成模型,以生成目标文本的文本标题,能够根据不同的业务场景,在不需要调整标题生成模型和训练数据的情况下,能够直接生成特定文本类型下的文本标题;同理,在目标文本前添加标题长度标识,将添加标题长度标识后的文本输入标题生成模型,以生成目标文本的文本标题,能够不需要调整模型和训练数据的情况下,不需要重新训练迭代模型,就能够直接生成特定标题长度的文本标题,提高了处理效率。由于模型学习到不同文本类型以及标题长度的文章在标题生成模型上特征提取方式的共性和特性,从而提高了模型生成的文本标题的准确性。
请参见图5,图5为本申请实施例提供的一种生成文本标题的流程示意图。生成文本标题包括如下步骤S510-步骤S530,且步骤S510-步骤S530是上述图3对应实施例中的步骤S330的具体实施例,标题生成模型包括编码器和解码器。
步骤S510:基于编码器对所述待处理文本中第一字符的文本特征和第二字符的文本特征进行编码,得到所述第一字符的隐藏特征和所述第二字符的隐藏特征,并根据所述第一字符的隐藏特征和所述第二字符的隐藏特征生成隐藏特征序列,所述第一字符和所述第二字符为所述待处理文本中的任意两个字符。
在一种可能的实现方式中,编码器可以是具体是RNN(循环神经网络,RecurrentNeural Network,RNN)模型,LSTM(长短期记忆网络,LSTM,Long Short-Term Memory),GRU(门控循环神经网络,Gated Recurrent Neural network)模型。
在一种可能的实现方式中,基于编码器对待处理文本中第一字符的文本特征进行编码,得到第一字符的隐藏特征;基于编码器以及第一字符的隐藏特征对待处理文本中第二字符的文本特征进行编码,得到第二字符的隐藏特征。
举例来说,以编码器是GRU模型为例进行详细说明,首先,服务器将初始隐藏特征h0和第一字符的文本特征x1输入GRU模型,通过GRU模型对第一字符的文本特征x1进行编码处理,输出第一字符的隐藏特征h1;然后,服务器将第一字符的隐藏特征h1和第二字符的文本特征x2输入GRU模型,通过GRU模型对第二字符的文本特征x2进行编码处理,输出第二字符的隐藏特征h2;最后,服务器将第一字符的隐藏特征h1以及第二字符的隐藏特征h2进行组合,得到隐藏特征序列。需要说明的是,本申请中涉及到的第一字符的文本特征和第二字符的文本特征仅仅是对输入GRU模型中任意两个参数的处理进行的举例说明,并且文本类型标识也可以视为第一字符或者第二字符。
在一种可能的实现方式中,本申请涉及的GRU模型可以通过非线性的激活函数防止训练过程中过拟合,提高泛化能力。具体的,修正线性单元(Rectified linear unit,relu)函数可以缓和第一字符的隐藏特征h1以及第二字符的隐藏特征h2取值过大时出现的饱和的情况,同时能防止过拟合,加速训练,于是选取relu函数作为本方案的激活函数;为了防止过拟合情况的出现(即太贴近训练集的真实分布导致的测试集误差加大),加了正则化范数惩罚项,考虑到sigmoid函数的稳定以及易饱和的特质,本方案的输出层选择sigmoid函数作为输出函数。其中,sigmoid函数也叫Logistic函数,取值范围为(0,1),它可以将一个实数映射到(0,1)的区间。需要说明的是,GRU模型中涉及到的激活函数包括但不限于:sigmoid、tanh、relu、leaky relu、elu、maxout等,本申请对此不作限定。
步骤S520:基于解码器对所述隐藏特征序列进行解码,得到所述第一字符的字符权重以及所述第二字符的字符权重。
在一种可能的实现方式中,解码器可以具体是循环神经网络模型,长短期记忆网络模型,门控循环神经网络模型以及CRF(条件随机场,Conditional Random Field),需要说明的是,编码器对应的模型类型和解码器对应的模型类型可以相同,也可以不相同,本发明在此不作限定。
在一种可能的实现方式中,服务器将第一隐藏特征h1和第二隐藏特征h2组合为隐藏特征序列,将该隐藏特征序列输入解码器,基于解码器对隐藏特征序进行解码,得到第一字符的字符权重以及所述第二字符的字符权重。
步骤S530:根据所述第一字符的字符权重以及所述第二字符的字符权重确定所述目标文本的文本标题。
在一种可能的实现方式中,服务器获取字符权重阈值,若第一字符的字符权重大于字符权重阈值,则将第一字符作为标题关键词,若第二字符的字符权重大于字符权重阈值,则将第二字符作为标题关键词;最后,根据标题关键词生成目标文本的文本标题。其中,字符权重是指该字符在该待处理文本中的重要程度,字符权重越大代表该字符在待处理文本中的越重要,就越有可能作为文本标题的标题关键词。需要说明的是,文本标题中的标题关键词也可以不是根据待处理文本中的每个字符确定的,也就是说,文本标题中包含的多个字符中的每个字符不一定是待处理文本中的字符,也有可能是标题生成模型通过对待处理文本的文本特征的处理后,新增加的字符作为的文本标题中的标题关键词,本发明对此不作限定。
在一种可能的实现方式中,服务器根据文本类型标识、第一字符的字符权重以及所述第二字符的字符权重对待处理文本进行处理,生成目标文本的文本标题。如图6a,图6a是本申请实施例提供的一种生成的文本标题的流程示意图,其中,箭头指向上方的部分对应的是待处理文本的每个字符,箭头指向下方的部分对应的是文本标题的每个字符。举例来说,若目标文本为“大家在打球...时候”,文本类型标识为“<体育>”,生成的文本标题为“NBA直播...”,结束标识符“<end>”代表结束生成文本标题的标识符。若目标文本中不包含字符“NBA”,生成的文本标题中包含字符“NBA”,由此可见,可能是标题生成模型通过根据文本类型标识、第一字符的字符权重以及所述第二字符的字符权重对待处理文本进行处理,得到了能够在文本类型标识下学习到的新字符,并且该字符的字符权重大于字符权重阈值,因此可以将新增加的字符“NBA”作为的文本标题中的字符。同理,如图6b,图6b也是本申请实施例提供的一种生成的文本标题的流程示意图。若目标文本为“大家在打球...时候”,标题长度标识为“<15-25>”,生成的文本标题为“NBA直播...”,结束标识符“<end>”代表结束生成文本标题的标识符。
通过本申请实施例,通过编码器对文本特征进行编码得到隐藏特征序列,基于解码器对隐藏特征序列进行解码最终生成目标文本的文本标题,可以实现对目标文本的文本特征的自动化处理,相比于人工处理方式生成文本标题,机器自动化执行可以提高操作效率,以及提高生成的文本标题的准确性。
请参见图7,图7是本申请实施例提供的一种基于人工智能的标题生成装置的结构示意图。该文件管理装置用于执行图3~图6b对应的方法实施例中服务器所执行的步骤,该标题生成装置可包括:
获取单元710,用于获取输入的目标文本;
添加单元720,用于获取所述目标文本的文本类型,并根据所述文本类型在所述目标文本的指定位置处添加文本类型标识和标题长度标识,得到待处理文本;
处理单元730,用于确定所述待处理文本的文本特征,并调用标题生成模型对所述待处理文本的文本特征进行处理,以生成所述目标文本的文本标题。
在一种可能的实现方式中,标题生成模型包括编码器和解码器,处理单元730调用标题生成模型对所述待处理文本的文本特征进行处理,以生成所述目标文本的文本标题,包括:
基于所述编码器对所述待处理文本中第一字符的文本特征和第二字符的文本特征进行编码,得到所述第一字符的隐藏特征和所述第二字符的隐藏特征,并根据所述第一字符的隐藏特征和所述第二字符的隐藏特征生成隐藏特征序列,所述第一字符和所述第二字符为所述待处理文本中的任意两个字符;
基于所述解码器对所述隐藏特征序列进行解码,得到所述第一字符的字符权重以及所述第二字符的字符权重;
根据所述第一字符的字符权重以及所述第二字符的字符权重确定所述目标文本的文本标题。
在一种可能的实现方式中,处理单元730基于所述编码器对所述待处理文本中第一字符的文本特征和第二字符的文本特征进行编码,得到所述第一字符的隐藏特征和所述第二字符的隐藏特征,包括:
基于所述编码器对所述待处理文本中第一字符的文本特征进行编码,得到所述第一字符的隐藏特征;
基于所述编码器以及所述第一字符的隐藏特征对所述待处理文本中第二字符的文本特征进行编码,得到所述第二字符的隐藏特征。
在一种可能的实现方式中,处理单元730根据所述第一字符的字符权重以及所述第二字符的字符权重确定所述目标文本的文本标题,包括:
获取字符权重阈值;
若所述第一字符的字符权重和所述第二字符的字符权重均大于所述字符权重阈值,则将所述第一字符和所述第二字符作为标题关键词;
根据所述标题关键词生成所述目标文本的文本标题。
在一种可能的实现方式中,处理单元730根据所述标题关键词生成所述目标文本的文本标题,包括:
获取所述标题长度标识表示的标题长度范围,并根据所述标题关键词和所述标题长度范围生成第一长度的标题序列以及第二长度的标题序列,所述第一长度与所述第二长度不相等;
根据所述第一长度的标题序列与所述第二长度的标题序列生成目标标题序列,若所述目标标题序列的序列长度大于预设长度阈值,则使用束搜索方法对所述目标标题序列进行处理,得到处理后的目标标题序列;
将所述处理后的目标标题序列作为所述目标文本的文本标题。
在一种可能的实现方式中,处理单元730确定所述待处理文本的文本特征,包括:
针对所述待处理文本包含的多个字符中的每个字符,对所述每个字符进行词性标注处理,得到所述每个字符的词性特征;
获取所述每个字符对应的多个语义特征,将所述每个字符的词性特征与多个语义特征作为所述待处理文本的文本特征。
在一种可能的实现方式中,获取单元710,还用于获取训练文本集合,所述训练文本集合包含多个训练文本;
添加单元720,还用于在所述多个训练文本中每个训练文本的指定位置处添加对应的文本类型标识,得到所述每个训练文本对应的训练样本;
处理单元730,还用于确定每个训练样本的文本特征,调用初始化的序列到序列处理模型对所述每个训练样本的文本特征进行处理,以生成所述每个训练文本的预测文本标题;
处理单元730,还用于获取所述每个训练文本的实际文本标题,并根据所述每个训练文本的预测文本标题和实际文本标题对所述序列到序列处理模型进行训练,以得到标题生成模型。
在一种可能的实现方式中,处理单元730根据所述每个训练文本的预测文本标题和实际文本标题对所述序列到序列处理模型进行训练,以得到标题生成模型,包括:
根据所述每个训练文本的预测文本标题和实际文本标题之间的差异数据调整所述序列到序列处理模型的模型参数,得到调整后的序列到序列处理模型;
当所述调整后的序列到序列处理模型满足模型收敛条件时,将所述调整后的序列到序列处理模型作为标题生成模型。
通过本申请实施例提供的标题生成装置,根据目标文本的文本类型,在目标文本前添加文本类型标识,将添加文本类型标识后的文本输入标题生成模型,以生成目标文本的文本标题,能够根据不同的业务场景,在不需要调整标题生成模型和训练数据的情况下,能够直接生成特定文本类型下的文本标题,从而提高了处理效率。由于模型学习到不同文本类型的文本在标题生成模型上特征提取方式的共性和特性,从而提高了模型生成的文本标题的准确性。
请参见图8,图8是本申请实施例提供的一种服务器的结构示意图,该服务器用于执行图3~图6b对应的方法实施例中服务器所执行的步骤,该服务器包括:一个或多个处理器810;一个或多个输入设备820,一个或多个输出设备830和存储器840。上述处理器810、输入设备820、输出设备830和存储器840通过总线850连接。存储器820用于存储计算机程序,所述计算机程序包括程序指令,处理器810用于执行存储器840存储的程序指令,执行以下操作:
获取输入的目标文本;
获取所述目标文本的文本类型,并根据所述文本类型在所述目标文本的指定位置处添加文本类型标识和标题长度标识,得到待处理文本;
确定所述待处理文本的文本特征,并调用标题生成模型对所述待处理文本的文本特征进行处理,以生成所述目标文本的文本标题。
在一种可能的实现方式中,标题生成模型包括编码器和解码器,处理器810调用标题生成模型对所述待处理文本的文本特征进行处理,以生成所述目标文本的文本标题,包括:
基于所述编码器对所述待处理文本中第一字符的文本特征和第二字符的文本特征进行编码,得到所述第一字符的隐藏特征和所述第二字符的隐藏特征,并根据所述第一字符的隐藏特征和所述第二字符的隐藏特征生成隐藏特征序列,所述第一字符和所述第二字符为所述待处理文本中的任意两个字符;
基于所述解码器对所述隐藏特征序列进行解码,得到所述第一字符的字符权重以及所述第二字符的字符权重;
根据所述第一字符的字符权重以及所述第二字符的字符权重确定所述目标文本的文本标题。
在一种可能的实现方式中,处理器810基于所述编码器对所述待处理文本中第一字符的文本特征和第二字符的文本特征进行编码,得到所述第一字符的隐藏特征和所述第二字符的隐藏特征,包括:
基于所述编码器对所述待处理文本中第一字符的文本特征进行编码,得到所述第一字符的隐藏特征;
基于所述编码器以及所述第一字符的隐藏特征对所述待处理文本中第二字符的文本特征进行编码,得到所述第二字符的隐藏特征。
在一种可能的实现方式中,处理器810根据所述第一字符的字符权重以及所述第二字符的字符权重确定所述目标文本的文本标题,包括:
获取字符权重阈值;
若所述第一字符的字符权重和所述第二字符的字符权重均大于所述字符权重阈值,则将所述第一字符和所述第二字符作为标题关键词;
根据所述标题关键词生成所述目标文本的文本标题。
在一种可能的实现方式中,处理器810根据所述标题关键词生成所述目标文本的文本标题,包括:
获取所述标题长度标识表示的标题长度范围,并根据所述标题关键词和所述标题长度范围生成第一长度的标题序列以及第二长度的标题序列,所述第一长度与所述第二长度不相等;
根据所述第一长度的标题序列与所述第二长度的标题序列生成目标标题序列,若所述目标标题序列的序列长度大于预设长度阈值,则使用束搜索方法对所述目标标题序列进行处理,得到处理后的目标标题序列;
将所述处理后的目标标题序列作为所述目标文本的文本标题。
在一种可能的实现方式中,处理器810确定所述待处理文本的文本特征,包括:
针对所述待处理文本包含的多个字符中的每个字符,对所述每个字符进行词性标注处理,得到所述每个字符的词性特征;
获取所述每个字符对应的多个语义特征,将所述每个字符的词性特征与多个语义特征作为所述待处理文本的文本特征。
在一种可能的实现方式中,处理器810还用于执行以下操作:
获取训练文本集合,所述训练文本集合包含多个训练文本;
在所述多个训练文本中每个训练文本的指定位置处添加对应的文本类型标识,得到所述每个训练文本对应的训练样本;
确定每个训练样本的文本特征,调用初始化的序列到序列处理模型对所述每个训练样本的文本特征进行处理,以生成所述每个训练文本的预测文本标题;
获取所述每个训练文本的实际文本标题,并根据所述每个训练文本的预测文本标题和实际文本标题对所述序列到序列处理模型进行训练,以得到标题生成模型。
在一种可能的实现方式中,处理器810根据所述每个训练文本的预测文本标题和实际文本标题对所述序列到序列处理模型进行训练,以得到标题生成模型,包括:
根据所述每个训练文本的预测文本标题和实际文本标题之间的差异数据调整所述序列到序列处理模型的模型参数,得到调整后的序列到序列处理模型;
当所述调整后的序列到序列处理模型满足模型收敛条件时,将所述调整后的序列到序列处理模型作为标题生成模型。
通过本申请实施例提供的服务器,服务器根据目标文本的文本类型,在目标文本前添加文本类型标识,将添加文本类型标识后的文本输入标题生成模型,以生成目标文本的文本标题,能够根据不同的业务场景,在不需要调整标题生成模型和训练数据的情况下,能够直接生成特定文本类型下的文本标题,从而提高了处理效率。由于模型学习到不同文本类型的文本在标题生成模型上特征提取方式的共性和特性,从而提高了模型生成的文本标题的准确性。
本申请实施例中还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令被处理器执行时,可执行上述实施例中服务器所执行的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述文件管理方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(RandomAccess Memory,RAM)等。
本申请实施例还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述各方法的实施例中所执行的步骤。
以上所揭露的仅为本发明的部分实施例而已,当然不能以此来限定本发明之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本发明权利要求所作的等同变化,仍属于发明所涵盖的范围。
Claims (10)
1.一种基于人工智能的标题生成方法,其特征在于,所述方法包括:
获取输入的目标文本;
获取所述目标文本的文本类型,并根据所述文本类型在所述目标文本的指定位置处添加文本类型标识和标题长度标识,得到待处理文本;
确定所述待处理文本的文本特征,并调用标题生成模型对所述待处理文本的文本特征进行处理,以生成所述目标文本的文本标题。
2.根据权利要求1所述的方法,其特征在于,所述标题生成模型包括编码器和解码器,所述调用标题生成模型对所述待处理文本的文本特征进行处理,以生成所述目标文本的文本标题,包括:
基于所述编码器对所述待处理文本中第一字符的文本特征和第二字符的文本特征进行编码,得到所述第一字符的隐藏特征和所述第二字符的隐藏特征,并根据所述第一字符的隐藏特征和所述第二字符的隐藏特征生成隐藏特征序列,所述第一字符和所述第二字符为所述待处理文本中的任意两个字符;
基于所述解码器对所述隐藏特征序列进行解码,得到所述第一字符的字符权重以及所述第二字符的字符权重;
根据所述第一字符的字符权重以及所述第二字符的字符权重确定所述目标文本的文本标题。
3.根据权利要求2所述的方法,其特征在于,所述基于所述编码器对所述待处理文本中第一字符的文本特征和第二字符的文本特征进行编码,得到所述第一字符的隐藏特征和所述第二字符的隐藏特征,包括:
基于所述编码器对所述待处理文本中第一字符的文本特征进行编码,得到所述第一字符的隐藏特征;
基于所述编码器以及所述第一字符的隐藏特征对所述待处理文本中第二字符的文本特征进行编码,得到所述第二字符的隐藏特征。
4.根据权利要求2或3所述的方法,其特征在于,所述根据所述第一字符的字符权重以及所述第二字符的字符权重确定所述目标文本的文本标题,包括:
获取字符权重阈值;
若所述第一字符的字符权重和所述第二字符的字符权重均大于所述字符权重阈值,则将所述第一字符和所述第二字符作为标题关键词;
根据所述标题关键词生成所述目标文本的文本标题。
5.根据权利要求4所述的方法,其特征在于,所述根据所述标题关键词生成所述目标文本的文本标题,包括:
获取所述标题长度标识表示的标题长度范围,并根据所述标题关键词和所述标题长度范围生成第一长度的标题序列以及第二长度的标题序列,所述第一长度与所述第二长度不相等;
根据所述第一长度的标题序列与所述第二长度的标题序列生成目标标题序列,若所述目标标题序列的序列长度大于预设长度阈值,则使用束搜索方法对所述目标标题序列进行处理,得到处理后的目标标题序列;
将所述处理后的目标标题序列作为所述目标文本的文本标题。
6.根据权利要求1所述的方法,其特征在于,所述确定所述待处理文本的文本特征,包括:
针对所述待处理文本包含的多个字符中的每个字符,对所述每个字符进行词性标注处理,得到所述每个字符的词性特征;
获取所述每个字符对应的多个语义特征,将所述每个字符的词性特征与多个语义特征作为所述待处理文本的文本特征。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取训练文本集合,所述训练文本集合包含多个训练文本;
在所述多个训练文本中每个训练文本的指定位置处添加对应的文本类型标识,得到所述每个训练文本对应的训练样本;
确定每个训练样本的文本特征,调用初始化的序列到序列处理模型对所述每个训练样本的文本特征进行处理,以生成所述每个训练文本的预测文本标题;
获取所述每个训练文本的实际文本标题,并根据所述每个训练文本的预测文本标题和实际文本标题对所述序列到序列处理模型进行训练,以得到标题生成模型。
8.根据权利要求7所述的方法,其特征在于,所述根据所述每个训练文本的预测文本标题和实际文本标题对所述序列到序列处理模型进行训练,以得到标题生成模型,包括:
根据所述每个训练文本的预测文本标题和实际文本标题之间的差异数据调整所述序列到序列处理模型的模型参数,得到调整后的序列到序列处理模型;
当所述调整后的序列到序列处理模型满足模型收敛条件时,将所述调整后的序列到序列处理模型作为标题生成模型。
9.一种基于人工智能的标题生成装置,其特征在于,包括:
获取单元,用于获取输入的目标文本;
添加单元,用于获取所述目标文本的文本类型,并根据所述文本类型在所述目标文本的指定位置处添加文本类型标识和标题长度标识,得到待处理文本;
处理单元,用于确定所述待处理文本的文本特征,并调用标题生成模型对所述待处理文本的文本特征进行处理,以生成所述目标文本的文本标题。
10.一种服务器,其特征在于,包括存储器以及处理器,所述存储器存储一组程序代码,所述处理器调用所述存储器中存储的程序代码,用于执行1~8任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011070020.8A CN113392639B (zh) | 2020-09-30 | 2020-09-30 | 基于人工智能的标题生成方法、装置及服务器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011070020.8A CN113392639B (zh) | 2020-09-30 | 2020-09-30 | 基于人工智能的标题生成方法、装置及服务器 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113392639A true CN113392639A (zh) | 2021-09-14 |
CN113392639B CN113392639B (zh) | 2023-09-26 |
Family
ID=77616500
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011070020.8A Active CN113392639B (zh) | 2020-09-30 | 2020-09-30 | 基于人工智能的标题生成方法、装置及服务器 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113392639B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114611498A (zh) * | 2022-03-18 | 2022-06-10 | 腾讯科技(深圳)有限公司 | 标题生成方法、模型训练方法及装置 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140201126A1 (en) * | 2012-09-15 | 2014-07-17 | Lotfi A. Zadeh | Methods and Systems for Applications for Z-numbers |
CN106383817A (zh) * | 2016-09-29 | 2017-02-08 | 北京理工大学 | 利用分布式语义信息的论文标题生成方法 |
CN107526725A (zh) * | 2017-09-04 | 2017-12-29 | 北京百度网讯科技有限公司 | 基于人工智能的用于生成文本的方法和装置 |
CN109299477A (zh) * | 2018-11-30 | 2019-02-01 | 北京字节跳动网络技术有限公司 | 用于生成文本标题的方法和装置 |
CN110705254A (zh) * | 2019-09-27 | 2020-01-17 | 科大讯飞股份有限公司 | 文本断句方法、装置、电子设备和存储介质 |
CN110717327A (zh) * | 2019-09-29 | 2020-01-21 | 北京百度网讯科技有限公司 | 标题生成方法、装置、电子设备和存储介质 |
CN111078865A (zh) * | 2019-12-24 | 2020-04-28 | 北京百度网讯科技有限公司 | 文本标题生成方法和装置 |
CN111241816A (zh) * | 2020-01-22 | 2020-06-05 | 北京工业大学 | 一种新闻标题自动生成方法 |
US20200184278A1 (en) * | 2014-03-18 | 2020-06-11 | Z Advanced Computing, Inc. | System and Method for Extremely Efficient Image and Pattern Recognition and Artificial Intelligence Platform |
CN111723185A (zh) * | 2020-06-19 | 2020-09-29 | 苏州思必驰信息科技有限公司 | 问题生成方法 |
-
2020
- 2020-09-30 CN CN202011070020.8A patent/CN113392639B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140201126A1 (en) * | 2012-09-15 | 2014-07-17 | Lotfi A. Zadeh | Methods and Systems for Applications for Z-numbers |
US20200184278A1 (en) * | 2014-03-18 | 2020-06-11 | Z Advanced Computing, Inc. | System and Method for Extremely Efficient Image and Pattern Recognition and Artificial Intelligence Platform |
CN106383817A (zh) * | 2016-09-29 | 2017-02-08 | 北京理工大学 | 利用分布式语义信息的论文标题生成方法 |
CN107526725A (zh) * | 2017-09-04 | 2017-12-29 | 北京百度网讯科技有限公司 | 基于人工智能的用于生成文本的方法和装置 |
CN109299477A (zh) * | 2018-11-30 | 2019-02-01 | 北京字节跳动网络技术有限公司 | 用于生成文本标题的方法和装置 |
CN110705254A (zh) * | 2019-09-27 | 2020-01-17 | 科大讯飞股份有限公司 | 文本断句方法、装置、电子设备和存储介质 |
CN110717327A (zh) * | 2019-09-29 | 2020-01-21 | 北京百度网讯科技有限公司 | 标题生成方法、装置、电子设备和存储介质 |
CN111078865A (zh) * | 2019-12-24 | 2020-04-28 | 北京百度网讯科技有限公司 | 文本标题生成方法和装置 |
CN111241816A (zh) * | 2020-01-22 | 2020-06-05 | 北京工业大学 | 一种新闻标题自动生成方法 |
CN111723185A (zh) * | 2020-06-19 | 2020-09-29 | 苏州思必驰信息科技有限公司 | 问题生成方法 |
Non-Patent Citations (7)
Title |
---|
SALLY FRANÇA LACERDA-PINHEIRO: "Are there depression and anxiety genetic markers and mutations? A systematic review", 《JOURNAL OF AFFECTIVE DISORDERS》, vol. 168, pages 387 - 398 * |
余传明: "面向查询的观点摘要模型研究:以Debatepedia为数据源", 《情报学报》, vol. 39, no. 04, pages 374 - 386 * |
刘赛: "人工智能写作中小说标题生成的算法研究", 《写作》, no. 04, pages 38 - 43 * |
王姿雯: "基于深度学习的多条件个性化文本生成", 《中国优秀硕士学位论文全文数据库》, no. 08, pages 138 - 1296 * |
王豪: "基于深度学习的个性化对话内容生成方法", 《图学学报》, vol. 41, no. 02, pages 210 - 216 * |
蒋增增: "人工智能人脸识别技术的应用与安全挑战", 《保密科学技术》, no. 09, pages 18 - 22 * |
闫泽杭: "基于互助双向LSTM与递进解码机制的图像标题生成", 《中国优秀硕士学位论文全文数据库》, no. 07, pages 138 - 996 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114611498A (zh) * | 2022-03-18 | 2022-06-10 | 腾讯科技(深圳)有限公司 | 标题生成方法、模型训练方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113392639B (zh) | 2023-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022022421A1 (zh) | 语言表示模型系统、预训练方法、装置、设备及介质 | |
CN110234018B (zh) | 多媒体内容描述生成方法、训练方法、装置、设备及介质 | |
CN112257471B (zh) | 一种模型训练方法、装置、计算机设备及存储介质 | |
CN110457661B (zh) | 自然语言生成方法、装置、设备及存储介质 | |
CN112035743A (zh) | 数据推荐方法、装置、计算机设备以及存储介质 | |
CN113850392A (zh) | 用于常识推理的对比自监督机器学习 | |
CN111680510B (zh) | 文本处理方法、装置、计算机设备以及存储介质 | |
CN111666400B (zh) | 消息获取方法、装置、计算机设备及存储介质 | |
CN113392640B (zh) | 一种标题确定方法、装置、设备及存储介质 | |
CN112231347A (zh) | 一种数据处理方法、装置、计算机设备及存储介质 | |
CN108345612A (zh) | 一种问题处理方法和装置、一种用于问题处理的装置 | |
US20240177506A1 (en) | Method and Apparatus for Generating Captioning Device, and Method and Apparatus for Outputting Caption | |
CN111738000B (zh) | 一种短语推荐的方法以及相关装置 | |
CN110781329A (zh) | 图像搜索方法、装置、终端设备及存储介质 | |
CN110781327B (zh) | 图像搜索方法、装置、终端设备及存储介质 | |
CN117271745A (zh) | 一种信息处理方法、装置及计算设备、存储介质 | |
CN113741759B (zh) | 评论信息的展示方法、装置、计算机设备和存储介质 | |
CN113919360A (zh) | 语义理解方法、语音交互方法、装置、设备及存储介质 | |
CN113392639B (zh) | 基于人工智能的标题生成方法、装置及服务器 | |
CN110891201B (zh) | 文本生成方法、装置、服务器和存储介质 | |
CN111813899A (zh) | 基于多轮会话的意图识别方法及装置 | |
CN115378890B (zh) | 信息输入方法、装置、存储介质及计算机设备 | |
CN115860013A (zh) | 对话消息处理方法、装置、系统、设备及介质 | |
CN116775980B (zh) | 一种跨模态搜索方法及相关设备 | |
CN116957128A (zh) | 业务指标预测方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40053418 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |