CN116662960A - 通过有限身份信息生成自我介绍的系统、方法及存储介质 - Google Patents

通过有限身份信息生成自我介绍的系统、方法及存储介质 Download PDF

Info

Publication number
CN116662960A
CN116662960A CN202310791272.7A CN202310791272A CN116662960A CN 116662960 A CN116662960 A CN 116662960A CN 202310791272 A CN202310791272 A CN 202310791272A CN 116662960 A CN116662960 A CN 116662960A
Authority
CN
China
Prior art keywords
introduction
language model
identity
introduction text
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310791272.7A
Other languages
English (en)
Inventor
况锦文
王雩
罗欣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Juesheng Education Technology Co ltd
Original Assignee
Chongqing Juesheng Education Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Juesheng Education Technology Co ltd filed Critical Chongqing Juesheng Education Technology Co ltd
Priority to CN202310791272.7A priority Critical patent/CN116662960A/zh
Publication of CN116662960A publication Critical patent/CN116662960A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Security & Cryptography (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及文本信息自动生成技术领域,具体为一种通过有限身份信息生成自我介绍的系统、方法及存储介质,其中系统,包括:终端,用于获取身份特征,并发送给服务器;其中身份特征包括姓名、身份、职务、愿景和场景中一种或多种;服务器,用于接收身份特征,将身份特征转化为向量,输入预设的语言模型,生成介绍文本,并发送给终端进行显示;其中语言模型采用包含向量及其对应的介绍文本样本的训练数据集进行训练,以向量作为语言模型的输入,学习向量及其介绍文本样本之间的关联,并根据关联生成介绍文本作为输出。本方案能在不同应用场景下,自动生成贴合用户的个人特征,并具备针对性和真实性的自我介绍的介绍文本,节约用户的时间和精力。

Description

通过有限身份信息生成自我介绍的系统、方法及存储介质
技术领域
本发明涉及文本信息自动生成技术领域,具体为一种通过有限身份信息生成自我介绍的系统、方法及存储介质。
背景技术
自我介绍作为一种能向别人介绍自己的方式,在各类场景中经常使用,例如:面试、社交活动、演讲等,一篇好的自我介绍能让别人快速了解你,并留下深刻印象。
但是一篇好的自我介绍,往往要依靠作者的写作能力和语言组织能力,对于写作能力和语言组织能力薄弱的人,很难写出一篇好的自我介绍,因此在创造自我介绍的过程中,常会借鉴自我介绍的模板,但是依靠借鉴模板创造自我介绍存在一些问题,例如:模板是通用性的没有充分考虑到每个人的个人特征,创作出来的自我介绍内容缺乏针对性和真实性,不贴合个人特征,且无法覆盖各种应用场景,使得用户在不同的应用场景下要寻找不同的模板,进行自我介绍的介绍文本的创造,耗费用户的时间和精力。
因此现在急需一种通过有限身份信息生成自我介绍的系统、方法及存储介质,能在不同应用场景下,自动生成贴合用户的个人特征,并具备针对性和真实性的自我介绍的介绍文本,节约用户的时间和精力。
发明内容
本发明的目的之一在于提供通过有限身份信息生成自我介绍的系统,能在不同应用场景下,自动生成贴合用户的个人特征,并具备针对性和真实性的自我介绍的介绍文本,节约用户的时间和精力。
本发明提供的基础方案一:通过有限身份信息生成自我介绍的系统,包括:终端和服务器;
终端,用于获取身份特征,并发送给服务器;其中身份特征包括姓名、身份、职务、愿景和场景中一种或多种;
服务器,用于接收身份特征,将身份特征转化为向量,输入预设的语言模型,生成介绍文本,并发送给终端进行显示;其中语言模型采用包含向量及其对应的介绍文本样本的训练数据集进行训练,以向量作为语言模型的输入,学习向量及其介绍文本样本之间的关联,并根据关联生成介绍文本作为输出。
进一步,所述语言模型为GPT-3模型,包括:若干个Transformer层和一个输出层;
Transformer层,用于处理作为输入的向量,学习向量及其介绍文本样本之间的关联;
输出层,用于根据关联生成介绍文本作,并输出。
进一步,所述服务器,还用于根据预设的评分机制,对语言模型输出的介绍文本进行评分,生成评分结果,并根据评分结果对语言模型输出的介绍文本进行筛选和调整,将筛选和调整后的介绍文本及其评分结果,发送给终端。
进一步,所述评分机制为自定义的评分函数;
所述评分函数根据语言模型输出的介绍文本的预设指标来计算各介绍文本的得分,作为评分结果。
本方案的有益效果:用户通过终端输入自己的身份特征,终端将身份特征发送给服务器;服务器,将接收到的身份特征转化为向量,输入预设的语言模型,生成介绍文本,并发送给终端进行显示,从而用户无需自己寻找模板创作自我介绍的介绍文本;且输入的身份特征包括姓名、身份、职务、愿景和场景中一种或多种,语言模型会以身份特征转化的向量作为语言模型的输入,并通过训练样本集训练学习的向量及其介绍文本样本之间的关联,生成介绍文本作为输出,生成的介绍文本贴合用户的个人特征,并具备针对性和真实性;在不同应用场景下,本方案都能自动且高效的生成贴合用户的个人特征,并具备针对性和真实性的自我介绍的介绍文本,节约用户的时间和精力。
并且用户只需提供有限的身份信息(身份特征),即可获得贴合个人特点的自我介绍文字,根据不同的身份、职务、愿景和场景,能生成符合当前身份、职务、愿景和场景的自我介绍,便于用户当前使用,提高了使用的便捷性。
此外,服务器还设置了对语言模型的输出进行评分的评分机制,通过评分函数对语言模型输出的介绍文本的预设指标进行计算,获取各介绍文本中预设指标的得分,作为评分结果,根据评分结果对语言模型输出的介绍文本进行筛选和调整,从而提高语言模型输出的介绍文本的质量和准确性,使得生成的介绍文本更符合要求。
本发明的目的之二在于提供通过有限身份信息生成自我介绍的方法,能在不同应用场景下,自动生成贴合用户的个人特征,并具备针对性和真实性的自我介绍的介绍文本,节约用户的时间和精力。
本发明提供基础方案二:通过有限身份信息生成自我介绍的方法,包括:
S1、获取身份特征;其中身份特征包括姓名、身份、职务、愿景和场景中一种或多种;
S2、将身份特征转化为向量;
S3、将向量输入预设的语言模型,生成介绍文本;其中语言模型,采用包含向量及其对应的介绍文本样本的训练数据集进行训练,以向量作为语言模型的输入,学习向量及其介绍文本样本之间的关联,并根据关联生成介绍文本作为输出。
进一步,所述语言模型为GPT-3模型,包括:若干个Transformer层和一个输出层;
Transformer层,用于处理作为输入的向量,学习向量及其介绍文本样本之间的关联;
输出层,用于根据关联生成介绍文本作,并输出。
进一步,还包括:
S4、根据预设的评分机制,对语言模型输出的介绍文本进行评分,生成评分结果;
S5、根据评分结果对语言模型输出的介绍文本进行筛选和调整。
进一步,所述评分机制为自定义的评分函数;
所述评分函数根据语言模型输出的介绍文本的预设指标来计算各介绍文本的得分,作为评分结果。
本方案的有益效果:通过获取用户的身份特征,将身份特征转化为向量,输入预设的语言模型,生成介绍文本,从而用户无需自己寻找模板创作自我介绍的介绍文本;且获取的身份特征包括姓名、身份、职务、愿景和场景中一种或多种,语言模型会以身份特征转化的向量作为语言模型的输入,并通过训练样本集训练学习的向量及其介绍文本样本之间的关联,生成介绍文本作为输出,生成的介绍文本贴合用户的个人特征,并具备针对性和真实性;在不同应用场景下,本方案都能自动且高效的生成贴合用户的个人特征,并具备针对性和真实性的自我介绍的介绍文本,节约用户的时间和精力。
并且用户只需提供有限的身份信息(身份特征),即可获得贴合个人特点的自我介绍文字,根据不同的身份、职务、愿景和场景,能生成符合当前身份、职务、愿景和场景的自我介绍,便于用户当前使用,提高了使用的便捷性。
此外,本方案还设置了对语言模型的输出进行评分的评分机制,通过评分函数对语言模型输出的介绍文本的预设指标进行计算,获取各介绍文本中预设指标的得分,作为评分结果,根据评分结果对语言模型输出的介绍文本进行筛选和调整,从而提高语言模型输出的介绍文本的质量和准确性,使得生成的介绍文本更符合要求。
本发明的目的之三在于提供一种通过有限身份信息生成自我介绍的设备,能在不同应用场景下,自动生成贴合用户的个人特征,并具备针对性和真实性的自我介绍的介绍文本,节约用户的时间和精力。
本发明提供基础方案三:一种通过有限身份信息生成自我介绍的设备,包括存储介质和处理器,所述存储介质中存储有计算机程序,所述处理器执行所述计算机程序时,实现上述的通过有限身份信息生成自我介绍的方法的步骤。
基础方案三的有益效果:本设备能在不同应用场景下,自动生成贴合用户的个人特征,并具备针对性和真实性的自我介绍的介绍文本,节约用户的时间和精力。
本发明的目的之四在于提供一种存储介质,能在不同应用场景下,自动生成贴合用户的个人特征,并具备针对性和真实性的自我介绍的介绍文本,节约用户的时间和精力。
本发明提供基础方案四:一种存储介质,存储有计算机程序,所述计算机程序被处理器执行时实现上述的通过有限身份信息生成自我介绍的方法的步骤。
基础方案四的有益效果:存储介质存储有计算机程序,计算机程序被处理器执行时实现上述的通过有限身份信息生成自我介绍的方法的步骤,能在不同应用场景下,自动生成贴合用户的个人特征,并具备针对性和真实性的自我介绍的介绍文本,节约用户的时间和精力,便于通过有限身份信息生成自我介绍的方法的应用。
附图说明
图1为本发明通过有限身份信息生成自我介绍的系统实施例一的逻辑框图;
图2为本发明通过有限身份信息生成自我介绍的方法实施例二的流程示意图;
图3为本发明通过有限身份信息生成自我介绍的设备实施例中的结构示意图。
具体实施方式
下面通过具体实施方式进一步详细说明:
实施例一
本实施例基本如附图1所示:通过有限身份信息生成自我介绍的系统,包括:终端和服务器;
终端,用于获取身份特征,并发送给服务器;其中身份特征包括姓名、身份、职务、愿景和场景中一种或多种;具体地,终端包括但不限于:手机、平板和电脑;用户通过终端输入身份特征信息,终端将身份特征,发送给服务器;
服务器,用于接收身份特征,将身份特征转化为向量,输入预设的语言模型,生成介绍文本,并发送给终端进行显示;其中语言模型采用包含向量及其对应的介绍文本样本的训练数据集进行训练,以向量作为语言模型的输入,学习向量及其介绍文本样本之间的关联,并根据关联生成介绍文本作为输出;具体地,语言模型为GPT-3模型,包括:若干个Transformer层和一个输出层;Transformer层,用于处理作为输入的向量,学习向量及其介绍文本样本之间的关联;输出层,用于根据关联生成介绍文本作,并输出。
本实施例中对语言模型的构建训练,具体包括:服务器获取介绍文本样本,对获取的介绍文本样本进行数据清洗和预处理,并对预设的敏感信息和个人身份识别内容进行匿名化处理,并提取身份特征;具体地,服务器通过网络爬虫从互联网收集介绍文本样本,或通过人工方式从各种来源收集介绍文本样本,并通过终端输入,发送到服务器;再对获取的介绍文本样本进行数据清洗和预处理,并对预设的敏感信息和个人身份识别内容进行匿名化处理,例如:家庭住址,身份证号等,以保护用户的个人隐私;最后在介绍文本样本中提取身份特征;
将身份特征转化为向量;具体地,通过预训练的词嵌入模型(如:Word2Vec或GloVe)或自定义的嵌入层,将身份特征映射到一个高维向量空间中,转化为向量,以便语言模型能够处理和学习身份特征;
构建包含向量及其对应的介绍文本样本的训练数据集;训练数据集中的每个训练样本都包含向量(身份特征)及其对应的介绍文本样本;训练数据集可以提供丰富的训练样本,以让语言模型学习身份特征与介绍文本之间的关联;
构建语言模型,并采用训练数据集对语言模型进行训练;其中向量作为语言模型的输入,学习向量及其介绍文本样本之间的关联,并根据关联生成介绍文本作为输出;具体地,本实施例中使用深度学习框架构(如:TensorFlow或PyTorch)建语言模型。向量及其介绍文本样本之间的关联,由前期对所有的介绍文本样本进行逐个拆解,拆解成65个关键要素,并通过排列组合形成介绍文本的表达逻辑和方法,向量及其介绍文本样本之间的关联为向量和65个关键要素的关联,通过向量获取对应的关键要素进行排列组合形成介绍文本。
服务器,还用于根据预设的评分机制,对语言模型输出的介绍文本进行评分,生成评分结果,并根据评分结果对语言模型输出的介绍文本进行筛选和调整,将筛选和调整后的介绍文本及其评分结果,发送给终端。其中评分机制为自定义的评分函数;评分函数根据语言模型输出的介绍文本的预设指标来计算各介绍文本的得分,作为评分结果;其中预设指标根据需求进行设置,本实施例中设置了六个预设指标,包括:字数标准、结构完整度、姓名解释评分、内容准确度、愿景续写评分和整体流程度;评分函数中分数范围为0-10分,其中10分为满分;
本实施例中评分标准:分数范围为0-10分10分为满分,
字数标准,在200-400字范围以内,若在此范围外,扣除2分;
结构完整度,包含设置的每项身份特征,少一项扣除1分;
姓名解释,对姓名这一身份特征的解释是否合理应用姓名解释的关键要素,表达是否流程且具有记忆点,若否,则扣1分;
内容准确度,是否存在逻辑性错误和常识性错误,若是,则扣1分;
愿景续写评分,是否对愿景这一身份特征进行拆解并和其他身份特征(如:姓名和身份)进行关联,若否,则扣1分;
整体流程度,生成的介绍文本的整体语言是否流畅,表达逻辑是否清晰,若否,则扣一份;
总分在6分以下为废稿,6-7分为合格,8分以上为优秀;根据评分结果对语言模型进行调整,可以为删除废稿,对合格和优秀的介绍文本进行排序输出。
具体实施过程:用户通过终端输入自己的身份特征,终端将身份特征发送给服务器,例如:一名用户需要在社交场景进行自我介绍,该用户只需要提供他的姓名(例如:张三)、身份(例如:软件工程师)、职务(例如:前端开发)、愿景(例如:希望成为一名优秀的全栈工程师)、场景(例如:职场社交);服务器,将接收到的身份特征转化为向量,输入预设的语言模型,生成介绍文本,并发送给终端进行显示,从而用户无需自己寻找模板创作自我介绍的介绍文本;且输入的身份特征包括姓名、身份、职务、愿景和场景中一种或多种,语言模型会以身份特征转化的向量作为语言模型的输入,并通过训练样本集训练学习的向量及其介绍文本样本之间的关联,生成介绍文本作为输出,生成的介绍文本贴合用户的个人特征,并具备针对性和真实性;在不同应用场景下,本方案都能自动且高效的生成贴合用户的个人特征,并具备针对性和真实性的自我介绍的介绍文本,节约用户的时间和精力。
实施例二
本实施例基本如附图2所示:通过有限身份信息生成自我介绍的方法,包括:
S1、获取身份特征;其中身份特征包括姓名、身份、职务、愿景和场景中一种或多种;其中获取身份特征的方式可以为用户通过设置的终端输入身份特征信息;
S2、将身份特征转化为向量;具体地,通过预训练的词嵌入模型(如:Word2Vec或GloVe)或自定义的嵌入层,将身份特征映射到一个高维向量空间中,转化为向量;
S3、将向量输入预设的语言模型,生成介绍文本;其中语言模型,采用包含向量及其对应的介绍文本样本的训练数据集进行训练,以向量作为语言模型的输入,学习向量及其介绍文本样本之间的关联,并根据关联生成介绍文本作为输出;具体地,本实施例中语言模型为GPT-3模型,包括:若干个Transformer层和一个输出层;Transformer层,用于处理作为输入的向量,学习向量及其介绍文本样本之间的关联;输出层,用于根据关联生成介绍文本作,并输出。
本实施例中对语言模型的构建训练,具体包括:获取介绍文本样本,对获取的介绍文本样本进行数据清洗和预处理,并对预设的敏感信息和个人身份识别内容进行匿名化处理,并提取身份特征;具体地,通过网络爬虫从互联网收集介绍文本样本,或通过人工方式从各种来源收集介绍文本样本;再对获取的介绍文本样本进行数据清洗和预处理,并对预设的敏感信息和个人身份识别内容进行匿名化处理,例如:家庭住址,身份证号等,以保护用户的个人隐私;最后在介绍文本样本中提取身份特征;
将身份特征转化为向量;具体地,通过预训练的词嵌入模型(如:Word2Vec或GloVe)或自定义的嵌入层,将身份特征映射到一个高维向量空间中,转化为向量,以便语言模型能够处理和学习身份特征;
构建包含向量及其对应的介绍文本样本的训练数据集;训练数据集中的每个训练样本都包含向量(身份特征)及其对应的介绍文本样本;训练数据集可以提供丰富的训练样本,以让语言模型学习身份特征与介绍文本之间的关联;
构建语言模型,并采用训练数据集对语言模型进行训练;其中向量作为语言模型的输入,学习向量及其介绍文本样本之间的关联,并根据关联生成介绍文本作为输出;具体地,本实施例中使用深度学习框架构(如:TensorFlow或PyTorch)建语言模型。向量及其介绍文本样本之间的关联,由前期对所有的介绍文本样本进行逐个拆解,拆解成65个关键要素,并通过排列组合形成介绍文本的表达逻辑和方法,向量及其介绍文本样本之间的关联为向量和65个关键要素的关联,通过向量获取对应的关键要素进行排列组合形成介绍文本。
S4、根据预设的评分机制,对语言模型输出的介绍文本进行评分,生成评分结果;其中评分机制为自定义的评分函数;评分函数根据语言模型输出的自我介绍的预设指标来计算各自我介绍的得分,作为评分结果;
S5、根据评分结果对语言模型输出的介绍文本进行筛选和调整;
上述预设指标根据需求进行设置,本实施例中设置了六个预设指标,包括:字数标准、结构完整度、姓名解释评分、内容准确度、愿景续写评分和整体流畅度;评分函数中分数范围为0-10分,其中10分为满分;
本实施例中评分标准:分数范围为0-10分10分为满分,
字数标准,在200-400字范围以内,若在此范围外,扣除2分;
结构完整度,包含设置的每项身份特征,少一项扣除1分;
姓名解释,对姓名这一身份特征的解释是否合理应用姓名解释的关键要素,表达是否流程且具有记忆点,若否,则扣1分;具体地,可采用人工智能或者专家评价,本实施例中采用人工智能设置分类算法,对姓名这一身份特征的解释是否合理应用姓名解释的关键要素,表达是否流程且具有记忆点进行分类,从而对姓名解释进行评分;对于愿景续写评分和整体流畅度采用相同处理方式;
内容准确度,是否存在逻辑性错误和常识性错误,若是,则扣1分;
愿景续写评分,是否对愿景这一身份特征进行拆解并和其他身份特征(如:姓名和身份)进行关联,若否,则扣1分;
整体流畅度,生成的介绍文本的整体语言是否流畅,表达逻辑是否清晰,若否,则扣一份;
总分在6分以下为废稿,6-7分为合格,8分以上为优秀;根据评分结果对语言模型进行调整,可以为删除废稿,对合格和优秀的介绍文本进行排序输出。
如图3所示,本实施例还提供一种通过有限身份信息生成自我介绍的设备,该设备包括:至少一个处理器,至少一个存储介质和至少一个总线,本实施例中,还包括至少一个通信接口。其中,总线用于实现这些组件直接的连接通信,通信接口用于与其他节点设备进行信令或数据的通信,存储介质存储有处理器可执行的机器可读指令。当设备运行时,处理器与存储介质之间通过总线通信,机器可读指令被处理器执行并实现上述的通过有限身份信息生成自我介绍的方法的步骤。
本实施例还提供一种存储介质,存储有计算机程序,所述计算机程序被处理器执行时实现上述的通过有限身份信息生成自我介绍的方法的步骤。
上述介绍文本方法如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一可读存储介质中,该计算机程序在被处理器执行时,可实现上述方法实施例的步骤。其中,计算机程序包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。
以上所述的仅是本发明的实施例,方案中公知的具体结构及特性等常识在此未作过多描述,所属领域普通技术人员知晓申请日或者优先权日之前发明所属技术领域所有的普通技术知识,能够获知该领域中所有的现有技术,并且具有应用该日期之前常规实验手段的能力,所属领域普通技术人员可以在本申请给出的启示下,结合自身能力完善并实施本方案,一些典型的公知结构或者公知方法不应当成为所属领域普通技术人员实施本申请的障碍。应当指出,对于本领域的技术人员来说,在不脱离本发明结构的前提下,还可以作出若干变形和改进,这些也应该视为本发明的保护范围,这些都不会影响本发明实施的效果和专利的实用性。本申请要求的保护范围应当以其权利要求的内容为准,说明书中的具体实施方式等记载可以用于解释权利要求的内容。

Claims (10)

1.通过有限身份信息生成自我介绍的系统,其特征在于,包括:终端和服务器;
终端,用于获取身份特征,并发送给服务器;其中身份特征包括姓名、身份、职务、愿景和场景中一种或多种;
服务器,用于接收身份特征,将身份特征转化为向量,输入预设的语言模型,生成介绍文本,并发送给终端进行显示;其中语言模型采用包含向量及其对应的介绍文本样本的训练数据集进行训练,以向量作为语言模型的输入,学习向量及其介绍文本样本之间的关联,并根据关联生成介绍文本作为输出。
2.根据权利要求1所述的通过有限身份信息生成自我介绍的系统,其特征在于,所述语言模型为GPT-3模型,包括:若干个Transformer层和一个输出层;
Transformer层,用于处理作为输入的向量,学习向量及其介绍文本样本之间的关联;
输出层,用于根据关联生成介绍文本作,并输出。
3.根据权利要求1所述的通过有限身份信息生成自我介绍的系统,其特征在于,所述服务器,还用于根据预设的评分机制,对语言模型输出的介绍文本进行评分,生成评分结果,并根据评分结果对语言模型输出的介绍文本进行筛选和调整,将筛选和调整后的介绍文本及其评分结果,发送给终端。
4.根据权利要求3所述的通过有限身份信息生成自我介绍的系统,其特征在于,所述评分机制为自定义的评分函数;
所述评分函数根据语言模型输出的介绍文本的预设指标来计算各介绍文本的得分,作为评分结果。
5.通过有限身份信息生成自我介绍的方法,其特征在于,包括:
S1、获取身份特征;其中身份特征包括姓名、身份、职务、愿景和场景中一种或多种;
S2、将身份特征转化为向量;
S3、将向量输入预设的语言模型,生成介绍文本;其中语言模型,采用包含向量及其对应的介绍文本样本的训练数据集进行训练,以向量作为语言模型的输入,学习向量及其介绍文本样本之间的关联,并根据关联生成介绍文本作为输出。
6.根据权利要求5所述的通过有限身份信息生成自我介绍的方法,其特征在于,所述语言模型为GPT-3模型,包括:若干个Transformer层和一个输出层;
Transformer层,用于处理作为输入的向量,学习向量及其介绍文本样本之间的关联;
输出层,用于根据关联生成介绍文本作,并输出。
7.根据权利要求5所述的通过有限身份信息生成自我介绍的方法,其特征在于,还包括:
S4、根据预设的评分机制,对语言模型输出的介绍文本进行评分,生成评分结果;
S5、根据评分结果对语言模型输出的介绍文本进行筛选和调整。
8.根据权利要求7所述的通过有限身份信息生成自我介绍的方法,其特征在于,所述评分机制为自定义的评分函数;
所述评分函数根据语言模型输出的介绍文本的预设指标来计算各介绍文本的得分,作为评分结果。
9.一种通过有限身份信息生成自我介绍的设备,包括存储介质和处理器,所述存储介质中存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时,实现如权利要求5-8任一项所述的通过有限身份信息生成自我介绍的方法的步骤。
10.一种存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求5-8任一项所述的通过有限身份信息生成自我介绍的方法的步骤。
CN202310791272.7A 2023-06-30 2023-06-30 通过有限身份信息生成自我介绍的系统、方法及存储介质 Pending CN116662960A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310791272.7A CN116662960A (zh) 2023-06-30 2023-06-30 通过有限身份信息生成自我介绍的系统、方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310791272.7A CN116662960A (zh) 2023-06-30 2023-06-30 通过有限身份信息生成自我介绍的系统、方法及存储介质

Publications (1)

Publication Number Publication Date
CN116662960A true CN116662960A (zh) 2023-08-29

Family

ID=87728095

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310791272.7A Pending CN116662960A (zh) 2023-06-30 2023-06-30 通过有限身份信息生成自我介绍的系统、方法及存储介质

Country Status (1)

Country Link
CN (1) CN116662960A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7492641B1 (ja) 2023-12-26 2024-05-29 株式会社コロプラ プログラムおよび情報処理システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7492641B1 (ja) 2023-12-26 2024-05-29 株式会社コロプラ プログラムおよび情報処理システム

Similar Documents

Publication Publication Date Title
CN112328742B (zh) 基于人工智能的培训方法、装置、计算机设备及存储介质
CN117149989B (zh) 大语言模型训练方法、文本处理方法及装置
CN110472045B (zh) 一种基于文档嵌入的短文本虚假问题分类预测方法及装置
DE102017121712A1 (de) Intelligente Antworten mittels eines geräteinternen Modells
KR102259390B1 (ko) 앙상블 질의 응답을 위한 시스템 및 방법
CN110377916A (zh) 词预测方法、装置、计算机设备及存储介质
Mathur et al. Intelligence analysis of Tay Twitter bot
AU2020205593A1 (en) Natural solution language
CN116402166B (zh) 一种预测模型的训练方法、装置、电子设备及存储介质
CN116662960A (zh) 通过有限身份信息生成自我介绍的系统、方法及存储介质
CN112231554A (zh) 一种搜索推荐词生成方法、装置、存储介质和计算机设备
CN112685550A (zh) 智能问答方法、装置、服务器及计算机可读存储介质
Cain AI emergence in education: Exploring formative tensions across scholarly and popular discourse
CN116070599A (zh) 智能化题库生成及辅助管理系统
CN115600605A (zh) 一种中文实体关系联合抽取方法、系统、设备及存储介质
CN118378148A (zh) 多标签分类模型的训练方法、多标签分类方法及相关装置
CN116680573A (zh) 通过有限身份信息生成自我介绍的语言模型构建训练方法
CN116955573B (zh) 问题搜索方法、装置、设备及存储介质
CN116913278B (zh) 语音处理方法、装置、设备和存储介质
Alvero et al. Large Language Models, Social Demography, and Hegemony: Comparing Authorship in Human and Synthetic Text
CN113573128A (zh) 一种音频处理方法、装置、终端以及存储介质
CN117540703A (zh) 文本生成方法、模型训练方法、装置及电子设备
CN116991976A (zh) 模型训练方法、装置、电子设备及可读存储介质
CN117076631A (zh) 基于LLaMA的财税问答模型构建方法、装置、设备及介质
Bai et al. Gated character-aware convolutional neural network for effective automated essay scoring

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination