CN113627135A - 一种招聘岗位描述文本的生成方法、装置、设备及介质 - Google Patents

一种招聘岗位描述文本的生成方法、装置、设备及介质 Download PDF

Info

Publication number
CN113627135A
CN113627135A CN202010381686.9A CN202010381686A CN113627135A CN 113627135 A CN113627135 A CN 113627135A CN 202010381686 A CN202010381686 A CN 202010381686A CN 113627135 A CN113627135 A CN 113627135A
Authority
CN
China
Prior art keywords
text
vector
topic
skill
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010381686.9A
Other languages
English (en)
Other versions
CN113627135B (zh
Inventor
秦川
姚开春
祝恒书
马超
申大忠
徐童
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Original Assignee
Baidu Online Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu Online Network Technology Beijing Co Ltd filed Critical Baidu Online Network Technology Beijing Co Ltd
Priority to CN202010381686.9A priority Critical patent/CN113627135B/zh
Priority to US17/214,080 priority patent/US20210216726A1/en
Priority to EP21165688.9A priority patent/EP3859588A3/en
Priority to KR1020210040448A priority patent/KR102540185B1/ko
Priority to JP2021061313A priority patent/JP2021177375A/ja
Publication of CN113627135A publication Critical patent/CN113627135A/zh
Application granted granted Critical
Publication of CN113627135B publication Critical patent/CN113627135B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • G06F40/56Natural language generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06311Scheduling, planning or task assignment for a person or group
    • G06Q10/063112Skill-based matching of a person or a group to a task
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/105Human resources
    • G06Q10/1053Employment or hiring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Strategic Management (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Economics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Machine Translation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了一种招聘岗位描述文本的生成方法、装置、设备及介质,涉及人工智能技术领域。具体实现方案为:获取目标岗位的原始相关文本;基于所述原始相关文本和预先训练出的深度神经网络模型,生成所述目标岗位对应的目标招聘岗位描述文本。实现了通过深度神经网络自动生成目标招聘岗位描述文本,使人员与岗位精准匹配,减少招聘过程的人力和时间,提高招聘效率。

Description

一种招聘岗位描述文本的生成方法、装置、设备及介质
技术领域
本申请实施例涉及计算机技术,尤其涉及人工智能技术领域,特 别涉及一种招聘岗位描述文本的生成方法、装置、设备及介质。
背景技术
招聘岗位描述显示了职位的职责和工作技能要求,有效的职位描述将 帮助雇主找到适合该职位的人才,并使候选人清楚地了解在特定职位上的 职责和资格。
现有的对招聘岗位与职员的匹配,需要基于人力资源专家对招聘市场 分析,并人为撰写招聘岗位描述,人为主观性较强,需要大量的人力成本, 并且由于人力资源员工对不同岗位的专业技能具有领域间隙,因此经常存 在误差,招聘岗位与招聘人员的无法精准匹配,招聘效率较低。
发明内容
本申请实施例提供了一种招聘岗位描述文本的生成方法、装置、设备 及介质,以实现对招聘岗位的精准描述,提高岗位描述生成效率。
根据第一方面,提供了一种招聘岗位描述文本的生成方法,包括:
获取目标岗位的原始相关文本;
基于所述原始相关文本和预先训练出的深度神经网络模型,生成所述 目标岗位对应的目标招聘岗位描述文本。
根据第二方面,提供了一种招聘岗位描述文本的生成装置,包括:
原始文本获取模块,用于获取目标岗位的原始相关文本;
描述文本生成模块,用于基于所述原始相关文本和预先训练出的深度 神经网络模型,生成所述目标岗位对应的目标招聘岗位描述文本。
根据第三方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被 所述至少一个处理器执行,以使所述至少一个处理器能够执行本申请任意 实施例所述的招聘岗位描述文本的生成方法。
根据第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存 储介质,所述计算机指令用于使所述计算机执行本申请任意实施例所述的 招聘岗位描述文本的生成方法。
根据本申请的技术解决了现有技术中,人工进行招聘岗位文本描述的 问题,通过深度神经网络,能够自动快速生成目标招聘岗位描述文本,并 且生成的目标招聘岗位描述文本能够与目标岗位的需求相匹配,提高了招 聘岗位描述文本的生成效率和精准度,进而可以减少招聘过程的人力和时 间,提高招聘效率。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键 或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下 的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请实施例的一种招聘岗位描述文本的生成方法的流程 示意图;
图2是根据本申请实施例的一种深度神经网络模型的结构示意图;
图3是根据本申请实施例的一种深度神经网络模型的结构示意图;
图4是根据本申请实施例的一种深度神经网络模型的结构示意图;
图5是根据本申请实施例的一种深度神经网络模型的训练方法的流程 示意图;
图6是根据本申请实施例的深度神经网络模型的结构示意图;
图7是根据本申请实施例的深度神经网络模型的结构示意图;
图8是根据本申请实施例的一种招聘岗位描述文本的生成装置的结构 示意图;
图9是用来实现本申请实施例的招聘岗位描述文本的生成方法的电子 设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实 施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本 领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和 修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的 描述中省略了对公知功能和结构的描述。
图1是根据本申请实施例提供的一种招聘岗位描述文本的生成方法的 流程示意图,本实施例用于自动生成招聘岗位描述文本的情况,该方法可 以由一种招聘岗位描述文本的生成装置来执行,该装置可以采用软件和/ 或硬件的方式实现,并可集成于具有计算能力的电子设备中。如图1所示, 本实施例提供的一种招聘岗位描述文本的生成方法可以包括:
S110、获取目标岗位的原始相关文本。
其中,获取由工作人员预先收集的目标岗位的原始相关文本。
本实施例中,可选的,原始相关文本包括:已确定符合岗位要求人员 的简历文本、包含岗位职责数据的文本、以及包含岗位涉及项目数据的文 本中的至少一个。
具体的,已确定符合岗位要求人员的简历文本可以包括入职人员的简 历文本和已通过审核即将入职的人员的简历文本。工作人员预先收集入职 人员的简历文本和已通过审核即将入职的人员的简历文本,并将不同岗位 的职责数据收集为包含岗位职责数据的文本,将不同岗位所涉及的项目或 工程数据收集为包含岗位涉及项目数据的文本。例如,入职人员简历中写 明的内容可以是某入职人员的专业研究方向为智能机器人,包含岗位涉及 项目数据的文本中写明的内容可以是某目标岗位项目为智能机器人避障 项目。通过获取原始相关文本,可以提取与目标岗位的职责和技能需求相 关的有效信息,有利于生成的目标招聘岗位描述文本与目标岗位的职责和 技能需求精准匹配。
S120、基于原始相关文本和预先训练出的深度神经网络模型,生成目 标岗位对应的目标招聘岗位描述文本。
其中,深度神经网络模型为预先训练得出,用于生成目标招聘岗位描 述文本的模型。目标招聘岗位描述文本包括目标岗位的职责和工作技能等 的描述信息,用于向求职者展示。将原始相关文本输入到预先训练出的深 度神经网络模型中,由深度神经网络模型从原始相关文本中提取目标岗位 的相关数据。例如,从入职人员的简历文本中可以提取入职人员的当前职 位、入职人员的研究方向和入职人员的当前项目等数据,从已通过审核即将入职的人员的简历文本中可以提取即将入职的人员的岗位意愿和即将 入职的人员的研究方向等数据,从包含岗位职责数据的文本中可以提取该 岗位的主要职责、工作任务和专业要求等数据,从包含岗位涉及项目数据 的文本中可以提取该岗位的历史项目和当前项目等数据。
深度神经网络模型在获取到原始相关文本后,根据提取的相关数据, 生成目标岗位对应的目标招聘岗位描述文本。
上述申请中的一个实施例具有如下优点或有益效果:通过深度神经网 络,能够自动快速生成目标招聘岗位描述文本,并且生成的目标招聘岗位 描述文本能够与目标岗位的需求相匹配,提高了招聘岗位描述文本的生成 效率和精准度,进而可以减少招聘过程的人力和时间,提高招聘效率。
图2是根据本申请实施例提供的一种深度神经网络模型的结构示意图, 可执行本申请的一种招聘岗位描述文本的生成方法。如图2所示,本实施 例提供的一种深度神经网络模型200可以包括:
文本主题预测子模型210,用于根据原始相关文本,预测出目标技能 主题分布向量;
描述文本生成子模型220,用于根据目标技能主题分布向量,生成目 标岗位的目标招聘岗位描述文本。
其中,目标技能主题分布向量是目标岗位的技能主题分布向量,技能 主题是指岗位所需工作技能的类别名称,例如,技能主题可以有编码类技 能主题、机器学习类技能主题和大数据类技能主题等。
文本主题预测子模型210获取到目标岗位的原始相关文本,从原始相 关文本中提取出目标岗位的技能主题数据,例如,可以提取出已入职人员 在目标岗位上的项目名称,根据项目名称可以得到该项目的技能主题。根 据目标岗位的相关数据,预测出目标技能主题分布向量,从而确定目标岗 位的技能主题。
在文本主题预测子模型210确定目标技能主题分布向量后,由文本主 题预测子模型210将目标技能主题分布向量发送给描述文本生成子模型 220,描述文本生成子模型220根据目标技能主题分布向量,生成目标招 聘岗位描述文本,以便于对目标岗位进行文本描述。例如,目标岗位为软 件工程师,该岗位的目标技能主题分布向量为编码类技能主题,则最终生 成的目标招聘岗位描述文本可以是“软件工程师:要求熟练使用JAVA和 C++,工作经验三年以上”。
上述申请中的一个实施例具有如下优点或有益效果:通过将深度神经 网络模型划分为文本主题预测子模型和描述文本生成子模型,减少人工操 作步骤,节约人力和时间,实现了对目标岗位的技能主题和描述文本的分 步确定,根据技能主题得到描述文本,提高了目标招聘岗位描述文本的精 确性和效率。
图3是根据本申请实施例提供的一种深度神经网络模型的结构示意图, 以上述实施例为基础进行进一步优化。如图3所示,本实施例提供的深度 神经网络模型300可以包括:
文本主题预测子模型310和描述文本生成子模型320。
本实施例中,可选的,文本主题预测子模型包括:词袋特征提取模块, 用于提取原始相关文本的词袋特征向量;分布参数计算模块,用于根据词 袋特征向量和非线性网络层,计算技能主题向量分布参数;第一主题分布 确定模块,用于根据技能主题向量分布参数以及预设主题分布假设参数, 获得目标技能主题分布向量。
其中,词袋特征提取模块301在获取到目标岗位的原始相关文本后, 从原始相关文本中提取出词袋特征向量。例如,原始相关文本为“软件工 程师需要编程基础”和“软件工程师需要认真踏实”,词袋特征向量可以 表示为[111100]和[110011]。
词袋特征提取模块301将词袋特征向量发送给分布参数计算模块302, 分布参数计算模块302根据词袋特征向量和预先设置的非线性网络层,计 算得出技能主题向量分布参数。分布参数计算模块302将技能主题向量分 布参数发送给第一主题分布确定模块303,第一主题分布确定模块303根 据技能主题向量分布参数和预先设置的预设主题分布假设参数,计算得出 目标技能主题分布向量。
通过将文本主题预测子模型310划分为三个子模块,实现了对目标技 能主题分布向量的有序计算,提高计算精度,减少人工操作,避免了人工 进行技能主题确定的过程,提高目标技能主题分布向量的计算效率。
本实施例中,可选的,词袋特征提取模块包括:词袋生成子模块,用 于生成原始相关文本的词袋表征数据;第一全连接网络子模块,用于对词 袋表征数据进行特征提取,获得词袋特征向量。
具体的,词袋特征提取模块301可以由词袋生成子模块3011和第一 全连接网络子模块3012组成。第一全连接网络子模块3012可以包括一层 或多层的全连接网络。深度神经网络模型在接收原始相关文本后,由词袋 特征提取模块301中的词袋生成子模块3011获取。词袋生成子模块3011 提取原始相关文本中的词袋表征数据,例如,原始相关文本为“软件工程 师需要编程基础”和“软件工程师需要认真踏实”,提取的词袋表征数据 为“软件工程师、需要、编程、基础、认真、踏实”,可以用
Figure BDA0002482213970000062
表示词 袋表征数据。词袋生成子模块3011将词袋表征数据发送给第一全连接网 络子模块3012,可以由第一全连接网络子模块3012对词袋表征数据进行 多次特征提取,生成词袋特征向量,可以由
Figure BDA0002482213970000061
表示第一全连接网络子模块 3012中的全连接网络。通过由词袋生成子模块3011和第一全连接网络子 模块3012生成词袋特征向量,提高了词袋特征向量的计算精度,实现词 袋特征提取的自动化,减少人工操作,进一步提高目标技能主题分布向量 的计算效率。
本实施例中,可选的,分布参数计算模块包括:第一参数计算子模块, 用于根据词袋特征向量和第一非线性网络层,计算第一技能主题向量分布 子参数;第二参数计算子模块,用于根据词袋特征向量和第二非线性网络 层,计算第二技能主题向量分布子参数。
具体的,分布参数计算模块302可以由第一参数计算子模块3021和 第二参数计算子模块3022组成。第一参数计算子模块3021接收第一全连 接网络子模块3012的词袋特征向量,根据预先设置的第一非线性网络层, 计算得出第一技能主题向量分布子参数。可以由
Figure BDA0002482213970000073
表示第一非线性网络 层,由μd表示第一技能主题向量分布子参数。第一技能主题向量分布子参 数μd的计算公式如下所示:
Figure BDA0002482213970000071
第二参数计算子模块3022接收第一全连接网络子模块3012的词袋特 征向量后,根据预先设置的第二非线性网络层,计算得出第二技能主题向 量分布子参数。可以由
Figure BDA0002482213970000074
表示第二非线性网络层,由σd表示第二技能主 题向量分布子参数。第二技能主题向量分布子参数σd的计算公式如下所示:
Figure BDA0002482213970000072
技能主题向量分布参数可以包括μd和σd,通过计算μd和σd,实现了 对技能主题向量分布参数的精确计算,提高目标技能主题分布向量的计算 效率。
本实施例中,可选的,第一主题分布确定模块包括:第三参数计算子 模块,用于根据第一技能主题向量分布子参数和第一预设主题分布假设子 参数,计算第三技能主题向量分布参数;第四参数计算子模块,用于根据 第二技能主题向量分布子参数和第二预设主题分布假设子参数,计算第四 技能主题向量分布参数;第一主题向量采样子模块,用于根据第三技能主 题向量分布参数和第四技能主题向量分布参数,获得第一技能主题向量;第二全连接网络子模块,用于对第一技能主题向量进行特征提取,获得第 一主题特征向量;第一主题分布特征计算子模块,用于根据第一主题特征 向量和第一激活函数,获得目标技能主题分布向量。
具体的,第一主题分布确定模块303可以由第三参数计算子模块3031、 第四参数计算子模块3032、第一主题向量采样子模块3033、第二全连接 网络子模块3034和第一主题分布特征子模块3035组成。第三参数计算子 模块3031接收第一参数计算子模块3021的第一技能主题向量分布子参数 μd,根据预先设置的第一预设主题分布假设子参数,计算得出第三技能主 题向量分布参数。第一预设主题分布假设子参数可以由Wμ表示,第三技能 主题向量分布参数可以由μs表示,μs=Wμμd。第四参数计算子模块3032接 收第二参数计算子模块3022的第二技能主题向量分布子参数σd,根据预 先设置的第二预设主题分布假设子参数,计算得出第四技能主题向量分布 参数,logσs=Wσ(logσd)。第二预设主题分布假设子参数可以由Wσ表示,第 四技能主题向量分布参数可以由σs表示。
第一主题向量采样子模块3033接收第三参数计算子模块3031的第三 技能主题向量分布参数μs和第四参数计算子模块3032的第四技能主题向 量分布参数σs,计算得出第一技能主题向量,可以由zs表示第一技能主题 向量。第二全连接网络子模块3034接收第一主题向量采样子模块3033的 第一技能主题向量,对第一技能主题向量进行特征提取,得到第一主题特 征向量。例如,对于对应的目标招聘描述,S={s_1,s_2,…,s_L}其中s_L为 每一条招聘描述语句,可以采样得到主题向量为
Figure BDA0002482213970000081
第二全连接 网络子模块3034可以包括一层或多层的全连接网络,可以由
Figure BDA0002482213970000084
表示第二 全连接网络子模块3034中的全连接网络。
第一主题分布特征计算子模块3035接收第二全连接网络子模块 3034的第一主题特征向量,并根据预设的第一激活函数,得到目标技 能主题分布向量。第一激活函数可以由
Figure RE-GDA0002525921980000083
表示,目标技能主 题分布向量可以由θs表示,其中,
Figure RE-GDA0002525921980000084
通过对目标技能 主题分布向量进行分步计算,提高了计算效率,保证目标技能主题分 布向量的计算精度,实现文本主题预测的自动化。
上述申请中的一个实施例具有如下优点或有益效果:通过将文本主题 预测子模型划分为词袋特征提取模块、分布参数计算模块和第一主题分布 确定模块,实现目标技能主题分布向量的自动生成。解决了现有技术中, 由人力资源员工手动提取岗位信息,减少人为的主观性,节约招聘岗位描 述文本的生成时间和成本,避免由于人力资源员工对不同岗位的专业技能 具有领域间隙,所造成的误差,便于招聘岗位与招聘人员的精准匹配,提高招聘效率。
图4是根据本申请实施例提供的一种深度神经网络模型的结构示意图, 以上述实施例为基础进行进一步优化。如图4所示,本实施例提供的深度 神经网络模型400可以包括:
文本主题预测子模型410和描述文本生成子模型420。
本实施例中,可选的,描述文本生成子模型包括:编码器模块,用于 生成原始相关文本中当前句子的语义表征向量序列;注意力模块,用于根 据目标技能主题分布向量,对语义表征向量序列进行加权变换;解码器模 块,用于根据加权变换后的语义表征向量序列,预测当前句子的技能主题 标签;并根据技能主题标签预测出目标招聘岗位描述文本的当前词。
具体的,描述文本生成子模型420可以由编码器模块401、注意力模 块402和解码器模块403组成。编码器模块401根据原始相关文本,生成 原始相关文本中当前句子的语义表征向量序列,语义表征向量序列可以由 H表示,可以使用一个双向循环神经网络,对于输入序列X= {x_1,x_2,…,x_Md},得到语义表征序列
Figure BDA0002482213970000091
其中,
Figure BDA0002482213970000092
表示 输入序列中任一词的语义表征向量,Md表示词数量。注意力模块402获 取第一主题分布特征计算子模块3035的目标技能主题分布向量θs,根据 目标技能主题分布向量θs对语义表征序列H进行加权变换。解码器模块 403接收加权变换后的语义表征向量序列,可以采用两个单向循环神经网 络,建模当前句子的技能主题标签的预测,根据技能主题标签进一步得到目标招聘岗位描述文本的当前词的预测。技能主题标签可以由tj表示,目 标招聘岗位描述文本的当前词可以由sj,k表示。通过将描述文本生成子模型 420进行模块划分,可以自动预测出目标招聘岗位的技能主题标签和描述 文本的当前词,减少人工操作,提高招聘文案形成的效率。
本实施例中,可选的,编码器模块包括:词向量生成子模块,用于生 成原始相关文本中当前句子所包含各个词的词向量;第一循环神经网络子 模块,用于根据各词向量生成当前句子的语义表征向量序列。
具体的,编码器模块401可以由词向量生成子模块4011和第一循环 神经网络子模块4012组成,词向量生成子模块4011根据原始相关文本, 生成当前句子中所包含的各个词的词向量,可以用
Figure BDA0002482213970000101
表示。第一循环神经 网络子模块4012接收词向量生成子模块4011的词向量
Figure BDA0002482213970000102
生成当前句子 的语义表征向量序列H。实现了对语义表征向量序列的精确计算,节约人 力和时间,提高了目标招聘岗位描述文本的生成效率。
本实施例中,可选的,注意力模块包括第一注意力子模块和第二注意 力子模块;解码器模块包括主题预测子模块和文本生成子模块;其中:第 一注意力子模块,用于根据目标技能主题分布向量以及主题预测子模块中 的隐层特征状态向量,对语义表征向量序列进行加权变换,获得加权变化 后的第一向量序列;第二注意力子模块,用于根据目标技能主题分布向量 以及文本生成子模块中的隐层特征状态向量,对语义表征向量序列进行加 权变换,获得加权变化后的第二向量序列;主题预测子模块,用于根据目 标技能主题分布向量以及第一向量序列,预测出当前句子的技能主题标签; 文本生成子模块,用于根据当前句子的技能主题标签以及第二向量序列, 预测出目标招聘岗位描述文本中的当前词。
具体的,注意力模块402可以由第一注意力子模块4021和第二注意 力子模块4022组成,解码器模块403可以由主题预测子模块4031和文本 生成子模块4032组成。第一注意力子模块4021获取第一主题分布特征子 模块3035的目标技能主题分布向量θs,并根据主题预测子模块4031中的 隐层特征状态向量,对语义表征向量序列H进行加权变换,获得加权变化 后的第一向量序列。其中,主题预测子模块4031中的隐层特征状态向量 可以由
Figure BDA0002482213970000103
表示,第一向量序列可以由
Figure BDA0002482213970000104
表示。第二注意力子模块4022获 取第一主题分布特征子模块3035的目标技能主题分布向量θs,并根据文 本生成子模块4032中的隐层特征状态向量,对语义表征向量序列H进行 加权变换,获得加权变化后的第二向量序列。其中,文本生成子模块4032 中的隐层特征状态向量可以由
Figure BDA0002482213970000105
表示,第二向量序列可以由
Figure BDA0002482213970000106
表示。
主题预测子模块4031根据目标技能主题分布向量θs和第一向量序列
Figure BDA0002482213970000107
预测出当前句子的技能主题标签tj。文本生成子模块4032获取主题预 测子模块4031输出的当前句子的技能主题标签tj和第二向量序列
Figure BDA0002482213970000108
预 测出目标招聘岗位描述文本中的当前词sj,k。例如,可以使用如下公式进行 技能主题标签和目标招聘岗位描述文本的当前词的预测:
Figure BDA0002482213970000111
Figure BDA0002482213970000112
其中,p(tj|t<j,H,θs)表示技能主题标签的预测概率, p(yj,k|y<j,yj,<k,H,θs,tj)表示目标招聘岗位描述文本的当前词的预测概率,Wt、 Wc、bt和bc为预设参数。
第一向量序列
Figure BDA0002482213970000113
和第二向量序列
Figure BDA0002482213970000114
可以由如下公式计算:
Figure BDA0002482213970000115
Figure BDA0002482213970000116
其中,N是指目标招聘岗位描述文本的句子数量,
Figure BDA0002482213970000117
是指第j个句 子中词的数量,
Figure BDA0002482213970000118
是指第l个句子中词的语义表征向量,
Figure BDA0002482213970000119
Figure BDA00024822139700001110
是计 算注意力机制中的中间变量,由如下公式计算:
Figure BDA00024822139700001111
Figure BDA00024822139700001112
其中,
Figure BDA00024822139700001113
Figure BDA00024822139700001114
均为网络中间层向量。
Figure BDA00024822139700001115
Figure BDA00024822139700001116
的计算公式如下:
Figure BDA00024822139700001117
Figure BDA00024822139700001118
其中,
Figure BDA00024822139700001119
Figure BDA00024822139700001120
为预设参数。
Figure BDA00024822139700001121
Figure BDA00024822139700001122
分别与上述的
Figure BDA00024822139700001123
Figure BDA00024822139700001124
的计算方法类似,将
Figure BDA00024822139700001125
公式中的l 替换为P就是
Figure BDA00024822139700001126
的计算公式,将
Figure BDA00024822139700001127
中的l替换为p就是
Figure BDA00024822139700001128
的计算公式。 P和l是累加函数中的自变量,在[1,N]中取值。
对于主题标签tj,采用如下公式计算:
Figure BDA00024822139700001129
其中,tj-1表示为上一句子即第j-1个句子的主题标签,
Figure BDA00024822139700001130
表示目标 招聘岗位描述文本中第j-1个句子中词的数量,ks表示主题数量,
Figure BDA0002482213970000121
是 通过第一技能主题词分布参数βs对上一句子的矢量表达。
通过对注意力模块402和解码器模块403的划分,完成了对技能主题 标签和描述文本中的当前词的确定,提高了计算精度,实现了目标招聘岗 位描述文本的自动生成,减少人工成本,提高招聘效率。
本实施例中,可选的,主题预测子模块,包括:第二循环神经网络子 模块,用于根据文本生成子模块中预测上一句子的循环神经网络的隐层特 征状态向量、上一句子的技能主题标签对应的嵌入表征向量、以及目标技 能主题分布向量,获得第一序列特征向量;主题生成子模块,用于根据第 一序列特征向量和第一向量序列,预测出当前句子的技能主题标签。
具体的,主题预测子模块4031可以由第二循环神经网络子模块40311 和主题生成子模块40312组成。第二循环神经网络子模块40311获取文本 生成子模块4032中预测上一句子的循环神经网络的隐层特征状态向量、 上一句子的技能主题标签所对应的嵌入表征向量、以及目标技能主题分布 向量θs,计算得到第一序列特征向量。其中,上一句子的循环神经网络的 隐层特征状态向量可以由
Figure BDA0002482213970000122
表示,上一句子的技能主题标签可以由tj-1表示,上一句子的技能主题标签对应的嵌入表征向量可以由
Figure BDA0002482213970000123
表示,第一 序列特征向量可以由
Figure BDA0002482213970000124
表示。例如,可以采用LSTM(Long Short-Term Memory,长短期记忆网络)进行计算,公式如下:
Figure BDA0002482213970000125
Figure BDA0002482213970000126
其中,
Figure BDA0002482213970000127
表示上一句子的第一序列特征向量,
Figure BDA0002482213970000128
表示当前句子的技能 主题标签对应的嵌入表征向量,tj表示当前句子的技能主题标签,
Figure BDA00024822139700001212
表示 预设参数。
主题生成子模块40312获取第二循环神经网络子模块40311的第一序 列特征向量
Figure BDA0002482213970000129
并根据第一注意力子模块4021的第一向量序列
Figure BDA00024822139700001210
预测 出当前句子的技能主题标签tj。通过计算第一序列特征向量
Figure BDA00024822139700001211
提高了当 前句子的技能主题标签的预测精度,便于目标招聘岗位描述文本的生成。
本实施例中,可选的,文本生成子模块包括:第三循环神经网络子模 块,用于根据第一序列特征向量和预测出的上一个词的词嵌入表征向量, 获得第二序列特征向量;中间处理子模块,用于根据第二向量序列和第二 序列特征向量,获得预生成词概率向量;复制机制子模块,用于基于第一 技能主题词分布参数对预生成词概率向量进行处理,获得预测出的目标招 聘岗位描述文本中的当前词。
具体的,文本生成子模块4032可以由第三循环神经网络子模块40321、 中间处理子模块40322和复制机制子模块40323组成。第三循环神经网络 子模块40321获取第一序列特征向量
Figure BDA0002482213970000131
和预测出的上一个词的词嵌入表征 向量,得到第二序列特征向量。其中,预测出的上一个词的词嵌入表征向 量可以由
Figure BDA0002482213970000132
表示,第二序列特征向量可以由
Figure BDA0002482213970000133
表示。例如,可以采用 LSTM进行计算,公式如下:
Figure BDA0002482213970000134
Figure BDA0002482213970000135
其中,
Figure BDA0002482213970000136
表示上一个词的第二序列特征向量,
Figure BDA0002482213970000137
表示当前词的词嵌 入表征向量,yj,k表示预生成词概率向量,
Figure BDA0002482213970000138
表示预设参数。
中间处理子模块40322根据第二向量序列
Figure BDA0002482213970000139
和第二序列特征向量
Figure BDA00024822139700001310
得到预生成词概率向量,预生成词概率向量可以由yj,k表示。复制机制子 模块40323基于第一技能主题词分布参数,对预生成词概率向量进行处理, 得到预测出的目标招聘岗位描述文本中的当前词sj,k。第一技能主题词分布 参数可以预先设置,由βs表示。通过将文本生成子模块4032划分为三个 子模块,实现了目标招聘岗位的描述文本自动生成,提高了描述文本与目标岗位的匹配精度,进而提高描述文本的生成效率。
上述申请中的一个实施例具有如下优点或有益效果:通过将描述文本 生成子模型划分为编码器模块、注意力模块和解码器模块,实现目标招聘 岗位描述文本的自动生成。解决了现有技术中,由人力资源员工手动提取 岗位信息,减少人为的主观性,节约招聘岗位描述文本的生成时间和成本, 避免由于人力资源员工对不同岗位的专业技能具有领域间隙,所造成的误 差,便于招聘岗位与招聘人员的精准匹配,提高招聘效率。
图5是根据本申请实施例提供的一种深度神经网络模型的训练方法的 流程示意图,以上述实施例为基础进行进一步优化,用于训练深度神经网 络,以生成招聘岗位描述文本的情况,该方法可以由一种深度神经网络模 型的训练装置来执行,该装置可以采用软件和/或硬件的方式实现,并可集 成于具有计算能力的电子设备中。如图5所示,本实施例提供的深度神经 网络模型的训练方法可以包括:
S510、获取第一训练样本数据;其中,第一训练样本数据包括:第一 样本岗位的第一样本相关文本和第一样本岗位对应的第一标准招聘岗位 描述文本;使用第一训练样本数据,对预先构建的文本主题预测子模型进 行初步训练,获得初步训练出的文本主题预测子模型。
其中,采集至少两类训练样本数据,可以分为第一训练样本数据和第 二训练样本数据。第一训练样本数据中可以包括第一样本岗位的第一样本 相关文本和第一样本岗位对应的第一标准招聘岗位描述文本,第一样本相 关文本可以包括第一样本岗位的已确定符合岗位要求人员的简历文本、包 含岗位职责数据的文本、以及包含岗位涉及项目数据的文本中的至少一个, 第一标准招聘岗位描述文本为已经编辑好的第一样本岗位对应的标准招 聘岗位描述文本。
图6为深度神经网络模型的结构示意图,其中,文本主题预测子模型 610和描述文本生成子模型620为预先构建。通过第一训练样本数据,对 文本主题预测子模型610进行初步训练,根据第一标准招聘岗位描述文本 对第一样本相关文本的训练结果进行修正,得到初步训练出的文本主题预 测子模型610。
本实施例中,可选的,文本主题预测子模型在前述实施例的基础上还 包括:第二主题分布确定模块,用于根据技能主题向量分布参数,获得原 始技能主题分布向量;第一文本重构子模块,用于根据第二技能主题词分 布参数和原始技能主题分布向量,生成重构后的原始相关文本的预测词袋 表征数据;第二文本重构子模块,用于根据第一技能主题词分布参数和目 标技能主题分布向量,生成重构后的标准招聘岗位描述文本的预测词袋表征数据。
具体的,文本主题预测子模型610可以由词袋特征提取模块601、分 布参数计算模块602、第一主题分布确定模块603、第二主题分布确定模 块604、第一文本重构子模块605和第二文本重构子模块606组成。第二 主题分布确定模块604接收分布参数计算模块602的技能主题向量分布参 数μd和σd,计算得出原始技能主题分布向量,原始技能主题分布向量可以 由θd表示。
第二主题分布确定模块604可以包括第二主题向量采样子模块6041、 第三全连接网络子模块6042和第二主题分布特征计算子模块6043。第二 主题向量采样子模块6041用于对第一技能主题向量分布子参数和第二技 能主题向量分布子参数,获得第二技能主题向量。可以根据μd和σd,计算 得出第二技能主题向量,第二技能主题向量可以由zd表示。第三全连接网 络子模块6042用于对第二技能主题向量进行特征提取,获得第二主题特 征向量。例如,可以采样得到主题向量为
Figure BDA0002482213970000151
第三全连接网络 子模块6042可以包括一层或多层的全连接网络。可以由
Figure BDA0002482213970000152
表示第三全连 接网络子模块6042中的全连接网络。
第二主题分布特征计算子模块6043接收第三全连接网络子模块6042 的第二主题特征向量,并根据预设的第二激活函数,得到原始技能主题分 布向量。第二激活函数可以由
Figure BDA0002482213970000153
表示,原始技能主题分布向量可 以由θd表示,其中,
Figure BDA0002482213970000154
第一文本重构子模块605获取原始技能主题分布向量θd,并根据预先 设置的第二技能主题词分布参数,得到重构后的原始相关文本的预测词袋 表征数据,第二技能主题词分布参数可以由βd表示。第一文本重构子模块 605的词袋表征数据预测概率由如下公式计算:
p(x,l)=θd·βd
其中,p(x,l)表示原始相关文本的词袋表征数据预测概率。
第二文本重构子模块606根据第一技能主题词分布参数和目标技能主 题分布向量θs,得到重构后的标准招聘岗位描述文本的预测词袋表征数据, 第一技能主题词分布参数可以由βs表示。第二文本重构子模块606的词袋 表征数据预测概率由如下公式计算:
Figure BDA0002482213970000161
其中,p(sjss)表示标准招聘岗位描述文本的词袋表征数据预测概 率,
Figure BDA0002482213970000162
表示经过词袋特征选取后的第j个句子中词的数量,
Figure BDA0002482213970000163
表示通过 第一技能主题词分布参数βs对当前句子的矢量表达。
通过将文本主题预测子模型610划分为第二主题分布确定模块604、 第一文本重构子模块605和第二文本重构子模块606,实现了对文本主题 预测子模型610的精确训练,提高文本主题预测的准确度,进而提高目标 岗位招聘文本的生成效率。
本实施例中,可选的,使用第一训练样本数据,对预先构建的文本主 题预测子模型进行初步训练,获得初步训练出的文本主题预测子模型,包 括:将第一样本相关文本输入预先构建的文本主题预测子模型;根据第一 差距信息和第二差距信息,采用神经变分方法计算第一损失函数值;其中 第一差距信息为第一文本重构子模块输出的第一预测词袋表征数据,与词 袋特征提取模块输出的第一样本相关文本的词袋表征数据之间的差距信息,第二差距信息为第二文本重构子模块输出的第二预测词袋表征数据与 第一标准招聘岗位描述文本的词袋表征数据之间的差距信息;根据计算的 第一损失函数值,对预先构建的文本主题预测子模型中的网络参数进行调 整,直至达到迭代次数阈值或损失函数值收敛。
具体的,将第一样本相关文本输入预先构建的文本主题预测子模型 610中,由词袋特征提取模块601输出第一样本相关文本的词袋表征数据
Figure BDA0002482213970000164
由第一文本重构子模块605输出第一预测词袋表征数据
Figure BDA0002482213970000165
Figure BDA0002482213970000166
Figure BDA0002482213970000167
之间的差距信息作为第一差距信息。由第二文本重构子模块606输 出第二预测词袋表征数据,将第二预测词袋表征数据与第一标准招聘岗位 描述文本的词袋表征数据之间的差距信息作为第二差距信息。在得到第一 差距信息和第二差距信息后,采用神经变分方法计算第一损失函数值,根 据第一损失函数值调整文本主题预测子模型610中的网络参数,直至达到 迭代次数阈值或损失函数值收敛,使文本主题预测子模型610输出的词袋 表征数据达到第一标准招聘岗位描述文本的词袋表征数据的要求。
第一损失函数值的计算公式如下所示:
Figure BDA0002482213970000171
其中,DKL表示Kullback-Leiblerdivergence距离(相对熵距离),
Figure BDA0002482213970000172
表示通过第二技能主题词分布参数βd对当前句子即第k个词的矢量表达,
Figure BDA0002482213970000173
表示通过第一技能主题词分布参数βs对第j个句子的矢量表达,p(θd) 和p(θs)表示数据真实概率分布,q(θd)和q(θs)表示神经变分近似的估计概 率分布函数。
通过计算差距信息和第一损失函数值,完成对文本主题预测子模型 610的初步训练,实现对文本主题预测的精确性。
S520、获取第二训练样本数据;其中,第二训练样本数据包括:第二 样本岗位的第二样本相关文本和第二样本岗位对应的第二标准招聘岗位 描述文本。
其中,在得到初步训练出的文本主题预测子模型610后,获取采集的 第二训练样本数据。第二样本相关文本包括第二样本岗位的已确定符合岗 位要求人员的简历文本、包含岗位职责数据的文本、以及包含岗位涉及项 目数据的文本中的至少一个,第二标准招聘岗位描述文本为已经编辑好的 第二样本岗位对应的标准招聘岗位描述文本。
S530、使用第二训练样本数据,对包括初步训练出的文本主题预测子 模型和预先构建的描述文本生成子模型的深度神经网络模型,进行训练, 获得训练出的深度神经网络模型。
其中,通过第二训练样本数据,对初步训练出的文本主题预测子模型 610和预先构建的描述文本生成子模型620进行训练,根据第二标准招聘 岗位描述文本对深度神经网络模型的输出结果进行修正,得到训练出的深 度神经网络模型。
本实施例中,可选的,使用第二训练样本数据,对包括初步训练出的 文本主题预测子模型和预先构建的描述文本生成子模型的深度神经网络 模型,进行训练,获得训练出的深度神经网络模型,包括:将第二样本相 关文本输入包括初步训练出的文本主题预测子模型和预先构建的描述文 本生成子模型的深度神经网络模型;根据第三差距信息和第四差距信息计 算第二损失函数值;其中第三差距信息为第一文本重构子模块输出的第一 预测词袋表征数据,与词袋特征提取模块输出的第二样本相关文本的词袋 表征数据之间的差距,第四差距信息为第二文本重构子模块输出的第二预 测词袋表征数据与第二标准招聘岗位描述文本的词袋表征数据之间的差 距信息;根据第五差距信息计算第三损失函数值;其中第五差距信息为第 二标准招聘岗位描述文本与描述文本生成子模型输出的文本之间的差距 信息;根据计算的第二损失函数值和第三损失函数值确定总体损失函数值,根据该总体损失函数值对文本主题预测子模型和描述文本生成子模型中 的网络参数进行调整,直至达到迭代次数阈值或总体损失函数值收敛。
具体的,得到初步训练的文本主题预测子模型610后,将第二样本相 关文本输入文本主题预测子模型610和描述文本生成子模型620。由文本 主题预测子模型610中的第一文本重构子模块605输出第一预测词袋表征 数据,由文本主题预测子模型610中的词袋特征提取模块601输出第二样 本相关文本的词袋表征数据,将第一预测词袋表征数据与第二样本相关文 本的词袋表征数据之间的差距信息作为第三差距信息。由第二文本重构子 模块606输出第二预测词袋表征数据,将第二预测词袋表征数据与第二标 准招聘岗位描述文本的词袋表征数据之间的差距信息作为第四差距信息。 在得到第三差距信息和第四差距信息后,可以采用神经变分方法计算第二 损失函数值。
由描述文本生成子模型620输出描述文本,将第二标准招聘岗位描述 文本与输出的描述文本之间的差距信息作为第五差距信息,根据第五差距 信息计算第三损失函数值。根据计算的第二损失函数值、第三损失函数值 以及对应的权重,确定总体损失函数值。根据该总体损失函数值对文本主 题预测子模型和所述描述文本生成子模型中的网络参数进行调整,直至达 到迭代次数阈值或总体损失函数值收敛,使深度神经网络模型600可以输出满足要求的招聘岗位描述文本。对文本主题预测子模型610和描述文本 生成子模型620进行总损失函数的计算,提高了深度神经网络模型600的 描述文本生成精度,避免主观性和领域差异导致的描述文本不准确,提高 描述文本生成效率。
图7是根据本申请实施例提供的一种深度神经网络模型结构示意图, 深度神经网络模型700包括文本主题预测子模型710和描述文本生成子模 型720。
文本主题预测子模型710包括词袋特征提取模块701、分布参数计算 模块702和第一主题分布确定模块703、第二主题分布确定模块704、第 一文本重构子模块705和第二文本重构子模块706。词袋特征提取模块701 包括词袋生成子模块7011和第一全连接网络子模块7012,分布参数计算 模块702包括第一参数计算子模块7021和第二参数计算子模块7022,第 一主题分布确定模块703包括第三参数计算子模块7031、第四参数计算子 模块7032、第一主题向量采样子模块7033、第二全连接网络子模块7034 和第一主题分布特征计算子模块7035,第二主题分布确定模块704包括第 二主题向量采样子模块7041、第三全连接网络子模块7042和第二主题分 布特征计算子模块7043。其中,
Figure BDA0002482213970000191
表示重构后的标准招聘岗位描述文本 的预测词袋表征数据。
描述文本生成子模型720包括编码器模块707、注意力模块708和解 码器模块709。编码器模块707包括词向量生成子模块7071和第一循环神 经网络子模块7072,注意力模块708包括第一注意力子模块7081和第二 注意力子模块7082,解码器模块709包括主题预测子模块7091和文本生 成子模块7092。主题预测子模块7091包括第二循环神经网络子模块70911 和主题生成子模块70912,文本生成子模块7092包括第三循环神经网络子 模块70921、中间处理子模块70922和复制机制子模块70923。其中,xk表 示原始相关文本或样本相关文本中的第k个词。
上述申请中的一个实施例具有如下优点或有益效果:通过获取第一训 练样本数据,实现对文本主题预测子模型的初步训练;通过获取第二训练 样本数据,完成对深度神经网络模型经一部训练,使深度神经网络模型输 出的描述文本符合标准文本的要求,提高描述文本的准确性,进而提高目 标岗位描述文本的输出效率。
图8是根据本申请实施例提供的一种招聘岗位描述文本的生成装置的 结构示意图,可执行本申请实施例所提供的招聘岗位描述文本的生成方法, 具备执行方法相应的功能模块和有益效果。如图8所示,该装置800可以 包括:
原始文本获取模块801,用于获取目标岗位的原始相关文本;
描述文本生成模块802,用于基于原始相关文本和预先训练出的深度 神经网络模型,生成目标岗位对应的目标招聘岗位描述文本。
可选的,原始相关文本包括:已确定符合岗位要求人员的简历文本、 包含岗位职责数据的文本、以及包含岗位涉及项目数据的文本中的至少一 个。
可选的,深度神经网络模型包括:
文本主题预测子模型,用于根据原始相关文本,预测出目标技能主题 分布向量;
描述文本生成子模型,用于根据目标技能主题分布向量,生成目标岗 位的目标招聘岗位描述文本。
可选的,文本主题预测子模型包括:
词袋特征提取模块,用于提取原始相关文本的词袋特征向量;
分布参数计算模块,用于根据词袋特征向量和非线性网络层,计算技 能主题向量分布参数;
第一主题分布确定模块,用于根据技能主题向量分布参数以及预设主 题分布假设参数,获得目标技能主题分布向量。
可选的,词袋特征提取模块包括:
词袋生成子模块,用于生成原始相关文本的词袋表征数据;
第一全连接网络子模块,用于对词袋表征数据进行特征提取,获得词 袋特征向量。
可选的,分布参数计算模块包括:
第一参数计算子模块,用于根据词袋特征向量和第一非线性网络层, 计算第一技能主题向量分布子参数;
第二参数计算子模块,用于根据词袋特征向量和第二非线性网络层, 计算第二技能主题向量分布子参数。
可选的,第一主题分布确定模块包括:
第三参数计算子模块,用于根据第一技能主题向量分布子参数和第一 预设主题分布假设子参数,计算第三技能主题向量分布参数;
第四参数计算子模块,用于根据第二技能主题向量分布子参数和第二 预设主题分布假设子参数,计算第四技能主题向量分布参数;
第一主题向量采样子模块,用于根据第三技能主题向量分布参数和第 四技能主题向量分布参数,获得第一技能主题向量;
第二全连接网络子模块,用于对第一技能主题向量进行特征提取,获 得第一主题特征向量;
第一主题分布特征计算子模块,用于根据第一主题特征向量和第一激 活函数,获得目标技能主题分布向量。
可选的,描述文本生成子模型包括:
编码器模块,用于生成原始相关文本中当前句子的语义表征向量序列;
注意力模块,用于根据目标技能主题分布向量,对语义表征向量序列 进行加权变换;
解码器模块,用于根据加权变换后的语义表征向量序列,预测当前句 子的技能主题标签;并根据技能主题标签预测出目标招聘岗位描述文本的 当前词。
可选的,编码器模块包括:
词向量生成子模块,用于生成原始相关文本中当前句子所包含各个词 的词向量;
第一循环神经网络子模块,用于根据各词向量生成所述当前句子的语 义表征向量序列。
可选的,注意力模块包括第一注意力子模块和第二注意力子模块;解 码器模块包括主题预测子模块和文本生成子模块;其中:
第一注意力子模块,用于根据目标技能主题分布向量以及主题预测子 模块中的隐层特征状态向量,对语义表征向量序列进行加权变换,获得加 权变化后的第一向量序列;
第二注意力子模块,用于根据目标技能主题分布向量以及文本生成子 模块中的隐层特征状态向量,对语义表征向量序列进行加权变换,获得加 权变化后的第二向量序列;
主题预测子模块,用于根据目标技能主题分布向量以及第一向量序列, 预测出当前句子的技能主题标签;
文本生成子模块,用于根据当前句子的技能主题标签以及第二向量序 列,预测出目标招聘岗位描述文本中的当前词。
可选的,主题预测子模块,包括:
第二循环神经网络子模块,用于根据文本生成子模块中预测上一句子 的循环神经网络的隐层特征状态向量、上一句子的技能主题标签对应的嵌 入表征向量、以及目标技能主题分布向量,获得第一序列特征向量;
主题生成子模块,用于根据第一序列特征向量和第一向量序列,预测 出当前句子的技能主题标签。
可选的,文本生成子模块包括:
第三循环神经网络子模块,用于根据第一序列特征向量和预测出的上 一个词的词嵌入表征向量,获得第二序列特征向量;
中间处理子模块,用于根据第二向量序列和第二序列特征向量,获得 预生成词概率向量;
复制机制子模块,用于基于第一技能主题词分布参数对预生成词概率 向量进行处理,获得预测出的目标招聘岗位描述文本中的当前词。
可选的,深度神经网络模型的训练过程包括:
获取第一训练样本数据;其中,第一训练样本数据包括:第一样本岗 位的第一样本相关文本和第一样本岗位对应的第一标准招聘岗位描述文 本;使用第一训练样本数据,对预先构建的文本主题预测子模型进行初步 训练,获得初步训练出的文本主题预测子模型;
获取第二训练样本数据;其中,第二训练样本数据包括:第二样本岗 位的第二样本相关文本和第二样本岗位对应的第二标准招聘岗位描述文 本;
使用第二训练样本数据,对包括初步训练出的文本主题预测子模型和 预先构建的描述文本生成子模型的深度神经网络模型,进行训练,获得训 练出的深度神经网络模型。
可选的,文本主题预测子模型还包括:
第二主题分布确定模块,用于根据技能主题向量分布参数,获得原始 技能主题分布向量;
第一文本重构子模块,用于根据第二技能主题词分布参数和原始技能 主题分布向量,生成重构后的原始相关文本的预测词袋表征数据;
第二文本重构子模块,用于根据第一技能主题词分布参数和目标技能 主题分布向量,生成重构后的标准招聘岗位描述文本的预测词袋表征数据。
可选的,使用第一训练样本数据,对预先构建的文本主题预测子模型 进行初步训练,获得初步训练出的文本主题预测子模型,包括:
将第一样本相关文本输入预先构建的文本主题预测子模型;
根据第一差距信息和第二差距信息,采用神经变分方法计算第一损失 函数值;其中第一差距信息为第一文本重构子模块输出的第一预测词袋表 征数据,与词袋特征提取模块输出的第一样本相关文本的词袋表征数据之 间的差距信息,第二差距信息为第二文本重构子模块输出的第二预测词袋 表征数据与第一标准招聘岗位描述文本的词袋表征数据之间的差距信息;
根据计算的第一损失函数值,对预先构建的文本主题预测子模型中的 网络参数进行调整,直至达到迭代次数阈值或损失函数值收敛。
可选的,使用第二训练样本数据,对包括初步训练出的文本主题预测 子模型和预先构建的描述文本生成子模型的深度神经网络模型,进行训练, 获得训练出的深度神经网络模型,包括:
将第二样本相关文本输入包括初步训练出的文本主题预测子模型和 预先构建的描述文本生成子模型的深度神经网络模型;
根据第三差距信息和第四差距信息计算第二损失函数值;其中第三差 距信息为第一文本重构子模块输出的第一预测词袋表征数据,与词袋特征 提取模块输出的第二样本相关文本的词袋表征数据之间的差距,第四差距 信息为第二文本重构子模块输出的第二预测词袋表征数据与第二标准招 聘岗位描述文本的词袋表征数据之间的差距信息;
根据第五差距信息计算第三损失函数值;其中第五差距信息为第二标 准招聘岗位描述文本与所述描述文本生成子模型输出的文本之间的差距 信息;
根据计算的第二损失函数值和第三损失函数值确定总体损失函数值, 根据该总体损失函数值对所述文本主题预测子模型和所述描述文本生成 子模型中的网络参数进行调整,直至达到迭代次数阈值或总体损失函数值 收敛。
上述申请中的一个实施例具有如下优点或有益效果:通过深度神经网 络模型,自动提取原始相关文本中的数据,得到目标岗位对应的目标招聘 岗位描述文本。解决了现有技术中,由人力资源员工手动提取岗位信息, 并人为撰写招聘岗位描述文本的问题,减少人为的主观性,节约招聘岗位 描述文本的生成时间和成本,避免由于人力资源员工对不同岗位的专业技 能具有领域间隙,所造成的误差,实现招聘岗位与招聘人员的精准匹配, 提高招聘岗位描述文本的生成效率以及招聘效率。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储 介质。
如图9所示,是根据本申请实施例的招聘岗位描述文本的生成方法的 电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上 型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、 大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动 装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类 似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅 仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图9所示,该电子设备包括:一个或多个处理器901、存储器902, 以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不 同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方 式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存 储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设 备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将 多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可 以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器 阵列、一组刀片式服务器、或者多处理器系统)。图9中以一个处理器901 为例。
存储器902即为本申请所提供的非瞬时计算机可读存储介质。其中, 所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处 理器执行本申请所提供的招聘岗位描述文本的生成方法。本申请的非瞬时 计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本 申请所提供的招聘岗位描述文本的生成方法。
存储器902作为一种非瞬时计算机可读存储介质,可用于存储非瞬时 软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的招聘 岗位描述文本的生成方法对应的程序指令/模块。处理器901通过运行存储 在存储器902中的非瞬时软件程序、指令以及模块,从而执行服务器的各 种功能应用以及数据处理,即实现上述方法实施例中的招聘岗位描述文本 的生成方法。
存储器902可以包括存储程序区和存储数据区,其中,存储程序区可 存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据 招聘岗位描述文本的生成方法的电子设备的使用所创建的数据等。此外, 存储器902可以包括高速随机存取存储器,还可以包括非瞬时存储器,例 如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一 些实施例中,存储器902可选包括相对于处理器901远程设置的存储器, 这些远程存储器可以通过网络连接至招聘岗位描述文本的生成方法的电 子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移 动通信网及其组合。
招聘岗位描述文本的生成方法的电子设备还可以包括:输入装置903 和输出装置904。处理器901、存储器902、输入装置903和输出装置904 可以通过总线或者其他方式连接,图9中以通过总线连接为例。
输入装置903可接收输入的数字或字符信息,以及产生与招聘岗位描 述文本的生成方法的电子设备的用户设置以及功能控制有关的键信号输 入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多 个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置904可以包括显示设 备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED) 显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集 成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、 和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多 个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处 理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用 可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装 置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输 入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编 程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、 和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读 介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程 处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存 储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器 指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数 据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术, 该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线 管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠 标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算 机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的 反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉 反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入) 来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如, 作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、 或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器 的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处 描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部 件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络 的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此 并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具 有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,通过深度神经网络模型,自动提取原 始相关文本中的数据,得到目标岗位对应的目标招聘岗位描述文本。解决 了现有技术中,由人力资源员工手动提取岗位信息,并人为撰写招聘岗位 描述文本的问题,减少人为的主观性,节约招聘岗位描述文本的生成时间 和成本,避免由于人力资源员工对不同岗位的专业技能具有领域间隙,所 造成的误差,实现招聘岗位与招聘人员的精准匹配,提高招聘岗位描述文本的生成效率以及招聘效率。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或 删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地 执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望 的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术 人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、 子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和 改进等,均应包含在本申请保护范围之内。

Claims (20)

1.一种招聘岗位描述文本的生成方法,其特征在于,包括:
获取目标岗位的原始相关文本;
基于所述原始相关文本和预先训练出的深度神经网络模型,生成所述目标岗位对应的目标招聘岗位描述文本。
2.根据权利要求1所述的方法,其特征在于,所述原始相关文本包括:已确定符合岗位要求人员的简历文本、包含岗位职责数据的文本、以及包含岗位涉及项目数据的文本中的至少一个。
3.根据权利要求1或2所述的方法,其特征在于,所述深度神经网络模型包括:
文本主题预测子模型,用于根据所述原始相关文本,预测出目标技能主题分布向量;
描述文本生成子模型,用于根据所述目标技能主题分布向量,生成所述目标岗位的目标招聘岗位描述文本。
4.根据权利要求3所述的方法,其特征在于,所述文本主题预测子模型包括:
词袋特征提取模块,用于提取所述原始相关文本的词袋特征向量;
分布参数计算模块,用于根据所述词袋特征向量和非线性网络层,计算技能主题向量分布参数;
第一主题分布确定模块,用于根据所述技能主题向量分布参数以及预设主题分布假设参数,获得目标技能主题分布向量。
5.根据权利要求4所述的方法,其特征在于,所述词袋特征提取模块包括:
词袋生成子模块,用于生成所述原始相关文本的词袋表征数据;
第一全连接网络子模块,用于对所述词袋表征数据进行特征提取,获得词袋特征向量。
6.根据权利要求4所述的方法,其特征在于,所述分布参数计算模块包括:
第一参数计算子模块,用于根据所述词袋特征向量和第一非线性网络层,计算第一技能主题向量分布子参数;
第二参数计算子模块,用于根据所述词袋特征向量和第二非线性网络层,计算第二技能主题向量分布子参数。
7.根据权利要求6所述的方法,其特征在于,所述第一主题分布确定模块包括:
第三参数计算子模块,用于根据第一技能主题向量分布子参数和第一预设主题分布假设子参数,计算第三技能主题向量分布参数;
第四参数计算子模块,用于根据第二技能主题向量分布子参数和第二预设主题分布假设子参数,计算第四技能主题向量分布参数;
第一主题向量采样子模块,用于根据第三技能主题向量分布参数和第四技能主题向量分布参数,获得第一技能主题向量;
第二全连接网络子模块,用于对第一技能主题向量进行特征提取,获得第一主题特征向量;
第一主题分布特征计算子模块,用于根据第一主题特征向量和第一激活函数,获得目标技能主题分布向量。
8.根据权利要求3所述的方法,其特征在于,所述描述文本生成子模型包括:
编码器模块,用于生成所述原始相关文本中当前句子的语义表征向量序列;
注意力模块,用于根据所述目标技能主题分布向量,对所述语义表征向量序列进行加权变换;
解码器模块,用于根据加权变换后的语义表征向量序列,预测所述当前句子的技能主题标签;并根据所述技能主题标签预测出目标招聘岗位描述文本的当前词。
9.根据权利要求8所述的方法,其特征在于,所述编码器模块包括:
词向量生成子模块,用于生成所述原始相关文本中当前句子所包含各个词的词向量;
第一循环神经网络子模块,用于根据各所述词向量生成所述当前句子的语义表征向量序列。
10.根据权利要求8所述的方法,其特征在于,所述注意力模块包括第一注意力子模块和第二注意力子模块;所述解码器模块包括主题预测子模块和文本生成子模块;其中:
所述第一注意力子模块,用于根据所述目标技能主题分布向量以及所述主题预测子模块中的隐层特征状态向量,对所述语义表征向量序列进行加权变换,获得加权变化后的第一向量序列;
所述第二注意力子模块,用于根据所述目标技能主题分布向量以及所述文本生成子模块中的隐层特征状态向量,对所述语义表征向量序列进行加权变换,获得加权变化后的第二向量序列;
所述主题预测子模块,用于根据所述目标技能主题分布向量以及第一向量序列,预测出所述当前句子的技能主题标签;
所述文本生成子模块,用于根据所述当前句子的技能主题标签以及第二向量序列,预测出目标招聘岗位描述文本中的当前词。
11.根据权利要求10所述的方法,其特征在于,所述主题预测子模块,包括:
第二循环神经网络子模块,用于根据所述文本生成子模块中预测上一句子的循环神经网络的隐层特征状态向量、上一句子的技能主题标签对应的嵌入表征向量、以及所述目标技能主题分布向量,获得第一序列特征向量;
主题生成子模块,用于根据第一序列特征向量和第一向量序列,预测出所述当前句子的技能主题标签。
12.根据权利要求11所述的方法,其特征在于,所述文本生成子模块包括:
第三循环神经网络子模块,用于根据第一序列特征向量和预测出的上一个词的词嵌入表征向量,获得第二序列特征向量;
中间处理子模块,用于根据第二向量序列和第二序列特征向量,获得预生成词概率向量;
复制机制子模块,用于基于第一技能主题词分布参数对所述预生成词概率向量进行处理,获得预测出的目标招聘岗位描述文本中的当前词。
13.根据权利要求4所述的方法,其特征在于,所述深度神经网络模型的训练过程包括:
获取第一训练样本数据;其中,第一训练样本数据包括:第一样本岗位的第一样本相关文本和第一样本岗位对应的第一标准招聘岗位描述文本;使用第一训练样本数据,对预先构建的文本主题预测子模型进行初步训练,获得初步训练出的文本主题预测子模型;
获取第二训练样本数据;其中,第二训练样本数据包括:第二样本岗位的第二样本相关文本和第二样本岗位对应的第二标准招聘岗位描述文本;
使用第二训练样本数据,对包括初步训练出的文本主题预测子模型和预先构建的描述文本生成子模型的深度神经网络模型,进行训练,获得训练出的深度神经网络模型。
14.根据权利要求13所述的方法,其特征在于,所述文本主题预测子模型还包括:
第二主题分布确定模块,用于根据所述技能主题向量分布参数,获得原始技能主题分布向量;
第一文本重构子模块,用于根据第二技能主题词分布参数和原始技能主题分布向量,生成重构后的原始相关文本的预测词袋表征数据;
第二文本重构子模块,用于根据第一技能主题词分布参数和目标技能主题分布向量,生成重构后的标准招聘岗位描述文本的预测词袋表征数据。
15.根据权利要求14所述的方法,其特征在于,使用第一训练样本数据,对预先构建的文本主题预测子模型进行初步训练,获得初步训练出的文本主题预测子模型,包括:
将第一样本相关文本输入预先构建的文本主题预测子模型;
根据第一差距信息和第二差距信息,采用神经变分方法计算第一损失函数值;其中第一差距信息为第一文本重构子模块输出的第一预测词袋表征数据,与所述词袋特征提取模块输出的第一样本相关文本的词袋表征数据之间的差距信息,第二差距信息为第二文本重构子模块输出的第二预测词袋表征数据与第一标准招聘岗位描述文本的词袋表征数据之间的差距信息;
根据计算的第一损失函数值,对预先构建的文本主题预测子模型中的网络参数进行调整,直至达到迭代次数阈值或损失函数值收敛。
16.根据权利要求14所述的方法,其特征在于,使用第二训练样本数据,对包括初步训练出的文本主题预测子模型和预先构建的描述文本生成子模型的深度神经网络模型,进行训练,获得训练出的深度神经网络模型,包括:
将第二样本相关文本输入包括初步训练出的文本主题预测子模型和预先构建的描述文本生成子模型的深度神经网络模型;
根据第三差距信息和第四差距信息计算第二损失函数值;其中第三差距信息为第一文本重构子模块输出的第一预测词袋表征数据,与词袋特征提取模块输出的第二样本相关文本的词袋表征数据之间的差距,第四差距信息为第二文本重构子模块输出的第二预测词袋表征数据与第二标准招聘岗位描述文本的词袋表征数据之间的差距信息;
根据第五差距信息计算第三损失函数值;其中第五差距信息为第二标准招聘岗位描述文本与所述描述文本生成子模型输出的文本之间的差距信息;
根据计算的第二损失函数值和第三损失函数值确定总体损失函数值,根据该总体损失函数值对所述文本主题预测子模型和所述描述文本生成子模型中的网络参数进行调整,直至达到迭代次数阈值或总体损失函数值收敛。
17.一种招聘岗位描述文本的生成装置,其特征在于,包括:
原始文本获取模块,用于获取目标岗位的原始相关文本;
描述文本生成模块,用于基于所述原始相关文本和预先训练出的深度神经网络模型,生成所述目标岗位对应的目标招聘岗位描述文本。
18.根据权利要求17所述的装置,其特征在于,所述深度神经网络模型包括:
文本主题预测子模型,用于根据所述原始相关文本,预测出目标技能主题分布向量;
描述文本生成子模型,用于根据所述目标技能主题分布向量,生成所述目标岗位的目标招聘岗位描述文本。
19.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-16中任一项所述的招聘岗位描述文本的生成方法。
20.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-16中任一项所述的招聘岗位描述文本的生成方法。
CN202010381686.9A 2020-05-08 2020-05-08 一种招聘岗位描述文本的生成方法、装置、设备及介质 Active CN113627135B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202010381686.9A CN113627135B (zh) 2020-05-08 2020-05-08 一种招聘岗位描述文本的生成方法、装置、设备及介质
US17/214,080 US20210216726A1 (en) 2020-05-08 2021-03-26 Method, apparatus, device and medium for generating recruitment position description text
EP21165688.9A EP3859588A3 (en) 2020-05-08 2021-03-29 Method, apparatus, device and medium for generating recruitment position description text
KR1020210040448A KR102540185B1 (ko) 2020-05-08 2021-03-29 채용 부문 설명 문서 생성 방법, 장치, 기기 및 매체
JP2021061313A JP2021177375A (ja) 2020-05-08 2021-03-31 募集ポジション説明テキストの生成方法、装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010381686.9A CN113627135B (zh) 2020-05-08 2020-05-08 一种招聘岗位描述文本的生成方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
CN113627135A true CN113627135A (zh) 2021-11-09
CN113627135B CN113627135B (zh) 2023-09-29

Family

ID=75277915

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010381686.9A Active CN113627135B (zh) 2020-05-08 2020-05-08 一种招聘岗位描述文本的生成方法、装置、设备及介质

Country Status (5)

Country Link
US (1) US20210216726A1 (zh)
EP (1) EP3859588A3 (zh)
JP (1) JP2021177375A (zh)
KR (1) KR102540185B1 (zh)
CN (1) CN113627135B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114492393A (zh) * 2022-01-17 2022-05-13 北京百度网讯科技有限公司 文本主题的确定方法、装置及电子设备
CN114997829A (zh) * 2022-06-09 2022-09-02 北京联众鼎盛咨询有限公司 一种招聘服务系统及方法
CN115062220A (zh) * 2022-06-16 2022-09-16 成都集致生活科技有限公司 基于注意力合并的招工推荐系统
CN117689354A (zh) * 2024-02-04 2024-03-12 芯知科技(江苏)有限公司 基于云服务的招聘信息的智能处理方法及平台

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220156635A1 (en) * 2020-11-19 2022-05-19 Sap Se Machine Learning Prediction For Recruiting Posting
US20230008868A1 (en) * 2021-07-08 2023-01-12 Nippon Telegraph And Telephone Corporation User authentication device, user authentication method, and user authentication computer program
CN115630651B (zh) * 2022-10-24 2023-06-02 北京百度网讯科技有限公司 文本生成方法和文本生成模型的训练方法、装置
JP7329159B1 (ja) * 2023-02-20 2023-08-17 株式会社ビズリーチ 情報処理システム、情報処理方法及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180329883A1 (en) * 2017-05-15 2018-11-15 Thomson Reuters Global Resources Unlimited Company Neural paraphrase generator
US20190065470A1 (en) * 2017-08-25 2019-02-28 Royal Bank Of Canada Service management control platform
US20190102704A1 (en) * 2017-10-02 2019-04-04 Wei Liu Machine learning systems for ranking job candidate resumes
CN109886641A (zh) * 2019-01-24 2019-06-14 平安科技(深圳)有限公司 一种岗位画像设置方法、岗位画像设置装置及终端设备
US20190287012A1 (en) * 2018-03-16 2019-09-19 Microsoft Technology Licensing, Llc Encoder-decoder network with intercommunicating encoder agents
CN110782072A (zh) * 2019-09-29 2020-02-11 广州荔支网络技术有限公司 员工离职风险预测方法、装置、设备及可读存储介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346171A (ja) * 2004-05-31 2005-12-15 Recruit Co Ltd 求人情報提供システム
US8843433B2 (en) * 2011-03-29 2014-09-23 Manyworlds, Inc. Integrated search and adaptive discovery system and method
KR102363369B1 (ko) * 2014-01-31 2022-02-15 구글 엘엘씨 문서들의 벡터 표현들 생성하기
KR101842362B1 (ko) * 2016-09-01 2018-03-26 성균관대학교산학협력단 인공 신경망 기반의 문단 생성 방법 및 장치
US11113732B2 (en) * 2016-09-26 2021-09-07 Microsoft Technology Licensing, Llc Controlling use of negative features in a matching operation
US10909442B1 (en) * 2017-03-30 2021-02-02 Amazon Technologies, Inc. Neural network-based artificial intelligence system for content-based recommendations using multi-perspective learned descriptors
CA3144657C (en) * 2017-05-23 2023-10-10 Google Llc Attention-based sequence transduction neural networks
CN107273503B (zh) * 2017-06-19 2020-07-10 北京百度网讯科技有限公司 用于生成同语言平行文本的方法和装置
WO2018236761A1 (en) * 2017-06-19 2018-12-27 Vettd, Inc. SYSTEMS AND METHODS FOR DETERMINING AND USING SEMANTIC CONNECTION BETWEEN MULTIPLE SOURCES IN NATURAL LANGUAGE TO DETERMINE FORCES AND WEAKNESSES
CN107967592A (zh) * 2017-10-12 2018-04-27 如是科技(大连)有限公司 招聘启事的辅助处理方法及装置
CN108280061B (zh) * 2018-01-17 2021-10-26 北京百度网讯科技有限公司 基于歧义实体词的文本处理方法和装置
US10437936B2 (en) * 2018-02-01 2019-10-08 Jungle Disk, L.L.C. Generative text using a personality model
US11042712B2 (en) * 2018-06-05 2021-06-22 Koninklijke Philips N.V. Simplifying and/or paraphrasing complex textual content by jointly learning semantic alignment and simplicity
US20200193382A1 (en) * 2018-12-17 2020-06-18 Robert P. Michaels Employment resource system, method and apparatus
US20200210491A1 (en) * 2018-12-31 2020-07-02 Charles University Faculty of Mathematics and Physics Computer-Implemented Method of Domain-Specific Full-Text Document Search
CN109918483B (zh) * 2019-03-15 2021-07-16 智者四海(北京)技术有限公司 匹配招聘职位与求职简历的装置和方法
CN110032681B (zh) * 2019-04-17 2022-03-15 北京网聘咨询有限公司 基于简历内容的职位推荐方法
US11373146B1 (en) * 2021-06-30 2022-06-28 Skyhive Technologies Inc. Job description generation based on machine learning

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180329883A1 (en) * 2017-05-15 2018-11-15 Thomson Reuters Global Resources Unlimited Company Neural paraphrase generator
US20190065470A1 (en) * 2017-08-25 2019-02-28 Royal Bank Of Canada Service management control platform
US20190102704A1 (en) * 2017-10-02 2019-04-04 Wei Liu Machine learning systems for ranking job candidate resumes
US20190287012A1 (en) * 2018-03-16 2019-09-19 Microsoft Technology Licensing, Llc Encoder-decoder network with intercommunicating encoder agents
CN109886641A (zh) * 2019-01-24 2019-06-14 平安科技(深圳)有限公司 一种岗位画像设置方法、岗位画像设置装置及终端设备
CN110782072A (zh) * 2019-09-29 2020-02-11 广州荔支网络技术有限公司 员工离职风险预测方法、装置、设备及可读存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ALLEGIS GROUP: ""Let’s talk: Focused conversation topics to supercharge recruiting success", Retrieved from the Internet <URL:https://sccms- cdn.azureedge.net/-/media/files/allegisgroup/insights/tas/ tas_whitepaper_lets_talk_03_2017_-pdf.pdf> *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114492393A (zh) * 2022-01-17 2022-05-13 北京百度网讯科技有限公司 文本主题的确定方法、装置及电子设备
CN114997829A (zh) * 2022-06-09 2022-09-02 北京联众鼎盛咨询有限公司 一种招聘服务系统及方法
CN115062220A (zh) * 2022-06-16 2022-09-16 成都集致生活科技有限公司 基于注意力合并的招工推荐系统
CN115062220B (zh) * 2022-06-16 2023-06-23 成都集致生活科技有限公司 基于注意力合并的招工推荐系统
CN117689354A (zh) * 2024-02-04 2024-03-12 芯知科技(江苏)有限公司 基于云服务的招聘信息的智能处理方法及平台
CN117689354B (zh) * 2024-02-04 2024-04-19 芯知科技(江苏)有限公司 基于云服务的招聘信息的智能处理方法及平台

Also Published As

Publication number Publication date
EP3859588A2 (en) 2021-08-04
EP3859588A3 (en) 2021-10-20
JP2021177375A (ja) 2021-11-11
KR102540185B1 (ko) 2023-06-07
US20210216726A1 (en) 2021-07-15
CN113627135B (zh) 2023-09-29
KR20210047284A (ko) 2021-04-29

Similar Documents

Publication Publication Date Title
CN113627135B (zh) 一种招聘岗位描述文本的生成方法、装置、设备及介质
CN111428008B (zh) 用于训练模型的方法、装置、设备以及存储介质
CN111325020B (zh) 一种事件论元抽取方法、装置以及电子设备
US10725827B2 (en) Artificial intelligence based virtual automated assistance
CN110727806B (zh) 基于自然语言和知识图谱的文本处理方法及装置
CN111639710A (zh) 图像识别模型训练方法、装置、设备以及存储介质
CN112270379A (zh) 分类模型的训练方法、样本分类方法、装置和设备
CN111414482A (zh) 一种事件论元抽取方法、装置以及电子设备
CN112507700A (zh) 事件抽取方法、装置、电子设备及存储介质
EP3940552A1 (en) Method for extracting geographic location point spatial relationship, method for training extraction model, and devices
CN112233664A (zh) 网络的训练方法、装置、设备以及存储介质
CN111078878B (zh) 文本处理方法、装置、设备及计算机可读存储介质
CN111680517A (zh) 用于训练模型的方法、装置、设备以及存储介质
CN113657100A (zh) 实体识别方法、装置、电子设备及存储介质
CN111753761A (zh) 模型生成方法、装置、电子设备及存储介质
CN111859953A (zh) 训练数据的挖掘方法、装置、电子设备及存储介质
CN115688920A (zh) 知识抽取方法、模型的训练方法、装置、设备和介质
CN112507103A (zh) 任务型对话及模型训练方法、装置、设备和存储介质
CN111611808A (zh) 用于生成自然语言模型的方法和装置
CN111563198A (zh) 一种物料召回方法、装置、设备及存储介质
CN111966782A (zh) 多轮对话的检索方法、装置、存储介质及电子设备
CN114547244A (zh) 用于确定信息的方法和装置
CN111311000B (zh) 用户消费行为预测模型训练方法、装置、设备及存储介质
CN112270169A (zh) 对白角色预测方法、装置、电子设备及存储介质
CN111325000B (zh) 语言生成方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant