JP2021177375A - 募集ポジション説明テキストの生成方法、装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム - Google Patents

募集ポジション説明テキストの生成方法、装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム Download PDF

Info

Publication number
JP2021177375A
JP2021177375A JP2021061313A JP2021061313A JP2021177375A JP 2021177375 A JP2021177375 A JP 2021177375A JP 2021061313 A JP2021061313 A JP 2021061313A JP 2021061313 A JP2021061313 A JP 2021061313A JP 2021177375 A JP2021177375 A JP 2021177375A
Authority
JP
Japan
Prior art keywords
text
topic
vector
word
submodule
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2021061313A
Other languages
English (en)
Inventor
秦川
Chuan Qin
姚開春
Kaichun Yao
祝恒書
Hengshu Zhu
馬超
Chao Ma
申大忠
Dazhong Shen
徐童
Tong Xu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Original Assignee
Baidu Online Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu Online Network Technology Beijing Co Ltd filed Critical Baidu Online Network Technology Beijing Co Ltd
Publication of JP2021177375A publication Critical patent/JP2021177375A/ja
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • G06F40/56Natural language generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06311Scheduling, planning or task assignment for a person or group
    • G06Q10/063112Skill-based matching of a person or a group to a task
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/105Human resources
    • G06Q10/1053Employment or hiring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Strategic Management (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Economics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Machine Translation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】ディープニューラルネットワークによってターゲット募集ポジション説明テキストを自動的に生成することを実現し、応募者とポジションとを正確にマッチングさせ、求人プロセスの人件費や時間を削減させ、求人効率を向上させる募集ポジション説明テキストの生成方法、装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラムを提供する。【解決手段】募集ポジション説明テキストの生成方法において、ターゲットポジションのオリジナル関連テキストを取得しS110、オリジナル関連テキスト及び予め訓練されたディープニューラルネットワークモデルに基づいて、ターゲットポジションに対応するターゲット募集ポジション説明テキストを生成するS120。【選択図】図1

Description

本願の実施例はコンピュータ技術に関し、特に人工知能の技術分野に関し、特に募集ポジション説明テキストの生成方法、装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラムに関する。
募集ポジション説明は職位の責任及び仕事のスキル要件を示し、有効な職位説明は雇用主が該職位に適する人材を見つけ、候補者が特定の職位の責任及び資格を明確に把握できるようにする。
従来の募集ポジションと職員とのマッチングには、人事専門家が求人市場を分析し、募集ポジション説明を人為的に作成する必要があり、主観性が強く、膨大な人件費が必要であり、また、人事スタッフが異なるポジションの専門スキルに対してフィールドギャップを有するため、誤差が発生することが多く、募集ポジションと採用者とを正確にマッチングできず、求人効率が低い。
本願の実施例は、募集ポジションを正確に説明し、ポジション説明の生成効率を向上させることを実現するために、募集ポジション説明テキストの生成方法、装置、デバイス及び媒体を提供する。
第1態様によれば、ターゲットポジションのオリジナル関連テキストを取得するステップと、前記オリジナル関連テキスト及び予め訓練されたディープニューラルネットワークモデルに基づいて、前記ターゲットポジションに対応するターゲット募集ポジション説明テキストを生成するステップと、を含む募集ポジション説明テキストの生成方法を提供する。
第2態様によれば、ターゲットポジションのオリジナル関連テキストを取得するためのオリジナルテキスト取得モジュールと、前記オリジナル関連テキスト及び予め訓練されたディープニューラルネットワークモデルに基づいて、前記ターゲットポジションに対応するターゲット募集ポジション説明テキストを生成するための説明テキスト生成モジュールと、を含む募集ポジション説明テキストの生成装置を提供する。
第3態様によれば、少なくとも1つのプロセッサ、及び前記少なくとも1つのプロセッサに通信可能に接続されたメモリを含み、前記少なくとも1つのプロセッサにより実行されると、本願の実施例のいずれかに記載の募集ポジション説明テキストの生成方法を前記少なくとも1つのプロセッサに実行させる、前記少なくとも1つのプロセッサによって実行可能な命令が前記メモリに記憶されている電子デバイスを提供する。
第4態様によれば、コンピュータ命令が記憶されている非一時的なコンピュータ可読記憶媒体であって、前記コンピュータ命令は本願の実施例のいずれかに記載の募集ポジション説明テキストの生成方法を前記コンピュータに実行させる非一時的なコンピュータ可読記憶媒体を提供する。
第5態様によれば、コンピュータプログラムであって、前記コンピュータプログラムはプロセッサにより実行されると、本願の実施例のいずれかに記載の募集ポジション説明テキストの生成方法を実現するコンピュータプログラムを提供する。
本願の技術によれば、従来技術において募集ポジションテキスト説明を手動で行う課題を解決し、ディープニューラルネットワークによってターゲット募集ポジション説明テキストを自動的かつ迅速に生成することができ、生成されたターゲット募集ポジション説明テキストはターゲットポジションの需要にマッチングすることができ、募集ポジション説明テキストの生成効率及び正確度を向上させ、さらに求人プロセスの労力や時間を削減させ、求人効率を向上させることができる。
この部分に記載されている内容は、本開示の実施例のキーポイント又は重要な特徴を特定することを意図するものではなく、本開示の範囲を限定することを意図するものでもないと理解される。本開示の他の特徴は、以下の明細書によって理解しやすくなる。
図面は、本解決案をよりよく理解するために使用されており、本出願を制限するものではない。
本願の実施例に係る募集ポジション説明テキストの生成方法の模式的なフローチャートである。 本願の実施例に係るディープニューラルネットワークモデルの構造模式図である。 本願の実施例に係るディープニューラルネットワークモデルの構造模式図である。 本願の実施例に係るディープニューラルネットワークモデルの構造模式図である。 本願の実施例に係るディープニューラルネットワークモデルの訓練方法の模式的なフローチャートである。 本願の実施例に係るディープニューラルネットワークモデルの構造模式図である。 本願の実施例に係るディープニューラルネットワークモデルの構造模式図である。 本願の実施例に係る募集ポジション説明テキストの生成装置の構造模式図である。 本願の実施例に係る募集ポジション説明テキストの生成方法を実現するための電子デバイスのブロック図である。
以下では、図面を参照しながら本願の例示的な実施例を説明するが、この説明には、理解を容易にするために本願の実施例の様々な詳細が含まれるが、これらは単に例示的なものであると考えるべきである。したがって、当業者が理解できるように、本願の範囲及び精神を逸脱することなく、ここで記載される実施例に様々な変更及び修正を加えることができる。同様に、以下の説明では、周知の機能及び構造については、明確化及び簡明化のために説明を省略する。
図1は本願の実施例に係る募集ポジション説明テキストの生成方法の模式的なフローチャートであり、本実施例は募集ポジション説明テキストを自動的に生成する場合に適用され、該方法は募集ポジション説明テキストの生成装置によって実行されることができ、該装置はソフトウェア及び/又はハードウェアで実現でき、計算能力を有する電子デバイスに集積できる。図1に示すように、本実施例に係る募集ポジション説明テキストの生成方法はS110〜S120を含んでもよい。
S110、ターゲットポジションのオリジナル関連テキストを取得する。
スタッフによって予め収集されたターゲットポジションのオリジナル関連テキストを取得する。
本実施例では、オプションとして、オリジナル関連テキストは、ポジション要件を満たすと決定された者の履歴書テキスト、ポジション責任データを含むテキスト、及びポジションに関するプロジェクトデータを含むテキストのうちの少なくとも1つを含む。
具体的には、ポジション要件を満たすと決定された者の履歴書テキストは入社者の履歴書テキスト、及び審査に合格して入社しようとする者の履歴書テキストを含んでもよい。スタッフは入社者の履歴書テキスト、及び審査に合格して入社しようとする者の履歴書テキストを予め収集し、異なるポジションの責任データを、ポジション責任データを含むテキストとして収集し、異なるポジションに関するプロジェクト又は工事データを、ポジションに関するプロジェクトデータを含むテキストとして収集する。例えば、入社者の履歴書に明記されている内容として、該当入社者の専門的な研究方向が知能ロボットであってもよく、ポジションに関するプロジェクトデータを含むテキストに明記されている内容として、該当ターゲットポジションプロジェクトが知能ロボット障害物回避プロジェクトであってもよい。オリジナル関連テキストを取得することで、ターゲットポジションの責任及びスキル需要に関する有効情報を抽出でき、生成されたターゲット募集ポジション説明テキストとターゲットポジションの責任及びスキル需要との正確なマッチングに有利である。
S120、オリジナル関連テキスト及び予め訓練されたディープニューラルネットワークモデルに基づいて、ターゲットポジションに対応するターゲット募集ポジション説明テキストを生成する。
ディープニューラルネットワークモデルは予め訓練された、ターゲット募集ポジション説明テキストを生成するためのモデルである。ターゲット募集ポジション説明テキストはターゲットポジションの責任及び仕事スキル等の説明情報を含み、応募者に展示することに用いられる。オリジナル関連テキストを、予め訓練されたディープニューラルネットワークモデルに入力し、ディープニューラルネットワークモデルがオリジナル関連テキストからターゲットポジションの関連データを抽出する。例えば、入社者の履歴書テキストからは入社者の現在の職位、入社者の研究方向及び入社者の現在のプロジェクト等のデータを抽出でき、審査に合格して入社しようとする者の履歴書テキストからは入社しようとする者のポジション意欲及び入社しようとする者の研究方向等のデータを抽出でき、ポジション責任データを含むテキストからは該ポジションの主要責任、仕事タスク及び専門要件等のデータを抽出でき、ポジションに関するプロジェクトデータを含むテキストからは該ポジションの履歴プロジェクト及び現在のプロジェクト等のデータを抽出できる。
ディープニューラルネットワークモデルはオリジナル関連テキストを取得した後、抽出した関連データに応じて、ターゲットポジションに対応するターゲット募集ポジション説明テキストを生成する。
上記出願の一実施例は、以下の利点又は有益な効果を有する。ディープニューラルネットワークによってターゲット募集ポジション説明テキストを自動的かつ迅速に生成することができ、生成されたターゲット募集ポジション説明テキストはターゲットポジションの需要にマッチングすることができ、募集ポジション説明テキストの生成効率及び正確度を向上させ、さらに求人プロセスの人件費及び時間を削減させ、求人効率を向上させることができる。
図2は本願の実施例に係るディープニューラルネットワークモデルの構造模式図であり、本願における募集ポジション説明テキストの生成方法を実行できる。図2に示すように、本実施例に係るディープニューラルネットワークモデル200は、
オリジナル関連テキストに応じて、ターゲットスキルトピック分布ベクトルを予測するためのテキストトピック予測サブモデル210と、
ターゲットスキルトピック分布ベクトルに応じて、ターゲットポジションのターゲット募集ポジション説明テキストを生成するための説明テキスト生成サブモデル220と、を含んでもよい。
ターゲットスキルトピック分布ベクトルはターゲットポジションのスキルトピック分布ベクトルであり、スキルトピックとは、ポジションに必要な仕事スキルのカテゴリ名称であり、例えば、スキルトピックとして、コード類スキルトピック、機械学習類スキルトピック及びビッグデータ類スキルトピック等が含まれてもよい。
テキストトピック予測サブモデル210はターゲットポジションのオリジナル関連テキストを取得し、オリジナル関連テキストからターゲットポジションのスキルトピックデータを抽出し、例えば、入社者のターゲットポジションのプロジェクト名称を抽出でき、プロジェクト名称に応じて該プロジェクトのスキルトピックを得ることができる。ターゲットポジションの関連データに応じて、ターゲットスキルトピック分布ベクトルを予測し、それによってターゲットポジションのスキルトピックを決定する。
テキストトピック予測サブモデル210はターゲットスキルトピック分布ベクトルを決定した後、ターゲットスキルトピック分布ベクトルを説明テキスト生成サブモデル220に送信し、説明テキスト生成サブモデル220はターゲットスキルトピック分布ベクトルに応じて、ターゲットポジションに対してテキスト説明を行うように、ターゲット募集ポジション説明テキストを生成する。例えば、ターゲットポジションがソフトウェアエンジニアであり、該ポジションのターゲットスキルトピック分布ベクトルがコード類スキルトピックである場合、最終的に生成されるターゲット募集ポジション説明テキストは「ソフトウェアエンジニア:JAVA(登録商標)及びC++を使いこなし、仕事経験3年以上」である。
上記出願の一実施例は以下の利点又は有益な効果を有する。ディープニューラルネットワークモデルをテキストトピック予測サブモデル及び説明テキスト生成サブモデルに分割することで、手動操作ステップを削減させ、人件費や時間を節約し、ターゲットポジションのスキルトピック及び説明テキストの段階的な決定を実現し、スキルトピックに応じて説明テキストを得ることで、ターゲット募集ポジション説明テキストの正確性及び効率を向上させる。
図3は本願の実施例に係るディープニューラルネットワークモデルの構造模式図であり、上記実施例をもとにさらに最適化する。図3に示すように、本実施例に係るディープニューラルネットワークモデル300は、
テキストトピック予測サブモデル310及び説明テキスト生成サブモデル320を含んでもよい。
本実施例では、オプションとして、テキストトピック予測サブモデルは、オリジナル関連テキストの単語の袋特徴ベクトルを抽出するための単語の袋特徴抽出モジュールと、単語の袋特徴ベクトル及び非線形ネットワーク層に応じて、スキルトピックベクトル分布パラメータを計算するための分布パラメータ計算モジュールと、スキルトピックベクトル分布パラメータ及び所定トピック分布仮定パラメータに応じて、ターゲットスキルトピック分布ベクトルを取得するための第1トピック分布決定モジュールと、を含む。
単語の袋特徴抽出モジュール301はターゲットポジションのオリジナル関連テキストを取得した後、オリジナル関連テキストから単語の袋特徴ベクトルを抽出する。例えば、オリジナル関連テキストが「ソフトウェアエンジニアはプログラミング基礎が必要である」及び「ソフトウェアエンジニアはまじめで浮つかない必要がある」である場合、単語の袋特徴ベクトルは[111100]及び[110011]として表すことができる。
単語の袋特徴抽出モジュール301は単語の袋特徴ベクトルを分布パラメータ計算モジュール302に送信し、分布パラメータ計算モジュール302は単語の袋特徴ベクトル及び予め設定された非線形ネットワーク層に応じて、スキルトピックベクトル分布パラメータを計算する。分布パラメータ計算モジュール302はスキルトピックベクトル分布パラメータを第1トピック分布決定モジュール303に送信し、第1トピック分布決定モジュール303はスキルトピックベクトル分布パラメータ及び予め設定された所定トピック分布仮定パラメータに応じて、ターゲットスキルトピック分布ベクトルを計算する。
テキストトピック予測サブモデル310を3つのサブモジュールに分割することで、ターゲットスキルトピック分布ベクトルの秩序的な計算を実現し、計算精度を向上させ、手動操作を削減させ、スキルトピック決定を手動で行うプロセスを回避し、ターゲットスキルトピック分布ベクトルの計算効率を向上させる。
本実施例では、オプションとして、単語の袋特徴抽出モジュールは、オリジナル関連テキストの単語の袋表現データを生成するための単語の袋生成サブモジュールと、単語の袋表現データに対して特徴抽出を行い、単語の袋特徴ベクトルを取得するための第1完全接続ネットワークサブモジュールと、を含む。
Figure 2021177375
本実施例では、オプションとして、分布パラメータ計算モジュールは、単語の袋特徴ベクトル及び第1非線形ネットワーク層に応じて、第1スキルトピックベクトル分布サブパラメータを計算するための第1パラメータ計算サブモジュールと、単語の袋特徴ベクトル及び第2非線形ネットワーク層に応じて、第2スキルトピックベクトル分布サブパラメータを計算するための第2パラメータ計算サブモジュールと、を含む。
Figure 2021177375
Figure 2021177375
Figure 2021177375
本実施例では、オプションとして、第1トピック分布決定モジュールは、第1スキルトピックベクトル分布サブパラメータ及び第1所定トピック分布仮定サブパラメータに応じて、第3スキルトピックベクトル分布パラメータを計算するための第3パラメータ計算サブモジュールと、第2スキルトピックベクトル分布サブパラメータ及び第2所定トピック分布仮定サブパラメータに応じて、第4スキルトピックベクトル分布パラメータを計算するための第4パラメータ計算サブモジュールと、第3スキルトピックベクトル分布パラメータ及び第4スキルトピックベクトル分布パラメータに応じて、第1スキルトピックベクトルを取得するための第1トピックベクトルサンプリングサブモジュールと、第1スキルトピックベクトルに対して特徴抽出を行い、第1トピック特徴ベクトルを取得するための第2完全接続ネットワークサブモジュールと、第1トピック特徴ベクトル及び第1活性化関数に応じて、ターゲットスキルトピック分布ベクトルを取得する第1トピック分布特徴計算サブモジュールと、を含む。
Figure 2021177375
Figure 2021177375
Figure 2021177375
上記出願の一実施例は以下の利点又は有益な効果を有する。テキストトピック予測サブモデルを単語の袋特徴抽出モジュール、分布パラメータ計算モジュール及び第1トピック分布決定モジュールに分割することで、ターゲットスキルトピック分布ベクトルの自動生成を実現する。従来技術では人事スタッフがポジション情報を手動で抽出することを解決し、主観性を削減させ、募集ポジション説明テキストの生成時間やコストを節約し、人事スタッフが異なるポジションの専門スキルに対してフィールドギャップを有することに起因する誤差を回避し、募集ポジションと採用者との正確なマッチングに寄与し、求人効率を向上させる。
図4は本願の実施例に係るディープニューラルネットワークモデルの構造模式図であり、上記実施例をもとにさらに最適化する。図4に示すように、本実施例に係るディープニューラルネットワークモデル400は、
テキストトピック予測サブモデル410及び説明テキスト生成サブモデル420を含んでもよい。
本実施例では、オプションとして、説明テキスト生成サブモデルは、オリジナル関連テキスト中の現在の文の意味表現ベクトルシーケンスを生成するためのエンコーダーモジュールと、ターゲットスキルトピック分布ベクトルに応じて、意味表現ベクトルシーケンスを加重変換するためのアテンションモジュールと、加重変換後の意味表現ベクトルシーケンスに応じて、現在の文のスキルトピックタグを予測し、スキルトピックタグに応じてターゲット募集ポジション説明テキストの現在の単語を予測するためのデコーダーモジュールと、を含む。
Figure 2021177375
本実施例では、オプションとして、エンコーダーモジュールは、オリジナル関連テキスト中の現在の文に含まれる各単語の単語ベクトルを生成するための単語ベクトル生成サブモジュールと、各単語ベクトルに応じて現在の文の意味表現ベクトルシーケンスを生成するための第1リカレントニューラルネットワークサブモジュールと、を含む。
Figure 2021177375
本実施例では、オプションとして、アテンションモジュールは第1アテンションサブモジュール及び第2アテンションサブモジュールを含み、デコーダーモジュールはトピック予測サブモジュール及びテキスト生成サブモジュールを含み、第1アテンションサブモジュールは、ターゲットスキルトピック分布ベクトル及びトピック予測サブモジュール中の隠れ層特徴状態ベクトルに応じて、意味表現ベクトルシーケンスを加重変換し、加重変換後の第1ベクトルシーケンスを取得することに用いられ、第2アテンションサブモジュールは、ターゲットスキルトピック分布ベクトル及びテキスト生成サブモジュール中の隠れ層特徴状態ベクトルに応じて、意味表現ベクトルシーケンスを加重変換し、加重変換後の第2ベクトルシーケンスを取得することに用いられ、トピック予測サブモジュールは、ターゲットスキルトピック分布ベクトル及び第1ベクトルシーケンスに応じて、現在の文のスキルトピックタグを予測することに用いられ、テキスト生成サブモジュールは、現在の文のスキルトピックタグ及び第2ベクトルシーケンスに応じて、ターゲット募集ポジション説明テキスト中の現在の単語を予測することに用いられる。
Figure 2021177375
Figure 2021177375
Figure 2021177375
Figure 2021177375
アテンションモジュール402及びデコーダーモジュール403を分割することで、スキルトピックタグ及び説明テキスト中の現在の単語の決定を実現し、計算精度を向上させ、ターゲット募集ポジション説明テキストの自動生成を実現し、人件費を削減させ、求人効率を向上させる。
本実施例では、オプションとして、トピック予測サブモジュールは、テキスト生成サブモジュール中の前の文を予測するリカレントニューラルネットワークの隠れ層特徴状態ベクトル、前の文のスキルトピックタグに対応する埋め込み表現ベクトル、及びターゲットスキルトピック分布ベクトルに応じて、第1シーケンス特徴ベクトルを取得するための第2リカレントニューラルネットワークサブモジュールと、第1シーケンス特徴ベクトル及び第1ベクトルシーケンスに応じて、現在の文のスキルトピックタグを予測するためのトピック生成サブモジュールと、を含む。
Figure 2021177375
Figure 2021177375
本実施例では、オプションとして、テキスト生成サブモジュールは、第1シーケンス特徴ベクトル及び予測された前の単語の単語埋め込み表現ベクトルに応じて、第2シーケンス特徴ベクトルを取得するための第3リカレントニューラルネットワークサブモジュールと、第2ベクトルシーケンス及び第2シーケンス特徴ベクトルに応じて、事前生成単語確率ベクトルを取得するための中間処理サブモジュールと、第1スキルトピック単語分布パラメータに基づいて事前生成単語確率ベクトルを処理し、予測されたターゲット募集ポジション説明テキスト中の現在の単語を取得するためのコピーメカニズムサブモジュールと、を含む。
Figure 2021177375
Figure 2021177375
上記出願の一実施例は以下の利点又は有益な効果を有する。説明テキスト生成サブモデルをエンコーダーモジュール、アテンションモジュール及びデコーダーモジュールに分割することで、ターゲット募集ポジション説明テキストの自動生成を実現する。従来技術では人事スタッフがポジション情報を手動で抽出することを解決し、主観性を削減させ、募集ポジション説明テキストの生成時間やコストを節約し、人事スタッフが異なるポジションの専門スキルに対してフィールドギャップを有することに起因する誤差を回避し、募集ポジションと採用者との正確なマッチングに寄与し、求人効率を向上させる。
図5は本願の実施例に係るディープニューラルネットワークモデルの訓練方法の模式的なフローチャートであり、上記実施例をもとにさらに最適化し、ディープニューラルネットワークを訓練し、募集ポジション説明テキストを生成する場合に適用され、該方法はディープニューラルネットワークモデルの訓練装置によって実行でき、該装置はソフトウェア及び/又はハードウェアで実現でき、計算能力を有する電子デバイスに集積できる。図5に示すように、本実施例に係るディープニューラルネットワークモデルの訓練方法はステップS510〜S530を含む。
S510、第1サンプルポジションの第1サンプル関連テキスト及び第1サンプルポジションに対応する第1基準募集ポジション説明テキストを含む第1訓練サンプルデータを取得し、第1訓練サンプルデータを使用し、予め構築されたテキストトピック予測サブモデルを予備訓練し、予備訓練されたテキストトピック予測サブモデルを取得する。
少なくとも2種類の訓練サンプルデータを収集し、第1訓練サンプルデータ及び第2訓練サンプルデータを分けることができる。第1訓練サンプルデータは第1サンプルポジションの第1サンプル関連テキスト及び第1サンプルポジションに対応する第1基準募集ポジション説明テキストを含んでもよく、第1サンプル関連テキストは第1サンプルポジションのポジション要件を満たすと決定された者の履歴書テキスト、ポジション責任データを含むテキスト、及びポジションに関するプロジェクトデータを含むテキストのうちの少なくとも1つを含んでもよく、第1基準募集ポジション説明テキストは編集済みの第1サンプルポジションに対応する基準募集ポジション説明テキストである。
図6はディープニューラルネットワークモデルの構造模式図であり、テキストトピック予測サブモデル610及び説明テキスト生成サブモデル620は予め構築されたものである。第1訓練サンプルデータによって、テキストトピック予測サブモデル610を予備訓練し、第1基準募集ポジション説明テキストに応じて第1サンプル関連テキストの訓練結果を補正し、予備訓練されたテキストトピック予測サブモデル610を得る。
本実施例では、オプションとして、上記実施例に加えて、テキストトピック予測サブモデルは、スキルトピックベクトル分布パラメータに応じて、オリジナルスキルトピック分布ベクトルを取得するための第2トピック分布決定モジュールと、第2スキルトピック単語分布パラメータ及びオリジナルスキルトピック分布ベクトルに応じて、再構築後のオリジナル関連テキストの予測単語の袋表現データを生成するための第1テキスト再構築サブモジュールと、第1スキルトピック単語分布パラメータ及びターゲットスキルトピック分布ベクトルに応じて、再構築後の基準募集ポジション説明テキストの予測単語の袋表現データを生成するための第2テキスト再構築サブモジュールと、をさらに含む。
Figure 2021177375
Figure 2021177375
Figure 2021177375
Figure 2021177375
Figure 2021177375
テキストトピック予測サブモデル610を第2トピック分布決定モジュール604、第1テキスト再構築サブモジュール605及び第2テキスト再構築サブモジュール606に分割することで、テキストトピック予測サブモデル610の正確な訓練を実現し、テキストトピック予測の正確度を向上させ、さらにターゲットポジション求人テキストの生成効率を向上させる。
本実施例では、オプションとして、第1訓練サンプルデータを使用し、予め構築されたテキストトピック予測サブモデルを予備訓練し、予備訓練されたテキストトピック予測サブモデルを取得するステップは、第1サンプル関連テキストを、予め構築されたテキストトピック予測サブモデルに入力するステップと、第1ギャップ情報及び第2ギャップ情報に応じて、ニューラル変分方法を使用して第1損失関数値を計算するステップであって、第1ギャップ情報は第1テキスト再構築サブモジュールによって出力される第1予測単語の袋表現データと単語の袋特徴抽出モジュールによって出力される第1サンプル関連テキストの単語の袋表現データとの間のギャップ情報であり、第2ギャップ情報は第2テキスト再構築サブモジュールによって出力される第2予測単語の袋表現データと第1基準募集ポジション説明テキストの単語の袋表現データとの間のギャップ情報であるステップと、計算された第1損失関数値に応じて、反復回数閾値に達する又は損失関数値が収束するまで、予め構築されたテキストトピック予測サブモデル中のネットワークパラメータを調整するステップと、を含む。
Figure 2021177375
Figure 2021177375
ギャップ情報及び第1損失関数値を計算することで、テキストトピック予測サブモデル610の予備訓練を行い、テキストトピックの正確な予測を実現する。
S520、第2サンプルポジションの第2サンプル関連テキスト及び第2サンプルポジションに対応する第2基準募集ポジション説明テキストを含む第2訓練サンプルデータを取得する。
予備訓練されたテキストトピック予測サブモデル610を得た後、収集された第2訓練サンプルデータを取得する。第2サンプル関連テキストは第2サンプルポジションのポジション要件を満たすと決定された者の履歴書テキスト、ポジション責任データを含むテキスト、及びポジションに関するプロジェクトデータを含むテキストのうちの少なくとも1つを含み、第2基準募集ポジション説明テキストは編集済みの第2サンプルポジションに対応する基準募集ポジション説明テキストである。
S530、第2訓練サンプルデータを使用して、予備訓練されたテキストトピック予測サブモデル及び予め構築された説明テキスト生成サブモデルを含むディープニューラルネットワークモデルを訓練し、訓練されたディープニューラルネットワークモデルを取得する。
第2訓練サンプルデータによって、予備訓練されたテキストトピック予測サブモデル610及び予め構築された説明テキスト生成サブモデル620を訓練し、第2基準募集ポジション説明テキストに応じてディープニューラルネットワークモデルの出力結果を補正し、訓練されたディープニューラルネットワークモデルを得る。
本実施例では、オプションとして、第2訓練サンプルデータを使用して、予備訓練されたテキストトピック予測サブモデル及び予め構築された説明テキスト生成サブモデルを含むディープニューラルネットワークモデルを訓練し、訓練されたディープニューラルネットワークモデルを取得するステップは、第2サンプル関連テキストを、予備訓練されたテキストトピック予測サブモデル及び予め構築された説明テキスト生成サブモデルを含むディープニューラルネットワークモデルに入力するステップと、第3ギャップ情報及び第4ギャップ情報に応じて第2損失関数値を計算するステップであって、第3ギャップ情報は第1テキスト再構築サブモジュールによって出力される第1予測単語の袋表現データと単語の袋特徴抽出モジュールによって出力される第2サンプル関連テキストの単語の袋表現データとの間のギャップであり、第4ギャップ情報は第2テキスト再構築サブモジュールによって出力される第2予測単語の袋表現データと第2基準募集ポジション説明テキストの単語の袋表現データとの間のギャップ情報であるステップと、第5ギャップ情報に応じて第3損失関数値を計算するステップであって、第5ギャップ情報は第2基準募集ポジション説明テキストと説明テキスト生成サブモデルによって出力されるテキストとの間のギャップ情報であるステップと、計算された第2損失関数値及び第3損失関数値に応じて合計損失関数値を決定し、該合計損失関数値に応じて、反復回数閾値に達する又は合計損失関数値が収束するまでキストトピック予測サブモデル及び説明テキスト生成サブモデル中のネットワークパラメータを調整するステップと、を含む。
具体的には、予備訓練されたテキストトピック予測サブモデル610を得た後、第2サンプル関連テキストをテキストトピック予測サブモデル610及び説明テキスト生成サブモデル620に入力する。テキストトピック予測サブモデル610中の第1テキスト再構築サブモジュール605は第1予測単語の袋表現データを出力し、テキストトピック予測サブモデル610中の単語の袋特徴抽出モジュール601は第2サンプル関連テキストの単語の袋表現データを出力し、第1予測単語の袋表現データと第2サンプル関連テキストの単語の袋表現データとの間のギャップ情報を第3ギャップ情報とする。第2テキスト再構築サブモジュール606は第2予測単語の袋表現データを出力し、第2予測単語の袋表現データと第2基準募集ポジション説明テキストの単語の袋表現データとの間のギャップ情報を第4ギャップ情報とする。第3ギャップ情報及び第4ギャップ情報を得た後、ニューラル変分方法を使用して第2損失関数値を計算することができる。
説明テキスト生成サブモデル620は説明テキストを出力し、第2基準募集ポジション説明テキストと出力された説明テキストとの間のギャップ情報を第5ギャップ情報とし、第5ギャップ情報に応じて第3損失関数値を計算する。計算された第2損失関数値、第3損失関数値及び対応する重みに応じて、合計損失関数値を決定する。該合計損失関数値に応じて、反復回数閾値に達する又は合計損失関数値が収束するまでテキストトピック予測サブモデル及び前記説明テキスト生成サブモデル中のネットワークパラメータを調整して、ディープニューラルネットワークモデル600が要件を満たす募集ポジション説明テキストを出力できるようにする。テキストトピック予測サブモデル610及び説明テキスト生成サブモデル620に対して合計損失関数の計算を行うことで、ディープニューラルネットワークモデル600の説明テキスト生成精度を向上させ、主観性及びフィールドギャップによって説明テキストが不正確であることを回避し、説明テキスト生成効率を向上させる。
図7は本願の実施例に係るディープニューラルネットワークモデルの構造模式図であり、ディープニューラルネットワークモデル700はテキストトピック予測サブモデル710及び説明テキスト生成サブモデル720を含む。
Figure 2021177375
Figure 2021177375
上記出願の一実施例は以下の利点又は有益な効果を有する。第1訓練サンプルデータを取得することで、テキストトピック予測サブモデルの予備訓練を実現し、第2訓練サンプルデータを取得することで、ディープニューラルネットワークモデルの一部を訓練し、ディープニューラルネットワークモデルによって出力される説明テキストが基準テキストの要件を満たすようにし、説明テキストの正確性を向上させ、さらにターゲットポジション説明テキストの出力効率を向上させる。
図8は本願の実施例に係る募集ポジション説明テキストの生成装置の構造模式図であり、本願の実施例に係る募集ポジション説明テキストの生成方法を実行でき、方法を実行する対応する機能モジュール及び有益な効果を有する。図8に示すように、該装置800は、
ターゲットポジションのオリジナル関連テキストを取得するためのオリジナルテキスト取得モジュール801と、
オリジナル関連テキスト及び予め訓練されたディープニューラルネットワークモデルに基づいて、ターゲットポジションに対応するターゲット募集ポジション説明テキストを生成するための説明テキスト生成モジュール802と、を含んでもよい。
オプションとして、オリジナル関連テキストは、ポジション要件を満たすと決定された者の履歴書テキスト、ポジション責任データを含むテキスト、及びポジションに関するプロジェクトデータを含むテキストのうちの少なくとも1つを含む。
オプションとして、ディープニューラルネットワークモデルは、
オリジナル関連テキストに応じて、ターゲットスキルトピック分布ベクトルを予測するためのテキストトピック予測サブモデルと、
ターゲットスキルトピック分布ベクトルに応じて、ターゲットポジションのターゲット募集ポジション説明テキストを生成するための説明テキスト生成サブモデルと、を含む。
オプションとして、テキストトピック予測サブモデルは、
オリジナル関連テキストの単語の袋特徴ベクトルを抽出するための単語の袋特徴抽出モジュールと、
単語の袋特徴ベクトル及び非線形ネットワーク層に応じて、スキルトピックベクトル分布パラメータを計算するための分布パラメータ計算モジュールと、
スキルトピックベクトル分布パラメータ及び所定トピック分布仮定パラメータに応じて、ターゲットスキルトピック分布ベクトルを取得するための第1トピック分布決定モジュールと、を含む。
オプションとして、単語の袋特徴抽出モジュールは、
オリジナル関連テキストの単語の袋表現データを生成するための単語の袋生成サブモジュールと、
単語の袋表現データに対して特徴抽出を行い、単語の袋特徴ベクトルを取得するための第1完全接続ネットワークサブモジュールと、を含む。
オプションとして、分布パラメータ計算モジュールは、
単語の袋特徴ベクトル及び第1非線形ネットワーク層に応じて、第1スキルトピックベクトル分布サブパラメータを計算するための第1パラメータ計算サブモジュールと、
単語の袋特徴ベクトル及び第2非線形ネットワーク層に応じて、第2スキルトピックベクトル分布サブパラメータを計算するための第2パラメータ計算サブモジュールと、を含む。
オプションとして、第1トピック分布決定モジュールは、
第1スキルトピックベクトル分布サブパラメータ及び第1所定トピック分布仮定サブパラメータに応じて、第3スキルトピックベクトル分布パラメータを計算するための第3パラメータ計算サブモジュールと、
第2スキルトピックベクトル分布サブパラメータ及び第2所定トピック分布仮定サブパラメータに応じて、第4スキルトピックベクトル分布パラメータを計算するための第4パラメータ計算サブモジュールと、
第3スキルトピックベクトル分布パラメータ及び第4スキルトピックベクトル分布パラメータに応じて、第1スキルトピックベクトルを取得するための第1トピックベクトルサンプリングサブモジュールと、
第1スキルトピックベクトルに対して特徴抽出を行い、第1トピック特徴ベクトルを取得するための第2完全接続ネットワークサブモジュールと、
第1トピック特徴ベクトル及び第1活性化関数に応じて、ターゲットスキルトピック分布ベクトルを取得するための第1トピック分布特徴計算サブモジュールと、を含む。
オプションとして、説明テキスト生成サブモデルは、
オリジナル関連テキスト中の現在の文の意味表現ベクトルシーケンスを生成するためのエンコーダーモジュールと、
ターゲットスキルトピック分布ベクトルに応じて、意味表現ベクトルシーケンスを加重変換するアテンションモジュールと、
加重変換後の意味表現ベクトルシーケンスに応じて、現在の文のスキルトピックタグを予測し、スキルトピックタグに応じてターゲット募集ポジション説明テキストの現在の単語を予測するためのデコーダーモジュールと、を含む。
オプションとして、エンコーダーモジュールは、
オリジナル関連テキスト中の現在の文に含まれる各単語の単語ベクトルを生成するための単語ベクトル生成サブモジュールと、
各単語ベクトルに応じて前記現在の文の意味表現ベクトルシーケンスを生成する第1リカレントニューラルネットワークサブモジュールと、を含む。
オプションとして、アテンションモジュールは第1アテンションサブモジュール及び第2アテンションサブモジュールを含み、デコーダーモジュールはトピック予測サブモジュール及びテキスト生成サブモジュールを含み、
第1アテンションサブモジュールは、ターゲットスキルトピック分布ベクトル及びトピック予測サブモジュール中の隠れ層特徴状態ベクトルに応じて、意味表現ベクトルシーケンスを加重変換し、加重変換後の第1ベクトルシーケンスを取得することに用いられ、
第2アテンションサブモジュールは、ターゲットスキルトピック分布ベクトル及びテキスト生成サブモジュール中の隠れ層特徴状態ベクトルに応じて、意味表現ベクトルシーケンスを加重変換し、加重変換後の第2ベクトルシーケンスを取得することに用いられ、
トピック予測サブモジュールは、ターゲットスキルトピック分布ベクトル及び第1ベクトルシーケンスに応じて、現在の文のスキルトピックタグを予測することに用いられ、
テキスト生成サブモジュールは、現在の文のスキルトピックタグ及び第2ベクトルシーケンスに応じて、ターゲット募集ポジション説明テキスト中の現在の単語を予測することに用いられる。
オプションとして、トピック予測サブモジュールは、
テキスト生成サブモジュール中の前の文を予測するリカレントニューラルネットワークの隠れ層特徴状態ベクトル、前の文のスキルトピックタグに対応する埋め込み表現ベクトル、及びターゲットスキルトピック分布ベクトルに応じて、第1シーケンス特徴ベクトルを取得するための第2リカレントニューラルネットワークサブモジュールと、
第1シーケンス特徴ベクトル及び第1ベクトルシーケンスに応じて、現在の文のスキルトピックタグを予測するためのトピック生成サブモジュールと、を含む。
オプションとして、テキスト生成サブモジュールは、
第1シーケンス特徴ベクトル及び予測された前の単語の単語埋め込み表現ベクトルに応じて、第2シーケンス特徴ベクトルを取得するための第3リカレントニューラルネットワークサブモジュールと、
第2ベクトルシーケンス及び第2シーケンス特徴ベクトルに応じて、事前生成単語確率ベクトルを取得するための中間処理サブモジュールと、
第1スキルトピック単語分布パラメータに基づいて事前生成単語確率ベクトルを処理し、予測されたターゲット募集ポジション説明テキスト中の現在の単語を取得するためのコピーメカニズムサブモジュールと、を含む。
オプションとして、ディープニューラルネットワークモデルの訓練プロセスは、
第1サンプルポジションの第1サンプル関連テキスト及び第1サンプルポジションに対応する第1基準募集ポジション説明テキストを含む第1訓練サンプルデータを取得し、第1訓練サンプルデータを使用し、予め構築されたテキストトピック予測サブモデルを予備訓練し、予備訓練されたテキストトピック予測サブモデルを取得するステップと、
第2サンプルポジションの第2サンプル関連テキスト及び第2サンプルポジションに対応する第2基準募集ポジション説明テキストを含む第2訓練サンプルデータを取得するステップと、
第2訓練サンプルデータを使用して、予備訓練されたテキストトピック予測サブモデル及び予め構築された説明テキスト生成サブモデルを含むディープニューラルネットワークモデルを訓練し、訓練されたディープニューラルネットワークモデルを取得するステップと、を含む。
オプションとして、テキストトピック予測サブモデルは、
スキルトピックベクトル分布パラメータに応じて、オリジナルスキルトピック分布ベクトルを取得するための第2トピック分布決定モジュールと、
第2スキルトピック単語分布パラメータ及びオリジナルスキルトピック分布ベクトルに応じて、再構築後のオリジナル関連テキストの予測単語の袋表現データを生成するための第1テキスト再構築サブモジュールと、
第1スキルトピック単語分布パラメータ及びターゲットスキルトピック分布ベクトルに応じて、再構築後の基準募集ポジション説明テキストの予測単語の袋表現データを生成するための第2テキスト再構築サブモジュールと、をさらに含む。
オプションとして、第1訓練サンプルデータを使用し、予め構築されたテキストトピック予測サブモデルを予備訓練し、予備訓練されたテキストトピック予測サブモデルを取得するステップは、
第1サンプル関連テキストを、予め構築されたテキストトピック予測サブモデルに入力するステップと、
第1ギャップ情報及び第2ギャップ情報に応じて、ニューラル変分方法を使用して第1損失関数値を計算するステップであって、第1ギャップ情報は第1テキスト再構築サブモジュールによって出力される第1予測単語の袋表現データと単語の袋特徴抽出モジュールによって出力される第1サンプル関連テキストの単語の袋表現データとの間のギャップ情報であり、第2ギャップ情報は第2テキスト再構築サブモジュールによって出力される第2予測単語の袋表現データと第1基準募集ポジション説明テキストの単語の袋表現データとの間のギャップ情報であるステップと、
計算された第1損失関数値に応じて、反復回数閾値に達する又は損失関数値が収束するまで、予め構築されたテキストトピック予測サブモデル中のネットワークパラメータを調整するステップと、を含む。
オプションとして、第2訓練サンプルデータを使用して、予備訓練されたテキストトピック予測サブモデル及び予め構築された説明テキスト生成サブモデルを含むディープニューラルネットワークモデルを訓練し、訓練されたディープニューラルネットワークモデルを取得するステップは、
第2サンプル関連テキストを、予備訓練されたテキストトピック予測サブモデル及び予め構築された説明テキスト生成サブモデルを含むディープニューラルネットワークモデルに入力するステップと、
第3ギャップ情報及び第4ギャップ情報に応じて第2損失関数値を計算するステップであって、第3ギャップ情報は第1テキスト再構築サブモジュールによって出力される第1予測単語の袋表現データと単語の袋特徴抽出モジュールによって出力される第2サンプル関連テキストの単語の袋表現データとの間のギャップであり、第4ギャップ情報は第2テキスト再構築サブモジュールによって出力される第2予測単語の袋表現データと第2基準募集ポジション説明テキストの単語の袋表現データとの間のギャップ情報であるステップと、
第5ギャップ情報に応じて第3損失関数値を計算するステップであって、第5ギャップ情報は第2基準募集ポジション説明テキストと前記説明テキスト生成サブモデルによって出力されるテキストとの間のギャップ情報であるステップと、
計算された第2損失関数値及び第3損失関数値に応じて合計損失関数値を決定し、該合計損失関数値に応じて、反復回数閾値に達する又は合計損失関数値が収束するまで前記テキストトピック予測サブモデル及び前記説明テキスト生成サブモデル中のネットワークパラメータを調整するステップと、を含む。
上記出願の一実施例は以下の利点又は有益な効果を有する。ディープニューラルネットワークモデルによって、オリジナル関連テキスト中のデータを自動的に抽出し、ターゲットポジションに対応するターゲット募集ポジション説明テキストを得る。従来技術では人事スタッフがポジション情報を手動で抽出し、募集ポジション説明テキストを人為的に編集する課題を解決し、主観性を削減させ、募集ポジション説明テキストの生成時間やコストを節約し、人事スタッフが異なるポジションの専門スキルに対してフィールドギャップを有することに起因する誤差を回避し、募集ポジションと採用者との正確なマッチングを実現し、募集ポジション説明テキストの生成効率及び求人効率を向上させる。
本願の実施例によれば、本願は電子デバイス及び読み取り可能な記憶媒体をさらに提供する。
図9に示すように、本願の実施例に係る募集ポジション説明テキストの生成方法の電子デバイスのブロック図である。電子デバイスは、例えば、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及びその他の適切なコンピュータなど、様々な形式のデジタルコンピュータを指すことを意図している。電子デバイスは、例えば、パーソナルデジタルアシスタント、携帯電話、スマートフォン、ウェアラブルデバイス、及びその他の類似のコンピューティング装置など、様々な形式の移動装置を示してもよい。本明細書に示されているコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であるが、本明細書の説明及び/又は要求される本願の実現を制限する意図はしない。
図9に示すように、該電子デバイスは、1つ又は複数のプロセッサ901、メモリ902、及び高速インターフェースと低速インターフェースを含む、各コンポーネントを接続するためのインターフェースを含む。各コンポーネントは、異なるバスを介して互いに接続され、共通のマザーボードに取り付けられ、又は必要に応じて他の方式で取り付けられ得る。プロセッサは電子デバイス内で実行される命令を処理でき、この命令には、メモリ内に記憶される又はメモリ上に記憶されて外部入力/出力装置(例えば、インターフェースに結合された表示デバイスなど)にGUIのグラフィック情報を表示する命令が含まれる。他の実施形態では、複数のプロセッサ及び/又は複数のバスを、必要に応じて、複数のメモリ及び複数のメモリとともに使用することができる。同様に、複数の電子デバイスを接続することができ、各デバイスは必要な操作の一部(例えば、サーバアレイ、ブレードサーバのグループ、又はマルチプロセッサシステムとして)を提供する。図9では、1つのプロセッサ901の場合が例示されている。
メモリ902は、本願に係る非一時的なコンピュータ可読記憶媒体である。前記メモリは、本願に係る募集ポジション説明テキストの生成方法を前記少なくとも1つのプロセッサに実行させるように、少なくとも1つのプロセッサによって実行可能な命令を記憶している。本願の非一時的なコンピュータ可読記憶媒体は、本願に係る募集ポジション説明テキストの生成方法をコンピュータに実行させるためのコンピュータ命令を記憶している。
非一時的なコンピュータ可読記憶媒体としてのメモリ902は、非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能なプログラム及びモジュール、例えば、本願の実施例における募集ポジション説明テキストの生成方法に対応するプログラム命令/モジュールを記憶することができる。プロセッサ901はメモリ902に記憶された非一時的なソフトウェアプログラム、命令及びモジュールを実行することによって、サーバの様々な機能アプリケーション及びデータ処理を実行し、即ち、上記方法実施例における募集ポジション説明テキストの生成方法を実現する。
メモリ902は、プログラム記憶領域及びデータ記憶領域を含むことができ、プログラム記憶領域は、オペレーティングシステム、及び少なくとも1つの機能に必要なアプリケーションプログラムを記憶し、データ記憶領域は、募集ポジション説明テキストの生成方法の電子デバイスの使用に従って作成されたデータ等を記憶する。また、メモリ902は、高速ランダムアクセスメモリを含み、さらに、例えば、少なくとも1つの磁気ディスクストレージデバイス、フラッシュメモリデバイス、又は他の非一時的なソリッドステートストレージデバイスなどの非一時的なメモリを含んでもよい。いくつかの実施例では、メモリ902はプロセッサ901に対して遠隔的に設置されるメモリを選択的に含んでもよく、これらの遠隔メモリは、ネットワークを介して募集ポジション説明テキストの生成方法の電子デバイスに接続され得る。上記ネットワークの例には、インターネット、企業イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、及びそれらの組み合わせが含まれるが、これらに限定されない。
募集ポジション説明テキストの生成方法の電子デバイスは入力装置903及び出力装置904をさらに含んでもよい。プロセッサ901、メモリ902、入力装置903及び出力装置904はバス又はほかの方式で接続してもよく、図9には、バスによる接続が例示されている。
入力装置903は、入力される数字又はキャラクター情報を受信し、募集ポジション説明テキストの生成方法の電子デバイスのユーザー設定及び機能制御に関連するキー信号入力を生成することができ、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、ポインタ、1つ又は複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置が挙げられる。出力装置904は、表示デバイス、補助照明装置(例えば、LED)、触覚フィードバック装置(例えば、振動モータ)などを含む。該表示デバイスは、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、及びプラズマディスプレイを含むが、これらに限定されない。いくつかの実施形態では、表示デバイスはタッチスクリーンであり得る。
ここで説明するシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、専用ASMC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせにおいて実現することができる。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムにおいて実施され、この1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラム可能なプロセッサを含むプログラム可能なシステムで実行及び/又は解釈され得、このプログラム可能なプロセッサは専用又は汎用のプログラム可能なプロセッサであってもよく、ストレージシステム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、データ及び命令をこのストレージシステム、少なくとも1つの入力装置、及び少なくとも1つの出力装置に送信することができる。
これらのコンピューティングプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも呼ばれる)には、プログラム可能なプロセッサの機械命令が含まれ、ハイレベルプロセス及び/又はオブジェクト指向のプログラミング言語、及び/又はアセンブリ/機械語を用いてこれらのコンピューティングプログラムを実施できる。例えば、本明細書で使用される「機械読み取り可能な媒体」及び「コンピュータ読み取り可能な媒体」という用語は、機械命令及び/又はデータをプログラム可能なプロセッサの任意のコンピュータプログラム製品、デバイス、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))に提供するものを指し、機械読み取り可能な信号としての機械命令を受信するための機械読み取り可能な媒体を含む。「機械読み取り可能な信号」という用語は、プログラム可能なプロセッサに機械命令及び/又はデータを提供するために使用される任意の信号を指す。
ユーザーと対話できるように、ここで説明するシステム及び技術をコンピュータに実施することができ、このコンピュータは、ユーザーに情報を表示するための表示装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニター)、ユーザーがコンピュータに入力することを可能とするキーボード及びポインティング装置(例えば、マウスやトラックボール)を有する。他の種類の装置も、ユーザーとの対話を提供することができ、例えば、ユーザーに提供するフィードバックは、任意の形式の感覚フィードバック(例えば、視覚的フィードバック、聴覚的フィードバック、又は触覚的フィードバック)であってもよく、そして、ユーザーからの入力は、任意の形式(音響入力、音声入力、又は触覚入力を含む)で受信できる。
ここで説明するシステム及び技術は、バックエンドコンポーネントを含むコンピューティングシステム(例えば、データサーバとして)、又はミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザーインターフェース又はWEBブラウザーを備えたユーザーコンピュータが挙げられ、ユーザーはこのグラフィカルユーザーインターフェース又はこのWEBブラウザーを介してここで説明するシステム及び技術の実施形態と対話できる)、又はこのようなバックエンドコンポーネント、ミドルウェアコンポーネント、又はフロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムにおいて実施できる。システムのコンポーネントは、任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)を介して相互に接続できる。通信ネットワークの例には、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、ブロックチェーンネットワーク及びインターネットが含まれる。
コンピュータシステムには、クライアントとサーバを含むことができる。クライアントとサーバは通常、互いに遠く離れており、通信ネットワークを介して互いに対話するのが一般的である。クライアントとサーバの関係は、対応するコンピュータで実行され、互いにクライアント−サーバの関係を持つコンピュータプログラムによって生成される。
本願の実施例の技術案によれば、ディープニューラルネットワークモデルによって、オリジナル関連テキスト中のデータを自動的に抽出し、ターゲットポジションに対応するターゲット募集ポジション説明テキストを得る。従来技術では人事スタッフがポジション情報を手動で抽出し、募集ポジション説明テキストを人為的に編集する課題を解決し、主観性を削減させ、募集ポジション説明テキストの生成時間やコストを節約し、人事スタッフが異なるポジションの専門スキルに対してフィールドギャップを有することに起因する誤差を回避し、募集ポジションと採用者との正確なマッチングを実現し、募集ポジション説明テキストの生成効率及び求人効率を向上させる。
なお、上記の様々な形式のプロセスを用いて、ステップを改めて並べ替えたり、追加したり、削除したりすることができる。例えば、本願に記載の各ステップは、本願に開示されている技術案の所望の結果が達成できる限り、並行して実施しても、順次実施しても、異なる順序で実施してもよく、本明細書では、それについて限定しない。
上記特定実施形態は、本願の特許範囲を限定するものではない。当業者にとって明らかなように、設計要件及び他の要因に応じて、様々な修正、組み合わせ、サブ組み合わせ、及び置換を行うことができる。本願の精神及び原則の範囲内で行われた修正、同等の置換、及び改良であれば、本願の特許範囲に含まれるものとする。

Claims (21)

  1. ターゲットポジションのオリジナル関連テキストを取得するステップと、
    前記オリジナル関連テキスト及び予め訓練されたディープニューラルネットワークモデルに基づいて、前記ターゲットポジションに対応するターゲット募集ポジション説明テキストを生成するステップと、を含むことを特徴とする募集ポジション説明テキストの生成方法。
  2. 前記オリジナル関連テキストは、ポジション要件を満たすと決定された者の履歴書テキスト、ポジション責任データを含むテキスト、及びポジションに関するプロジェクトデータを含むテキストのうちの少なくとも1つを含むことを特徴とする請求項1に記載の方法。
  3. 前記ディープニューラルネットワークモデルは、
    前記オリジナル関連テキストに応じて、ターゲットスキルトピック分布ベクトルを予測するためのテキストトピック予測サブモデルと、
    前記ターゲットスキルトピック分布ベクトルに応じて、前記ターゲットポジションのターゲット募集ポジション説明テキストを生成するための説明テキスト生成サブモデルと、を含むことを特徴とする請求項1又は2に記載の方法。
  4. 前記テキストトピック予測サブモデルは、
    前記オリジナル関連テキストの単語の袋特徴ベクトルを抽出するための単語の袋特徴抽出モジュールと、
    前記単語の袋特徴ベクトル及び非線形ネットワーク層に応じて、スキルトピックベクトル分布パラメータを計算するための分布パラメータ計算モジュールと、
    前記スキルトピックベクトル分布パラメータ及び所定トピック分布仮定パラメータに応じて、ターゲットスキルトピック分布ベクトルを取得するための第1トピック分布決定モジュールと、を含むことを特徴とする請求項3に記載の方法。
  5. 前記単語の袋特徴抽出モジュールは、
    前記オリジナル関連テキストの単語の袋表現データを生成するための単語の袋生成サブモジュールと、
    前記単語の袋表現データに対して特徴抽出を行い、単語の袋特徴ベクトルを取得するための第1完全接続ネットワークサブモジュールと、を含むことを特徴とする請求項4に記載の方法。
  6. 前記分布パラメータ計算モジュールは、
    前記単語の袋特徴ベクトル及び第1非線形ネットワーク層に応じて、第1スキルトピックベクトル分布サブパラメータを計算するための第1パラメータ計算サブモジュールと、
    前記単語の袋特徴ベクトル及び第2非線形ネットワーク層に応じて、第2スキルトピックベクトル分布サブパラメータを計算するための第2パラメータ計算サブモジュールと、を含むことを特徴とする請求項4に記載の方法。
  7. 前記第1トピック分布決定モジュールは、
    第1スキルトピックベクトル分布サブパラメータ及び第1所定トピック分布仮定サブパラメータに応じて、第3スキルトピックベクトル分布パラメータを計算するための第3パラメータ計算サブモジュールと、
    第2スキルトピックベクトル分布サブパラメータ及び第2所定トピック分布仮定サブパラメータに応じて、第4スキルトピックベクトル分布パラメータを計算するための第4パラメータ計算サブモジュールと、
    第3スキルトピックベクトル分布パラメータ及び第4スキルトピックベクトル分布パラメータに応じて、第1スキルトピックベクトルを取得するための第1トピックベクトルサンプリングサブモジュールと、
    第1スキルトピックベクトルに対して特徴抽出を行い、第1トピック特徴ベクトルを取得するための第2完全接続ネットワークサブモジュールと、
    第1トピック特徴ベクトル及び第1活性化関数に応じて、ターゲットスキルトピック分布ベクトルを取得するための第1トピック分布特徴計算サブモジュールと、を含むことを特徴とする請求項6に記載の方法。
  8. 前記説明テキスト生成サブモデルは、
    前記オリジナル関連テキスト中の現在の文の意味表現ベクトルシーケンスを生成するためのエンコーダーモジュールと、
    前記ターゲットスキルトピック分布ベクトルに応じて、前記意味表現ベクトルシーケンスを加重変換するためのアテンションモジュールと、
    加重変換後の意味表現ベクトルシーケンスに応じて、前記現在の文のスキルトピックタグを予測し、前記スキルトピックタグに応じてターゲット募集ポジション説明テキストの現在の単語を予測するためのデコーダーモジュールと、を含むことを特徴とする請求項3に記載の方法。
  9. 前記エンコーダーモジュールは、
    前記オリジナル関連テキスト中の現在の文に含まれる各単語の単語ベクトルを生成するための単語ベクトル生成サブモジュールと、
    各前記単語ベクトルに応じて前記現在の文の意味表現ベクトルシーケンスを生成するための第1リカレントニューラルネットワークサブモジュールと、を含むことを特徴とする請求項8に記載の方法。
  10. 前記アテンションモジュールは第1アテンションサブモジュール及び第2アテンションサブモジュールを含み、前記デコーダーモジュールはトピック予測サブモジュール及びテキスト生成サブモジュールを含み、
    前記第1アテンションサブモジュールは、前記ターゲットスキルトピック分布ベクトル及び前記トピック予測サブモジュール中の隠れ層特徴状態ベクトルに応じて、前記意味表現ベクトルシーケンスを加重変換し、加重変換後の第1ベクトルシーケンスを取得することに用いられ、
    前記第2アテンションサブモジュールは、前記ターゲットスキルトピック分布ベクトル及び前記テキスト生成サブモジュール中の隠れ層特徴状態ベクトルに応じて、前記意味表現ベクトルシーケンスを加重変換し、加重変換後の第2ベクトルシーケンスを取得することに用いられ、
    前記トピック予測サブモジュールは、前記ターゲットスキルトピック分布ベクトル及び第1ベクトルシーケンスに応じて、前記現在の文のスキルトピックタグを予測することに用いられ、
    前記テキスト生成サブモジュールは、前記現在の文のスキルトピックタグ及び第2ベクトルシーケンスに応じて、ターゲット募集ポジション説明テキスト中の現在の単語を予測することに用いられることを特徴とする請求項8に記載の方法。
  11. 前記トピック予測サブモジュールは、
    前記テキスト生成サブモジュール中の前の文を予測するリカレントニューラルネットワークの隠れ層特徴状態ベクトル、前の文のスキルトピックタグに対応する埋め込み表現ベクトル、及び前記ターゲットスキルトピック分布ベクトルに応じて、第1シーケンス特徴ベクトルを取得するための第2リカレントニューラルネットワークサブモジュールと、
    第1シーケンス特徴ベクトル及び第1ベクトルシーケンスに応じて、前記現在の文のスキルトピックタグを予測するためのトピック生成サブモジュールと、を含むことを特徴とする請求項10に記載の方法。
  12. 前記テキスト生成サブモジュールは、
    第1シーケンス特徴ベクトル及び予測された前の単語の単語埋め込み表現ベクトルに応じて、第2シーケンス特徴ベクトルを取得するための第3リカレントニューラルネットワークサブモジュールと、
    第2ベクトルシーケンス及び第2シーケンス特徴ベクトルに応じて、事前生成単語確率ベクトルを取得するための中間処理サブモジュールと、
    第1スキルトピック単語分布パラメータに基づいて前記事前生成単語確率ベクトルを処理し、予測されたターゲット募集ポジション説明テキスト中の現在の単語を取得するためのコピーメカニズムサブモジュールと、を含むことを特徴とする請求項11に記載の方法。
  13. 前記ディープニューラルネットワークモデルの訓練プロセスは、
    第1サンプルポジションの第1サンプル関連テキスト及び第1サンプルポジションに対応する第1基準募集ポジション説明テキストを含む第1訓練サンプルデータを取得し、第1訓練サンプルデータを使用し、予め構築されたテキストトピック予測サブモデルを予備訓練し、予備訓練されたテキストトピック予測サブモデルを取得するステップと、
    第2サンプルポジションの第2サンプル関連テキスト及び第2サンプルポジションに対応する第2基準募集ポジション説明テキストを含む第2訓練サンプルデータを取得するステップと、
    第2訓練サンプルデータを使用して、予備訓練されたテキストトピック予測サブモデル及び予め構築された説明テキスト生成サブモデルを含むディープニューラルネットワークモデルを訓練し、訓練されたディープニューラルネットワークモデルを取得するステップと、を含むことを特徴とする請求項4に記載の方法。
  14. 前記テキストトピック予測サブモデルは、
    前記スキルトピックベクトル分布パラメータに応じて、オリジナルスキルトピック分布ベクトルを取得するための第2トピック分布決定モジュールと、
    第2スキルトピック単語分布パラメータ及びオリジナルスキルトピック分布ベクトルに応じて、再構築後のオリジナル関連テキストの予測単語の袋表現データを生成するための第1テキスト再構築サブモジュールと、
    第1スキルトピック単語分布パラメータ及びターゲットスキルトピック分布ベクトルに応じて、再構築後の基準募集ポジション説明テキストの予測単語の袋表現データを生成するための第2テキスト再構築サブモジュールと、をさらに含むことを特徴とする請求項13に記載の方法。
  15. 第1訓練サンプルデータを使用し、予め構築されたテキストトピック予測サブモデルを予備訓練し、予備訓練されたテキストトピック予測サブモデルを取得するステップは、
    第1サンプル関連テキストを、予め構築されたテキストトピック予測サブモデルに入力するステップと、
    第1ギャップ情報及び第2ギャップ情報に応じて、ニューラル変分方法を使用して第1損失関数値を計算するステップであって、第1ギャップ情報は第1テキスト再構築サブモジュールによって出力される第1予測単語の袋表現データと前記単語の袋特徴抽出モジュールによって出力される第1サンプル関連テキストの単語の袋表現データとの間のギャップ情報であり、第2ギャップ情報は第2テキスト再構築サブモジュールによって出力される第2予測単語の袋表現データと第1基準募集ポジション説明テキストの単語の袋表現データとの間のギャップ情報である、ステップと、
    計算された第1損失関数値に応じて、反復回数閾値に達する又は損失関数値が収束するまで、予め構築されたテキストトピック予測サブモデル中のネットワークパラメータを調整するステップと、を含むことを特徴とする請求項14に記載の方法。
  16. 第2訓練サンプルデータを使用して、予備訓練されたテキストトピック予測サブモデル及び予め構築された説明テキスト生成サブモデルを含むディープニューラルネットワークモデルを訓練し、訓練されたディープニューラルネットワークモデルを取得するステップは、
    第2サンプル関連テキストを、予備訓練されたテキストトピック予測サブモデル及び予め構築された説明テキスト生成サブモデルを含むディープニューラルネットワークモデルに入力するステップと、
    第3ギャップ情報及び第4ギャップ情報に応じて第2損失関数値を計算するステップであって、第3ギャップ情報は第1テキスト再構築サブモジュールによって出力される第1予測単語の袋表現データと単語の袋特徴抽出モジュールによって出力される第2サンプル関連テキストの単語の袋表現データとの間のギャップであり、第4ギャップ情報は第2テキスト再構築サブモジュールによって出力される第2予測単語の袋表現データと第2基準募集ポジション説明テキストの単語の袋表現データとの間のギャップ情報である、ステップと、
    第5ギャップ情報に応じて第3損失関数値を計算するステップであって、第5ギャップ情報は第2基準募集ポジション説明テキストと前記説明テキスト生成サブモデルによって出力されるテキストとの間のギャップ情報である、ステップと、
    計算された第2損失関数値及び第3損失関数値に応じて合計損失関数値を決定し、該合計損失関数値に応じて、反復回数閾値に達する又は合計損失関数値が収束するまで前記テキストトピック予測サブモデル及び前記説明テキスト生成サブモデル中のネットワークパラメータを調整するステップと、を含むことを特徴とする請求項14に記載の方法。
  17. ターゲットポジションのオリジナル関連テキストを取得するためのオリジナルテキスト取得モジュールと、
    前記オリジナル関連テキスト及び予め訓練されたディープニューラルネットワークモデルに基づいて、前記ターゲットポジションに対応するターゲット募集ポジション説明テキストを生成するための説明テキスト生成モジュールと、を含むことを特徴とする募集ポジション説明テキストの生成装置。
  18. 前記ディープニューラルネットワークモデルは、
    前記オリジナル関連テキストに応じて、ターゲットスキルトピック分布ベクトルを予測するためのテキストトピック予測サブモデルと、
    前記ターゲットスキルトピック分布ベクトルに応じて、前記ターゲットポジションのターゲット募集ポジション説明テキストを生成するための説明テキスト生成サブモデルと、を含むことを特徴とする請求項17に記載の装置。
  19. 少なくとも1つのプロセッサ、及び
    前記少なくとも1つのプロセッサに通信可能に接続されたメモリを含み、
    前記少なくとも1つのプロセッサにより実行されると、請求項1〜16のいずれか一項に記載の募集ポジション説明テキストの生成方法を前記少なくとも1つのプロセッサに実行させる、前記少なくとも1つのプロセッサによって実行可能な命令が前記メモリに記憶されていることを特徴とする電子デバイス。
  20. コンピュータ命令が記憶されている非一時的なコンピュータ可読記憶媒体であって、前記コンピュータ命令は請求項1〜16のいずれか一項に記載の募集ポジション説明テキストの生成方法を前記コンピュータに実行させることを特徴とする非一時的なコンピュータ可読記憶媒体。
  21. コンピュータプログラムであって、前記コンピュータプログラムは、プロセッサにより実行されると、請求項1〜16のいずれか一項に記載の募集ポジション説明テキストの生成方法を実現することを特徴とするコンピュータプログラム。
JP2021061313A 2020-05-08 2021-03-31 募集ポジション説明テキストの生成方法、装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム Ceased JP2021177375A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010381686.9 2020-05-08
CN202010381686.9A CN113627135B (zh) 2020-05-08 2020-05-08 一种招聘岗位描述文本的生成方法、装置、设备及介质

Publications (1)

Publication Number Publication Date
JP2021177375A true JP2021177375A (ja) 2021-11-11

Family

ID=75277915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021061313A Ceased JP2021177375A (ja) 2020-05-08 2021-03-31 募集ポジション説明テキストの生成方法、装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム

Country Status (5)

Country Link
US (1) US20210216726A1 (ja)
EP (1) EP3859588A3 (ja)
JP (1) JP2021177375A (ja)
KR (1) KR102540185B1 (ja)
CN (1) CN113627135B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7373091B1 (ja) * 2023-02-20 2023-11-01 株式会社ビズリーチ 情報処理システム、情報処理方法及びプログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220156635A1 (en) * 2020-11-19 2022-05-19 Sap Se Machine Learning Prediction For Recruiting Posting
US20230008868A1 (en) * 2021-07-08 2023-01-12 Nippon Telegraph And Telephone Corporation User authentication device, user authentication method, and user authentication computer program
CN114492393A (zh) * 2022-01-17 2022-05-13 北京百度网讯科技有限公司 文本主题的确定方法、装置及电子设备
CN114997829A (zh) * 2022-06-09 2022-09-02 北京联众鼎盛咨询有限公司 一种招聘服务系统及方法
CN115062220B (zh) * 2022-06-16 2023-06-23 成都集致生活科技有限公司 基于注意力合并的招工推荐系统
CN115630651B (zh) * 2022-10-24 2023-06-02 北京百度网讯科技有限公司 文本生成方法和文本生成模型的训练方法、装置
CN117689354B (zh) * 2024-02-04 2024-04-19 芯知科技(江苏)有限公司 基于云服务的招聘信息的智能处理方法及平台

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346171A (ja) * 2004-05-31 2005-12-15 Recruit Co Ltd 求人情報提供システム
CN107967592A (zh) * 2017-10-12 2018-04-27 如是科技(大连)有限公司 招聘启事的辅助处理方法及装置
CN109918483A (zh) * 2019-03-15 2019-06-21 智者四海(北京)技术有限公司 匹配招聘职位与求职简历的装置和方法
CN110032681A (zh) * 2019-04-17 2019-07-19 北京网聘咨询有限公司 基于简历内容的职位推荐方法
JP2020506466A (ja) * 2017-05-23 2020-02-27 グーグル エルエルシー アテンションベースのシーケンス変換ニューラルネットワーク

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8843433B2 (en) * 2011-03-29 2014-09-23 Manyworlds, Inc. Integrated search and adaptive discovery system and method
CN105940395B (zh) * 2014-01-31 2019-07-16 谷歌有限责任公司 生成文档的矢量表示
KR101842362B1 (ko) * 2016-09-01 2018-03-26 성균관대학교산학협력단 인공 신경망 기반의 문단 생성 방법 및 장치
US11113732B2 (en) * 2016-09-26 2021-09-07 Microsoft Technology Licensing, Llc Controlling use of negative features in a matching operation
US10909442B1 (en) * 2017-03-30 2021-02-02 Amazon Technologies, Inc. Neural network-based artificial intelligence system for content-based recommendations using multi-perspective learned descriptors
US10733380B2 (en) * 2017-05-15 2020-08-04 Thomson Reuters Enterprise Center Gmbh Neural paraphrase generator
CN107273503B (zh) * 2017-06-19 2020-07-10 北京百度网讯科技有限公司 用于生成同语言平行文本的方法和装置
US11048879B2 (en) * 2017-06-19 2021-06-29 Vettd, Inc. Systems and methods to determine and utilize semantic relatedness between multiple natural language sources to determine strengths and weaknesses
CA3015240A1 (en) * 2017-08-25 2019-02-25 Royal Bank Of Canada Service management control platform
CN111919230A (zh) * 2017-10-02 2020-11-10 刘伟 用于职位申请人简历排序的机器学习系统
CN108280061B (zh) * 2018-01-17 2021-10-26 北京百度网讯科技有限公司 基于歧义实体词的文本处理方法和装置
US10437936B2 (en) * 2018-02-01 2019-10-08 Jungle Disk, L.L.C. Generative text using a personality model
US20190287012A1 (en) * 2018-03-16 2019-09-19 Microsoft Technology Licensing, Llc Encoder-decoder network with intercommunicating encoder agents
US11042712B2 (en) * 2018-06-05 2021-06-22 Koninklijke Philips N.V. Simplifying and/or paraphrasing complex textual content by jointly learning semantic alignment and simplicity
US20200193382A1 (en) * 2018-12-17 2020-06-18 Robert P. Michaels Employment resource system, method and apparatus
US20200210491A1 (en) * 2018-12-31 2020-07-02 Charles University Faculty of Mathematics and Physics Computer-Implemented Method of Domain-Specific Full-Text Document Search
CN109886641A (zh) * 2019-01-24 2019-06-14 平安科技(深圳)有限公司 一种岗位画像设置方法、岗位画像设置装置及终端设备
CN110782072A (zh) * 2019-09-29 2020-02-11 广州荔支网络技术有限公司 员工离职风险预测方法、装置、设备及可读存储介质
US11373146B1 (en) * 2021-06-30 2022-06-28 Skyhive Technologies Inc. Job description generation based on machine learning

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346171A (ja) * 2004-05-31 2005-12-15 Recruit Co Ltd 求人情報提供システム
JP2020506466A (ja) * 2017-05-23 2020-02-27 グーグル エルエルシー アテンションベースのシーケンス変換ニューラルネットワーク
CN107967592A (zh) * 2017-10-12 2018-04-27 如是科技(大连)有限公司 招聘启事的辅助处理方法及装置
CN109918483A (zh) * 2019-03-15 2019-06-21 智者四海(北京)技术有限公司 匹配招聘职位与求职简历的装置和方法
CN110032681A (zh) * 2019-04-17 2019-07-19 北京网聘咨询有限公司 基于简历内容的职位推荐方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7373091B1 (ja) * 2023-02-20 2023-11-01 株式会社ビズリーチ 情報処理システム、情報処理方法及びプログラム

Also Published As

Publication number Publication date
KR102540185B1 (ko) 2023-06-07
CN113627135A (zh) 2021-11-09
US20210216726A1 (en) 2021-07-15
EP3859588A2 (en) 2021-08-04
KR20210047284A (ko) 2021-04-29
CN113627135B (zh) 2023-09-29
EP3859588A3 (en) 2021-10-20

Similar Documents

Publication Publication Date Title
JP2021177375A (ja) 募集ポジション説明テキストの生成方法、装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム
KR102653312B1 (ko) 이벤트 아규먼트 추출 방법, 장치 및 전자 기기
JP7283009B2 (ja) 対話理解モデルの訓練方法、装置、デバイス及び記憶媒体
JP7250052B2 (ja) 自然言語及び知識グラフに基づく表現学習方法及び装置
JP7292321B2 (ja) イベント引数抽出方法、イベント引数抽出装置、電子デバイス、記憶媒体及びコンピュータプログラム製品
JP7113097B2 (ja) テキストエンティティの語義記述処理方法、装置及び機器
CN113220836B (zh) 序列标注模型的训练方法、装置、电子设备和存储介质
KR102464248B1 (ko) Spo의 추출 방법, 장치, 전자기기 및 저장 매체
EP3937060A1 (en) Method and apparatus for training semantic representation model, device and computer storage medium
EP4113357A1 (en) Method and apparatus for recognizing entity, electronic device and storage medium
KR102630243B1 (ko) 구두점 예측 방법 및 장치
KR20210122204A (ko) 대화 감정 스타일의 예측 방법, 장치, 전자 기기, 저장 매체 및 컴퓨터 프로그램 제품
JP7262505B2 (ja) 人材需要予測方法、人材需要予測装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム
EP4012581A1 (en) Method and apparatus for establishing regional heat prediction model and predicting regional heat
CN111611808B (zh) 用于生成自然语言模型的方法和装置
CN112507103A (zh) 任务型对话及模型训练方法、装置、设备和存储介质
JP2022095895A (ja) 交通データ予測方法、交通データ予測装置、電子機器、記憶媒体、コンピュータプログラム製品及びコンピュータプログラム
JP2022028889A (ja) 対話生成方法、装置、電子機器及び記憶媒体
CN112270169B (zh) 对白角色预测方法、装置、电子设备及存储介质
CN112269884B (zh) 信息抽取方法、装置、设备及存储介质
US11861335B1 (en) Learn to extract from syntax tree
CN111311000B (zh) 用户消费行为预测模型训练方法、装置、设备及存储介质
CN111475614B (zh) 知识推理对话方法、装置、电子设备和存储介质
CN114490968B (zh) 对话状态跟踪方法、模型训练方法、装置以及电子设备
KR102677454B1 (ko) 이벤트 아규먼트 추출 방법, 장치, 및 전자 기기

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230215

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20230829