JP2021177375A - 募集ポジション説明テキストの生成方法、装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム - Google Patents
募集ポジション説明テキストの生成方法、装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2021177375A JP2021177375A JP2021061313A JP2021061313A JP2021177375A JP 2021177375 A JP2021177375 A JP 2021177375A JP 2021061313 A JP2021061313 A JP 2021061313A JP 2021061313 A JP2021061313 A JP 2021061313A JP 2021177375 A JP2021177375 A JP 2021177375A
- Authority
- JP
- Japan
- Prior art keywords
- text
- topic
- vector
- word
- submodule
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 238000004590 computer program Methods 0.000 title claims abstract description 11
- 238000003062 neural network model Methods 0.000 claims abstract description 58
- 238000013528 artificial neural network Methods 0.000 claims abstract description 17
- 230000008569 process Effects 0.000 claims abstract description 9
- 239000013598 vector Substances 0.000 claims description 192
- 230000007115 recruitment Effects 0.000 claims description 111
- 230000006870 function Effects 0.000 claims description 46
- 238000012549 training Methods 0.000 claims description 38
- 238000004364 calculation method Methods 0.000 claims description 29
- 230000015654 memory Effects 0.000 claims description 20
- 238000000605 extraction Methods 0.000 claims description 19
- 230000000306 recurrent effect Effects 0.000 claims description 12
- 239000013604 expression vector Substances 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 230000001537 neural effect Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 14
- 239000000284 extract Substances 0.000 description 9
- 230000009286 beneficial effect Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 241000699666 Mus <mouse, genus> Species 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000004800 variational method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0631—Resource planning, allocation, distributing or scheduling for enterprises or organisations
- G06Q10/06311—Scheduling, planning or task assignment for a person or group
- G06Q10/063112—Skill-based matching of a person or a group to a task
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
- G06Q10/105—Human resources
- G06Q10/1053—Employment or hiring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Entrepreneurship & Innovation (AREA)
- Strategic Management (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Economics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Operations Research (AREA)
- Marketing (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Development Economics (AREA)
- Game Theory and Decision Science (AREA)
- Machine Translation (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
オリジナル関連テキストに応じて、ターゲットスキルトピック分布ベクトルを予測するためのテキストトピック予測サブモデル210と、
ターゲットスキルトピック分布ベクトルに応じて、ターゲットポジションのターゲット募集ポジション説明テキストを生成するための説明テキスト生成サブモデル220と、を含んでもよい。
テキストトピック予測サブモデル310及び説明テキスト生成サブモデル320を含んでもよい。
テキストトピック予測サブモデル410及び説明テキスト生成サブモデル420を含んでもよい。
ターゲットポジションのオリジナル関連テキストを取得するためのオリジナルテキスト取得モジュール801と、
オリジナル関連テキスト及び予め訓練されたディープニューラルネットワークモデルに基づいて、ターゲットポジションに対応するターゲット募集ポジション説明テキストを生成するための説明テキスト生成モジュール802と、を含んでもよい。
オリジナル関連テキストに応じて、ターゲットスキルトピック分布ベクトルを予測するためのテキストトピック予測サブモデルと、
ターゲットスキルトピック分布ベクトルに応じて、ターゲットポジションのターゲット募集ポジション説明テキストを生成するための説明テキスト生成サブモデルと、を含む。
オリジナル関連テキストの単語の袋特徴ベクトルを抽出するための単語の袋特徴抽出モジュールと、
単語の袋特徴ベクトル及び非線形ネットワーク層に応じて、スキルトピックベクトル分布パラメータを計算するための分布パラメータ計算モジュールと、
スキルトピックベクトル分布パラメータ及び所定トピック分布仮定パラメータに応じて、ターゲットスキルトピック分布ベクトルを取得するための第1トピック分布決定モジュールと、を含む。
オリジナル関連テキストの単語の袋表現データを生成するための単語の袋生成サブモジュールと、
単語の袋表現データに対して特徴抽出を行い、単語の袋特徴ベクトルを取得するための第1完全接続ネットワークサブモジュールと、を含む。
単語の袋特徴ベクトル及び第1非線形ネットワーク層に応じて、第1スキルトピックベクトル分布サブパラメータを計算するための第1パラメータ計算サブモジュールと、
単語の袋特徴ベクトル及び第2非線形ネットワーク層に応じて、第2スキルトピックベクトル分布サブパラメータを計算するための第2パラメータ計算サブモジュールと、を含む。
第1スキルトピックベクトル分布サブパラメータ及び第1所定トピック分布仮定サブパラメータに応じて、第3スキルトピックベクトル分布パラメータを計算するための第3パラメータ計算サブモジュールと、
第2スキルトピックベクトル分布サブパラメータ及び第2所定トピック分布仮定サブパラメータに応じて、第4スキルトピックベクトル分布パラメータを計算するための第4パラメータ計算サブモジュールと、
第3スキルトピックベクトル分布パラメータ及び第4スキルトピックベクトル分布パラメータに応じて、第1スキルトピックベクトルを取得するための第1トピックベクトルサンプリングサブモジュールと、
第1スキルトピックベクトルに対して特徴抽出を行い、第1トピック特徴ベクトルを取得するための第2完全接続ネットワークサブモジュールと、
第1トピック特徴ベクトル及び第1活性化関数に応じて、ターゲットスキルトピック分布ベクトルを取得するための第1トピック分布特徴計算サブモジュールと、を含む。
オリジナル関連テキスト中の現在の文の意味表現ベクトルシーケンスを生成するためのエンコーダーモジュールと、
ターゲットスキルトピック分布ベクトルに応じて、意味表現ベクトルシーケンスを加重変換するアテンションモジュールと、
加重変換後の意味表現ベクトルシーケンスに応じて、現在の文のスキルトピックタグを予測し、スキルトピックタグに応じてターゲット募集ポジション説明テキストの現在の単語を予測するためのデコーダーモジュールと、を含む。
オリジナル関連テキスト中の現在の文に含まれる各単語の単語ベクトルを生成するための単語ベクトル生成サブモジュールと、
各単語ベクトルに応じて前記現在の文の意味表現ベクトルシーケンスを生成する第1リカレントニューラルネットワークサブモジュールと、を含む。
第1アテンションサブモジュールは、ターゲットスキルトピック分布ベクトル及びトピック予測サブモジュール中の隠れ層特徴状態ベクトルに応じて、意味表現ベクトルシーケンスを加重変換し、加重変換後の第1ベクトルシーケンスを取得することに用いられ、
第2アテンションサブモジュールは、ターゲットスキルトピック分布ベクトル及びテキスト生成サブモジュール中の隠れ層特徴状態ベクトルに応じて、意味表現ベクトルシーケンスを加重変換し、加重変換後の第2ベクトルシーケンスを取得することに用いられ、
トピック予測サブモジュールは、ターゲットスキルトピック分布ベクトル及び第1ベクトルシーケンスに応じて、現在の文のスキルトピックタグを予測することに用いられ、
テキスト生成サブモジュールは、現在の文のスキルトピックタグ及び第2ベクトルシーケンスに応じて、ターゲット募集ポジション説明テキスト中の現在の単語を予測することに用いられる。
テキスト生成サブモジュール中の前の文を予測するリカレントニューラルネットワークの隠れ層特徴状態ベクトル、前の文のスキルトピックタグに対応する埋め込み表現ベクトル、及びターゲットスキルトピック分布ベクトルに応じて、第1シーケンス特徴ベクトルを取得するための第2リカレントニューラルネットワークサブモジュールと、
第1シーケンス特徴ベクトル及び第1ベクトルシーケンスに応じて、現在の文のスキルトピックタグを予測するためのトピック生成サブモジュールと、を含む。
第1シーケンス特徴ベクトル及び予測された前の単語の単語埋め込み表現ベクトルに応じて、第2シーケンス特徴ベクトルを取得するための第3リカレントニューラルネットワークサブモジュールと、
第2ベクトルシーケンス及び第2シーケンス特徴ベクトルに応じて、事前生成単語確率ベクトルを取得するための中間処理サブモジュールと、
第1スキルトピック単語分布パラメータに基づいて事前生成単語確率ベクトルを処理し、予測されたターゲット募集ポジション説明テキスト中の現在の単語を取得するためのコピーメカニズムサブモジュールと、を含む。
第1サンプルポジションの第1サンプル関連テキスト及び第1サンプルポジションに対応する第1基準募集ポジション説明テキストを含む第1訓練サンプルデータを取得し、第1訓練サンプルデータを使用し、予め構築されたテキストトピック予測サブモデルを予備訓練し、予備訓練されたテキストトピック予測サブモデルを取得するステップと、
第2サンプルポジションの第2サンプル関連テキスト及び第2サンプルポジションに対応する第2基準募集ポジション説明テキストを含む第2訓練サンプルデータを取得するステップと、
第2訓練サンプルデータを使用して、予備訓練されたテキストトピック予測サブモデル及び予め構築された説明テキスト生成サブモデルを含むディープニューラルネットワークモデルを訓練し、訓練されたディープニューラルネットワークモデルを取得するステップと、を含む。
スキルトピックベクトル分布パラメータに応じて、オリジナルスキルトピック分布ベクトルを取得するための第2トピック分布決定モジュールと、
第2スキルトピック単語分布パラメータ及びオリジナルスキルトピック分布ベクトルに応じて、再構築後のオリジナル関連テキストの予測単語の袋表現データを生成するための第1テキスト再構築サブモジュールと、
第1スキルトピック単語分布パラメータ及びターゲットスキルトピック分布ベクトルに応じて、再構築後の基準募集ポジション説明テキストの予測単語の袋表現データを生成するための第2テキスト再構築サブモジュールと、をさらに含む。
第1サンプル関連テキストを、予め構築されたテキストトピック予測サブモデルに入力するステップと、
第1ギャップ情報及び第2ギャップ情報に応じて、ニューラル変分方法を使用して第1損失関数値を計算するステップであって、第1ギャップ情報は第1テキスト再構築サブモジュールによって出力される第1予測単語の袋表現データと単語の袋特徴抽出モジュールによって出力される第1サンプル関連テキストの単語の袋表現データとの間のギャップ情報であり、第2ギャップ情報は第2テキスト再構築サブモジュールによって出力される第2予測単語の袋表現データと第1基準募集ポジション説明テキストの単語の袋表現データとの間のギャップ情報であるステップと、
計算された第1損失関数値に応じて、反復回数閾値に達する又は損失関数値が収束するまで、予め構築されたテキストトピック予測サブモデル中のネットワークパラメータを調整するステップと、を含む。
第2サンプル関連テキストを、予備訓練されたテキストトピック予測サブモデル及び予め構築された説明テキスト生成サブモデルを含むディープニューラルネットワークモデルに入力するステップと、
第3ギャップ情報及び第4ギャップ情報に応じて第2損失関数値を計算するステップであって、第3ギャップ情報は第1テキスト再構築サブモジュールによって出力される第1予測単語の袋表現データと単語の袋特徴抽出モジュールによって出力される第2サンプル関連テキストの単語の袋表現データとの間のギャップであり、第4ギャップ情報は第2テキスト再構築サブモジュールによって出力される第2予測単語の袋表現データと第2基準募集ポジション説明テキストの単語の袋表現データとの間のギャップ情報であるステップと、
第5ギャップ情報に応じて第3損失関数値を計算するステップであって、第5ギャップ情報は第2基準募集ポジション説明テキストと前記説明テキスト生成サブモデルによって出力されるテキストとの間のギャップ情報であるステップと、
計算された第2損失関数値及び第3損失関数値に応じて合計損失関数値を決定し、該合計損失関数値に応じて、反復回数閾値に達する又は合計損失関数値が収束するまで前記テキストトピック予測サブモデル及び前記説明テキスト生成サブモデル中のネットワークパラメータを調整するステップと、を含む。
Claims (21)
- ターゲットポジションのオリジナル関連テキストを取得するステップと、
前記オリジナル関連テキスト及び予め訓練されたディープニューラルネットワークモデルに基づいて、前記ターゲットポジションに対応するターゲット募集ポジション説明テキストを生成するステップと、を含むことを特徴とする募集ポジション説明テキストの生成方法。 - 前記オリジナル関連テキストは、ポジション要件を満たすと決定された者の履歴書テキスト、ポジション責任データを含むテキスト、及びポジションに関するプロジェクトデータを含むテキストのうちの少なくとも1つを含むことを特徴とする請求項1に記載の方法。
- 前記ディープニューラルネットワークモデルは、
前記オリジナル関連テキストに応じて、ターゲットスキルトピック分布ベクトルを予測するためのテキストトピック予測サブモデルと、
前記ターゲットスキルトピック分布ベクトルに応じて、前記ターゲットポジションのターゲット募集ポジション説明テキストを生成するための説明テキスト生成サブモデルと、を含むことを特徴とする請求項1又は2に記載の方法。 - 前記テキストトピック予測サブモデルは、
前記オリジナル関連テキストの単語の袋特徴ベクトルを抽出するための単語の袋特徴抽出モジュールと、
前記単語の袋特徴ベクトル及び非線形ネットワーク層に応じて、スキルトピックベクトル分布パラメータを計算するための分布パラメータ計算モジュールと、
前記スキルトピックベクトル分布パラメータ及び所定トピック分布仮定パラメータに応じて、ターゲットスキルトピック分布ベクトルを取得するための第1トピック分布決定モジュールと、を含むことを特徴とする請求項3に記載の方法。 - 前記単語の袋特徴抽出モジュールは、
前記オリジナル関連テキストの単語の袋表現データを生成するための単語の袋生成サブモジュールと、
前記単語の袋表現データに対して特徴抽出を行い、単語の袋特徴ベクトルを取得するための第1完全接続ネットワークサブモジュールと、を含むことを特徴とする請求項4に記載の方法。 - 前記分布パラメータ計算モジュールは、
前記単語の袋特徴ベクトル及び第1非線形ネットワーク層に応じて、第1スキルトピックベクトル分布サブパラメータを計算するための第1パラメータ計算サブモジュールと、
前記単語の袋特徴ベクトル及び第2非線形ネットワーク層に応じて、第2スキルトピックベクトル分布サブパラメータを計算するための第2パラメータ計算サブモジュールと、を含むことを特徴とする請求項4に記載の方法。 - 前記第1トピック分布決定モジュールは、
第1スキルトピックベクトル分布サブパラメータ及び第1所定トピック分布仮定サブパラメータに応じて、第3スキルトピックベクトル分布パラメータを計算するための第3パラメータ計算サブモジュールと、
第2スキルトピックベクトル分布サブパラメータ及び第2所定トピック分布仮定サブパラメータに応じて、第4スキルトピックベクトル分布パラメータを計算するための第4パラメータ計算サブモジュールと、
第3スキルトピックベクトル分布パラメータ及び第4スキルトピックベクトル分布パラメータに応じて、第1スキルトピックベクトルを取得するための第1トピックベクトルサンプリングサブモジュールと、
第1スキルトピックベクトルに対して特徴抽出を行い、第1トピック特徴ベクトルを取得するための第2完全接続ネットワークサブモジュールと、
第1トピック特徴ベクトル及び第1活性化関数に応じて、ターゲットスキルトピック分布ベクトルを取得するための第1トピック分布特徴計算サブモジュールと、を含むことを特徴とする請求項6に記載の方法。 - 前記説明テキスト生成サブモデルは、
前記オリジナル関連テキスト中の現在の文の意味表現ベクトルシーケンスを生成するためのエンコーダーモジュールと、
前記ターゲットスキルトピック分布ベクトルに応じて、前記意味表現ベクトルシーケンスを加重変換するためのアテンションモジュールと、
加重変換後の意味表現ベクトルシーケンスに応じて、前記現在の文のスキルトピックタグを予測し、前記スキルトピックタグに応じてターゲット募集ポジション説明テキストの現在の単語を予測するためのデコーダーモジュールと、を含むことを特徴とする請求項3に記載の方法。 - 前記エンコーダーモジュールは、
前記オリジナル関連テキスト中の現在の文に含まれる各単語の単語ベクトルを生成するための単語ベクトル生成サブモジュールと、
各前記単語ベクトルに応じて前記現在の文の意味表現ベクトルシーケンスを生成するための第1リカレントニューラルネットワークサブモジュールと、を含むことを特徴とする請求項8に記載の方法。 - 前記アテンションモジュールは第1アテンションサブモジュール及び第2アテンションサブモジュールを含み、前記デコーダーモジュールはトピック予測サブモジュール及びテキスト生成サブモジュールを含み、
前記第1アテンションサブモジュールは、前記ターゲットスキルトピック分布ベクトル及び前記トピック予測サブモジュール中の隠れ層特徴状態ベクトルに応じて、前記意味表現ベクトルシーケンスを加重変換し、加重変換後の第1ベクトルシーケンスを取得することに用いられ、
前記第2アテンションサブモジュールは、前記ターゲットスキルトピック分布ベクトル及び前記テキスト生成サブモジュール中の隠れ層特徴状態ベクトルに応じて、前記意味表現ベクトルシーケンスを加重変換し、加重変換後の第2ベクトルシーケンスを取得することに用いられ、
前記トピック予測サブモジュールは、前記ターゲットスキルトピック分布ベクトル及び第1ベクトルシーケンスに応じて、前記現在の文のスキルトピックタグを予測することに用いられ、
前記テキスト生成サブモジュールは、前記現在の文のスキルトピックタグ及び第2ベクトルシーケンスに応じて、ターゲット募集ポジション説明テキスト中の現在の単語を予測することに用いられることを特徴とする請求項8に記載の方法。 - 前記トピック予測サブモジュールは、
前記テキスト生成サブモジュール中の前の文を予測するリカレントニューラルネットワークの隠れ層特徴状態ベクトル、前の文のスキルトピックタグに対応する埋め込み表現ベクトル、及び前記ターゲットスキルトピック分布ベクトルに応じて、第1シーケンス特徴ベクトルを取得するための第2リカレントニューラルネットワークサブモジュールと、
第1シーケンス特徴ベクトル及び第1ベクトルシーケンスに応じて、前記現在の文のスキルトピックタグを予測するためのトピック生成サブモジュールと、を含むことを特徴とする請求項10に記載の方法。 - 前記テキスト生成サブモジュールは、
第1シーケンス特徴ベクトル及び予測された前の単語の単語埋め込み表現ベクトルに応じて、第2シーケンス特徴ベクトルを取得するための第3リカレントニューラルネットワークサブモジュールと、
第2ベクトルシーケンス及び第2シーケンス特徴ベクトルに応じて、事前生成単語確率ベクトルを取得するための中間処理サブモジュールと、
第1スキルトピック単語分布パラメータに基づいて前記事前生成単語確率ベクトルを処理し、予測されたターゲット募集ポジション説明テキスト中の現在の単語を取得するためのコピーメカニズムサブモジュールと、を含むことを特徴とする請求項11に記載の方法。 - 前記ディープニューラルネットワークモデルの訓練プロセスは、
第1サンプルポジションの第1サンプル関連テキスト及び第1サンプルポジションに対応する第1基準募集ポジション説明テキストを含む第1訓練サンプルデータを取得し、第1訓練サンプルデータを使用し、予め構築されたテキストトピック予測サブモデルを予備訓練し、予備訓練されたテキストトピック予測サブモデルを取得するステップと、
第2サンプルポジションの第2サンプル関連テキスト及び第2サンプルポジションに対応する第2基準募集ポジション説明テキストを含む第2訓練サンプルデータを取得するステップと、
第2訓練サンプルデータを使用して、予備訓練されたテキストトピック予測サブモデル及び予め構築された説明テキスト生成サブモデルを含むディープニューラルネットワークモデルを訓練し、訓練されたディープニューラルネットワークモデルを取得するステップと、を含むことを特徴とする請求項4に記載の方法。 - 前記テキストトピック予測サブモデルは、
前記スキルトピックベクトル分布パラメータに応じて、オリジナルスキルトピック分布ベクトルを取得するための第2トピック分布決定モジュールと、
第2スキルトピック単語分布パラメータ及びオリジナルスキルトピック分布ベクトルに応じて、再構築後のオリジナル関連テキストの予測単語の袋表現データを生成するための第1テキスト再構築サブモジュールと、
第1スキルトピック単語分布パラメータ及びターゲットスキルトピック分布ベクトルに応じて、再構築後の基準募集ポジション説明テキストの予測単語の袋表現データを生成するための第2テキスト再構築サブモジュールと、をさらに含むことを特徴とする請求項13に記載の方法。 - 第1訓練サンプルデータを使用し、予め構築されたテキストトピック予測サブモデルを予備訓練し、予備訓練されたテキストトピック予測サブモデルを取得するステップは、
第1サンプル関連テキストを、予め構築されたテキストトピック予測サブモデルに入力するステップと、
第1ギャップ情報及び第2ギャップ情報に応じて、ニューラル変分方法を使用して第1損失関数値を計算するステップであって、第1ギャップ情報は第1テキスト再構築サブモジュールによって出力される第1予測単語の袋表現データと前記単語の袋特徴抽出モジュールによって出力される第1サンプル関連テキストの単語の袋表現データとの間のギャップ情報であり、第2ギャップ情報は第2テキスト再構築サブモジュールによって出力される第2予測単語の袋表現データと第1基準募集ポジション説明テキストの単語の袋表現データとの間のギャップ情報である、ステップと、
計算された第1損失関数値に応じて、反復回数閾値に達する又は損失関数値が収束するまで、予め構築されたテキストトピック予測サブモデル中のネットワークパラメータを調整するステップと、を含むことを特徴とする請求項14に記載の方法。 - 第2訓練サンプルデータを使用して、予備訓練されたテキストトピック予測サブモデル及び予め構築された説明テキスト生成サブモデルを含むディープニューラルネットワークモデルを訓練し、訓練されたディープニューラルネットワークモデルを取得するステップは、
第2サンプル関連テキストを、予備訓練されたテキストトピック予測サブモデル及び予め構築された説明テキスト生成サブモデルを含むディープニューラルネットワークモデルに入力するステップと、
第3ギャップ情報及び第4ギャップ情報に応じて第2損失関数値を計算するステップであって、第3ギャップ情報は第1テキスト再構築サブモジュールによって出力される第1予測単語の袋表現データと単語の袋特徴抽出モジュールによって出力される第2サンプル関連テキストの単語の袋表現データとの間のギャップであり、第4ギャップ情報は第2テキスト再構築サブモジュールによって出力される第2予測単語の袋表現データと第2基準募集ポジション説明テキストの単語の袋表現データとの間のギャップ情報である、ステップと、
第5ギャップ情報に応じて第3損失関数値を計算するステップであって、第5ギャップ情報は第2基準募集ポジション説明テキストと前記説明テキスト生成サブモデルによって出力されるテキストとの間のギャップ情報である、ステップと、
計算された第2損失関数値及び第3損失関数値に応じて合計損失関数値を決定し、該合計損失関数値に応じて、反復回数閾値に達する又は合計損失関数値が収束するまで前記テキストトピック予測サブモデル及び前記説明テキスト生成サブモデル中のネットワークパラメータを調整するステップと、を含むことを特徴とする請求項14に記載の方法。 - ターゲットポジションのオリジナル関連テキストを取得するためのオリジナルテキスト取得モジュールと、
前記オリジナル関連テキスト及び予め訓練されたディープニューラルネットワークモデルに基づいて、前記ターゲットポジションに対応するターゲット募集ポジション説明テキストを生成するための説明テキスト生成モジュールと、を含むことを特徴とする募集ポジション説明テキストの生成装置。 - 前記ディープニューラルネットワークモデルは、
前記オリジナル関連テキストに応じて、ターゲットスキルトピック分布ベクトルを予測するためのテキストトピック予測サブモデルと、
前記ターゲットスキルトピック分布ベクトルに応じて、前記ターゲットポジションのターゲット募集ポジション説明テキストを生成するための説明テキスト生成サブモデルと、を含むことを特徴とする請求項17に記載の装置。 - 少なくとも1つのプロセッサ、及び
前記少なくとも1つのプロセッサに通信可能に接続されたメモリを含み、
前記少なくとも1つのプロセッサにより実行されると、請求項1〜16のいずれか一項に記載の募集ポジション説明テキストの生成方法を前記少なくとも1つのプロセッサに実行させる、前記少なくとも1つのプロセッサによって実行可能な命令が前記メモリに記憶されていることを特徴とする電子デバイス。 - コンピュータ命令が記憶されている非一時的なコンピュータ可読記憶媒体であって、前記コンピュータ命令は請求項1〜16のいずれか一項に記載の募集ポジション説明テキストの生成方法を前記コンピュータに実行させることを特徴とする非一時的なコンピュータ可読記憶媒体。
- コンピュータプログラムであって、前記コンピュータプログラムは、プロセッサにより実行されると、請求項1〜16のいずれか一項に記載の募集ポジション説明テキストの生成方法を実現することを特徴とするコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010381686.9A CN113627135B (zh) | 2020-05-08 | 2020-05-08 | 一种招聘岗位描述文本的生成方法、装置、设备及介质 |
CN202010381686.9 | 2020-05-08 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021177375A true JP2021177375A (ja) | 2021-11-11 |
Family
ID=75277915
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021061313A Ceased JP2021177375A (ja) | 2020-05-08 | 2021-03-31 | 募集ポジション説明テキストの生成方法、装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US12086556B2 (ja) |
EP (1) | EP3859588A3 (ja) |
JP (1) | JP2021177375A (ja) |
KR (1) | KR102540185B1 (ja) |
CN (1) | CN113627135B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7373091B1 (ja) * | 2023-02-20 | 2023-11-01 | 株式会社ビズリーチ | 情報処理システム、情報処理方法及びプログラム |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220156635A1 (en) * | 2020-11-19 | 2022-05-19 | Sap Se | Machine Learning Prediction For Recruiting Posting |
US20230008868A1 (en) * | 2021-07-08 | 2023-01-12 | Nippon Telegraph And Telephone Corporation | User authentication device, user authentication method, and user authentication computer program |
CN114492393A (zh) * | 2022-01-17 | 2022-05-13 | 北京百度网讯科技有限公司 | 文本主题的确定方法、装置及电子设备 |
CN114997829A (zh) * | 2022-06-09 | 2022-09-02 | 北京联众鼎盛咨询有限公司 | 一种招聘服务系统及方法 |
CN115062220B (zh) * | 2022-06-16 | 2023-06-23 | 成都集致生活科技有限公司 | 基于注意力合并的招工推荐系统 |
CN115630651B (zh) * | 2022-10-24 | 2023-06-02 | 北京百度网讯科技有限公司 | 文本生成方法和文本生成模型的训练方法、装置 |
CN118246414A (zh) * | 2024-01-30 | 2024-06-25 | 北京网聘信息技术有限公司 | 一种自动发布职位的方法和系统 |
CN117689354B (zh) * | 2024-02-04 | 2024-04-19 | 芯知科技(江苏)有限公司 | 基于云服务的招聘信息的智能处理方法及平台 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005346171A (ja) * | 2004-05-31 | 2005-12-15 | Recruit Co Ltd | 求人情報提供システム |
CN107967592A (zh) * | 2017-10-12 | 2018-04-27 | 如是科技(大连)有限公司 | 招聘启事的辅助处理方法及装置 |
CN109918483A (zh) * | 2019-03-15 | 2019-06-21 | 智者四海(北京)技术有限公司 | 匹配招聘职位与求职简历的装置和方法 |
CN110032681A (zh) * | 2019-04-17 | 2019-07-19 | 北京网聘咨询有限公司 | 基于简历内容的职位推荐方法 |
JP2020506466A (ja) * | 2017-05-23 | 2020-02-27 | グーグル エルエルシー | アテンションベースのシーケンス変換ニューラルネットワーク |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8843433B2 (en) | 2011-03-29 | 2014-09-23 | Manyworlds, Inc. | Integrated search and adaptive discovery system and method |
CN105940395B (zh) | 2014-01-31 | 2019-07-16 | 谷歌有限责任公司 | 生成文档的矢量表示 |
KR101842362B1 (ko) | 2016-09-01 | 2018-03-26 | 성균관대학교산학협력단 | 인공 신경망 기반의 문단 생성 방법 및 장치 |
US11113732B2 (en) * | 2016-09-26 | 2021-09-07 | Microsoft Technology Licensing, Llc | Controlling use of negative features in a matching operation |
US10909442B1 (en) * | 2017-03-30 | 2021-02-02 | Amazon Technologies, Inc. | Neural network-based artificial intelligence system for content-based recommendations using multi-perspective learned descriptors |
US10733380B2 (en) * | 2017-05-15 | 2020-08-04 | Thomson Reuters Enterprise Center Gmbh | Neural paraphrase generator |
WO2018236761A1 (en) * | 2017-06-19 | 2018-12-27 | Vettd, Inc. | SYSTEMS AND METHODS FOR DETERMINING AND USING SEMANTIC CONNECTION BETWEEN MULTIPLE SOURCES IN NATURAL LANGUAGE TO DETERMINE FORCES AND WEAKNESSES |
CN107273503B (zh) | 2017-06-19 | 2020-07-10 | 北京百度网讯科技有限公司 | 用于生成同语言平行文本的方法和装置 |
US10839162B2 (en) * | 2017-08-25 | 2020-11-17 | Royal Bank Of Canada | Service management control platform |
CN111919230A (zh) * | 2017-10-02 | 2020-11-10 | 刘伟 | 用于职位申请人简历排序的机器学习系统 |
CN108280061B (zh) * | 2018-01-17 | 2021-10-26 | 北京百度网讯科技有限公司 | 基于歧义实体词的文本处理方法和装置 |
US10437936B2 (en) | 2018-02-01 | 2019-10-08 | Jungle Disk, L.L.C. | Generative text using a personality model |
US20190287012A1 (en) * | 2018-03-16 | 2019-09-19 | Microsoft Technology Licensing, Llc | Encoder-decoder network with intercommunicating encoder agents |
US11042712B2 (en) | 2018-06-05 | 2021-06-22 | Koninklijke Philips N.V. | Simplifying and/or paraphrasing complex textual content by jointly learning semantic alignment and simplicity |
US20200193382A1 (en) * | 2018-12-17 | 2020-06-18 | Robert P. Michaels | Employment resource system, method and apparatus |
US20200210491A1 (en) * | 2018-12-31 | 2020-07-02 | Charles University Faculty of Mathematics and Physics | Computer-Implemented Method of Domain-Specific Full-Text Document Search |
CN109886641A (zh) * | 2019-01-24 | 2019-06-14 | 平安科技(深圳)有限公司 | 一种岗位画像设置方法、岗位画像设置装置及终端设备 |
CN110782072A (zh) * | 2019-09-29 | 2020-02-11 | 广州荔支网络技术有限公司 | 员工离职风险预测方法、装置、设备及可读存储介质 |
US11373146B1 (en) * | 2021-06-30 | 2022-06-28 | Skyhive Technologies Inc. | Job description generation based on machine learning |
-
2020
- 2020-05-08 CN CN202010381686.9A patent/CN113627135B/zh active Active
-
2021
- 2021-03-26 US US17/214,080 patent/US12086556B2/en active Active
- 2021-03-29 EP EP21165688.9A patent/EP3859588A3/en active Pending
- 2021-03-29 KR KR1020210040448A patent/KR102540185B1/ko active IP Right Grant
- 2021-03-31 JP JP2021061313A patent/JP2021177375A/ja not_active Ceased
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005346171A (ja) * | 2004-05-31 | 2005-12-15 | Recruit Co Ltd | 求人情報提供システム |
JP2020506466A (ja) * | 2017-05-23 | 2020-02-27 | グーグル エルエルシー | アテンションベースのシーケンス変換ニューラルネットワーク |
CN107967592A (zh) * | 2017-10-12 | 2018-04-27 | 如是科技(大连)有限公司 | 招聘启事的辅助处理方法及装置 |
CN109918483A (zh) * | 2019-03-15 | 2019-06-21 | 智者四海(北京)技术有限公司 | 匹配招聘职位与求职简历的装置和方法 |
CN110032681A (zh) * | 2019-04-17 | 2019-07-19 | 北京网聘咨询有限公司 | 基于简历内容的职位推荐方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7373091B1 (ja) * | 2023-02-20 | 2023-11-01 | 株式会社ビズリーチ | 情報処理システム、情報処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US12086556B2 (en) | 2024-09-10 |
US20210216726A1 (en) | 2021-07-15 |
KR102540185B1 (ko) | 2023-06-07 |
KR20210047284A (ko) | 2021-04-29 |
CN113627135A (zh) | 2021-11-09 |
EP3859588A2 (en) | 2021-08-04 |
CN113627135B (zh) | 2023-09-29 |
EP3859588A3 (en) | 2021-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021177375A (ja) | 募集ポジション説明テキストの生成方法、装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム | |
KR102653312B1 (ko) | 이벤트 아규먼트 추출 방법, 장치 및 전자 기기 | |
KR102694765B1 (ko) | 이벤트 추출 방법, 장치, 전자 기기 및 저장 매체 | |
JP7292321B2 (ja) | イベント引数抽出方法、イベント引数抽出装置、電子デバイス、記憶媒体及びコンピュータプログラム製品 | |
JP7113097B2 (ja) | テキストエンティティの語義記述処理方法、装置及び機器 | |
CN113220836B (zh) | 序列标注模型的训练方法、装置、电子设备和存储介质 | |
KR102464248B1 (ko) | Spo의 추출 방법, 장치, 전자기기 및 저장 매체 | |
JP2022097396A (ja) | 対話理解モデルの訓練方法、装置、デバイス及び記憶媒体 | |
EP3937060A1 (en) | Method and apparatus for training semantic representation model, device and computer storage medium | |
EP4113357A1 (en) | Method and apparatus for recognizing entity, electronic device and storage medium | |
KR102630243B1 (ko) | 구두점 예측 방법 및 장치 | |
KR20210122204A (ko) | 대화 감정 스타일의 예측 방법, 장치, 전자 기기, 저장 매체 및 컴퓨터 프로그램 제품 | |
EP4012581A1 (en) | Method and apparatus for establishing regional heat prediction model and predicting regional heat | |
JP7262505B2 (ja) | 人材需要予測方法、人材需要予測装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム | |
CN112507103A (zh) | 任务型对话及模型训练方法、装置、设备和存储介质 | |
CN111611808A (zh) | 用于生成自然语言模型的方法和装置 | |
JP2022095895A (ja) | 交通データ予測方法、交通データ予測装置、電子機器、記憶媒体、コンピュータプログラム製品及びコンピュータプログラム | |
JP2022028889A (ja) | 対話生成方法、装置、電子機器及び記憶媒体 | |
CN112270169B (zh) | 对白角色预测方法、装置、电子设备及存储介质 | |
CN113902005A (zh) | 语言模型的预训练方法、装置、设备和存储介质 | |
CN111311000B (zh) | 用户消费行为预测模型训练方法、装置、设备及存储介质 | |
JP7264963B2 (ja) | 対話生成方法、装置、電子機器及び記憶媒体 | |
CN111475614B (zh) | 知识推理对话方法、装置、电子设备和存储介质 | |
CN114490968B (zh) | 对话状态跟踪方法、模型训练方法、装置以及电子设备 | |
CN111324747A (zh) | 三元组的生成方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210716 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220927 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230215 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230411 |
|
A045 | Written measure of dismissal of application [lapsed due to lack of payment] |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20230829 |