JP2020113218A - Information processing device, display method, and program - Google Patents

Information processing device, display method, and program Download PDF

Info

Publication number
JP2020113218A
JP2020113218A JP2019005598A JP2019005598A JP2020113218A JP 2020113218 A JP2020113218 A JP 2020113218A JP 2019005598 A JP2019005598 A JP 2019005598A JP 2019005598 A JP2019005598 A JP 2019005598A JP 2020113218 A JP2020113218 A JP 2020113218A
Authority
JP
Japan
Prior art keywords
data
evaluation
contribution
word
atypical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019005598A
Other languages
Japanese (ja)
Other versions
JP6733920B2 (en
Inventor
琳太郎 宮本
Rintaro Miyamoto
琳太郎 宮本
太一郎 遠藤
Taichiro Endo
太一郎 遠藤
太助 土屋
Tasuke Tsuchiya
太助 土屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2019005598A priority Critical patent/JP6733920B2/en
Publication of JP2020113218A publication Critical patent/JP2020113218A/en
Application granted granted Critical
Publication of JP6733920B2 publication Critical patent/JP6733920B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To provide an information processing device, a display method and a program for presenting information that enables what particulars affect the evaluation of a person to be grasped.SOLUTION: An information processing device (evaluation device 20) comprises: a learning model storage unit 220 for storing at least nonstandard data in text format and standard data in other than text format pertaining to a person; an evaluation information storage unit 232 for storing evaluation on a person; a learning processing unit 211 for creating a first prediction model by machine learning in which word data relating to a word included in the nonstandard data is input data and evaluation is teaching data, and creating a second prediction model by machine learning in which a calculated value calculated by applying the nonstandard data to the first prediction model and the standard data are input data; and a contribution degree output unit (important word output unit 213) for extracting the degree of contribution to evaluation per nonstandard data and standard data from the second prediction model and outputting the extracted degree of contribution.SELECTED DRAWING: Figure 4

Description

本発明は、情報処理装置、表示方法およびプログラムに関する。 The present invention relates to an information processing device, a display method and a program.

採用や従業員管理、健康経営などにおいて人物を評価することが行われている。特許文献1には、評価のファクタ(熱意、リーダーシップ等)に類似するエントリーシート内の単語に基づいて人物像を評価することが開示されている。 People are evaluated in recruitment, employee management, and health management. Patent Document 1 discloses that a person image is evaluated based on words in an entry sheet that are similar to evaluation factors (enthusiasm, leadership, etc.).

特開2018−116710号公報JP, 2018-116710, A

しかしながら、特許文献1に記載の技術では、採用希望者の評価は、予め定められたファクタに関係する単語が記載されたかどうかに応じて決められることになるところ、実際そのファクタが採用に影響しているとは限らない。 However, in the technique described in Patent Document 1, the evaluation of the applicant for employment is to be determined depending on whether or not a word related to a predetermined factor is described, and the factor actually affects the adoption. Not necessarily.

本発明はこのような背景を鑑みてなされたものであり、どのような事項が人物の評価に影響しているのかを把握することのできる技術を提供することを目的とする。 The present invention has been made in view of such a background, and an object of the present invention is to provide a technique capable of grasping what kind of item influences a person's evaluation.

上記課題を解決するための本発明の主たる発明は、情報処理装置であって、人物に係る少なくともテキスト形式の非定型データとテキスト形式以外の定型データとを記憶する学習データ記憶部と、前記人物に対する評価を記憶する評価情報記憶部と、前記非定型データに含まれる単語に関する単語データを入力データとし前記評価を教師データとした機械学習により第1の予測モデルを作成し、前記第1の予測モデルに前記非定型データを与えて算出される計算値および前記定型データを入力データとした機械学習により第2の予測モデルを作成する学習処理部と、前記第2の予測モデルから前記非定型データおよび前記定型データごとの前記評価への寄与度を抽出し、抽出した前記寄与度を出力する寄与度出力部と、を備えることとする。 A main invention of the present invention for solving the above-mentioned problems is an information processing apparatus, and a learning data storage unit that stores at least non-standard data in text format and standard data other than text format related to a person, and the person. A first prediction model by machine learning using word data relating to words included in the atypical data as input data and machine learning using the evaluation as teacher data, and the first prediction. A learning processing unit that creates a second prediction model by machine learning using a calculation value calculated by giving the atypical data to a model and the atypical data as input data; and the atypical data from the second prediction model. And a contribution degree output unit that extracts the contribution degree to the evaluation for each of the standard data and outputs the extracted contribution degree.

その他本願が開示する課題やその解決方法については、発明の実施形態の欄及び図面により明らかにされる。 Other problems disclosed by the present application and a method for solving the problems will be clarified by the section of the embodiments of the invention and the drawings.

本発明によれば、どのような事項が人物の評価に影響しているのかを把握することができる。 According to the present invention, it is possible to understand what kind of matter affects the evaluation of a person.

本発明の一実施形態である評価システムの全体構成例を示す図である。It is a figure showing an example of whole composition of an evaluation system which is one embodiment of the present invention. 評価装置20による学習処理の一例についての流れを説明する図である。It is a figure explaining the flow about the example of the learning process by the evaluation device 20. 評価装置20による学習処理の一例についての流れを説明する図である。It is a figure explaining the flow about the example of the learning process by the evaluation device 20. 評価装置20のソフトウェア構成例を示す図である。3 is a diagram showing a software configuration example of the evaluation device 20. FIG. 応募データ記憶部231に記憶される応募データの構成例を示す図である。It is a figure which shows the structural example of the application data memorize|stored in the application data storage part 231. 評価情報記憶部232に記憶される評価情報の構成例を示す図である。FIG. 6 is a diagram showing a configuration example of evaluation information stored in an evaluation information storage unit 232. CNN221に係る学習処理の流れを示す図である。It is a figure which shows the flow of the learning process which concerns on CNN221. 重要単語の出力例を示す図である。It is a figure which shows the output example of an important word. 機械学習モデル222に係る学習処理の流れを示す図である。It is a figure which shows the flow of the learning process which concerns on the machine learning model 222. 各項目の寄与度の出力例を示す図である。It is a figure which shows the example of an output of the contribution degree of each item. 評価対象者の採用可能性についての予測処理の流れを示す図である。It is a figure which shows the flow of the prediction process about the employability of an evaluation object person. 各項目および各単語の寄与度を記憶する寄与度記憶部233を備える評価装置20のソフトウェア構成例を示す図である。It is a figure which shows the software structural example of the evaluation apparatus 20 provided with the contribution storage part 233 which memorize|stores the contribution of each item and each word. 寄与度記憶部233の構成例を示す図である。It is a figure which shows the structural example of the contribution storage part 233. 社員の退職の可能性を学習する場合に応募データの代わりに用いる調査データの構成例を示す図である。It is a figure which shows the structural example of the survey data used instead of application data when learning the possibility of employee's retirement. 社員の退職の可能性を学習する場合における評価情報の構成例を示す図である。It is a figure which shows the structural example of the evaluation information in the case of learning the possibility of employee's retirement.

本発明の実施形態の内容を列記して説明する。本発明の実施の形態による装置は、以下のような構成を備える。 The contents of the embodiments of the present invention will be listed and described. The device according to the embodiment of the present invention has the following configuration.

[項目1]
人物に係る少なくともテキスト形式の非定型データとテキスト形式以外の定型データとを記憶する学習データ記憶部と、
前記人物に対する評価を記憶する評価情報記憶部と、
前記非定型データに含まれる単語に関する単語データを入力データとし前記評価を教師データとした機械学習により第1の予測モデルを作成し、前記第1の予測モデルに前記非定型データを与えた予測結果および前記定型データを入力データとした機械学習により第2の予測モデルを作成する学習処理部と、
前記第2の予測モデルから前記非定型データおよび前記定型データごとの前記評価への寄与度を抽出し、抽出した前記寄与度を出力する寄与度出力部と、
を備えることを特徴とする情報処理装置。
[項目2]
項目1に記載の情報処理装置であって、
前記第1の予測モデルから前記評価に対する前記単語ごとの寄与度を抽出し、抽出した前記単語ごとの寄与度を出力する単語寄与度出力部をさらに備えること、
を特徴とする情報処理装置。
[項目3]
項目1に記載の情報処理装置であって、
前記学習処理部は、畳み込みニューラルネットワークを用いて少なくとも前記第1の予測モデルを作成すること、
を特徴とする情報処理装置。
[項目4]
項目3に記載の情報処理装置であって、
前記畳み込みニューラルネットワークに対するクラスアクティベーションマッピングにより、前記第1の予測モデルから前記評価に対する前記単語ごとの寄与度を抽出し、抽出した前記単語ごとの寄与度を出力する単語寄与度出力部をさらに備えること、
を特徴とする情報処理装置。
[項目5]
項目1ないし4のいずれか1項に記載の情報処理装置であって、
評価対象者が作成した前記非定型データおよび前記定型データを取得する評価データ取得部と、
前記非定型データ、前記定型データならびに前記第1および第2の予測モデルに基づいて前記評価対象者の前記評価を予測する評価予測部と、
予測した前記評価を出力する評価出力部と、
をさらに備えることを特徴とする情報処理装置。
[項目6]
人物に係る少なくともテキスト形式の非定型データとテキスト形式以外の定型データとを記憶する学習データ記憶部と、
前記非定型データおよび前記定型データに基づいて前記人物に対する評価を予測するための予測モデルを記憶する予測モデル記憶部と、
前記予測モデルから前記非定型データおよび前記定型データごとの寄与度を抽出し、抽出した前記寄与度を出力する寄与度出力部と、
を備えることを特徴とする情報処理装置。
[項目7]
項目6に記載の情報処理装置であって、
前記非定型データに含まれる単語について、前記予測モデルから前記評価に対する前記単語ごとの寄与度を抽出し、抽出した前記単語ごとの寄与度を出力する単語寄与度出力部をさらに備えること、
を特徴とする情報処理装置。
[項目8]
項目7に記載の情報処理装置であって、
前記単語寄与度出力部は、前記評価を上げるように寄与する前記単語と、前記評価を下げるように寄与する前記単語とを分類して出力すること、
を特徴とする情報処理装置。
[項目9]
コンピュータが、
人物に係る少なくともテキスト形式の非定型データとテキスト形式以外の定型データとを記憶するステップと、
前記人物に対する評価を記憶するステップと、
前記非定型データに含まれる単語に関する単語データを入力データとし前記評価を教師データとした機械学習により第1の予測モデルを作成するステップと、
前記第1の予測モデルに前記非定型データを与えて算出される計算値および前記定型データを入力データとし前記評価を教師データとした機械学習により第2の予測モデルを作成するステップと、
前記第2の予測モデルから前記非定型データおよび前記定型データごとの前記評価への寄与度を抽出するステップと、
抽出した前記寄与度を表示するステップと、
を実行する表示方法。
[項目10]
項目9に記載の表示方法であって、
前記コンピュータがさらに、
前記第1の予測モデルから前記評価に対する前記単語ごとの寄与度を抽出し、抽出した前記単語ごとの寄与度を表示するステップ
を実行することを特徴とする表示方法。
[項目11]
項目9に記載の表示方法であって、
前記コンピュータは、畳み込みニューラルネットワークを用いて少なくとも前記第1の予測モデルを作成すること、
を特徴とする表示方法。
[項目12]
請求項11に記載の表示方法であって、
前記コンピュータがさらに、
前記畳み込みニューラルネットワークに対するクラスアクティベーションマッピングにより、前記第1の予測モデルから前記評価に対する前記単語ごとの寄与度を抽出し、抽出した前記単語ごとの寄与度を表示するステップ
を実行することを特徴とする情報処理装置。
[項目13]
項目9ないし12のいずれか1項に記載の表示方法であって、
前記コンピュータがさらに、
評価対象者が作成した前記非定型データおよび前記定型データを取得するステップと、
前記非定型データ、前記定型データならびに前記第1および第2の予測モデルに基づいて前記評価対象者の前記評価を予測するステップと、
予測した前記評価を表示するステップと、
を実行することを特徴とする表示方法。
[項目14]
コンピュータが、
人物に係る少なくともテキスト形式の非定型データとテキスト形式以外の定型データとを記憶するステップと、
前記非定型データおよび前記定型データに基づいて前記人物に対する評価を予測するための予測モデルを記憶するステップと、
前記予測モデルから前記非定型データおよび前記定型データごとの寄与度を抽出し、抽出した前記寄与度を表示するステップと、
を実行することを特徴とする表示方法。
[項目15]
項目14に記載の表示方法であって、
前記コンピュータがさらに、
前記非定型データに含まれる単語について、前記予測モデルから前記評価に対する前記単語ごとの寄与度を抽出し、抽出した前記単語ごとの寄与度を出力するステップ
を実行することを特徴とする表示方法。
[項目16]
項目15に記載の表示方法であって、
前記コンピュータは、前記評価を上げるように寄与する前記単語と、前記評価を下げるように寄与する前記単語とを分類して出力すること、
を特徴とする表示方法。
[項目17]
コンピュータに、
人物に係る少なくともテキスト形式の非定型データとテキスト形式以外の定型データとを記憶するステップと、
前記人物に対する評価を記憶するステップと、
前記非定型データに含まれる単語に関する単語データを入力データとし前記評価を教師データとした機械学習により第1の予測モデルを作成するステップと、
前記第1の予測モデルに前記非定型データを与えて算出される計算値および前記定型データを入力データとし前記評価を教師データとした機械学習により第2の予測モデルを作成するステップと、
前記第2の予測モデルから前記非定型データおよび前記定型データごとの前記評価への寄与度を抽出するステップと、
抽出した前記寄与度を表示するステップと、
を実行させるためのプログラム。
[項目18]
項目17に記載のプログラムであって、
前記コンピュータにさらに、
前記第1の予測モデルから前記評価に対する前記単語ごとの寄与度を抽出し、抽出した前記単語ごとの寄与度を表示するステップ
を実行させるためのプログラム。
[項目19]
項目17に記載のプログラムであって、
前記コンピュータに、畳み込みニューラルネットワークを用いて少なくとも前記第1の予測モデルを作成させること、
を特徴とするプログラム。
[項目20]
項目19に記載のプログラムであって、
前記コンピュータにさらに、
前記畳み込みニューラルネットワークに対するクラスアクティベーションマッピングにより、前記第1の予測モデルから前記評価に対する前記単語ごとの寄与度を抽出し、抽出した前記単語ごとの寄与度を表示するステップ
を実行させるためのプログラム。
[項目21]
項目18ないし20のいずれか1項に記載のプログラムであって、
前記コンピュータにさらに、
評価対象者が作成した前記非定型データおよび前記定型データを取得するステップと、
前記非定型データ、前記定型データならびに前記第1および第2の予測モデルに基づいて前記評価対象者の前記評価を予測するステップと、
予測した前記評価を表示するステップと、
を実行させるためのプログラム。
[項目22]
コンピュータに、
人物に係る少なくともテキスト形式の非定型データとテキスト形式以外の定型データとを記憶するステップと、
前記非定型データおよび前記定型データに基づいて前記人物に対する評価を予測するための予測モデルを記憶するステップと、
前記予測モデルから前記非定型データおよび前記定型データごとの寄与度を抽出し、抽出した前記寄与度を表示するステップと、
を実行させるためのプログラム。
[項目23]
項目22に記載のプログラムであって、
前記コンピュータにさらに、
前記非定型データに含まれる単語について、前記予測モデルから前記評価に対する前記単語ごとの寄与度を抽出し、抽出した前記単語ごとの寄与度を出力するステップ
を実行させるためのプログラム。
[項目24]
項目23に記載のプログラムであって、
前記コンピュータに、前記評価を上げるように寄与する前記単語と、前記評価を下げるように寄与する前記単語とを分類して出力させること、
を特徴とするプログラム。
[項目25]
テキスト形式の非定型データで構成される、複数の単語を含む項目の、人物に対する評価への寄与度を出力する表示方法であって、
複数の項目の各項目について人物に対する評価への寄与度を表示し、
前記各項目に含まれる一または複数の単語の各々について、前記評価への寄与度を表示する、表示方法。
[項目26]
項目25に記載の表示方法であって、
前記複数の項目のうち一の項目に対するユーザから選択要求を受付けて、
前記一の項目に含まれる一または複数の単語の各々について、前記評価への寄与度を表示する、表示方法。
[項目27]
項目25に記載の表示方法であって、
前記一の項目に含まれる複数の単語の各々について表示される寄与度は、前記複数の項目の各項目について表示される寄与度の内訳であることを特徴とする、表示方法。
[項目28]
項目25に記載の表示方法であって、
前記一の項目に含まれる単語のうち、所定の前記寄与度を有する単語を表示することを特徴とする、表示方法。
[項目29]
項目25に記載の表示方法であって、
前記テキスト以外の定型データで構成される項目について人物に対する評価への寄与度を、前記複数の項目の各項目について人物に対する評価への寄与度とともに表示することを特徴とする、表示方法。
[Item 1]
A learning data storage unit that stores at least non-standard data in text format and standard data in non-text format related to a person,
An evaluation information storage unit that stores the evaluation of the person,
A prediction result in which a first prediction model is created by machine learning using word data relating to words included in the atypical data as input data and the evaluation as teacher data, and the atypical data is given to the first prediction model. And a learning processing unit that creates a second prediction model by machine learning using the standard data as input data,
A contribution degree output unit that extracts a contribution degree to the evaluation for each of the atypical data and the boilerplate data from the second prediction model, and outputs the extracted contribution degree;
An information processing apparatus comprising:
[Item 2]
The information processing apparatus according to item 1,
Further comprising a word contribution output unit that extracts the contribution of each word to the evaluation from the first prediction model and outputs the extracted contribution of each word.
An information processing device characterized by:
[Item 3]
The information processing apparatus according to item 1,
The learning processing unit creates at least the first prediction model using a convolutional neural network;
An information processing device characterized by:
[Item 4]
The information processing apparatus according to item 3,
The method further comprises a word contribution output unit that extracts the contribution of each word to the evaluation from the first prediction model by class activation mapping for the convolutional neural network and outputs the extracted contribution of each word. thing,
An information processing device characterized by:
[Item 5]
The information processing apparatus according to any one of Items 1 to 4,
An evaluation data acquisition unit that acquires the atypical data and the atypical data created by an evaluation subject,
An evaluation prediction unit that predicts the evaluation of the evaluation target person based on the atypical data, the fixed data, and the first and second prediction models,
An evaluation output unit that outputs the predicted evaluation,
An information processing apparatus, further comprising:
[Item 6]
A learning data storage unit that stores at least non-standard data in text format and standard data in non-text format related to a person,
A prediction model storage unit that stores a prediction model for predicting an evaluation for the person based on the atypical data and the atypical data,
A contribution degree output unit that extracts the contribution degree for each of the atypical data and the fixed form data from the prediction model, and outputs the extracted contribution degree,
An information processing apparatus comprising:
[Item 7]
The information processing apparatus according to item 6,
For a word included in the atypical data, further comprising a word contribution output unit that extracts the contribution of each word to the evaluation from the prediction model, and outputs the extracted contribution of each word,
An information processing device characterized by:
[Item 8]
The information processing apparatus according to item 7,
The word contribution output unit classifies and outputs the word that contributes to increase the evaluation and the word that contributes to decrease the evaluation,
An information processing device characterized by:
[Item 9]
Computer
A step of storing at least text-type atypical data relating to a person and non-text-type atypical data;
Storing a rating for the person,
Creating a first prediction model by machine learning using word data relating to words included in the atypical data as input data and the evaluation as teacher data;
Creating a second predictive model by machine learning using the calculated value obtained by giving the atypical data to the first predictive model and the standard data as input data, and using the evaluation as teacher data,
Extracting the contribution to the evaluation for each of the atypical data and the atypical data from the second prediction model,
Displaying the extracted contribution,
How to display.
[Item 10]
The display method according to item 9,
The computer is further
A method of extracting the contribution of each word to the evaluation from the first prediction model, and displaying the extracted contribution of each word.
[Item 11]
The display method according to item 9,
The computer creates at least the first predictive model using a convolutional neural network;
Display method characterized by.
[Item 12]
The display method according to claim 11,
The computer is further
A step of extracting the contribution degree of each word to the evaluation from the first prediction model by class activation mapping for the convolutional neural network, and displaying the extracted contribution degree of each word. Information processing device.
[Item 13]
The display method according to any one of Items 9 to 12,
The computer is further
Acquiring the atypical data and the atypical data created by an evaluation subject,
Predicting the evaluation of the evaluation subject based on the atypical data, the typical data, and the first and second prediction models;
Displaying the predicted assessment,
Display method characterized by executing.
[Item 14]
Computer
A step of storing at least text-type atypical data relating to a person and non-text-type atypical data;
Storing a prediction model for predicting an evaluation for the person based on the atypical data and the atypical data;
Extracting the contribution of each of the atypical data and the boilerplate data from the prediction model, and displaying the extracted contribution.
Display method characterized by executing.
[Item 15]
The display method according to item 14,
The computer is further
A display method comprising: performing a step of extracting a contribution degree of each word to the evaluation from the prediction model for a word included in the atypical data and outputting the extracted contribution degree of each word.
[Item 16]
The display method according to item 15,
The computer classifies and outputs the word that contributes to increase the evaluation and the word that contributes to decrease the evaluation,
Display method characterized by.
[Item 17]
On the computer,
A step of storing at least text-type atypical data relating to a person and non-text-type atypical data;
Storing a rating for the person,
Creating a first prediction model by machine learning using word data relating to words included in the atypical data as input data and the evaluation as teacher data;
Creating a second predictive model by machine learning using the calculated value obtained by giving the atypical data to the first predictive model and the standard data as input data, and using the evaluation as teacher data,
Extracting the contribution to the evaluation for each of the atypical data and the atypical data from the second prediction model,
Displaying the extracted contribution,
A program to execute.
[Item 18]
The program according to item 17,
Further on the computer,
A program for executing a step of extracting a contribution degree of each word to the evaluation from the first prediction model and displaying the extracted contribution degree of each word.
[Item 19]
The program according to item 17,
Causing the computer to create at least the first predictive model using a convolutional neural network;
A program characterized by.
[Item 20]
The program according to item 19,
Further on the computer,
A program for executing a step of extracting the contribution degree of each word to the evaluation from the first prediction model by class activation mapping for the convolutional neural network, and displaying the extracted contribution degree of each word.
[Item 21]
The program according to any one of items 18 to 20,
Further on the computer,
Acquiring the atypical data and the atypical data created by an evaluation subject,
Predicting the evaluation of the evaluation subject based on the atypical data, the typical data, and the first and second prediction models;
Displaying the predicted assessment,
A program to execute.
[Item 22]
On the computer,
A step of storing at least text-type atypical data relating to a person and non-text-type atypical data;
Storing a prediction model for predicting an evaluation for the person based on the atypical data and the atypical data;
Extracting the contribution of each of the atypical data and the boilerplate data from the prediction model, and displaying the extracted contribution.
A program to execute.
[Item 23]
The program according to item 22,
Further on the computer,
A program for executing a step of extracting a contribution degree of each word to the evaluation from the prediction model for a word included in the atypical data and outputting the extracted contribution degree of each word.
[Item 24]
The program according to item 23,
Causing the computer to classify and output the words that contribute to increase the evaluation and the words that contribute to decrease the evaluation,
A program characterized by.
[Item 25]
A display method for outputting the degree of contribution to an evaluation of a person of an item including a plurality of words, which is composed of non-standard data in a text format,
Display the contribution to evaluation for a person for each item of multiple items,
A display method of displaying, for each of one or more words included in each item, the degree of contribution to the evaluation.
[Item 26]
The display method according to item 25,
Accepting a selection request from the user for one of the plurality of items,
A display method of displaying, for each of one or more words included in the one item, the degree of contribution to the evaluation.
[Item 27]
The display method according to item 25,
The display method, wherein the contribution degree displayed for each of the plurality of words included in the one item is a breakdown of the contribution degree displayed for each item of the plurality of items.
[Item 28]
The display method according to item 25,
Among the words included in the one item, a word having a predetermined contribution is displayed.
[Item 29]
The display method according to item 25,
A method of displaying, wherein the degree of contribution to an evaluation of a person is displayed together with the degree of contribution to an evaluation of a person for each item of the plurality of items, the item being composed of fixed-form data other than the text.

以下、本発明の一実施形態に係る評価装置20(情報処理装置)を含む評価支援システムについて説明する。図1は、本実施形態の評価支援システムの全体構成例を示す図である。同図に示すように、評価装置20はユーザ端末10と通信ネットワーク30を介して通信可能に接続されている。通信ネットワーク30は、たとえば、公衆電話回線網や携帯電話回線網、専用線網、イーサネット(登録商標)、無線通信路などにより構築される。本実施形態では、通信ネットワーク30は、インターネットを想定するが、通信ネットワーク30としてたとえばLAN(Local Area Network)や各種のWAN(Wide Area Network)を採用することもできる。 Hereinafter, an evaluation support system including the evaluation device 20 (information processing device) according to the embodiment of the present invention will be described. FIG. 1 is a diagram showing an example of the overall configuration of the evaluation support system of this embodiment. As shown in the figure, the evaluation device 20 is communicatively connected to the user terminal 10 via the communication network 30. The communication network 30 is constructed by, for example, a public telephone line network, a mobile telephone line network, a dedicated line network, Ethernet (registered trademark), a wireless communication path, or the like. In the present embodiment, the communication network 30 is assumed to be the Internet, but a LAN (Local Area Network) or various WANs (Wide Area Networks) can also be adopted as the communication network 30.

ユーザ端末10は、評価装置20が提供する人物評価サービスを利用するユーザが操作するコンピュータである。ユーザ端末10は、たとえば、パーソナルコンピュータやスマートフォン、タブレットコンピュータなどである。図1に示すように、ユーザ端末10は、CPU101、メモリ102、記憶装置103、通信インタフェース104、入力装置105、出力装置106を備える。記憶装置103は、各種のデータやプログラムを記憶する、例えばハードディスクドライブやソリッドステートドライブ、フラッシュメモリなどである。通信インタフェース104は、通信ネットワーク30に接続するためのインタフェースであり、例えばイーサネット(登録商標)に接続するためのアダプタ、公衆電話回線網に接続するためのモデム、無線通信を行うための無線通信機、シリアル通信のためのUSB(Universal Serial Bus)コネクタやRS232Cコネクタなどである。入力装置105は、データを入力する、例えばキーボードやマウス、タッチパネル、ボタン、マイクロフォンなどである。出力装置106は、データを出力する、例えばディスプレイやプリンタ、スピーカなどである。ユーザ端末10は、たとえば、Webブラウザを実行し、HTTP(HyperText Transfer Protocol)などにより評価装置20にアクセスして人物評価サービスを利用することができる。 The user terminal 10 is a computer operated by a user who uses the person evaluation service provided by the evaluation device 20. The user terminal 10 is, for example, a personal computer, a smartphone, a tablet computer, or the like. As shown in FIG. 1, the user terminal 10 includes a CPU 101, a memory 102, a storage device 103, a communication interface 104, an input device 105, and an output device 106. The storage device 103 is, for example, a hard disk drive, a solid state drive, a flash memory, or the like that stores various data and programs. The communication interface 104 is an interface for connecting to the communication network 30. For example, an adapter for connecting to Ethernet (registered trademark), a modem for connecting to a public telephone line network, and a wireless communication device for performing wireless communication. , A USB (Universal Serial Bus) connector for serial communication, an RS232C connector, and the like. The input device 105 is, for example, a keyboard, a mouse, a touch panel, a button, a microphone or the like for inputting data. The output device 106 is, for example, a display, a printer, a speaker, or the like that outputs data. The user terminal 10 can execute a Web browser and access the evaluation device 20 by HTTP (HyperText Transfer Protocol) or the like to use the person evaluation service.

評価装置20は人物評価サービスを提供するコンピュータである。評価装置20は、たとえば、パーソナルコンピュータやワークステーション、スマートフォン、タブレットコンピュータのように物理的なコンピュータであってもよいし、クラウドコンピューティングにより提供される仮想的なコンピュータであってもよい。図1に示すように、評価装置20は、CPU201、メモリ202、記憶装置203、通信インタフェース204、入力装置205、出力装置206を備える。記憶装置203は、各種のデータやプログラムを記憶する、例えばハードディスクドライブやソリッドステートドライブ、フラッシュメモリなどである。通信インタフェース204は、通信ネットワーク30に接続するためのインタフェースであり、例えばイーサネット(登録商標)に接続するためのアダプタ、公衆電話回線網に接続するためのモデム、無線通信を行うための無線通信機、シリアル通信のためのUSB(Universal Serial Bus)コネクタやRS232Cコネクタなどである。入力装置205は、データを入力する、例えばキーボードやマウス、タッチパネル、ボタン、マイクロフォンなどである。出力装置206は、データを出力する、例えばディスプレイやプリンタ、スピーカなどである。 The evaluation device 20 is a computer that provides a person evaluation service. The evaluation device 20 may be a physical computer such as a personal computer, a workstation, a smartphone, or a tablet computer, or a virtual computer provided by cloud computing. As shown in FIG. 1, the evaluation device 20 includes a CPU 201, a memory 202, a storage device 203, a communication interface 204, an input device 205, and an output device 206. The storage device 203 is, for example, a hard disk drive, a solid state drive, a flash memory, or the like that stores various data and programs. The communication interface 204 is an interface for connecting to the communication network 30. For example, an adapter for connecting to Ethernet (registered trademark), a modem for connecting to a public telephone line network, and a wireless communication device for performing wireless communication. , A USB (Universal Serial Bus) connector for serial communication, an RS232C connector, and the like. The input device 205 is, for example, a keyboard, a mouse, a touch panel, a button, a microphone or the like for inputting data. The output device 206 is, for example, a display, a printer, a speaker, or the like that outputs data.

評価装置20は、人物の評価を行う。本実施形態では具体例として、新卒採用希望者の採用適否判定を行うものとする。本実施形態の評価装置20は、SPIテストの結果などの数値情報(定型データ)のみでなく、エントリーシートなどのテキストデータ(非定型データ)をも入力データとし、実際の採否を教師データとして機械学習を行うことにより予測モデルを作成し、この予測モデルを用いて採用希望者の採否判定を行おうとするものである。本実施形態では、機械学習には畳み込みニューラルネットワーク(Convolutional Neural Networks;CNN)および勾配ブーストツリーアルゴリズムを用いるものとするが、これらに限定するものではない。 The evaluation device 20 evaluates a person. In the present embodiment, as a specific example, it is assumed that the hiring suitability of a new graduate hiring candidate is determined. The evaluation device 20 of the present embodiment uses not only numerical information (standard data) such as the result of the SPI test but also text data (non-standard data) such as an entry sheet as input data, and the actual acceptance/rejection as teacher data. It is intended to create a prediction model by learning and use this prediction model to determine whether or not a person who wants to be adopted will be adopted or rejected. In this embodiment, convolutional neural networks (CNN) and gradient boost tree algorithms are used for machine learning, but the invention is not limited to these.

図2および図3は、評価装置20による学習処理の一例についての流れを説明する図である。 2 and 3 are diagrams illustrating the flow of an example of the learning process performed by the evaluation device 20.

まず、評価装置20は、採用希望者が作成したエントリーシートなどのテキストデータを形態素解析等の処理により単語に分割し、分割した単語をベクトル化する。単語のベクトル化には、Word2Vecなどの既知の手法を用いることができる。評価装置20は、ベクトル化したテキストデータを、図2に示すように、CNNにより学習する。なお、教師データとしては、採用したか(合格)、しなかったか(不合格)の2値を与え、合格の可能性を予測することができる。また、合否ではない評価を予測する場合には、数値またはカテゴリ値の評価値を教師データとして与えて学習することも可能である。 First, the evaluation device 20 divides text data such as an entry sheet created by an applicant for employment into words by processing such as morphological analysis, and vectorizes the divided words. A known method such as Word2Vec can be used for vectorization of words. The evaluation device 20 learns vectorized text data by CNN as shown in FIG. It should be noted that, as the teacher data, a binary value indicating whether it has been adopted (passed) or not (failed) can be given to predict the possibility of passing. When predicting an evaluation that is not pass or fail, it is also possible to give an evaluation value of a numerical value or a category value as teacher data for learning.

次に評価装置20は、クラスアクティベーションマッピング(Class Activation Map;CAM)の手法を用いて、CNNによる畳み込み処理で着目された単語、すなわち合格判定に重要であると判断された単語(以下、重要単語という。)を抽出する。CAMは、一般的には画像認識処理において、画像上で着目された箇所のヒートマップを得るために用いられるところ、ベクトル化したテキストデータについて適用することにより、CNNでの学習処理において重要と判断された単語を特定することが可能となる。本実施形態の評価装置20は、この重要単語をユーザに提供することにより、どのような単語を用いたテキストデータが採用希望者の評価(たとえば、合格や採用)に寄与しているのかの知見を得ることができる。なお、評価装置20は、CAM以外の手法により重要と判断された単語を抽出するようにしてもよい。たとえば、再帰型ニューラルネットワーク(Recurrent Neural Networks;RNN)を用いる場合に、RNNのアテンションの重みに応じて単語を抽出してもよいし、各単語(ベクトル)を説明変数とした重回帰式を推計した場合には、各単語の係数(重み)に応じて重要な単語を抽出するようにしてもよい。 Next, the evaluation device 20 uses a method of class activation map (CAM) to focus on the word focused on in the convolution processing by CNN, that is, the word that is determined to be important for the pass determination (hereinafter, important A word). CAM is generally used in image recognition processing to obtain a heat map of a spot of interest on an image. However, by applying it to vectorized text data, CAM is judged to be important in learning processing in CNN. It is possible to specify the word that has been written. By providing this important word to the user, the evaluation device 20 of the present embodiment finds out what kind of word the text data used contributes to the evaluation (for example, pass or adoption) of the applicant. Can be obtained. The evaluation device 20 may extract words that are determined to be important by a method other than CAM. For example, when using a recurrent neural network (RNN), words may be extracted according to the attention weight of the RNN, or a multiple regression equation using each word (vector) as an explanatory variable is estimated. In this case, important words may be extracted according to the coefficient (weight) of each word.

図4は、評価装置20のソフトウェア構成例を示す図である。同図に示すように、評価装置20は、学習処理部211、重要項目出力部212、重要単語出力部213、数値データ取得部214、テキストデータ取得部215、予測処理部216、評価出力部217、モデル記憶部220、応募データ記憶部231および評価情報記憶部232を備える。 FIG. 4 is a diagram illustrating a software configuration example of the evaluation device 20. As shown in the figure, the evaluation device 20 includes a learning processing unit 211, an important item output unit 212, an important word output unit 213, a numerical data acquisition unit 214, a text data acquisition unit 215, a prediction processing unit 216, and an evaluation output unit 217. The model storage unit 220, the application data storage unit 231, and the evaluation information storage unit 232.

なお、学習処理部211、重要項目出力部212、重要単語出力部213、数値データ取得部214、テキストデータ取得部215、予測処理部216および評価出力部217の各機能部は、評価装置20が備えるCPU201が記憶装置203に記憶されているプログラムをメモリ202に読み出して実行することにより実現され、モデル記憶部220、応募データ記憶部231および評価情報記憶部232の各記憶部は、評価装置20が備えるメモリ202および記憶装置203が提供する記憶領域の一部として実現される。 The evaluation processing device 211, the important item output unit 212, the important word output unit 213, the numerical data acquisition unit 214, the text data acquisition unit 215, the prediction processing unit 216, and the evaluation output unit 217 are functional units of the evaluation device 20. This is realized by the CPU 201 provided therein by reading the program stored in the storage device 203 into the memory 202 and executing the program. The storage units of the model storage unit 220, the application data storage unit 231, and the evaluation information storage unit 232 are the evaluation unit 20. It is realized as a part of the storage area provided by the memory 202 and the storage device 203 included in.

応募データ記憶部231(本発明の学習データ記憶部に該当する。)は、採用希望者に関するデータ(以下、応募データという。)を記憶する。応募データ記憶部231は、過去の採用希望者に係る応募データを記憶するものとする。図5は、応募データ記憶部231に記憶される応募データの構成例を示す図である。応募データには、採用希望者の識別情報(ユーザID)に対応付けて、採用希望者の出身学校の種類(大学、高校等)、文系理系の区別(文理)、エントリーシートに記入された志望動機(ES志望動機)、エントリーシートに記入された自己アピール(ES自己アピール)、アルバイト経験の有無、アルバイトをしていた期間、SPIテストの点数やランク(段階)などが含まれる。図5の例では、ES志望動機およびES自己アピールがテキストデータであり、その他の項目は、定型データ、すなわち数値情報またはカテゴリ情報である。なお、応募データの項目は図5の例に限定されることなく、任意の定型および非定型のデータを含めることができる。また、応募データには、採用希望者が作成したテキストデータのみでなく、たとえば、在学していた学校教師または職員からのコメントや、面接を行った社員によるコメントなどを含めるようにしてもよい。また、テキストデータについては、テキスト全文を応募データに含めるようにしてもよいし、テキストデータが格納されたファイルを示すファイル名(パス)を応募データに含めるようにしてもよい。 The application data storage unit 231 (corresponding to the learning data storage unit of the present invention) stores data regarding applicants for hiring (hereinafter referred to as application data). The application data storage unit 231 stores application data relating to past applicants for employment. FIG. 5 is a diagram showing a configuration example of application data stored in the application data storage unit 231. The application data is associated with the identification information (user ID) of the applicant for employment, the type of school from which the applicant for employment is selected (university, high school, etc.), distinction between humanities and sciences (literary science), and the aspiration entered on the entry sheet. This includes motivation (motivation for ES), self-appeal written on the entry sheet (ES self-appeal), experience of part-time job, time spent working part-time, score and rank (stage) of SPI test. In the example of FIG. 5, the ES desire motive and the ES self-appeal are text data, and the other items are standard data, that is, numerical information or category information. The items of the application data are not limited to the example of FIG. 5, and can include arbitrary fixed and atypical data. Further, the application data may include not only the text data created by the applicant for hiring but also comments from the school teachers or staff who were attending school, comments from the employees who interviewed, and the like. Regarding the text data, the entire text may be included in the application data, or the file name (path) indicating the file in which the text data is stored may be included in the application data.

評価情報記憶部232は、採用希望者に対する評価を示す情報(以下、評価情報という。)を記憶する。図6は、評価情報記憶部232に記憶される評価情報の構成例を示す図である。同図に示すように、評価情報には、採用希望者を示すユーザIDに対応付けて、採用希望者が採用された(合格した)か、不採用(不合格)だったかを示す合否結果が含まれる。合否結果は、合格または不合格のいずれかを示す値であるものとする。なお、評価情報としては、採用希望者の採否に限らず、予測を行いたい任意の人物評価を採用することができる。たとえば、社員が退職したこと(退職する人物であるかどうか)、社員の生産性(プレゼンティーイズム)の評価値、社内人事評価の結果としての評価ランクなどを評価情報として含めることも可能である。 The evaluation information storage unit 232 stores information (hereinafter, referred to as evaluation information) indicating the evaluation of the applicant for adoption. FIG. 6 is a diagram showing a configuration example of the evaluation information stored in the evaluation information storage unit 232. As shown in the figure, in the evaluation information, a pass/fail result indicating whether the hiring candidate is adopted (passed) or not adopted (failed) is associated with the user ID indicating the hiring candidate. included. The pass/fail result shall be a value indicating either pass or fail. It should be noted that the evaluation information is not limited to the adoption/non-approval of the applicant, and may be any person evaluation to be predicted. For example, it is possible to include, as the evaluation information, the fact that the employee has retired (whether or not the employee is retired), the evaluation value of the employee's productivity (presentityism), the evaluation rank as a result of the internal personnel evaluation, and the like. ..

モデル記憶部220には、2つの機械学習モデル、CNN221(本発明の第1の予測モデルに該当する。)および機械学習モデル222(本発明の第2の予測モデルに該当する。)が記憶されている。CNN221は、多階層(4層以上)のニューラルネットワークである。機械学習モデル222は、勾配ブーストツリーアルゴリズムを実装したものである。なお、CNN221および機械学習モデル222は、一般的なニューラルネットワークおよび機械学習の実装を用いればよく、ここでは詳細な説明を省略する。 The model storage unit 220 stores two machine learning models, a CNN 221 (corresponding to the first prediction model of the present invention) and a machine learning model 222 (corresponding to the second prediction model of the present invention). ing. The CNN 221 is a multi-layer (four or more layers) neural network. The machine learning model 222 implements the gradient boost tree algorithm. The CNN 221 and the machine learning model 222 may use general neural network and machine learning implementations, and detailed description thereof will be omitted here.

学習処理部211は、応募データを学習する。上述したように、学習処理部211は、畳み込みニューラルネットワーク(CNN)および勾配ブーストツリーアルゴリズムを用いた学習処理を行う。機械学習モデル(CNN221および機械学習モデル222)に対する入力データは応募データであり教師データは評価情報である。まず、学習処理部211は、応募データに含まれる項目の中でもテキストデータである項目(図5の例では、ES志望動機およびES自己アピール)のみを取り出したうえで、テキストデータをベクトル化し、このベクトル化したデータをCNN221の入力データとし、ユーザIDに対応する評価情報の合否結果を教師データとして学習処理を行う。次に、学習処理部211は、学習済みのCNN221を予測モデルとして、応募データの項目のうちテキストデータであるもの(テキスト項目)それぞれを与え、その計算結果(合否の可能性)と、他の定型データとを機械学習モデル222の入力データとし、対応する評価情報の合否結果を教師データとして学習処理を行う。なお、定型データのうちカテゴリーデータについては、ダミー変数を用いて入力データとしてもよい。また、応募データの項目のうちテキストデータであるものを与えた計算結果は、最終的な合否の可能性に代えて、または最終的な合否の可能性に加えて、CNN221の中間層で計算されている特徴ベクトルなどの中間計算結果を用いることもできる。 The learning processing unit 211 learns the application data. As described above, the learning processing unit 211 performs the learning process using the convolutional neural network (CNN) and the gradient boost tree algorithm. Input data for the machine learning model (CNN 221 and machine learning model 222) is application data, and teacher data is evaluation information. First, the learning processing unit 211 extracts only the items that are text data (ES in the example of FIG. 5 and ES self appeal) from the items included in the application data, vectorizes the text data, and The vectorized data is used as the input data of the CNN 221, and the learning process is performed using the pass/fail result of the evaluation information corresponding to the user ID as the teacher data. Next, the learning processing unit 211 gives each of the items of the application data that is text data (text item) using the learned CNN 221 as a prediction model, and calculates the calculation result (possibility of pass/fail) and other items. The fixed data is used as the input data of the machine learning model 222, and the learning process is performed using the pass/fail result of the corresponding evaluation information as the teacher data. It should be noted that the category data of the fixed form data may be used as the input data by using a dummy variable. In addition, the calculation result given the item of the application data which is the text data is calculated in the middle layer of the CNN 221 instead of or in addition to the possibility of the final pass/fail. It is also possible to use an intermediate calculation result such as a feature vector.

重要単語出力部213は、応募データの項目の中でテキストデータであるものに含まれる単語のうち重要なものを、評価に対する寄与度とともに出力する。重要単語出力部213は、CNN221に係るクラスアクティベーションマッピング(CAM)により求められる重みを寄与度として、寄与度が所定値以上のベクトル値が示す単語を重要な単語として抽出することができる。なお、重要単語出力部213は、CAMで求められた寄与度(寄与度そのものの値であっても、寄与度の絶対値であってもよい。以下、CAMで求められた寄与度について同じ。)の順(大きい順であっても、小さい順であってもよい。)に単語をソートして出力してもよいし、当該寄与度の順に所定数の単語のみを出力するようにしてもよい。また、重要単語出力部213は、CAM以外の手法により重要と判断された単語を抽出するようにしてもよい。たとえば、CNN221に代えてまたはCNN221に加えてRNNを用いる場合に、RNNのアテンションの重みに応じて単語を抽出してもよい。また、重要単語出力部213は、各単語(ベクトル)を説明変数とした重回帰式を推計した場合には、各単語の係数(重み)に応じて重要な単語を抽出するようにしてもよい。重要単語出力部213は、全ての単語について寄与度とともに出力するようにしてもよい。なお、重要単語出力部213は、すべての単語について寄与度を出力するようにしてもよい。また、重要単語出力部213は、ユーザから単語の指定を受け付け、受け付けた単語に係る寄与度を出力するようにしてもよい。 The important word output unit 213 outputs important words among the words included in the text data among the items of the application data together with the degree of contribution to the evaluation. The important word output unit 213 can extract, as a significant word, a word indicated by a vector value of which the contribution degree is equal to or more than a predetermined value, with the weight obtained by the class activation mapping (CAM) related to the CNN 221 as the contribution degree. It should be noted that the important word output unit 213 may calculate the contribution degree calculated by the CAM (either the value of the contribution degree itself or the absolute value of the contribution degree. Hereinafter, the same applies to the contribution degree calculated by the CAM. ) (The order may be larger or smaller) may be sorted and output, or only a predetermined number of words may be output in the order of the contribution degree. Good. Also, the important word output unit 213 may extract words that are determined to be important by a method other than CAM. For example, when the RNN is used instead of the CNN 221 or in addition to the CNN 221, the words may be extracted according to the attention weight of the RNN. In addition, the important word output unit 213 may extract an important word according to the coefficient (weight) of each word when estimating a multiple regression equation using each word (vector) as an explanatory variable. .. The important word output unit 213 may output all the words together with the contribution degree. The important word output unit 213 may output the contribution degree for all words. Further, the important word output unit 213 may receive the designation of the word from the user and output the contribution degree of the received word.

重要項目出力部212は、応募データの項目のうち重要なものを、評価に対する寄与度とともに出力する。重要項目出力部212は、機械学習モデル222に含まれる各項目の寄与度(たとえば、回帰モデルにおける説明変数の係数)が所定値以上のものを抽出することができる。なお、重要項目出力部212は、機械学習モデル222にCNNを用いた場合に、CAMで求められた寄与度の順(大きい順であっても、小さい順であってもよい。)に項目をソートして出力してもよいし、当該寄与度の順に所定数の項目のみを出力するようにしてもよい。また、重要項目出力部212は、機械学習モデル222にRNNを用いた場合に、RNNのアテンションの重みに応じて項目を抽出してもよい。また、重要項目出力部212は、各単語(ベクトル)を説明変数とした重回帰式を推計した場合には、各単語の係数(重み)に応じて重要な項目を抽出するようにしてもよい。なお、重要項目出力部212は、全ての項目について寄与度とともに出力するようにしてもよい。また、重要項目出力部212は、ユーザから項目の指定を受け付け、受け付けた項目の寄与度を出力するようにしてもよい。 The important item output unit 212 outputs the important items of the application data together with the contribution to the evaluation. The important item output unit 212 can extract a contribution of each item included in the machine learning model 222 (for example, a coefficient of an explanatory variable in the regression model) of a predetermined value or more. Note that, when the CNN is used for the machine learning model 222, the important item output unit 212 puts the items in the order of the contribution degree obtained by the CAM (the order may be large or small). The items may be sorted and output, or only a predetermined number of items may be output in the order of the contribution. Further, the important item output unit 212 may extract an item according to the weight of the attention of the RNN when the RNN is used for the machine learning model 222. In addition, the important item output unit 212 may extract an important item according to the coefficient (weight) of each word when estimating a multiple regression equation using each word (vector) as an explanatory variable. .. Note that the important item output unit 212 may output all the items together with the contribution degree. Further, the important item output unit 212 may receive an item designation from the user and output the contribution degree of the received item.

数値データ取得部214は、評価対象者(現在実行中の採用活動に対する採用希望者)に関する応募データのうち、数値情報またはカテゴリ情報を取得する。数値データ取得部214は、たとえば、評価対象者に係るSPIテストの点数や出身学校の種別などの定型データについてユーザから入力を受け付けてもよいし、他のサーバにアクセスしてこれらの定型データを取得するようにしてもよい。 The numerical value data acquisition unit 214 acquires numerical value information or category information from the application data regarding the evaluation target person (the person who wants to be employed for the recruiting activity currently being executed). The numerical data acquisition unit 214 may accept input from the user for standard data such as the score of the SPI test relating to the evaluation subject and the type of school from which the user is evaluated, or may access another server to store the standard data. It may be acquired.

テキストデータ取得部215は、評価対象者に関する応募データのうちテキストデータであるものを取得する。テキストデータ取得部215は、たとえば、評価対象者が記載したテキストデータについて、ユーザから入力を受け付けるようにしてもよいし、評価対象者が作成したテキストファイルを受け付けるようにしてもよい。 The text data acquisition unit 215 acquires text data from the application data relating to the evaluation target person. For example, the text data acquisition unit 215 may accept an input from the user for the text data described by the evaluation target person, or may accept a text file created by the evaluation target person.

予測処理部216は、テキストデータ取得部215が取得したテキストデータを、学習済みのCNN221に与えて値を求め、この値と、数値データ取得部214が取得した定型データとを、学習済みの機械学習モデル222に与えて、評価対象者の合否可能性を算出することができる。 The prediction processing unit 216 gives the text data acquired by the text data acquisition unit 215 to the learned CNN 221 to obtain a value, and this value and the fixed form data acquired by the numerical data acquisition unit 214 are used by the learned machine. It can be given to the learning model 222 to calculate the pass/fail probability of the evaluation target person.

評価出力部217は、予測処理部216が予測した評価(本実施形態では評価対象者の合否可能性)を出力する。評価出力部217は、たとえば、画面やプリンタなどに評価を出力することができる。 The evaluation output unit 217 outputs the evaluation predicted by the prediction processing unit 216 (possibility of pass/fail of the evaluation target person in this embodiment). The evaluation output unit 217 can output the evaluation on, for example, a screen or a printer.

図7ないし図10は、学習処理部211による学習処理の流れを示す図である。 7 to 10 are diagrams showing the flow of learning processing by the learning processing unit 211.

図7は、CNN221に係る学習処理の流れを示す図である。 FIG. 7 is a diagram showing a flow of a learning process related to the CNN 221.

学習処理部211は、応募データ記憶部231に記憶されている各応募データについて以下の処理を行う。 The learning processing unit 211 performs the following processing on each application data stored in the application data storage unit 231.

学習処理部211は、応募データの項目のうちテキストデータであるもの(テキスト項目)を抽出し(S411)、各テキスト項目について、テキストデータを形態素解析処理等により単語に分解する(S412)。学習処理部211は、Word2Vecなどの処理により単語をベクトル化し(S413)、ベクトル値を入力データとし、当該応募データのユーザIDに対応する評価情報の合否結果を教師データとしてCNN221に係る学習処理を行う(S414)。なお、CNN221を用いた学習処理については一般的なニューラルネットワークの運用と同じであり、ここでは説明を省略する。学習処理部211は、CNN221によりテキストデータを特徴化した値を取得し、当該テキスト項目の値(数値)とする(S415)。後述するように、当該値は後述のテキスト項目以外の項目とともに機械学習モデル222の学習に用いられる。 The learning processing unit 211 extracts text data items (text items) from the items of the application data (S411), and decomposes the text data into words by morphological analysis processing or the like for each text item (S412). The learning processing unit 211 vectorizes the word by processing such as Word2Vec (S413), uses the vector value as input data, and uses the result of acceptance/rejection of the evaluation information corresponding to the user ID of the application data as teacher data to perform learning processing related to the CNN 221. Perform (S414). Note that the learning process using the CNN 221 is the same as the operation of a general neural network, and the description is omitted here. The learning processing unit 211 acquires a value characterizing the text data by the CNN 221 and sets it as the value (numerical value) of the text item (S415). As will be described later, the value is used for learning the machine learning model 222 together with items other than the text items described later.

学習処理部211は、CNN221についてCAMを実行し(S416)、CAMの結果から寄与度が所定値以上のベクトル値を特定し、特定したベクトル値の示す単語を寄与度とともに取得する(S417)。 The learning processing unit 211 executes CAM for the CNN 221 (S416), specifies a vector value having a contribution degree equal to or greater than a predetermined value from the result of the CAM, and acquires a word indicated by the identified vector value together with the contribution degree (S417).

以上の処理を各テキスト項目について行った後、重要単語出力部213は、重要単語ごとに寄与度を出力する(S418)。重要単語出力部213は、たとえば、寄与度が所定値以上の単語を寄与度の順(大きい順であっても、小さい順であってもよい。)に出力することができる。図8は、重要単語の出力例を示す図である。同図の例では、重要単語出力部213は、寄与度(重要度)とともに重要語を画面51に出力している。なお、重要度は、寄与度(CAMから求められる重み)に基づいて計算(たとえば標準化)した値としてもよい。また、重要単語出力部213は、評価が合格であった採用希望者のうち当該単語をテキスト項目内で使用していた人数(合格カテゴリ内使用者)と、当該単語をテキスト項目内で使用していた全ての採用希望者の人数(全カテゴリ内使用者)と、その割合(合格/全カテゴリ内使用者)とを出力することができる。なお、重要単語出力部213による出力は、図8に示す内容に限定するものではなく、たとえば、当該単語が用いられていた応募データの数(採用希望者の人数)を単語利用者数として出力するようにしてもよいし、この単語が利用されていた応募データのユーザIDが示す評価情報の合否結果が合格を示す数を合格者数として出力するようにしてもよい。図8に示すような画面51を参照することにより、ユーザは、どのような単語を用いる採用希望者の合格が期待できるかを容易に把握することができる。なお、重要単語出力部213は、画面51への出力に限らず、プリンタなどの印刷装置に出力してもよいし、電子メールやチャットメッセージなどの形式でユーザに送信してもよいし、音声合成などの処理により、スピーカに音声データとして単語および寄与度を出力するようにしてもよい。 After performing the above processing for each text item, the important word output unit 213 outputs the contribution degree for each important word (S418). The important word output unit 213 can output, for example, words whose contributions are equal to or more than a predetermined value in the order of contributions (larger or smaller). FIG. 8 is a diagram showing an output example of important words. In the example of the figure, the important word output unit 213 outputs the important word to the screen 51 together with the contribution degree (importance degree). The importance may be a value calculated (for example, standardized) based on the contribution (weight obtained from CAM). In addition, the important word output unit 213 uses the number of persons who have used the word in the text item among the applicants who have passed the evaluation (users in the passing category) and the word in the text item. It is possible to output the number of all the applicants for adoption (users in all categories) and the ratio (pass/users in all categories). The output by the important word output unit 213 is not limited to the content shown in FIG. 8, and for example, the number of application data in which the word is used (the number of applicants for adoption) is output as the number of word users. Alternatively, the number of successful candidates in the pass/fail result of the evaluation information indicated by the user ID of the application data in which this word has been used may be output as the number of successful applicants. By referring to the screen 51 as shown in FIG. 8, the user can easily understand what kind of word the candidate for adoption using can expect to pass. Note that the important word output unit 213 is not limited to output to the screen 51, may be output to a printing device such as a printer, may be transmitted to the user in the form of e-mail, a chat message, or the like, and may be voiced. The word and the contribution may be output to the speaker as voice data by processing such as synthesis.

図9は、機械学習モデル222に係る学習処理の流れを示す図である。 FIG. 9 is a diagram showing a flow of a learning process according to the machine learning model 222.

学習処理部211は、応募データ記憶部231に記憶されている各応募データについて以下の処理を行う。 The learning processing unit 211 performs the following processing on each application data stored in the application data storage unit 231.

学習処理部211は、応募データをテキスト項目とそれ以外の項目に分け(S431)、各テキスト項目について、学習済みのCNN221を用いて数値に変換する(S432)。なお、CNN221を用いた数値への変換処理は、たとえば、図7に示すステップS412ないしS413に示すようにしてベクトル化したデータをCNN221に与えることにより行うことができる。 The learning processing unit 211 divides the application data into text items and other items (S431), and converts each text item into a numerical value using the learned CNN 221 (S432). The conversion process to the numerical value using the CNN 221 can be performed by giving the CNN 221 the vectorized data as shown in steps S412 to S413 shown in FIG. 7, for example.

学習処理部211は、CNN221から求めた数値と、他の定型データの項目の値とを入力データとし、当該応募データのユーザIDに対応する評価情報の合否結果を教師データとして機械学習モデル222に係る学習処理を行う(S433)。なお、機械学習モデル222に係る学習処理については、一般的な勾配ブーストツリーアルゴリズムを用いた学習処理であり、ここでも説明を省略する。なお、機械学習モデル222は勾配ブーストツリーアルゴリズム以外のアルゴリズムの実装でもよく、各種の機械学習に係る学習処理を用いることが可能である。 The learning processing unit 211 uses the numerical values obtained from the CNN 221 and the values of other fixed-form data items as input data, and uses the pass/fail result of the evaluation information corresponding to the user ID of the application data in the machine learning model 222 as teacher data. The learning process is performed (S433). Note that the learning process related to the machine learning model 222 is a learning process using a general gradient boost tree algorithm, and the description thereof will be omitted here. The machine learning model 222 may be implemented by an algorithm other than the gradient boost tree algorithm, and various learning processes related to machine learning can be used.

以上の処理を各応募データについて行った後、重要項目出力部212は、項目ごとの寄与度を出力する(S434)。重要項目出力部212は、たとえば、寄与度が所定値以上の項目を寄与度の順に出力することができる。図10は、各項目の寄与度の出力例を示す図である。同図の例では、重要項目出力部212は、応募データの項目のうち寄与度の順に寄与度とともに画面52に出力することができる。図10に示すような出力を参照することにより、ユーザは、応募データのどの項目が採用希望者の合格に寄与しているかを容易に把握することができる。また、画面52では、テキスト項目については「文章」として印が出力されている。なお、図10において、重要項目出力部212は、テキスト項目のみを寄与度とともに出力してもよいし、定型データの項目のみを寄与度とともに出力してもよい。なお、重要項目出力部212は、画面52への出力に限らず、プリンタなどの印刷装置に出力してもよいし、電子メールやチャットメッセージなどの形式でユーザに送信してもよいし、音声合成などの処理により、スピーカに音声データとして単語および寄与度を出力するようにしてもよい。 After performing the above processing for each application data, the important item output unit 212 outputs the contribution degree for each item (S434). The important item output unit 212 can output, for example, items whose contributions are equal to or greater than a predetermined value in the order of the contributions. FIG. 10 is a diagram showing an output example of the contribution degree of each item. In the example of the figure, the important item output unit 212 can output to the screen 52 together with the contribution degree in the order of contribution degree among the items of the application data. By referring to the output as shown in FIG. 10, the user can easily understand which item of the application data contributes to the acceptance of the applicant. Further, on the screen 52, a mark is output as “text” for the text item. Note that, in FIG. 10, the important item output unit 212 may output only the text item together with the contribution degree, or may output only the items of the fixed form data together with the contribution degree. Note that the important item output unit 212 is not limited to output to the screen 52, may be output to a printing device such as a printer, may be transmitted to the user in the form of e-mail, chat message, or the like, and may be a voice message. The word and the contribution may be output to the speaker as voice data by processing such as synthesis.

図11は、評価対象者の採用可能性についての予測処理の流れを示す図である。 FIG. 11 is a diagram showing a flow of a prediction process regarding the employment possibility of the evaluation target person.

テキストデータ取得部215は、評価対象者に関する応募データのうちテキストデータであるものを取得する(S451)。テキストデータ取得部215は、たとえば、ユーザからテキストのデータを受け付けるようにしてもよいし、評価対象者がWebサイト等で入力したり、電子メールに添付したりすることで送信したテキストデータを取得するようにしてもよい。 The text data acquisition unit 215 acquires text data of application data relating to the evaluation target person (S451). The text data acquisition unit 215 may, for example, accept text data from the user, or acquires the text data transmitted by the evaluation target person inputting it on a website or the like or attaching it to an e-mail. You may do so.

予測処理部216は、テキストデータ取得部215が取得したテキストデータを形態素解析処理等により単語に分割し(S452)、分割した単語をWord2Vecなどの処理によりベクトル化し(S453)、ベクトル値を学習済みのCNN221に与えて求めた値を項目値とする(S454)。なお、ステップS451からS454の処理は、応募データのうちテキストデータである項目のそれぞれについて行うことができる。 The prediction processing unit 216 divides the text data acquired by the text data acquisition unit 215 into words by morphological analysis processing or the like (S452), vectorizes the divided words by processing such as Word2Vec (S453), and has learned the vector value. The value given to the CNN 221 is obtained as the item value (S454). The processes of steps S451 to S454 can be performed for each item of text data in the application data.

次に、数値データ取得部214は、評価対象者に関する応募データのうち定型データ(数値情報またはカテゴリ情報)を取得して、応募データの対応する項目値とすることができる(S455)。数値データ取得部214は、評価対象者がWebサイト等で入力したり、電子メールに添付したりすることで送信した定型データを取得するようにしてもよい。なお、数値データ取得部214は、応募データのうち定型データである項目のそれぞれについてステップS455を実行する。 Next, the numerical data acquisition unit 214 can acquire the fixed form data (numerical value information or category information) from the application data relating to the evaluation target person and set it as the corresponding item value of the application data (S455). The numerical data acquisition unit 214 may acquire the standard data transmitted by being input by the evaluation target person on a website or attached to an electronic mail. The numerical data acquisition unit 214 executes step S455 for each item of the application data that is the standard data.

予測処理部216は、上記の各項目値(CNN221から求めた値と、数値データ取得部214が取得した値)を機械学習モデル222に入力して合否の可能性を求め(S456)、評価出力部217は、求めた合否の可能性を出力する(S457)。 The prediction processing unit 216 inputs the above item values (the value obtained from the CNN 221 and the value obtained by the numerical data obtaining unit 214) to the machine learning model 222 to obtain the possibility of pass/fail (S456), and outputs the evaluation. The unit 217 outputs the obtained possibility of success or failure (S457).

このようにして、本実施形態の評価装置20によれば、定型および非定型のデータを組み合わせて人事評価の結果(合否)の予測を行うことができる。 In this way, according to the evaluation device 20 of the present embodiment, it is possible to predict the result (pass/fail) of the personnel evaluation by combining the fixed and atypical data.

また、従来の人事評価では応募データの項目のうち数値やカテゴリ値の定型データにのみ着目した分析を行っていたところ、非定型のテキストデータに含まれる情報を無視することができず、これを人力で読み込むには時間と負荷がかかっていた。これに対して本実施形態の評価装置20によれば、定型データのみでなく非定型データについても変数として織り込んで分析および予測を行うことができるので、分析および予測の結果に対する信頼度を向上することが可能となり、また人事評価におけるテキストデータの読み込みにかかる手間を軽減することができる。したがって、たとえば、新卒採用時の人物評価において、SPIテスト等の点数だけではなく、エントリーシートの志望動機などの文章データも加味した多面的な評価を行うことができる。 In addition, in the conventional personnel evaluation, the analysis was conducted by focusing only on the fixed-value data of numerical values and category values among the items of the application data, and the information contained in the non-fixed-type text data cannot be ignored. It took time and load to read by human power. On the other hand, according to the evaluation device 20 of the present embodiment, not only fixed data but also atypical data can be incorporated as variables for analysis and prediction, so that reliability of analysis and prediction results is improved. In addition, it is possible to reduce the time and effort required to read text data in personnel evaluation. Therefore, for example, in evaluating a person who is hiring a new graduate, it is possible to perform a multi-faceted evaluation in which not only the score of the SPI test or the like but also sentence data such as the motivation for the entry sheet is considered.

以上、本実施形態について説明したが、上記実施形態は本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物も含まれる。 Although the present embodiment has been described above, the above embodiment is for the purpose of facilitating the understanding of the present invention and is not for limiting and interpreting the present invention. The present invention can be modified and improved without departing from the spirit thereof, and the present invention also includes equivalents thereof.

たとえば、本実施形態では、1台の評価装置20で人物評価サービスを提供するものとしたが、これに限らず、複数台の評価装置20により構成されるシステムで実装することもできる。この場合、たとえば、複数台のコンピュータにより仮想的に1台の評価装置20を構成するようにしてもよいし、たとえば、各記憶部をデータベースサーバに設けるなど、機能部および記憶部の一部を他のコンピュータが備えるようにし、評価装置20と他のコンピュータが協業するようにしてもよい。 For example, in the present embodiment, the person evaluation service is provided by one evaluation device 20, but the present invention is not limited to this, and the system may be implemented by a system configured by a plurality of evaluation devices 20. In this case, for example, one evaluation apparatus 20 may be virtually configured by a plurality of computers. For example, a functional unit and a part of the storage unit may be provided, such as providing each storage unit in a database server. It may be provided in another computer, and the evaluation device 20 and the other computer may cooperate with each other.

また、本実施形態では、新入社員の採用に係る合否(の確信度)を予測するものとしたが、これに限らず、たとえば、企業社内におけるエンゲージメントサーベイや評価コメントなどの社内アンケートデータを入力データとし、たとえば社員の生産性(プレゼンティーイズム)の評価値を教師データとして、社員の生産性予測を行うことも可能である。この場合において、本実施形態の評価装置20によれば、社員の生産性に寄与する単語が重要単語として表示することができる。この重要単語を参考にすることにより、人事担当者は、たとえば、組織改善に繋がるヒントを得ることが期待できる。また、人手によっては全員分読み切れないエンゲージメントサーベイ等の文章データであっても、重要単語のみをチェックすることで、迅速かつ容易に内容を把握することが可能となる。また、重要単語の表示が、寄与度の小さい順または寄与度の絶対値の大きい順に表示されている場合には、マイナスの効果を及ぼす単語についても把握することが可能であり、これにより、エンゲージメントサーベイなどの社内におけるコメントからは、たとえば、優秀な社員層が会社にどんな不満を抱いているのかを把握することができる。 Further, in the present embodiment, it is assumed that the pass/fail (reliability) of hiring a new employee is predicted. However, the present invention is not limited to this. It is also possible to predict employee productivity by using, for example, the evaluation value of employee productivity (presentityism) as teacher data. In this case, according to the evaluation device 20 of the present embodiment, words that contribute to employee productivity can be displayed as important words. By referring to these important words, the personnel manager can be expected to obtain hints that lead to organizational improvement, for example. Moreover, even if the text data is an engagement survey or the like that cannot be read by all the human hands, it is possible to quickly and easily grasp the contents by checking only the important words. In addition, if the important words are displayed in order of increasing contribution or increasing absolute value of contribution, it is possible to understand words that have a negative effect. From internal comments such as surveys, for example, it is possible to understand what kind of dissatisfaction the excellent employee group is having with the company.

また、本実施形態では、応募データの非定型項目には、応募者が作成したテキストデータが含まれるものとしたが、たとえば、面接を行った社員がコメントを作成し、応募データに含めるようにしてもよい。この場合、人事担当者や経営層などが現場の人事評価コメントから抽出された重要単語を参照することにより、現場ではどういった社員が優秀と評価されるのかを容易に把握することができる。 Further, in the present embodiment, the atypical items of the application data include the text data created by the applicant, but for example, the employee who interviewed may create a comment and include it in the application data. May be. In this case, the personnel personnel, the management, and the like can easily understand what kind of employee is evaluated as excellent on the spot by referring to the important words extracted from the personnel evaluation comment on the spot.

また、本実施形態では、新入社員の採用に係る合否(の確信度)を予測するものとしたが、これに限らず、たとえば、社内における社員の人事評価結果を予測するようにしてもよい。この場合、学習処理部211は、応募データに代えて、社員の上司が作成する人事評価データを入力データとし、人事評価の結果(ランクや点数等)を教師データとしてCNN221および機械学習モデル222に与えて学習を行えばよい。 Further, in the present embodiment, the success/failure of hiring a new employee is predicted, but the present invention is not limited to this. For example, the personnel evaluation result of an employee within the company may be predicted. In this case, the learning processing unit 211 uses the personnel evaluation data created by the employee's boss as input data instead of the application data, and uses the results of personnel evaluation (rank, score, etc.) as teacher data in the CNN 221 and the machine learning model 222. Just give it and learn.

また、本実施形態では、重要単語出力部213が図8に示す画面51のように単語と寄与度とを出力した後に、重要項目出力部212が図10に示す画面52のように各定型および非定型の項目と寄与度とを出力することを記載したが、画面52の出力後に画面51を出力するようにしてもよい。この場合、重要項目出力部212は、機械学習モデル222から抽出した各項目の寄与度を画面52に出力した後、画面52において、たとえばクリック等によりテキスト項目(図10の例では、「ES_志望動機」、「ES_自己アピール」および「学校種別(使用)」の3項目)の指定を受け付け、受け付けた項目を重要単語出力部213に渡し、重要単語出力部213は、指定された項目に含まれる単語の寄与度をCNN221から抽出して画面51に出力することができる。 Further, in the present embodiment, after the important word output unit 213 outputs the word and the contribution degree as in the screen 51 shown in FIG. 8, the important item output unit 212 makes each fixed form and the like as in the screen 52 shown in FIG. Although it has been described that the atypical item and the contribution degree are output, the screen 51 may be output after the output of the screen 52. In this case, the important item output unit 212 outputs the contribution degree of each item extracted from the machine learning model 222 to the screen 52, and then, on the screen 52, by clicking or the like, a text item (in the example of FIG. "Motivation", "ES_self-appeal" and "school type (use)" designation) is accepted, the accepted items are passed to the important word output unit 213, and the important word output unit 213 is included in the designated items. It is possible to extract the contribution degree of the word to be extracted from the CNN 221 and output it to the screen 51.

各項目の寄与度と、各テキスト項目に含まれる各単語の寄与度とを記憶しておいてもよい。図12は、各項目および各単語の寄与度を記憶する寄与度記憶部233を備える評価装置20のソフトウェア構成例を示す図である。図13は寄与度記憶部233の構成例を示す図である。図13に示すように、寄与度記憶部233は、項目寄与度2331および単語寄与度2332を備えることができる。項目寄与度2331は、項目ごとに、当該項目の寄与度と、当該項目がテキスト形式の非定型データであるか否かを示すテキストフラグとを含むことができる。項目寄与度2331の項目および寄与度は、上述したように機械学習モデル222から抽出することができる。また、単語寄与度2332は、各テキスト項目について、項目および当該項目に含まれる単語に対応付けて、当該項目における当該単語の評価への寄与度を含むことができる。単語寄与度2332の単語および寄与度は、上述したようにCNN221からCAMを用いて抽出することができる。重要項目出力部212は、項目寄与度2331を寄与度記憶部233から読み出して図10に示す画面52を出力し、画面52において項目がクリック等により指定されると、重要単語出力部213は、指定された項目に対応する単語寄与度2332を寄与度記憶部233から読み出して図8に示す画面51を出力することができる。これによりユーザは、採用希望者の採用可能性に寄与する項目を把握するとともに、項目から単語にドリルダウンしてどのような単語が採用可能性に寄与しているかを把握することができる。 The contribution of each item and the contribution of each word included in each text item may be stored. FIG. 12 is a diagram illustrating a software configuration example of the evaluation device 20 including the contribution storage unit 233 that stores the contribution of each item and each word. FIG. 13 is a diagram showing a configuration example of the contribution storage unit 233. As shown in FIG. 13, the contribution storage unit 233 can include an item contribution 2331 and a word contribution 2332. The item contribution degree 2331 can include, for each item, a contribution degree of the item and a text flag indicating whether the item is non-standard data in a text format. The item of the item contribution degree 2331 and the contribution degree can be extracted from the machine learning model 222 as described above. In addition, the word contribution degree 2332 can include, for each text item, the contribution degree to the evaluation of the word in the item, in association with the item and the word included in the item. The word and the contribution degree of the word contribution degree 2332 can be extracted from the CNN 221 using the CAM as described above. The important item output unit 212 reads the item contribution degree 2331 from the contribution degree storage unit 233 and outputs the screen 52 shown in FIG. 10. When the item is designated by clicking or the like on the screen 52, the important word output unit 213 The word contribution degree 2332 corresponding to the designated item can be read from the contribution degree storage unit 233 and the screen 51 shown in FIG. 8 can be output. This allows the user to understand the items that contribute to the employment possibility of the applicant and also to drill down from the item to a word to see what word contributes to the employment possibility.

また、本実施形態では、新入社員の採用に係る合否(の確信度)を予測するものとしたが、これに限らず、たとえば、社員の退職可能性を予測するようにしてもよい。退職可能性の予測を行う場合、学習処理部211は、応募データとして、図14に示すようなデータを用いることができる。図14の例では、応募データには、現在または過去の社員を特定するユーザIDに対応付けて、社員が所属していた部署、役職、モチベーションアンケートの結果、上司のコメント、欠席日数などを含めることができる。また、評価情報としては、図15に示すように、社員を特定するユーザIDに対応付けて、社内人事評価の結果(ランク)、ユーザIDが示す社員が退職したか否かを示す退職フラグ、および退職フラグが真である(当該社員が退職している)場合における退職日を含めることができる。これにより、学習処理部211は、本実施形態で説明した処理と同じ処理を用いて、社員の退職可能性(退職する社員であるかどうかの評価)を評価することができる。すなわち、図14に示す応募データに含まれるテキスト項目(図14の例では、モチベーションアンケートおよび上司コメント)をベクトル化して入力データとし、図15に示す評価情報の退職フラグを教師データとしてCNN221に与えて学習を行うとともに、CNN221で計算された値(退職可能性の予測結果または中間層の特徴ベクトル)と、応募データのテキストデータ以外の項目の値とを機械学習モデル222に与えて学習を行い、最終的な退職の可能性(退職フラグが真になる可能性)を予測することができる。ここで、評価情報に含まれている、当該社員の人事評価を示すランクもCNN221への入力データとして加えるようにしてもよい。また、毎年行われていたランクの履歴を評価情報に蓄積するようにして、過去所定年数におけるランクの変化パターン(たとえば、3年前はAランク、2年前はBランク、昨年はCランクとなったことを示す「ABC」)を入力データとして機械学習モデル222に与えるようにして、人事評価の変遷も加味した予測を行うようにしてもよい。また、評価値として、退職日をCNN221および機械学習モデル222に与えるようにして、退職日を予測することもできる。この場合、退職していない(退職フラグが偽である)社員については、退職日を定年まで勤務した場合に退職する予定の日として設定しておき、学習を行うようにすることもできる。 Further, in the present embodiment, although the success/failure of hiring a new employee is predicted, the present invention is not limited to this. For example, the retirement possibility of an employee may be predicted. When predicting the retirement possibility, the learning processing unit 211 can use data as shown in FIG. 14 as application data. In the example of FIG. 14, the application data includes the department to which the employee belongs, the post, the result of the motivation questionnaire, the boss's comment, the number of days absent, etc. in association with the user ID identifying the current or past employee. be able to. Further, as the evaluation information, as shown in FIG. 15, the result (rank) of the in-house personnel evaluation, the retirement flag indicating whether the employee indicated by the user ID has retired, in association with the user ID for identifying the employee, And the retirement date if the retirement flag is true (the employee has retired). As a result, the learning processing unit 211 can evaluate the retireability of the employee (evaluation of whether or not the employee is leaving) using the same processing as the processing described in the present embodiment. That is, the text items (motivation questionnaire and boss comment in the example of FIG. 14) included in the application data shown in FIG. 14 are vectorized as input data, and the retirement flag of the evaluation information shown in FIG. 15 is given to the CNN 221 as teacher data. In addition to learning, the value calculated by CNN 221 (prediction result of retirement possibility or feature vector of middle class) and the value of items other than text data of application data are given to machine learning model 222 for learning. , The possibility of final retirement (the possibility that the retirement flag will become true) can be predicted. Here, the rank indicating the personnel evaluation of the employee included in the evaluation information may be added as input data to the CNN 221. Also, the history of ranks that have been performed every year is accumulated in the evaluation information, and the change pattern of ranks in a predetermined number of years in the past (for example, rank A 3 years ago, rank B 2 years ago, rank C last year). It is also possible to give "ABC") indicating that it has become input to the machine learning model 222 as input data to make a prediction in consideration of the transition of personnel evaluation. Further, the retirement date may be given to the CNN 221 and the machine learning model 222 as an evaluation value to predict the retirement date. In this case, for employees who have not retired (retirement flag is false), the retirement date can be set as the date when they are scheduled to retire when they have worked until retirement and learning can be performed.

また、学習処理部211は、たとえば、社員の電子メールの文面を入力データとし、人事評価の結果を教師データとしてCNN221および機械学習モデル222に与えて学習を行うこともできる。この場合、社員のコミュニケーションデータ(電子メール、日報、チャットツールなど)に基づいて、社員の能力を推定することが可能であり、また同じ予測モデル(学習済みのCNN221および機械学習モデル222)を用いて、他社の営業マンからの電子メールの文面から、その営業マンが優秀であるかどうかを見極めることもできる。 Further, the learning processing unit 211 can also perform learning by, for example, using the text of an e-mail of an employee as input data and giving the result of personnel evaluation as teacher data to the CNN 221 and the machine learning model 222. In this case, it is possible to estimate the ability of the employee based on the communication data of the employee (e-mail, daily report, chat tool, etc.), and use the same predictive model (CNN221 and machine learning model 222 already trained). Then, it is possible to determine whether or not the salesman is excellent from the text of the email from the salesman of another company.

また、本実施形態では、教師データとして合否結果を用いるものとしたが、これに限らず、評価値を数値データ(たとえば、10段階の評価値や100点満点の点数など)として保存しておき、これを教師データとして機械学習を行うようにしてもよい。 Further, in the present embodiment, the pass/fail result is used as the teacher data, but the present invention is not limited to this, and the evaluation value is stored as numerical data (e.g., an evaluation value of 10 levels or a score of 100 points). Machine learning may be performed using this as teacher data.

また、本実施形態では、CNN221および機械学習モデル222の2つの機械学習を行うことにより評価を予測する予測モデルを作成するものとしたが、1つの機械学習モデル222(CNNであってもよいし、RNNであってもよいし、勾配ブーストツリーアルゴリズムの実装であってもよいし、重回帰分析に係る統計モデルであってもよい。)のみを用いて学習を行うようにしてもよい。この場合、非定型データのテキストについては、単語ベクトルに変換したうえで、このベクトル値を他の定型データとともに入力データとして機械学習を行えばよい。予測処理部216は、機械学習モデル222のみを用いて予測を行うことができる。 Further, in the present embodiment, the prediction model for predicting the evaluation is created by performing the two machine learnings of the CNN 221 and the machine learning model 222, but one machine learning model 222 (CNN may be used. , RNN, the implementation of a gradient boost tree algorithm, or a statistical model related to multiple regression analysis) may be used for learning. In this case, the text of the non-standard data may be converted into a word vector and then machine learning may be performed by using this vector value as input data together with other standard data. The prediction processing unit 216 can perform prediction using only the machine learning model 222.

また、本実施形態では、CNN221における単語の寄与度と、機械学習モデル222におけるテキスト項目の寄与度とはとくに連携しないものとしたが、たとえば、CNN221におえる単語の寄与度(CAM等により求められる重み)の合計がテキスト項目の寄与度となるように標準化を行ってもよい。 Further, in the present embodiment, the contribution degree of the word in the CNN 221 and the contribution degree of the text item in the machine learning model 222 are not particularly linked, but for example, the contribution degree of the word in the CNN 221 (determined by CAM or the like). Standardization may be performed so that the sum of weights becomes the contribution of the text item.

10 ユーザ端末
20 評価装置
211 学習処理部
212 重要項目出力部
213 重要単語出力部
214 数値データ取得部
215 テキストデータ取得部
216 予測処理部
217 評価出力部
221 CNN
222 機械学習モデル
231 応募データ記憶部
232 評価情報記憶部
10 user terminal 20 evaluation device 211 learning processing unit 212 important item output unit 213 important word output unit 214 numerical data acquisition unit 215 text data acquisition unit 216 prediction processing unit 217 evaluation output unit 221 CNN
222 machine learning model 231 application data storage unit 232 evaluation information storage unit

Claims (29)

人物に係る少なくともテキスト形式の非定型データとテキスト形式以外の定型データとを記憶する学習データ記憶部と、
前記人物に対する評価を記憶する評価情報記憶部と、
前記非定型データに含まれる単語に関する単語データを入力データとし前記評価を教師データとした機械学習により第1の予測モデルを作成し、前記第1の予測モデルに前記非定型データを与えて算出される計算値および前記定型データを入力データとし前記評価を教師データとした機械学習により第2の予測モデルを作成する学習処理部と、
前記第2の予測モデルから前記非定型データおよび前記定型データごとの前記評価への寄与度を抽出し、抽出した前記寄与度を出力する寄与度出力部と、
を備えることを特徴とする情報処理装置。
A learning data storage unit that stores at least non-standard data in text format and standard data in non-text format related to a person,
An evaluation information storage unit that stores the evaluation of the person,
Calculated by creating a first prediction model by machine learning using word data relating to words included in the atypical data as input data and using the evaluation as teacher data, and giving the atypical data to the first prediction model. A learning processing unit that creates a second prediction model by machine learning using the calculated value and the standard data as input data and the evaluation as teacher data;
A contribution degree output unit that extracts a contribution degree to the evaluation for each of the atypical data and the boilerplate data from the second prediction model, and outputs the extracted contribution degree;
An information processing apparatus comprising:
請求項1に記載の情報処理装置であって、
前記第1の予測モデルから前記評価に対する前記単語ごとの寄与度を抽出し、抽出した前記単語ごとの寄与度を出力する単語寄与度出力部をさらに備えること、
を特徴とする情報処理装置。
The information processing apparatus according to claim 1, wherein
Further comprising a word contribution output unit that extracts the contribution of each word to the evaluation from the first prediction model and outputs the extracted contribution of each word.
An information processing device characterized by:
請求項1に記載の情報処理装置であって、
前記学習処理部は、畳み込みニューラルネットワークを用いて少なくとも前記第1の予測モデルを作成すること、
を特徴とする情報処理装置。
The information processing apparatus according to claim 1, wherein
The learning processing unit creates at least the first prediction model using a convolutional neural network;
An information processing device characterized by:
請求項3に記載の情報処理装置であって、
前記畳み込みニューラルネットワークに対するクラスアクティベーションマッピングにより、前記第1の予測モデルから前記評価に対する前記単語ごとの寄与度を抽出し、抽出した前記単語ごとの寄与度を出力する単語寄与度出力部をさらに備えること、
を特徴とする情報処理装置。
The information processing apparatus according to claim 3, wherein
The method further comprises a word contribution output unit that extracts the contribution of each word to the evaluation from the first prediction model by class activation mapping for the convolutional neural network and outputs the extracted contribution of each word. thing,
An information processing device characterized by:
請求項1ないし4のいずれか1項に記載の情報処理装置であって、
評価対象者が作成した前記非定型データおよび前記定型データを取得する評価データ取得部と、
前記非定型データ、前記定型データならびに前記第1および第2の予測モデルに基づいて前記評価対象者の前記評価を予測する評価予測部と、
予測した前記評価を出力する評価出力部と、
をさらに備えることを特徴とする情報処理装置。
The information processing apparatus according to any one of claims 1 to 4,
An evaluation data acquisition unit that acquires the atypical data and the atypical data created by an evaluation subject,
An evaluation prediction unit that predicts the evaluation of the evaluation target person based on the atypical data, the fixed data, and the first and second prediction models,
An evaluation output unit that outputs the predicted evaluation,
An information processing apparatus, further comprising:
人物に係る少なくともテキスト形式の非定型データとテキスト形式以外の定型データとを記憶する学習データ記憶部と、
前記非定型データおよび前記定型データに基づいて前記人物に対する評価を予測するための予測モデルを記憶する予測モデル記憶部と、
前記予測モデルから前記非定型データおよび前記定型データごとの寄与度を抽出し、抽出した前記寄与度を出力する寄与度出力部と、
を備えることを特徴とする情報処理装置。
A learning data storage unit that stores at least non-standard data in text format and standard data in non-text format related to a person,
A prediction model storage unit that stores a prediction model for predicting an evaluation for the person based on the atypical data and the atypical data,
A contribution degree output unit that extracts the contribution degree for each of the atypical data and the fixed form data from the prediction model, and outputs the extracted contribution degree,
An information processing apparatus comprising:
請求項6に記載の情報処理装置であって、
前記非定型データに含まれる単語について、前記予測モデルから前記評価に対する前記単語ごとの寄与度を抽出し、抽出した前記単語ごとの寄与度を出力する単語寄与度出力部をさらに備えること、
を特徴とする情報処理装置。
The information processing apparatus according to claim 6,
For a word included in the atypical data, further comprising a word contribution output unit that extracts the contribution of each word to the evaluation from the prediction model, and outputs the extracted contribution of each word,
An information processing device characterized by:
請求項7に記載の情報処理装置であって、
前記単語寄与度出力部は、前記評価を上げるように寄与する前記単語と、前記評価を下げるように寄与する前記単語とを分類して出力すること、
を特徴とする情報処理装置。
The information processing apparatus according to claim 7, wherein
The word contribution output unit classifies and outputs the word that contributes to increase the evaluation and the word that contributes to decrease the evaluation,
An information processing device characterized by:
コンピュータが、
人物に係る少なくともテキスト形式の非定型データとテキスト形式以外の定型データとを記憶するステップと、
前記人物に対する評価を記憶するステップと、
前記非定型データに含まれる単語に関する単語データを入力データとし前記評価を教師データとした機械学習により第1の予測モデルを作成するステップと、
前記第1の予測モデルに前記非定型データを与えて算出される計算値および前記定型データを入力データとし前記評価を教師データとした機械学習により第2の予測モデルを作成するステップと、
前記第2の予測モデルから前記非定型データおよび前記定型データごとの前記評価への寄与度を抽出するステップと、
抽出した前記寄与度を表示するステップと、
を実行する表示方法。
Computer
A step of storing at least text-type atypical data relating to a person and non-text-type atypical data;
Storing a rating for the person,
Creating a first prediction model by machine learning using word data relating to words included in the atypical data as input data and using the evaluation as teacher data;
Creating a second predictive model by machine learning using the calculated value obtained by giving the atypical data to the first predictive model and the standard data as input data, and using the evaluation as teacher data.
Extracting the contribution to the evaluation for each of the atypical data and the atypical data from the second prediction model,
Displaying the extracted contribution,
How to display.
請求項9に記載の表示方法であって、
前記コンピュータがさらに、
前記第1の予測モデルから前記評価に対する前記単語ごとの寄与度を抽出し、抽出した前記単語ごとの寄与度を表示するステップ
を実行することを特徴とする表示方法。
The display method according to claim 9,
The computer is further
A method of extracting the contribution of each word to the evaluation from the first prediction model, and displaying the extracted contribution of each word.
請求項9に記載の表示方法であって、
前記コンピュータは、畳み込みニューラルネットワークを用いて少なくとも前記第1の予測モデルを作成すること、
を特徴とする表示方法。
The display method according to claim 9,
The computer creates at least the first predictive model using a convolutional neural network;
Display method characterized by.
請求項11に記載の表示方法であって、
前記コンピュータがさらに、
前記畳み込みニューラルネットワークに対するクラスアクティベーションマッピングにより、前記第1の予測モデルから前記評価に対する前記単語ごとの寄与度を抽出し、抽出した前記単語ごとの寄与度を表示するステップ
を実行することを特徴とする情報処理装置。
The display method according to claim 11,
The computer is further
A step of extracting the contribution degree of each word to the evaluation from the first prediction model by class activation mapping for the convolutional neural network, and displaying the extracted contribution degree of each word. Information processing device.
請求項9ないし12のいずれか1項に記載の表示方法であって、
前記コンピュータがさらに、
評価対象者が作成した前記非定型データおよび前記定型データを取得するステップと、
前記非定型データ、前記定型データならびに前記第1および第2の予測モデルに基づいて前記評価対象者の前記評価を予測するステップと、
予測した前記評価を表示するステップと、
を実行することを特徴とする表示方法。
The display method according to any one of claims 9 to 12,
The computer is further
Acquiring the atypical data and the atypical data created by an evaluation subject,
Predicting the evaluation of the evaluation subject based on the atypical data, the typical data, and the first and second prediction models;
Displaying the predicted assessment,
Display method characterized by executing.
コンピュータが、
人物に係る少なくともテキスト形式の非定型データとテキスト形式以外の定型データとを記憶するステップと、
前記非定型データおよび前記定型データに基づいて前記人物に対する評価を予測するための予測モデルを記憶するステップと、
前記予測モデルから前記非定型データおよび前記定型データごとの寄与度を抽出し、抽出した前記寄与度を表示するステップと、
を実行することを特徴とする表示方法。
Computer
A step of storing at least text-type atypical data relating to a person and non-text-type atypical data;
Storing a prediction model for predicting an evaluation for the person based on the atypical data and the atypical data;
Extracting the contribution of each of the atypical data and the boilerplate data from the prediction model, and displaying the extracted contribution.
Display method characterized by executing.
請求項14に記載の表示方法であって、
前記コンピュータがさらに、
前記非定型データに含まれる単語について、前記予測モデルから前記評価に対する前記単語ごとの寄与度を抽出し、抽出した前記単語ごとの寄与度を出力するステップ
を実行することを特徴とする表示方法。
The display method according to claim 14, wherein
The computer is further
A display method comprising: performing a step of extracting a contribution degree of each word to the evaluation from the prediction model for a word included in the atypical data and outputting the extracted contribution degree of each word.
請求項15に記載の表示方法であって、
前記コンピュータは、前記評価を上げるように寄与する前記単語と、前記評価を下げるように寄与する前記単語とを分類して出力すること、
を特徴とする表示方法。
The display method according to claim 15, wherein
The computer classifies and outputs the word that contributes to increase the evaluation and the word that contributes to decrease the evaluation,
Display method characterized by.
コンピュータに、
人物に係る少なくともテキスト形式の非定型データとテキスト形式以外の定型データとを記憶するステップと、
前記人物に対する評価を記憶するステップと、
前記非定型データに含まれる単語に関する単語データを入力データとし前記評価を教師データとした機械学習により第1の予測モデルを作成するステップと、
前記第1の予測モデルに前記非定型データを与えて算出される計算値および前記定型データを入力データとし前記評価を教師データとした機械学習により第2の予測モデルを作成するステップと、
前記第2の予測モデルから前記非定型データおよび前記定型データごとの前記評価への寄与度を抽出するステップと、
抽出した前記寄与度を表示するステップと、
を実行させるためのプログラム。
On the computer,
A step of storing at least text-type atypical data relating to a person and non-text-type atypical data;
Storing a rating for the person,
Creating a first prediction model by machine learning using word data relating to words included in the atypical data as input data and the evaluation as teacher data;
Creating a second predictive model by machine learning using the calculated value obtained by giving the atypical data to the first predictive model and the standard data as input data, and using the evaluation as teacher data,
Extracting the contribution to the evaluation for each of the atypical data and the atypical data from the second prediction model,
Displaying the extracted contribution,
A program to execute.
請求項17に記載のプログラムであって、
前記コンピュータにさらに、
前記第1の予測モデルから前記評価に対する前記単語ごとの寄与度を抽出し、抽出した前記単語ごとの寄与度を表示するステップ
を実行させるためのプログラム。
The program according to claim 17,
Further on the computer,
A program for executing a step of extracting a contribution degree of each word to the evaluation from the first prediction model and displaying the extracted contribution degree of each word.
請求項17に記載のプログラムであって、
前記コンピュータに、畳み込みニューラルネットワークを用いて少なくとも前記第1の予測モデルを作成させること、
を特徴とするプログラム。
The program according to claim 17,
Causing the computer to create at least the first predictive model using a convolutional neural network;
A program characterized by.
請求項19に記載のプログラムであって、
前記コンピュータにさらに、
前記畳み込みニューラルネットワークに対するクラスアクティベーションマッピングにより、前記第1の予測モデルから前記評価に対する前記単語ごとの寄与度を抽出し、抽出した前記単語ごとの寄与度を表示するステップ
を実行させるためのプログラム。
The program according to claim 19,
Further on the computer,
A program for executing a step of extracting the contribution degree of each word to the evaluation from the first prediction model by class activation mapping for the convolutional neural network, and displaying the extracted contribution degree of each word.
請求項18ないし20のいずれか1項に記載のプログラムであって、
前記コンピュータにさらに、
評価対象者が作成した前記非定型データおよび前記定型データを取得するステップと、
前記非定型データ、前記定型データならびに前記第1および第2の予測モデルに基づいて前記評価対象者の前記評価を予測するステップと、
予測した前記評価を表示するステップと、
を実行させるためのプログラム。
The program according to any one of claims 18 to 20,
Further on the computer,
Acquiring the atypical data and the atypical data created by an evaluation subject,
Predicting the evaluation of the evaluation subject based on the atypical data, the typical data, and the first and second prediction models;
Displaying the predicted assessment,
A program to execute.
コンピュータに、
人物に係る少なくともテキスト形式の非定型データとテキスト形式以外の定型データとを記憶するステップと、
前記非定型データおよび前記定型データに基づいて前記人物に対する評価を予測するための予測モデルを記憶するステップと、
前記予測モデルから前記非定型データおよび前記定型データごとの寄与度を抽出し、抽出した前記寄与度を表示するステップと、
を実行させるためのプログラム。
On the computer,
A step of storing at least text-type atypical data relating to a person and non-text-type atypical data;
Storing a prediction model for predicting an evaluation for the person based on the atypical data and the atypical data;
Extracting the contribution of each of the atypical data and the boilerplate data from the prediction model, and displaying the extracted contribution.
A program to execute.
請求項22に記載のプログラムであって、
前記コンピュータにさらに、
前記非定型データに含まれる単語について、前記予測モデルから前記評価に対する前記単語ごとの寄与度を抽出し、抽出した前記単語ごとの寄与度を出力するステップ
を実行させるためのプログラム。
The program according to claim 22,
Further on the computer,
A program for executing a step of extracting, for words included in the atypical data, a contribution degree of each word to the evaluation from the prediction model and outputting the extracted contribution degree of each word.
請求項23に記載のプログラムであって、
前記コンピュータに、前記評価を上げるように寄与する前記単語と、前記評価を下げるように寄与する前記単語とを分類して出力させること、
を特徴とするプログラム。
The program according to claim 23,
Causing the computer to classify and output the words that contribute to increase the evaluation and the words that contribute to decrease the evaluation,
A program characterized by.
テキスト形式の非定型データで構成される、複数の単語を含む項目の、人物に対する評価への寄与度を出力する表示方法であって、
複数の項目の各項目について人物に対する評価への寄与度を表示し、
前記各項目に含まれる一または複数の単語の各々について、前記評価への寄与度を表示する、表示方法。
A display method for outputting the degree of contribution to an evaluation of a person of an item including a plurality of words, which is composed of non-standard data in a text format,
Display the contribution to the evaluation of the person for each of the multiple items,
A display method of displaying, for each of one or more words included in each item, the degree of contribution to the evaluation.
請求項25に記載の表示方法であって、
前記複数の項目のうち一の項目に対するユーザから選択要求を受付けて、
前記一の項目に含まれる一または複数の単語の各々について、前記評価への寄与度を表示する、表示方法。
The display method according to claim 25,
Accepting a selection request from the user for one of the plurality of items,
A display method of displaying, for each of one or more words included in the one item, the degree of contribution to the evaluation.
請求項25に記載の表示方法であって、
前記一の項目に含まれる複数の単語の各々について表示される寄与度は、前記複数の項目の各項目について表示される寄与度の内訳であることを特徴とする、表示方法。
The display method according to claim 25,
The display method, wherein the contribution degree displayed for each of the plurality of words included in the one item is a breakdown of the contribution degree displayed for each item of the plurality of items.
請求項25に記載の表示方法であって、
前記一の項目に含まれる単語のうち、所定の前記寄与度を有する単語を表示することを特徴とする、表示方法。
The display method according to claim 25,
Among the words included in the one item, a word having a predetermined contribution is displayed.
請求項25に記載の表示方法であって、
前記テキスト以外の定型データで構成される項目について人物に対する評価への寄与度を、前記複数の項目の各項目について人物に対する評価への寄与度とともに表示することを特徴とする、表示方法。
The display method according to claim 25,
A method of displaying, wherein the degree of contribution to an evaluation of a person for an item configured by standard data other than the text is displayed together with the degree of contribution to an evaluation of a person for each of the plurality of items.
JP2019005598A 2019-01-16 2019-01-16 Information processing device, display method, and program Active JP6733920B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019005598A JP6733920B2 (en) 2019-01-16 2019-01-16 Information processing device, display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019005598A JP6733920B2 (en) 2019-01-16 2019-01-16 Information processing device, display method, and program

Publications (2)

Publication Number Publication Date
JP2020113218A true JP2020113218A (en) 2020-07-27
JP6733920B2 JP6733920B2 (en) 2020-08-05

Family

ID=71667225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019005598A Active JP6733920B2 (en) 2019-01-16 2019-01-16 Information processing device, display method, and program

Country Status (1)

Country Link
JP (1) JP6733920B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6902302B1 (en) * 2020-11-11 2021-07-14 祐次 廣田 AI electronic work system where selfie face videos go to work
WO2022004726A1 (en) 2020-06-30 2022-01-06 凸版印刷株式会社 Evaluation device, learning device, prediction device, evaluation method, program, and computer-readable storage medium
KR20220100310A (en) * 2021-01-08 2022-07-15 서울대학교산학협력단 Error detection apparatus and method of motor
JP7217372B1 (en) 2022-03-09 2023-02-02 株式会社エクサウィザーズ LEARNING MODEL GENERATION METHOD, COMPUTER PROGRAM, AND INFORMATION PROCESSING DEVICE
JP2023060984A (en) * 2021-10-19 2023-05-01 セカンドサイトアナリティカ株式会社 Information processing device and information processing method
JP7507525B1 (en) 2023-09-29 2024-06-28 株式会社Value market Job application document recommendation system, job application document recommendation method and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016062322A (en) * 2014-09-18 2016-04-25 日本電気株式会社 Evaluation device, evaluation method, and evaluation system for evaluation target person
JP2018194881A (en) * 2017-05-12 2018-12-06 株式会社日立製作所 Document classification system and document classification method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016062322A (en) * 2014-09-18 2016-04-25 日本電気株式会社 Evaluation device, evaluation method, and evaluation system for evaluation target person
JP2018194881A (en) * 2017-05-12 2018-12-06 株式会社日立製作所 Document classification system and document classification method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
井上 達郎 他: "文書分類タスクにおけるディープラーニングの学習プロセス可視化手法の提案", 第10回データ工学と情報マネジメントに関するフォーラム (第16回日本データベース学会年次大会)[O, JPN6020004923, 6 March 2018 (2018-03-06), ISSN: 0004211015 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022004726A1 (en) 2020-06-30 2022-01-06 凸版印刷株式会社 Evaluation device, learning device, prediction device, evaluation method, program, and computer-readable storage medium
JP6902302B1 (en) * 2020-11-11 2021-07-14 祐次 廣田 AI electronic work system where selfie face videos go to work
JP2022077058A (en) * 2020-11-11 2022-05-23 祐次 廣田 Ai electronic work system for attendance with selfie face moving image
KR20220100310A (en) * 2021-01-08 2022-07-15 서울대학교산학협력단 Error detection apparatus and method of motor
KR102473124B1 (en) 2021-01-08 2022-11-30 서울대학교산학협력단 Error detection apparatus and method of motor
JP2023060984A (en) * 2021-10-19 2023-05-01 セカンドサイトアナリティカ株式会社 Information processing device and information processing method
JP7333368B2 (en) 2021-10-19 2023-08-24 セカンドサイトアナリティカ株式会社 Information processing device and information processing method
JP7217372B1 (en) 2022-03-09 2023-02-02 株式会社エクサウィザーズ LEARNING MODEL GENERATION METHOD, COMPUTER PROGRAM, AND INFORMATION PROCESSING DEVICE
JP2023131602A (en) * 2022-03-09 2023-09-22 株式会社エクサウィザーズ Method of generating learning model, computer program, and information processing apparatus
JP7507525B1 (en) 2023-09-29 2024-06-28 株式会社Value market Job application document recommendation system, job application document recommendation method and program

Also Published As

Publication number Publication date
JP6733920B2 (en) 2020-08-05

Similar Documents

Publication Publication Date Title
JP6733920B2 (en) Information processing device, display method, and program
JP5283288B2 (en) Document sentiment classification system and method based on sentence sequence
JP2017504883A (en) Model-driven candidate sorting based on audio cues
Menon et al. A novel approach to evaluate and rank candidates in a recruitment process by estimating emotional intelligence through social media data
WO2016125310A1 (en) Data analysis system, data analysis method, and data analysis program
Georgiou et al. Extracting sentiment from healthcare survey data: An evaluation of sentiment analysis tools
JP6488753B2 (en) Information processing method
US20170103335A1 (en) Success support system, information processing device, method, and program
JP7280705B2 (en) Machine learning device, program and machine learning method
Rhyn et al. A machine learning approach for classifying textual data in crowdsourcing
CN111091002B (en) Chinese named entity recognition method
Bitto et al. Sentiment analysis from Bangladeshi food delivery startup based on user reviews using machine learning and deep learning
JP2018147351A (en) Knowledge model construction system and knowledge model construction method
Addepalli et al. A proposed framework for measuring customer satisfaction and product recommendation for ecommerce
JP2020160551A (en) Analysis support device for personnel item, analysis support method, program, and recording medium
US11599580B2 (en) Method and system to extract domain concepts to create domain dictionaries and ontologies
Gajanayake et al. Candidate selection for the interview using github profile and user analysis for the position of software engineer
KR102449806B1 (en) Method, apparatus and system of providing feedback service for member evaluating based on artificial intelligence
Jikeli et al. Antisemitic messages? A guide to high-quality annotation and a labeled dataset of tweets
JP2020119087A (en) Document examination support method and document examination support device and computer program
Al-Abri et al. A scheme for extracting information from collaborative social interaction tools for personalized educational environments
Raut et al. Best-fit: best fit employee recommendation
JP7351502B2 (en) Variable data generation device, predictive model generation device, variable data production method, predictive model production method, program and recording medium
Wong et al. The Influence of Emotional Intelligence and Knowledge Management on Student Attitude toward Implementation of Digital Identification System
JP7079882B1 (en) Information processing methods, computer programs and information processing equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190419

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190419

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200702

R150 Certificate of patent or registration of utility model

Ref document number: 6733920

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250