JP6983145B2 - Data processing systems, methods, and programs - Google Patents
Data processing systems, methods, and programs Download PDFInfo
- Publication number
- JP6983145B2 JP6983145B2 JP2018232563A JP2018232563A JP6983145B2 JP 6983145 B2 JP6983145 B2 JP 6983145B2 JP 2018232563 A JP2018232563 A JP 2018232563A JP 2018232563 A JP2018232563 A JP 2018232563A JP 6983145 B2 JP6983145 B2 JP 6983145B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- person
- behavior
- action
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、人間の行動に関するデータを処理する技術に関する。 The present invention relates to a technique for processing data relating to human behavior.
少子高齢化が加速されることに伴う労働人口の減少が現実的な問題となってきている。企業などの組織では、生産性や競争力を維持し向上するために、継続的に人的リソースを確保し、かつ、その人的リソースを有効に活用することが求められる。 The decrease in the working population due to the declining birthrate and aging population has become a real problem. Organizations such as companies are required to continuously secure human resources and make effective use of those human resources in order to maintain and improve productivity and competitiveness.
それを実現するためにIT(Information Technology)技術の活用が期待される。そして一部の分野では有効な手法が実現されている。 It is expected that IT (Information Technology) technology will be utilized to realize this. And effective methods have been realized in some fields.
例えば、IT技術により人的リソースの一部の業務を軽減したり、代替したりすることが推進されている(特許文献1参照)。例えば、RPA(Robotic Process Automation)により人的リソースの業務を軽減したり、人的リソースの業務をRPAが代替して実行したりすることが期待できる。 For example, IT technology is being promoted to reduce or replace some of the work of human resources (see Patent Document 1). For example, it can be expected that RPA (Robotic Process Automation) will reduce the work of human resources, and that RPA will replace the work of human resources.
更に、様々な分野でIT技術により人自体の行動を分析し、その分析結果を利用することが望まれている。例えば、企業などの組織では、従業員の行動を分析し、分析結果を利用して従業員の能力を有効に活用できるようにすることが望まれる。具体的には、休職や離職の抑制、生産性の高い働き方、生産性を向上させる人材配置、などの実現が期待される。 Furthermore, it is desired to analyze the behavior of a person himself / herself by using IT technology in various fields and utilize the analysis result. For example, in an organization such as a company, it is desired to analyze the behavior of employees and utilize the analysis results so that the abilities of employees can be effectively utilized. Specifically, it is expected to realize measures such as curbing leave and turnover, highly productive work styles, and personnel allocation to improve productivity.
しかしながら、人の行動データにはノイズとなるデータが多く含まれており、またデータの多様性が高いため、有効な分析結果が得られない場合が多い。例えば、重回帰分析でノイズを特徴量としてとらえてしまうことがある。また機械学習ではノイズを過学習してしまうことがある。従業員の休職、離職、生産性の高低などには複数の要因が複雑に関連し合っているため、予測アルゴリズムの精度向上が困難である。 However, human behavior data contains a lot of noise data, and the diversity of the data is high, so that effective analysis results are often not obtained. For example, noise may be regarded as a feature in multiple regression analysis. In machine learning, noise may be over-learned. It is difficult to improve the accuracy of the prediction algorithm because multiple factors are intricately related to employee leave, turnover, and productivity.
本発明の目的は、人の行動を有効に分析する技術を提供することである。 An object of the present invention is to provide a technique for effectively analyzing human behavior.
本発明の1つの実施態様に従うデータ処理システムは、人の行動に関するデータを処理するデータ処理システムであって、人による所定の行動項目の行動を計測した計測値を蓄積した行動データを格納するデータ管理部と、行動項目毎に計測値に対応する色を定めた着色規則と、行動項目毎に前記着色規則で着色された領域を画像のどこに配置するかを定めた配置規則とを用いて、人毎に、所定期間の行動データに含まれる各行動項目の計測値に対応する色に着色した領域を配置した行動画像を生成する画像出力部と、人の行動画像と当該人の性質および/または状態を示す正解情報とを学習し、前記学習結果に基づいて、人の行動画像から当該人の性質および/または状態を推定する画像分析部と、を有する。 The data processing system according to one embodiment of the present invention is a data processing system that processes data related to human behavior, and stores behavior data accumulating measurement values obtained by measuring the behavior of a predetermined behavior item by a person. Using the management unit, a coloring rule that defines the color corresponding to the measured value for each action item, and an arrangement rule that defines where in the image the area colored by the coloring rule is placed for each action item, An image output unit that generates an action image in which an area colored in a color corresponding to the measured value of each action item included in the action data for a predetermined period is arranged for each person, a person's action image, the nature of the person, and / Alternatively, it has an image analysis unit that learns correct answer information indicating a state and estimates the property and / or state of the person from the behavior image of the person based on the learning result.
人的リソースの能力の有効活用を支援することができる。 It can support the effective utilization of the capacity of human resources.
以下、本発明の実施形態について図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、実施例1に係るデータ処理システムの構成例を示す図である。 FIG. 1 is a diagram showing a configuration example of a data processing system according to the first embodiment.
データ処理システム100は、人の行動に関するデータを処理するためのシステムである。データ処理システム100は、図1に示すように、データ管理部の一例である勤務管理装置101と、画像出力部の一例である画像出力装置201と、画像分析部の一例である画像分析装置301と、端末装置801とを備える。これらの装置101,201,301,801は、有線LAN(Local Area Network)及び/又は無線LAN等のネットワーク901に接続されており、互いにデータを送受信可能である。なお、これらの装置101,201,301,801は、それぞれ、図12に示す計算機装置であってもよい。また、これらの装置101,201,301の少なくとも2つが1つの計算機装置として構成されてもよい。
The
図2は、勤務管理装置101の構成例を示す図である。 FIG. 2 is a diagram showing a configuration example of the work management device 101.
図2に示すように、勤務管理装置101は、勤務日次取得処理部102を有する。勤務日次取得処理部102は、例えば、所定のDB(DataBase)等から、行動データの一例である勤務日次テーブル103を取得し、記憶装置(図12参照)に蓄積する。
As shown in FIG. 2, the work management device 101 has a work day
行動データは、人による所定の行動項目の行動を測定した計測値を蓄積したデータである。行動データの一例である勤務日次テーブル103において、行動項目の一例は「出勤時刻」であり、行動項目「出勤時刻」に対応する計測値の一例は社員が実際に出勤した時刻である。なお、勤務日次テーブル103の詳細については後述する(図5参照)。 Behavior data is data that accumulates measured values that measure the behavior of a predetermined behavior item by a person. In the work day table 103, which is an example of behavior data, an example of an action item is "commuting time", and an example of a measured value corresponding to the action item "commuting time" is the time when an employee actually goes to work. The details of the working day table 103 will be described later (see FIG. 5).
図3は、画像出力装置201の構成例を示す図である。
FIG. 3 is a diagram showing a configuration example of the
図3に示すように、画像出力装置201は、行動画像生成処理部202を有する。行動画像生成処理部202は、勤務日次テーブル103から、着色規則204と配置規則205とを含む画像生成規則206を用いて、人(社員)ごとに、行動画像203を生成する。
As shown in FIG. 3, the
着色規則204は、行動項目毎に計測値に対応する色を定めたものである。配置規則205は、行動項目毎に着色規則204で着色された領域(マス)を画像のどこに配置するかを定めたものである。なお、着色規則204及び配置規則205の詳細については後述する(図6参照)。
The
行動画像203は、所定期間の行動データに含まれる各行動項目の計測値に対応する色に着色した領域を配置したものである。なお、行動画像203の詳細については後述する(図8及び図9参照)。
The
図4は、画像分析装置301の構成例を示す図である。 FIG. 4 is a diagram showing a configuration example of the image analyzer 301.
図4に示すように、画像分析装置301は、画像入力処理部302、画像学習処理部303、画像分類処理部304、及び結果出力処理部305を有する。
As shown in FIG. 4, the image analysis device 301 has an image input processing unit 302, an image learning processing unit 303, an image
画像入力処理部302は、画像出力装置201によって生成された行動画像203の入力を受け付ける。
The image input processing unit 302 receives the input of the
画像学習処理部303は、大量の行動画像203を学習し、行動画像203を、画像的に共通の特徴を有する群に分類するための推定アルゴリズムを生成する。例えば、画像学習処理部303は、ディープラーニングによって大量の行動画像203を学習し、推定アルゴリズムに相当するニューラルネットワークのモデルを生成する。このように、画像化によってノイズが抑制されたディープラーニングにより、複雑な人の行動を精度よく分析できる。
The image learning processing unit 303 learns a large amount of
また、画像学習処理部303は、各群に対して、正解情報を対応付ける。例えば、管理者は、同じ群に属する行動画像203に対応する人々の性質及び/又は状態(つまり人の行動パターン)を示す正解情報を、その群に対応付ける。このように、人の行動のデータを画像化し、その画像を処理して、人の性質および/または状態を推定することにより、人の行動を有効に分析することができる。
Further, the image learning processing unit 303 associates correct answer information with each group. For example, the manager associates the group with correct information indicating the nature and / or state (that is, the behavior pattern of the person) of the people corresponding to the
画像分類処理部304は、画像学習処理部303によって生成された推定アルゴリズムを用いて、対象者の行動画像203を何れかの群に分類する。そして、画像分類処理部304は、その群に対応付けられている正解情報を、分類結果306として生成する。すなわち、画像分類処理部304は、推定アルゴリズムを用いて、対象者の行動パターンを推定する。このように、人の行動のデータを画像化して学習した推定アルゴリズムを用いて対象者の性質および/または状態を推定することにより、対象者の行動を有効に分析することができる。
The image
結果出力処理部305は、情報提示部の一例であり、画像分類処理部304によって生成された分類結果306から、表示データ307を生成し、表示装置(図12参照)に表示する。これにより、対象者の性質および/または状態やそれに対する活用施策を提示することができるので、人の能力の有効活用を支援することができる。
The result
また、結果出力処理部305は、対象者の行動画像203を表示装置に表示してもよい。これにより、管理者は対象者の性質および/または状態を行動画像203によって直感的に把握することができる。
Further, the result
図5は、勤務日次テーブル103の構成例を示す図である。 FIG. 5 is a diagram showing a configuration example of the working day table 103.
図5に示すように、勤務日次テーブル103は、データ項目として、社員IDと、年月日と、出勤時刻と、退勤時刻とを有する。例えば、図5の1行目は、「社員A」が、「2018/07/01」に、「08:25」に出勤し、「18:05」に退勤したことを示す。 As shown in FIG. 5, the work day table 103 has an employee ID, a date, a work time, and a leave time as data items. For example, the first line of FIG. 5 shows that "employee A" went to work at "08:25" at "2018/07/01" and left at "18:05".
図6は、着色規則204の構成例を示す図である。
FIG. 6 is a diagram showing a configuration example of the
着色規則204は、例えば、労働した時間に関連する行動項目については、同一の行動項目の領域は同一の色相とし、労働した時間が長くなるほど濃い色調となるように定める。このように着色規則204を定めることにより、労働の時間が長い従事者の勤務画像には色の濃い領域が現れるようになるので、直感的に従事者の労働時間の長短を把握することができる。
The
図6の上段のテーブルは、行動項目と、配色種別と、色相との対応関係を定める例である。 The upper table of FIG. 6 is an example of defining the correspondence relationship between the action item, the color scheme type, and the hue.
図6の上段のテーブルの1行目は、行動項目「始業時刻」に対して、配色種別「濃淡1」、色相「青」を用いることを定める。ここで、「濃淡1」は、図6の下段のテーブルの1行目に示すように、範囲「最小値〜10%未満」には濃淡「濃」を、範囲「10%以上〜60%未満」には濃淡「やや濃」を、範囲「60%以上〜90%未満」には濃淡「やや淡」を、範囲「90%以上〜最大値」には濃淡「淡」を用いることを定める。すなわち、この着色規則204に従えば、行動画像203において、行動項目「始業時刻」のマスは、時刻が早いほど濃い色調で着色される。
The first row of the table in the upper part of FIG. 6 stipulates that the color scheme type "
図6の上段のテーブルの2行目は、行動項目「終業時刻」に対して、配色種別「濃淡2」、色相「緑」を用いることを定める。ここで、「濃淡2」は、図6の下段のテーブルの2行目に示すように、範囲「最小値〜10%未満」には濃淡「淡」を、範囲「10%以上〜60%未満」には濃淡「やや淡」を、範囲「60%以上〜90%未満」には濃淡「やや濃」を、範囲「90%以上〜最大値」には濃淡「濃」を用いることを定める。すなわち、この着色規則204に従えば、行動画像203において、行動項目「就業時刻」のマスは、時刻が遅いほど濃い色調で着色される。
The second row of the table in the upper part of FIG. 6 stipulates that the color scheme type "
図6の上段のテーブルの4行目は、行動項目「健康管理時間」に対して、配色種別「色分け1」、色相「1:青、2:緑、3:黄、4:赤」を用いることを定める。ここで、「色分け1」は、図6の下段のテーブルの3行目に示すように、範囲「0以下」には色相「色1」を、範囲「0以上〜15未満」には色相「色2」を、範囲「15以上〜45未満」には色相「色3」を、範囲「45以上」には色相「色4」を用いることを定める。
In the fourth row of the upper table in FIG. 6, the color scheme type "
図7は、配置規則205の構成例を示す図である。
FIG. 7 is a diagram showing a configuration example of the
図7に示すように、配置規則205は、縦横に区切った複数のマス(領域)のそれぞれに日毎の行動項目を割り当てた情報である。例えば、図7に示すように、配置規則205は、縦方向と横方向のいずれかの方向に日付が並び他の方向に行動項目が並ぶように、複数のマスに日毎の行動項目を割り当てることを定める。配置規則205をこのように定めることにより、同じ項目の日付毎の計測値が縦または横に一列に並ぶので、行動の類似性が画像の特徴量に現れやすくなる。
As shown in FIG. 7, the
また、図6及び図7に示すように、着色規則204と配置規則205に従って行動項目の計測値に対応する色でマスを着色することにより、容易に行動画像203を生成することができる。
Further, as shown in FIGS. 6 and 7, the
図8は、行動画像データ213の一例を示す図である。 FIG. 8 is a diagram showing an example of behavior image data 213.
行動画像生成処理部202は、配置規則205に従って、図8に示すように、縦方向に日付を並べ、横方向に行動項目を並べて行動画像データ213を生成する。そして、行動画像生成処理部202は、図8に示すように、行動画像データ213における行動項目の値に対して、着色規則204に従う色相及び濃淡を対応付ける。例えば、行動画像生成処理部202は、「2018/04/02」の始業時刻「08:56」に対して、図6に示す着色規則204に従って、色相「青」及び濃淡「淡」を対応付ける。
As shown in FIG. 8, the action image
図9は、行動画像203の一例を示す図である。
FIG. 9 is a diagram showing an example of the
行動画像生成処理部202は、図8に示す行動画像データに基づいて、図9に示すように、行動画像203を生成する。例えば、図9に示す行動画像203のマスPは、図8に示す行動画像データの「2018/04/02」の始業時刻「08:56」に対応している。したがって、行動画像生成処理部202は、行動画像203のマスPを、淡青で着色する。行動画像生成処理部202は、終業時刻及び健康管理時間についても同様に、行動画像203における対応するマスを着色する。これにより、始業時刻、終業時刻、及び健康管理時間を行動画像203に反映させることができる。
The behavior image
画像学習処理部303は、このように着色された行動画像203に基づいて、画像的に共通の特徴を有する群に分類するための推定アルゴリズムを生成する。
The image learning processing unit 303 generates an estimation algorithm for classifying into groups having common features in the image based on the
例えば、図6の着色規則204に従う場合、毎日の出勤時刻及び退勤時刻が定時どおりである社員の行動画像203は、全体的に淡い色になる。このような勤務を行う社員は、例えば、管理業務に向いていると考えられる。そこで、画像的に共通の特徴として全体的に淡い色を有するA群に、管理業務に向いているという正解情報を対応付ける。この場合、画像分類処理部304は、A群に分類した行動画像203に対応する対象者を、管理業務に向いている可能性があると判定してよい。
For example, when the
例えば、図6の着色規則204に従う場合、毎日の出勤時刻が定時よりも早く、及び/又は、毎日の退勤時刻が定時よりも遅い社員の行動画像203は、全体的に濃い色になる。このような勤務を行う社員は、健康面のフォローを行う必要性が高いと考えられる。そこで、画像的に共通の特徴として全体的に濃い色を有するB群に、健康面のフォローを行う必要性有りという正解情報を対応付ける。この場合、画像分類処理部304は、B群に分類した行動画像203に対応する対象者を、健康面のフォローを行う必要性があると判定してよい。
For example, when the
なお、画像分類処理部304は、対象者の通常の行動画像203はA群に分類されているにもかかわらず、最近の行動画像203がB群に分類されるようになった場合に、健康面のフォローを行う必要性があると判定してもよい。
In addition, the image
また、画像分類処理部304は、B群に対してストレス耐性が高いという正解情報を対応付けて、画像分類処理部304においてB群に分類した行動画像203に対応する対象者を、ストレス耐性が高い可能性があると判定してもよい。
Further, the image
例えば、図6の着色規則204に従う場合、フレキシブルな勤務を行っている社員の行動画像203は、全体的にまだら模様(バラバラ)の色になる。このような勤務を行う社員は、例えば、定型業務よりも、特定のプロジェクトのスポット対応などに向いていると考えられる。そこで、画像的に共通の特徴として全体的にまだら模様を有するC群に、スポット対応に向いているという正解情報を対応付ける。この場合、画像分類処理部304は、C群に分類した行動画像203に対応する対象者を、スポット対応に向いている可能性があると判定してよい。
For example, when the
図10は、画像再学習処理の一例を示すフローチャートである。 FIG. 10 is a flowchart showing an example of the image re-learning process.
画像学習処理部303は、上述のとおり、大量の行動画像203から、推定アルゴリズムを生成する。しかし、推定アルゴリズムによる分類結果306が管理者の想定と大きく異なる場合や、新たな傾向を有する行動データが増えてきた場合などには、推定アルゴリズムを調整する必要性が生じる。そのような場合、図10に示す画像再学習処理を実行してよい。次に、図10に示す画像学習処理について説明する。
As described above, the image learning processing unit 303 generates an estimation algorithm from a large number of
まず、勤務日次取得処理部102は、勤務日次取得処理において、勤務日次テーブル103を取得する(S101)。
First, the working day
次に、行動画像生成処理部202は、行動画像生成処理において、勤務日次テーブル103から行動画像203を生成する(S102)。
Next, the behavior image
次に、画像学習処理部303は、画像学習処理において、大量の行動画像203に基づいて、推定アルゴリズムを生成する(S103)。
Next, the image learning processing unit 303 generates an estimation algorithm based on a large amount of
次に、画像分類処理部304は、画像分類処理において、推定アルゴリズムを用いて、行動画像203を何れかの群に分類する(S104)。
Next, the image
管理者は、S104の分類結果306の傾向が正しいか否かを判断する(S105)。
The manager determines whether or not the tendency of the
分類結果306の傾向が正しいと管理者が判断した場合(S105:YES)、フローは、本処理を終了する。
When the administrator determines that the tendency of the
分類結果306の傾向が正しくないと管理者が判断した場合(S105:NO)、次に、管理者は、何を調整するかを決定する(S106)。
When the manager determines that the tendency of the
管理者が画像生成規則206を調整すると決定した場合(S106:画像生成規則)、フローは、S102へ戻り、前回とは異なる行動生成規則を用いて、行動画像生成処理を行う。これにより、前回とは異なる行動画像203が生成される。
When the administrator decides to adjust the image generation rule 206 (S106: image generation rule), the flow returns to S102 and performs the action image generation process using the action generation rule different from the previous one. As a result, an
管理者が、学習データを調整すると決定した場合(S106:学習データ)、フローはS103へ戻り、前回とは異なる群及び推定アルゴリズムを生成する。これにより、行動画像203が前回とは異なる群に分類され得る。
If the administrator decides to adjust the training data (S106: training data), the flow returns to S103 and generates a different group and estimation algorithm from the previous time. As a result, the
図11は、表示データ307の表示例を示す図である。
FIG. 11 is a diagram showing a display example of the
結果出力処理部305は、分類結果306に基づいて表示データ307を生成し、図11に例示するように、その表示データ307を表示装置に表示する。
The result
例えば、健康のケアに関し、「ケアが必要」、「要注意」、「問題無し」の3つの群に分類する推定アルゴリズムを用いて、或る部署の各社員の2018年の3月の行動画像203を分類した結果、1人の社員の行動画像203が「ケアが必要」の群に分類され、2人の行動画像203が「要注意」の群に分類されたとする。この場合、結果出力処理部305は、図11に例示するように、3月予測結果として、1人の社員が「ケアが必要」であり、2人の社員が「要注意」であることを表示する。
For example, regarding health care, using an estimation algorithm that classifies into three groups, "care required", "caution required", and "no problem", the behavior image of each employee in a certain department in March 2018. As a result of classifying 203, it is assumed that the
これにより、部署の上司や人事部などは、社員の健康が悪化する前に、その社員をケアすることができる。 As a result, the boss of the department, the personnel department, etc. can take care of the employee before the health of the employee deteriorates.
図12は、本開示に係る装置のハードウェア構成の一例を示す図である。 FIG. 12 is a diagram showing an example of the hardware configuration of the apparatus according to the present disclosure.
図12に示すように、本開示に係る勤務管理装置101、画像出力装置201、画像分析装置301、及び端末装置801は、内部バス1001と、当該内部バス1001に接続されているプロセッサ1002、メインメモリ1003、記憶装置1004、通信装置1005、入力装置1006及び表示装置1007とを備える。
As shown in FIG. 12, the work management device 101, the
プロセッサ1002は、例えばCPU(Central Processing Unit)等である。メインメモリ1003は、例えばDRAM(Dynamic Random Access Memory)等である。記憶装置1004は、例えばSSD(Solid State Drive)又はHDD(Hard Disk Drive)等である。通信装置1005は、例えばEthernet(登録商標)ボード又は無線LANボード等である。入力装置1006は、例えばキーボード及びマウス等である。表示装置1007は、例えば液晶ディスプレイ等である。
The
上述した勤務管理装置101、画像出力装置201、及び画像分析装置301の機能は、プロセッサ1002が記憶装置1004及び/又はメインメモリ1003内のコンピュータプログラムを実行することにより、実現されてよい。
The functions of the work management device 101, the
なお、本実施例では、行動項目として、始業時刻、終業時刻、および健康管理時間に着目して簡略化した例を示した。しかしながら、これに限定されることはなく、行動に関する他の様々な項目を行動項目として用いてもよい。 In this embodiment, a simplified example is shown focusing on the start time, the end time, and the health management time as action items. However, the present invention is not limited to this, and various other items related to actions may be used as action items.
図13は、勤務管理装置101による情報収集について説明するための図である。図14は、行動データの一例を示す図である。 FIG. 13 is a diagram for explaining information collection by the work management device 101. FIG. 14 is a diagram showing an example of behavior data.
図13に示すように、勤務管理装置101は、各種DBから、各種情報統合装置を介して、行動データに関する各種情報を取得する。そして、勤務管理装置101は、その取得した各種情報から、図14に示すように、社員毎に、各日付における各種行動項目に対応する測定値が記入された行動データを生成し、記憶装置に格納する。図14に示すように、行動データには、上述した始業時刻、終業時刻、及び健康管理時間の他にも、休暇区分、深夜時間及び出張時間など、様々な勤務に関する測定値が含まれてよい。 As shown in FIG. 13, the work management device 101 acquires various information related to behavior data from various DBs via various information integration devices. Then, the work management device 101 generates behavior data in which the measured values corresponding to the various behavior items on each date are entered for each employee from the acquired various information, and stores the behavior data in the storage device, as shown in FIG. Store. As shown in FIG. 14, the behavioral data may include measurements related to various work hours such as vacation classification, midnight time and business trip time, in addition to the above-mentioned start time, end time, and health management time. ..
実施例1では、行動画像203において、全ての行動項目に同じサイズの領域を割り当てる例を示したが、それに限定されることはない。実施例2では、行動項目に優先度を付与し、行動画像203における各行動項目の領域を優先度に応じたサイズとする例を示す。
In the first embodiment, in the
図15は、優先度テーブルの一例を示す図である。図16は、実施例2に係る行動画像403の一例を示す模式図である。 FIG. 15 is a diagram showing an example of a priority table. FIG. 16 is a schematic diagram showing an example of the behavior image 403 according to the second embodiment.
優先度テーブル401は、行動項目に対して、優先度を設定するためのテーブルである。図15に例示する優先度テーブル401は、始業時刻及び終業時刻に対して優先度が最も高い「1」を設定し、健康管理時間に対して優先度が最も低い「3」を設定する。この場合、行動画像生成処理部202は、行動画像403の生成において、図16に示すように、始業時刻及び終業時刻の優先度は比較的高いので、始業時刻及び終業時刻に対応するマスのサイズを大きくし、健康管理時間の優先度は比較的低いので、健康管理時間に対応するマスのサイズを小さくする。
The priority table 401 is a table for setting priorities for action items. In the priority table 401 illustrated in FIG. 15, the highest priority "1" is set for the start time and the end time, and the lowest priority "3" is set for the health management time. In this case, the action image
これにより、優先度の高い行動項目のマスほどサイズが大きくなるので、行動画像403の特徴を分析する際に、優先度の高いマスの影響力が大きくなる。すなわち、優先度の高い行動項目を大きい領域に割り当てることにより、優先度を考慮した分析を可能にする行動画像403を生成することができる。また、優先度テーブル401によって、各行動項目に対して優先度を設定することにより、抽出される特徴群を調整することができる。 As a result, the size of the square of the action item with higher priority becomes larger, so that the influence of the square with higher priority becomes larger when analyzing the characteristics of the action image 403. That is, by allocating a high-priority action item to a large area, it is possible to generate an action image 403 that enables analysis in consideration of the priority. Further, by setting the priority for each action item by the priority table 401, the extracted feature group can be adjusted.
上述した各実施例は、本発明の説明のための例示であり、本発明の範囲をそれらの実施例にのみ限定する趣旨ではない。当業者は、本発明の範囲を逸脱することなしに、他の様々な態様で本発明を実施することができる。 Each of the above-described examples is an example for the purpose of explaining the present invention, and the scope of the present invention is not limited to those examples. One of ordinary skill in the art can practice the invention in various other embodiments without departing from the scope of the invention.
100…データ処理システム 101…勤務管理装置 102…勤務日次取得処理部 201…画像出力装置 202…行動画像生成処理部 301…画像分析装置 302…画像入力処理部 303…画像学習処理部 304…画像分類処理部 305…結果出力処理部
100 ... Data processing system 101 ...
Claims (11)
人による所定の行動項目の行動を計測した計測値を蓄積した行動データを格納するデータ管理部と、
行動項目毎に計測値に対応する色を定めた着色規則と、行動項目毎に前記着色規則で着色された領域を画像のどこに配置するかを定めた配置規則とを用いて、人毎に、所定期間の行動データに含まれる各行動項目の計測値に対応する色に着色した領域を配置した行動画像を生成する画像出力部と、
人の行動画像と当該人の性質および/または状態を示す正解情報とを学習し、学習結果に基づいて、人の行動画像から当該人の性質および/または状態を推定する画像分析部と、
を有するデータ処理システム。 A data processing system that processes data related to human behavior.
A data management unit that stores behavior data that accumulates measured values that measure the behavior of a given action item by a person, and
For each person, using a coloring rule that defines the color corresponding to the measured value for each action item and an arrangement rule that defines where in the image the area colored by the coloring rule is placed for each action item. An image output unit that generates an action image in which areas colored in colors corresponding to the measured values of each action item included in the action data for a predetermined period are arranged, and an image output unit.
An image analysis unit that learns a person's behavior image and correct answer information indicating the person's property and / or state, and estimates the person's property and / or state from the person's behavior image based on the learning result.
Data processing system with.
請求項1に記載のデータ処理システム。 The image analysis unit is for estimating the nature and / or state of the person based on the behavior image of the person by learning the behavior image of the person and the correct answer information indicating the nature and / or state of the person. An estimation algorithm is generated, and the nature and / or state of the subject is estimated from the behavior image of the subject based on the estimation algorithm.
The data processing system according to claim 1.
前記画像出力部は、人の所定期間のデータに基づいて、それぞれのマスを該マスに割り当てられた行動項目の計測値に対応する色で着色した行動画像を生成する、
請求項1に記載のデータ処理システム。 The arrangement rule is information in which daily action items are assigned to each of a plurality of cells divided vertically and horizontally.
The image output unit generates an action image in which each cell is colored with a color corresponding to the measured value of the action item assigned to the cell based on the data of a person for a predetermined period.
The data processing system according to claim 1.
請求項1に記載のデータ処理システム。 The coloring rule stipulates that for action items related to working hours, the areas of the same action item have the same hue, and the longer the working hours, the darker the color tone.
The data processing system according to claim 1.
請求項3に記載のデータ処理システム。 The arrangement rule assigns daily action items to the plurality of cells so that the dates are arranged in either the vertical direction or the horizontal direction and the action items are arranged in the other direction.
The data processing system according to claim 3.
前記画像出力部は、行動項目の領域を優先度に応じた大きさとする、
請求項1に記載のデータ処理システム。 Action items have priority,
The image output unit sets the area of the action item to the size according to the priority.
The data processing system according to claim 1.
請求項1に記載のデータ処理システム。 It also has an information presentation unit that displays information about the nature and / or condition of the subject.
The data processing system according to claim 1.
請求項7に記載のデータ処理システム。 The information presentation unit further displays the behavior image of the subject.
The data processing system according to claim 7.
請求項1に記載のデータ処理システム。 The learning is deep learning,
The data processing system according to claim 1.
人による所定の行動項目の行動を計測した計測値を蓄積した行動データを格納し、
行動項目毎に計測値に対応する色を定めた着色規則と、行動項目毎に前記着色規則で着色された領域を画像のどこに配置するかを定めた配置規則とを用いて、人毎に、所定期間の行動データに含まれる各行動項目の計測値に対応する色に着色した領域を配置した行動画像を生成し、
人の行動画像と当該人の性質および/または状態を示す正解情報とを学習し、学習結果に基づいて、人の行動画像から当該人の性質および/または状態を推定する、
ことをコンピュータが実行するデータ処理方法。 It is a data processing method for a computer device to process data related to human behavior.
Stores behavior data that accumulates measured values that measure the behavior of a given action item by a person,
For each person, using a coloring rule that defines the color corresponding to the measured value for each action item and an arrangement rule that defines where in the image the area colored by the coloring rule is placed for each action item. Generates an action image in which areas colored in colors corresponding to the measured values of each action item included in the action data for a predetermined period are arranged.
Learning a person's behavior image and correct information indicating the person's nature and / or state, and estimating the person's nature and / or state from the person's behavior image based on the learning result.
The data processing method that the computer does.
人による所定の行動項目の行動を計測した計測値を蓄積した行動データを格納し、
行動項目毎に計測値に対応する色を定めた着色規則と、行動項目毎に前記着色規則で着色された領域を画像のどこに配置するかを定めた配置規則とを用いて、人毎に、所定期間の行動データに含まれる各行動項目の計測値に対応する色に着色した領域を配置した行動画像を生成し、
人の行動画像と当該人の性質および/または状態を示す正解情報とを学習し、学習結果に基づいて、人の行動画像から当該人の性質および/または状態を推定する、
ことをコンピュータに実行させるためのデータ処理プログラム。 A data processing program for processing data related to human behavior.
Stores behavior data that accumulates measured values that measure the behavior of a given action item by a person,
For each person, using a coloring rule that defines the color corresponding to the measured value for each action item and an arrangement rule that defines where in the image the area colored by the coloring rule is placed for each action item. Generates an action image in which areas colored in colors corresponding to the measured values of each action item included in the action data for a predetermined period are arranged.
Learning a person's behavior image and correct information indicating the person's nature and / or state, and estimating the person's nature and / or state from the person's behavior image based on the learning result.
A data processing program that lets a computer do things.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018232563A JP6983145B2 (en) | 2018-12-12 | 2018-12-12 | Data processing systems, methods, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018232563A JP6983145B2 (en) | 2018-12-12 | 2018-12-12 | Data processing systems, methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020095448A JP2020095448A (en) | 2020-06-18 |
JP6983145B2 true JP6983145B2 (en) | 2021-12-17 |
Family
ID=71086419
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018232563A Active JP6983145B2 (en) | 2018-12-12 | 2018-12-12 | Data processing systems, methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6983145B2 (en) |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3182112B2 (en) * | 1997-04-28 | 2001-07-03 | 東京電力株式会社 | Building exterior color determination support system |
JP3747056B2 (en) * | 2002-12-13 | 2006-02-22 | 小糸工業株式会社 | Road surface condition determination device |
US7671868B2 (en) * | 2007-02-26 | 2010-03-02 | General Electric Company | Method and apparatus to provide visual cues indicative of the level of severity or importance |
JP6105825B1 (en) * | 2015-07-16 | 2017-03-29 | 日本電気株式会社 | Data analysis apparatus, data analysis method, and data analysis program |
JP5969685B1 (en) * | 2015-12-15 | 2016-08-17 | ウエノテックス株式会社 | Waste sorting system and sorting method |
JP6656759B2 (en) * | 2016-03-25 | 2020-03-04 | 東芝情報システム株式会社 | Health management system and health management program |
JP2017182531A (en) * | 2016-03-31 | 2017-10-05 | 大日本印刷株式会社 | Information processor, information processing method, and program |
US10692257B2 (en) * | 2016-10-28 | 2020-06-23 | Nec Corporation | Process management apparatus, process management method, and storage medium |
JP6911498B2 (en) * | 2017-05-01 | 2021-07-28 | オムロン株式会社 | Learning devices, learning methods, and learning programs |
US11341774B2 (en) * | 2018-03-27 | 2022-05-24 | Nec Corporation | Information processing apparatus, data generation method, and non-transitory computer readable medium storing program |
-
2018
- 2018-12-12 JP JP2018232563A patent/JP6983145B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020095448A (en) | 2020-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106548357B (en) | Client satisfaction evaluation method and system | |
Blandin et al. | Uncertainty and management's search for information | |
Deif | Dynamic analysis of a lean cell under uncertainty | |
Basol et al. | Structural determinants of organizational effectiveness | |
WO2017071369A1 (en) | Method and device for predicting user unsubscription | |
Azadeh et al. | An integrated algorithm for performance optimization of neurosurgical ICUs | |
JP2019197252A (en) | Vacancy rate estimation device, method and computer program | |
Kacar et al. | A comparison of multiple linear regression approaches for fitting clearing functions to empirical data | |
Choudhari et al. | Simulation modeling for manpower planning in electrical maintenance service facility | |
JP6478267B2 (en) | Organization improvement activity support device, organization improvement activity support method, and organization improvement activity support program | |
CN106713267A (en) | Network security assessment method and system | |
Duckworth et al. | Inferring work task Automatability from AI expert evidence | |
Kadri et al. | A multivariate time series approach to forecasting daily attendances at hospital emergency department | |
JP6983145B2 (en) | Data processing systems, methods, and programs | |
Abo-Hamad et al. | Multi-criteria framework for emergency department in Irish hospital | |
Talukdar | Employee Engagement& Industrial Relations Climate in a Large Public Sector Organization | |
US20230177443A1 (en) | Systems and methods for automated modeling of processes | |
US20070226039A1 (en) | System and method for assessing segmentation strategies | |
CN113344392A (en) | Enterprise project comprehensive management method and system | |
Würbach et al. | Sample Weights and Nonresponse: The early childhood cohort of the National Educational Panel Study (Wave 1 to 3) | |
Wang et al. | Efficiency assessment and resource allocation for hospitals by data envelopment analysis | |
Chluski | The impact of information technology and knowledge-oriented management on the operational effectiveness in Polish hospitals | |
Teljeur et al. | Using scan statistics for congenital anomalies surveillance: the EUROCAT methodology | |
JP2020047079A (en) | Learning program, learning method and learning device | |
Aouhassi et al. | Information System Quality: Managers Perspective |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211029 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211122 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6983145 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |