JP2020095448A - Data processing system, method and program - Google Patents
Data processing system, method and program Download PDFInfo
- Publication number
- JP2020095448A JP2020095448A JP2018232563A JP2018232563A JP2020095448A JP 2020095448 A JP2020095448 A JP 2020095448A JP 2018232563 A JP2018232563 A JP 2018232563A JP 2018232563 A JP2018232563 A JP 2018232563A JP 2020095448 A JP2020095448 A JP 2020095448A
- Authority
- JP
- Japan
- Prior art keywords
- action
- image
- person
- data
- data processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 15
- 230000009471 action Effects 0.000 claims abstract description 154
- 238000010191 image analysis Methods 0.000 claims abstract description 12
- 238000013523 data management Methods 0.000 claims abstract description 3
- 230000006399 behavior Effects 0.000 claims description 36
- 238000004040 coloring Methods 0.000 claims description 26
- 238000005259 measurement Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 9
- 239000003086 colorant Substances 0.000 claims description 5
- 238000013135 deep learning Methods 0.000 claims description 3
- 238000003672 processing method Methods 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 19
- 238000007726 management method Methods 0.000 description 18
- 230000036541 health Effects 0.000 description 13
- 230000002354 daily effect Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 230000003542 behavioural effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000003203 everyday effect Effects 0.000 description 2
- 230000035882 stress Effects 0.000 description 2
- 230000032683 aging Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000004801 process automation Methods 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、人間の行動に関するデータを処理する技術に関する。 The present invention relates to a technique for processing data regarding human behavior.
少子高齢化が加速されることに伴う労働人口の減少が現実的な問題となってきている。企業などの組織では、生産性や競争力を維持し向上するために、継続的に人的リソースを確保し、かつ、その人的リソースを有効に活用することが求められる。 The decrease in the working population accompanying the declining birthrate and aging population has become a real problem. Organizations such as companies are required to continuously secure human resources and effectively utilize the human resources in order to maintain and improve productivity and competitiveness.
それを実現するためにIT(Information Technology)技術の活用が期待される。そして一部の分野では有効な手法が実現されている。 In order to realize it, it is expected to utilize IT (Information Technology) technology. And effective techniques have been realized in some fields.
例えば、IT技術により人的リソースの一部の業務を軽減したり、代替したりすることが推進されている(特許文献1参照)。例えば、RPA(Robotic Process Automation)により人的リソースの業務を軽減したり、人的リソースの業務をRPAが代替して実行したりすることが期待できる。 For example, IT technology has been promoted to reduce or substitute a part of the work of human resources (see Patent Document 1). For example, it can be expected that the work of human resources is reduced by RPA (Robotic Process Automation) or that the work of human resources is performed by the RPA instead.
更に、様々な分野でIT技術により人自体の行動を分析し、その分析結果を利用することが望まれている。例えば、企業などの組織では、従業員の行動を分析し、分析結果を利用して従業員の能力を有効に活用できるようにすることが望まれる。具体的には、休職や離職の抑制、生産性の高い働き方、生産性を向上させる人材配置、などの実現が期待される。 Furthermore, it is desired to analyze the behavior of a person by IT technology in various fields and use the analysis result. For example, in an organization such as a company, it is desired that the behavior of the employee be analyzed and the analysis result be used so that the ability of the employee can be effectively utilized. Specifically, it is expected that employees will be able to control leave and leave, work with high productivity, and allocate human resources to improve productivity.
しかしながら、人の行動データにはノイズとなるデータが多く含まれており、またデータの多様性が高いため、有効な分析結果が得られない場合が多い。例えば、重回帰分析でノイズを特徴量としてとらえてしまうことがある。また機械学習ではノイズを過学習してしまうことがある。従業員の休職、離職、生産性の高低などには複数の要因が複雑に関連し合っているため、予測アルゴリズムの精度向上が困難である。 However, since human behavior data contains a lot of noise data and the data is highly diverse, it is often the case that an effective analysis result cannot be obtained. For example, noise may be caught as a feature amount in multiple regression analysis. Also, in machine learning, noise may be overlearned. It is difficult to improve the accuracy of the prediction algorithm because a number of factors are complicatedly related to employee leave, employee turnover, high productivity, and so on.
本発明の目的は、人の行動を有効に分析する技術を提供することである。 An object of the present invention is to provide a technique for effectively analyzing human behavior.
本発明の1つの実施態様に従うデータ処理システムは、人の行動に関するデータを処理するデータ処理システムであって、人による所定の行動項目の行動を計測した計測値を蓄積した行動データを格納するデータ管理部と、行動項目毎に計測値に対応する色を定めた着色規則と、行動項目毎に前記着色規則で着色された領域を画像のどこに配置するかを定めた配置規則とを用いて、人毎に、所定期間の行動データに含まれる各行動項目の計測値に対応する色に着色した領域を配置した行動画像を生成する画像出力部と、人の行動画像と当該人の性質および/または状態を示す正解情報とを学習し、前記学習結果に基づいて、人の行動画像から当該人の性質および/または状態を推定する画像分析部と、を有する。 A data processing system according to one embodiment of the present invention is a data processing system for processing data relating to a person's action, and is data for storing action data accumulating measurement values obtained by measuring actions of a predetermined action item by a person. Using a management unit, a coloring rule that defines a color corresponding to the measurement value for each action item, and an arrangement rule that determines where in the image the region colored by the coloring rule for each action item is arranged, An image output unit that generates an action image in which an area colored in a color corresponding to the measurement value of each action item included in the action data for a predetermined period is arranged for each person, the action image of the person, the property of the person, and Alternatively, the image analysis unit that learns correct answer information indicating a state and estimates the property and/or state of the person from the action image of the person based on the learning result.
人的リソースの能力の有効活用を支援することができる。 It is possible to support the effective use of the ability of human resources.
以下、本発明の実施形態について図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、実施例1に係るデータ処理システムの構成例を示す図である。 FIG. 1 is a diagram illustrating a configuration example of the data processing system according to the first embodiment.
データ処理システム100は、人の行動に関するデータを処理するためのシステムである。データ処理システム100は、図1に示すように、データ管理部の一例である勤務管理装置101と、画像出力部の一例である画像出力装置201と、画像分析部の一例である画像分析装置301と、端末装置801とを備える。これらの装置101,201,301,801は、有線LAN(Local Area Network)及び/又は無線LAN等のネットワーク901に接続されており、互いにデータを送受信可能である。なお、これらの装置101,201,301,801は、それぞれ、図12に示す計算機装置であってもよい。また、これらの装置101,201,301の少なくとも2つが1つの計算機装置として構成されてもよい。 The data processing system 100 is a system for processing data related to human behavior. As shown in FIG. 1, the data processing system 100 includes a work management apparatus 101 that is an example of a data management unit, an image output apparatus 201 that is an example of an image output section, and an image analysis apparatus 301 that is an example of an image analysis section. And a terminal device 801. These devices 101, 201, 301, 801 are connected to a network 901 such as a wired LAN (Local Area Network) and/or a wireless LAN, and can send and receive data to and from each other. Each of these devices 101, 201, 301 and 801 may be the computer device shown in FIG. Further, at least two of these devices 101, 201, 301 may be configured as one computer device.
図2は、勤務管理装置101の構成例を示す図である。 FIG. 2 is a diagram showing a configuration example of the work management apparatus 101.
図2に示すように、勤務管理装置101は、勤務日次取得処理部102を有する。勤務日次取得処理部102は、例えば、所定のDB(DataBase)等から、行動データの一例である勤務日次テーブル103を取得し、記憶装置(図12参照)に蓄積する。 As illustrated in FIG. 2, the work management apparatus 101 includes a work day acquisition processing unit 102. The work day acquisition processing unit 102 acquires, for example, a work day table 103, which is an example of behavior data, from a predetermined DB (DataBase) and stores the work day table 103 in a storage device (see FIG. 12 ).
行動データは、人による所定の行動項目の行動を測定した計測値を蓄積したデータである。行動データの一例である勤務日次テーブル103において、行動項目の一例は「出勤時刻」であり、行動項目「出勤時刻」に対応する計測値の一例は社員が実際に出勤した時刻である。なお、勤務日次テーブル103の詳細については後述する(図5参照)。 The action data is data in which measurement values obtained by measuring actions of a predetermined action item by a person are accumulated. In the work daily table 103, which is an example of action data, an example of an action item is “attendance time”, and an example of a measured value corresponding to the action item “attendance time” is a time at which an employee actually goes to work. The details of the work day table 103 will be described later (see FIG. 5).
図3は、画像出力装置201の構成例を示す図である。 FIG. 3 is a diagram showing a configuration example of the image output device 201.
図3に示すように、画像出力装置201は、行動画像生成処理部202を有する。行動画像生成処理部202は、勤務日次テーブル103から、着色規則204と配置規則205とを含む画像生成規則206を用いて、人(社員)ごとに、行動画像203を生成する。 As shown in FIG. 3, the image output device 201 includes an action image generation processing unit 202. The action image generation processing unit 202 generates an action image 203 for each person (employee) from the work daily table 103 using an image generation rule 206 including a coloring rule 204 and an arrangement rule 205.
着色規則204は、行動項目毎に計測値に対応する色を定めたものである。配置規則205は、行動項目毎に着色規則204で着色された領域(マス)を画像のどこに配置するかを定めたものである。なお、着色規則204及び配置規則205の詳細については後述する(図6参照)。 The coloring rule 204 defines a color corresponding to a measured value for each action item. The arrangement rule 205 defines for each action item where in the image the area (mass) colored by the coloring rule 204 is to be arranged. The details of the coloring rule 204 and the arrangement rule 205 will be described later (see FIG. 6).
行動画像203は、所定期間の行動データに含まれる各行動項目の計測値に対応する色に着色した領域を配置したものである。なお、行動画像203の詳細については後述する(図8及び図9参照)。 The action image 203 is an arrangement of areas colored in colors corresponding to the measured values of each action item included in the action data of a predetermined period. The details of the action image 203 will be described later (see FIGS. 8 and 9).
図4は、画像分析装置301の構成例を示す図である。 FIG. 4 is a diagram showing a configuration example of the image analysis device 301.
図4に示すように、画像分析装置301は、画像入力処理部302、画像学習処理部303、画像分類処理部304、及び結果出力処理部305を有する。 As shown in FIG. 4, the image analysis device 301 includes an image input processing unit 302, an image learning processing unit 303, an image classification processing unit 304, and a result output processing unit 305.
画像入力処理部302は、画像出力装置201によって生成された行動画像203の入力を受け付ける。 The image input processing unit 302 receives an input of the action image 203 generated by the image output device 201.
画像学習処理部303は、大量の行動画像203を学習し、行動画像203を、画像的に共通の特徴を有する群に分類するための推定アルゴリズムを生成する。例えば、画像学習処理部303は、ディープラーニングによって大量の行動画像203を学習し、推定アルゴリズムに相当するニューラルネットワークのモデルを生成する。このように、画像化によってノイズが抑制されたディープラーニングにより、複雑な人の行動を精度よく分析できる。 The image learning processing unit 303 learns a large number of action images 203 and generates an estimation algorithm for classifying the action images 203 into groups having image-wise common features. For example, the image learning processing unit 303 learns a large amount of action images 203 by deep learning and generates a neural network model corresponding to an estimation algorithm. As described above, the deep learning in which the noise is suppressed by the imaging makes it possible to accurately analyze the complex human behavior.
また、画像学習処理部303は、各群に対して、正解情報を対応付ける。例えば、管理者は、同じ群に属する行動画像203に対応する人々の性質及び/又は状態(つまり人の行動パターン)を示す正解情報を、その群に対応付ける。このように、人の行動のデータを画像化し、その画像を処理して、人の性質および/または状態を推定することにより、人の行動を有効に分析することができる。 Further, the image learning processing unit 303 associates each group with correct answer information. For example, the administrator associates the correct answer information indicating the nature and/or state of the people (that is, the person's action pattern) corresponding to the action image 203 belonging to the same group with the group. In this way, the behavior of a person can be effectively analyzed by imaging the data of the behavior of the person and processing the image to estimate the nature and/or state of the person.
画像分類処理部304は、画像学習処理部303によって生成された推定アルゴリズムを用いて、対象者の行動画像203を何れかの群に分類する。そして、画像分類処理部304は、その群に対応付けられている正解情報を、分類結果306として生成する。すなわち、画像分類処理部304は、推定アルゴリズムを用いて、対象者の行動パターンを推定する。このように、人の行動のデータを画像化して学習した推定アルゴリズムを用いて対象者の性質および/または状態を推定することにより、対象者の行動を有効に分析することができる。 The image classification processing unit 304 uses the estimation algorithm generated by the image learning processing unit 303 to classify the behavior image 203 of the subject into any of the groups. Then, the image classification processing unit 304 generates the correct answer information associated with the group as the classification result 306. That is, the image classification processing unit 304 estimates the behavior pattern of the target person using the estimation algorithm. In this way, the behavior of the target person can be effectively analyzed by estimating the property and/or state of the target person by using the estimation algorithm learned by imaging the data of the human behavior.
結果出力処理部305は、情報提示部の一例であり、画像分類処理部304によって生成された分類結果306から、表示データ307を生成し、表示装置(図12参照)に表示する。これにより、対象者の性質および/または状態やそれに対する活用施策を提示することができるので、人の能力の有効活用を支援することができる。 The result output processing unit 305 is an example of an information presenting unit, and generates display data 307 from the classification result 306 generated by the image classification processing unit 304 and displays it on the display device (see FIG. 12). As a result, it is possible to present the nature and/or condition of the target person and the utilization policy for it, so that it is possible to support the effective utilization of human ability.
また、結果出力処理部305は、対象者の行動画像203を表示装置に表示してもよい。これにより、管理者は対象者の性質および/または状態を行動画像203によって直感的に把握することができる。 Further, the result output processing unit 305 may display the behavior image 203 of the subject on the display device. This allows the administrator to intuitively understand the nature and/or state of the target person from the action image 203.
図5は、勤務日次テーブル103の構成例を示す図である。 FIG. 5 is a diagram showing a configuration example of the work day table 103.
図5に示すように、勤務日次テーブル103は、データ項目として、社員IDと、年月日と、出勤時刻と、退勤時刻とを有する。例えば、図5の1行目は、「社員A」が、「2018/07/01」に、「08:25」に出勤し、「18:05」に退勤したことを示す。 As shown in FIG. 5, the work day table 103 has, as data items, an employee ID, a date, an attendance time, and a departure time. For example, the first line in FIG. 5 indicates that “employee A” has attended “2018/07/01”, “08:25”, and retired at “18:05”.
図6は、着色規則204の構成例を示す図である。 FIG. 6 is a diagram showing a configuration example of the coloring rule 204.
着色規則204は、例えば、労働した時間に関連する行動項目については、同一の行動項目の領域は同一の色相とし、労働した時間が長くなるほど濃い色調となるように定める。このように着色規則204を定めることにより、労働の時間が長い従事者の勤務画像には色の濃い領域が現れるようになるので、直感的に従事者の労働時間の長短を把握することができる。 The coloring rule 204 defines, for example, as for action items related to working hours, areas of the same action items have the same hue, and the darker the color tone becomes as the working time becomes longer. By defining the coloring rule 204 in this way, a dark area appears in the work image of the worker who spends a lot of time working, so that the length of the working time of the worker can be intuitively grasped. ..
図6の上段のテーブルは、行動項目と、配色種別と、色相との対応関係を定める例である。 The table in the upper part of FIG. 6 is an example in which a correspondence relationship among action items, color arrangement types, and hues is determined.
図6の上段のテーブルの1行目は、行動項目「始業時刻」に対して、配色種別「濃淡1」、色相「青」を用いることを定める。ここで、「濃淡1」は、図6の下段のテーブルの1行目に示すように、範囲「最小値〜10%未満」には濃淡「濃」を、範囲「10%以上〜60%未満」には濃淡「やや濃」を、範囲「60%以上〜90%未満」には濃淡「やや淡」を、範囲「90%以上〜最大値」には濃淡「淡」を用いることを定める。すなわち、この着色規則204に従えば、行動画像203において、行動項目「始業時刻」のマスは、時刻が早いほど濃い色調で着色される。 The first row of the table in the upper part of FIG. 6 defines that the color arrangement type “shade 1” and the hue “blue” are used for the action item “start time”. Here, as shown in the first row of the table in the lower part of FIG. 6, “shading 1” is the shading “dark” in the range “minimum value to less than 10%” and the range “10% or more to less than 60%. It is defined that the light and shade "slightly dark" is used for "", the light and shade "slightly light" is used for the range "60% or more and less than 90%", and the light and light "light" is used for the range "90% or more to maximum value". That is, according to the coloring rule 204, in the action image 203, the square of the action item “starting time” is colored with a darker color as the time is earlier.
図6の上段のテーブルの2行目は、行動項目「終業時刻」に対して、配色種別「濃淡2」、色相「緑」を用いることを定める。ここで、「濃淡2」は、図6の下段のテーブルの2行目に示すように、範囲「最小値〜10%未満」には濃淡「淡」を、範囲「10%以上〜60%未満」には濃淡「やや淡」を、範囲「60%以上〜90%未満」には濃淡「やや濃」を、範囲「90%以上〜最大値」には濃淡「濃」を用いることを定める。すなわち、この着色規則204に従えば、行動画像203において、行動項目「就業時刻」のマスは、時刻が遅いほど濃い色調で着色される。 The second row of the table in the upper part of FIG. 6 defines that the color scheme type “shade 2” and the hue “green” are used for the action item “finishing time”. Here, "shading 2" means shading "light" in the range "minimum value to less than 10%" and "range 10% to less than 60%" as shown in the second row of the lower table of FIG. It is defined that the light and shade is "slightly light", the light and shade is "slightly dark" in the range "60% or more and less than 90%", and the light and dark "dark" is used in the range "90% or more-maximum value". That is, according to this coloring rule 204, in the action image 203, the cell of the action item “working time” is colored with a darker color as the time is later.
図6の上段のテーブルの4行目は、行動項目「健康管理時間」に対して、配色種別「色分け1」、色相「1:青、2:緑、3:黄、4:赤」を用いることを定める。ここで、「色分け1」は、図6の下段のテーブルの3行目に示すように、範囲「0以下」には色相「色1」を、範囲「0以上〜15未満」には色相「色2」を、範囲「15以上〜45未満」には色相「色3」を、範囲「45以上」には色相「色4」を用いることを定める。 The fourth row of the table in the upper part of FIG. 6 uses the color arrangement type “color classification 1” and the hues “1: blue, 2: green, 3: yellow, 4: red” for the action item “health management time”. Determine that. Here, as shown in the third row of the table in the lower part of FIG. 6, “color classification 1” means the hue “color 1” in the range “0 or less” and the hue “color 1” in the range “0 or more and less than 15”. It is defined that the hue “color 3” is used for the range “15 or more and less than 45” and the hue “color 4” is used for the range “45 or more”.
図7は、配置規則205の構成例を示す図である。 FIG. 7 is a diagram showing a configuration example of the arrangement rule 205.
図7に示すように、配置規則205は、縦横に区切った複数のマス(領域)のそれぞれに日毎の行動項目を割り当てた情報である。例えば、図7に示すように、配置規則205は、縦方向と横方向のいずれかの方向に日付が並び他の方向に行動項目が並ぶように、複数のマスに日毎の行動項目を割り当てることを定める。配置規則205をこのように定めることにより、同じ項目の日付毎の計測値が縦または横に一列に並ぶので、行動の類似性が画像の特徴量に現れやすくなる。 As shown in FIG. 7, the arrangement rule 205 is information in which a daily action item is assigned to each of a plurality of cells (areas) divided vertically and horizontally. For example, as shown in FIG. 7, the placement rule 205 assigns daily action items to a plurality of cells such that dates are arranged in either the vertical direction or the horizontal direction and action items are arranged in the other direction. Determine. By setting the arrangement rule 205 in this way, the measured values of the same item for each date are lined up vertically or horizontally in a line, so that the similarity of actions is likely to appear in the feature amount of the image.
また、図6及び図7に示すように、着色規則204と配置規則205に従って行動項目の計測値に対応する色でマスを着色することにより、容易に行動画像203を生成することができる。 Further, as shown in FIGS. 6 and 7, the action image 203 can be easily generated by coloring the square with the color corresponding to the measurement value of the action item according to the coloring rule 204 and the arrangement rule 205.
図8は、行動画像データ213の一例を示す図である。 FIG. 8 is a diagram showing an example of the action image data 213.
行動画像生成処理部202は、配置規則205に従って、図8に示すように、縦方向に日付を並べ、横方向に行動項目を並べて行動画像データ213を生成する。そして、行動画像生成処理部202は、図8に示すように、行動画像データ213における行動項目の値に対して、着色規則204に従う色相及び濃淡を対応付ける。例えば、行動画像生成処理部202は、「2018/04/02」の始業時刻「08:56」に対して、図6に示す着色規則204に従って、色相「青」及び濃淡「淡」を対応付ける。 The action image generation processing unit 202 generates the action image data 213 by arranging dates in the vertical direction and action items in the horizontal direction according to the arrangement rule 205, as shown in FIG. Then, the action image generation processing unit 202 associates the value of the action item in the action image data 213 with the hue and shade according to the coloring rule 204, as shown in FIG. For example, the action image generation processing unit 202 associates the hue “blue” and the shade “light” with the start time “08:56” of “2018/04/02” according to the coloring rule 204 shown in FIG.
図9は、行動画像203の一例を示す図である。 FIG. 9 is a diagram showing an example of the action image 203.
行動画像生成処理部202は、図8に示す行動画像データに基づいて、図9に示すように、行動画像203を生成する。例えば、図9に示す行動画像203のマスPは、図8に示す行動画像データの「2018/04/02」の始業時刻「08:56」に対応している。したがって、行動画像生成処理部202は、行動画像203のマスPを、淡青で着色する。行動画像生成処理部202は、終業時刻及び健康管理時間についても同様に、行動画像203における対応するマスを着色する。これにより、始業時刻、終業時刻、及び健康管理時間を行動画像203に反映させることができる。 The action image generation processing unit 202 generates an action image 203 as shown in FIG. 9 based on the action image data shown in FIG. For example, the cell P of the action image 203 shown in FIG. 9 corresponds to the start time “08:56” of “2018/04/02” of the action image data shown in FIG. Therefore, the action image generation processing unit 202 colors the square P of the action image 203 with light blue. The action image generation processing unit 202 similarly colors the corresponding squares in the action image 203 for the closing time and the health care time. Thereby, the start time, the end time, and the health management time can be reflected in the action image 203.
画像学習処理部303は、このように着色された行動画像203に基づいて、画像的に共通の特徴を有する群に分類するための推定アルゴリズムを生成する。 The image learning processing unit 303 generates an estimation algorithm for classifying into a group having image-wise common features, based on the thus colored action image 203.
例えば、図6の着色規則204に従う場合、毎日の出勤時刻及び退勤時刻が定時どおりである社員の行動画像203は、全体的に淡い色になる。このような勤務を行う社員は、例えば、管理業務に向いていると考えられる。そこで、画像的に共通の特徴として全体的に淡い色を有するA群に、管理業務に向いているという正解情報を対応付ける。この場合、画像分類処理部304は、A群に分類した行動画像203に対応する対象者を、管理業務に向いている可能性があると判定してよい。 For example, when the coloring rule 204 in FIG. 6 is followed, the action image 203 of the employee whose working time and leaving time every day are on time becomes pale in color. Employees who perform such work are considered to be suitable for management work, for example. Therefore, the correct answer information, which is suitable for management work, is associated with the group A, which has a light color as a common feature in terms of image. In this case, the image classification processing unit 304 may determine that the target person corresponding to the action image 203 classified into the group A may be suitable for the management work.
例えば、図6の着色規則204に従う場合、毎日の出勤時刻が定時よりも早く、及び/又は、毎日の退勤時刻が定時よりも遅い社員の行動画像203は、全体的に濃い色になる。このような勤務を行う社員は、健康面のフォローを行う必要性が高いと考えられる。そこで、画像的に共通の特徴として全体的に濃い色を有するB群に、健康面のフォローを行う必要性有りという正解情報を対応付ける。この場合、画像分類処理部304は、B群に分類した行動画像203に対応する対象者を、健康面のフォローを行う必要性があると判定してよい。 For example, when the coloring rule 204 of FIG. 6 is followed, the action image 203 of the employee whose working time every day is earlier than the regular time and/or whose daily leaving time is later than the regular time is dark in color as a whole. It is considered highly necessary for employees who perform such work to follow up on their health. Therefore, the correct answer information indicating that it is necessary to follow the health aspect is associated with the group B, which has a dark color as a common feature in terms of image. In this case, the image classification processing unit 304 may determine that the target person corresponding to the action image 203 classified into the B group needs to follow the health aspect.
なお、画像分類処理部304は、対象者の通常の行動画像203はA群に分類されているにもかかわらず、最近の行動画像203がB群に分類されるようになった場合に、健康面のフォローを行う必要性があると判定してもよい。 It should be noted that the image classification processing unit 304 determines that the normal behavioral image 203 of the subject is classified into the group A, but the recent behavioral image 203 is classified into the group B. It may be determined that it is necessary to follow the face.
また、画像分類処理部304は、B群に対してストレス耐性が高いという正解情報を対応付けて、画像分類処理部304においてB群に分類した行動画像203に対応する対象者を、ストレス耐性が高い可能性があると判定してもよい。 In addition, the image classification processing unit 304 associates the correct answer information that the stress resistance is high with the B group, and determines that the target person corresponding to the action image 203 classified into the B group by the image classification processing unit 304 has the stress resistance. It may be determined that there is a high possibility.
例えば、図6の着色規則204に従う場合、フレキシブルな勤務を行っている社員の行動画像203は、全体的にまだら模様(バラバラ)の色になる。このような勤務を行う社員は、例えば、定型業務よりも、特定のプロジェクトのスポット対応などに向いていると考えられる。そこで、画像的に共通の特徴として全体的にまだら模様を有するC群に、スポット対応に向いているという正解情報を対応付ける。この場合、画像分類処理部304は、C群に分類した行動画像203に対応する対象者を、スポット対応に向いている可能性があると判定してよい。 For example, when the coloring rule 204 of FIG. 6 is followed, the action image 203 of the employee who is working flexibly has a mottled (separate) color as a whole. Employees who perform such work are considered to be more suitable for spot correspondence of a specific project rather than routine work, for example. Therefore, the correct answer information that it is suitable for spot correspondence is associated with the group C which has a mottled pattern as a common feature in terms of image. In this case, the image classification processing unit 304 may determine that the target person corresponding to the action image 203 classified into the C group may be suitable for spot correspondence.
図10は、画像再学習処理の一例を示すフローチャートである。 FIG. 10 is a flowchart showing an example of the image re-learning process.
画像学習処理部303は、上述のとおり、大量の行動画像203から、推定アルゴリズムを生成する。しかし、推定アルゴリズムによる分類結果306が管理者の想定と大きく異なる場合や、新たな傾向を有する行動データが増えてきた場合などには、推定アルゴリズムを調整する必要性が生じる。そのような場合、図10に示す画像再学習処理を実行してよい。次に、図10に示す画像学習処理について説明する。 The image learning processing unit 303 generates an estimation algorithm from the large number of action images 203 as described above. However, when the classification result 306 by the estimation algorithm is significantly different from the assumption of the administrator, or when the behavior data having a new tendency is increased, the estimation algorithm needs to be adjusted. In such a case, the image re-learning process shown in FIG. 10 may be executed. Next, the image learning process shown in FIG. 10 will be described.
まず、勤務日次取得処理部102は、勤務日次取得処理において、勤務日次テーブル103を取得する(S101)。 First, the work day acquisition processing unit 102 acquires the work day table 103 in the work day acquisition process (S101).
次に、行動画像生成処理部202は、行動画像生成処理において、勤務日次テーブル103から行動画像203を生成する(S102)。 Next, the action image generation processing unit 202 generates the action image 203 from the work day table 103 in the action image generation process (S102).
次に、画像学習処理部303は、画像学習処理において、大量の行動画像203に基づいて、推定アルゴリズムを生成する(S103)。 Next, the image learning processing unit 303 generates an estimation algorithm based on the large number of action images 203 in the image learning process (S103).
次に、画像分類処理部304は、画像分類処理において、推定アルゴリズムを用いて、行動画像203を何れかの群に分類する(S104)。 Next, in the image classification process, the image classification processing unit 304 classifies the action image 203 into any group using the estimation algorithm (S104).
管理者は、S104の分類結果306の傾向が正しいか否かを判断する(S105)。 The administrator determines whether the tendency of the classification result 306 of S104 is correct (S105).
分類結果306の傾向が正しいと管理者が判断した場合(S105:YES)、フローは、本処理を終了する。 When the administrator determines that the tendency of the classification result 306 is correct (S105: YES), the flow ends this processing.
分類結果306の傾向が正しくないと管理者が判断した場合(S105:NO)、次に、管理者は、何を調整するかを決定する(S106)。 When the administrator determines that the tendency of the classification result 306 is not correct (S105: NO), the administrator then decides what to adjust (S106).
管理者が画像生成規則206を調整すると決定した場合(S106:画像生成規則)、フローは、S102へ戻り、前回とは異なる行動生成規則を用いて、行動画像生成処理を行う。これにより、前回とは異なる行動画像203が生成される。 When the administrator determines to adjust the image generation rule 206 (S106: image generation rule), the flow returns to S102, and the action image generation process is performed using the action generation rule different from the previous one. As a result, the action image 203 different from the previous one is generated.
管理者が、学習データを調整すると決定した場合(S106:学習データ)、フローはS103へ戻り、前回とは異なる群及び推定アルゴリズムを生成する。これにより、行動画像203が前回とは異なる群に分類され得る。 If the administrator decides to adjust the learning data (S106: learning data), the flow returns to S103 to generate a group and estimation algorithm different from the previous one. Thereby, the action image 203 can be classified into a group different from the last time.
図11は、表示データ307の表示例を示す図である。 FIG. 11 is a diagram showing a display example of the display data 307.
結果出力処理部305は、分類結果306に基づいて表示データ307を生成し、図11に例示するように、その表示データ307を表示装置に表示する。 The result output processing unit 305 generates the display data 307 based on the classification result 306, and displays the display data 307 on the display device as illustrated in FIG. 11.
例えば、健康のケアに関し、「ケアが必要」、「要注意」、「問題無し」の3つの群に分類する推定アルゴリズムを用いて、或る部署の各社員の2018年の3月の行動画像203を分類した結果、1人の社員の行動画像203が「ケアが必要」の群に分類され、2人の行動画像203が「要注意」の群に分類されたとする。この場合、結果出力処理部305は、図11に例示するように、3月予測結果として、1人の社員が「ケアが必要」であり、2人の社員が「要注意」であることを表示する。 For example, regarding health care, using an estimation algorithm that classifies into three groups of "need care", "requiring attention", and "no problem", behavior images of each employee in a department in March 2018 As a result of classifying 203, it is assumed that the behavior image 203 of one employee is classified into the "need care" group and the behavior image 203 of two people is classified into the "need attention" group. In this case, as illustrated in FIG. 11, the result output processing unit 305 determines that one employee is “needs care” and two employees are “needs attention” as the March prediction result. indicate.
これにより、部署の上司や人事部などは、社員の健康が悪化する前に、その社員をケアすることができる。 As a result, the manager of the department or the personnel department can take care of the employee before the health of the employee deteriorates.
図12は、本開示に係る装置のハードウェア構成の一例を示す図である。 FIG. 12 is a diagram illustrating an example of the hardware configuration of the device according to the present disclosure.
図12に示すように、本開示に係る勤務管理装置101、画像出力装置201、画像分析装置301、及び端末装置801は、内部バス1001と、当該内部バス1001に接続されているプロセッサ1002、メインメモリ1003、記憶装置1004、通信装置1005、入力装置1006及び表示装置1007とを備える。 As illustrated in FIG. 12, the work management apparatus 101, the image output apparatus 201, the image analysis apparatus 301, and the terminal device 801 according to the present disclosure include an internal bus 1001, a processor 1002 connected to the internal bus 1001, and a main unit. A memory 1003, a storage device 1004, a communication device 1005, an input device 1006, and a display device 1007 are provided.
プロセッサ1002は、例えばCPU(Central Processing Unit)等である。メインメモリ1003は、例えばDRAM(Dynamic Random Access Memory)等である。記憶装置1004は、例えばSSD(Solid State Drive)又はHDD(Hard Disk Drive)等である。通信装置1005は、例えばEthernet(登録商標)ボード又は無線LANボード等である。入力装置1006は、例えばキーボード及びマウス等である。表示装置1007は、例えば液晶ディスプレイ等である。 The processor 1002 is, for example, a CPU (Central Processing Unit) or the like. The main memory 1003 is, for example, a DRAM (Dynamic Random Access Memory) or the like. The storage device 1004 is, for example, an SSD (Solid State Drive) or an HDD (Hard Disk Drive). The communication device 1005 is, for example, an Ethernet (registered trademark) board, a wireless LAN board, or the like. The input device 1006 is, for example, a keyboard and a mouse. The display device 1007 is, for example, a liquid crystal display or the like.
上述した勤務管理装置101、画像出力装置201、及び画像分析装置301の機能は、プロセッサ1002が記憶装置1004及び/又はメインメモリ1003内のコンピュータプログラムを実行することにより、実現されてよい。 The functions of the work management apparatus 101, the image output apparatus 201, and the image analysis apparatus 301 described above may be realized by the processor 1002 executing a computer program in the storage device 1004 and/or the main memory 1003.
なお、本実施例では、行動項目として、始業時刻、終業時刻、および健康管理時間に着目して簡略化した例を示した。しかしながら、これに限定されることはなく、行動に関する他の様々な項目を行動項目として用いてもよい。 In this embodiment, the action items are simplified by focusing on the start time, end time, and health care time. However, the present invention is not limited to this, and various other items regarding actions may be used as action items.
図13は、勤務管理装置101による情報収集について説明するための図である。図14は、行動データの一例を示す図である。 FIG. 13 is a diagram for explaining information collection by the work management apparatus 101. FIG. 14 is a diagram showing an example of action data.
図13に示すように、勤務管理装置101は、各種DBから、各種情報統合装置を介して、行動データに関する各種情報を取得する。そして、勤務管理装置101は、その取得した各種情報から、図14に示すように、社員毎に、各日付における各種行動項目に対応する測定値が記入された行動データを生成し、記憶装置に格納する。図14に示すように、行動データには、上述した始業時刻、終業時刻、及び健康管理時間の他にも、休暇区分、深夜時間及び出張時間など、様々な勤務に関する測定値が含まれてよい。 As illustrated in FIG. 13, the work management apparatus 101 acquires various types of information regarding behavior data from various types of DBs via various types of information integration apparatuses. Then, the work management apparatus 101 generates behavior data in which measured values corresponding to various behavior items on each date are entered for each employee from the acquired various information as shown in FIG. Store. As shown in FIG. 14, the action data may include measurement values relating to various work such as vacation classification, midnight time, and business trip time in addition to the above-mentioned start time, end time, and health management time. ..
実施例1では、行動画像203において、全ての行動項目に同じサイズの領域を割り当てる例を示したが、それに限定されることはない。実施例2では、行動項目に優先度を付与し、行動画像203における各行動項目の領域を優先度に応じたサイズとする例を示す。 In the first embodiment, in the action image 203, an example in which the same size area is assigned to all action items is shown, but the present invention is not limited to this. In the second embodiment, an example is shown in which priorities are given to action items and the area of each action item in the action image 203 has a size corresponding to the priority.
図15は、優先度テーブルの一例を示す図である。図16は、実施例2に係る行動画像403の一例を示す模式図である。 FIG. 15 is a diagram showing an example of the priority table. FIG. 16 is a schematic diagram illustrating an example of the action image 403 according to the second embodiment.
優先度テーブル401は、行動項目に対して、優先度を設定するためのテーブルである。図15に例示する優先度テーブル401は、始業時刻及び終業時刻に対して優先度が最も高い「1」を設定し、健康管理時間に対して優先度が最も低い「3」を設定する。この場合、行動画像生成処理部202は、行動画像403の生成において、図16に示すように、始業時刻及び終業時刻の優先度は比較的高いので、始業時刻及び終業時刻に対応するマスのサイズを大きくし、健康管理時間の優先度は比較的低いので、健康管理時間に対応するマスのサイズを小さくする。 The priority table 401 is a table for setting priorities for action items. In the priority table 401 illustrated in FIG. 15, “1” having the highest priority is set for the start time and the end time of the work, and “3” having the lowest priority is set for the health care time. In this case, the action image generation processing unit 202, when generating the action image 403, as shown in FIG. 16, the start time and the end time have relatively high priority, and therefore the size of the square corresponding to the start time and the end time. Since the priority of health care time is relatively low, the size of the mass corresponding to the health care time is reduced.
これにより、優先度の高い行動項目のマスほどサイズが大きくなるので、行動画像403の特徴を分析する際に、優先度の高いマスの影響力が大きくなる。すなわち、優先度の高い行動項目を大きい領域に割り当てることにより、優先度を考慮した分析を可能にする行動画像403を生成することができる。また、優先度テーブル401によって、各行動項目に対して優先度を設定することにより、抽出される特徴群を調整することができる。 As a result, the size of the square of the action item having a higher priority becomes larger, so that the influence of the square having a higher priority becomes larger when the characteristics of the action image 403 are analyzed. That is, by assigning a high priority action item to a large area, it is possible to generate the action image 403 that enables analysis in consideration of the priority. Further, the feature table to be extracted can be adjusted by setting the priority for each action item using the priority table 401.
上述した各実施例は、本発明の説明のための例示であり、本発明の範囲をそれらの実施例にのみ限定する趣旨ではない。当業者は、本発明の範囲を逸脱することなしに、他の様々な態様で本発明を実施することができる。 The embodiments described above are examples for explaining the present invention, and are not intended to limit the scope of the present invention only to those embodiments. Those skilled in the art can implement the present invention in various other modes without departing from the scope of the present invention.
100…データ処理システム 101…勤務管理装置 102…勤務日次取得処理部 201…画像出力装置 202…行動画像生成処理部 301…画像分析装置 302…画像入力処理部 303…画像学習処理部 304…画像分類処理部 305…結果出力処理部 100... Data processing system 101... Work management device 102... Work daily acquisition processing unit 201... Image output device 202... Behavior image generation processing unit 301... Image analysis device 302... Image input processing unit 303... Image learning processing unit 304... Image Classification processing unit 305... Result output processing unit
Claims (11)
人による所定の行動項目の行動を計測した計測値を蓄積した行動データを格納するデータ管理部と、
行動項目毎に計測値に対応する色を定めた着色規則と、行動項目毎に前記着色規則で着色された領域を画像のどこに配置するかを定めた配置規則とを用いて、人毎に、所定期間の行動データに含まれる各行動項目の計測値に対応する色に着色した領域を配置した行動画像を生成する画像出力部と、
人の行動画像と当該人の性質および/または状態を示す正解情報とを学習し、学習結果に基づいて、人の行動画像から当該人の性質および/または状態を推定する画像分析部と、
を有するデータ処理システム。 A data processing system for processing data on human behavior, comprising:
A data management unit that stores action data that accumulates measurement values obtained by measuring actions of predetermined action items by a person,
For each person, using a coloring rule that defines a color corresponding to the measured value for each action item, and an arrangement rule that determines where in the image the region colored by the coloring rule is arranged for each action item, An image output unit that generates an action image in which a region colored in a color corresponding to the measurement value of each action item included in the action data of a predetermined period is arranged,
An image analysis unit that learns a behavior image of a person and correct answer information indicating the nature and/or state of the person, and estimates the nature and/or state of the person from the behavior image of the person based on the learning result,
A data processing system having.
請求項1に記載のデータ処理システム。 The image analysis unit learns a behavior image of a person and correct answer information indicating the nature and/or state of the person to estimate the nature and/or state of the person based on the behavior image of the person. Generating an estimation algorithm, and estimating the property and/or state of the subject from the action image of the subject based on the estimation algorithm,
The data processing system according to claim 1.
前記画像出力部は、人の所定期間のデータに基づいて、それぞれのマスを該マスに割り当てられた行動項目の計測値に対応する色で着色した行動画像を生成する、
請求項1に記載のデータ処理システム。 The arrangement rule is information in which a daily action item is assigned to each of a plurality of vertically and horizontally separated cells,
The image output unit generates an action image in which each cell is colored with a color corresponding to a measurement value of an action item assigned to the cell, based on data of a person for a predetermined period.
The data processing system according to claim 1.
請求項1に記載のデータ処理システム。 The coloring rule, for action items related to working hours, the areas of the same action items are defined as the same hue, and the darker color tone is set as the working time becomes longer.
The data processing system according to claim 1.
請求項3に記載のデータ処理システム。 The arrangement rule assigns daily action items to the plurality of cells so that dates are arranged in either the vertical direction or the horizontal direction and action items are arranged in the other direction.
The data processing system according to claim 3.
前記画像出力部は、行動項目の領域を優先度に応じた大きさとする、
請求項1に記載のデータ処理システム。 Action items have priority,
The image output unit sets the area of the action item to a size according to the priority,
The data processing system according to claim 1.
請求項1に記載のデータ処理システム。 It further has an information presentation unit that displays information about the nature and/or condition of the subject.
The data processing system according to claim 1.
請求項7に記載のデータ処理システム。 The information presenting unit further displays an action image of the target person,
The data processing system according to claim 7.
請求項1に記載のデータ処理システム。 The learning is deep learning,
The data processing system according to claim 1.
人による所定の行動項目の行動を計測した計測値を蓄積した行動データを格納し、
行動項目毎に計測値に対応する色を定めた着色規則と、行動項目毎に前記着色規則で着色された領域を画像のどこに配置するかを定めた配置規則とを用いて、人毎に、所定期間の行動データに含まれる各行動項目の計測値に対応する色に着色した領域を配置した行動画像を生成し、
人の行動画像と当該人の性質および/または状態を示す正解情報とを学習し、学習結果に基づいて、人の行動画像から当該人の性質および/または状態を推定する、
ことをコンピュータが実行するデータ処理方法。 A data processing method for a computer device to process data relating to human behavior, comprising:
Stores behavior data that accumulates measurement values that measure the behavior of predetermined behavior items by people,
For each person, using a coloring rule that defines a color corresponding to the measured value for each action item, and an arrangement rule that determines where in the image the region colored by the coloring rule is arranged for each action item, Generates an action image in which regions colored in colors corresponding to the measured values of each action item included in the action data of a predetermined period are arranged,
Learning a person's action image and correct answer information indicating the person's property and/or state, and estimating the person's property and/or state from the person's action image based on the learning result.
A data processing method by which a computer executes a thing.
人による所定の行動項目の行動を計測した計測値を蓄積した行動データを格納し、
行動項目毎に計測値に対応する色を定めた着色規則と、行動項目毎に前記着色規則で着色された領域を画像のどこに配置するかを定めた配置規則とを用いて、人毎に、所定期間の行動データに含まれる各行動項目の計測値に対応する色に着色した領域を配置した行動画像を生成し、
人の行動画像と当該人の性質および/または状態を示す正解情報とを学習し、学習結果に基づいて、人の行動画像から当該人の性質および/または状態を推定する、
ことをコンピュータに実行させるためのデータ処理プログラム。 A data processing program for processing data on human behavior,
Stores behavior data that accumulates measurement values that measure the behavior of predetermined behavior items by people,
For each person, using a coloring rule that defines a color corresponding to the measured value for each action item, and an arrangement rule that determines where in the image the region colored by the coloring rule is arranged for each action item, Generates an action image in which regions colored in colors corresponding to the measured values of each action item included in the action data of a predetermined period are arranged,
Learning a person's action image and correct answer information indicating the person's property and/or state, and estimating the person's property and/or state from the person's action image based on the learning result.
A data processing program that causes a computer to execute a thing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018232563A JP6983145B2 (en) | 2018-12-12 | 2018-12-12 | Data processing systems, methods, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018232563A JP6983145B2 (en) | 2018-12-12 | 2018-12-12 | Data processing systems, methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020095448A true JP2020095448A (en) | 2020-06-18 |
JP6983145B2 JP6983145B2 (en) | 2021-12-17 |
Family
ID=71086419
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018232563A Active JP6983145B2 (en) | 2018-12-12 | 2018-12-12 | Data processing systems, methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6983145B2 (en) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10301981A (en) * | 1997-04-28 | 1998-11-13 | Tokyo Electric Power Co Inc:The | Color determination supporting system for appearance of building |
JP2004191276A (en) * | 2002-12-13 | 2004-07-08 | Koito Ind Ltd | Apparatus for distinguishing road-surface state |
JP2008210386A (en) * | 2007-02-26 | 2008-09-11 | General Electric Co <Ge> | Method and device for providing visual key indicating level of severity or importance |
WO2017010103A1 (en) * | 2015-07-16 | 2017-01-19 | 日本電気株式会社 | Data analysis device, data analysis method, and storage medium storing data analysis program |
JP2017109161A (en) * | 2015-12-15 | 2017-06-22 | ウエノテックス株式会社 | Waste screening system and screening method therefor |
JP2017170066A (en) * | 2016-03-25 | 2017-09-28 | 東芝情報システム株式会社 | Health management system and health management program |
JP2017182531A (en) * | 2016-03-31 | 2017-10-05 | 大日本印刷株式会社 | Information processor, information processing method, and program |
WO2018079647A1 (en) * | 2016-10-28 | 2018-05-03 | 日本電気株式会社 | Process management device, process management method, and recording medium |
JP2018190140A (en) * | 2017-05-01 | 2018-11-29 | オムロン株式会社 | Learning apparatus, learning method, and learning program |
WO2019187288A1 (en) * | 2018-03-27 | 2019-10-03 | 日本電気株式会社 | Information processing device, data generation method, and non-transient computer-readable medium whereon program has been stored |
-
2018
- 2018-12-12 JP JP2018232563A patent/JP6983145B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10301981A (en) * | 1997-04-28 | 1998-11-13 | Tokyo Electric Power Co Inc:The | Color determination supporting system for appearance of building |
JP2004191276A (en) * | 2002-12-13 | 2004-07-08 | Koito Ind Ltd | Apparatus for distinguishing road-surface state |
JP2008210386A (en) * | 2007-02-26 | 2008-09-11 | General Electric Co <Ge> | Method and device for providing visual key indicating level of severity or importance |
WO2017010103A1 (en) * | 2015-07-16 | 2017-01-19 | 日本電気株式会社 | Data analysis device, data analysis method, and storage medium storing data analysis program |
JP2017109161A (en) * | 2015-12-15 | 2017-06-22 | ウエノテックス株式会社 | Waste screening system and screening method therefor |
JP2017170066A (en) * | 2016-03-25 | 2017-09-28 | 東芝情報システム株式会社 | Health management system and health management program |
JP2017182531A (en) * | 2016-03-31 | 2017-10-05 | 大日本印刷株式会社 | Information processor, information processing method, and program |
WO2018079647A1 (en) * | 2016-10-28 | 2018-05-03 | 日本電気株式会社 | Process management device, process management method, and recording medium |
JP2018190140A (en) * | 2017-05-01 | 2018-11-29 | オムロン株式会社 | Learning apparatus, learning method, and learning program |
WO2019187288A1 (en) * | 2018-03-27 | 2019-10-03 | 日本電気株式会社 | Information processing device, data generation method, and non-transient computer-readable medium whereon program has been stored |
Also Published As
Publication number | Publication date |
---|---|
JP6983145B2 (en) | 2021-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10917740B1 (en) | Laboratory utilization monitoring and analytics | |
US9767436B2 (en) | System for managing formal mentoring programs | |
CN106548357B (en) | Client satisfaction evaluation method and system | |
US20240185160A1 (en) | Workforce sentiment monitoring and detection systems and methods | |
Serrano-Guerrero et al. | Statistical methodology to assess changes in the electrical consumption profile of buildings | |
JP2016151979A (en) | Mental health care support system, device, method, and program | |
Ranisavljević et al. | Management information system and decision making process in enterprise | |
Duckworth et al. | Inferring work task Automatability from AI expert evidence | |
JP2021144756A (en) | Project plan formulation system | |
Li et al. | A Bayesian networks-based risk identification approach for software process risk: the context of Chinese trustworthy software | |
Ara et al. | Integrating wearable sensor technology into project-management process | |
JP2019164738A (en) | Prediction device, prediction method, prediction program, generation device, generation method and generation program | |
JP6983145B2 (en) | Data processing systems, methods, and programs | |
RU127493U1 (en) | ORGANIZATIONAL SYSTEM MANAGEMENT CENTER | |
CA3136409A1 (en) | Systems and methods for automated modeling of service processes | |
WO2018073914A1 (en) | System for inferring factor for accident during physical distribution warehouse task | |
CN115422538A (en) | Application risk identification method, device and equipment | |
WO2018090055A1 (en) | System and method for software adoption | |
JP6421001B2 (en) | Information processing system, information display method, and program | |
JP2021114153A (en) | Information processing device, information processing method, and program | |
WO2024210083A1 (en) | Prediction system, prediction method, and program | |
WO2024106309A1 (en) | Engagement inference method, program, and engagement inference system | |
Pratiwi et al. | A theoretical framework of data quality in participatory sensing: A case of mHealth | |
WO2022219810A1 (en) | Information presentation device, information presentation method, and program | |
Dutta | Operational performance benchmarking for commercial buildings by using text analytics on work order logs and tenant survey data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211029 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211122 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6983145 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |