JP2020095448A - Data processing system, method and program - Google Patents

Data processing system, method and program Download PDF

Info

Publication number
JP2020095448A
JP2020095448A JP2018232563A JP2018232563A JP2020095448A JP 2020095448 A JP2020095448 A JP 2020095448A JP 2018232563 A JP2018232563 A JP 2018232563A JP 2018232563 A JP2018232563 A JP 2018232563A JP 2020095448 A JP2020095448 A JP 2020095448A
Authority
JP
Japan
Prior art keywords
action
image
person
data
data processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018232563A
Other languages
Japanese (ja)
Other versions
JP6983145B2 (en
Inventor
隆憲 関澤
Takanori Sekizawa
隆憲 関澤
稔 福島
Minoru Fukushima
稔 福島
向前 斉
Xiangqian Qi
向前 斉
康治 西原
Yasuharu Nishihara
康治 西原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions Ltd
Original Assignee
Hitachi Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions Ltd filed Critical Hitachi Solutions Ltd
Priority to JP2018232563A priority Critical patent/JP6983145B2/en
Publication of JP2020095448A publication Critical patent/JP2020095448A/en
Application granted granted Critical
Publication of JP6983145B2 publication Critical patent/JP6983145B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide a data processing system, a method, and a program that provide a technique for effectively analyzing an action of a person.SOLUTION: A data processing system, which performs processing of data on an action of a person, includes: a data management unit that stores action data in which a measured value obtained by measuring an action of a predetermined action item by a person is accumulated; a coloration rule that defines a color corresponding to the measured value for each action item; an image output unit that generates, using an arrangement rule that defines where to place a region colored by the coloration rule for each action item, for each person, an action image in which a region colored in a color corresponding to the measured value of action item included in action data for a predetermined period is arranged; and an image analysis unit that learns an action image of a person and correct answer information indicating a property and/or a state of the person, and estimates, based on the learning result, a property and/or a state of the person from the action image of the person.SELECTED DRAWING: Figure 1

Description

本発明は、人間の行動に関するデータを処理する技術に関する。 The present invention relates to a technique for processing data regarding human behavior.

少子高齢化が加速されることに伴う労働人口の減少が現実的な問題となってきている。企業などの組織では、生産性や競争力を維持し向上するために、継続的に人的リソースを確保し、かつ、その人的リソースを有効に活用することが求められる。 The decrease in the working population accompanying the declining birthrate and aging population has become a real problem. Organizations such as companies are required to continuously secure human resources and effectively utilize the human resources in order to maintain and improve productivity and competitiveness.

それを実現するためにIT(Information Technology)技術の活用が期待される。そして一部の分野では有効な手法が実現されている。 In order to realize it, it is expected to utilize IT (Information Technology) technology. And effective techniques have been realized in some fields.

例えば、IT技術により人的リソースの一部の業務を軽減したり、代替したりすることが推進されている(特許文献1参照)。例えば、RPA(Robotic Process Automation)により人的リソースの業務を軽減したり、人的リソースの業務をRPAが代替して実行したりすることが期待できる。 For example, IT technology has been promoted to reduce or substitute a part of the work of human resources (see Patent Document 1). For example, it can be expected that the work of human resources is reduced by RPA (Robotic Process Automation) or that the work of human resources is performed by the RPA instead.

特開2018−022257号公報JP, 2018-022257, A

更に、様々な分野でIT技術により人自体の行動を分析し、その分析結果を利用することが望まれている。例えば、企業などの組織では、従業員の行動を分析し、分析結果を利用して従業員の能力を有効に活用できるようにすることが望まれる。具体的には、休職や離職の抑制、生産性の高い働き方、生産性を向上させる人材配置、などの実現が期待される。 Furthermore, it is desired to analyze the behavior of a person by IT technology in various fields and use the analysis result. For example, in an organization such as a company, it is desired that the behavior of the employee be analyzed and the analysis result be used so that the ability of the employee can be effectively utilized. Specifically, it is expected that employees will be able to control leave and leave, work with high productivity, and allocate human resources to improve productivity.

しかしながら、人の行動データにはノイズとなるデータが多く含まれており、またデータの多様性が高いため、有効な分析結果が得られない場合が多い。例えば、重回帰分析でノイズを特徴量としてとらえてしまうことがある。また機械学習ではノイズを過学習してしまうことがある。従業員の休職、離職、生産性の高低などには複数の要因が複雑に関連し合っているため、予測アルゴリズムの精度向上が困難である。 However, since human behavior data contains a lot of noise data and the data is highly diverse, it is often the case that an effective analysis result cannot be obtained. For example, noise may be caught as a feature amount in multiple regression analysis. Also, in machine learning, noise may be overlearned. It is difficult to improve the accuracy of the prediction algorithm because a number of factors are complicatedly related to employee leave, employee turnover, high productivity, and so on.

本発明の目的は、人の行動を有効に分析する技術を提供することである。 An object of the present invention is to provide a technique for effectively analyzing human behavior.

本発明の1つの実施態様に従うデータ処理システムは、人の行動に関するデータを処理するデータ処理システムであって、人による所定の行動項目の行動を計測した計測値を蓄積した行動データを格納するデータ管理部と、行動項目毎に計測値に対応する色を定めた着色規則と、行動項目毎に前記着色規則で着色された領域を画像のどこに配置するかを定めた配置規則とを用いて、人毎に、所定期間の行動データに含まれる各行動項目の計測値に対応する色に着色した領域を配置した行動画像を生成する画像出力部と、人の行動画像と当該人の性質および/または状態を示す正解情報とを学習し、前記学習結果に基づいて、人の行動画像から当該人の性質および/または状態を推定する画像分析部と、を有する。 A data processing system according to one embodiment of the present invention is a data processing system for processing data relating to a person's action, and is data for storing action data accumulating measurement values obtained by measuring actions of a predetermined action item by a person. Using a management unit, a coloring rule that defines a color corresponding to the measurement value for each action item, and an arrangement rule that determines where in the image the region colored by the coloring rule for each action item is arranged, An image output unit that generates an action image in which an area colored in a color corresponding to the measurement value of each action item included in the action data for a predetermined period is arranged for each person, the action image of the person, the property of the person, and Alternatively, the image analysis unit that learns correct answer information indicating a state and estimates the property and/or state of the person from the action image of the person based on the learning result.

人的リソースの能力の有効活用を支援することができる。 It is possible to support the effective use of the ability of human resources.

実施例1に係るデータ処理システムの構成例を示す図である。FIG. 1 is a diagram showing a configuration example of a data processing system according to a first embodiment. 勤務管理装置の構成例を示す図である。It is a figure which shows the structural example of a work management apparatus. 画像出力装置の構成例を示す図である。It is a figure which shows the structural example of an image output device. 画像分析装置の構成例を示す図である。It is a figure which shows the structural example of an image analysis apparatus. 勤務日次テーブルの構成例を示す図である。It is a figure which shows the structural example of a work day table. 着色規則の構成例を示す図である。It is a figure which shows the structural example of a coloring rule. 配置規則の構成例を示す図である。It is a figure which shows the structural example of arrangement|positioning rule. 行動画像データの一例を示す図である。It is a figure which shows an example of action image data. 行動画像の一例を示す模式図である。It is a schematic diagram which shows an example of an action image. 画像再学習処理の一例を示すフローチャートである。It is a flow chart which shows an example of image re-learning processing. 表示データの表示例を示す図である。It is a figure which shows the example of a display of display data. 本開示に係る装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the apparatus which concerns on this indication. 勤務管理装置による情報収集について説明するための図である。It is a figure for demonstrating the information collection by a work management apparatus. 行動データの一例を示す図である。It is a figure which shows an example of action data. 実施例2に係る優先度テーブルの一例を示す図である。FIG. 9 is a diagram showing an example of a priority table according to the second embodiment. 実施例2に係る行動画像の一例を示す模式図である。9 is a schematic diagram showing an example of an action image according to Example 2. FIG.

以下、本発明の実施形態について図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、実施例1に係るデータ処理システムの構成例を示す図である。 FIG. 1 is a diagram illustrating a configuration example of the data processing system according to the first embodiment.

データ処理システム100は、人の行動に関するデータを処理するためのシステムである。データ処理システム100は、図1に示すように、データ管理部の一例である勤務管理装置101と、画像出力部の一例である画像出力装置201と、画像分析部の一例である画像分析装置301と、端末装置801とを備える。これらの装置101,201,301,801は、有線LAN(Local Area Network)及び/又は無線LAN等のネットワーク901に接続されており、互いにデータを送受信可能である。なお、これらの装置101,201,301,801は、それぞれ、図12に示す計算機装置であってもよい。また、これらの装置101,201,301の少なくとも2つが1つの計算機装置として構成されてもよい。 The data processing system 100 is a system for processing data related to human behavior. As shown in FIG. 1, the data processing system 100 includes a work management apparatus 101 that is an example of a data management unit, an image output apparatus 201 that is an example of an image output section, and an image analysis apparatus 301 that is an example of an image analysis section. And a terminal device 801. These devices 101, 201, 301, 801 are connected to a network 901 such as a wired LAN (Local Area Network) and/or a wireless LAN, and can send and receive data to and from each other. Each of these devices 101, 201, 301 and 801 may be the computer device shown in FIG. Further, at least two of these devices 101, 201, 301 may be configured as one computer device.

図2は、勤務管理装置101の構成例を示す図である。 FIG. 2 is a diagram showing a configuration example of the work management apparatus 101.

図2に示すように、勤務管理装置101は、勤務日次取得処理部102を有する。勤務日次取得処理部102は、例えば、所定のDB(DataBase)等から、行動データの一例である勤務日次テーブル103を取得し、記憶装置(図12参照)に蓄積する。 As illustrated in FIG. 2, the work management apparatus 101 includes a work day acquisition processing unit 102. The work day acquisition processing unit 102 acquires, for example, a work day table 103, which is an example of behavior data, from a predetermined DB (DataBase) and stores the work day table 103 in a storage device (see FIG. 12 ).

行動データは、人による所定の行動項目の行動を測定した計測値を蓄積したデータである。行動データの一例である勤務日次テーブル103において、行動項目の一例は「出勤時刻」であり、行動項目「出勤時刻」に対応する計測値の一例は社員が実際に出勤した時刻である。なお、勤務日次テーブル103の詳細については後述する(図5参照)。 The action data is data in which measurement values obtained by measuring actions of a predetermined action item by a person are accumulated. In the work daily table 103, which is an example of action data, an example of an action item is “attendance time”, and an example of a measured value corresponding to the action item “attendance time” is a time at which an employee actually goes to work. The details of the work day table 103 will be described later (see FIG. 5).

図3は、画像出力装置201の構成例を示す図である。 FIG. 3 is a diagram showing a configuration example of the image output device 201.

図3に示すように、画像出力装置201は、行動画像生成処理部202を有する。行動画像生成処理部202は、勤務日次テーブル103から、着色規則204と配置規則205とを含む画像生成規則206を用いて、人(社員)ごとに、行動画像203を生成する。 As shown in FIG. 3, the image output device 201 includes an action image generation processing unit 202. The action image generation processing unit 202 generates an action image 203 for each person (employee) from the work daily table 103 using an image generation rule 206 including a coloring rule 204 and an arrangement rule 205.

着色規則204は、行動項目毎に計測値に対応する色を定めたものである。配置規則205は、行動項目毎に着色規則204で着色された領域(マス)を画像のどこに配置するかを定めたものである。なお、着色規則204及び配置規則205の詳細については後述する(図6参照)。 The coloring rule 204 defines a color corresponding to a measured value for each action item. The arrangement rule 205 defines for each action item where in the image the area (mass) colored by the coloring rule 204 is to be arranged. The details of the coloring rule 204 and the arrangement rule 205 will be described later (see FIG. 6).

行動画像203は、所定期間の行動データに含まれる各行動項目の計測値に対応する色に着色した領域を配置したものである。なお、行動画像203の詳細については後述する(図8及び図9参照)。 The action image 203 is an arrangement of areas colored in colors corresponding to the measured values of each action item included in the action data of a predetermined period. The details of the action image 203 will be described later (see FIGS. 8 and 9).

図4は、画像分析装置301の構成例を示す図である。 FIG. 4 is a diagram showing a configuration example of the image analysis device 301.

図4に示すように、画像分析装置301は、画像入力処理部302、画像学習処理部303、画像分類処理部304、及び結果出力処理部305を有する。 As shown in FIG. 4, the image analysis device 301 includes an image input processing unit 302, an image learning processing unit 303, an image classification processing unit 304, and a result output processing unit 305.

画像入力処理部302は、画像出力装置201によって生成された行動画像203の入力を受け付ける。 The image input processing unit 302 receives an input of the action image 203 generated by the image output device 201.

画像学習処理部303は、大量の行動画像203を学習し、行動画像203を、画像的に共通の特徴を有する群に分類するための推定アルゴリズムを生成する。例えば、画像学習処理部303は、ディープラーニングによって大量の行動画像203を学習し、推定アルゴリズムに相当するニューラルネットワークのモデルを生成する。このように、画像化によってノイズが抑制されたディープラーニングにより、複雑な人の行動を精度よく分析できる。 The image learning processing unit 303 learns a large number of action images 203 and generates an estimation algorithm for classifying the action images 203 into groups having image-wise common features. For example, the image learning processing unit 303 learns a large amount of action images 203 by deep learning and generates a neural network model corresponding to an estimation algorithm. As described above, the deep learning in which the noise is suppressed by the imaging makes it possible to accurately analyze the complex human behavior.

また、画像学習処理部303は、各群に対して、正解情報を対応付ける。例えば、管理者は、同じ群に属する行動画像203に対応する人々の性質及び/又は状態(つまり人の行動パターン)を示す正解情報を、その群に対応付ける。このように、人の行動のデータを画像化し、その画像を処理して、人の性質および/または状態を推定することにより、人の行動を有効に分析することができる。 Further, the image learning processing unit 303 associates each group with correct answer information. For example, the administrator associates the correct answer information indicating the nature and/or state of the people (that is, the person's action pattern) corresponding to the action image 203 belonging to the same group with the group. In this way, the behavior of a person can be effectively analyzed by imaging the data of the behavior of the person and processing the image to estimate the nature and/or state of the person.

画像分類処理部304は、画像学習処理部303によって生成された推定アルゴリズムを用いて、対象者の行動画像203を何れかの群に分類する。そして、画像分類処理部304は、その群に対応付けられている正解情報を、分類結果306として生成する。すなわち、画像分類処理部304は、推定アルゴリズムを用いて、対象者の行動パターンを推定する。このように、人の行動のデータを画像化して学習した推定アルゴリズムを用いて対象者の性質および/または状態を推定することにより、対象者の行動を有効に分析することができる。 The image classification processing unit 304 uses the estimation algorithm generated by the image learning processing unit 303 to classify the behavior image 203 of the subject into any of the groups. Then, the image classification processing unit 304 generates the correct answer information associated with the group as the classification result 306. That is, the image classification processing unit 304 estimates the behavior pattern of the target person using the estimation algorithm. In this way, the behavior of the target person can be effectively analyzed by estimating the property and/or state of the target person by using the estimation algorithm learned by imaging the data of the human behavior.

結果出力処理部305は、情報提示部の一例であり、画像分類処理部304によって生成された分類結果306から、表示データ307を生成し、表示装置(図12参照)に表示する。これにより、対象者の性質および/または状態やそれに対する活用施策を提示することができるので、人の能力の有効活用を支援することができる。 The result output processing unit 305 is an example of an information presenting unit, and generates display data 307 from the classification result 306 generated by the image classification processing unit 304 and displays it on the display device (see FIG. 12). As a result, it is possible to present the nature and/or condition of the target person and the utilization policy for it, so that it is possible to support the effective utilization of human ability.

また、結果出力処理部305は、対象者の行動画像203を表示装置に表示してもよい。これにより、管理者は対象者の性質および/または状態を行動画像203によって直感的に把握することができる。 Further, the result output processing unit 305 may display the behavior image 203 of the subject on the display device. This allows the administrator to intuitively understand the nature and/or state of the target person from the action image 203.

図5は、勤務日次テーブル103の構成例を示す図である。 FIG. 5 is a diagram showing a configuration example of the work day table 103.

図5に示すように、勤務日次テーブル103は、データ項目として、社員IDと、年月日と、出勤時刻と、退勤時刻とを有する。例えば、図5の1行目は、「社員A」が、「2018/07/01」に、「08:25」に出勤し、「18:05」に退勤したことを示す。 As shown in FIG. 5, the work day table 103 has, as data items, an employee ID, a date, an attendance time, and a departure time. For example, the first line in FIG. 5 indicates that “employee A” has attended “2018/07/01”, “08:25”, and retired at “18:05”.

図6は、着色規則204の構成例を示す図である。 FIG. 6 is a diagram showing a configuration example of the coloring rule 204.

着色規則204は、例えば、労働した時間に関連する行動項目については、同一の行動項目の領域は同一の色相とし、労働した時間が長くなるほど濃い色調となるように定める。このように着色規則204を定めることにより、労働の時間が長い従事者の勤務画像には色の濃い領域が現れるようになるので、直感的に従事者の労働時間の長短を把握することができる。 The coloring rule 204 defines, for example, as for action items related to working hours, areas of the same action items have the same hue, and the darker the color tone becomes as the working time becomes longer. By defining the coloring rule 204 in this way, a dark area appears in the work image of the worker who spends a lot of time working, so that the length of the working time of the worker can be intuitively grasped. ..

図6の上段のテーブルは、行動項目と、配色種別と、色相との対応関係を定める例である。 The table in the upper part of FIG. 6 is an example in which a correspondence relationship among action items, color arrangement types, and hues is determined.

図6の上段のテーブルの1行目は、行動項目「始業時刻」に対して、配色種別「濃淡1」、色相「青」を用いることを定める。ここで、「濃淡1」は、図6の下段のテーブルの1行目に示すように、範囲「最小値〜10%未満」には濃淡「濃」を、範囲「10%以上〜60%未満」には濃淡「やや濃」を、範囲「60%以上〜90%未満」には濃淡「やや淡」を、範囲「90%以上〜最大値」には濃淡「淡」を用いることを定める。すなわち、この着色規則204に従えば、行動画像203において、行動項目「始業時刻」のマスは、時刻が早いほど濃い色調で着色される。 The first row of the table in the upper part of FIG. 6 defines that the color arrangement type “shade 1” and the hue “blue” are used for the action item “start time”. Here, as shown in the first row of the table in the lower part of FIG. 6, “shading 1” is the shading “dark” in the range “minimum value to less than 10%” and the range “10% or more to less than 60%. It is defined that the light and shade "slightly dark" is used for "", the light and shade "slightly light" is used for the range "60% or more and less than 90%", and the light and light "light" is used for the range "90% or more to maximum value". That is, according to the coloring rule 204, in the action image 203, the square of the action item “starting time” is colored with a darker color as the time is earlier.

図6の上段のテーブルの2行目は、行動項目「終業時刻」に対して、配色種別「濃淡2」、色相「緑」を用いることを定める。ここで、「濃淡2」は、図6の下段のテーブルの2行目に示すように、範囲「最小値〜10%未満」には濃淡「淡」を、範囲「10%以上〜60%未満」には濃淡「やや淡」を、範囲「60%以上〜90%未満」には濃淡「やや濃」を、範囲「90%以上〜最大値」には濃淡「濃」を用いることを定める。すなわち、この着色規則204に従えば、行動画像203において、行動項目「就業時刻」のマスは、時刻が遅いほど濃い色調で着色される。 The second row of the table in the upper part of FIG. 6 defines that the color scheme type “shade 2” and the hue “green” are used for the action item “finishing time”. Here, "shading 2" means shading "light" in the range "minimum value to less than 10%" and "range 10% to less than 60%" as shown in the second row of the lower table of FIG. It is defined that the light and shade is "slightly light", the light and shade is "slightly dark" in the range "60% or more and less than 90%", and the light and dark "dark" is used in the range "90% or more-maximum value". That is, according to this coloring rule 204, in the action image 203, the cell of the action item “working time” is colored with a darker color as the time is later.

図6の上段のテーブルの4行目は、行動項目「健康管理時間」に対して、配色種別「色分け1」、色相「1:青、2:緑、3:黄、4:赤」を用いることを定める。ここで、「色分け1」は、図6の下段のテーブルの3行目に示すように、範囲「0以下」には色相「色1」を、範囲「0以上〜15未満」には色相「色2」を、範囲「15以上〜45未満」には色相「色3」を、範囲「45以上」には色相「色4」を用いることを定める。 The fourth row of the table in the upper part of FIG. 6 uses the color arrangement type “color classification 1” and the hues “1: blue, 2: green, 3: yellow, 4: red” for the action item “health management time”. Determine that. Here, as shown in the third row of the table in the lower part of FIG. 6, “color classification 1” means the hue “color 1” in the range “0 or less” and the hue “color 1” in the range “0 or more and less than 15”. It is defined that the hue “color 3” is used for the range “15 or more and less than 45” and the hue “color 4” is used for the range “45 or more”.

図7は、配置規則205の構成例を示す図である。 FIG. 7 is a diagram showing a configuration example of the arrangement rule 205.

図7に示すように、配置規則205は、縦横に区切った複数のマス(領域)のそれぞれに日毎の行動項目を割り当てた情報である。例えば、図7に示すように、配置規則205は、縦方向と横方向のいずれかの方向に日付が並び他の方向に行動項目が並ぶように、複数のマスに日毎の行動項目を割り当てることを定める。配置規則205をこのように定めることにより、同じ項目の日付毎の計測値が縦または横に一列に並ぶので、行動の類似性が画像の特徴量に現れやすくなる。 As shown in FIG. 7, the arrangement rule 205 is information in which a daily action item is assigned to each of a plurality of cells (areas) divided vertically and horizontally. For example, as shown in FIG. 7, the placement rule 205 assigns daily action items to a plurality of cells such that dates are arranged in either the vertical direction or the horizontal direction and action items are arranged in the other direction. Determine. By setting the arrangement rule 205 in this way, the measured values of the same item for each date are lined up vertically or horizontally in a line, so that the similarity of actions is likely to appear in the feature amount of the image.

また、図6及び図7に示すように、着色規則204と配置規則205に従って行動項目の計測値に対応する色でマスを着色することにより、容易に行動画像203を生成することができる。 Further, as shown in FIGS. 6 and 7, the action image 203 can be easily generated by coloring the square with the color corresponding to the measurement value of the action item according to the coloring rule 204 and the arrangement rule 205.

図8は、行動画像データ213の一例を示す図である。 FIG. 8 is a diagram showing an example of the action image data 213.

行動画像生成処理部202は、配置規則205に従って、図8に示すように、縦方向に日付を並べ、横方向に行動項目を並べて行動画像データ213を生成する。そして、行動画像生成処理部202は、図8に示すように、行動画像データ213における行動項目の値に対して、着色規則204に従う色相及び濃淡を対応付ける。例えば、行動画像生成処理部202は、「2018/04/02」の始業時刻「08:56」に対して、図6に示す着色規則204に従って、色相「青」及び濃淡「淡」を対応付ける。 The action image generation processing unit 202 generates the action image data 213 by arranging dates in the vertical direction and action items in the horizontal direction according to the arrangement rule 205, as shown in FIG. Then, the action image generation processing unit 202 associates the value of the action item in the action image data 213 with the hue and shade according to the coloring rule 204, as shown in FIG. For example, the action image generation processing unit 202 associates the hue “blue” and the shade “light” with the start time “08:56” of “2018/04/02” according to the coloring rule 204 shown in FIG.

図9は、行動画像203の一例を示す図である。 FIG. 9 is a diagram showing an example of the action image 203.

行動画像生成処理部202は、図8に示す行動画像データに基づいて、図9に示すように、行動画像203を生成する。例えば、図9に示す行動画像203のマスPは、図8に示す行動画像データの「2018/04/02」の始業時刻「08:56」に対応している。したがって、行動画像生成処理部202は、行動画像203のマスPを、淡青で着色する。行動画像生成処理部202は、終業時刻及び健康管理時間についても同様に、行動画像203における対応するマスを着色する。これにより、始業時刻、終業時刻、及び健康管理時間を行動画像203に反映させることができる。 The action image generation processing unit 202 generates an action image 203 as shown in FIG. 9 based on the action image data shown in FIG. For example, the cell P of the action image 203 shown in FIG. 9 corresponds to the start time “08:56” of “2018/04/02” of the action image data shown in FIG. Therefore, the action image generation processing unit 202 colors the square P of the action image 203 with light blue. The action image generation processing unit 202 similarly colors the corresponding squares in the action image 203 for the closing time and the health care time. Thereby, the start time, the end time, and the health management time can be reflected in the action image 203.

画像学習処理部303は、このように着色された行動画像203に基づいて、画像的に共通の特徴を有する群に分類するための推定アルゴリズムを生成する。 The image learning processing unit 303 generates an estimation algorithm for classifying into a group having image-wise common features, based on the thus colored action image 203.

例えば、図6の着色規則204に従う場合、毎日の出勤時刻及び退勤時刻が定時どおりである社員の行動画像203は、全体的に淡い色になる。このような勤務を行う社員は、例えば、管理業務に向いていると考えられる。そこで、画像的に共通の特徴として全体的に淡い色を有するA群に、管理業務に向いているという正解情報を対応付ける。この場合、画像分類処理部304は、A群に分類した行動画像203に対応する対象者を、管理業務に向いている可能性があると判定してよい。 For example, when the coloring rule 204 in FIG. 6 is followed, the action image 203 of the employee whose working time and leaving time every day are on time becomes pale in color. Employees who perform such work are considered to be suitable for management work, for example. Therefore, the correct answer information, which is suitable for management work, is associated with the group A, which has a light color as a common feature in terms of image. In this case, the image classification processing unit 304 may determine that the target person corresponding to the action image 203 classified into the group A may be suitable for the management work.

例えば、図6の着色規則204に従う場合、毎日の出勤時刻が定時よりも早く、及び/又は、毎日の退勤時刻が定時よりも遅い社員の行動画像203は、全体的に濃い色になる。このような勤務を行う社員は、健康面のフォローを行う必要性が高いと考えられる。そこで、画像的に共通の特徴として全体的に濃い色を有するB群に、健康面のフォローを行う必要性有りという正解情報を対応付ける。この場合、画像分類処理部304は、B群に分類した行動画像203に対応する対象者を、健康面のフォローを行う必要性があると判定してよい。 For example, when the coloring rule 204 of FIG. 6 is followed, the action image 203 of the employee whose working time every day is earlier than the regular time and/or whose daily leaving time is later than the regular time is dark in color as a whole. It is considered highly necessary for employees who perform such work to follow up on their health. Therefore, the correct answer information indicating that it is necessary to follow the health aspect is associated with the group B, which has a dark color as a common feature in terms of image. In this case, the image classification processing unit 304 may determine that the target person corresponding to the action image 203 classified into the B group needs to follow the health aspect.

なお、画像分類処理部304は、対象者の通常の行動画像203はA群に分類されているにもかかわらず、最近の行動画像203がB群に分類されるようになった場合に、健康面のフォローを行う必要性があると判定してもよい。 It should be noted that the image classification processing unit 304 determines that the normal behavioral image 203 of the subject is classified into the group A, but the recent behavioral image 203 is classified into the group B. It may be determined that it is necessary to follow the face.

また、画像分類処理部304は、B群に対してストレス耐性が高いという正解情報を対応付けて、画像分類処理部304においてB群に分類した行動画像203に対応する対象者を、ストレス耐性が高い可能性があると判定してもよい。 In addition, the image classification processing unit 304 associates the correct answer information that the stress resistance is high with the B group, and determines that the target person corresponding to the action image 203 classified into the B group by the image classification processing unit 304 has the stress resistance. It may be determined that there is a high possibility.

例えば、図6の着色規則204に従う場合、フレキシブルな勤務を行っている社員の行動画像203は、全体的にまだら模様(バラバラ)の色になる。このような勤務を行う社員は、例えば、定型業務よりも、特定のプロジェクトのスポット対応などに向いていると考えられる。そこで、画像的に共通の特徴として全体的にまだら模様を有するC群に、スポット対応に向いているという正解情報を対応付ける。この場合、画像分類処理部304は、C群に分類した行動画像203に対応する対象者を、スポット対応に向いている可能性があると判定してよい。 For example, when the coloring rule 204 of FIG. 6 is followed, the action image 203 of the employee who is working flexibly has a mottled (separate) color as a whole. Employees who perform such work are considered to be more suitable for spot correspondence of a specific project rather than routine work, for example. Therefore, the correct answer information that it is suitable for spot correspondence is associated with the group C which has a mottled pattern as a common feature in terms of image. In this case, the image classification processing unit 304 may determine that the target person corresponding to the action image 203 classified into the C group may be suitable for spot correspondence.

図10は、画像再学習処理の一例を示すフローチャートである。 FIG. 10 is a flowchart showing an example of the image re-learning process.

画像学習処理部303は、上述のとおり、大量の行動画像203から、推定アルゴリズムを生成する。しかし、推定アルゴリズムによる分類結果306が管理者の想定と大きく異なる場合や、新たな傾向を有する行動データが増えてきた場合などには、推定アルゴリズムを調整する必要性が生じる。そのような場合、図10に示す画像再学習処理を実行してよい。次に、図10に示す画像学習処理について説明する。 The image learning processing unit 303 generates an estimation algorithm from the large number of action images 203 as described above. However, when the classification result 306 by the estimation algorithm is significantly different from the assumption of the administrator, or when the behavior data having a new tendency is increased, the estimation algorithm needs to be adjusted. In such a case, the image re-learning process shown in FIG. 10 may be executed. Next, the image learning process shown in FIG. 10 will be described.

まず、勤務日次取得処理部102は、勤務日次取得処理において、勤務日次テーブル103を取得する(S101)。 First, the work day acquisition processing unit 102 acquires the work day table 103 in the work day acquisition process (S101).

次に、行動画像生成処理部202は、行動画像生成処理において、勤務日次テーブル103から行動画像203を生成する(S102)。 Next, the action image generation processing unit 202 generates the action image 203 from the work day table 103 in the action image generation process (S102).

次に、画像学習処理部303は、画像学習処理において、大量の行動画像203に基づいて、推定アルゴリズムを生成する(S103)。 Next, the image learning processing unit 303 generates an estimation algorithm based on the large number of action images 203 in the image learning process (S103).

次に、画像分類処理部304は、画像分類処理において、推定アルゴリズムを用いて、行動画像203を何れかの群に分類する(S104)。 Next, in the image classification process, the image classification processing unit 304 classifies the action image 203 into any group using the estimation algorithm (S104).

管理者は、S104の分類結果306の傾向が正しいか否かを判断する(S105)。 The administrator determines whether the tendency of the classification result 306 of S104 is correct (S105).

分類結果306の傾向が正しいと管理者が判断した場合(S105:YES)、フローは、本処理を終了する。 When the administrator determines that the tendency of the classification result 306 is correct (S105: YES), the flow ends this processing.

分類結果306の傾向が正しくないと管理者が判断した場合(S105:NO)、次に、管理者は、何を調整するかを決定する(S106)。 When the administrator determines that the tendency of the classification result 306 is not correct (S105: NO), the administrator then decides what to adjust (S106).

管理者が画像生成規則206を調整すると決定した場合(S106:画像生成規則)、フローは、S102へ戻り、前回とは異なる行動生成規則を用いて、行動画像生成処理を行う。これにより、前回とは異なる行動画像203が生成される。 When the administrator determines to adjust the image generation rule 206 (S106: image generation rule), the flow returns to S102, and the action image generation process is performed using the action generation rule different from the previous one. As a result, the action image 203 different from the previous one is generated.

管理者が、学習データを調整すると決定した場合(S106:学習データ)、フローはS103へ戻り、前回とは異なる群及び推定アルゴリズムを生成する。これにより、行動画像203が前回とは異なる群に分類され得る。 If the administrator decides to adjust the learning data (S106: learning data), the flow returns to S103 to generate a group and estimation algorithm different from the previous one. Thereby, the action image 203 can be classified into a group different from the last time.

図11は、表示データ307の表示例を示す図である。 FIG. 11 is a diagram showing a display example of the display data 307.

結果出力処理部305は、分類結果306に基づいて表示データ307を生成し、図11に例示するように、その表示データ307を表示装置に表示する。 The result output processing unit 305 generates the display data 307 based on the classification result 306, and displays the display data 307 on the display device as illustrated in FIG. 11.

例えば、健康のケアに関し、「ケアが必要」、「要注意」、「問題無し」の3つの群に分類する推定アルゴリズムを用いて、或る部署の各社員の2018年の3月の行動画像203を分類した結果、1人の社員の行動画像203が「ケアが必要」の群に分類され、2人の行動画像203が「要注意」の群に分類されたとする。この場合、結果出力処理部305は、図11に例示するように、3月予測結果として、1人の社員が「ケアが必要」であり、2人の社員が「要注意」であることを表示する。 For example, regarding health care, using an estimation algorithm that classifies into three groups of "need care", "requiring attention", and "no problem", behavior images of each employee in a department in March 2018 As a result of classifying 203, it is assumed that the behavior image 203 of one employee is classified into the "need care" group and the behavior image 203 of two people is classified into the "need attention" group. In this case, as illustrated in FIG. 11, the result output processing unit 305 determines that one employee is “needs care” and two employees are “needs attention” as the March prediction result. indicate.

これにより、部署の上司や人事部などは、社員の健康が悪化する前に、その社員をケアすることができる。 As a result, the manager of the department or the personnel department can take care of the employee before the health of the employee deteriorates.

図12は、本開示に係る装置のハードウェア構成の一例を示す図である。 FIG. 12 is a diagram illustrating an example of the hardware configuration of the device according to the present disclosure.

図12に示すように、本開示に係る勤務管理装置101、画像出力装置201、画像分析装置301、及び端末装置801は、内部バス1001と、当該内部バス1001に接続されているプロセッサ1002、メインメモリ1003、記憶装置1004、通信装置1005、入力装置1006及び表示装置1007とを備える。 As illustrated in FIG. 12, the work management apparatus 101, the image output apparatus 201, the image analysis apparatus 301, and the terminal device 801 according to the present disclosure include an internal bus 1001, a processor 1002 connected to the internal bus 1001, and a main unit. A memory 1003, a storage device 1004, a communication device 1005, an input device 1006, and a display device 1007 are provided.

プロセッサ1002は、例えばCPU(Central Processing Unit)等である。メインメモリ1003は、例えばDRAM(Dynamic Random Access Memory)等である。記憶装置1004は、例えばSSD(Solid State Drive)又はHDD(Hard Disk Drive)等である。通信装置1005は、例えばEthernet(登録商標)ボード又は無線LANボード等である。入力装置1006は、例えばキーボード及びマウス等である。表示装置1007は、例えば液晶ディスプレイ等である。 The processor 1002 is, for example, a CPU (Central Processing Unit) or the like. The main memory 1003 is, for example, a DRAM (Dynamic Random Access Memory) or the like. The storage device 1004 is, for example, an SSD (Solid State Drive) or an HDD (Hard Disk Drive). The communication device 1005 is, for example, an Ethernet (registered trademark) board, a wireless LAN board, or the like. The input device 1006 is, for example, a keyboard and a mouse. The display device 1007 is, for example, a liquid crystal display or the like.

上述した勤務管理装置101、画像出力装置201、及び画像分析装置301の機能は、プロセッサ1002が記憶装置1004及び/又はメインメモリ1003内のコンピュータプログラムを実行することにより、実現されてよい。 The functions of the work management apparatus 101, the image output apparatus 201, and the image analysis apparatus 301 described above may be realized by the processor 1002 executing a computer program in the storage device 1004 and/or the main memory 1003.

なお、本実施例では、行動項目として、始業時刻、終業時刻、および健康管理時間に着目して簡略化した例を示した。しかしながら、これに限定されることはなく、行動に関する他の様々な項目を行動項目として用いてもよい。 In this embodiment, the action items are simplified by focusing on the start time, end time, and health care time. However, the present invention is not limited to this, and various other items regarding actions may be used as action items.

図13は、勤務管理装置101による情報収集について説明するための図である。図14は、行動データの一例を示す図である。 FIG. 13 is a diagram for explaining information collection by the work management apparatus 101. FIG. 14 is a diagram showing an example of action data.

図13に示すように、勤務管理装置101は、各種DBから、各種情報統合装置を介して、行動データに関する各種情報を取得する。そして、勤務管理装置101は、その取得した各種情報から、図14に示すように、社員毎に、各日付における各種行動項目に対応する測定値が記入された行動データを生成し、記憶装置に格納する。図14に示すように、行動データには、上述した始業時刻、終業時刻、及び健康管理時間の他にも、休暇区分、深夜時間及び出張時間など、様々な勤務に関する測定値が含まれてよい。 As illustrated in FIG. 13, the work management apparatus 101 acquires various types of information regarding behavior data from various types of DBs via various types of information integration apparatuses. Then, the work management apparatus 101 generates behavior data in which measured values corresponding to various behavior items on each date are entered for each employee from the acquired various information as shown in FIG. Store. As shown in FIG. 14, the action data may include measurement values relating to various work such as vacation classification, midnight time, and business trip time in addition to the above-mentioned start time, end time, and health management time. ..

実施例1では、行動画像203において、全ての行動項目に同じサイズの領域を割り当てる例を示したが、それに限定されることはない。実施例2では、行動項目に優先度を付与し、行動画像203における各行動項目の領域を優先度に応じたサイズとする例を示す。 In the first embodiment, in the action image 203, an example in which the same size area is assigned to all action items is shown, but the present invention is not limited to this. In the second embodiment, an example is shown in which priorities are given to action items and the area of each action item in the action image 203 has a size corresponding to the priority.

図15は、優先度テーブルの一例を示す図である。図16は、実施例2に係る行動画像403の一例を示す模式図である。 FIG. 15 is a diagram showing an example of the priority table. FIG. 16 is a schematic diagram illustrating an example of the action image 403 according to the second embodiment.

優先度テーブル401は、行動項目に対して、優先度を設定するためのテーブルである。図15に例示する優先度テーブル401は、始業時刻及び終業時刻に対して優先度が最も高い「1」を設定し、健康管理時間に対して優先度が最も低い「3」を設定する。この場合、行動画像生成処理部202は、行動画像403の生成において、図16に示すように、始業時刻及び終業時刻の優先度は比較的高いので、始業時刻及び終業時刻に対応するマスのサイズを大きくし、健康管理時間の優先度は比較的低いので、健康管理時間に対応するマスのサイズを小さくする。 The priority table 401 is a table for setting priorities for action items. In the priority table 401 illustrated in FIG. 15, “1” having the highest priority is set for the start time and the end time of the work, and “3” having the lowest priority is set for the health care time. In this case, the action image generation processing unit 202, when generating the action image 403, as shown in FIG. 16, the start time and the end time have relatively high priority, and therefore the size of the square corresponding to the start time and the end time. Since the priority of health care time is relatively low, the size of the mass corresponding to the health care time is reduced.

これにより、優先度の高い行動項目のマスほどサイズが大きくなるので、行動画像403の特徴を分析する際に、優先度の高いマスの影響力が大きくなる。すなわち、優先度の高い行動項目を大きい領域に割り当てることにより、優先度を考慮した分析を可能にする行動画像403を生成することができる。また、優先度テーブル401によって、各行動項目に対して優先度を設定することにより、抽出される特徴群を調整することができる。 As a result, the size of the square of the action item having a higher priority becomes larger, so that the influence of the square having a higher priority becomes larger when the characteristics of the action image 403 are analyzed. That is, by assigning a high priority action item to a large area, it is possible to generate the action image 403 that enables analysis in consideration of the priority. Further, the feature table to be extracted can be adjusted by setting the priority for each action item using the priority table 401.

上述した各実施例は、本発明の説明のための例示であり、本発明の範囲をそれらの実施例にのみ限定する趣旨ではない。当業者は、本発明の範囲を逸脱することなしに、他の様々な態様で本発明を実施することができる。 The embodiments described above are examples for explaining the present invention, and are not intended to limit the scope of the present invention only to those embodiments. Those skilled in the art can implement the present invention in various other modes without departing from the scope of the present invention.

100…データ処理システム 101…勤務管理装置 102…勤務日次取得処理部 201…画像出力装置 202…行動画像生成処理部 301…画像分析装置 302…画像入力処理部 303…画像学習処理部 304…画像分類処理部 305…結果出力処理部 100... Data processing system 101... Work management device 102... Work daily acquisition processing unit 201... Image output device 202... Behavior image generation processing unit 301... Image analysis device 302... Image input processing unit 303... Image learning processing unit 304... Image Classification processing unit 305... Result output processing unit

Claims (11)

人の行動に関するデータを処理するデータ処理システムであって、
人による所定の行動項目の行動を計測した計測値を蓄積した行動データを格納するデータ管理部と、
行動項目毎に計測値に対応する色を定めた着色規則と、行動項目毎に前記着色規則で着色された領域を画像のどこに配置するかを定めた配置規則とを用いて、人毎に、所定期間の行動データに含まれる各行動項目の計測値に対応する色に着色した領域を配置した行動画像を生成する画像出力部と、
人の行動画像と当該人の性質および/または状態を示す正解情報とを学習し、学習結果に基づいて、人の行動画像から当該人の性質および/または状態を推定する画像分析部と、
を有するデータ処理システム。
A data processing system for processing data on human behavior, comprising:
A data management unit that stores action data that accumulates measurement values obtained by measuring actions of predetermined action items by a person,
For each person, using a coloring rule that defines a color corresponding to the measured value for each action item, and an arrangement rule that determines where in the image the region colored by the coloring rule is arranged for each action item, An image output unit that generates an action image in which a region colored in a color corresponding to the measurement value of each action item included in the action data of a predetermined period is arranged,
An image analysis unit that learns a behavior image of a person and correct answer information indicating the nature and/or state of the person, and estimates the nature and/or state of the person from the behavior image of the person based on the learning result,
A data processing system having.
前記画像分析部は、人の行動画像と当該人の性質および/または状態を示す正解情報とを学習することにより、人の行動画像に基づいて当該人の性質および/または状態を推定するための推定アルゴリズムを生成し、前記推定アルゴリズムに基づいて、対象者の行動画像から該対象者の性質および/または状態を推定する、
請求項1に記載のデータ処理システム。
The image analysis unit learns a behavior image of a person and correct answer information indicating the nature and/or state of the person to estimate the nature and/or state of the person based on the behavior image of the person. Generating an estimation algorithm, and estimating the property and/or state of the subject from the action image of the subject based on the estimation algorithm,
The data processing system according to claim 1.
前記配置規則は、縦横に区切った複数のマスのそれぞれに日毎の行動項目を割り当てた情報であり、
前記画像出力部は、人の所定期間のデータに基づいて、それぞれのマスを該マスに割り当てられた行動項目の計測値に対応する色で着色した行動画像を生成する、
請求項1に記載のデータ処理システム。
The arrangement rule is information in which a daily action item is assigned to each of a plurality of vertically and horizontally separated cells,
The image output unit generates an action image in which each cell is colored with a color corresponding to a measurement value of an action item assigned to the cell, based on data of a person for a predetermined period.
The data processing system according to claim 1.
前記着色規則は、労働した時間に関連する行動項目については、同一の行動項目の領域は同一の色相とし、前記労働した時間が長くなるほど濃い色調となるように定められている、
請求項1に記載のデータ処理システム。
The coloring rule, for action items related to working hours, the areas of the same action items are defined as the same hue, and the darker color tone is set as the working time becomes longer.
The data processing system according to claim 1.
前記配置規則は、縦方向と横方向のいずれかの方向に日付が並び他の方向に行動項目が並ぶように、前記複数のマスに日毎の行動項目を割り当てる、
請求項3に記載のデータ処理システム。
The arrangement rule assigns daily action items to the plurality of cells so that dates are arranged in either the vertical direction or the horizontal direction and action items are arranged in the other direction.
The data processing system according to claim 3.
行動項目に優先度があり、
前記画像出力部は、行動項目の領域を優先度に応じた大きさとする、
請求項1に記載のデータ処理システム。
Action items have priority,
The image output unit sets the area of the action item to a size according to the priority,
The data processing system according to claim 1.
対象者の性質および/または状態に関する情報を表示する情報提示部を更に有する、
請求項1に記載のデータ処理システム。
It further has an information presentation unit that displays information about the nature and/or condition of the subject.
The data processing system according to claim 1.
前記情報提示部は前記対象者の行動画像を更に表示する、
請求項7に記載のデータ処理システム。
The information presenting unit further displays an action image of the target person,
The data processing system according to claim 7.
前記学習はディープラーニングである、
請求項1に記載のデータ処理システム。
The learning is deep learning,
The data processing system according to claim 1.
計算機装置が人の行動に関するデータを処理するためのデータ処理方法であって、
人による所定の行動項目の行動を計測した計測値を蓄積した行動データを格納し、
行動項目毎に計測値に対応する色を定めた着色規則と、行動項目毎に前記着色規則で着色された領域を画像のどこに配置するかを定めた配置規則とを用いて、人毎に、所定期間の行動データに含まれる各行動項目の計測値に対応する色に着色した領域を配置した行動画像を生成し、
人の行動画像と当該人の性質および/または状態を示す正解情報とを学習し、学習結果に基づいて、人の行動画像から当該人の性質および/または状態を推定する、
ことをコンピュータが実行するデータ処理方法。
A data processing method for a computer device to process data relating to human behavior, comprising:
Stores behavior data that accumulates measurement values that measure the behavior of predetermined behavior items by people,
For each person, using a coloring rule that defines a color corresponding to the measured value for each action item, and an arrangement rule that determines where in the image the region colored by the coloring rule is arranged for each action item, Generates an action image in which regions colored in colors corresponding to the measured values of each action item included in the action data of a predetermined period are arranged,
Learning a person's action image and correct answer information indicating the person's property and/or state, and estimating the person's property and/or state from the person's action image based on the learning result.
A data processing method by which a computer executes a thing.
人の行動に関するデータを処理するためのデータ処理プログラムであって、
人による所定の行動項目の行動を計測した計測値を蓄積した行動データを格納し、
行動項目毎に計測値に対応する色を定めた着色規則と、行動項目毎に前記着色規則で着色された領域を画像のどこに配置するかを定めた配置規則とを用いて、人毎に、所定期間の行動データに含まれる各行動項目の計測値に対応する色に着色した領域を配置した行動画像を生成し、
人の行動画像と当該人の性質および/または状態を示す正解情報とを学習し、学習結果に基づいて、人の行動画像から当該人の性質および/または状態を推定する、
ことをコンピュータに実行させるためのデータ処理プログラム。
A data processing program for processing data on human behavior,
Stores behavior data that accumulates measurement values that measure the behavior of predetermined behavior items by people,
For each person, using a coloring rule that defines a color corresponding to the measured value for each action item, and an arrangement rule that determines where in the image the region colored by the coloring rule is arranged for each action item, Generates an action image in which regions colored in colors corresponding to the measured values of each action item included in the action data of a predetermined period are arranged,
Learning a person's action image and correct answer information indicating the person's property and/or state, and estimating the person's property and/or state from the person's action image based on the learning result.
A data processing program that causes a computer to execute a thing.
JP2018232563A 2018-12-12 2018-12-12 Data processing systems, methods, and programs Active JP6983145B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018232563A JP6983145B2 (en) 2018-12-12 2018-12-12 Data processing systems, methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018232563A JP6983145B2 (en) 2018-12-12 2018-12-12 Data processing systems, methods, and programs

Publications (2)

Publication Number Publication Date
JP2020095448A true JP2020095448A (en) 2020-06-18
JP6983145B2 JP6983145B2 (en) 2021-12-17

Family

ID=71086419

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018232563A Active JP6983145B2 (en) 2018-12-12 2018-12-12 Data processing systems, methods, and programs

Country Status (1)

Country Link
JP (1) JP6983145B2 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10301981A (en) * 1997-04-28 1998-11-13 Tokyo Electric Power Co Inc:The Color determination supporting system for appearance of building
JP2004191276A (en) * 2002-12-13 2004-07-08 Koito Ind Ltd Apparatus for distinguishing road-surface state
JP2008210386A (en) * 2007-02-26 2008-09-11 General Electric Co <Ge> Method and device for providing visual key indicating level of severity or importance
WO2017010103A1 (en) * 2015-07-16 2017-01-19 日本電気株式会社 Data analysis device, data analysis method, and storage medium storing data analysis program
JP2017109161A (en) * 2015-12-15 2017-06-22 ウエノテックス株式会社 Waste screening system and screening method therefor
JP2017170066A (en) * 2016-03-25 2017-09-28 東芝情報システム株式会社 Health management system and health management program
JP2017182531A (en) * 2016-03-31 2017-10-05 大日本印刷株式会社 Information processor, information processing method, and program
WO2018079647A1 (en) * 2016-10-28 2018-05-03 日本電気株式会社 Process management device, process management method, and recording medium
JP2018190140A (en) * 2017-05-01 2018-11-29 オムロン株式会社 Learning apparatus, learning method, and learning program
WO2019187288A1 (en) * 2018-03-27 2019-10-03 日本電気株式会社 Information processing device, data generation method, and non-transient computer-readable medium whereon program has been stored

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10301981A (en) * 1997-04-28 1998-11-13 Tokyo Electric Power Co Inc:The Color determination supporting system for appearance of building
JP2004191276A (en) * 2002-12-13 2004-07-08 Koito Ind Ltd Apparatus for distinguishing road-surface state
JP2008210386A (en) * 2007-02-26 2008-09-11 General Electric Co <Ge> Method and device for providing visual key indicating level of severity or importance
WO2017010103A1 (en) * 2015-07-16 2017-01-19 日本電気株式会社 Data analysis device, data analysis method, and storage medium storing data analysis program
JP2017109161A (en) * 2015-12-15 2017-06-22 ウエノテックス株式会社 Waste screening system and screening method therefor
JP2017170066A (en) * 2016-03-25 2017-09-28 東芝情報システム株式会社 Health management system and health management program
JP2017182531A (en) * 2016-03-31 2017-10-05 大日本印刷株式会社 Information processor, information processing method, and program
WO2018079647A1 (en) * 2016-10-28 2018-05-03 日本電気株式会社 Process management device, process management method, and recording medium
JP2018190140A (en) * 2017-05-01 2018-11-29 オムロン株式会社 Learning apparatus, learning method, and learning program
WO2019187288A1 (en) * 2018-03-27 2019-10-03 日本電気株式会社 Information processing device, data generation method, and non-transient computer-readable medium whereon program has been stored

Also Published As

Publication number Publication date
JP6983145B2 (en) 2021-12-17

Similar Documents

Publication Publication Date Title
US10917740B1 (en) Laboratory utilization monitoring and analytics
US9767436B2 (en) System for managing formal mentoring programs
CN106548357B (en) Client satisfaction evaluation method and system
US20240185160A1 (en) Workforce sentiment monitoring and detection systems and methods
Serrano-Guerrero et al. Statistical methodology to assess changes in the electrical consumption profile of buildings
JP2016151979A (en) Mental health care support system, device, method, and program
Ranisavljević et al. Management information system and decision making process in enterprise
Duckworth et al. Inferring work task Automatability from AI expert evidence
JP2021144756A (en) Project plan formulation system
Li et al. A Bayesian networks-based risk identification approach for software process risk: the context of Chinese trustworthy software
Ara et al. Integrating wearable sensor technology into project-management process
JP2019164738A (en) Prediction device, prediction method, prediction program, generation device, generation method and generation program
JP6983145B2 (en) Data processing systems, methods, and programs
RU127493U1 (en) ORGANIZATIONAL SYSTEM MANAGEMENT CENTER
CA3136409A1 (en) Systems and methods for automated modeling of service processes
WO2018073914A1 (en) System for inferring factor for accident during physical distribution warehouse task
CN115422538A (en) Application risk identification method, device and equipment
WO2018090055A1 (en) System and method for software adoption
JP6421001B2 (en) Information processing system, information display method, and program
JP2021114153A (en) Information processing device, information processing method, and program
WO2024210083A1 (en) Prediction system, prediction method, and program
WO2024106309A1 (en) Engagement inference method, program, and engagement inference system
Pratiwi et al. A theoretical framework of data quality in participatory sensing: A case of mHealth
WO2022219810A1 (en) Information presentation device, information presentation method, and program
Dutta Operational performance benchmarking for commercial buildings by using text analytics on work order logs and tenant survey data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211122

R150 Certificate of patent or registration of utility model

Ref document number: 6983145

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150