JP6983145B2 - Data processing systems, methods, and programs - Google Patents

Data processing systems, methods, and programs Download PDF

Info

Publication number
JP6983145B2
JP6983145B2 JP2018232563A JP2018232563A JP6983145B2 JP 6983145 B2 JP6983145 B2 JP 6983145B2 JP 2018232563 A JP2018232563 A JP 2018232563A JP 2018232563 A JP2018232563 A JP 2018232563A JP 6983145 B2 JP6983145 B2 JP 6983145B2
Authority
JP
Japan
Prior art keywords
image
person
behavior
action
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018232563A
Other languages
Japanese (ja)
Other versions
JP2020095448A (en
Inventor
隆憲 関澤
稔 福島
向前 斉
康治 西原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions Ltd
Original Assignee
Hitachi Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions Ltd filed Critical Hitachi Solutions Ltd
Priority to JP2018232563A priority Critical patent/JP6983145B2/en
Publication of JP2020095448A publication Critical patent/JP2020095448A/en
Application granted granted Critical
Publication of JP6983145B2 publication Critical patent/JP6983145B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、人間の行動に関するデータを処理する技術に関する。 The present invention relates to a technique for processing data relating to human behavior.

少子高齢化が加速されることに伴う労働人口の減少が現実的な問題となってきている。企業などの組織では、生産性や競争力を維持し向上するために、継続的に人的リソースを確保し、かつ、その人的リソースを有効に活用することが求められる。 The decrease in the working population due to the declining birthrate and aging population has become a real problem. Organizations such as companies are required to continuously secure human resources and make effective use of those human resources in order to maintain and improve productivity and competitiveness.

それを実現するためにIT(Information Technology)技術の活用が期待される。そして一部の分野では有効な手法が実現されている。 It is expected that IT (Information Technology) technology will be utilized to realize this. And effective methods have been realized in some fields.

例えば、IT技術により人的リソースの一部の業務を軽減したり、代替したりすることが推進されている(特許文献1参照)。例えば、RPA(Robotic Process Automation)により人的リソースの業務を軽減したり、人的リソースの業務をRPAが代替して実行したりすることが期待できる。 For example, IT technology is being promoted to reduce or replace some of the work of human resources (see Patent Document 1). For example, it can be expected that RPA (Robotic Process Automation) will reduce the work of human resources, and that RPA will replace the work of human resources.

特開2018−022257号公報Japanese Unexamined Patent Publication No. 2018-022257

更に、様々な分野でIT技術により人自体の行動を分析し、その分析結果を利用することが望まれている。例えば、企業などの組織では、従業員の行動を分析し、分析結果を利用して従業員の能力を有効に活用できるようにすることが望まれる。具体的には、休職や離職の抑制、生産性の高い働き方、生産性を向上させる人材配置、などの実現が期待される。 Furthermore, it is desired to analyze the behavior of a person himself / herself by using IT technology in various fields and utilize the analysis result. For example, in an organization such as a company, it is desired to analyze the behavior of employees and utilize the analysis results so that the abilities of employees can be effectively utilized. Specifically, it is expected to realize measures such as curbing leave and turnover, highly productive work styles, and personnel allocation to improve productivity.

しかしながら、人の行動データにはノイズとなるデータが多く含まれており、またデータの多様性が高いため、有効な分析結果が得られない場合が多い。例えば、重回帰分析でノイズを特徴量としてとらえてしまうことがある。また機械学習ではノイズを過学習してしまうことがある。従業員の休職、離職、生産性の高低などには複数の要因が複雑に関連し合っているため、予測アルゴリズムの精度向上が困難である。 However, human behavior data contains a lot of noise data, and the diversity of the data is high, so that effective analysis results are often not obtained. For example, noise may be regarded as a feature in multiple regression analysis. In machine learning, noise may be over-learned. It is difficult to improve the accuracy of the prediction algorithm because multiple factors are intricately related to employee leave, turnover, and productivity.

本発明の目的は、人の行動を有効に分析する技術を提供することである。 An object of the present invention is to provide a technique for effectively analyzing human behavior.

本発明の1つの実施態様に従うデータ処理システムは、人の行動に関するデータを処理するデータ処理システムであって、人による所定の行動項目の行動を計測した計測値を蓄積した行動データを格納するデータ管理部と、行動項目毎に計測値に対応する色を定めた着色規則と、行動項目毎に前記着色規則で着色された領域を画像のどこに配置するかを定めた配置規則とを用いて、人毎に、所定期間の行動データに含まれる各行動項目の計測値に対応する色に着色した領域を配置した行動画像を生成する画像出力部と、人の行動画像と当該人の性質および/または状態を示す正解情報とを学習し、前記学習結果に基づいて、人の行動画像から当該人の性質および/または状態を推定する画像分析部と、を有する。 The data processing system according to one embodiment of the present invention is a data processing system that processes data related to human behavior, and stores behavior data accumulating measurement values obtained by measuring the behavior of a predetermined behavior item by a person. Using the management unit, a coloring rule that defines the color corresponding to the measured value for each action item, and an arrangement rule that defines where in the image the area colored by the coloring rule is placed for each action item, An image output unit that generates an action image in which an area colored in a color corresponding to the measured value of each action item included in the action data for a predetermined period is arranged for each person, a person's action image, the nature of the person, and / Alternatively, it has an image analysis unit that learns correct answer information indicating a state and estimates the property and / or state of the person from the behavior image of the person based on the learning result.

人的リソースの能力の有効活用を支援することができる。 It can support the effective utilization of the capacity of human resources.

実施例1に係るデータ処理システムの構成例を示す図である。It is a figure which shows the configuration example of the data processing system which concerns on Example 1. FIG. 勤務管理装置の構成例を示す図である。It is a figure which shows the configuration example of the work management apparatus. 画像出力装置の構成例を示す図である。It is a figure which shows the configuration example of an image output device. 画像分析装置の構成例を示す図である。It is a figure which shows the structural example of the image analyzer. 勤務日次テーブルの構成例を示す図である。It is a figure which shows the structural example of the working day table. 着色規則の構成例を示す図である。It is a figure which shows the structural example of the coloring rule. 配置規則の構成例を示す図である。It is a figure which shows the structural example of the arrangement rule. 行動画像データの一例を示す図である。It is a figure which shows an example of the behavior image data. 行動画像の一例を示す模式図である。It is a schematic diagram which shows an example of a behavior image. 画像再学習処理の一例を示すフローチャートである。It is a flowchart which shows an example of the image re-learning process. 表示データの表示例を示す図である。It is a figure which shows the display example of the display data. 本開示に係る装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the apparatus which concerns on this disclosure. 勤務管理装置による情報収集について説明するための図である。It is a figure for demonstrating information collection by a work management apparatus. 行動データの一例を示す図である。It is a figure which shows an example of the behavior data. 実施例2に係る優先度テーブルの一例を示す図である。It is a figure which shows an example of the priority table which concerns on Example 2. FIG. 実施例2に係る行動画像の一例を示す模式図である。It is a schematic diagram which shows an example of the behavior image which concerns on Example 2. FIG.

以下、本発明の実施形態について図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、実施例1に係るデータ処理システムの構成例を示す図である。 FIG. 1 is a diagram showing a configuration example of a data processing system according to the first embodiment.

データ処理システム100は、人の行動に関するデータを処理するためのシステムである。データ処理システム100は、図1に示すように、データ管理部の一例である勤務管理装置101と、画像出力部の一例である画像出力装置201と、画像分析部の一例である画像分析装置301と、端末装置801とを備える。これらの装置101,201,301,801は、有線LAN(Local Area Network)及び/又は無線LAN等のネットワーク901に接続されており、互いにデータを送受信可能である。なお、これらの装置101,201,301,801は、それぞれ、図12に示す計算機装置であってもよい。また、これらの装置101,201,301の少なくとも2つが1つの計算機装置として構成されてもよい。 The data processing system 100 is a system for processing data related to human behavior. As shown in FIG. 1, the data processing system 100 includes a work management device 101 which is an example of a data management unit, an image output device 201 which is an example of an image output unit, and an image analysis device 301 which is an example of an image analysis unit. And a terminal device 801 are provided. These devices 101, 201, 301, 801 are connected to a network 901 such as a wired LAN (Local Area Network) and / or a wireless LAN, and can transmit and receive data to and from each other. Note that these devices 101, 201, 301, and 801 may be computer devices shown in FIG. 12, respectively. Further, at least two of these devices 101, 201, and 301 may be configured as one computer device.

図2は、勤務管理装置101の構成例を示す図である。 FIG. 2 is a diagram showing a configuration example of the work management device 101.

図2に示すように、勤務管理装置101は、勤務日次取得処理部102を有する。勤務日次取得処理部102は、例えば、所定のDB(DataBase)等から、行動データの一例である勤務日次テーブル103を取得し、記憶装置(図12参照)に蓄積する。 As shown in FIG. 2, the work management device 101 has a work day acquisition processing unit 102. The working day acquisition processing unit 102 acquires, for example, a working day table 103, which is an example of behavior data, from a predetermined DB (DataBase) or the like, and stores it in a storage device (see FIG. 12).

行動データは、人による所定の行動項目の行動を測定した計測値を蓄積したデータである。行動データの一例である勤務日次テーブル103において、行動項目の一例は「出勤時刻」であり、行動項目「出勤時刻」に対応する計測値の一例は社員が実際に出勤した時刻である。なお、勤務日次テーブル103の詳細については後述する(図5参照)。 Behavior data is data that accumulates measured values that measure the behavior of a predetermined behavior item by a person. In the work day table 103, which is an example of behavior data, an example of an action item is "commuting time", and an example of a measured value corresponding to the action item "commuting time" is the time when an employee actually goes to work. The details of the working day table 103 will be described later (see FIG. 5).

図3は、画像出力装置201の構成例を示す図である。 FIG. 3 is a diagram showing a configuration example of the image output device 201.

図3に示すように、画像出力装置201は、行動画像生成処理部202を有する。行動画像生成処理部202は、勤務日次テーブル103から、着色規則204と配置規則205とを含む画像生成規則206を用いて、人(社員)ごとに、行動画像203を生成する。 As shown in FIG. 3, the image output device 201 has a behavior image generation processing unit 202. The action image generation processing unit 202 generates an action image 203 for each person (employee) from the work day table 103 by using the image generation rule 206 including the coloring rule 204 and the arrangement rule 205.

着色規則204は、行動項目毎に計測値に対応する色を定めたものである。配置規則205は、行動項目毎に着色規則204で着色された領域(マス)を画像のどこに配置するかを定めたものである。なお、着色規則204及び配置規則205の詳細については後述する(図6参照)。 The coloring rule 204 defines the color corresponding to the measured value for each action item. The arrangement rule 205 defines where in the image the area (square) colored by the coloring rule 204 is arranged for each action item. The details of the coloring rule 204 and the arrangement rule 205 will be described later (see FIG. 6).

行動画像203は、所定期間の行動データに含まれる各行動項目の計測値に対応する色に着色した領域を配置したものである。なお、行動画像203の詳細については後述する(図8及び図9参照)。 The action image 203 is arranged with a color-colored area corresponding to the measured value of each action item included in the action data for a predetermined period. The details of the behavior image 203 will be described later (see FIGS. 8 and 9).

図4は、画像分析装置301の構成例を示す図である。 FIG. 4 is a diagram showing a configuration example of the image analyzer 301.

図4に示すように、画像分析装置301は、画像入力処理部302、画像学習処理部303、画像分類処理部304、及び結果出力処理部305を有する。 As shown in FIG. 4, the image analysis device 301 has an image input processing unit 302, an image learning processing unit 303, an image classification processing unit 304, and a result output processing unit 305.

画像入力処理部302は、画像出力装置201によって生成された行動画像203の入力を受け付ける。 The image input processing unit 302 receives the input of the action image 203 generated by the image output device 201.

画像学習処理部303は、大量の行動画像203を学習し、行動画像203を、画像的に共通の特徴を有する群に分類するための推定アルゴリズムを生成する。例えば、画像学習処理部303は、ディープラーニングによって大量の行動画像203を学習し、推定アルゴリズムに相当するニューラルネットワークのモデルを生成する。このように、画像化によってノイズが抑制されたディープラーニングにより、複雑な人の行動を精度よく分析できる。 The image learning processing unit 303 learns a large amount of behavior images 203, and generates an estimation algorithm for classifying the behavior images 203 into groups having common characteristics in terms of images. For example, the image learning processing unit 303 learns a large amount of behavior images 203 by deep learning and generates a model of a neural network corresponding to an estimation algorithm. In this way, deep learning in which noise is suppressed by imaging makes it possible to accurately analyze complex human behavior.

また、画像学習処理部303は、各群に対して、正解情報を対応付ける。例えば、管理者は、同じ群に属する行動画像203に対応する人々の性質及び/又は状態(つまり人の行動パターン)を示す正解情報を、その群に対応付ける。このように、人の行動のデータを画像化し、その画像を処理して、人の性質および/または状態を推定することにより、人の行動を有効に分析することができる。 Further, the image learning processing unit 303 associates correct answer information with each group. For example, the manager associates the group with correct information indicating the nature and / or state (that is, the behavior pattern of the person) of the people corresponding to the behavior image 203 belonging to the same group. In this way, human behavior can be effectively analyzed by imaging the data of human behavior and processing the image to estimate the nature and / or state of the person.

画像分類処理部304は、画像学習処理部303によって生成された推定アルゴリズムを用いて、対象者の行動画像203を何れかの群に分類する。そして、画像分類処理部304は、その群に対応付けられている正解情報を、分類結果306として生成する。すなわち、画像分類処理部304は、推定アルゴリズムを用いて、対象者の行動パターンを推定する。このように、人の行動のデータを画像化して学習した推定アルゴリズムを用いて対象者の性質および/または状態を推定することにより、対象者の行動を有効に分析することができる。 The image classification processing unit 304 classifies the behavior image 203 of the subject into any group by using the estimation algorithm generated by the image learning processing unit 303. Then, the image classification processing unit 304 generates the correct answer information associated with the group as the classification result 306. That is, the image classification processing unit 304 estimates the behavior pattern of the subject by using the estimation algorithm. In this way, the behavior of the subject can be effectively analyzed by estimating the property and / or the state of the subject by using the estimation algorithm learned by imaging the data of the behavior of the person.

結果出力処理部305は、情報提示部の一例であり、画像分類処理部304によって生成された分類結果306から、表示データ307を生成し、表示装置(図12参照)に表示する。これにより、対象者の性質および/または状態やそれに対する活用施策を提示することができるので、人の能力の有効活用を支援することができる。 The result output processing unit 305 is an example of an information presentation unit, and displays data 307 from the classification result 306 generated by the image classification processing unit 304 and displays it on a display device (see FIG. 12). As a result, the nature and / or condition of the target person and the utilization measures for it can be presented, so that the effective utilization of the human ability can be supported.

また、結果出力処理部305は、対象者の行動画像203を表示装置に表示してもよい。これにより、管理者は対象者の性質および/または状態を行動画像203によって直感的に把握することができる。 Further, the result output processing unit 305 may display the behavior image 203 of the target person on the display device. As a result, the manager can intuitively grasp the nature and / or state of the subject by the behavior image 203.

図5は、勤務日次テーブル103の構成例を示す図である。 FIG. 5 is a diagram showing a configuration example of the working day table 103.

図5に示すように、勤務日次テーブル103は、データ項目として、社員IDと、年月日と、出勤時刻と、退勤時刻とを有する。例えば、図5の1行目は、「社員A」が、「2018/07/01」に、「08:25」に出勤し、「18:05」に退勤したことを示す。 As shown in FIG. 5, the work day table 103 has an employee ID, a date, a work time, and a leave time as data items. For example, the first line of FIG. 5 shows that "employee A" went to work at "08:25" at "2018/07/01" and left at "18:05".

図6は、着色規則204の構成例を示す図である。 FIG. 6 is a diagram showing a configuration example of the coloring rule 204.

着色規則204は、例えば、労働した時間に関連する行動項目については、同一の行動項目の領域は同一の色相とし、労働した時間が長くなるほど濃い色調となるように定める。このように着色規則204を定めることにより、労働の時間が長い従事者の勤務画像には色の濃い領域が現れるようになるので、直感的に従事者の労働時間の長短を把握することができる。 The coloring rule 204 defines, for example, that for action items related to working hours, the areas of the same action item have the same hue, and the longer the working hours, the darker the color tone. By defining the coloring rule 204 in this way, dark areas appear in the work image of the worker who has a long working time, so that the length of the working time of the worker can be intuitively grasped. ..

図6の上段のテーブルは、行動項目と、配色種別と、色相との対応関係を定める例である。 The upper table of FIG. 6 is an example of defining the correspondence relationship between the action item, the color scheme type, and the hue.

図6の上段のテーブルの1行目は、行動項目「始業時刻」に対して、配色種別「濃淡1」、色相「青」を用いることを定める。ここで、「濃淡1」は、図6の下段のテーブルの1行目に示すように、範囲「最小値〜10%未満」には濃淡「濃」を、範囲「10%以上〜60%未満」には濃淡「やや濃」を、範囲「60%以上〜90%未満」には濃淡「やや淡」を、範囲「90%以上〜最大値」には濃淡「淡」を用いることを定める。すなわち、この着色規則204に従えば、行動画像203において、行動項目「始業時刻」のマスは、時刻が早いほど濃い色調で着色される。 The first row of the table in the upper part of FIG. 6 stipulates that the color scheme type "shade 1" and the hue "blue" are used for the action item "starting time". Here, as shown in the first row of the table in the lower part of FIG. 6, “shade 1” is a shade “dark” in the range “minimum value less than 10%” and a range “10% or more and less than 60%”. It is stipulated that the shade "slightly dark" is used for "", the shade "slightly light" is used for the range "60% or more and less than 90%", and the shade "light" is used for the range "90% or more to the maximum value". That is, according to this coloring rule 204, in the action image 203, the square of the action item “starting time” is colored in a darker color as the time is earlier.

図6の上段のテーブルの2行目は、行動項目「終業時刻」に対して、配色種別「濃淡2」、色相「緑」を用いることを定める。ここで、「濃淡2」は、図6の下段のテーブルの2行目に示すように、範囲「最小値〜10%未満」には濃淡「淡」を、範囲「10%以上〜60%未満」には濃淡「やや淡」を、範囲「60%以上〜90%未満」には濃淡「やや濃」を、範囲「90%以上〜最大値」には濃淡「濃」を用いることを定める。すなわち、この着色規則204に従えば、行動画像203において、行動項目「就業時刻」のマスは、時刻が遅いほど濃い色調で着色される。 The second row of the table in the upper part of FIG. 6 stipulates that the color scheme type "shade 2" and the hue "green" are used for the action item "end time". Here, as shown in the second row of the lower table of FIG. 6, “shade 2” is a shade “light” in the range “minimum value less than 10%” and a range “10% or more and less than 60%”. It is stipulated that the shade "slightly light" is used for "", the shade "slightly dark" is used for the range "60% or more and less than 90%", and the shade "dark" is used for the range "90% or more to the maximum value". That is, according to this coloring rule 204, in the action image 203, the square of the action item “working time” is colored in a darker color as the time is later.

図6の上段のテーブルの4行目は、行動項目「健康管理時間」に対して、配色種別「色分け1」、色相「1:青、2:緑、3:黄、4:赤」を用いることを定める。ここで、「色分け1」は、図6の下段のテーブルの3行目に示すように、範囲「0以下」には色相「色1」を、範囲「0以上〜15未満」には色相「色2」を、範囲「15以上〜45未満」には色相「色3」を、範囲「45以上」には色相「色4」を用いることを定める。 In the fourth row of the upper table in FIG. 6, the color scheme type "color coding 1" and the hue "1: blue 2: green 3: yellow 4: red" are used for the action item "health management time". Determine that. Here, as shown in the third row of the lower table in FIG. 6, "color coding 1" is the hue "color 1" in the range "0 or less" and the hue "color 1" in the range "0 or more and less than 15". It is defined that "color 2" is used, the hue "color 3" is used for the range "15 or more and less than 45", and the hue "color 4" is used for the range "45 or more".

図7は、配置規則205の構成例を示す図である。 FIG. 7 is a diagram showing a configuration example of the arrangement rule 205.

図7に示すように、配置規則205は、縦横に区切った複数のマス(領域)のそれぞれに日毎の行動項目を割り当てた情報である。例えば、図7に示すように、配置規則205は、縦方向と横方向のいずれかの方向に日付が並び他の方向に行動項目が並ぶように、複数のマスに日毎の行動項目を割り当てることを定める。配置規則205をこのように定めることにより、同じ項目の日付毎の計測値が縦または横に一列に並ぶので、行動の類似性が画像の特徴量に現れやすくなる。 As shown in FIG. 7, the arrangement rule 205 is information in which daily action items are assigned to each of a plurality of cells (areas) divided vertically and horizontally. For example, as shown in FIG. 7, the arrangement rule 205 assigns daily action items to a plurality of cells so that dates are arranged in either the vertical direction or the horizontal direction and action items are arranged in the other direction. To determine. By defining the arrangement rule 205 in this way, the measured values for each date of the same item are arranged vertically or horizontally in a row, so that the similarity of behavior is likely to appear in the feature amount of the image.

また、図6及び図7に示すように、着色規則204と配置規則205に従って行動項目の計測値に対応する色でマスを着色することにより、容易に行動画像203を生成することができる。 Further, as shown in FIGS. 6 and 7, the action image 203 can be easily generated by coloring the mass with the color corresponding to the measured value of the action item according to the coloring rule 204 and the arrangement rule 205.

図8は、行動画像データ213の一例を示す図である。 FIG. 8 is a diagram showing an example of behavior image data 213.

行動画像生成処理部202は、配置規則205に従って、図8に示すように、縦方向に日付を並べ、横方向に行動項目を並べて行動画像データ213を生成する。そして、行動画像生成処理部202は、図8に示すように、行動画像データ213における行動項目の値に対して、着色規則204に従う色相及び濃淡を対応付ける。例えば、行動画像生成処理部202は、「2018/04/02」の始業時刻「08:56」に対して、図6に示す着色規則204に従って、色相「青」及び濃淡「淡」を対応付ける。 As shown in FIG. 8, the action image generation processing unit 202 generates the action image data 213 by arranging the dates in the vertical direction and arranging the action items in the horizontal direction according to the arrangement rule 205. Then, as shown in FIG. 8, the action image generation processing unit 202 associates the value of the action item in the action image data 213 with the hue and the shade according to the coloring rule 204. For example, the behavior image generation processing unit 202 associates the hue “blue” and the shade “light” with the start time “08:56” of “2018/04/02” according to the coloring rule 204 shown in FIG.

図9は、行動画像203の一例を示す図である。 FIG. 9 is a diagram showing an example of the behavior image 203.

行動画像生成処理部202は、図8に示す行動画像データに基づいて、図9に示すように、行動画像203を生成する。例えば、図9に示す行動画像203のマスPは、図8に示す行動画像データの「2018/04/02」の始業時刻「08:56」に対応している。したがって、行動画像生成処理部202は、行動画像203のマスPを、淡青で着色する。行動画像生成処理部202は、終業時刻及び健康管理時間についても同様に、行動画像203における対応するマスを着色する。これにより、始業時刻、終業時刻、及び健康管理時間を行動画像203に反映させることができる。 The behavior image generation processing unit 202 generates the behavior image 203 as shown in FIG. 9 based on the behavior image data shown in FIG. For example, the mass P of the action image 203 shown in FIG. 9 corresponds to the start time “08:56” of the action image data “2018/04/02” shown in FIG. Therefore, the action image generation processing unit 202 colors the mass P of the action image 203 with light blue. The behavior image generation processing unit 202 also colors the corresponding squares in the behavior image 203 for the closing time and the health management time. As a result, the start time, the end time, and the health management time can be reflected in the behavior image 203.

画像学習処理部303は、このように着色された行動画像203に基づいて、画像的に共通の特徴を有する群に分類するための推定アルゴリズムを生成する。 The image learning processing unit 303 generates an estimation algorithm for classifying into groups having common features in the image based on the behavior image 203 colored in this way.

例えば、図6の着色規則204に従う場合、毎日の出勤時刻及び退勤時刻が定時どおりである社員の行動画像203は、全体的に淡い色になる。このような勤務を行う社員は、例えば、管理業務に向いていると考えられる。そこで、画像的に共通の特徴として全体的に淡い色を有するA群に、管理業務に向いているという正解情報を対応付ける。この場合、画像分類処理部304は、A群に分類した行動画像203に対応する対象者を、管理業務に向いている可能性があると判定してよい。 For example, when the coloring rule 204 of FIG. 6 is obeyed, the behavior image 203 of an employee whose work time and leaving time are on time every sunrise becomes a light color as a whole. Employees who perform such work are considered to be suitable for management work, for example. Therefore, the correct answer information that it is suitable for management work is associated with the group A which has a light color as a whole as a common feature in the image. In this case, the image classification processing unit 304 may determine that the target person corresponding to the behavior image 203 classified into the A group may be suitable for the management work.

例えば、図6の着色規則204に従う場合、毎日の出勤時刻が定時よりも早く、及び/又は、毎日の退勤時刻が定時よりも遅い社員の行動画像203は、全体的に濃い色になる。このような勤務を行う社員は、健康面のフォローを行う必要性が高いと考えられる。そこで、画像的に共通の特徴として全体的に濃い色を有するB群に、健康面のフォローを行う必要性有りという正解情報を対応付ける。この場合、画像分類処理部304は、B群に分類した行動画像203に対応する対象者を、健康面のフォローを行う必要性があると判定してよい。 For example, when the coloring rule 204 of FIG. 6 is obeyed, the behavior image 203 of an employee whose work time is earlier than the scheduled time every sunrise and / or whose leaving time is later than the scheduled time is darkened as a whole. Employees who work in this way are considered to have a high need to follow up on their health. Therefore, the correct answer information that it is necessary to follow the health aspect is associated with the group B which has a dark color as a whole as a common feature in the image. In this case, the image classification processing unit 304 may determine that it is necessary to follow the health aspect of the subject corresponding to the behavior image 203 classified into the B group.

なお、画像分類処理部304は、対象者の通常の行動画像203はA群に分類されているにもかかわらず、最近の行動画像203がB群に分類されるようになった場合に、健康面のフォローを行う必要性があると判定してもよい。 In addition, the image classification processing unit 304 is healthy when the recent behavior image 203 is classified into the B group even though the normal behavior image 203 of the subject is classified into the A group. It may be determined that it is necessary to follow the surface.

また、画像分類処理部304は、B群に対してストレス耐性が高いという正解情報を対応付けて、画像分類処理部304においてB群に分類した行動画像203に対応する対象者を、ストレス耐性が高い可能性があると判定してもよい。 Further, the image classification processing unit 304 associates the correct answer information that the stress tolerance is high with respect to the B group, and stress tolerance is applied to the subject corresponding to the behavior image 203 classified into the B group in the image classification processing unit 304. It may be determined that there is a high possibility.

例えば、図6の着色規則204に従う場合、フレキシブルな勤務を行っている社員の行動画像203は、全体的にまだら模様(バラバラ)の色になる。このような勤務を行う社員は、例えば、定型業務よりも、特定のプロジェクトのスポット対応などに向いていると考えられる。そこで、画像的に共通の特徴として全体的にまだら模様を有するC群に、スポット対応に向いているという正解情報を対応付ける。この場合、画像分類処理部304は、C群に分類した行動画像203に対応する対象者を、スポット対応に向いている可能性があると判定してよい。 For example, when the coloring rule 204 of FIG. 6 is obeyed, the behavior image 203 of an employee who works flexibly has a mottled pattern (disjoint) color as a whole. Employees who perform such work are considered to be more suitable for spot support of specific projects than routine work, for example. Therefore, the correct answer information that it is suitable for spot correspondence is associated with the C group which has a mottled pattern as a whole as a common feature in the image. In this case, the image classification processing unit 304 may determine that the target person corresponding to the behavior image 203 classified into the C group may be suitable for spot correspondence.

図10は、画像再学習処理の一例を示すフローチャートである。 FIG. 10 is a flowchart showing an example of the image re-learning process.

画像学習処理部303は、上述のとおり、大量の行動画像203から、推定アルゴリズムを生成する。しかし、推定アルゴリズムによる分類結果306が管理者の想定と大きく異なる場合や、新たな傾向を有する行動データが増えてきた場合などには、推定アルゴリズムを調整する必要性が生じる。そのような場合、図10に示す画像再学習処理を実行してよい。次に、図10に示す画像学習処理について説明する。 As described above, the image learning processing unit 303 generates an estimation algorithm from a large number of action images 203. However, when the classification result 306 by the estimation algorithm is significantly different from the administrator's assumption, or when the behavior data having a new tendency increases, it becomes necessary to adjust the estimation algorithm. In such a case, the image re-learning process shown in FIG. 10 may be executed. Next, the image learning process shown in FIG. 10 will be described.

まず、勤務日次取得処理部102は、勤務日次取得処理において、勤務日次テーブル103を取得する(S101)。 First, the working day acquisition processing unit 102 acquires the working day table 103 in the working day acquisition processing (S101).

次に、行動画像生成処理部202は、行動画像生成処理において、勤務日次テーブル103から行動画像203を生成する(S102)。 Next, the behavior image generation processing unit 202 generates the behavior image 203 from the working day table 103 in the behavior image generation processing (S102).

次に、画像学習処理部303は、画像学習処理において、大量の行動画像203に基づいて、推定アルゴリズムを生成する(S103)。 Next, the image learning processing unit 303 generates an estimation algorithm based on a large amount of action images 203 in the image learning process (S103).

次に、画像分類処理部304は、画像分類処理において、推定アルゴリズムを用いて、行動画像203を何れかの群に分類する(S104)。 Next, the image classification processing unit 304 classifies the behavior image 203 into any group by using the estimation algorithm in the image classification processing (S104).

管理者は、S104の分類結果306の傾向が正しいか否かを判断する(S105)。 The manager determines whether or not the tendency of the classification result 306 of S104 is correct (S105).

分類結果306の傾向が正しいと管理者が判断した場合(S105:YES)、フローは、本処理を終了する。 When the administrator determines that the tendency of the classification result 306 is correct (S105: YES), the flow ends this process.

分類結果306の傾向が正しくないと管理者が判断した場合(S105:NO)、次に、管理者は、何を調整するかを決定する(S106)。 When the manager determines that the tendency of the classification result 306 is not correct (S105: NO), the manager then decides what to adjust (S106).

管理者が画像生成規則206を調整すると決定した場合(S106:画像生成規則)、フローは、S102へ戻り、前回とは異なる行動生成規則を用いて、行動画像生成処理を行う。これにより、前回とは異なる行動画像203が生成される。 When the administrator decides to adjust the image generation rule 206 (S106: image generation rule), the flow returns to S102 and performs the action image generation process using the action generation rule different from the previous one. As a result, an action image 203 different from the previous one is generated.

管理者が、学習データを調整すると決定した場合(S106:学習データ)、フローはS103へ戻り、前回とは異なる群及び推定アルゴリズムを生成する。これにより、行動画像203が前回とは異なる群に分類され得る。 If the administrator decides to adjust the training data (S106: training data), the flow returns to S103 and generates a different group and estimation algorithm from the previous time. As a result, the behavior image 203 can be classified into a group different from the previous one.

図11は、表示データ307の表示例を示す図である。 FIG. 11 is a diagram showing a display example of the display data 307.

結果出力処理部305は、分類結果306に基づいて表示データ307を生成し、図11に例示するように、その表示データ307を表示装置に表示する。 The result output processing unit 305 generates display data 307 based on the classification result 306, and displays the display data 307 on the display device as illustrated in FIG.

例えば、健康のケアに関し、「ケアが必要」、「要注意」、「問題無し」の3つの群に分類する推定アルゴリズムを用いて、或る部署の各社員の2018年の3月の行動画像203を分類した結果、1人の社員の行動画像203が「ケアが必要」の群に分類され、2人の行動画像203が「要注意」の群に分類されたとする。この場合、結果出力処理部305は、図11に例示するように、3月予測結果として、1人の社員が「ケアが必要」であり、2人の社員が「要注意」であることを表示する。 For example, regarding health care, using an estimation algorithm that classifies into three groups, "care required", "caution required", and "no problem", the behavior image of each employee in a certain department in March 2018. As a result of classifying 203, it is assumed that the behavior image 203 of one employee is classified into the group of "need care" and the behavior image 203 of two people is classified into the group of "need attention". In this case, as illustrated in FIG. 11, the result output processing unit 305 indicates that one employee is "needs care" and two employees are "need attention" as the March prediction result. indicate.

これにより、部署の上司や人事部などは、社員の健康が悪化する前に、その社員をケアすることができる。 As a result, the boss of the department, the personnel department, etc. can take care of the employee before the health of the employee deteriorates.

図12は、本開示に係る装置のハードウェア構成の一例を示す図である。 FIG. 12 is a diagram showing an example of the hardware configuration of the apparatus according to the present disclosure.

図12に示すように、本開示に係る勤務管理装置101、画像出力装置201、画像分析装置301、及び端末装置801は、内部バス1001と、当該内部バス1001に接続されているプロセッサ1002、メインメモリ1003、記憶装置1004、通信装置1005、入力装置1006及び表示装置1007とを備える。 As shown in FIG. 12, the work management device 101, the image output device 201, the image analysis device 301, and the terminal device 801 according to the present disclosure include the internal bus 1001, the processor 1002 connected to the internal bus 1001, and the main. It includes a memory 1003, a storage device 1004, a communication device 1005, an input device 1006, and a display device 1007.

プロセッサ1002は、例えばCPU(Central Processing Unit)等である。メインメモリ1003は、例えばDRAM(Dynamic Random Access Memory)等である。記憶装置1004は、例えばSSD(Solid State Drive)又はHDD(Hard Disk Drive)等である。通信装置1005は、例えばEthernet(登録商標)ボード又は無線LANボード等である。入力装置1006は、例えばキーボード及びマウス等である。表示装置1007は、例えば液晶ディスプレイ等である。 The processor 1002 is, for example, a CPU (Central Processing Unit) or the like. The main memory 1003 is, for example, a DRAM (Dynamic Random Access Memory) or the like. The storage device 1004 is, for example, an SSD (Solid State Drive) or an HDD (Hard Disk Drive). The communication device 1005 is, for example, an Ethernet (registered trademark) board, a wireless LAN board, or the like. The input device 1006 is, for example, a keyboard, a mouse, or the like. The display device 1007 is, for example, a liquid crystal display or the like.

上述した勤務管理装置101、画像出力装置201、及び画像分析装置301の機能は、プロセッサ1002が記憶装置1004及び/又はメインメモリ1003内のコンピュータプログラムを実行することにより、実現されてよい。 The functions of the work management device 101, the image output device 201, and the image analysis device 301 described above may be realized by the processor 1002 executing a computer program in the storage device 1004 and / or the main memory 1003.

なお、本実施例では、行動項目として、始業時刻、終業時刻、および健康管理時間に着目して簡略化した例を示した。しかしながら、これに限定されることはなく、行動に関する他の様々な項目を行動項目として用いてもよい。 In this embodiment, a simplified example is shown focusing on the start time, the end time, and the health management time as action items. However, the present invention is not limited to this, and various other items related to actions may be used as action items.

図13は、勤務管理装置101による情報収集について説明するための図である。図14は、行動データの一例を示す図である。 FIG. 13 is a diagram for explaining information collection by the work management device 101. FIG. 14 is a diagram showing an example of behavior data.

図13に示すように、勤務管理装置101は、各種DBから、各種情報統合装置を介して、行動データに関する各種情報を取得する。そして、勤務管理装置101は、その取得した各種情報から、図14に示すように、社員毎に、各日付における各種行動項目に対応する測定値が記入された行動データを生成し、記憶装置に格納する。図14に示すように、行動データには、上述した始業時刻、終業時刻、及び健康管理時間の他にも、休暇区分、深夜時間及び出張時間など、様々な勤務に関する測定値が含まれてよい。 As shown in FIG. 13, the work management device 101 acquires various information related to behavior data from various DBs via various information integration devices. Then, the work management device 101 generates behavior data in which the measured values corresponding to the various behavior items on each date are entered for each employee from the acquired various information, and stores the behavior data in the storage device, as shown in FIG. Store. As shown in FIG. 14, the behavioral data may include measurements related to various work hours such as vacation classification, midnight time and business trip time, in addition to the above-mentioned start time, end time, and health management time. ..

実施例1では、行動画像203において、全ての行動項目に同じサイズの領域を割り当てる例を示したが、それに限定されることはない。実施例2では、行動項目に優先度を付与し、行動画像203における各行動項目の領域を優先度に応じたサイズとする例を示す。 In the first embodiment, in the action image 203, an example of allocating an area of the same size to all action items is shown, but the present invention is not limited thereto. In the second embodiment, a priority is given to the action item, and an example in which the area of each action item in the action image 203 is set to the size according to the priority is shown.

図15は、優先度テーブルの一例を示す図である。図16は、実施例2に係る行動画像403の一例を示す模式図である。 FIG. 15 is a diagram showing an example of a priority table. FIG. 16 is a schematic diagram showing an example of the behavior image 403 according to the second embodiment.

優先度テーブル401は、行動項目に対して、優先度を設定するためのテーブルである。図15に例示する優先度テーブル401は、始業時刻及び終業時刻に対して優先度が最も高い「1」を設定し、健康管理時間に対して優先度が最も低い「3」を設定する。この場合、行動画像生成処理部202は、行動画像403の生成において、図16に示すように、始業時刻及び終業時刻の優先度は比較的高いので、始業時刻及び終業時刻に対応するマスのサイズを大きくし、健康管理時間の優先度は比較的低いので、健康管理時間に対応するマスのサイズを小さくする。 The priority table 401 is a table for setting priorities for action items. In the priority table 401 illustrated in FIG. 15, the highest priority "1" is set for the start time and the end time, and the lowest priority "3" is set for the health management time. In this case, the action image generation processing unit 202 has a relatively high priority of the start time and the end time in the generation of the action image 403, as shown in FIG. 16, and therefore the size of the mass corresponding to the start time and the end time. And reduce the size of the mass corresponding to the health care time because the priority of the health care time is relatively low.

これにより、優先度の高い行動項目のマスほどサイズが大きくなるので、行動画像403の特徴を分析する際に、優先度の高いマスの影響力が大きくなる。すなわち、優先度の高い行動項目を大きい領域に割り当てることにより、優先度を考慮した分析を可能にする行動画像403を生成することができる。また、優先度テーブル401によって、各行動項目に対して優先度を設定することにより、抽出される特徴群を調整することができる。 As a result, the size of the square of the action item with higher priority becomes larger, so that the influence of the square with higher priority becomes larger when analyzing the characteristics of the action image 403. That is, by allocating a high-priority action item to a large area, it is possible to generate an action image 403 that enables analysis in consideration of the priority. Further, by setting the priority for each action item by the priority table 401, the extracted feature group can be adjusted.

上述した各実施例は、本発明の説明のための例示であり、本発明の範囲をそれらの実施例にのみ限定する趣旨ではない。当業者は、本発明の範囲を逸脱することなしに、他の様々な態様で本発明を実施することができる。 Each of the above-described examples is an example for the purpose of explaining the present invention, and the scope of the present invention is not limited to those examples. One of ordinary skill in the art can practice the invention in various other embodiments without departing from the scope of the invention.

100…データ処理システム 101…勤務管理装置 102…勤務日次取得処理部 201…画像出力装置 202…行動画像生成処理部 301…画像分析装置 302…画像入力処理部 303…画像学習処理部 304…画像分類処理部 305…結果出力処理部 100 ... Data processing system 101 ... Work management device 102 ... Work day acquisition processing unit 201 ... Image output device 202 ... Behavior image generation processing unit 301 ... Image analysis device 302 ... Image input processing unit 303 ... Image learning processing unit 304 ... Image Classification processing unit 305 ... Result output processing unit

Claims (11)

人の行動に関するデータを処理するデータ処理システムであって、
人による所定の行動項目の行動を計測した計測値を蓄積した行動データを格納するデータ管理部と、
行動項目毎に計測値に対応する色を定めた着色規則と、行動項目毎に前記着色規則で着色された領域を画像のどこに配置するかを定めた配置規則とを用いて、人毎に、所定期間の行動データに含まれる各行動項目の計測値に対応する色に着色した領域を配置した行動画像を生成する画像出力部と、
人の行動画像と当該人の性質および/または状態を示す正解情報とを学習し、学習結果に基づいて、人の行動画像から当該人の性質および/または状態を推定する画像分析部と、
を有するデータ処理システム。
A data processing system that processes data related to human behavior.
A data management unit that stores behavior data that accumulates measured values that measure the behavior of a given action item by a person, and
For each person, using a coloring rule that defines the color corresponding to the measured value for each action item and an arrangement rule that defines where in the image the area colored by the coloring rule is placed for each action item. An image output unit that generates an action image in which areas colored in colors corresponding to the measured values of each action item included in the action data for a predetermined period are arranged, and an image output unit.
An image analysis unit that learns a person's behavior image and correct answer information indicating the person's property and / or state, and estimates the person's property and / or state from the person's behavior image based on the learning result.
Data processing system with.
前記画像分析部は、人の行動画像と当該人の性質および/または状態を示す正解情報とを学習することにより、人の行動画像に基づいて当該人の性質および/または状態を推定するための推定アルゴリズムを生成し、前記推定アルゴリズムに基づいて、対象者の行動画像から該対象者の性質および/または状態を推定する、
請求項1に記載のデータ処理システム。
The image analysis unit is for estimating the nature and / or state of the person based on the behavior image of the person by learning the behavior image of the person and the correct answer information indicating the nature and / or state of the person. An estimation algorithm is generated, and the nature and / or state of the subject is estimated from the behavior image of the subject based on the estimation algorithm.
The data processing system according to claim 1.
前記配置規則は、縦横に区切った複数のマスのそれぞれに日毎の行動項目を割り当てた情報であり、
前記画像出力部は、人の所定期間のデータに基づいて、それぞれのマスを該マスに割り当てられた行動項目の計測値に対応する色で着色した行動画像を生成する、
請求項1に記載のデータ処理システム。
The arrangement rule is information in which daily action items are assigned to each of a plurality of cells divided vertically and horizontally.
The image output unit generates an action image in which each cell is colored with a color corresponding to the measured value of the action item assigned to the cell based on the data of a person for a predetermined period.
The data processing system according to claim 1.
前記着色規則は、労働した時間に関連する行動項目については、同一の行動項目の領域は同一の色相とし、前記労働した時間が長くなるほど濃い色調となるように定められている、
請求項1に記載のデータ処理システム。
The coloring rule stipulates that for action items related to working hours, the areas of the same action item have the same hue, and the longer the working hours, the darker the color tone.
The data processing system according to claim 1.
前記配置規則は、縦方向と横方向のいずれかの方向に日付が並び他の方向に行動項目が並ぶように、前記複数のマスに日毎の行動項目を割り当てる、
請求項3に記載のデータ処理システム。
The arrangement rule assigns daily action items to the plurality of cells so that the dates are arranged in either the vertical direction or the horizontal direction and the action items are arranged in the other direction.
The data processing system according to claim 3.
行動項目に優先度があり、
前記画像出力部は、行動項目の領域を優先度に応じた大きさとする、
請求項1に記載のデータ処理システム。
Action items have priority,
The image output unit sets the area of the action item to the size according to the priority.
The data processing system according to claim 1.
対象者の性質および/または状態に関する情報を表示する情報提示部を更に有する、
請求項1に記載のデータ処理システム。
It also has an information presentation unit that displays information about the nature and / or condition of the subject.
The data processing system according to claim 1.
前記情報提示部は前記対象者の行動画像を更に表示する、
請求項7に記載のデータ処理システム。
The information presentation unit further displays the behavior image of the subject.
The data processing system according to claim 7.
前記学習はディープラーニングである、
請求項1に記載のデータ処理システム。
The learning is deep learning,
The data processing system according to claim 1.
計算機装置が人の行動に関するデータを処理するためのデータ処理方法であって、
人による所定の行動項目の行動を計測した計測値を蓄積した行動データを格納し、
行動項目毎に計測値に対応する色を定めた着色規則と、行動項目毎に前記着色規則で着色された領域を画像のどこに配置するかを定めた配置規則とを用いて、人毎に、所定期間の行動データに含まれる各行動項目の計測値に対応する色に着色した領域を配置した行動画像を生成し、
人の行動画像と当該人の性質および/または状態を示す正解情報とを学習し、学習結果に基づいて、人の行動画像から当該人の性質および/または状態を推定する、
ことをコンピュータが実行するデータ処理方法。
It is a data processing method for a computer device to process data related to human behavior.
Stores behavior data that accumulates measured values that measure the behavior of a given action item by a person,
For each person, using a coloring rule that defines the color corresponding to the measured value for each action item and an arrangement rule that defines where in the image the area colored by the coloring rule is placed for each action item. Generates an action image in which areas colored in colors corresponding to the measured values of each action item included in the action data for a predetermined period are arranged.
Learning a person's behavior image and correct information indicating the person's nature and / or state, and estimating the person's nature and / or state from the person's behavior image based on the learning result.
The data processing method that the computer does.
人の行動に関するデータを処理するためのデータ処理プログラムであって、
人による所定の行動項目の行動を計測した計測値を蓄積した行動データを格納し、
行動項目毎に計測値に対応する色を定めた着色規則と、行動項目毎に前記着色規則で着色された領域を画像のどこに配置するかを定めた配置規則とを用いて、人毎に、所定期間の行動データに含まれる各行動項目の計測値に対応する色に着色した領域を配置した行動画像を生成し、
人の行動画像と当該人の性質および/または状態を示す正解情報とを学習し、学習結果に基づいて、人の行動画像から当該人の性質および/または状態を推定する、
ことをコンピュータに実行させるためのデータ処理プログラム。
A data processing program for processing data related to human behavior.
Stores behavior data that accumulates measured values that measure the behavior of a given action item by a person,
For each person, using a coloring rule that defines the color corresponding to the measured value for each action item and an arrangement rule that defines where in the image the area colored by the coloring rule is placed for each action item. Generates an action image in which areas colored in colors corresponding to the measured values of each action item included in the action data for a predetermined period are arranged.
Learning a person's behavior image and correct information indicating the person's nature and / or state, and estimating the person's nature and / or state from the person's behavior image based on the learning result.
A data processing program that lets a computer do things.
JP2018232563A 2018-12-12 2018-12-12 Data processing systems, methods, and programs Active JP6983145B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018232563A JP6983145B2 (en) 2018-12-12 2018-12-12 Data processing systems, methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018232563A JP6983145B2 (en) 2018-12-12 2018-12-12 Data processing systems, methods, and programs

Publications (2)

Publication Number Publication Date
JP2020095448A JP2020095448A (en) 2020-06-18
JP6983145B2 true JP6983145B2 (en) 2021-12-17

Family

ID=71086419

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018232563A Active JP6983145B2 (en) 2018-12-12 2018-12-12 Data processing systems, methods, and programs

Country Status (1)

Country Link
JP (1) JP6983145B2 (en)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3182112B2 (en) * 1997-04-28 2001-07-03 東京電力株式会社 Building exterior color determination support system
JP3747056B2 (en) * 2002-12-13 2006-02-22 小糸工業株式会社 Road surface condition determination device
US7671868B2 (en) * 2007-02-26 2010-03-02 General Electric Company Method and apparatus to provide visual cues indicative of the level of severity or importance
JP6105825B1 (en) * 2015-07-16 2017-03-29 日本電気株式会社 Data analysis apparatus, data analysis method, and data analysis program
JP5969685B1 (en) * 2015-12-15 2016-08-17 ウエノテックス株式会社 Waste sorting system and sorting method
JP6656759B2 (en) * 2016-03-25 2020-03-04 東芝情報システム株式会社 Health management system and health management program
JP2017182531A (en) * 2016-03-31 2017-10-05 大日本印刷株式会社 Information processor, information processing method, and program
US10692257B2 (en) * 2016-10-28 2020-06-23 Nec Corporation Process management apparatus, process management method, and storage medium
JP6911498B2 (en) * 2017-05-01 2021-07-28 オムロン株式会社 Learning devices, learning methods, and learning programs
US11341774B2 (en) * 2018-03-27 2022-05-24 Nec Corporation Information processing apparatus, data generation method, and non-transitory computer readable medium storing program

Also Published As

Publication number Publication date
JP2020095448A (en) 2020-06-18

Similar Documents

Publication Publication Date Title
CN106548357B (en) Client satisfaction evaluation method and system
Blandin et al. Uncertainty and management's search for information
Deif Dynamic analysis of a lean cell under uncertainty
Basol et al. Structural determinants of organizational effectiveness
WO2017071369A1 (en) Method and device for predicting user unsubscription
Azadeh et al. An integrated algorithm for performance optimization of neurosurgical ICUs
JP2019197252A (en) Vacancy rate estimation device, method and computer program
Kacar et al. A comparison of multiple linear regression approaches for fitting clearing functions to empirical data
Choudhari et al. Simulation modeling for manpower planning in electrical maintenance service facility
JP6478267B2 (en) Organization improvement activity support device, organization improvement activity support method, and organization improvement activity support program
CN106713267A (en) Network security assessment method and system
Duckworth et al. Inferring work task Automatability from AI expert evidence
Kadri et al. A multivariate time series approach to forecasting daily attendances at hospital emergency department
JP6983145B2 (en) Data processing systems, methods, and programs
Abo-Hamad et al. Multi-criteria framework for emergency department in Irish hospital
Talukdar Employee Engagement& Industrial Relations Climate in a Large Public Sector Organization
US20230177443A1 (en) Systems and methods for automated modeling of processes
US20070226039A1 (en) System and method for assessing segmentation strategies
CN113344392A (en) Enterprise project comprehensive management method and system
Würbach et al. Sample Weights and Nonresponse: The early childhood cohort of the National Educational Panel Study (Wave 1 to 3)
Wang et al. Efficiency assessment and resource allocation for hospitals by data envelopment analysis
Chluski The impact of information technology and knowledge-oriented management on the operational effectiveness in Polish hospitals
Teljeur et al. Using scan statistics for congenital anomalies surveillance: the EUROCAT methodology
JP2020047079A (en) Learning program, learning method and learning device
Aouhassi et al. Information System Quality: Managers Perspective

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211122

R150 Certificate of patent or registration of utility model

Ref document number: 6983145

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150