JP2019061501A - Behavior information processing device - Google Patents

Behavior information processing device Download PDF

Info

Publication number
JP2019061501A
JP2019061501A JP2017185631A JP2017185631A JP2019061501A JP 2019061501 A JP2019061501 A JP 2019061501A JP 2017185631 A JP2017185631 A JP 2017185631A JP 2017185631 A JP2017185631 A JP 2017185631A JP 2019061501 A JP2019061501 A JP 2019061501A
Authority
JP
Japan
Prior art keywords
information
worker
action
unit
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017185631A
Other languages
Japanese (ja)
Other versions
JP7069617B2 (en
Inventor
小松 裕
Yutaka Komatsu
裕 小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2017185631A priority Critical patent/JP7069617B2/en
Priority to US16/130,267 priority patent/US20190095848A1/en
Publication of JP2019061501A publication Critical patent/JP2019061501A/en
Application granted granted Critical
Publication of JP7069617B2 publication Critical patent/JP7069617B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06311Scheduling, planning or task assignment for a person or group
    • G06Q10/063114Status monitoring or status determination for a person or group
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

To identify the behavior of a skilled worker and to support extracting a method that can be reduced to practice by a non-skilled worker.SOLUTION: A behavior information processing device comprises: an information collection section 130 for collecting the information of a plurality of variables in a work environment; a first information retaining section 140 for retaining the information collected by the information collection section 130; a movement information management section 110, an impact information management section 120, and a relationship information acquisition section 160 for identifying the behaviors of a worker in the work environment; a feature detection section 150 for detecting, from the information retained in the first information retaining section 140, information which an event including predetermined features corresponding to the types of information is expressed therein; the relationship information acquisition section 160 for requesting the input of information relating to the relationship between the behaviors identified by the movement information management section 110, the impact information management section 120, and the relationship information acquisition section 160 and the event of the information detected by the feature detection section 150; and a second information retaining section 170 for retaining the information inputted in response to the request by the relationship information acquisition section 160.SELECTED DRAWING: Figure 1

Description

本発明は、行動情報処理装置に関する。   The present invention relates to an action information processing apparatus.

種々の作業において、熟練作業者が非熟練作業者とは異なる手順で作業を行ったり、非熟練作業者がとらない行動を熟練作業者がとったりすることがある。このような、熟練作業者による行動であって、作業の結果に、非熟練作業者による作業とは異なる効果を生じさせる行動を、熟練作業者の技能として継承することが要請される。   In various operations, a skilled worker may perform operations in a procedure different from that of the non-skilled worker, or the skilled worker may take an action that the non-skilled worker does not take. It is required to inherit such an action by a skilled worker which causes an effect different from that of the work by the non-skilled worker as a skill of the skilled worker.

特許文献1には、作業対象となる物体が置かれている状況を把握するための計測部、計測部をコントロールし、かつ得られた情報に対して適切な情報処理を行い、さらに作業者へ提示する視覚情報を構築する情報処理部、及び作業者に対し対象となる物体上に重ね合わせた視覚情報を与えるための表示部を具備し、作業者がなすべき作業を作業現場において指示する作業支援装置が開示されている。また、特許文献2には、生産システムにおいて発生した結果から要因を推定することを支援する要因推定支援装置が開示されている。この要因推定支援装置は、生産システムから取得した材料・環境履歴データおよび検査履歴データと、複数の変量間の因果関係を示す因果構造データとを記憶部に記憶し、最終品質異常検知部にて最終品質特性が異常であると判定した場合、変量異常検知部にて最終品質特性以外の各変量が異常であるかを判定し、この判定結果を、可視化画像作成部にて因果構造データを可視化した可視化画像に反映する。また、特許文献3には、人と1又は複数の測定対象との位置関係と、位置関係の時間変化とに基づいて、人の測定対象に対する関心度を測定対象毎に算出する関心度算出部と、測定対象に関する1又は複数の属性と、属性が有する属性値を記憶する属性記憶部と、測定対象に対する関心度を、測定対象に関する1又は複数の属性の関心度として扱い、属性間の関係性、又は属性と1若しくは複数の属性の関心度の相関を算出する相関算出部とを備える情報処理装置が開示されている。   In Patent Document 1, a measuring unit for grasping a situation where an object to be worked is placed and a measuring unit are controlled, and appropriate information processing is performed on obtained information, and further to an operator. An information processing unit that constructs visual information to be presented, and a display unit that gives the operator visual information superimposed on the target object, and the worker instructs the work to be performed at the work site A support device is disclosed. Further, Patent Document 2 discloses a factor estimation support device that assists in estimating a factor from a result generated in a production system. This factor estimation support device stores in the storage unit the material / environment history data and inspection history data acquired from the production system, and the causal structure data indicating a causal relationship between a plurality of variables, and the final quality abnormality detection unit When it is determined that the final quality characteristic is abnormal, it is determined whether each variable other than the final quality characteristic is abnormal in the variable abnormality detection unit, and the visualization result of the determination result is visualized as the causal structure data. Reflected in the visualized image. In addition, Patent Literature 3 discloses a degree of interest calculation unit that calculates the degree of interest of a person to an object of measurement based on the positional relationship between a person and one or more objects of measurement and the temporal change of the position relationship. And an attribute storage unit storing one or more attributes regarding the measurement target, an attribute value of the attribute, and an interest level of the measurement target as the interest level of the one or more attributes regarding the measurement target, An information processing apparatus is disclosed that includes a correlation calculation unit that calculates a correlation between a gender or an attribute and an interest level of one or more attributes.

特開2009−69954号公報JP, 2009-69954, A 特許第5186956号公報Patent No. 5186956 特開2010−20718号公報JP, 2010-20718, A

作業場等における作業者の行動であって、他の作業者にはない行動には、作業効果の向上に寄与する可能性があるものの、作業者自身にとっても言語化されず説明されない理由(いわゆる暗黙知)に基づくものがある。そのような行動は、言語化して説明されないため、マニュアル等で伝えられる手順等と異なり、手法として再利用(継承)することが困難である。   The behavior of a worker at a work place etc. that is not found in other workers may contribute to the improvement of the work effect, but the reason why it is not verbalized or explained for the worker itself (so-called implicit Knowledge). Such an action is not verbalized and described, so it is difficult to reuse (inherit) as a method, unlike the procedure and the like transmitted in a manual or the like.

本発明は、作業者の行動を特定し、他の作業者にも実施可能な手法として抽出することを支援することを目的とする。   An object of the present invention is to support identification of worker's behavior and extraction as a method that can be implemented by other workers.

請求項1に係る本発明は、
作業環境における複数の変量の情報を収集する収集手段と、
前記収集手段が収集した情報を保持する第1保持手段と、
前記作業環境における作業者の行動を特定する行動特定手段と、
前記第1保持手段に保持された情報から、情報の種類に応じて予め定められた特徴を有する事象が表れた情報を検出する検出手段と、
前記行動特定手段により特定された行動と前記検出手段により検出された情報の事象との関係性についての情報の入力を要求する要求手段と、
前記要求手段の要求に応じて入力された情報を保持する第2保持手段と、
を備えることを特徴とする、行動情報処理装置である。
請求項2に係る本発明は、
前記要求手段は、
質問を生成して提示する質問提示手段と、
提示した質問に対する回答の入力を受け付ける回答受け付け手段と、
を備えることを特徴とする、請求項1に記載の行動情報処理装置である。
請求項3に係る本発明は、
前記質問提示手段は、前記行動特定手段により特定された行動の種類に応じて、質問の種類および提示順を決定することを特徴とする、請求項2に記載の行動情報処理装置である。
請求項4に係る本発明は、
前記行動特定手段は、
作業者の動作を特定する動作特定手段と、
動作の影響と判断される事象を特定する影響特定手段と、
を備えることを特徴とする、請求項1に記載の行動情報処理装置である。
請求項5に係る本発明は、
前記動作特定手段は、作業者による動作に関する情報の入力を受け付け、入力された情報を解析して、当該作業者の動作の内容を特定することを特徴とする、請求項4に記載の行動情報処理装置である。
請求項6に係る本発明は、
前記動作特定手段は、作業環境に設けられたセンサにより計測される作業者のデータに基づき、当該作業者の動作の内容を特定することを特徴とする、請求項4に記載の行動情報処理装置である。
請求項7に係る本発明は、
前記動作特定手段は、作業者を撮影した映像を解析して、当該作業者の動作の内容を特定することを特徴とする、請求項4に記載の行動情報処理装置である。
請求項8に係る本発明は、
作業環境において取得される変量の情報に関して、情報の種類に応じて予め定められた特徴を有する事象が表れた情報を提示すると共に、当該作業環境における作業者の行動との関係を当該作業者に問い合わせる問い合わせ手段と、
前記問い合わせ手段による問い合わせに対する回答の入力を受け付ける回答受け付け手段と、
を備えることを特徴とする、行動情報処理装置である。
The present invention according to claim 1 is
Collection means for collecting information on multiple variables in the work environment;
First holding means for holding information collected by the collecting means;
Action specifying means for specifying a worker's action in the work environment;
A detection unit that detects, from the information held by the first holding unit, information in which an event having a predetermined feature according to the type of the information has appeared;
Request means for requesting input of information on the relationship between the action specified by the action specifying means and the event of the information detected by the detection means;
Second holding means for holding information input in response to the request of the request means;
An action information processing apparatus comprising:
The present invention according to claim 2 is
The request means is
Question presenting means for generating and presenting a question;
Answer acceptance means for accepting input of an answer to the presented question;
The behavior information processing apparatus according to claim 1, comprising:
The present invention according to claim 3 is
3. The action information processing apparatus according to claim 2, wherein the question presenting unit determines the type of the question and the presentation order according to the type of the action specified by the action specifying means.
The present invention according to claim 4 is
The action identification means
Operation specifying means for specifying an operator's operation;
Impact identification means for identifying an event that is determined to be an impact of an operation;
The behavior information processing apparatus according to claim 1, comprising:
The present invention according to claim 5 is
5. The action information according to claim 4, wherein the action specifying unit receives an input of information on an action by the worker, analyzes the input information, and specifies contents of the action of the worker. It is a processing device.
The present invention according to claim 6 is
The behavior information processing apparatus according to claim 4, wherein the operation specifying means specifies the content of the operation of the worker based on data of the worker measured by a sensor provided in the work environment. It is.
The present invention according to claim 7 is
The behavior information processing apparatus according to claim 4, wherein the operation specifying unit analyzes an image obtained by photographing the worker to specify the content of the operation of the worker.
The present invention according to claim 8 is
With regard to the information of the variable acquired in the work environment, information presenting an event having a predetermined characteristic according to the type of information is presented, and the relationship with the worker's behavior in the work environment is given to the worker Inquiry means to inquire,
Response receiving means for receiving an input of a response to the query by the query means;
An action information processing apparatus comprising:

請求項1の発明によれば、作業者の行動と、行動の対象物や作業に関連する情報において検出される事象とを関連付けない構成と比較して、作業者の行動と事象との関係を作業者に認識させ、作業者の行動を他の作業者にも実施可能な手法として抽出することを支援することができる。
請求項2の発明によれば、作業者の行動と、行動の対象物や作業に関連する情報において検出される事象とを関連付けない構成と比較して、質問を通して、作業者の行動と事象との関係に対する作業者の認識を明確化することができる。
請求項3の発明によれば、質問の提示順を固定的に定める構成と比較して、作業者の行動に応じて柔軟に質問を提示することができる。
請求項4の発明によれば、作業者の行動と、行動の対象物や作業に関連する情報において検出される事象とを関連付けない構成と比較して、作業者の動作および動作の影響に基づいて作業者の行動を特定し、特定した行動と事象との関係に対する作業者の認識を明確化することができる。
請求項5の発明によれば、作業者自身が自覚している動作に関して、事象との関係に対する作業者の認識を明確化することができる。
請求項6の発明によれば、作業者は自覚していないがセンサ値によって特定される動作に関して、事象との関係に対する作業者の認識を明確化することができる。
請求項7の発明によれば、作業者は自覚していないが作業者が撮影された画像を解析して特定される動作に関して、事象との関係に対する作業者の認識を明確化することができる。
請求項8の発明によれば、作業者の行動と、行動の対象物や作業に関連する情報において検出される事象とを関連付けない構成と比較して、質問を通して、作業者の行動と事象との関係を作業者に認識させ、作業者の行動を他の作業者にも実施可能な手法として抽出することを支援することができる。
According to the invention of claim 1, the relationship between the action of the worker and the event is compared with the configuration in which the action of the worker is not associated with the event detected in the information related to the target of the action or the task. It is possible to make the worker recognize and to extract the worker's action as a method that can be implemented by other workers.
According to the second aspect of the present invention, in comparison with the configuration in which the worker's behavior is not associated with the event detected in the information related to the target of the behavior or the task, the worker's behavior and events and The operator's perception of the relationship between
According to the third aspect of the present invention, the question can be presented flexibly according to the action of the worker, as compared with the configuration in which the question presentation order is fixedly determined.
According to the fourth aspect of the present invention, compared with the configuration in which the action of the worker is not associated with the event detected in the information related to the target of the action or the task, based on the influence of the worker's action and action Thus, the behavior of the worker can be identified, and the worker's perception of the relationship between the identified behavior and the event can be clarified.
According to the fifth aspect of the present invention, it is possible to clarify the worker's recognition of the relationship with the event regarding the action which the worker himself is aware of.
According to the sixth aspect of the present invention, it is possible to clarify the worker's recognition of the relationship with the event regarding the operation which the worker is not aware of, but specified by the sensor value.
According to the seventh aspect of the present invention, it is possible to clarify the worker's recognition of the relationship with the event with respect to the action identified by analyzing the image taken by the worker but not aware of the worker .
According to the invention of claim 8, as compared with the configuration in which the action of the worker is not associated with the event detected in the information related to the target of the action or the task, the action and the event of the worker are interrogated through the question. The worker can be made to recognize the relationship between the above and the worker's action, and it can help extracting the action of the worker as a method that can be performed by other workers.

本実施形態が適用される行動情報処理装置の構成を示す図である。It is a figure which shows the structure of the action information processing apparatus with which this embodiment is applied. 対象物属性情報の例を示す図である。It is a figure which shows the example of object attribute information. 検査値情報の例を示す図である。It is a figure which shows the example of test value information. 作業関連情報の例を示す図である。It is a figure which shows the example of work relevant information. 行動情報処理装置として用いられるコンピュータのハードウェア構成例を示す図である。It is a figure showing the example of hardware constitutions of the computer used as an action information processing device. 行動情報処理装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of an action information processing apparatus. 質問画面の例を示す図である。It is a figure which shows the example of a question screen. 質問画面の他の例を示す図である。It is a figure which shows the other example of a question screen.

以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。
<行動情報処理装置の構成>
図1は、本実施形態が適用される行動情報処理装置の構成を示す図である。本実施形態の行動情報処理装置100は、動作情報管理部110と、影響情報管理部120と、情報収集部130と、第1情報保持部140と、特徴検出部150と、関係性情報取得部160と、第2情報保持部170とを備える。また、行動情報処理装置100は、製品や作業環境、作業者の動作等に関する種々の情報を取得するための種々の外部装置に接続されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings.
<Configuration of Behavior Information Processing Device>
FIG. 1 is a diagram showing the configuration of an action information processing apparatus to which the present embodiment is applied. The behavior information processing apparatus 100 according to the present embodiment includes an operation information management unit 110, an influence information management unit 120, an information collection unit 130, a first information holding unit 140, a feature detection unit 150, and a relationship information acquisition unit. 160 and a second information holding unit 170. In addition, the behavior information processing apparatus 100 is connected to various external devices for acquiring various information related to a product, a work environment, an operation of a worker, and the like.

動作情報管理部110は、作業者が行った動作に関する情報(動作情報)を管理する手段である。動作情報は、作業者の動作を特定する情報である。したがって、動作情報管理部110は、動作特定手段の一例である。動作情報には、動作を特定する情報として、例えば、動作を行った作業者、動作の対象となった対象物、動作が行われた日時や場所、動作の内容等の情報が含まれる。なお、動作情報は、これらの情報の全てを含むものでなくても良いし、これら以外の情報を含んでも良い。ここで、作業者の動作には、作業における動作だけでなく、作業以外で行った動作も含まれる。例えば、作業で用いる機器を調整する動作、作業で用いる道具の配置を変更する動作、作業中に作業者自身の立ち位置や作業対象の製品の向きを変更する動作等が含まれる。また、対象物には、作業対象の製品だけでなく、作業で用いられる機器や道具等も含まれる。   The operation information management unit 110 is means for managing information (operation information) related to the operation performed by the worker. The operation information is information for specifying the operator's operation. Therefore, the operation information management unit 110 is an example of the operation specifying unit. The motion information includes, for example, information on a worker who performed the motion, a target object of the motion, a date and time when the motion was performed, and a content of the motion, as the information specifying the motion. The operation information may not include all of the information, or may include other information. Here, the operation of the worker includes not only the operation in the operation but also the operation performed in other than the operation. For example, the operation of adjusting the equipment used in the operation, the operation of changing the arrangement of tools used in the operation, the operation of changing the standing position of the worker himself or the direction of the product to be operated during the operation, and the like are included. Further, the target includes not only the product to be worked but also the equipment and tools used in the work.

動作情報管理部110により管理される動作情報は、例えば、対象物の識別情報で特定される。動作情報は、例えば、作業者自身が、行動情報処理装置100のユーザ・インターフェイスとしての入力手段を操作して入力することにより取得される。また、作業場に設けられたカメラやセンサにより取得された映像やセンサ値の変化を解析して動作を特定し、動作情報を取得しても良い。この場合、映像やセンサ値の解析は、解析処理用に用意された解析サーバ(外部サーバ)により行い、解析結果を動作情報管理部110が取得して管理するように構成しても良い。   The operation information managed by the operation information management unit 110 is identified by, for example, identification information of an object. The operation information is acquired, for example, by the worker himself operating the input means as the user interface of the behavior information processing apparatus 100 to input. In addition, it is possible to analyze the change of the image and the sensor value which are acquired by the camera and the sensor which are provided in the work place, specify the operation and acquire the operation information. In this case, the analysis of the video and the sensor value may be performed by an analysis server (external server) prepared for analysis processing, and the operation information management unit 110 may acquire and manage the analysis result.

影響情報管理部120は、作業者が行った動作により生じた影響に関する情報(影響情報)を管理する手段である。影響情報は、作業者の動作により生じた影響を特定する情報である。したがって、影響情報管理部120は、影響特定手段の一例である。影響情報には、例えば、対象物に起こった事象や、対象物の状態の変化等を示す情報が含まれる。また、影響情報は、動作情報管理部110に管理されている動作情報に対応付けて管理される。影響情報管理部120により管理される影響情報は、例えば、対象物の識別情報で特定される。影響情報は、例えば、作業者自身が、行動情報処理装置100のユーザ・インターフェイスとしての入力手段を操作して入力することにより取得される。また、作業場に設けられたカメラやセンサにより取得された映像やセンサ値の変化を解析して対象物に生じた影響を特定し、影響情報を取得しても良い。この場合、映像やセンサ値の解析は、解析処理用に用意された解析サーバ(外部サーバ)により行い、解析結果を影響情報管理部120が取得して管理するように構成しても良い。   The influence information management unit 120 is a means for managing information (influence information) related to the influence caused by the operation performed by the worker. The influence information is information for specifying the influence caused by the operation of the worker. Therefore, the influence information management unit 120 is an example of the influence identification unit. The influence information includes, for example, information indicating an event that has occurred to the object, a change in the state of the object, and the like. Further, the influence information is managed in association with the operation information managed by the operation information management unit 110. The influence information managed by the influence information management unit 120 is identified, for example, by the identification information of the object. The influence information is acquired, for example, by the worker himself operating the input means as the user interface of the behavior information processing apparatus 100 to input. The influence information may be acquired by analyzing the change in the image or sensor value acquired by the camera or sensor provided in the work place, and specifying the influence that has occurred on the object. In this case, the analysis of the image and the sensor value may be performed by an analysis server (external server) prepared for analysis processing, and the influence information management unit 120 may acquire and manage the analysis result.

情報収集部130は、対象物および作業に関連する変量の情報を取得する手段である。情報収集部130は、対象物に関連する変量の情報として、対象物属性情報と、検査値情報とを取得する。また、情報収集部130は、作業に関連する変量の情報として、作業関連情報と、作業者動作情報とを取得する。情報収集部130は、収集手段の一例である。これらの情報は、例えば、製品を管理する管理システム、作業で用いられる機器を管理する管理システム、作業者を管理する管理システム等のサーバ(外部サーバ)から取得される。なお、情報収集部130は、関係性情報取得部160が関係性情報の取得対象である作業者の行動を特定した後、対象物および作業に関連する情報のうち、特定された行動に関連する情報を選択して収集しても良い。関係性情報取得部160が関係性情報の取得対象である作業者の行動を特定する処理については後述する。   The information collecting unit 130 is a means for acquiring information on variables related to the object and the work. The information collecting unit 130 acquires object attribute information and test value information as information of a variable related to the object. In addition, the information collection unit 130 acquires work related information and worker operation information as the information of the variable related to the work. The information collecting unit 130 is an example of a collecting unit. These pieces of information are acquired from, for example, a server (external server) such as a management system that manages products, a management system that manages equipment used in work, and a management system that manages workers. Note that, after the relationship information acquisition unit 160 identifies the action of the worker who is the subject of the relationship information acquisition, the information collection unit 130 relates to the identified action among the information related to the object and the work. Information may be selected and collected. The process in which the relationship information acquisition unit 160 specifies the action of the worker who is the target of the relationship information acquisition will be described later.

対象物属性情報とは、対象物の個体ごとの属性情報である。具体的には、対象物の製造年月日、検査日時等の情報が含まれる。また、対象物の種類によっては、サイズ、重さ、形状、色、可動物の動作速度や可動範囲、構成部品等の情報が含まれる。   The object attribute information is attribute information of each object of the object. Specifically, information such as the date of manufacture of the object, the date of inspection, etc. is included. Further, depending on the type of the object, information such as the size, weight, shape, color, operating speed and movable range of the movable object, and component parts is included.

図2は、対象物属性情報の例を示す図である。図2には、対象物の例として作業で用いられる機器のシリンダーに関する属性情報が示されている。図2に示す例において、「属性名」は、属性の種類を示す。対象物であるシリンダーは、対象物IDで特定される。図2に示す例では、対象物ID「#22」のシリンダーに関して、「製造年月日」、「最終検査日時」、「シリンダー径」、「動作速度」、「構成部品」の5種類の属性の属性値が記録されている。また、図2に示す例において、属性名「構成部品」の欄の属性値を参照すると、対象物ID「#22」のシリンダーには、ID「X222」で特定される部品が装着されている。   FIG. 2 is a diagram showing an example of object attribute information. FIG. 2 shows attribute information on the cylinder of the device used in the operation as an example of the object. In the example shown in FIG. 2, “attribute name” indicates the type of attribute. The cylinder which is the object is identified by the object ID. In the example illustrated in FIG. 2, five types of attributes of “production date”, “final inspection date”, “cylinder diameter”, “operating speed”, and “component part” for the cylinder of the object ID “# 22” The attribute value of is recorded. Further, in the example shown in FIG. 2, with reference to the attribute value of the column of the attribute name "component", the part specified by the ID "X222" is attached to the cylinder of the object ID "# 22" .

検査値情報とは、各対象物の属性に関する検査値の情報である。検査値は、対象物に対する検査によって得られる実測値である。検査値情報の検査値は、時間経過に伴って繰り返し取得される。したがって、検査値情報を参酌することにより、対象物の属性の時間経過に伴う推移を辿ることができる。   The inspection value information is information on inspection values related to the attributes of each object. The inspection value is an actual measurement value obtained by inspection on the object. The inspection value of the inspection value information is repeatedly acquired as time passes. Therefore, by taking into consideration the inspection value information, it is possible to trace the transition of the attribute of the object with time.

図3は、検査値情報の例を示す図である。図3には、対象物ID「#22」のシリンダーに関して、属性名「動作速度」と属性名「作動音」の2種類の属性の検査値が記録されている。検査値は、1日に1回取得され、図3には、5月28日から6月2日までの検査値が示されている。図3を参照すると、作動音の検査値が、5月28日から6月1日まではほぼ57db(デシベル)で安定しているが、6月2日のみ77dbであり、他の検査値から大きく乖離している。すなわち、6月2日になって突然大きな作動音が発生するようになったことがわかる。   FIG. 3 is a diagram showing an example of inspection value information. In FIG. 3, inspection values of two types of attributes of the attribute name “operating speed” and the attribute name “operating sound” are recorded with respect to the cylinder of the object ID “# 22”. Test values are acquired once a day, and FIG. 3 shows test values from May 28 to June 2. Referring to FIG. 3, the test value of the operation sound is stable at approximately 57 db (decibel) from May 28 to June 1, but it is 77 db only on June 2 and other test values There is a big gap. In other words, it can be seen that a loud operation noise was suddenly generated on June 2nd.

作業関連情報とは、作業に関する属性情報である。具体的には、例えば、室温等の環境情報や作業主体である作業者の情報等が含まれる。作業関連情報における個々の情報は、例えば、作業が行われた場所および日時で特定される。   Work-related information is attribute information related to work. Specifically, for example, environmental information such as room temperature, information of a worker who is a work subject, and the like are included. Each piece of information in the work related information is identified, for example, by the place and time when the work was performed.

図4は、作業関連情報の例を示す図である。図4に示す例において、「場所」は作業が行われた場所を特定する。「開始日時」および「終了日時」は、作業が行われた時間を特定する。「属性名」および「値」は、属性情報として、属性の種類および属性値を示す。図4に示す例では、「区画X」および「区画Y」の2つの場所に関して、2017年6月2日の11時〜12時、12時〜13時、13時〜14時、14時〜15時の各時間帯で、属性名「室温」と属性名「作業者」についての属性情報が示されている。   FIG. 4 is a diagram showing an example of work related information. In the example shown in FIG. 4, "place" specifies the place where the work was performed. The “start date and time” and the “end date and time” specify the time when the work was performed. The "attribute name" and the "value" indicate the type of attribute and the attribute value as attribute information. In the example shown in FIG. 4, regarding two places of "section X" and "section Y", 11 o'clock to 12 o'clock, 12 o'clock to 13 o'clock, 13 o'clock to 14 o'clock, 14 o'clock on June 2, 2017 In each time zone of 15 o'clock, attribute information on the attribute name "room temperature" and the attribute name "worker" is shown.

作業者動作情報とは、作業者の動作を特定する情報である。作業者の動作には、作業における動作および作業中に行われた作業以外の動作が含まれる。例えば、対象物に対する立ち位置や姿勢を変更する動作等も含まれる。このような動作の情報は、作業場に設けられたカメラで撮影した映像や各種のセンサで検知されたセンサ値等を解析して得られる。また、映像やセンサ値に基づいて動作の情報を得る場合、得られた動作の情報に、その動作の確信度を付加するようにしても良い。動作の確信度の内容は、例えば、その動作が確実に行われたと判断される場合と、その動作が行われた可能性がある場合とを数段階で評価して区別することが考えられる。作業者動作情報に付加される確信度の情報は、例えば、「行われた」、「多分行われた」、「行われた可能性がある」等のような評価内容を示す情報としても良いし、評価の段階を表す数値(確実に行われた場合を100%とするパーセント値や、確実に行われた場合を最大値とする10段階の数値など)としても良い。作業者動作情報における個々の情報は、例えば、作業が行われた時間、場所、作業者等の情報に基づいて特定される。作業者動作情報の例については、特に図示しない。   The worker operation information is information for specifying a worker's operation. Worker operations include operations in operations and operations other than operations performed during operations. For example, the operation etc. which change the standing position and posture to a subject are also included. Information on such operation can be obtained by analyzing an image captured by a camera provided at a work place, sensor values detected by various sensors, and the like. In addition, when information of an operation is obtained based on a video or a sensor value, a certainty factor of the operation may be added to the obtained information of the operation. The content of the certainty factor of an operation can be considered by, for example, evaluating and distinguishing the case where it is determined that the operation has been reliably performed and the case where the operation may have been performed in several stages. The information on the degree of certainty added to the worker operation information may be, for example, information indicating an evaluation content such as "performed", "perhaps", "possibly performed", etc. In addition, it may be a numerical value representing the stage of evaluation (such as a percentage value with 100% in the case of being reliably performed, or a 10-step numerical value with the case of being reliably performed as the maximum value). Each piece of information in the worker operation information is identified based on, for example, information on the time, place, and worker when the work was performed. An example of the worker operation information is not particularly illustrated.

第1情報保持部140は、情報収集部130により取得された情報を保持する保持手段である。すなわち、第1情報保持部140は、第1保持手段の一例である。第1情報保持部140に保持された情報は、特徴検出部150による処理において参照される。   The first information holding unit 140 is a holding unit that holds information acquired by the information collecting unit 130. That is, the first information holding unit 140 is an example of the first holding unit. The information stored in the first information storage unit 140 is referred to in the processing by the feature detection unit 150.

特徴検出部150は、第1情報保持部140に保持されている情報のうち、特定の事象が表れた情報を検出する処理手段である。検出される事象は、第1情報保持部140に保持されている情報の種類に応じて予め定められた特徴を有する事象である。具体的な事象は、情報である変量や属性値の種類、作業対象の製品、作業場の環境、作業の種類、製品や作業に対する管理システムの設定等、作業に関する構成に応じて様々に設定し得る。例えば、変量の値や属性値の時間経過に伴う推移において突発的な変化が生じたこと、変量の値や属性値が予め定められた閾値を超えたこと、そのような変化の発生回数や発生頻度等を検出条件の事象としても良い。特徴検出部150は、検出手段の一例である。   The feature detection unit 150 is processing means for detecting, among the information held in the first information holding unit 140, information in which a specific event has appeared. An event to be detected is an event having a predetermined feature according to the type of information stored in the first information storage unit 140. Specific events can be set variously according to the configuration concerning work, such as information type of variable and attribute value, product of work target, environment of work place, kind of work, setting of management system for product and work, etc. . For example, a sudden change occurs in the transition of the value of the variable or the attribute value with the passage of time, that the value of the variable or the attribute value exceeds a predetermined threshold, the number of occurrences or occurrence of such change The frequency or the like may be an event of the detection condition. The feature detection unit 150 is an example of a detection unit.

関係性情報取得部160は、動作情報管理部110に管理されている動作と特徴検出部150により検出された情報の事象との関係性についての情報を取得する手段である。関係性情報取得部160は、これらの動作と事象との関係性の情報(関係性情報)を、その動作を行った作業者による入力を受け付けることにより取得する。具体的には、関係性情報取得部160は、動作と事象との関係性を問う質問を提示し、動作を行った作業者による回答を要求する。そして、提示された質問に対する、その動作を行った作業者による回答を受け付ける。したがって、関係性情報取得部160は、質問提示手段の一例であり、問い合わせ手段の一例である。そして、関係性情報取得部160は、回答受け付け手段の一例である。質問の提示および回答の受け付けは、例えば、質問文を表示した質問表示部と回答を入力する回答入力部とを有する質問画面を表示手段に表示させ、回答入力部に入力された回答を受け付けることにより行われる。また、関係性情報取得部160は、要求手段の一例である。ここで、関係性情報取得部160による質問は、例えば、質問文を予め用意しておき、関係性を問う対象である動作や検出された事象等に対応する質問文を選択して提示することにより行われる。動作や事象が変量を含む場合(例えば、日時を指定する場合や、事象の発生回数が検出条件となっている場合等)、それらの変量は事象が発生した情報から取得して質問文に挿入される。   The relationship information acquisition unit 160 is means for acquiring information on the relationship between the operation managed by the operation information management unit 110 and the event of the information detected by the feature detection unit 150. The relationship information acquiring unit 160 acquires information (relationship information) of the relationship between the operation and the event by receiving an input from the worker who has performed the operation. Specifically, the relationship information acquisition unit 160 presents a question asking the relationship between the action and the event, and requests an answer by the worker who has performed the action. Then, for the presented question, an answer by the worker who has performed the operation is accepted. Therefore, the relationship information acquisition unit 160 is an example of a question presenting unit, and an example of an inquiry unit. And the relationship information acquisition part 160 is an example of an answer reception means. To present a question and receive an answer, for example, display a question screen having a question display unit displaying a question sentence and an answer input unit for inputting an answer on the display means, and accept the answer input to the answer input unit. It is done by Further, the relationship information acquisition unit 160 is an example of a request unit. Here, for example, questions prepared by the relationship information acquisition unit 160 may be prepared in advance, and a question statement corresponding to an action or a detected event for which the relationship is to be asked should be selected and presented. It is done by If the motion or event contains a variable (for example, when specifying the date and time, or when the number of occurrences of the event is the detection condition), those variables are acquired from the information where the event occurred and inserted in the question sentence Be done.

また、関係性情報取得部160は、動作情報管理部110に管理された動作情報と、影響情報管理部120に管理された影響情報とに基づき、何らかの影響を生じさせた動作を特定する。ここで、作業者が行った動作により何らかの影響が生じるとき、その影響を生じさせるために行われた作業者の動作を作業者の行動と呼ぶことにする。すなわち、関係性情報取得部160は、動作情報管理部110に管理された動作のうち、何らかの影響を生じさせた行動を特定する。そして、関係性情報取得部160は、特定された動作である行動に関して、関係性情報を取得するための上記の処理を行う。したがって、動作情報管理部110、影響情報管理部120および関係性情報取得部160は、行動特定手段の一例である。   Further, the relationship information acquisition unit 160 identifies an operation that has caused some influence based on the operation information managed by the operation information management unit 110 and the influence information managed by the influence information management unit 120. Here, when an action performed by the worker causes some influence, the action of the worker performed to cause the influence is referred to as the action of the worker. That is, the relationship information acquisition unit 160 specifies an action that has caused some influence among the operations managed by the operation information management unit 110. Then, the relation information acquisition unit 160 performs the above-described process for acquiring relation information regarding the action that is the specified action. Therefore, the motion information management unit 110, the influence information management unit 120, and the relationship information acquisition unit 160 are an example of an action identification unit.

何らかの影響を生じさせた動作の特定は、例えば、次のようにして行う。予め、動作情報管理部110に管理された動作情報と影響情報管理部120に管理された影響情報とに基づき、ある動作に基づいてある影響が生じたと判断するための規則を設定しておく。例えば、動作情報管理部110に管理された動作情報により特定される動作が行われた日時と、影響情報管理部120に管理された影響情報により特定される影響が生じた日時とが特定の関係を有する場合に、かかる動作に基づいてかかる影響が生じたと判断するような規則を設定しても良い。また、動作の対象物と影響が生じた対象物とが特定の関係を有する場合に、かかる動作に基づいてかかる影響が生じたと判断するような規則を設定しても良い。そして、この規則に基づき、ある動作に基づいて生じた影響があると判断される場合に、関係性情報取得部160は、何らかの影響を生じさせる行動としての、その動作に関して、関係性情報を取得する。   The identification of the operation causing the influence is performed, for example, as follows. Based on the operation information managed by the operation information management unit 110 and the influence information managed by the influence information management unit 120, rules for determining that an influence has occurred based on a certain operation are set in advance. For example, the relationship between the date and time when the operation specified by the operation information managed by the operation information management unit 110 was performed and the date and time when the influence identified by the influence information managed by the influence information management unit 120 occurred In the case of the above, a rule may be set to determine that such an influence has occurred based on such an operation. Further, when the target of the movement and the target which has the influence have a specific relationship, a rule may be set to determine that the influence has occurred based on the movement. Then, based on this rule, when it is determined that there is an influence generated based on a certain action, the relation information acquisition unit 160 acquires relation information regarding the action as an action that causes some influence. Do.

また、関係性情報取得部160は、上記のようにして何らかの影響を生じさせる行動として特定された動作に関し、問い合わせ対象の事象を選択して質問を行う。問い合わせ対象の事象の選択は、例えば、行動として特定された動作が行われた日時と、事象が発生した日時とが特定の関係を有する場合に、そのような事象を問い合わせ対象とするような規則を設定して行われる。   Further, the relationship information acquiring unit 160 selects an event to be inquired about and makes a question regarding the operation identified as the action that causes some influence as described above. The selection of an event to be inquired is, for example, a rule in which such an event is to be inquired if there is a specific relationship between the date and time when the action specified as the action was performed and the date and time when the event occurred. Set up is done.

第2情報保持部170は、関係性情報取得部160により取得された動作と事象との関係性の情報を保持する保持手段である。すなわち、第2情報保持部170は、第2保持手段の一例である。   The second information holding unit 170 is a holding unit that holds information on the relationship between the operation and the event acquired by the relationship information acquiring unit 160. That is, the second information holding unit 170 is an example of the second holding unit.

<コンピュータのハードウェア構成>
図5は、行動情報処理装置100として用いられるコンピュータのハードウェア構成例を示す図である。図5に示すコンピュータ200は、演算手段であるCPU(Central Processing Unit)201と、記憶手段である主記憶装置(メイン・メモリ)202および外部記憶装置203を備える。CPU201は、外部記憶装置203に格納されたプログラムを主記憶装置202に読み込んで実行する。主記憶装置202としては、例えばRAM(Random Access Memory)が用いられる。外部記憶装置203としては、例えば磁気ディスク装置やSSD(Solid State Drive)等が用いられる。また、コンピュータ200は、表示装置(ディスプレイ)210に表示出力を行うための表示機構204と、コンピュータ200の操作者による入力操作が行われる入力デバイス205とを備える。入力デバイス205としては、例えばキーボードやマウス等が用いられる。また、コンピュータ200は、ネットワークに接続するためのネットワーク・インターフェイス206を備える。なお、図5に示すコンピュータ200の構成は一例に過ぎず、本実施形態で用いられるコンピュータは図5の構成例に限定されるものではない。例えば、記憶装置としてフラッシュ・メモリ等の不揮発性メモリやROM(Read Only Memory)を備える構成としても良い。
<Hardware configuration of computer>
FIG. 5 is a diagram showing an example of a hardware configuration of a computer used as the behavior information processing apparatus 100. As shown in FIG. The computer 200 shown in FIG. 5 includes a central processing unit (CPU) 201 which is a calculation unit, and a main storage unit (main memory) 202 which is a storage unit and an external storage unit 203. The CPU 201 loads a program stored in the external storage device 203 into the main storage device 202 and executes the program. As the main storage device 202, for example, a random access memory (RAM) is used. As the external storage device 203, for example, a magnetic disk drive, a solid state drive (SSD), or the like is used. Further, the computer 200 includes a display mechanism 204 for performing display output on the display device (display) 210, and an input device 205 on which an input operation by the operator of the computer 200 is performed. As the input device 205, for example, a keyboard, a mouse or the like is used. The computer 200 also comprises a network interface 206 for connecting to a network. The configuration of the computer 200 shown in FIG. 5 is merely an example, and the computer used in the present embodiment is not limited to the configuration example of FIG. For example, a non-volatile memory such as a flash memory or a ROM (Read Only Memory) may be provided as a storage device.

図1に示した行動情報処理装置100において、動作情報管理部110および影響情報管理部120は、例えば、プログラム制御されたCPU201と、主記憶装置202や外部記憶装置203等の記憶装置により実現される。情報収集部130は、例えば、プログラム制御されたCPU201と、ネットワーク・インターフェイス206により実現される。第1情報保持部140および第2情報保持部170は、例えば、主記憶装置202や外部記憶装置203等の記憶装置により実現される。特徴検出部150は、例えば、プログラム制御されたCPU201により実現される。関係性情報取得部160は、例えば、プログラム制御されたCPU201と、表示機構204および表示装置210と、入力デバイス205により実現される。関係性情報取得部160により生成された質問画面は、表示機構204により表示装置210に表示される。そして、作業者が入力デバイス205を操作することにより、質問画面に示された質問に対する回答が入力される。また、動作情報管理部110および影響情報管理部120において、動作情報および影響情報を作業者自身が入力する場合、例えば、図5に示す入力デバイス205が入力手段として用いられる。   In the behavior information processing apparatus 100 shown in FIG. 1, the operation information management unit 110 and the influence information management unit 120 are realized by, for example, the program-controlled CPU 201 and storage devices such as the main storage device 202 and the external storage device 203. Ru. The information collecting unit 130 is realized by, for example, the program-controlled CPU 201 and the network interface 206. The first information storage unit 140 and the second information storage unit 170 are realized by storage devices such as the main storage device 202 and the external storage device 203, for example. The feature detection unit 150 is realized by, for example, the CPU 201 under program control. The relationship information acquisition unit 160 is realized by, for example, the program-controlled CPU 201, the display mechanism 204 and the display device 210, and the input device 205. The question screen generated by the relationship information acquisition unit 160 is displayed on the display device 210 by the display mechanism 204. Then, when the operator operates the input device 205, an answer to the question shown on the question screen is input. In addition, in the operation information management unit 110 and the influence information management unit 120, when the operator himself / herself inputs the operation information and the influence information, for example, the input device 205 shown in FIG. 5 is used as the input means.

<行動情報処理装置の動作>
図6は、行動情報処理装置100の動作を示すフローチャートである。行動情報処理装置100は、動作情報管理部110により、動作情報を取得し、管理する(S601)。また、行動情報処理装置100は、影響情報管理部120により、影響情報を取得し、管理する(S602)。次に、行動情報処理装置100の関係性情報取得部160は、動作情報管理部110に保持されている動作情報および影響情報管理部120に保持されている影響情報に基づいて、作業者の行動を特定する(S603)。また、情報収集部130は、対象物および作業に関連する情報を取得する(S604)。
<Operation of Behavior Information Processing Device>
FIG. 6 is a flowchart showing the operation of the behavior information processing apparatus 100. The behavior information processing apparatus 100 causes the motion information management unit 110 to acquire and manage motion information (S601). Further, the behavior information processing apparatus 100 causes the influence information management unit 120 to acquire and manage the influence information (S602). Next, the relationship information acquisition unit 160 of the behavior information processing apparatus 100 performs the action of the worker based on the operation information held in the operation information management unit 110 and the influence information held in the influence information management unit 120. Are identified (S603). Further, the information collection unit 130 acquires information related to the object and the work (S604).

次に、行動情報処理装置100の特徴検出部150は、特定の特徴を有する事象が現れた情報を検出する(S605)。そして、関係性情報取得部160は、S603で行動として特定された動作と、S605で検出した情報における特定の特徴を有する事象との関係性に関する質問を生成し、提示する(S606)。次に、関係性情報取得部160は、S603で行動として特定された動作を行った作業者からの回答の入力を受け付けると(S607)、入力した回答に応じて、問い合わせ対象となった動作(行動)の動作情報および影響情報と、回答に基づく関係性を表す情報を第2情報保持部170に保持させる(S608)。   Next, the feature detection unit 150 of the behavior information processing apparatus 100 detects information in which an event having a specific feature has appeared (S605). Then, the relationship information acquisition unit 160 generates and presents a question regarding the relationship between the operation identified as the action in S603 and the event having the specific feature in the information detected in S605 (S606). Next, when the relationship information acquisition unit 160 receives an input of a response from the worker who has performed the operation specified as the action in S603 (S607), the operation that became the query target according to the input response ( Behavior information and influence information, and information representing the relationship based on the answer are held in the second information holding unit 170 (S 608).

<第1の適用例>
次に、本実施形態の適用例を説明する。ここでは、作業場設備の保全担当者を作業者として、設備保全のための行動を検出する処理について説明する。熟練作業者である保全担当者(以下、作業者)が、作業場設備を構成するシリンダーの一つにオイルを5ml(ミリ・リットル)注入する動作を行ったものとする。オイルが注入されたシリンダーの識別情報を#22とする。また、シリンダー#22へのオイルの注入は、2017年6月2日に行われたものとする。また、シリンダー#22は、作業場「区画X」に設置された設備に設けられているものとする。
<First application example>
Next, application examples of the present embodiment will be described. Here, a process of detecting an action for facility maintenance will be described with a person in charge of maintenance of the facility facility as a worker. It is assumed that a maintenance worker who is a skilled worker (hereinafter, a worker) performs an operation of injecting 5 ml (milliliter) of oil into one of the cylinders constituting the work space facility. The identification information of the cylinder into which the oil is injected is # 22. Also, it is assumed that the injection of oil into cylinder # 22 was performed on June 2, 2017. Moreover, cylinder # 22 shall be provided in the installation installed in the work area "section X."

ここでは、作業者が、自身がシリンダー#22にオイルを注入した動作を自覚しており、作業者自身の操作により、動作情報が入力され、動作情報管理部110に管理されるものとする。また、作業者は、オイルを注入した影響として、シリンダー#22の動作が滑らかになることを認識しており、作業者自身の操作により、影響情報が入力され、影響情報管理部120に管理されるものとする。関係性情報取得部160は、これらの動作情報および影響情報に基づき、シリンダー#22にオイルを注入した動作を関係性情報の取得対象の行動とする。   Here, it is assumed that the worker is aware of the operation of injecting oil into the cylinder # 22 and the operation information is input by the operation of the worker himself and managed by the operation information management unit 110. Further, the operator recognizes that the operation of the cylinder # 22 becomes smooth as the influence of the injection of the oil, and the influence information is inputted by the operation of the operator himself and managed by the influence information management unit 120. Shall be Based on the operation information and the influence information, the relation information acquisition unit 160 sets the operation in which the oil is injected into the cylinder # 22 as the action of the acquisition target of the relation information.

一方、情報収集部130は、対象物属性情報、検査値情報、作業関連情報および作業者動作情報を収集して第1情報保持部140に格納する。そして、特徴検出部150は、第1情報保持部140に保持された情報から、作業者によるシリンダー#22にオイルを注入する行動が行われた6月2日の近辺の情報を参照し、特徴のある事象の検出を行う。ここで、図2を参照すると、シリンダー#22に関する事象として、製造日から6か月経過していること、最終検査日から2か月経過していることがわかる。また、図3を参照すると、シリンダー#22の作動音が、前日と比較して約35%増大したことがわかる。また、図4を参照すると、区画Xでは室温が、11時〜12時で21度、12時〜13時で22度、13時〜14時および14時〜15時で23度となっている。また、区画Xでは、11時〜13時は作業者が「山田」であり、13時〜15時は作業者が「田中」であったことがわかる。したがって、例えば、シリンダー#22にオイルを注入する行動が行われた時刻が13時33分であるとすると、室温は23度であり、作業者は「田中」である。   On the other hand, the information collecting unit 130 collects the object attribute information, the inspection value information, the work related information, and the worker operation information, and stores the information in the first information holding unit 140. Then, the feature detection unit 150 refers to the information in the vicinity of June 2 in which the action of injecting the oil into the cylinder # 22 by the worker is performed from the information held in the first information holding unit 140, Detect certain events. Here, referring to FIG. 2, it can be seen that six months have passed from the date of manufacture and two months have passed from the final inspection date as events relating to cylinder # 22. Also, referring to FIG. 3, it can be seen that the operation noise of the cylinder # 22 has increased by about 35% as compared to the previous day. Further, referring to FIG. 4, in the section X, the room temperature is 21 degrees at 11 o'clock to 12 o'clock, 22 degrees at 12 o'clock to 13 o'clock, 23 degrees at 13 o'clock to 14 o'clock and 14 o'clock to 15 o'clock . In addition, in the section X, it is understood that the worker is “Yamada” from 11 o'clock to 13 o'clock, and the worker is “Tanaka” from 13 o'clock to 15:00. Therefore, for example, assuming that the time when the action of injecting oil into cylinder # 22 is performed is 13:33, the room temperature is 23 degrees, and the worker is "Tanaka."

関係性情報取得部160は、予め定められた規則に基づいて、特徴検出部150により検出された特徴のある事象に関して、質問画面により作業者に問い合わせるための質問文を作成する。具体的には、「オイルを注入したのは、○○○○○からですか?」という定型文を用意しておき、「○○○○○」の部分に、特定した事象に基づく内容を挿入する。ここでは、例えば次のような質問文が作成される。
「オイルを注入したのは、シリンダーが製造後6ヶ月経っていたからですか?」
「オイルを注入したのは、シリンダーが最終検査後、2ヶ月経っていたからですか?」
「オイルを注入したのは、動作音が前日と比べて35%増大したからですか?」
「オイルを注入したのは、室温が23度だったからですか?」
「オイルを注入したのは、室温が上昇傾向だったからですか?」
The relationship information acquisition unit 160 creates a question sentence for inquiring of the operator on the question screen regarding the event having the feature detected by the feature detection unit 150 based on a predetermined rule. Specifically, prepare a fixed-form sentence, “Who injected the oil from ○○○○?”, And in the “○○○○○” part, the contents based on the identified event insert. Here, for example, the following question sentence is created.
"Is it because oil was injected six months after production?"
"Is the oil injected because it has been two months since the last inspection of the cylinder?"
"Is it because the operating noise increased 35% compared to the previous day because of oil injection?"
"Is it because the room temperature was 23 degrees because the oil was injected?"
"Is the reason for injecting the oil because the room temperature was rising?"

質問の提示順は、適当な規則に基づいて定めて良い。例えば、次のような規則が考えられる。
・特定された事象における情報に含まれる値の平均値に対する乖離が大きいものから優先して提示する。
・特定された事象における情報に含まれる値が予め定められた管理値を超えているものを優先して提示する。
・特定された事象における情報に含まれる値の変化の度合いが大きいものを優先して提示する。
・関係性情報の取得対象の行動が行われた日時に対して最も近い日時に発生した事象から順に提示する。
The order of presenting the questions may be determined based on appropriate rules. For example, the following rules can be considered.
-Give priority to those with a large deviation from the average value of the values included in the information in the identified event.
-Give priority to those in which the value included in the information in the identified event exceeds a predetermined control value.
-Give priority to those with high degree of change in the value contained in the information in the identified event.
-Present in order from the event that occurred at the closest date and time to the date and time when the action for which the relationship information is to be acquired was performed.

さらにまた、特徴検出部150により検出された事象が複数ある場合に、各事象における特徴の表出具合に応じて、その事象に関する質問の提示順を決定しても良い。例えば、特徴検出部150が検出する事象として、「音が10db以上大きくなった」という事象P−1と、「気温が2度以上上がった」という事象P−2とが設定されている場合を考える。そして、情報収集部130が、音が30db大きくなったことを示す情報I−1と、気温が3度上がったという情報I−2とを取得したものとする。この場合、情報I−1により事象P−1が検出され、情報I−2により事象P−2が検出される。ここで、事象P−1が検出されるための条件である「10db以上」に対する情報I−1の「30db」という表出具合と、事象P−2が検出されるための条件である「2度以上」に対する情報I−1の「3度」という表出具合とを比較する。そして、情報I−1の表出具合の方が情報I−2の表出具合よりも大きいと判断されるならば、事象P−1に関する質問を先に行う。なお、表出具合の大きさの判断方法や判断基準は、例えば、事象の種類や情報収集部130により収集される情報が取得される現場の環境等に応じて、具体的に設定される。   Furthermore, when there are a plurality of events detected by the feature detection unit 150, the presentation order of questions regarding the events may be determined according to the appearance degree of the features in each event. For example, as the event detected by the feature detection unit 150, an event P-1 "the sound has increased by 10 db or more" and an event P-2 "the air temperature has risen by 2 degrees or more" are set. Think. Then, it is assumed that the information collection unit 130 has acquired information I-1 indicating that the sound has increased by 30 db and information I-2 indicating that the temperature has risen 3 degrees. In this case, the event P-1 is detected by the information I-1, and the event P-2 is detected by the information I-2. Here, “30 db” of information I-1 with respect to “10 db or more”, which is a condition for detecting event P-1, and a condition for detecting event P-2 “2 The degree of expression “three degrees” of the information I-1 with respect to “degree or more” is compared. Then, if it is determined that the degree of expression of the information I-1 is larger than the degree of expression of the information I-2, then the question regarding the event P-1 is made first. In addition, the determination method and the determination standard of the size of the degree of appearance are specifically set according to the type of event, the environment of the site where the information collected by the information collection unit 130 is acquired, and the like.

また、情報収集部130により収集された作業者動作情報に基づいて特徴検出部150による事象の検出が行われた場合に、各事象を検出する条件となった作業者の動作の確信度に応じて、その事象に関する質問の提示順を決定しても良い。例えば、映像やセンサ値に基づいて作業者動作情報を得ると共に、作業者動作情報に動作の確信度の情報が付加される場合を考える。各進度の情報は、その動作が確実に行われた場合を最大値とする3段階評価によるものとする。そして、特徴検出部150により事象として検出された動作に関して、ある動作B−1である確信度が「3」であり、他の動作B−2である確信度が「2」であるものとする。この場合、確信度が高い動作B−1が行われたとする判断に基づいて検出された事象に関する質問を先に行い、確信度が低い動作B−2が行われたとする判断に基づいて検出された事象に関する質問を後に行う。   In addition, when detection of an event by the feature detection unit 150 is performed based on the worker operation information collected by the information collection unit 130, according to the certainty factor of the operation of the worker who has become the condition for detecting each event. The order of presentation of the questions regarding the event may be determined. For example, consider a case where worker operation information is obtained based on an image or a sensor value, and information on the degree of certainty of operation is added to the worker operation information. It is assumed that the information on each progress is based on a three-step evaluation with the maximum value when the operation is reliably performed. Then, regarding the motion detected as an event by the feature detection unit 150, the certainty factor that is a certain action B-1 is “3”, and the certainty factor that is another action B-2 is “2”. . In this case, a question regarding an event detected based on the determination that the operation B-1 having a high degree of certainty is performed is first performed, and the detection is performed based on the determination that the operation B-2 having a low degree of certainty is performed. Ask questions about events that will occur later.

なお、関係性情報の取得対象である行動の種類、検出された事象の内容等に応じて、質問画面による質問の提示順を定める規則を切り替えても良い。また、質問文に対する回答は、肯定的な答え(例えば、「はい」)と否定的な答え(例えば、「いいえ」)の二値的な回答の他、中間的な回答(例えば、「○」、「△」、「×」で回答)、該当する程度による回答(例えば、100点中何点かを入力)、文章による自由回答(例えば、テキストによる入力欄への入力)等のように、様々な形式で受け付けて良い。また、受け付けた回答の内容に応じて、質問文の提示数を制御しても良い。   In addition, according to the kind of action which is the acquisition object of relationship information, the content of the detected event, etc., you may switch the rule which determines the presentation order of the question by a question screen. Moreover, as for the answer to the question sentence, in addition to the binary answer of the positive answer (for example, "Yes") and the negative answer (for example, "No"), the intermediate answer (for example, "○" , Answers with “△”, “×”), answers by the corresponding degree (for example, input some points out of 100 points), free answers by sentences (for example, input to the input field by text), etc. You may accept in various forms. Also, the number of questions presented may be controlled according to the content of the accepted answer.

図7は、質問画面の例を示す図である。図7に示す質問画面161には、質問表示部162と、回答入力部163とが設けられている。質問表示部162には、上記のようにして選択され作成された質問文が表示される。図7に示す例では、「オイルを注入したのは、シリンダーが製造後6ヶ月経っていたからですか?」という質問文が表示されている。また、図7に示す例において、回答入力部163には、回答として「はい」、「いいえ」、「その他」のいずれかを選択するための選択ボタン163aと、「その他」が選択された場合にテキストの入力を受け付けるための入力欄163bとが設けられている。作業者は、回答として「その他」を選択した場合、質問表示部162に表示された質問に対する回答を、入力欄163bを用いてテキストで入力することができる。一例を挙げると、図7の質問表示部162に表示された質問に対して、「シリンダーが製造後6ヶ月経っていた」ことは、今回の「オイルを注入した」という行動の直接的な原因ではないが、オイルを注入するか否かを判断する際に参酌すべき事項である場合、そのような内容の文章を入力欄163bに入力しても良い。   FIG. 7 is a diagram showing an example of the question screen. A question display unit 162 and an answer input unit 163 are provided in the question screen 161 shown in FIG. 7. The question display unit 162 displays a question sentence selected and created as described above. In the example shown in FIG. 7, the question sentence "Is the oil injected six months after production of the cylinder?" Is displayed. Further, in the example illustrated in FIG. 7, when the selection button 163 a for selecting one of “Yes”, “No”, and “Others” as an answer and “Others” are selected in the answer input unit 163. And an input field 163b for receiving an input of text. When the worker selects “Other” as the answer, the operator can input an answer to the question displayed on the question display unit 162 as a text by using the input field 163 b. As an example, in response to the question displayed in the question display section 162 of FIG. 7, the fact that "the cylinder has been six months after production" is the direct cause of the current "injected oil" action. However, if it is a matter to be taken into consideration in determining whether or not to inject the oil, a sentence having such content may be input in the input field 163b.

図8は、質問画面の他の例を示す図である。図8に示す質問画面161において、質問表示部162は、図7に示した質問画面161の質問表示部162と同様である。回答入力部163は、テキストの入力を受け付ける入力欄(図8では「記入欄」と記載)のみで構成されている。このように構成された質問画面161を用いる場合、関係性情報取得部160は、質問に対する回答(関係性情報)として、上記の図7に示す質問画面161における入力欄163bへの入力例のような、より具体的な内容や詳細な情報を含む回答を得ることができる。また、図8に示す回答入力部163に対し、テキスト入力により「はい」、「いいえ」等の回答を入力しても良い。   FIG. 8 is a diagram showing another example of the question screen. In the question screen 161 shown in FIG. 8, the question display unit 162 is the same as the question display unit 162 of the question screen 161 shown in FIG. 7. The answer input unit 163 includes only an input field for receiving text input (described as “entry field” in FIG. 8). When the question screen 161 configured in this way is used, the relationship information acquisition unit 160 is an example of an input to the input field 163 b in the question screen 161 shown in FIG. 7 as an answer (relationship information) to the question. You can get answers that contain more specific content and detailed information. Further, answers such as “Yes” and “No” may be input to the answer input unit 163 shown in FIG. 8 by text input.

関係性情報取得部160は、回答を受け付けると、行動として特定された動作(ここでは、シリンダーにオイルを注入する動作)の動作情報と、この動作による影響(ここでは、シリンダーの動作が滑らかになること)の影響情報と、作業者の回答に基づく関係性情報(ここでは、例えば、動作音が前日と比べて35%増大したという事象)を、第2情報保持部170に格納する。   When the relationship information acquisition unit 160 receives an answer, the operation information of the operation (here, the operation of injecting oil into the cylinder) specified as the activity and the influence of this operation (here, the operation of the cylinder becomes smooth) And the relationship information based on the reply of the worker (here, for example, an event that the operation sound is increased by 35% compared to the previous day) is stored in the second information storage unit 170.

<第2の適用例>
次に、本実施形態の他の適用例を説明する。ここでは、作業者が対象物である製品に対する作業を行う際の行動を検出する処理について説明する。製造ラインでの作業において、熟練作業者と非熟練作業者とが異なる動作を行ったものとする。具体的には、熟練作業者が、特定の製品に対する作業を行う際に立ち位置を変更することがあるものとする。
<Second application example>
Next, another application example of the present embodiment will be described. Here, a process of detecting an action when a worker works on a product which is an object will be described. It is assumed that skilled workers and non-skilled workers perform different operations in the production line. Specifically, a skilled worker may change the standing position when performing work on a specific product.

ここでは、作業場の作業状況をカメラで撮影して得られた映像を外部サーバ(映像解析サーバ)により解析し、非熟練作業者が行わない熟練作業者の動作が検出されたものとする。検出された動作の情報は、外部サーバから行動情報処理装置100へ送られ、動作情報管理部110に管理される。また、作業現場の管理者により、熟練作業者(作業中に立ち位置を変更する作業者)による作業と、非熟練作業者(作業中に立ち位置を変更しない作業者)による作業とで、前者の方が不良排出率が少ないことが把握されたものとする。この情報は、管理者により、影響情報として入力され、影響情報管理部120に管理される。関係性情報取得部160は、これらの動作情報および影響情報に基づき、特定の製品に対する作業を行う際に立ち位置を変更する動作を関係性情報の取得対象の行動とする。   Here, it is assumed that an image obtained by photographing the work situation of the work place with a camera is analyzed by an external server (image analysis server), and an operation of a skilled worker not performed by a non-skilled worker is detected. Information of the detected operation is sent from the external server to the behavior information processing apparatus 100 and managed by the operation information management unit 110. In addition, the former by the manager of the work site with work by a skilled worker (worker who changes the standing position during work) and work by a non-skilled worker (worker who does not change the standing position during work) It is assumed that the defect emission rate is lower. This information is input as influence information by the administrator and managed by the influence information management unit 120. Based on the operation information and the influence information, the relationship information acquisition unit 160 sets the operation of changing the standing position when performing the work on the specific product as the action of the acquisition object of the relationship information.

一方、情報収集部130は、対象物属性情報、検査値情報、作業関連情報および作業者動作情報を収集して第1情報保持部140に格納する。特徴検出部150は、第1情報保持部140に保持された情報から、作業者が立ち位置を変更する行動を行った日時の近辺の情報を参照し、特徴のある事象の検出を行う。ここで、立ち位置を変更する行動が度々行われている場合、立ち位置を変更して行われた作業の対象である製品も複数存在する。そして、この製品ごとに、製品に対する作業が行われた際の対象物属性情報、検査値情報、作業関連情報および作業者動作情報が存在する。そこで、各製品に対する作業に関連する情報のうち、共通する種類の情報として分類される情報を抽出して収集しても良い。情報の分類は、例えば、特定の規則に基づいて、予め行っておく。   On the other hand, the information collecting unit 130 collects the object attribute information, the inspection value information, the work related information, and the worker operation information, and stores the information in the first information holding unit 140. The feature detection unit 150 refers to the information stored in the first information storage unit 140 and refers to information in the vicinity of the date and time when the worker took an action to change the standing position, and detect a characteristic event. Here, when the action of changing the standing position is frequently performed, there are a plurality of products which are targets of the work performed by changing the standing position. Then, for each product, there exist object attribute information, inspection value information, work related information, and worker operation information when work on the product is performed. Therefore, information classified as common types of information may be extracted and collected from information related to work for each product. Classification of information is performed in advance, for example, based on a specific rule.

関係性情報取得部160は、予め定められた規則に基づいて、特徴検出部150により検出された特徴のある事象に関して、作業者に問い合わせるための質問文を作成する。質問文の作成については、第1の適用例と同様である。具体的には、例えば次のような質問文が作成される。
「立ち位置を変更したことと、すべての対象製品のコンベア上の製品設置角度が斜め45度〜60度の範囲内であったことは関係がありますか?」
「立ち位置を変更した製品20個中17個(85%)で、前工程にて締め付けトルク値NGによるラインアウトした製品であることは関係がありますか?」
The relationship information acquisition unit 160 creates a question sentence for inquiring of the worker regarding an event having a feature detected by the feature detection unit 150 based on a predetermined rule. The creation of the question sentence is the same as in the first application example. Specifically, for example, the following question sentence is created.
"Is there any relation between changing the standing position and the product installation angle on the conveyor of all target products being within the range of 45 degrees to 60 degrees?"
"Are 17 products (85%) out of 20 products whose standing position has been changed, are there any related products that were out of line with tightening torque value NG in the previous process?"

なお、第2の適用例においても、例えば、より多くの製品に対する作業において共通して生じていた事象に関する質問文を優先して提示する等、質問文の提示順を制御しても良い。関係性情報取得部160は、回答を受け付けると、行動として特定された動作(ここでは、立ち位置を変更する動作)の動作情報と、この動作による影響(ここでは、不良排出率が減少すること)の影響情報と、作業者の回答に基づく関係性情報(ここでは、例えば、前工程にて締め付けトルク値NGによるラインアウトした製品であるという事象、および、対象製品のコンベア上の製品設置角度が斜め45度〜60度の範囲内であったという事象)を、第2情報保持部170に格納する。   Also in the second application example, for example, the order of presentation of question sentences may be controlled such that question sentences relating to events commonly occurring in work on more products are preferentially presented. When the relationship information acquisition unit 160 receives an answer, the operation information of the operation (here, the operation of changing the standing position) specified as the activity, and the influence of this operation (here, the defect emission rate decreases). ) And relationship information based on the worker's response (here, for example, an event that the product has been lined out with a tightening torque value NG in the previous step, and the product installation angle on the conveyor of the target product Is stored in the second information storage unit 170).

以上のように、本実施形態では、作業者の動作のうち、何らかの影響を生じさせる行動を特定し、対象物や作業に関連して収集される様々な情報に基づき、特徴のある事象を検出し、作業者の行動と検出された事象との関係性を作業者に問う。そして、作業者による回答を、行動に関する知識として保存する。作業者の行動と事象との関係を質問として提示することにより、作業者自身が言語化して認識していない知識(いわゆる暗黙知)を顕在化させ、非熟練作業者にも実施可能な手法として抽出することを支援する。   As described above, in the present embodiment, among the actions of the worker, the action causing the influence is identified, and the characteristic event is detected based on various information collected in relation to the object or the work. Ask the worker the relationship between the worker's behavior and the detected event. Then, the reply by the worker is stored as knowledge about the action. By presenting the relationship between the worker's behavior and the event as a question, knowledge that the worker himself has verbalized and does not recognize (so-called tacit knowledge) is revealed, and this can be implemented as a method that can be implemented even for non-skilled workers. Help to extract.

以上、本発明の実施形態について説明したが、本発明の技術的範囲は上記の実施形態には限定されない。本発明の技術思想の範囲から逸脱しない様々な変更や構成の代替は、本発明に含まれる。例えば、情報収集部130が収集する変量の情報は、本実施形態による支援対象の現場システムの種類や使用、作業の内容等に応じて具体的に設定される。また、質問の具体的な提示方法についても、上述した方法には限定されない。また、上記第2の適用例では、カメラで撮影して得られた映像を解析することにより、非熟練作業者が行わない熟練作業者の動作を検出したが、人感センサや重量センサその他のセンサで取得されるセンサ値から作業者の立ち位置や姿勢、作業者が所持する道具や扱う機器等を特定し、作業者の動作を検出しても良い。   As mentioned above, although the embodiment of the present invention was described, the technical scope of the present invention is not limited to the above-mentioned embodiment. Various alternatives and modifications without departing from the scope of the technical idea of the present invention are included in the present invention. For example, the information of the variable collected by the information collection unit 130 is specifically set according to the type and use of the site system to be supported according to the present embodiment, the content of work, and the like. Also, the specific presentation method of the question is not limited to the above-described method. Further, in the second application example described above, the motion of a skilled worker not performed by a non-skilled worker is detected by analyzing an image obtained by photographing with a camera. The operator's action may be detected by specifying the standing position or posture of the worker, the tool possessed by the worker, the equipment to be handled, etc. from the sensor value acquired by the sensor.

100…行動情報処理装置、110…動作情報管理部、120…影響情報管理部、130…情報収集部、140…第1情報保持部、150…特徴検出部、160…関係性情報取得部、170…第2情報保持部 100 Behavior information processing apparatus 110 Operation information management unit 120 Influence information management unit 130 Information collection unit 140 First information storage unit 150 Feature detection unit 160 Relationship information acquisition unit 170 ... 2nd information holding unit

Claims (8)

作業環境における複数の変量の情報を収集する収集手段と、
前記収集手段が収集した情報を保持する第1保持手段と、
前記作業環境における作業者の行動を特定する行動特定手段と、
前記第1保持手段に保持された情報から、情報の種類に応じて予め定められた特徴を有する事象が表れた情報を検出する検出手段と、
前記行動特定手段により特定された行動と前記検出手段により検出された情報の事象との関係性についての情報の入力を要求する要求手段と、
前記要求手段の要求に応じて入力された情報を保持する第2保持手段と、
を備えることを特徴とする、行動情報処理装置。
Collection means for collecting information on multiple variables in the work environment;
First holding means for holding information collected by the collecting means;
Action specifying means for specifying a worker's action in the work environment;
A detection unit that detects, from the information held by the first holding unit, information in which an event having a predetermined feature according to the type of the information has appeared;
Request means for requesting input of information on the relationship between the action specified by the action specifying means and the event of the information detected by the detection means;
Second holding means for holding information input in response to the request of the request means;
An action information processing apparatus comprising:
前記要求手段は、
質問を生成して提示する質問提示手段と、
提示した質問に対する回答の入力を受け付ける回答受け付け手段と、
を備えることを特徴とする、請求項1に記載の行動情報処理装置。
The request means is
Question presenting means for generating and presenting a question;
Answer acceptance means for accepting input of an answer to the presented question;
The behavior information processing apparatus according to claim 1, comprising:
前記質問提示手段は、前記行動特定手段により特定された行動の種類に応じて、質問の種類および提示順を決定することを特徴とする、請求項2に記載の行動情報処理装置。   The behavior information processing apparatus according to claim 2, wherein the question presenting unit determines the type of the question and the presentation order according to the type of the behavior identified by the behavior identifying unit. 前記行動特定手段は、
作業者の動作を特定する動作特定手段と、
動作の影響と判断される事象を特定する影響特定手段と、
を備えることを特徴とする、請求項1に記載の行動情報処理装置。
The action identification means
Operation specifying means for specifying an operator's operation;
Impact identification means for identifying an event that is determined to be an impact of an operation;
The behavior information processing apparatus according to claim 1, comprising:
前記動作特定手段は、作業者による動作に関する情報の入力を受け付け、入力された情報を解析して、当該作業者の動作の内容を特定することを特徴とする、請求項4に記載の行動情報処理装置。   5. The action information according to claim 4, wherein the action specifying unit receives an input of information on an action by the worker, analyzes the input information, and specifies contents of the action of the worker. Processing unit. 前記動作特定手段は、作業環境に設けられたセンサにより計測される作業者のデータに基づき、当該作業者の動作の内容を特定することを特徴とする、請求項4に記載の行動情報処理装置。   The behavior information processing apparatus according to claim 4, wherein the operation specifying means specifies the content of the operation of the worker based on data of the worker measured by a sensor provided in the work environment. . 前記動作特定手段は、作業者を撮影した映像を解析して、当該作業者の動作の内容を特定することを特徴とする、請求項4に記載の行動情報処理装置。   The behavior information processing apparatus according to claim 4, wherein the operation specifying unit analyzes an image obtained by photographing the worker and specifies a content of the operation of the worker. 作業環境において取得される変量の情報に関して、情報の種類に応じて予め定められた特徴を有する事象が表れた情報を提示すると共に、当該作業環境における作業者の行動との関係を当該作業者に問い合わせる問い合わせ手段と、
前記問い合わせ手段による問い合わせに対する回答の入力を受け付ける回答受け付け手段と、
を備えることを特徴とする、行動情報処理装置。
With regard to the information of the variable acquired in the work environment, information presenting an event having a predetermined characteristic according to the type of information is presented, and the relationship with the worker's behavior in the work environment is given to the worker Inquiry means to inquire,
Response receiving means for receiving an input of a response to the query by the query means;
An action information processing apparatus comprising:
JP2017185631A 2017-09-27 2017-09-27 Behavior information processing device Active JP7069617B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017185631A JP7069617B2 (en) 2017-09-27 2017-09-27 Behavior information processing device
US16/130,267 US20190095848A1 (en) 2017-09-27 2018-09-13 Action-information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017185631A JP7069617B2 (en) 2017-09-27 2017-09-27 Behavior information processing device

Publications (2)

Publication Number Publication Date
JP2019061501A true JP2019061501A (en) 2019-04-18
JP7069617B2 JP7069617B2 (en) 2022-05-18

Family

ID=65809322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017185631A Active JP7069617B2 (en) 2017-09-27 2017-09-27 Behavior information processing device

Country Status (2)

Country Link
US (1) US20190095848A1 (en)
JP (1) JP7069617B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11120374B2 (en) * 2018-10-08 2021-09-14 Cräkn, Llc Memorial event management system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001092525A (en) * 1999-09-21 2001-04-06 Mitsubishi Electric Corp Human-machine system observation device
JP2012525623A (en) * 2009-04-30 2012-10-22 ジーイー・インフラストラクチャー・サウスアフリカ(プロプライアトリー)・リミテッド Method for providing a process decision support system

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4413277A (en) * 1981-01-23 1983-11-01 Instant Replay Systems Instant replay productivity motivation system
US5212635A (en) * 1989-10-23 1993-05-18 International Business Machines Corporation Method and apparatus for measurement of manufacturing technician efficiency
US6033226A (en) * 1997-05-15 2000-03-07 Northrop Grumman Corporation Machining tool operator training system
US7222086B2 (en) * 2001-05-02 2007-05-22 Ncr Corp. Systems and methods for providing performance feedback to a cashier at a point-of-sale terminal
JP3915011B2 (en) * 2002-03-20 2007-05-16 富士通株式会社 Skill analysis method, skill analysis program, and skill analysis apparatus
US7769622B2 (en) * 2002-11-27 2010-08-03 Bt Group Plc System and method for capturing and publishing insight of contact center users whose performance is above a reference key performance indicator
US20060047535A1 (en) * 2004-08-26 2006-03-02 Paiva Fredricksen Group, Llc Method and system of business management
US20060095317A1 (en) * 2004-11-03 2006-05-04 Target Brands, Inc. System and method for monitoring retail store performance
US20070015125A1 (en) * 2005-07-14 2007-01-18 Presidio Sciences, L.P. Automated updating of job assessments
US20070015124A1 (en) * 2005-07-14 2007-01-18 Presidio Sciences, L.P. Automated updating of job analyses
US9129233B2 (en) * 2006-02-15 2015-09-08 Catepillar Inc. System and method for training a machine operator
US20090299827A1 (en) * 2008-05-30 2009-12-03 Oracle International Corporation Verifying Operator Competence
US7920935B2 (en) * 2008-08-19 2011-04-05 International Business Machines Corporation Activity based real-time production instruction adaptation
US20100167248A1 (en) * 2008-12-31 2010-07-01 Haptica Ltd. Tracking and training system for medical procedures
US8180105B2 (en) * 2009-09-17 2012-05-15 Behavioral Recognition Systems, Inc. Classifier anomalies for observed behaviors in a video surveillance system
US9293060B2 (en) * 2010-05-06 2016-03-22 Ai Cure Technologies Llc Apparatus and method for recognition of patient activities when obtaining protocol adherence data
US8727782B2 (en) * 2010-05-11 2014-05-20 Across The Street Productions Inc. Hazard-zone incident command training and certification systems
US9036173B2 (en) * 2011-04-27 2015-05-19 Xerox Corporation Methods and systems to troubleshoot malfunctions in multifunction devices using a wireless handheld device
US9208470B2 (en) * 2011-10-04 2015-12-08 Yahoo! Inc. System for custom user-generated achievement badges based on activity feeds
US20130311244A1 (en) * 2012-05-16 2013-11-21 David D. Abotchie Computer Automated System for Selecting, Tracking, and Rating Workers
US20140315164A1 (en) * 2013-04-17 2014-10-23 Caterpillar Inc. System and method for improving operator performance
CA2918506C (en) * 2013-09-05 2022-03-22 Crown Equipment Corporation Dynamic operator behavior analyzer
US10510267B2 (en) * 2013-12-20 2019-12-17 Intuitive Surgical Operations, Inc. Simulator system for medical procedure training
US10380704B2 (en) * 2014-01-14 2019-08-13 Deere & Company Operator performance recommendation generation
WO2015108700A1 (en) * 2014-01-14 2015-07-23 Zsolutionz, LLC Sensor-based evaluation and feedback of exercise performance
US20150242797A1 (en) * 2014-02-27 2015-08-27 University of Alaska Anchorage Methods and systems for evaluating performance
US10335091B2 (en) * 2014-03-19 2019-07-02 Tactonic Technologies, Llc Method and apparatus to infer object and agent properties, activity capacities, behaviors, and intents from contact and pressure images
US20160306172A1 (en) * 2015-04-20 2016-10-20 NSF International Computer-implemented techniques for remotely interacting with performance of food quality, food safety, and workplace safety tasks
WO2017154758A1 (en) * 2016-03-09 2017-09-14 日本電気株式会社 Information processing system and information processing method, server device, client, and recording medium on which computer program is stored
US10902737B2 (en) * 2016-09-30 2021-01-26 Genesys Telecommunications Laboratories, Inc. System and method for automatic quality evaluation of interactions

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001092525A (en) * 1999-09-21 2001-04-06 Mitsubishi Electric Corp Human-machine system observation device
JP2012525623A (en) * 2009-04-30 2012-10-22 ジーイー・インフラストラクチャー・サウスアフリカ(プロプライアトリー)・リミテッド Method for providing a process decision support system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
坂上 聡子: "保守現場における技術者知識の共有化の課題と実例", システム/制御/情報, vol. 第52巻 第4号, JPN6021020852, 15 April 2008 (2008-04-15), JP, pages 26 - 31, ISSN: 0004678818 *
鈴木 剛: "プラント安全運転と技能伝承・教育へ向けた保守・点検作業支援システムの開発", 計装, vol. 48, no. 6, JPN6021020850, 1 June 2005 (2005-06-01), JP, pages 27 - 31, ISSN: 0004678817 *

Also Published As

Publication number Publication date
US20190095848A1 (en) 2019-03-28
JP7069617B2 (en) 2022-05-18

Similar Documents

Publication Publication Date Title
GB2586105A (en) Quality review management system
JP2013534310A5 (en)
JP2005346655A (en) Process control system, process control method, process control program and recording medium for program
CN110334816B (en) Industrial equipment detection method, device, equipment and readable storage medium
JP2012150787A (en) Monitoring control system
US11138805B2 (en) Quantitative quality assurance for mixed reality
JP5061744B2 (en) Situation analysis system and situation analysis method
JP2017097628A (en) Maintenance system
JP5062496B2 (en) Operating state analysis system and operating state analysis method
CN112465288A (en) System and method for automatically capturing technology transfer knowledge
JP4273763B2 (en) Design support system
JP2019061501A (en) Behavior information processing device
JP6802122B2 (en) Cause estimation method and program
JP6312955B1 (en) Quality analysis apparatus and quality analysis method
JP2008046746A (en) Process managing system
JP2020017283A (en) Program, information processing device, and information processing method
JP6715705B2 (en) Failure cause search system and failure cause search method
JP2020024529A (en) Work management system
CN113672497B (en) Method, device and equipment for generating non-buried point event and storage medium
JP6247777B2 (en) Abnormality diagnosis apparatus and abnormality diagnosis method
CN115099425A (en) Remote detection method for electromechanical equipment maintenance
CN111596619B (en) Computer system and facility monitoring method
CN110688424A (en) Production monitoring method and device
JP5527533B2 (en) Usability evaluation support apparatus, method, and program for web-based system
CN109726818B (en) Model editing method, device, equipment and medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220418

R150 Certificate of patent or registration of utility model

Ref document number: 7069617

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150